#F8F8F8

KI-Zeitenwende.

So gelingt der verantwortungsvolle Umgang mit KI.

Das rote Adobe-Logo auf schwarzem Hintergrund mit schwebenden Icons, die Parameter für verantwortungsvolle KI darstellen.
#F8F8F8

Der Weg zu verantwortungsvoller KI-Innovation.

In diesem Leitfaden erfahrt ihr, welche Tools, Strategien und Denkweisen ihr braucht, um KI-Lösungen für euer Unternehmen effektiv zu bewerten, zu testen, einzuführen und zu überwachen.

An einem verantwortungsvollen Umgang mit KI führt kein Weg vorbei.

KI als Katalysator für Transformation zwingt Führungskräfte aller Branchen zu schnellen Veränderungen, um bei Wettbewerbsfähigkeit und betrieblicher Effizienz nicht den Anschluss zu verlieren. Der schnelle Umstieg auf KI birgt aber auch Gefahren. Ohne eine sorgfältige Überwachung riskieren Organisationen rechtliche und operative Probleme – und ihren guten Ruf. Die richtige Balance zwischen Tempo und Verantwortungsbewusstsein zu finden, ist strategisch notwendig.

Governance und Risiko-Management von KI werden oft als extrem komplex empfunden. Neue Richt- und Leitlinien sowie Gesetze auf internationaler, nationaler und regionaler Ebene erschweren den Einstieg zusätzlich. Adobe kennt sich mit verantwortungsvoller Innovation aus. Wir handeln nach den ethischen Prinzipien Rechenschaftspflicht, Verantwortung und Transparenz und sind damit umfassend auf diese Herausforderungen eingestellt.

Unsere Erfahrung zeigt, dass der verantwortungsvolle Umgang mit KI zwar komplex erscheint, mit den richtigen Tools, Strategien und Mindsets aber durchaus zu bewältigen ist.

Zuallererst müssen Organisationen entscheiden, ob sie ihre KI-Lösung selbst erstellen, kaufen und/oder anpassen wollen. Der folgende Ansatz geht davon aus, dass Organisationen die KI-Lösungen erwerben und basierend auf ihren Werten in die vorhandenen Geschäftsabläufe integrieren wollen. Unabhängige Recherchen und Experten-Interviews zur KI-Governance bilden die Grundlage für ein Framework, das Organisationen dabei unterstützt, ihre aktuelle Situation zu beurteilen und eine verantwortungsvolle Einbindung von KI in den Unternehmensbetrieb sicherzustellen. Es zeigt in übersichtlichen Schritten, wie ihr Richtlinien zur Nutzung generativer KI durch Mitarbeitende definiert, Anbieter mittels Fragebögen bewertet und Prozesse zur KI-Governance auf dem aktuellen Stand haltet.

Egal ob ihr in erster Linie eure KI-Bereitschaft einordnen oder bestehende Strategien anpassen wollt: Das hier vorgestellte Framework bietet einen bewährten Ansatz, der menschlichen Einfallsreichtum mit aktueller KI-Governance kombiniert. Mit dieser Roadmap könnt ihr KI-Lösungen beurteilen, testen, implementieren und überwachen und ein Fundament schaffen, das Vertrauen fördert, Risiken minimiert und euer Business nachhaltig voranbringt.

Framework für den Aufbau einer skalierbaren und ethischen KI-Zukunft.

Vierstufiges Framework für verantwortungsvolle KI-Innovation: beurteilen, pilotieren, überwachen und einführen – jeweils dargestellt mit Händen, die mit technischen Elementen interagieren.
Vierstufiges Framework für verantwortungsvolle KI-Innovation: beurteilen, pilotieren, überwachen und einführen – jeweils dargestellt mit Händen, die mit technischen Elementen interagieren.
Vierstufiges Framework für verantwortungsvolle KI-Innovation: beurteilen, pilotieren, überwachen und einführen – jeweils dargestellt mit Händen, die mit technischen Elementen interagieren.

Zur erfolgreichen Implementierung von generativer KI gehört mehr, als eine Checkliste abzuhaken. Gefragt ist ein strategischer, mehrstufiger Ansatz, bei dem alle Phasen aufeinander aufbauen und so ein Fundament für nachhaltige Innovation und ethische KI-Praktiken geschaffen wird. Die einzelnen Bausteine greifen ineinander und stellen in jeder Phase einen verantwortungsvollen Umgang mit KI sicher – von der Beurteilung der Bereitschaft über die effektive Skalierung der KI-Systeme bis zum laufenden Monitoring.

Dieses Modell betrachtet die Einführung von KI nicht prozessbasiert, sondern als System, das sich im Einklang mit den geschäftlichen Anforderungen kontinuierlich weiterentwickelt. Nur mit dem richtigen Gleichgewicht zwischen menschlicher Kontrolle und fortschrittlicher KI-Technologie gelingt es, das Potenzial von KI zu nutzen, ohne ethische, regulatorische oder operative Ziele zu gefährden.

Alle Phasen dieses Frameworks – Beurteilung der Bereitschaft, verantwortungsvolle Pilotprojekte, Implementierung und Skalierung sowie Monitoring – unterstützen sich gegenseitig und legen so den Grundstein für langfristigen Erfolg. Durch den verantwortungsvollen Umgang mit KI in jeder Phase könnt ihr die Herausforderungen beim Umstieg auf KI bewältigen und Vertrauen, Transparenz und Rechenschaftspflicht fördern.

Zugrunde liegende Expertise und Recherchen.

Für eine unabhängige Studie zum Einsatz von generativer KI wurden im Auftrag von Adobe über 200 Führungskräfte für IT, Betrieb und Compliance aus verschiedenen Branchen befragt. An den Ergebnissen lassen sich aktuelle Methoden, Herausforderungen und Erfolgsstrategien ablesen. Außerdem hat Adobe ausführliche Interviews mit Branchenprofis geführt und weltweite Standards wie die EU-Verordnung über künstliche Intelligenz, das NIST AI Risk Management Framework, die „AI Verify“-Initiative in Singapur, den IEEE-Standard 7000 und ISO 42001 untersucht. Damit ist sichergestellt, dass sich das Framework für Unternehmen jeder Branche und Größe eignet – unabhängig vom Status der KI-Einführung.

1. Beurteilung: Die organisatorische Bereitschaft bewerten und verantwortungsvoll erstellte Technologie auswählen.

Detailansicht des Beurteilungsschritts im Framework für verantwortungsvolle KI-Innovation — mit Schwerpunkt auf Bereitschaft und Auswertung von KI-Technologie.
Detailansicht des Beurteilungsschritts im Framework für verantwortungsvolle KI-Innovation — mit Schwerpunkt auf Bereitschaft und Auswertung von KI-Technologie.
Detailansicht des Beurteilungsschritts im Framework für verantwortungsvolle KI-Innovation — mit Schwerpunkt auf Bereitschaft und Auswertung von KI-Technologie.
Der verantwortungsvolle Umgang mit KI beginnt bei den Entscheidenden. In der Beurteilungsphase prüfen sie mit geeigneten Tools, Daten und Erkenntnissen, wie sich KI in die strategischen Prioritäten einbinden lässt. Das schließt auch eine funktionsübergreifende Analyse der technischen Infrastruktur, der Governance-Frameworks und der vorhandenen KI-Skills ein.

Bereitschaft der Organisation beurteilen.

Viele Organisationen haben inzwischen mit der Einführung von KI begonnen. Nur 21 % der Befragten haben ihre Prioritäten für einen verantwortungsvollen KI-Einsatz aber voll ausformuliert – 78 % sind noch bei der Entwicklung oder Planung. Führungskräfte aus den Bereichen IT, Compliance, Risiko-Management und Strategie sind wesentlich am verantwortungsvollen Einsatz von KI beteiligt. Der erste Schritt besteht darin, Lücken in den Governance-Frameworks und KI-Skills zu ermitteln, die den Einsatz der KI beeinträchtigen könnten.

Organisationen brauchen einen ganzheitlichen Ansatz zur Beurteilung der KI-Bereitschaft, der Management-Initiativen mit Feedback von Mitarbeitenden kombiniert, die die KI täglich nutzen.

Erforderliche Aktionen:

  • Detailliertes Audit zur Bereitschaft durchführen: Die Evaluierung der technischen Infrastruktur, Governance-Standards, KI-Richtlinien, Frameworks für verantwortungsvolle Innovation sowie Compliance-Standards gibt Aufschluss über Stärken und Schwachstellen, sodass strategische Ziele und Anforderungen für den verantwortungsvollen KI-Einsatz erfolgreich aufeinander abgestimmt werden können.
  • Lücken identifizieren und schließen: Bestimmt, wo zusätzliche Standards für Sicherheit, Datenschutz, Rechtssicherheit, Compliance und Transparenz nötig sind, und erarbeitet konkrete nächste Schritte mit cross-funktionalen Teams aus der IT-, Rechts- und Compliance-Abteilung und den Geschäftsbereichen.
  • Governance-Teams aufbauen: Stellt Teams zusammen, die die Compliance mit internen Standards zum verantwortungsvollen Einsatz von KI und regulatorischen Vorgaben überwachen, und stattet sie mit den nötigen Befugnissen und Ressourcen aus, um Risiken proaktiv zu verwalten und auf wechselnde Anforderungen zu reagieren.

Verantwortungsvoll entwickelte KI-Technologie auswählen.

Prüft im ersten Schritt die vorhandenen Governance-Standards für Datenschutz, Sicherheit und Barrierefreiheit und rechtliche Fragen. In vielen Organisationen basieren Compliance- und Risiko-Management auf internationalen Benchmarks wie der Datenschutz-Grundverordnung (DSGVO) und KI-spezifischen Frameworks. Hinzu kommen regionale Richtlinien und Branchenstandards wie KI-Audits oder Standards zur Verantwortlichkeit.

Balkendiagramm, das DSGVO, KI-spezifische Richtlinien und verantwortungsvolle KI-Praktiken als Top-KI-Sicherheits- und Datenschutzstandards oder -zertifizierungen darstellt.
Balkendiagramm, das DSGVO, KI-spezifische Richtlinien und verantwortungsvolle KI-Praktiken als Top-KI-Sicherheits- und Datenschutzstandards oder -zertifizierungen darstellt.
Balkendiagramm, das DSGVO, KI-spezifische Richtlinien und verantwortungsvolle KI-Praktiken als Top-KI-Sicherheits- und Datenschutzstandards oder -zertifizierungen darstellt.

Sobald ihr euch einen Überblick über eure Erwartungen an den verantwortungsvollen Einsatz von KI und die Governance-Frameworks verschafft habt, werden als Nächstes die Auswahlkriterien für KI-Technologie definiert. Sie sollten auf vorhandenen Standards aufbauen und spezielle Aspekte generativer KI berücksichtigen, etwa Transparenz hinsichtlich Herkunft, Genauigkeit, Lizenzierung der Trainings-Daten, Minderung von Diskriminierung und kulturelle Verortung.

Laut Studien sind die wichtigsten Beurteilungskriterien für Technologie auf Basis generativer KI:

1. Evaluierung von Trainings-Daten (72 %)

2. Offenlegung der KI-Nutzung (63 %)

3. Minderung von unangemessenem Output (60 %)

4. Transparenz hinsichtlich Herkunft (55 %)

5. Minderung von Diskriminierung (50 %)

Diese Faktoren stellen sicher, dass die gewählte KI-Technologie den geschäftlichen und ethischen Anforderungen entspricht und langfristigen Unternehmenserfolg ermöglicht.

Organisationen sollten eigene Auswahlkriterien definieren, die auf ihre strategischen Geschäftsziele und ihre Grundsätze für den verantwortungsvollen Umgang mit KI abgestimmt sind und folgende Schwerpunkte haben:

Transparenz.

Alle KI-Prozesse müssen erklärbar und nachvollziehbar sein.

Genauigkeit.

Die Systeme müssen hohe Standards für Datenintegrität und prädiktive Zuverlässigkeit erfüllen.

Kulturelle Verortung.

KI-Systeme müssen die Diversität kultureller und regionaler Kontexte anerkennen.

Minderung von Diskriminierung.

Die Systeme müssen Voreingenommenheit aktiv reduzieren, um faire und gerechte Resultate zu ermöglichen.

Eine ausführliche Dokumentation des Beurteilungs- und Auswahlprozesses stärkt die Aspekte Anpassungsfähigkeit und Verantwortlichkeit bei der Erstellung eines Governance-Modells, das sich mit technologischen und regulatorischen Änderungen weiter entwickeln kann. Hier die Maßnahmen aus der Beurteilungsphase zusammengefasst im Überblick:

Zusammenfassung: Beurteilung.

Schritt 1: Bereitschaft der Organisation bewerten.

  • Definition und Kommunikation der Unternehmensstandards zum verantwortungsvollen Einsatz von Technologie (inklusive KI)
  • Prüfung der aktuellen Systeme und Geschäftsprozesse durch CIO und/oder cross-funktionale Arbeitsgruppe zur Identifikation der Bereiche, die am meisten von KI profitieren
  • Einbeziehung der Rückmeldungen von internen Führungskräften und Abteilungsleitungen zu weiteren bei der Einführung von KI zu berücksichtigenden Use Cases

Schritt 2: Verantwortungsvoll entwickelte KI-Technologie auswählen.

  • Prüfung der vorhandenen Governance-Standards bzgl. Datenschutz, Sicherheit, Barrierefreiheit und Rechtsfragen
  • Entwicklung der Auswahlkriterien, die auf den zuvor etablierten Standards aufbauen und KI-Aspekte wie Transparenz, Genauigkeit, Diskriminierung, kulturelle Verortung und Compliance berücksichtigen
  • Evaluierung und Auswahl der KI-Technologien, die den definierten Kriterien und Geschäftsanforderungen bestmöglich entsprechen, und Dokumentation des Entscheidungsprozesses

2. Test: Use Cases mit hohem Impact bestimmen und als Pilotprojekt durchführen.

Fokussierte Ansicht der Pilotphase bei verantwortungsvoller KI-Innovation – mit Schwerpunkt auf Experimenten und Technologie-Performance.
Fokussierte Ansicht der Pilotphase bei verantwortungsvoller KI-Innovation – mit Schwerpunkt auf Experimenten und Technologie-Performance.
Fokussierte Ansicht der Pilotphase bei verantwortungsvoller KI-Innovation – mit Schwerpunkt auf Experimenten und Technologie-Performance.

In der Pilotphase trifft die Theorie auf die betriebliche Realität. Die wichtigsten Stakeholder können jetzt prüfen, ob die Performance der KI-Technologie den Geschäftszielen und Erwartungen entspricht. Im Fokus stehen nicht mehr Machbarkeitstests, sondern der direkte praktische Umgang mit der Technologie, fundierte Entscheidungen zu ihrer Skalierbarkeit und die Einhaltung ethischer, betrieblicher und rechtlicher Standards.

Pilotprojekte unterziehen die KI-Systeme einem Stresstest. Ihr ermittelt, wo Nachbesserungen an der Rechenschaftspflicht oder Transparenz nötig sind und ob die neuen Funktionen den Erwartungen entsprechen. Dokumentiert alle Erkenntnisse, und führt sie zu einer Roadmap für die verantwortungsvolle Skalierung von KI zusammen, die den kurz- und langfristigen Zielen gerecht wird.

Priorisierte Use Cases bestimmen und vorbereiten.

Für einen überzeugenden, ganzheitlichen Business Case zum Potenzial von KI braucht es Input von Stakeholdern und Mitarbeitenden. Bezieht frühzeitig alle Teams ein, die die Technologie direkt nutzen sollen, um ihre Vorteile für die Erstellung von Marketing-Content, Codierung, Workflow-Automatisierung oder Datenverwaltung zu identifizieren.

  • Präzise sein. Legt den Schwerpunkt auf Prozesse, nicht auf Rollen: Richtet die Use Cases nicht auf Rollen (z. B. Entwicklung) aus, sondern auf Prozesse, die die KI optimieren kann, etwa „KI-gestützte Codierung für die automatische Prüfung von Routinen-Codes und Fehlererkennung“.
  • Kennzahlen für Nutzung und Einsparungen definieren: Der ROI ist wichtig – die KI-Pilotprojekte sollten aber auch ROE-Werte („Return on Experience“) wie Produktivität, Time-to-Market, Personalzufriedenheit und Customer Experience berücksichtigen.
  • Langfristige Vorteile herausstellen: Positioniert die KI-Initiative als Treiber für langfristige Transformation. Use Cases sollten nicht nur auf unmittelbare betriebliche Anforderungen ausgelegt sein, sondern auch auf strategische Ziele wie die digitale Transformation oder Wettbewerbsvorteile.

Einhaltung der Geschäftsziele und KI-Kriterien testen.

Beide Aspekte sind wichtig, wenn die KI-Initiative euren betrieblichen Zielen und den Benchmarks zum verantwortungsvollen Einsatz von KI entsprechen soll. Mehr als die Hälfte der befragten Organisationen (54 %) hat ein akzeptables Risikoniveau für ihre wichtigsten Use Cases definiert. Es empfiehlt sich, alle Erkenntnisse systematisch zu dokumentieren, um sie bei künftigen KI-Projekten nutzen zu können. So entsteht ein robustes Fundament für die Implementierung skalierbarer KI-Lösungen.

Erforderliche Aktionen:

  • Geschäftsziele und Benchmarks zum verantwortungsvollen Einsatz von KI definieren: Dazu gehören betriebliche Ziele (z. B. Produktivität, Kosteneinsparung) und KI-bezogene Messwerte (z. B. Transparenz, Fairness).
  • Risikoschwellen festlegen: Definiert Risikoparameter und ein Framework zur effektiven Beurteilung, Verwaltung und Minderung KI-bezogener Risiken.
  • Erkenntnisse erfassen und weitergeben: Ein standardisierter Prozess zur Dokumentierung der Ergebnisse aus der Pilotphase verbessert die Transparenz und erleichtert die künftige Skalierung.

Zusammenfassung: Pilotphase.

Schritt 1: Prioritäre Use Cases bestimmen.

  • Auswahl von 2–3 geschäftlichen Use Cases, bei denen ethische und verantwortungsvolle KI-Aspekte wichtig sind
  • Definition der Kennzahlen und Schwellenwerte zur Messung der geschäftlichen und ethischen KI-Performance für diese Use Cases

Schritt 2: Einhaltung der Geschäftsziele und KI-Kriterien testen.

  • Durchführung der Pilotprojekte und nach Bedarf weiterer technischer, geschäftlicher und ethischer Validierungen und Tests
  • Abgleich der Ergebnisse der Pilotphase mit den vordefinierten Kennzahlen und Schwellenwerten und Dokumentation der Erkenntnisse für weitere Beurteilungen und Tests
  • Übergang zu Beschaffung/Implementierung in Abhängigkeit von den Ergebnissen und Erkenntnissen

3. Implementierung: KI verantwortungsvoll im Unternehmen einführen.

Implementierung hervorgehoben im verantwortungsvollen KI-Innovations-Framework – zeigt die Integration von KI im gesamten Unternehmen.
Implementierung hervorgehoben im verantwortungsvollen KI-Innovations-Framework – zeigt die Integration von KI im gesamten Unternehmen.
Implementierung hervorgehoben im verantwortungsvollen KI-Innovations-Framework – zeigt die Integration von KI im gesamten Unternehmen.

Die Implementierungsphase markiert den Übergang von der Pilotphase zur organisationsweiten Integration. Die experimentellen Anwendungen werden in voll betriebsfähige KI-Systeme überführt und die Erkenntnisse aus den Pilottests in konkrete Szenarien umgesetzt.

In dieser Phase binden die Mitarbeitenden die KI aktiv in ihre bestehenden Workflows ein. Dabei helfen ihnen die praktischen Erfahrungen aus den Pilotprojekten.

Personal schulen und vorbereiten.

Die effektive Skalierung von KI gelingt nur, wenn die Mitarbeitenden sowohl das Potenzial der Technologie als auch die damit verbundenen ethischen Verantwortlichkeiten verstehen. Maßgeschneiderte Trainings-Programme können Mitarbeitenden in verschiedenen Rollen und Abteilungen den Einsatz der KI-Tools erleichtern. Vielen Organisationen (89 %) ist die Bedeutung von Schulungen bewusst. Fast zwei Drittel legen dabei auch Wert auf Richtlinien zum verantwortungsvollen Einsatz von KI. Das Training sollte die technischen Funktionen sowie Grundsätze wie Rechenschaftspflicht, Transparenz und regulatorische Compliance abdecken.

Erforderliche Aktionen:

Training mit Governance abstimmen: Bindet Richtlinien zum verantwortungsvollen Einsatz von KI in euer Schulungsmaterial ein, damit die Mitarbeitenden die Anforderungen an Compliance, Risiko-Management und Transparenz kennen.

Training auf Rollen zuschneiden: Entwickelt angepasste Schulungsmodule für einzelne Funktionen inklusive Best Practices zu Geschäftsabläufen und ethischer KI.

KI verantwortungsvoll bereitstellen.

Für die großflächige Implementierung von KI ist ein Governance-Framework nötig, das den verantwortungsvollen Einsatz gewährleistet. Organisationen sollten ihre KI-Initiativen auf die bestehenden Richtlinien abstimmen und sie dann kontinuierlich an aktuelle gesetzliche, betriebliche und ethische Standards anpassen.

Zwei Kreisdiagramme zeigen, dass über 80 % der Umfrage-Teilnehmenden planen, verantwortungsvolle KI in Bereitstellungs- und Governance-Standards einzubeziehen.
Zwei Kreisdiagramme zeigen, dass über 80 % der Umfrage-Teilnehmenden planen, verantwortungsvolle KI in Bereitstellungs- und Governance-Standards einzubeziehen.
Zwei Kreisdiagramme zeigen, dass über 80 % der Umfrage-Teilnehmenden planen, verantwortungsvolle KI in Bereitstellungs- und Governance-Standards einzubeziehen.

Erforderliche Aktionen:

  • Eine Kultur der Rechenschaftspflicht etablieren: Wenn Teams die Auswirkungen von KI auf betriebliche Workflows und Stakeholder-Vertrauen kennen, wird das Verantwortungsbewusstsein auf allen Ebenen gestärkt.
  • Schulungen laufend weiterentwickeln: Stimmt Trainings-Programme regelmäßig auf neue Versionen der Frameworks zur KI-Governance, aktuelle Best Practices und gesetzliche Änderungen ab.

Zusammenfassung: Implementierung.

Schritt 1: Personal schulen und vorbereiten.

  • Entwicklung von Richtlinien zum verantwortungsvollen Einsatz von KI für einzelne Use Cases
  • Bereitstellung umfassender Schulungen inklusive Best Practices für relevante Teams
  • Würdigung und organisationsweite Kommunikation von Erfolgen

Schritt 2: KI verantwortungsvoll bereitstellen.

  • Definition der Kernanforderungen zur Einführung einzelner Technologien (z. B. geschäftliche Auswirkungen, Integrationsfreundlichkeit und Risikominderung)
  • Enge Zusammenarbeit mit der Geschäftsleitung, insbesondere bei ggf. erforderlichen Kompromissen
  • Integration von Regelungen zum verantwortungsvollen Umgang mit KI in vorhandene Governance-Frameworks (z. B. Zugriff, Kontrolle, Rollen)

4. Überwachung: KI-Systeme kontinuierlich beaufsichtigen und verbessern.

Detailansicht des Überwachungsschritts im verantwortungsvollen KI-Innovations-Framework – mit Fokus auf Aufsicht und KI-Performance-Tracking.
Detailansicht des Überwachungsschritts im verantwortungsvollen KI-Innovations-Framework – mit Fokus auf Aufsicht und KI-Performance-Tracking.
Detailansicht des Überwachungsschritts im verantwortungsvollen KI-Innovations-Framework – mit Fokus auf Aufsicht und KI-Performance-Tracking.
Nach ihrer Einführung müssen die KI-Systeme überwacht und weiter verbessert werden. Echtzeit-Nachverfolgung, strenge Performance-Prüfungen und proaktives Risiko-Management tragen in der Überwachungsphase dazu bei, dass die KI-Systeme effektiv, vorgabenkonform und auf die Unternehmensziele abgestimmt bleiben. Mit Metriken zum verantwortungsvollen Einsatz von KI und einem strukturierten Prüfprozess erfüllt ihr zuverlässig alle geltenden Regelungen, mindert neue Risiken und steigert nachhaltig Vertrauen und Geschäftswert.

Performance mit Geschäftszielen und KI-Benchmarks abgleichen.

Die besten Monitoring-Methoden kombinieren automatisches Performance-Tracking mit menschlicher Expertise. Viele Organisationen überwachen ihre KI-Systeme in Echtzeit. Die Effektivität dieser Tools steigt deutlich, wenn sie durch menschliche Aufsicht ergänzt werden. Menschen sind besser darin, Daten zu analysieren, Risiken zu erkennen und Entscheidungen über notwendige Anpassungen zu treffen.

69 % der befragten Organisationen nutzen Tools zur Echtzeit-Überwachung. Der Nutzen steigt deutlich, wenn menschliches Urteilsvermögen mit einbezogen wird. Die Mehrzahl der Unternehmen priorisiert technische Kennzahlen: 72 % achten vor allem auf Genauigkeit und 69 % auf den ROI. Bei der verantwortungsvollen Skalierung spielen aber auch ethische Aspekte eine Rolle. Menschliche Kontrolle fördert die Transparenz und Berechenbarkeit und stärkt das Vertrauen – intern wie extern. Weitere Faktoren bei der Überwachung sind die proaktive Erkennung von Voreingenommenheit (49 %) und die Minimierung potenziell schädlicher Inhalte (33 %). Ohne ein kontinuierliches, proaktives Monitoring können KI-Systeme die Integrität und das Vertrauen beschädigen. Mit einer Performance-Überwachung, die technische und ethische Risiken abdeckt, schützt ihr eure Marke, stärkt das Nutzervertrauen und schafft ein solides Fundament für die verantwortungsvolle Skalierung von KI.

Durch das enge Zusammenspiel von Technologie und Mensch lassen sich potenzielle Risiken wie ungenaue Daten, Diskriminierung oder Compliance-Verstöße frühzeitig erkennen.

Balkendiagramm mit Top-KI-Performance und Effektivitäts-Tracking, einschließlich Genauigkeit (72 %), Output-Performance (69 %) und Bias (49 %).
Balkendiagramm mit Top-KI-Performance und Effektivitäts-Tracking, einschließlich Genauigkeit (72 %), Output-Performance (69 %) und Bias (49 %).
Balkendiagramm mit Top-KI-Performance und Effektivitäts-Tracking, einschließlich Genauigkeit (72 %), Output-Performance (69 %) und Bias (49 %).

Kontinuierliches Risiko-Management.

Das Risiko-Management ist ein fortlaufender Prozess, der immer wieder neu auf die KI-Systeme abgestimmt wird. Mit einem strukturierten, funktionsübergreifenden Ansatz können Organisationen Risiken für ihr Business und ihre Reputation proaktiv mindern. An den regelmäßigen Prüfungen sollten Stakeholder aus allen Bereichen (Datenwissenschaft, Geschäftsleitung, Rechtswesen/Compliance) teilnehmen. So ist sichergestellt, dass neben der technischen Performance auch die Ziele zum verantwortungsvollen Einsatz von KI beurteilt werden.

Das KI-bezogene Risiko-Management muss bei technologischen Neuerungen regelmäßig angepasst werden. 60 % der Organisationen haben Teams für Daten und Governance und 49 % KI-Gremien, Compliance- und Rechts-Teams – das zeigt, wie wichtig die funktionsübergreifende Zusammenarbeit ist. Mit diesem proaktiven Ansatz bleiben Organisationen ihren internen Werten treu, erfüllen externe Erwartungen und erzeugen Resilienz, die sich neuen Vorgaben problemlos anpasst. 68 % der Organisationen messen dem verantwortungsvollen Umgang mit KI eine hohe Bedeutung im Risiko-Management bei. Lückenlose Dokumentation und eine ständige Risikobewertung sind dafür unverzichtbar.

Eine Infografik-Darstellung der Forschungsergebnisse, die die Bedeutung verantwortungsvoller und ethischer KI-Nutzung hervorhebt.
Eine Infografik-Darstellung der Forschungsergebnisse, die die Bedeutung verantwortungsvoller und ethischer KI-Nutzung hervorhebt.
Eine Infografik-Darstellung der Forschungsergebnisse, die die Bedeutung verantwortungsvoller und ethischer KI-Nutzung hervorhebt.
Strenge Performance-Kennzahlen und eine Kultur des fortlaufenden Risiko-Managements gewährleisten, dass KI-Initiativen dauerhaft auf die Geschäftsziele und die Prioritäten zum verantwortungsvollen Einsatz von KI abgestimmt sind. Mit proaktivem Monitoring, funktionsübergreifenden Prüfungen und lückenloser Dokumentation seid ihr bestens aufgestellt, um eure Organisation mit KI zu transformieren, ohne dabei Risiken einzugehen oder die Rechenschaftspflicht zu schmälern.

Erforderliche Aktionen:

  • Funktionsübergreifende Risikoprüfungen etablieren: Implementiert regelmäßige Risiko-Assessments durch Data Scientists, Compliance-Beauftragte und Rechtsexpertinnen und -experten, um anhand von Echtzeit-Daten neue Risiken zu identifizieren.
  • Kontinuierlich tracken und dokumentieren: Sammelt fortlaufend Feedback von Mitarbeitenden, Endanwenderinnen und -anwendern, um Usability-Probleme, Voreingenommenheit oder unerwartetes Verhalten schnell zu erkennen.

Zusammenfassung: Überwachung.

Schritt 1: Performance überwachen.

  • Definition und langfristige Nachverfolgung von KI-Performance-Metriken, auch zu geschäftlichen und ethischen Zielen
  • Einrichtung regelmäßiger Prüfungen und Besprechung der Ergebnisse zur fortlaufenden Optimierung der Geschäfts-Performance bei gleichzeitiger Absicherung der ethischen Unternehmensgrundsätze

Schritt 2: KI verantwortungsvoll bereitstellen.

  • Zuweisung der Rollen, die KI-Gesetze und ‑Standards (z. B. die „AI Verify“-Initiative von Singapur oder Gesetzesentwürfe vom US-Kongress) im Blick behalten und interne Regelungen bei Bedarf anpassen
  • Entwicklung eines Prozesses zur kontinuierlichen Identifizierung und Minderung von KI-bedingten Risiken
  • Fortlaufende Dokumentation der Einhaltung der Unternehmensstandards

ADOBE-FALLSTUDIE.

Interner Einsatz von generativer KI.

Für Adobe ist generative KI eine transformative Technologie, die menschliche Kreativität nicht ersetzt, sondern unterstützt. Wir fördern den verantwortungsbewussten internen Einsatz von generativer KI in Übereinstimmung mit unseren ethischen Prinzipien Rechenschaftspflicht, Verantwortung und Transparenz.

Im Juni 2023 gründete Adobe eine funktionsübergreifende interne Arbeitsgruppe unter Leitung des CIO und CHRO, um Mitarbeitende bei der sicheren, verantwortungsvollen und flexiblen Erkundung und Verwendung generativer KI zu unterstützen. In Abstimmung mit Führungs- und Fachkräften aus dem ganzen Unternehmen entwickelt diese Gruppe Richtlinien und Kriterien, nach denen die Mitarbeitenden mit den Einsatzmöglichkeiten von generativer KI experimentieren können. Im Rahmen der Initiative wurden vier personabasierte Arbeitsgruppen zu verschiedenen Use Cases für generative KI bei Adobe gebildet sowie ein Intake-Prozess, ein Framework für Risikotoleranz und ein Blueprint für Prüfungen entwickelt, der Ethik, Sicherheit, Datenschutz und andere rechtliche Aspekte berücksichtigt. Auch eine Liste freigegebener Tools und Modelle für spezifische Use Cases sowie Richtlinien zum Einsatz generativer KI auf Personalebene sind verfügbar. Begleitend zur Einführung der Anbieter-Richtlinien für generative KI im März 2024 wurden Trainings zur Nutzung der Technologie und zu den Features der ausgewählten Produkte abgehalten.

Die durch die Initiative optimierten Prozesse haben die Experimentierphase und die skalierte Anwendung der Technologie beschleunigt. Gleichzeitig ermöglichte die Initiative die Beurteilung der unternehmensweiten generativen KI-Landschaft. Adobe fördert weiterhin den Austausch der gewonnenen Erkenntnisse und Learnings im Unternehmen. Ziel ist der Aufbau eines kollaborativen Ökosystems für gemeinschaftliche Forschung. Das Programm wird regelmäßig an neue KI-basierte Features in unseren Produkten, neue Technologien und Modelle für generative KI sowie geänderte rechtliche und regulatorische Vorgaben angepasst. Der Prüfprozess für Experimente wird überwacht, und das zuständige Team entwickelt Tools zur Weiterverfolgung großflächig eingeführter Projekte und anderer Initiativen.

Best Practices in Geschäftsabläufe einbinden.

Um KI-Systeme verantwortungsvoll zu implementieren, zu überwachen und zu optimieren, müssen Organisationen umfassende Richtlinien für Mitarbeitende bereitstellen, Anbieter streng bewerten und robuste Steuerhebel für die KI-Governance definieren. So sorgen sie dafür, dass ihre KI-Initiativen aktuelle und neue gesetzliche Vorgaben erfüllen, auf bestehenden Leitlinien für Governance und Risiko-Management aufbauen und im Einklang mit Prozessen stehen, die Vertrauen, Transparenz und Rechenschaftspflicht fördern.

Dieser Abschnitt beschreibt praktische Schritte zur Einbindung der Best Practices in den täglichen Geschäftsbetrieb.

Nutzungsrichtlinien.

Die Richtlinien zum verantwortungsvollen Einsatz von KI müssen auf die individuellen Anforderungen und Risiken eurer Organisation abgestimmt sein. Sie sollen Mitarbeitenden helfen, die regulatorischen Standards und Governance-Protokolle zu befolgen und dabei die Grundsätze der Datensicherheit, Transparenz und Rechenschaftspflicht einzuhalten.

Datenschutz.

Legt genau fest, wann die Datenverarbeitung ausschließlich lokal oder mit strengen Zugriffskontrollen erfolgen darf, um jeden unbefugten Zugriff zu verhindern. Dazu gehört auch die Unterbindung von Prompts, die sensible Outputs generieren oder manipulieren könnten. Diese Richtlinien dienen dem Schutz von firmeneigenen Informationen und der Einhaltung von Datenschutzvorgaben.

Transparenz beim Einsatz von KI.

Gebt immer an, wenn KI an der Erstellung von internen Dokumenten, Schnittstellen mit Kundenausrichtung oder externer Kommunikation beteiligt war. Davon profitieren die Rechenschaftspflicht, das Vertrauen in die Authentizität und Verlässlichkeit KI-generierter Inhalte – und letztlich die Marke und der Ruf eines Unternehmens.

Richtlinien zum Account-Management.

Definiert eindeutige Richtlinien für die Verwendung von Tools für generative KI, bei denen eine Registrierung erforderlich ist. Dazu gehört, ob E-Mail-Konten des Unternehmens verwendet werden können, welche Tools für geschäftliche Zwecke genutzt werden dürfen und der Hinweis, dass kein geschäftlicher Content über persönliche Konten erstellt werden soll. So verhindert ihr die unzulässige Verwendung und stimmt den Einsatz der KI besser auf das allgemeine Unternehmensprogramm zur Informationssicherheit ab.

Je präziser diese Richtlinien auf eure Organisation zugeschnitten sind, desto verantwortungsvoller können Mitarbeitende die Tools für generative KI nutzen und desto besser gelingt es euch, Innovation und Integrität miteinander zu verbinden.

Beispielfragen zur Anbieterbeurteilung.

Bei der Bewertung von KI-Anbietern wird mittels geeigneter Fragen abgeklärt, ob die Systeme rechtlichen und regulatorischen Normen sowie Standards für den verantwortungsvollen Einsatz von KI entsprechen. Die folgenden Fragen sollen Organisationen als Orientierung dienen und dabei helfen, fundierte Entscheidungen zu potenziellen Kooperationen zu treffen sowie KI-bezogene Risiken zu minimieren.

Thema
Frage
Hintergrund
Beispiel Adobe
Herkunft und Verwendung von Daten
„Welche spezifischen Datentypen wurden für Entwicklung und Training des KI-Systems herangezogen?“
Diese Frage gibt Aufschluss über Herkunft, Art und Umfang der Daten, mit denen die KI-Modelle trainiert wurden. So könnt ihr klären, ob die Datenverfahren des Anbieters euren Standards für den verantwortungsvollen Einsatz von KI und den rechtlichen Vorgaben entsprechen.
Adobe Firefly: Adobe verwendet keine Unternehmens-/User-Inhalte (einschließlich der in Firefly eingegebenen Prompts sowie von Firefly generierten Kreationen) für das Training der Firefly-Basismodelle.
Compliance mit Urheberrecht
„Wurden Datensätze verwendet, bei denen möglicherweise Einschränkungen hinsichtlich Urheberrecht, geistigem Eigentum oder Lizenzierung bestehen?“
Mit dieser Frage wird geprüft, ob alle Datenquellen legal sind und auf rechtmäßigem Weg erworben wurden, sodass keine Rechtsstreitigkeiten zu befürchten sind.
Adobe Firefly: Kundinnen und Kunden können ihre Lizenzhistorie jederzeit unter stock -adobe.com/Dashboard/LicenseHistory einsehen. Sie müssen dafür mit ihren Adobe-Zugangsdaten angemeldet sein.
Trainings-Daten und Logik
„Können wir eine detaillierte Erläuterung zu den Trainings-Daten und der Logik des KI-Systems bekommen?“
Ziel dieser Frage ist es, potenzielle Voreingenommenheit zu ermitteln und die „Denkweise“ des Modells besser zu verstehen – ein wichtiger Aspekt, um seine Zuverlässigkeit und Fairness einzuschätzen.
Adobe Experience Platform AI Assistant: Adobe verwendet keine Kundendaten für das Training oder die Optimierung des Azure OpenAI Service.
Verständlichkeit des Outputs
„Gibt es Beschreibungen in einfacher Sprache zu den Outputs des KI-Systems?“
Ob Ausgaben auch für nicht technisch Versierte verständlich sind, ist ein wichtiger Aspekt für effektive Entscheidungen und den verantwortungsvollen Umgang mit KI.
Adobe Firefly: Für bestimmte mit Firefly generierte Inhalte erstellt Firefly automatisch Content Credentials (Inhaltsurhebernachweise), die Aufschluss darüber geben, dass das Bild mit generativer KI erzeugt wurde.
Menschliche Kontrolle
„Wie (wenn überhaupt) sind menschliche Prüfprozesse in das KI-System integriert?“
Angaben zum Verhältnis zwischen automatischen Prozessen und menschlichem Urteilsvermögen erleichtern die Beurteilung der betrieblichen Dynamik des Systems und die Bestimmung von Bereichen, in denen menschliches Eingreifen nötig ist, um Standards zu Qualität und Verantwortung einzuhalten.
KI-Assistent von Adobe Acrobat: Adobe schränkt den Zugriff auf diese Informationen auf ein kleines, geschultes Team ein, das direkt an der Entwicklung des Adobe-Services für generative KI beteiligt ist.
Fairness und Vermeidung von Voreingenommenheit
„Wie wurde das KI-System auf mögliche Voreingenommenheit geprüft, und was kam bei dieser Prüfung heraus?“
Die Antwort zeigt, ob der Anbieter Wert auf Fairness legt und mit welchen Methoden Voreingenommenheit ermittelt und verhindert wird, die sich unverhältnismäßig stark auf bestimmte demografische Gruppen auswirken könnte.
KI-Assistent von Adobe Acrobat:Adobe-Teams führen Tests durch, um das Potenzial für schädliche oder diskriminierende Ergebnisse in unseren Produkten für generative KI zu reduzieren. Siehe Einführung zu generativer KI für Unternehmen.
Risikominderung
„Wurde auf potenzielle Diskriminierung getestet, und welche Maßnahmen wurden zur Minderung dieser Risiken ergriffen?“
Hier geht es darum, ob der Anbieter proaktive Schritte ergreift, um potenzielle negative Ergebnisse von vornherein zu unterbinden – anders gesagt, ob das KI-System auf einen sicheren und verantwortungsvollen Betrieb getestet ist.
KI-Assistent von Adobe Experience Platform: Adobe setzt intern entwickelte Content-Filter ein, um (a) zu prüfen, ob die Eingaben (Prompts) im KI-Assistenten in AEP den Benutzungsrichtlinien zur generativen KI von Adobe entsprechen, und (b) generierte Resultate herauszufiltern, die gegen diese Richtlinien verstoßen (z. B. Hassrede und Schimpfwörter).
Mit diesen Fragen könnt ihr KI-Anbieter besser einschätzen und sicherstellen, dass eure betrieblichen Prioritäten und Standards zum verantwortungsvollen Einsatz von KI eingehalten werden. So grenzt ihr Risiken ein und wählt Anbieter aus, die eure Erwartungen an Transparenz, Compliance und verantwortungsvolle Innovation erfüllen.

Steuerhebel für KI-Governance.

Eine robuste KI-Governance stellt sicher, dass die KI-Systeme in Übereinstimmung mit Unternehmenswerten und regulatorischen Standards entwickelt, implementiert und überwacht werden. Zu den Regelwerken zählen unter anderem die KI-Verordnung der Europäischen Union oder Initiativen wie die „AI Verify Foundation“ von Singapur. In den USA gibt es neben Datenschutzgesetzen auf bundesstaatlicher Ebene das NIST AI Risk Management Framework, das vermutlich als Grundlage für künftige Gesetze dienen wird.

Die folgenden Governance-Hebel unterstützen das Management KI-bezogener Risiken und verbessern Transparenz, Rechenschaftspflicht und Sicherheit:

KI-Inventar
Erstellt ein zentrales Repository eurer KI-Systeme, und kategorisiert sie nach Risikoprofil und strategischer Priorität.
Habt ihr euren KI-Use-Case dokumentiert und relevante Risken kategorisiert?
Feedback-Mechanismen
Definiert robuste Feedback-Kanäle, um Input von Endanwender/-innen, Kundinnen und Kunden oder der Öffentlichkeit zu erfassen.
Welche Feedback-Kanäle habt ihr für Endanwender/-innen, eure Kundschaft oder die Öffentlichkeit eingerichtet?
Dokumentation von Systembeschränkungen
Dokumentiert Einschränkungen eures KI-Systems (einschl. Wissenslücken des KI-Modells) und den Kontext, in dem die Outputs verlässlich verwendet werden können.
Habt ihr bekannte oder erwartete Einschränkungen zu euren KI-Use-Cases dokumentiert?
Herkunft von Inhalten
Verfolgt und verifiziert Ursprung, Verlauf und Änderung KI-bezogener Daten, einschl. Quellen der Trainings-Daten, verwendeter Algorithmen und Transformationen.
Wie verfolgt ihr Ursprung, Verlauf und Änderung KI-bezogener Daten (einschl. Datenquellen und Transformationen) von der Erstellung bis zur endgültigen Verwendung?
KI-Tests und Red Teaming
Bewertet Risiken wie die unbeabsichtigte Offenlegung von Trainings-Daten, potenzielles Reverse Engineering oder Risiken im Zusammenhang mit der Modellextraktion.
Welche Testprotokolle wurden angewendet, und wie adressieren sie einzelne Risiken aus dem KI-Use-Case?
Sichere Software-Entwicklung
KI-Systeme sollten in euren Zyklus zur sicheren Software-Entwicklung integriert werden, damit Best Practices für Codierung und Bereitstellung befolgt werden.
Wie habt ihr vorhandene Protokolle zur sicheren Software-Entwicklung in euren KI-Use-Case integriert?
Training
Die Schulungen sollten relevante Richtlinien, Verfahren und Compliance-Anforderungen abdecken, damit Stakeholder KI-Risiken effektiv verwalten und dabei geltende interne Standards einhalten können.
Habt ihr an Schulungen zu KI-Governance und Risiko-Management teilgenommen?
Die Einbettung dieser Best Practices in bestehende Prozesse gewährleistet, dass KI-Technologien verantwortungsvoll bereitgestellt, verwaltet und optimiert werden. Mit umfassenden Richtlinien für Personal, strenger Bewertung von Anbietern und robusten Steuerhebeln für die KI-Governance schaffen Organisationen eine solide Basis für die Einhaltung von Governance-Standards und gesetzlichen Anforderungen. So sind sie bestens für die heutigen Herausforderungen gerüstet und auch optimal aufgestellt, um ihre KI-Lösungen in der Zukunft verantwortungsvoll zu skalieren.

Verantwortungsvolle Implementierung für verantwortungsvolle Innovation.

Damit Unternehmen das Potenzial von KI maximal nutzen können, benötigen sie verantwortungsvoll entwickelte Technologie, klare Nutzungsrichtlinien, maßgeschneidertes Training und eine robuste Governance. So bringen sie ihr Business voran und sorgen dafür, dass KI-Initiativen regulatorischen Vorgaben und den Standards für eine verantwortungsvolle Implementierung entsprechen und damit eine Kultur des verantwortungsvollen Umgangs mit KI fördern.

Wichtig ist auch eine kontinuierliche Überwachung und Anpassung der KI-Initiativen. Mit Performance-Kennzahlen, regelmäßigen Beurteilungen und einem proaktiven Risiko-Management stellen sich Organisationen flexibel auf neue Vorschriften ein und wahren die Integrität ihrer KI-Projekte.

Das hier vorgestellte Framework ermöglicht es euch, erfolgreich und verantwortungsvoll mit KI durchzustarten und durch den Fokus auf Impact, Integration und Integrität den Weg für nachhaltige Innovation und anhaltenden Erfolg zu ebnen.

Empfehlungen für euch.

https://main--bacom--adobecom.aem.live/fragments/resources/cards/thank-you-collections/generative-ai