KI-Zeitenwende.
So gelingt der verantwortungsvolle Umgang mit KI.
Der Weg zu verantwortungsvoller KI-Innovation.
In diesem Leitfaden erfahrt ihr, welche Tools, Strategien und Denkweisen ihr braucht, um KI-Lösungen für euer Unternehmen effektiv zu bewerten, zu testen, einzuführen und zu überwachen.
An einem verantwortungsvollen Umgang mit KI führt kein Weg vorbei.
KI als Katalysator für Transformation zwingt Führungskräfte aller Branchen zu schnellen Veränderungen, um bei Wettbewerbsfähigkeit und betrieblicher Effizienz nicht den Anschluss zu verlieren. Der schnelle Umstieg auf KI birgt aber auch Gefahren. Ohne eine sorgfältige Überwachung riskieren Organisationen rechtliche und operative Probleme – und ihren guten Ruf. Die richtige Balance zwischen Tempo und Verantwortungsbewusstsein zu finden, ist strategisch notwendig.
Governance und Risiko-Management von KI werden oft als extrem komplex empfunden. Neue Richt- und Leitlinien sowie Gesetze auf internationaler, nationaler und regionaler Ebene erschweren den Einstieg zusätzlich. Adobe kennt sich mit verantwortungsvoller Innovation aus. Wir handeln nach den ethischen Prinzipien Rechenschaftspflicht, Verantwortung und Transparenz und sind damit umfassend auf diese Herausforderungen eingestellt.
Unsere Erfahrung zeigt, dass der verantwortungsvolle Umgang mit KI zwar komplex erscheint, mit den richtigen Tools, Strategien und Mindsets aber durchaus zu bewältigen ist.
Zuallererst müssen Organisationen entscheiden, ob sie ihre KI-Lösung selbst erstellen, kaufen und/oder anpassen wollen. Der folgende Ansatz geht davon aus, dass Organisationen die KI-Lösungen erwerben und basierend auf ihren Werten in die vorhandenen Geschäftsabläufe integrieren wollen. Unabhängige Recherchen und Experten-Interviews zur KI-Governance bilden die Grundlage für ein Framework, das Organisationen dabei unterstützt, ihre aktuelle Situation zu beurteilen und eine verantwortungsvolle Einbindung von KI in den Unternehmensbetrieb sicherzustellen. Es zeigt in übersichtlichen Schritten, wie ihr Richtlinien zur Nutzung generativer KI durch Mitarbeitende definiert, Anbieter mittels Fragebögen bewertet und Prozesse zur KI-Governance auf dem aktuellen Stand haltet.
Egal ob ihr in erster Linie eure KI-Bereitschaft einordnen oder bestehende Strategien anpassen wollt: Das hier vorgestellte Framework bietet einen bewährten Ansatz, der menschlichen Einfallsreichtum mit aktueller KI-Governance kombiniert. Mit dieser Roadmap könnt ihr KI-Lösungen beurteilen, testen, implementieren und überwachen und ein Fundament schaffen, das Vertrauen fördert, Risiken minimiert und euer Business nachhaltig voranbringt.
Framework für den Aufbau einer skalierbaren und ethischen KI-Zukunft.
Zur erfolgreichen Implementierung von generativer KI gehört mehr, als eine Checkliste abzuhaken. Gefragt ist ein strategischer, mehrstufiger Ansatz, bei dem alle Phasen aufeinander aufbauen und so ein Fundament für nachhaltige Innovation und ethische KI-Praktiken geschaffen wird. Die einzelnen Bausteine greifen ineinander und stellen in jeder Phase einen verantwortungsvollen Umgang mit KI sicher – von der Beurteilung der Bereitschaft über die effektive Skalierung der KI-Systeme bis zum laufenden Monitoring.
Dieses Modell betrachtet die Einführung von KI nicht prozessbasiert, sondern als System, das sich im Einklang mit den geschäftlichen Anforderungen kontinuierlich weiterentwickelt. Nur mit dem richtigen Gleichgewicht zwischen menschlicher Kontrolle und fortschrittlicher KI-Technologie gelingt es, das Potenzial von KI zu nutzen, ohne ethische, regulatorische oder operative Ziele zu gefährden.
Alle Phasen dieses Frameworks – Beurteilung der Bereitschaft, verantwortungsvolle Pilotprojekte, Implementierung und Skalierung sowie Monitoring – unterstützen sich gegenseitig und legen so den Grundstein für langfristigen Erfolg. Durch den verantwortungsvollen Umgang mit KI in jeder Phase könnt ihr die Herausforderungen beim Umstieg auf KI bewältigen und Vertrauen, Transparenz und Rechenschaftspflicht fördern.
Zugrunde liegende Expertise und Recherchen.
Für eine unabhängige Studie zum Einsatz von generativer KI wurden im Auftrag von Adobe über 200 Führungskräfte für IT, Betrieb und Compliance aus verschiedenen Branchen befragt. An den Ergebnissen lassen sich aktuelle Methoden, Herausforderungen und Erfolgsstrategien ablesen. Außerdem hat Adobe ausführliche Interviews mit Branchenprofis geführt und weltweite Standards wie die EU-Verordnung über künstliche Intelligenz, das NIST AI Risk Management Framework, die „AI Verify“-Initiative in Singapur, den IEEE-Standard 7000 und ISO 42001 untersucht. Damit ist sichergestellt, dass sich das Framework für Unternehmen jeder Branche und Größe eignet – unabhängig vom Status der KI-Einführung.
1. Beurteilung: Die organisatorische Bereitschaft bewerten und verantwortungsvoll erstellte Technologie auswählen.
Bereitschaft der Organisation beurteilen.
Viele Organisationen haben inzwischen mit der Einführung von KI begonnen. Nur 21 % der Befragten haben ihre Prioritäten für einen verantwortungsvollen KI-Einsatz aber voll ausformuliert – 78 % sind noch bei der Entwicklung oder Planung. Führungskräfte aus den Bereichen IT, Compliance, Risiko-Management und Strategie sind wesentlich am verantwortungsvollen Einsatz von KI beteiligt. Der erste Schritt besteht darin, Lücken in den Governance-Frameworks und KI-Skills zu ermitteln, die den Einsatz der KI beeinträchtigen könnten.
Organisationen brauchen einen ganzheitlichen Ansatz zur Beurteilung der KI-Bereitschaft, der Management-Initiativen mit Feedback von Mitarbeitenden kombiniert, die die KI täglich nutzen.
Erforderliche Aktionen:
- Detailliertes Audit zur Bereitschaft durchführen: Die Evaluierung der technischen Infrastruktur, Governance-Standards, KI-Richtlinien, Frameworks für verantwortungsvolle Innovation sowie Compliance-Standards gibt Aufschluss über Stärken und Schwachstellen, sodass strategische Ziele und Anforderungen für den verantwortungsvollen KI-Einsatz erfolgreich aufeinander abgestimmt werden können.
- Lücken identifizieren und schließen: Bestimmt, wo zusätzliche Standards für Sicherheit, Datenschutz, Rechtssicherheit, Compliance und Transparenz nötig sind, und erarbeitet konkrete nächste Schritte mit cross-funktionalen Teams aus der IT-, Rechts- und Compliance-Abteilung und den Geschäftsbereichen.
- Governance-Teams aufbauen: Stellt Teams zusammen, die die Compliance mit internen Standards zum verantwortungsvollen Einsatz von KI und regulatorischen Vorgaben überwachen, und stattet sie mit den nötigen Befugnissen und Ressourcen aus, um Risiken proaktiv zu verwalten und auf wechselnde Anforderungen zu reagieren.
Verantwortungsvoll entwickelte KI-Technologie auswählen.
Prüft im ersten Schritt die vorhandenen Governance-Standards für Datenschutz, Sicherheit und Barrierefreiheit und rechtliche Fragen. In vielen Organisationen basieren Compliance- und Risiko-Management auf internationalen Benchmarks wie der Datenschutz-Grundverordnung (DSGVO) und KI-spezifischen Frameworks. Hinzu kommen regionale Richtlinien und Branchenstandards wie KI-Audits oder Standards zur Verantwortlichkeit.
Sobald ihr euch einen Überblick über eure Erwartungen an den verantwortungsvollen Einsatz von KI und die Governance-Frameworks verschafft habt, werden als Nächstes die Auswahlkriterien für KI-Technologie definiert. Sie sollten auf vorhandenen Standards aufbauen und spezielle Aspekte generativer KI berücksichtigen, etwa Transparenz hinsichtlich Herkunft, Genauigkeit, Lizenzierung der Trainings-Daten, Minderung von Diskriminierung und kulturelle Verortung.
Laut Studien sind die wichtigsten Beurteilungskriterien für Technologie auf Basis generativer KI:
1. Evaluierung von Trainings-Daten (72 %)
2. Offenlegung der KI-Nutzung (63 %)
3. Minderung von unangemessenem Output (60 %)
4. Transparenz hinsichtlich Herkunft (55 %)
5. Minderung von Diskriminierung (50 %)
Organisationen sollten eigene Auswahlkriterien definieren, die auf ihre strategischen Geschäftsziele und ihre Grundsätze für den verantwortungsvollen Umgang mit KI abgestimmt sind und folgende Schwerpunkte haben:
Transparenz.
Alle KI-Prozesse müssen erklärbar und nachvollziehbar sein.
Genauigkeit.
Die Systeme müssen hohe Standards für Datenintegrität und prädiktive Zuverlässigkeit erfüllen.
Kulturelle Verortung.
KI-Systeme müssen die Diversität kultureller und regionaler Kontexte anerkennen.
Minderung von Diskriminierung.
Die Systeme müssen Voreingenommenheit aktiv reduzieren, um faire und gerechte Resultate zu ermöglichen.
Zusammenfassung: Beurteilung.
Schritt 1: Bereitschaft der Organisation bewerten.
- Definition und Kommunikation der Unternehmensstandards zum verantwortungsvollen Einsatz von Technologie (inklusive KI)
- Prüfung der aktuellen Systeme und Geschäftsprozesse durch CIO und/oder cross-funktionale Arbeitsgruppe zur Identifikation der Bereiche, die am meisten von KI profitieren
- Einbeziehung der Rückmeldungen von internen Führungskräften und Abteilungsleitungen zu weiteren bei der Einführung von KI zu berücksichtigenden Use Cases
Schritt 2: Verantwortungsvoll entwickelte KI-Technologie auswählen.
- Prüfung der vorhandenen Governance-Standards bzgl. Datenschutz, Sicherheit, Barrierefreiheit und Rechtsfragen
- Entwicklung der Auswahlkriterien, die auf den zuvor etablierten Standards aufbauen und KI-Aspekte wie Transparenz, Genauigkeit, Diskriminierung, kulturelle Verortung und Compliance berücksichtigen
- Evaluierung und Auswahl der KI-Technologien, die den definierten Kriterien und Geschäftsanforderungen bestmöglich entsprechen, und Dokumentation des Entscheidungsprozesses
2. Test: Use Cases mit hohem Impact bestimmen und als Pilotprojekt durchführen.
In der Pilotphase trifft die Theorie auf die betriebliche Realität. Die wichtigsten Stakeholder können jetzt prüfen, ob die Performance der KI-Technologie den Geschäftszielen und Erwartungen entspricht. Im Fokus stehen nicht mehr Machbarkeitstests, sondern der direkte praktische Umgang mit der Technologie, fundierte Entscheidungen zu ihrer Skalierbarkeit und die Einhaltung ethischer, betrieblicher und rechtlicher Standards.
Pilotprojekte unterziehen die KI-Systeme einem Stresstest. Ihr ermittelt, wo Nachbesserungen an der Rechenschaftspflicht oder Transparenz nötig sind und ob die neuen Funktionen den Erwartungen entsprechen. Dokumentiert alle Erkenntnisse, und führt sie zu einer Roadmap für die verantwortungsvolle Skalierung von KI zusammen, die den kurz- und langfristigen Zielen gerecht wird.
Priorisierte Use Cases bestimmen und vorbereiten.
Für einen überzeugenden, ganzheitlichen Business Case zum Potenzial von KI braucht es Input von Stakeholdern und Mitarbeitenden. Bezieht frühzeitig alle Teams ein, die die Technologie direkt nutzen sollen, um ihre Vorteile für die Erstellung von Marketing-Content, Codierung, Workflow-Automatisierung oder Datenverwaltung zu identifizieren.
- Präzise sein. Legt den Schwerpunkt auf Prozesse, nicht auf Rollen: Richtet die Use Cases nicht auf Rollen (z. B. Entwicklung) aus, sondern auf Prozesse, die die KI optimieren kann, etwa „KI-gestützte Codierung für die automatische Prüfung von Routinen-Codes und Fehlererkennung“.
- Kennzahlen für Nutzung und Einsparungen definieren: Der ROI ist wichtig – die KI-Pilotprojekte sollten aber auch ROE-Werte („Return on Experience“) wie Produktivität, Time-to-Market, Personalzufriedenheit und Customer Experience berücksichtigen.
- Langfristige Vorteile herausstellen: Positioniert die KI-Initiative als Treiber für langfristige Transformation. Use Cases sollten nicht nur auf unmittelbare betriebliche Anforderungen ausgelegt sein, sondern auch auf strategische Ziele wie die digitale Transformation oder Wettbewerbsvorteile.
Einhaltung der Geschäftsziele und KI-Kriterien testen.
Beide Aspekte sind wichtig, wenn die KI-Initiative euren betrieblichen Zielen und den Benchmarks zum verantwortungsvollen Einsatz von KI entsprechen soll. Mehr als die Hälfte der befragten Organisationen (54 %) hat ein akzeptables Risikoniveau für ihre wichtigsten Use Cases definiert. Es empfiehlt sich, alle Erkenntnisse systematisch zu dokumentieren, um sie bei künftigen KI-Projekten nutzen zu können. So entsteht ein robustes Fundament für die Implementierung skalierbarer KI-Lösungen.
Erforderliche Aktionen:
- Geschäftsziele und Benchmarks zum verantwortungsvollen Einsatz von KI definieren: Dazu gehören betriebliche Ziele (z. B. Produktivität, Kosteneinsparung) und KI-bezogene Messwerte (z. B. Transparenz, Fairness).
- Risikoschwellen festlegen: Definiert Risikoparameter und ein Framework zur effektiven Beurteilung, Verwaltung und Minderung KI-bezogener Risiken.
- Erkenntnisse erfassen und weitergeben: Ein standardisierter Prozess zur Dokumentierung der Ergebnisse aus der Pilotphase verbessert die Transparenz und erleichtert die künftige Skalierung.
Zusammenfassung: Pilotphase.
Schritt 1: Prioritäre Use Cases bestimmen.
- Auswahl von 2–3 geschäftlichen Use Cases, bei denen ethische und verantwortungsvolle KI-Aspekte wichtig sind
- Definition der Kennzahlen und Schwellenwerte zur Messung der geschäftlichen und ethischen KI-Performance für diese Use Cases
Schritt 2: Einhaltung der Geschäftsziele und KI-Kriterien testen.
- Durchführung der Pilotprojekte und nach Bedarf weiterer technischer, geschäftlicher und ethischer Validierungen und Tests
- Abgleich der Ergebnisse der Pilotphase mit den vordefinierten Kennzahlen und Schwellenwerten und Dokumentation der Erkenntnisse für weitere Beurteilungen und Tests
- Übergang zu Beschaffung/Implementierung in Abhängigkeit von den Ergebnissen und Erkenntnissen
3. Implementierung: KI verantwortungsvoll im Unternehmen einführen.
Die Implementierungsphase markiert den Übergang von der Pilotphase zur organisationsweiten Integration. Die experimentellen Anwendungen werden in voll betriebsfähige KI-Systeme überführt und die Erkenntnisse aus den Pilottests in konkrete Szenarien umgesetzt.
In dieser Phase binden die Mitarbeitenden die KI aktiv in ihre bestehenden Workflows ein. Dabei helfen ihnen die praktischen Erfahrungen aus den Pilotprojekten.
Personal schulen und vorbereiten.
Die effektive Skalierung von KI gelingt nur, wenn die Mitarbeitenden sowohl das Potenzial der Technologie als auch die damit verbundenen ethischen Verantwortlichkeiten verstehen. Maßgeschneiderte Trainings-Programme können Mitarbeitenden in verschiedenen Rollen und Abteilungen den Einsatz der KI-Tools erleichtern. Vielen Organisationen (89 %) ist die Bedeutung von Schulungen bewusst. Fast zwei Drittel legen dabei auch Wert auf Richtlinien zum verantwortungsvollen Einsatz von KI. Das Training sollte die technischen Funktionen sowie Grundsätze wie Rechenschaftspflicht, Transparenz und regulatorische Compliance abdecken.
Erforderliche Aktionen:
Training mit Governance abstimmen: Bindet Richtlinien zum verantwortungsvollen Einsatz von KI in euer Schulungsmaterial ein, damit die Mitarbeitenden die Anforderungen an Compliance, Risiko-Management und Transparenz kennen.
Training auf Rollen zuschneiden: Entwickelt angepasste Schulungsmodule für einzelne Funktionen inklusive Best Practices zu Geschäftsabläufen und ethischer KI.
KI verantwortungsvoll bereitstellen.
Für die großflächige Implementierung von KI ist ein Governance-Framework nötig, das den verantwortungsvollen Einsatz gewährleistet. Organisationen sollten ihre KI-Initiativen auf die bestehenden Richtlinien abstimmen und sie dann kontinuierlich an aktuelle gesetzliche, betriebliche und ethische Standards anpassen.
Erforderliche Aktionen:
- Eine Kultur der Rechenschaftspflicht etablieren: Wenn Teams die Auswirkungen von KI auf betriebliche Workflows und Stakeholder-Vertrauen kennen, wird das Verantwortungsbewusstsein auf allen Ebenen gestärkt.
- Schulungen laufend weiterentwickeln: Stimmt Trainings-Programme regelmäßig auf neue Versionen der Frameworks zur KI-Governance, aktuelle Best Practices und gesetzliche Änderungen ab.
Zusammenfassung: Implementierung.
Schritt 1: Personal schulen und vorbereiten.
- Entwicklung von Richtlinien zum verantwortungsvollen Einsatz von KI für einzelne Use Cases
- Bereitstellung umfassender Schulungen inklusive Best Practices für relevante Teams
- Würdigung und organisationsweite Kommunikation von Erfolgen
Schritt 2: KI verantwortungsvoll bereitstellen.
- Definition der Kernanforderungen zur Einführung einzelner Technologien (z. B. geschäftliche Auswirkungen, Integrationsfreundlichkeit und Risikominderung)
- Enge Zusammenarbeit mit der Geschäftsleitung, insbesondere bei ggf. erforderlichen Kompromissen
- Integration von Regelungen zum verantwortungsvollen Umgang mit KI in vorhandene Governance-Frameworks (z. B. Zugriff, Kontrolle, Rollen)
4. Überwachung: KI-Systeme kontinuierlich beaufsichtigen und verbessern.
Performance mit Geschäftszielen und KI-Benchmarks abgleichen.
Die besten Monitoring-Methoden kombinieren automatisches Performance-Tracking mit menschlicher Expertise. Viele Organisationen überwachen ihre KI-Systeme in Echtzeit. Die Effektivität dieser Tools steigt deutlich, wenn sie durch menschliche Aufsicht ergänzt werden. Menschen sind besser darin, Daten zu analysieren, Risiken zu erkennen und Entscheidungen über notwendige Anpassungen zu treffen.
69 % der befragten Organisationen nutzen Tools zur Echtzeit-Überwachung. Der Nutzen steigt deutlich, wenn menschliches Urteilsvermögen mit einbezogen wird. Die Mehrzahl der Unternehmen priorisiert technische Kennzahlen: 72 % achten vor allem auf Genauigkeit und 69 % auf den ROI. Bei der verantwortungsvollen Skalierung spielen aber auch ethische Aspekte eine Rolle. Menschliche Kontrolle fördert die Transparenz und Berechenbarkeit und stärkt das Vertrauen – intern wie extern. Weitere Faktoren bei der Überwachung sind die proaktive Erkennung von Voreingenommenheit (49 %) und die Minimierung potenziell schädlicher Inhalte (33 %). Ohne ein kontinuierliches, proaktives Monitoring können KI-Systeme die Integrität und das Vertrauen beschädigen. Mit einer Performance-Überwachung, die technische und ethische Risiken abdeckt, schützt ihr eure Marke, stärkt das Nutzervertrauen und schafft ein solides Fundament für die verantwortungsvolle Skalierung von KI.
Durch das enge Zusammenspiel von Technologie und Mensch lassen sich potenzielle Risiken wie ungenaue Daten, Diskriminierung oder Compliance-Verstöße frühzeitig erkennen.
Kontinuierliches Risiko-Management.
Das Risiko-Management ist ein fortlaufender Prozess, der immer wieder neu auf die KI-Systeme abgestimmt wird. Mit einem strukturierten, funktionsübergreifenden Ansatz können Organisationen Risiken für ihr Business und ihre Reputation proaktiv mindern. An den regelmäßigen Prüfungen sollten Stakeholder aus allen Bereichen (Datenwissenschaft, Geschäftsleitung, Rechtswesen/Compliance) teilnehmen. So ist sichergestellt, dass neben der technischen Performance auch die Ziele zum verantwortungsvollen Einsatz von KI beurteilt werden.
Das KI-bezogene Risiko-Management muss bei technologischen Neuerungen regelmäßig angepasst werden. 60 % der Organisationen haben Teams für Daten und Governance und 49 % KI-Gremien, Compliance- und Rechts-Teams – das zeigt, wie wichtig die funktionsübergreifende Zusammenarbeit ist. Mit diesem proaktiven Ansatz bleiben Organisationen ihren internen Werten treu, erfüllen externe Erwartungen und erzeugen Resilienz, die sich neuen Vorgaben problemlos anpasst. 68 % der Organisationen messen dem verantwortungsvollen Umgang mit KI eine hohe Bedeutung im Risiko-Management bei. Lückenlose Dokumentation und eine ständige Risikobewertung sind dafür unverzichtbar.
Erforderliche Aktionen:
- Funktionsübergreifende Risikoprüfungen etablieren: Implementiert regelmäßige Risiko-Assessments durch Data Scientists, Compliance-Beauftragte und Rechtsexpertinnen und -experten, um anhand von Echtzeit-Daten neue Risiken zu identifizieren.
- Kontinuierlich tracken und dokumentieren: Sammelt fortlaufend Feedback von Mitarbeitenden, Endanwenderinnen und -anwendern, um Usability-Probleme, Voreingenommenheit oder unerwartetes Verhalten schnell zu erkennen.
Zusammenfassung: Überwachung.
Schritt 1: Performance überwachen.
- Definition und langfristige Nachverfolgung von KI-Performance-Metriken, auch zu geschäftlichen und ethischen Zielen
- Einrichtung regelmäßiger Prüfungen und Besprechung der Ergebnisse zur fortlaufenden Optimierung der Geschäfts-Performance bei gleichzeitiger Absicherung der ethischen Unternehmensgrundsätze
Schritt 2: KI verantwortungsvoll bereitstellen.
- Zuweisung der Rollen, die KI-Gesetze und ‑Standards (z. B. die „AI Verify“-Initiative von Singapur oder Gesetzesentwürfe vom US-Kongress) im Blick behalten und interne Regelungen bei Bedarf anpassen
- Entwicklung eines Prozesses zur kontinuierlichen Identifizierung und Minderung von KI-bedingten Risiken
- Fortlaufende Dokumentation der Einhaltung der Unternehmensstandards
ADOBE-FALLSTUDIE.
Interner Einsatz von generativer KI.
Für Adobe ist generative KI eine transformative Technologie, die menschliche Kreativität nicht ersetzt, sondern unterstützt. Wir fördern den verantwortungsbewussten internen Einsatz von generativer KI in Übereinstimmung mit unseren ethischen Prinzipien Rechenschaftspflicht, Verantwortung und Transparenz.
Im Juni 2023 gründete Adobe eine funktionsübergreifende interne Arbeitsgruppe unter Leitung des CIO und CHRO, um Mitarbeitende bei der sicheren, verantwortungsvollen und flexiblen Erkundung und Verwendung generativer KI zu unterstützen. In Abstimmung mit Führungs- und Fachkräften aus dem ganzen Unternehmen entwickelt diese Gruppe Richtlinien und Kriterien, nach denen die Mitarbeitenden mit den Einsatzmöglichkeiten von generativer KI experimentieren können. Im Rahmen der Initiative wurden vier personabasierte Arbeitsgruppen zu verschiedenen Use Cases für generative KI bei Adobe gebildet sowie ein Intake-Prozess, ein Framework für Risikotoleranz und ein Blueprint für Prüfungen entwickelt, der Ethik, Sicherheit, Datenschutz und andere rechtliche Aspekte berücksichtigt. Auch eine Liste freigegebener Tools und Modelle für spezifische Use Cases sowie Richtlinien zum Einsatz generativer KI auf Personalebene sind verfügbar. Begleitend zur Einführung der Anbieter-Richtlinien für generative KI im März 2024 wurden Trainings zur Nutzung der Technologie und zu den Features der ausgewählten Produkte abgehalten.
Die durch die Initiative optimierten Prozesse haben die Experimentierphase und die skalierte Anwendung der Technologie beschleunigt. Gleichzeitig ermöglichte die Initiative die Beurteilung der unternehmensweiten generativen KI-Landschaft. Adobe fördert weiterhin den Austausch der gewonnenen Erkenntnisse und Learnings im Unternehmen. Ziel ist der Aufbau eines kollaborativen Ökosystems für gemeinschaftliche Forschung. Das Programm wird regelmäßig an neue KI-basierte Features in unseren Produkten, neue Technologien und Modelle für generative KI sowie geänderte rechtliche und regulatorische Vorgaben angepasst. Der Prüfprozess für Experimente wird überwacht, und das zuständige Team entwickelt Tools zur Weiterverfolgung großflächig eingeführter Projekte und anderer Initiativen.
Best Practices in Geschäftsabläufe einbinden.
Um KI-Systeme verantwortungsvoll zu implementieren, zu überwachen und zu optimieren, müssen Organisationen umfassende Richtlinien für Mitarbeitende bereitstellen, Anbieter streng bewerten und robuste Steuerhebel für die KI-Governance definieren. So sorgen sie dafür, dass ihre KI-Initiativen aktuelle und neue gesetzliche Vorgaben erfüllen, auf bestehenden Leitlinien für Governance und Risiko-Management aufbauen und im Einklang mit Prozessen stehen, die Vertrauen, Transparenz und Rechenschaftspflicht fördern.
Dieser Abschnitt beschreibt praktische Schritte zur Einbindung der Best Practices in den täglichen Geschäftsbetrieb.
Nutzungsrichtlinien.
Die Richtlinien zum verantwortungsvollen Einsatz von KI müssen auf die individuellen Anforderungen und Risiken eurer Organisation abgestimmt sein. Sie sollen Mitarbeitenden helfen, die regulatorischen Standards und Governance-Protokolle zu befolgen und dabei die Grundsätze der Datensicherheit, Transparenz und Rechenschaftspflicht einzuhalten.
Datenschutz.
Legt genau fest, wann die Datenverarbeitung ausschließlich lokal oder mit strengen Zugriffskontrollen erfolgen darf, um jeden unbefugten Zugriff zu verhindern. Dazu gehört auch die Unterbindung von Prompts, die sensible Outputs generieren oder manipulieren könnten. Diese Richtlinien dienen dem Schutz von firmeneigenen Informationen und der Einhaltung von Datenschutzvorgaben.
Transparenz beim Einsatz von KI.
Gebt immer an, wenn KI an der Erstellung von internen Dokumenten, Schnittstellen mit Kundenausrichtung oder externer Kommunikation beteiligt war. Davon profitieren die Rechenschaftspflicht, das Vertrauen in die Authentizität und Verlässlichkeit KI-generierter Inhalte – und letztlich die Marke und der Ruf eines Unternehmens.
Richtlinien zum Account-Management.
Definiert eindeutige Richtlinien für die Verwendung von Tools für generative KI, bei denen eine Registrierung erforderlich ist. Dazu gehört, ob E-Mail-Konten des Unternehmens verwendet werden können, welche Tools für geschäftliche Zwecke genutzt werden dürfen und der Hinweis, dass kein geschäftlicher Content über persönliche Konten erstellt werden soll. So verhindert ihr die unzulässige Verwendung und stimmt den Einsatz der KI besser auf das allgemeine Unternehmensprogramm zur Informationssicherheit ab.
Je präziser diese Richtlinien auf eure Organisation zugeschnitten sind, desto verantwortungsvoller können Mitarbeitende die Tools für generative KI nutzen und desto besser gelingt es euch, Innovation und Integrität miteinander zu verbinden.
Beispielfragen zur Anbieterbeurteilung.
Bei der Bewertung von KI-Anbietern wird mittels geeigneter Fragen abgeklärt, ob die Systeme rechtlichen und regulatorischen Normen sowie Standards für den verantwortungsvollen Einsatz von KI entsprechen. Die folgenden Fragen sollen Organisationen als Orientierung dienen und dabei helfen, fundierte Entscheidungen zu potenziellen Kooperationen zu treffen sowie KI-bezogene Risiken zu minimieren.
Steuerhebel für KI-Governance.
Eine robuste KI-Governance stellt sicher, dass die KI-Systeme in Übereinstimmung mit Unternehmenswerten und regulatorischen Standards entwickelt, implementiert und überwacht werden. Zu den Regelwerken zählen unter anderem die KI-Verordnung der Europäischen Union oder Initiativen wie die „AI Verify Foundation“ von Singapur. In den USA gibt es neben Datenschutzgesetzen auf bundesstaatlicher Ebene das NIST AI Risk Management Framework, das vermutlich als Grundlage für künftige Gesetze dienen wird.
Die folgenden Governance-Hebel unterstützen das Management KI-bezogener Risiken und verbessern Transparenz, Rechenschaftspflicht und Sicherheit:
Verantwortungsvolle Implementierung für verantwortungsvolle Innovation.
Damit Unternehmen das Potenzial von KI maximal nutzen können, benötigen sie verantwortungsvoll entwickelte Technologie, klare Nutzungsrichtlinien, maßgeschneidertes Training und eine robuste Governance. So bringen sie ihr Business voran und sorgen dafür, dass KI-Initiativen regulatorischen Vorgaben und den Standards für eine verantwortungsvolle Implementierung entsprechen und damit eine Kultur des verantwortungsvollen Umgangs mit KI fördern.
Wichtig ist auch eine kontinuierliche Überwachung und Anpassung der KI-Initiativen. Mit Performance-Kennzahlen, regelmäßigen Beurteilungen und einem proaktiven Risiko-Management stellen sich Organisationen flexibel auf neue Vorschriften ein und wahren die Integrität ihrer KI-Projekte.
Das hier vorgestellte Framework ermöglicht es euch, erfolgreich und verantwortungsvoll mit KI durchzustarten und durch den Fokus auf Impact, Integration und Integrität den Weg für nachhaltige Innovation und anhaltenden Erfolg zu ebnen.
Empfehlungen für euch.
https://main--bacom--adobecom.aem.live/fragments/resources/cards/thank-you-collections/generative-ai