Abschnitt 1.
Content as a Service v3 - generative-ai - Tuesday, July 15, 2025 at 11:21
In diesem Leitfaden erfahrt ihr, welche Tools, Strategien und Denkweisen ihr braucht, um KI-Lösungen für euer Unternehmen effektiv zu bewerten, zu testen, einzuführen und zu überwachen.
KI als Katalysator für Transformation zwingt Führungskräfte aller Branchen zu schnellen Veränderungen, um bei Wettbewerbsfähigkeit und betrieblicher Effizienz nicht den Anschluss zu verlieren. Der schnelle Umstieg auf KI birgt aber auch Gefahren. Ohne eine sorgfältige Überwachung riskieren Organisationen rechtliche und operative Probleme – und ihren guten Ruf. Die richtige Balance zwischen Tempo und Verantwortungsbewusstsein zu finden, ist strategisch notwendig.
Governance und Risiko-Management von KI werden oft als extrem komplex empfunden. Neue Richt- und Leitlinien sowie Gesetze auf internationaler, nationaler und regionaler Ebene erschweren den Einstieg zusätzlich. Adobe kennt sich mit verantwortungsvoller Innovation aus. Wir handeln nach den ethischen Prinzipien Rechenschaftspflicht, Verantwortung und Transparenz und sind damit umfassend auf diese Herausforderungen eingestellt.
Unsere Erfahrung zeigt, dass der verantwortungsvolle Umgang mit KI zwar komplex erscheint, mit den richtigen Tools, der richtigen Strategie und dem richtigen Mindset aber durchaus zu bewältigen ist.
Eine der zentralen Entscheidungen, vor denen Unternehmen bei der Entwicklung ihrer KI-Strategien stehen, ist die Frage, ob sie eine KI-Lösung selbst entwickeln, kaufen, anpassen oder alle drei Ansätze kombinieren sollen. Der folgende Ansatz richtet sich an Unternehmen, die KI-Lösungen kaufen möchten, und zielt darauf ab, auf bestehenden Werten und Geschäftspraktiken aufzubauen – insbesondere für Unternehmen, die KI-Lösungen extern beschaffen wollen –, um den aktuellen Bedürfnissen der Stakeholder gerecht zu werden. Unabhängige Recherchen und Experten-Interviews zur KI-Governance bilden die Grundlage für ein Framework, das Organisationen dabei unterstützt, ihre aktuelle Situation zu beurteilen und liefert Best Practices für eine verantwortungsvolle Einbindung von KI in die Abläufe im Unternehmen. Es zeigt in übersichtlichen Schritten, wie ihr Richtlinien zur Nutzung generativer KI durch Mitarbeitende definiert, Anbieter mittels fundierter Fragebögen bewertet und Prozesse zur KI-Governance auf dem aktuellen Stand haltet, um mit der aktuellen Entwicklung Schritt zu halten.
Egal ob ihr in erster Linie eure KI-Bereitschaft einordnen oder bestehende Strategien anpassen wollt: Das hier vorgestellte Framework bietet einen bewährten Ansatz, der menschlichen Einfallsreichtum mit aktueller KI-Governance kombiniert. Mit dieser Roadmap könnt ihr KI-Lösungen beurteilen, testen, implementieren und überwachen und ein Fundament schaffen, das Vertrauen fördert, Risiken minimiert und euer Business nachhaltig voranbringt.
Erfolgreiche KI-Implementierung erfordert mehr als eine Checkliste von Maßnahmen – sie braucht einen strategischen, mehrstufigen Ansatz, bei dem jede Phase auf der vorherigen aufbaut und ein Fundament für nachhaltige Innovation und ethische KI-Praktiken schafft. Dieses Framework besteht aus miteinander verzahnten Bausteinen, die darauf ausgelegt sind, verantwortungsvolle KI-Praktiken in jeder Phase zu integrieren – von der Bewertung der organisatorischen Bereitschaft bis zur effektiven Skalierung und kontinuierlichen Überwachung von KI-Systemen.
Dieses Modell betrachtet die Einführung von KI nicht prozessbasiert, sondern als System, das sich im Einklang mit den geschäftlichen Anforderungen kontinuierlich weiterentwickelt. Nur mit dem richtigen Gleichgewicht zwischen menschlicher Kontrolle und fortschrittlicher KI-Technologie gelingt es, das Potenzial von KI zu nutzen, ohne ethische, regulatorische oder operative Ziele zu gefährden.
Alle Phasen dieses Frameworks – Bewertung der Bereitschaft, verantwortungsvolle Pilotprojekte, Implementierung und Skalierung sowie Monitoring – unterstützen sich gegenseitig und legen so den Grundstein für langfristigen Erfolg. Durch den verantwortungsvollen Umgang mit KI in jeder Phase könnt ihr die Herausforderungen beim Umstieg auf KI bewältigen und Vertrauen, Transparenz und Rechenschaftspflicht fördern.
Für eine unabhängige Studie zum Einsatz von generativer KI wurden im Auftrag von Adobe über 200 Führungskräfte für IT, Betrieb und Compliance aus verschiedenen Branchen befragt. An den Ergebnissen lassen sich aktuelle Methoden, Herausforderungen und Erfolgsstrategien ablesen. Außerdem hat Adobe ausführliche Interviews mit Branchenprofis geführt und weltweite Standards wie die EU-Verordnung über künstliche Intelligenz, das NIST AI Risk Management Framework, die „AI Verify“-Initiative in Singapur, den IEEE-Standard 7000 und ISO 42001 untersucht. Damit ist sichergestellt, dass sich das Framework für Unternehmen jeder Branche und Größe eignet – unabhängig vom Stand der KI-Einführung.
Abschnitt 1.
Viele Organisationen haben inzwischen mit der Einführung von KI begonnen. Nur 21 % der Befragten haben ihre Prioritäten für einen verantwortungsvollen KI-Einsatz aber vollständig ausformuliert – 78 % sind noch bei der Entwicklung oder Planung. Führungskräfte aus den Bereichen IT, Compliance, Risiko-Management und Strategie sind unerlässlich, um ein Fundament für einen verantwortungsvollen Einsatz von KI zu schaffen. Der erste Schritt besteht darin, Lücken in den Governance-Frameworks und KI-Kompetenz zu ermitteln, die den Einsatz von KI beeinträchtigen könnten.
Organisationen brauchen einen ganzheitlichen Ansatz zur Bewertung der KI-Bereitschaft, der Management-Initiativen mit Feedback von Mitarbeitenden kombiniert, die die KI täglich nutzen.
Prüft im ersten Schritt die vorhandenen Governance-Standards für Datenschutz, Sicherheit und Barrierefreiheit und rechtliche Fragen. In vielen Organisationen basieren Compliance- und Risiko-Management auf internationalen Benchmarks wie der Datenschutz-Grundverordnung (DSGVO) und KI-spezifischen Frameworks. Hinzu kommen regionale Richtlinien und Branchenstandards wie KI-Audits oder Standards zur Verantwortlichkeit.
Prozentanteil aller Befragten, absteigend sortiert.
Sobald ihr euch einen Überblick über eure Erwartungen an den verantwortungsvollen Einsatz von KI und die Governance-Frameworks verschafft habt, werden als Nächstes die Auswahlkriterien für KI-Technologie definiert. Sie sollten auf vorhandenen Standards aufbauen und spezielle Aspekte generativer KI berücksichtigen, etwa Transparenz hinsichtlich Herkunft, Genauigkeit, Lizenzierung der Trainings-Daten, Minderung von Diskriminierung und kulturelle Verortung.
Laut Studien sind die wichtigsten Bewertungskriterien für Technologie auf Basis generativer KI:
1. Auswertung von Trainings-Daten (72 %)
2. Offenlegung der KI-Nutzung (63 %)
3. Schadensbegrenzung (60 %)
4. Transparenz der Herkunft (55 %)
5. Minderung von Diskriminierung (50 %)
Transparenz.
Alle KI-Prozesse müssen erklärbar und nachvollziehbar sein.
Genauigkeit.
Die Systeme müssen hohe Standards für Datenintegrität und prädiktive Zuverlässigkeit erfüllen.
Kulturelle Verortung.
KI-Systeme müssen die Diversität kultureller und regionaler Kontexte anerkennen.
Minderung von Diskriminierung.
Die Systeme müssen Voreingenommenheit aktiv reduzieren, um faire und gerechte Resultate zu ermöglichen.
Abschnitt 2.
In der Pilotphase trifft Theorie auf betriebliche Realität. Die wichtigsten Stakeholder können jetzt prüfen, ob die Performance der KI-Technologie den Geschäftszielen und Erwartungen entspricht. Diese Phase geht über die Prüfung der technischen Machbarkeit hinaus und konzentriert sich darauf, wichtigen Führungskräften und Stakeholdern die Möglichkeit zu geben, sich auf sinnvolle Weise direkt mit der Technologie auseinanderzusetzen. Es geht darum, Menschen in die Lage zu versetzen, mit KI zu arbeiten, fundierte Entscheidungen über ihre Skalierbarkeit zu treffen und sicherzustellen, dass sie ethischen, betrieblichen und regulatorischen Standards entspricht.
Pilotprojekte unterziehen die KI-Systeme einem Stresstest. Ihr ermittelt, wo Nachbesserungen an der Rechenschaftspflicht oder Transparenz nötig sind und ob die neuen Funktionen den Erwartungen entsprechen. Dokumentiert alle Erkenntnisse, und führt sie zu einer Roadmap für die verantwortungsvolle Skalierung von KI zusammen, die den kurz- und langfristigen Zielen gerecht wird.
Für einen überzeugenden, ganzheitlichen Business Case zum Potenzial von KI braucht es Input von Stakeholdern und Mitarbeitenden. Bezieht frühzeitig alle Teams ein, die die Technologie direkt nutzen sollen, um ihre Vorteile für die Erstellung von Marketing-Content, Codierung, Workflow-Automatisierung oder Datenverwaltung zu identifizieren.
Beide Aspekte sind wichtig, wenn die KI-Initiative euren betrieblichen Zielen und den Benchmarks zum verantwortungsvollen Einsatz von KI entsprechen soll. Mehr als die Hälfte der befragten Organisationen (54 %) hat ein akzeptables Risikoniveau für ihre wichtigsten Use Cases definiert. Es empfiehlt sich, alle Erkenntnisse systematisch zu dokumentieren, um sie bei künftigen KI-Projekten nutzen zu können. So entsteht ein robustes Fundament für die Implementierung skalierbarer KI-Lösungen.
Abschnitt 3.
Die Implementierungsphase markiert den Übergang von der Pilotphase zur organisationsweiten Integration. Die experimentellen Programme werden in voll betriebsfähige KI-Systeme überführt und die Erkenntnisse aus den Piloten in konkrete Szenarien umgesetzt.
In dieser Phase binden die Mitarbeitenden die KI aktiv in ihre bestehenden Workflows ein. Dabei helfen ihnen die praktischen Erfahrungen aus den Pilotprojekten.
Die effektive Skalierung von KI gelingt nur, wenn die Mitarbeitenden sowohl das Potenzial der Technologie als auch die damit verbundenen ethischen Verantwortlichkeiten verstehen. Maßgeschneiderte Trainings-Programme können Mitarbeitenden in verschiedenen Rollen und Abteilungen den Einsatz der KI-Tools erleichtern. Vielen Organisationen (89 %) ist die Bedeutung von Schulungen bewusst. Fast zwei Drittel legen dabei auch Wert auf Richtlinien zum verantwortungsvollen Einsatz von KI. Das Training sollte die technischen Funktionen sowie Grundsätze wie Rechenschaftspflicht, Transparenz und regulatorische Compliance abdecken.
Richtet Schulungen an Governance aus. Integriert verantwortungsvolle KI-Richtlinien in Schulungsmaterialien, um sicherzustellen, dass Mitarbeitende über Compliance-, Risiko-Management- und Transparenzanforderungen informiert sind.
Passt Schulungen an Rollen an. Entwickelt maßgeschneiderte Schulungsmodule, die die Bedürfnisse spezifischer Funktionen adressieren, einschließlich Best Practices sowohl für eure Geschäftsprozesse als auch für verantwortungsvolle KI.
Für die großflächige Implementierung von KI ist ein Governance-Framework nötig, das den verantwortungsvollen Einsatz gewährleistet. Organisationen sollten ihre KI-Initiativen auf die bestehenden Richtlinien abstimmen und sie dann kontinuierlich an aktuelle gesetzliche, betriebliche und ethische Standards anpassen.
Abschnitt 4.
Die besten Monitoring-Methoden kombinieren automatisches Performance-Tracking mit menschlicher Expertise. Viele Organisationen überwachen ihre KI-Systeme in Echtzeit. Die Effektivität dieser Tools steigt deutlich, wenn sie durch menschliche Aufsicht ergänzt werden. Menschen sind besser darin, Daten zu analysieren, Risiken zu erkennen und Entscheidungen über notwendige Anpassungen zu treffen.
69 % der befragten Organisationen nutzen Tools zur Echtzeit-Überwachung. Der Nutzen steigt deutlich, wenn menschliches Urteilsvermögen mit einbezogen wird. Die Mehrzahl der Unternehmen priorisiert technische Kennzahlen: 72 % achten vor allem auf Genauigkeit und 69 % auf den ROI. Bei der verantwortungsvollen Skalierung spielen aber auch ethische Aspekte eine Rolle. Menschliche Kontrolle fördert die Transparenz und Berechenbarkeit und stärkt das Vertrauen – intern wie extern. Weitere Faktoren bei der Überwachung sind die proaktive Erkennung von Voreingenommenheit (49 %) und die Minimierung potenziell schädlicher Inhalte (33 %). Ohne ein kontinuierliches, proaktives Monitoring können KI-Systeme die Integrität und das Vertrauen beeinträchtigen. Mit einer Performance-Überwachung, die technische und ethische Risiken abdeckt, schützt ihr eure Marke, stärkt das Nutzervertrauen und schafft ein solides Fundament für die verantwortungsvolle Skalierung von KI.
Durch das enge Zusammenspiel von Technologie und Mensch lassen sich potenzielle Risiken wie ungenaue Daten, Diskriminierung oder Compliance-Verstöße frühzeitig erkennen.
Prozentanteil aller Befragten.
Risiko-Management bei KI ist ein kontinuierlicher Prozess, der sich parallel zu den KI-Systemen weiterentwickeln sollte. Die Etablierung eines strukturierten, funktionsübergreifenden Ansatzes für KI-Risiko-Management ermöglicht es eurem Unternehmen, sowohl Geschäfts- als auch Reputationsrisiken proaktiv anzugehen. Geplante Überprüfungen sollten Stakeholder aus dem gesamten Unternehmen einbeziehen, einschließlich Datenwissenschaftlerinnen und -wissenschaftler, Geschäftsführung und Rechts-/Compliance-Beauftragte, um eine gründliche Auswertung sowohl der technischen Performance als auch der verantwortlichen KI-Ziele zu unterstützen.
KI-Risiko-Management ist ein kontinuierlicher Prozess, der sich mit technologischen Fortschritten weiterentwickelt. 60 % der Unternehmen beziehen Daten- und Governance-Teams ein, und 49 % schließen KI-Arbeitsgruppen, Compliance- und Rechts-Teams mit ein – was den Bedarf an funktionsübergreifender Zusammenarbeit unterstreicht. Dieser proaktive Ansatz hilft dabei, sowohl mit internen Werten als auch mit externen Erwartungen im Einklang zu bleiben. Es geht darum, Widerstandsfähigkeit aufzubauen, die sich an regulatorische Veränderungen anpasst. Da 68 % der Unternehmen im Risiko-Management Wert auf verantwortungsvolle KI legen, sind umfassende Dokumentation und kontinuierliche Risikobewertungen unerlässlich.
Prozentanteil aller Befragten.
Prozentanteil derjenigen, die ein designiertes Team für das Monitoring von KI-Regulierungen und -Standards angeben.
Interne Nutzung generativer KI.
Für Adobe ist generative KI eine transformative Technologie, die menschliche Kreativität nicht ersetzt, sondern unterstützt. Wir fördern den verantwortungsbewussten internen Einsatz von generativer KI in Übereinstimmung mit unseren ethischen Prinzipien Rechenschaftspflicht, Verantwortung und Transparenz.
Im Juni 2023 gründete Adobe eine funktionsübergreifende interne Arbeitsgruppe unter Leitung des CIO und CHRO, um Mitarbeitende bei der sicheren, verantwortungsvollen und flexiblen Erkundung und Verwendung generativer KI zu unterstützen. In Abstimmung mit Führungs- und Fachkräften aus dem ganzen Unternehmen entwickelt diese Gruppe Richtlinien und Kriterien, nach denen Mitarbeitende mit den Einsatzmöglichkeiten von generativer KI experimentieren können. Im Rahmen der Initiative wurden vier personabasierte Arbeitsgruppen zu verschiedenen Use Cases für generative KI bei Adobe gebildet sowie ein Intake-Prozess, ein Framework für Risikotoleranz und ein Blueprint für Prüfungen entwickelt, der Ethik, Sicherheit, Datenschutz und andere rechtliche Aspekte berücksichtigt. Auch eine Liste freigegebener Tools und Modelle für spezifische Use Cases sowie Richtlinien zum Einsatz generativer KI auf Personalebene sind verfügbar. Begleitend zur Einführung der Anbieter-Richtlinien für generative KI im März 2024 wurden Trainings zur Nutzung der Technologie und zu den Features der ausgewählten Produkte abgehalten.
Die durch die Initiative optimierten Prozesse haben die Experimentierphase und die skalierte Anwendung der Technologie beschleunigt. Gleichzeitig ermöglichte die Initiative die Beurteilung der unternehmensweiten generativen KI-Landschaft. Adobe fördert weiterhin den Austausch der gewonnenen Erkenntnisse und Learnings im Unternehmen. Ziel ist der Aufbau eines kollaborativen Ökosystems für gemeinschaftliche Forschung. Das Programm wird regelmäßig an neue KI-basierte Features in unseren Produkten, neue Technologien und Modelle für generative KI sowie geänderte rechtliche und regulatorische Vorgaben angepasst. Der Prüfprozess für Experimente wird überwacht, und das zuständige Team entwickelt Tools zur Weiterverfolgung großflächig eingeführter Projekte und anderer Initiativen.
Um KI-Systeme verantwortungsvoll zu implementieren, zu überwachen und zu optimieren, müssen Organisationen umfassende Richtlinien für Mitarbeitende bereitstellen, Anbieter streng bewerten und robuste Steuerhebel für die KI-Governance definieren. So sorgen sie dafür, dass ihre KI-Initiativen aktuelle und neue gesetzliche Vorgaben erfüllen, auf bestehenden Leitlinien für Governance und Risiko-Management aufbauen und im Einklang mit Prozessen stehen, die Vertrauen, Transparenz und Rechenschaftspflicht fördern.
Dieser Abschnitt beschreibt praktische Schritte zur Einbindung der Best Practices in den täglichen Geschäftsbetrieb.
Die Richtlinien zum verantwortungsvollen Einsatz von KI müssen auf die individuellen Anforderungen und Risiken eurer Organisation abgestimmt sein. Sie sollen Mitarbeitenden helfen, die regulatorischen Standards und Governance-Protokolle zu befolgen und dabei die Grundsätze der Datensicherheit, Transparenz und Rechenschaftspflicht einzuhalten.
Legt genau fest, wann die Datenverarbeitung ausschließlich lokal oder mit strengen Zugriffskontrollen erfolgen darf, um jeden unbefugten Zugriff zu verhindern. Dazu gehört auch die Unterbindung von Prompts, die sensible Outputs generieren oder manipulieren könnten. Diese Richtlinien dienen dem Schutz von firmeneigenen Informationen und der Einhaltung von Datenschutzvorgaben.
Gebt immer an, wenn KI an der Erstellung von internen Dokumenten, Schnittstellen mit Kundenausrichtung oder externer Kommunikation beteiligt war. Davon profitieren die Rechenschaftspflicht, das Vertrauen in die Authentizität und Verlässlichkeit KI-generierter Inhalte – und letztlich die Marke und der Ruf eines Unternehmens.
Definiert eindeutige Richtlinien für die Verwendung von Tools für generative KI, bei denen eine Registrierung erforderlich ist. Dazu gehört, ob E-Mail-Konten des Unternehmens verwendet werden können, welche Tools für geschäftliche Zwecke genutzt werden dürfen und der Hinweis, dass kein geschäftlicher Content über persönliche Konten erstellt werden soll. So verhindert ihr die unzulässige Verwendung und stimmt den Einsatz der KI besser auf das allgemeine Unternehmensprogramm zur Informationssicherheit ab.
Je präziser diese Richtlinien auf eure Organisation zugeschnitten sind, desto verantwortungsvoller können Mitarbeitende die Tools für generative KI nutzen und desto besser gelingt es euch, Innovation und Integrität miteinander zu verbinden.
Bei der Bewertung von KI-Anbietern wird mittels geeigneter Fragen abgeklärt, ob die Systeme rechtlichen und regulatorischen Normen sowie Standards für den verantwortungsvollen Einsatz von KI entsprechen. Die folgenden Fragen sollen Organisationen als Orientierung dienen und dabei helfen, fundierte Entscheidungen zu potenziellen Kooperationen zu treffen sowie KI-bezogene Risiken zu minimieren.
Adobe Firefly: Adobe bezieht keine Unternehmensinhalte von Benutzenden (einschließlich Firefly-Eingaben und -Ausgaben) in Datensätze ein, die zum Trainieren der Firefly-Basismodelle verwendet werden.
Adobe Firefly: Kunden können jederzeit Informationen zur Lizenzübersicht unter stock-adobe.com/Dashboard/LicenseHistory einsehen, wenn sie mit ihren Adobe-Anmeldedaten angemeldet sind.
Adobe Experience Platform AI Assistant: Adobe verwendet keine Kundendaten zum Trainieren oder zur Feinabstimmung von Azure OpenAI Service.
Adobe Acrobat AI Assistant: Adobe beschränkt den Zugriff auf diese Informationen strikt auf eine kleine Anzahl geschulter Adobe-Mitarbeitende, die direkt an der Entwicklung von Adobe Generative AI Service beteiligt sind.
Adobe Experience Platform AI Assistant: Adobe nutzt intern entwickelte Content-Filter, um (a) zu bestimmen, ob die Eingabe (Prompt) im KI-Assistenten in Experience Platform den Adobe-Richtlinien für generative KI entspricht und (b) generierte Antworten herauszufiltern, die gegen diese Richtlinien verstoßen (zum Beispiel Hassrede und Obszönitäten).
Die Implementierung robuster KI-Governance stellt sicher, dass KI-Systeme in einer Weise entwickelt, eingesetzt und überwacht werden, die mit organisatorischen Werten und regulatorischen Standards übereinstimmt. Es gibt viele regulatorische Standards, einschließlich des EU AI Act und Frameworks wie AI Verify in Singapur. In den USA sollten Unternehmen die umfassenden Datenschutzgesetze der einzelnen Bundesstaaten und das NIST AI Risiko Management Framework befolgen, da es die wahrscheinliche Grundlage zukünftiger Regulierung ist.
Die folgenden Governance-Hebel unterstützen das Management KI-bezogener Risiken und verbessern Transparenz, Rechenschaftspflicht und Sicherheit:
KI-Inventar
Erstellt ein zentrales Repository eurer KI-Systeme, und kategorisiert sie nach Risikoprofil und strategischer Priorität.
Habt ihr euren KI-Use-Case dokumentiert und relevante Risken kategorisiert?
Damit Unternehmen das Potenzial von KI maximal nutzen können, benötigen sie verantwortungsvoll entwickelte Technologie, klare Nutzungsrichtlinien, maßgeschneidertes Training und eine robuste Governance. So bringen sie ihr Business voran und sorgen dafür, dass KI-Initiativen regulatorischen Vorgaben und den Standards für eine verantwortungsvolle Implementierung entsprechen und damit eine Kultur des verantwortungsvollen Umgangs mit KI fördern.
Wichtig ist auch eine kontinuierliche Überwachung und Anpassung der KI-Initiativen. Mit Performance-Kennzahlen, regelmäßigen Beurteilungen und einem proaktiven Risiko-Management stellen sich Organisationen flexibel auf neue Vorschriften ein und wahren die Integrität ihrer KI-Projekte.
Das hier vorgestellte Framework ermöglicht es euch, erfolgreich und verantwortungsvoll mit KI durchzustarten und durch den Fokus auf Impact, Integration und Integrität den Weg für nachhaltige Innovation und anhaltenden Erfolg zu ebnen.