Content as a Service v3 - generative-ai - Tuesday, July 15, 2025 at 11:21
La route vers une IA responsable
Dans ce guide, découvrez comment disposer des bons outils, mettre en place la bonne stratégie et adopter le bon état d’esprit pour évaluer, piloter, adopter et superviser efficacement les solutions d’IA de votre entreprise.
IA responsable : une adoption incontournable
À l’heure où l’intelligence artificielle (IA) transforme profondément tous les secteurs d’activité, les décisionnaires font face à une pression inédite, les poussant à innover rapidement, à se démarquer de la concurrence et à améliorer l’efficacité opérationnelle de leur entreprise. Mais cette course à l’IA induit de nouveaux risques. Sans un encadrement strict, ce déploiement à marche forcée peut entraîner des erreurs de conformité règlementaire, perturber les opérations et entacher durablement la réputation des entreprises. Le compromis n’est plus de mise : l’équilibre entre quête de rapidité et principe de responsabilité est une priorité absolue.
Entre gouvernance de l’IA et gestion des risques, les efforts peuvent paraître titanesques au premier abord. Directives, cadres, politiques… face à la somme de nouveautés, mais aussi à l’évolution constante de la législation internationale, nationale et locale, entreprises et parties prenantes baignent souvent dans une certaine confusion qui les empêche d’avancer. Chez Adobe, notre expertise en matière d’innovation responsable, fondée sur les principes essentiels de traçabilité, de responsabilité et de transparence liés à l’éthique de l’IA, nous permet d’obtenir des insights détaillés pour relever ces défis.
D’expérience, même si le chemin pour innover de manière responsable avec l’IA peut sembler ardu, le succès est à portée de main dès lors que les entreprises disposent des bons outils, mettent en place la bonne stratégie et adoptent le bon état d’esprit.
Choisir entre créer, acheter ou personnaliser une solution d’IA ou encore se lancer dans les trois à la fois constitue une des plus grandes décisions à prendre lors de l’élaboration d’une stratégie d’IA. L’approche que nous développons ici s’adresse aux entreprises souhaitant acheter des solutions d’IA et s’appuie sur les valeurs et pratiques métier existantes pour celles qui tendent à exploiter des solutions externes. Entre études indépendantes et interviews de spécialistes sur la gouvernance de l’IA, le présent framework offre aux entreprises un moyen concret de faire le point sur leur situation et d’adopter les meilleures pratiques pour intégrer les principes d’une IA responsable. Il leur permet également d’élaborer des directives sur l’utilisation de l’IA générative à l’intention du personnel, d’évaluer les fournisseurs au moyen de questionnaires détaillés et d’actualiser leurs processus de gouvernance de l’IA pour suivre la mutation en cours.
Quel que soit le stade de votre transition vers l’IA, qu’il s’agisse d’évaluer le niveau de préparation de votre entreprise ou d’affiner votre stratégie, ce framework vous propose une approche éprouvée, qui allie ingéniosité humaine et gouvernance de pointe pour développer l’IA de manière responsable. En suivant cette roadmap, les entreprises peuvent évaluer, piloter, adopter et superviser efficacement leurs solutions d’IA, et ainsi construire un socle résilient qui favorise un climat de confiance, atténue les risques et crée de la valeur de façon pérenne.
Bâtir une IA éthique et scalable
Vous ne mettrez pas en œuvre l’IA générative en cochant des cases sur une liste d’actions : seule une approche stratégique, à plusieurs dimensions vous permettra d’élaborer, phase après phase, une innovation durable et des pratiques d’IA éthiques. Les différentes composantes interdépendantes de ce framework sont pensées pour intégrer des pratiques d’IA responsables à chaque étape : de l’évaluation du niveau de préparation de votre entreprise au développement efficace des systèmes d’IA en passant par la surveillance continue.
Plutôt que de considérer l’adoption de l’IA sous l’angle d’un simple processus à mettre en place, ce framework vous donne les clés pour créer des systèmes réellement en phase avec vos besoins. Il souligne également l’importance de trouver un juste équilibre entre l’humain et l’IA ; l’objectif étant de garantir que votre entreprise puisse exploiter le plein potentiel de cette technologie sans faire l’impasse sur vos objectifs éthiques, règlementaires et opérationnels.
Évaluation de la préparation, pilotage responsable, adoption à grande échelle, suivi continu… chaque phase de ce framework fonctionne en synergie pour une mise en œuvre pérenne. En adoptant des pratiques d’IA responsables à toutes les étapes, vous lèverez tous les obstacles tout en bâtissant une véritable culture de confiance, de transparence et de responsabilité.
Entre expertise et études de spécialistes : des bases solides
Missionné par Adobe pour étudier l’adoption de l’IA générative, un cabinet indépendant a interrogé plus de 200 responsables IT, décisionnaires et spécialistes de la conformité dans divers secteurs. Il en ressort un véritable état des lieux des pratiques actuelles, des problématiques courantes et des stratégies inspirantes en matière d’IA. Adobe s’est également entretenu avec des leaders du secteur et a examiné plusieurs normes internationales : loi européenne sur l’IA, cadre de gestion des risques liés à l’IA du National Institute of Standards and Technology (NIST), initiative « IA Verify » de Singapour, normes IEEE 7000 et ISO 42001. Grâce aux efforts déployés par Adobe, ce framework est applicable en toutes circonstances, quels que soient le secteur, la taille de l’entreprise et son degré de maturité en matière d’adoption de l’IA.
1. Évaluer : niveau de préparation et sélection de technologies d’IA responsables
Évaluer le niveau de préparation
Nombreuses sont les entreprises ayant commencé à adopter l’IA. Pourtant moins d’un quart (21 %) de celles interrogées ont clairement défini leurs priorités en matière d’IA responsable. Pour 78 % d’entre elles, cette tâche est en cours ou encore au stade de projet. Les chiffres parlent d’eux-mêmes : ces entreprises ont besoin de mettre en place une réelle stratégie de préparation. Spécialistes en IT, en conformité, en gestion des risques ou en stratégie, il est essentiel de bien s’entourer pour poser les bases d’une IA responsable. La priorité : examiner l’ensemble de vos cadres de gouvernance et déterminer le niveau de connaissances de votre entreprise en matière d’IA, le but étant d’identifier d’éventuelles lacunes qui pourraient freiner son adoption.
L’évaluation de la préparation nécessite une approche globale, qui mixe les attentes de la direction (approche descendante) et les commentaires du personnel qui interagit au quotidien avec l’IA (approche ascendante).
Actions clés :
- Réaliser un audit de préparation exhaustif : évaluez l’infrastructure technique, les normes de gouvernance, les politiques en matière d’IA, les cadres d’innovation responsable et les pratiques de conformité de votre entreprise afin d’identifier vos points forts et vos pistes d’amélioration, en garantissant l’alignement entre vos objectifs stratégiques et les exigences d’une IA responsable.
- Identifier et combler les principales lacunes de manière collaborative :documentez les nouvelles politiques d’IA en matière de sécurité, de confidentialité, de règles juridiques, de conformité et de transparence, et mobilisez des équipes transversales (IT, service juridique, conformité et divisions) pour hiérarchiser les mesures à prendre.
- Créer des équipes de gouvernance et les doter des moyens nécessaires :désignez des équipes qui superviseront la gouvernance de l’IA afin de garantir le respect des normes internes en matière d’IA responsable, mais aussi des réglementations externes. Confiez-leur le mandat et les ressources nécessaires pour gérer les risques de manière proactive et s’adapter aux exigences en constante évolution.
Sélectionner des technologies d’IA conçues de manière responsable
Analysez soigneusement les normes de gouvernance de votre entreprise. Ces normes couvrent probablement déjà des sujets essentiels tels que la confidentialité, la sécurité, l’accessibilité et les questions d’ordre juridique. Les références internationales comme le règlement général sur la protection des données (RGPD) et les cadres dédiés à l’IA permettent de garantir la conformité et la surveillance des risques au sein de nombreuses entreprises. Quant aux politiques régionales et aux exigences sectorielles (telles que les audits d’IA et les normes de responsabilité), il est important de les intégrer à vos standards de gouvernance.
Une fois que l’entreprise a défini ses attentes et ses cadres de gouvernance en matière d’IA responsable, elle doit fixer des critères de sélection afin d’adopter des technologies d’IA qui auront été développées de manière responsable. Ces critères doivent intégrer les normes existantes et se concentrer sur des éléments spécifiques de l’IA générative : transparence sur l’origine, exactitude des résultats, octroi de licences pour les données d’entraînement, limitation des biais et localisation culturelle.
D’après les résultats de l’étude, les entreprises utilisent les principaux critères suivants pour évaluer les technologies d’IA générative :
1. Évaluation des données d’entraînement (72 %)
2. Communication relative à l’utilisation de l’IA (63 %)
3. Limitation des préjudices (60 %)
4. Transparence sur l’origine (55 %)
5. Limitation des biais (50 %)
Les choix qu’elle opère lui permettront de sélectionner des solutions d’IA adaptées à ses objectifs stratégiques et conformes aux principes de l’IA responsable. Ces critères s’articulent autour des quatre piliers suivants :
Transparence
Veiller à ce que les processus d’IA soient compréhensibles et traçables.
Exactitude
Maintenir des normes strictes en matière d’exactitude des données et de fiabilité prédictive.
Localisation culturelle
Adapter les systèmes d’IA à des contextes culturels et régionaux divers et variés.
Limitation des biais
Réduire activement les biais pour obtenir des résultats d’IA justes et équitables.
Évaluer
Étape 1 : évaluer le niveau de préparation de l’entreprise
- Définissez des normes relatives à l’utilisation responsable de technologies comme l’IA et communiquez sur ce point.
- Le DSI et/ou le comité transversal passent en revue les différents systèmes et processus métier existants afin d’identifier les domaines qui bénéficieront le plus de l’IA responsable.
- Agrégez les données des leaders fonctionnels et opérationnels internes dans le cadre d’autres cas d’usage pour une mise en œuvre optimale de l’IA responsable.
Étape 2 : sélectionner une technologie d’IA conçue de manière responsable
- Analysez les normes de gouvernance existantes sur des sujets essentiels liés à l’IA (confidentialité, sécurité, accessibilité et questions d’ordre juridique).
- Définissez des critères de sélection intégrant des normes préétablies qui répondent aux exigences en matière d’IA responsable, en mettant l’accent sur la transparence, l’exactitude, les biais, la localisation culturelle et la conformité.
- Évaluez et sélectionnez les technologies d’IA qui satisfont le mieux les critères définis et les besoins de l’entreprise, et documentez le processus de prise de décisions.
2. Piloter : identification et gestion des cas d’usage à fort impact
La phase pilote fait le lien entre les tests et la réalité opérationnelle de l’IA. Elle permet aux principales parties prenantes d’évaluer les performances de la technologie en fonction de la manière dont elle s’adapte aux objectifs métier de l’entreprise, mais aussi en matière d’IA responsable. Cette phase ne se limite pas à la réalisation de tests de faisabilité technologique, elle permet également aux principaux leaders et parties prenantes d’exploiter directement la technologie à bon escient. Elle offre ainsi la possibilité aux équipes de travailler avec l’IA, de prendre des décisions éclairées sur son évolutivité et de garantir qu’elle répond aux normes éthiques, opérationnelles et réglementaires.
La phase pilote vous donne également les moyens de tester des systèmes d’IA en contexte (afin de comprendre où il serait pertinent de mettre en place des évaluations de responsabilité et de la documentation sur la transparence) ainsi que les performances des nouvelles fonctionnalités par rapport à vos attentes initiales. En documentant les insights et en collectant des informations exploitables, les entreprises peuvent définir une roadmap pour développer l’IA de manière responsable et jeter ainsi les bases qui leur permettront d’atteindre leurs objectifs à court et long termes.
Identifier et préparer les cas d’usage prioritaires
Pour une analyse de rentabilité efficace de l’IA, il est nécessaire de mobiliser les principales parties prenantes et le personnel en contact direct avec la clientèle, l’objectif étant d’obtenir une vue d’ensemble du potentiel de l’IA. En impliquant dès le début celles et ceux qui interagiront directement avec la technologie, les entreprises peuvent identifier les cas d’usage à fort impact où l’IA a de véritables avantages à offrir, comme pour la création de contenu marketing, la programmation, l’automatisation des workflows et la gestion des données.
- Faites preuve de précision et concentrez-vous sur les processus (pas sur les rôles) : plutôt que de fonder vos cas d’usage sur des rôles spécifiques (par exemple, « l’IA pour les développeurs »), ciblez les processus que l’IA peut simplifier et améliorer, tels que « la programmation assistée par l’IA pour automatiser les révisions de code récurrentes et la détection des erreurs ».
- Établissez des indicateurs mesurables pour l’utilisation de l’IA et la réduction des coûts :certes, le retour sur investissement est important, mais les entreprises doivent aussi mesurer des indicateurs plus larges, souvent appelés « retour sur expérience », comme la productivité, la rapidité de lancement, la satisfaction des équipes et l’amélioration de l’expérience client.
- Maximisez l’impact de l’IA (au-delà des avantages immédiats) : considérez l’IA comme un véritable levier de transformation à long terme. Les cas d’usage ne doivent pas seulement répondre à des besoins opérationnels à court terme, mais poursuivre également des objectifs plus stratégiques (par exemple, engager une transformation digitale ou se démarquer de la concurrence).
Combiner objectifs métier et critères en matière d’IA responsable
En adoptant un double prisme dans le cadre de la phase pilote, à savoir la performance commerciale et les principes de l’IA responsable, les entreprises garantissent que leurs initiatives en matière d’IA répondent à la fois à leurs objectifs opérationnels et à leurs critères de responsabilité. Plus de la moitié des entreprises interrogées (54 %) ont déclaré un niveau de risque acceptable pour leurs cas d’usage prioritaires. Les entreprises doivent documenter ces évaluations de façon systématique, en tirant les enseignements qui en découlent pour leurs futurs projets d’IA. Cette approche structurée leur permet de bâtir un socle solide pour une mise en œuvre scalable de l’IA.
Actions clés :
- Définir des indicateurs opérationnels et des critères en matière d’IA responsable : fixez-vous des objectifs opérationnels (productivité, réduction des coûts, etc.), mais aussi des critères en matière d’IA responsable (transparence, équité, etc.).
- Définir des seuils de risque : établissez des paramètres de risque et créez un framework dédié à l’évaluation continue afin de gérer et de limiter efficacement les risques induits par l’IA.
- Tirer et partager des enseignements :déployez un processus standardisé pour documenter les résultats de la phase pilote afin de favoriser la transparence et d’orienter vos actions de développement.
Piloter
Étape 1 : identifier les cas d’usage prioritaires
- En vous appuyant sur les cas d’usage prioritaires existants, identifiez deux à trois projets pilotes pour lesquels les principes d’éthique et de responsabilité qui régissent l’IA sont importants.
- Pour ces cas d’usage, définissez des indicateurs et des seuils afin de suivre les performances de votre entreprise, que ce soit vis-à-vis de vos objectifs métier ou de vos critères en matière d’IA responsable.
Étape 2 : combiner objectifs métier et critères d’IA responsable
- Lancez des projets pilotes afin de tester et de valider de nouveaux cas d’usage à différents niveaux (technique, métier, responsabilité).
- Évaluez les résultats par rapport à des indicateurs et des seuils prédéfinis conformément à vos objectifs métier et à vos attentes en matière d’IA responsable. Pour ce faire, documentez les enseignements tirés afin de les appliquer à vos futures initiatives d’évaluation et de test.
- Procédez à l’achat/à l’adoption de technologies d’IA en fonction des résultats et des insights de vos projets pilotes.
3. Adopter : intégration de l’IA responsable au sein de votre entreprise
La phase d’adoption permet de passer d’un projet pilote à l’intégration effective de l’IA au sein de votre entreprise. Lors de cette phase, les entreprises tournent la page de l’expérimentation pour tendre vers des systèmes d’IA pleinement opérationnels. Elles déploient ainsi l’IA de manière responsable en appliquant en conditions réelles les leçons qu’elles ont tirées de leurs projets pilotes.
À ce stade, vos équipes intègrent l’IA dans leurs workflows existants. Grâce à l’expérience pratique acquise lors de la phase précédente, les collaborateurs et collaboratrices ont toutes les clés en main pour mettre en œuvre l’IA.
Former et renforcer les compétences de vos équipes
Pour développer efficacement l’IA, le personnel doit être formé. En effet, il est essentiel que collaborateurs et collaboratrices se familiarisent avec les fonctionnalités de l’IA et comprennent les responsabilités éthiques qui leur incombent. Si les entreprises veulent aider leurs équipes, quel que soit le rôle ou le service, à exploiter pleinement le potentiel de l’IA, elles doivent mettre en place des programmes de formation sur mesure. La plupart des entreprises (89 %) soulignent l’importance de la formation et près des deux tiers y intègrent des directives sur l’IA responsable. Ces programmes de formation doivent aborder les principes de responsabilité, de transparence et de conformité réglementaire tout en renforçant les compétences techniques des équipes.
Actions clés :
Aligner vos programmes de formation sur votre gouvernance : intégrez des directives sur l’IA responsable dans vos supports de formation pour que vos équipes aient conscience de vos exigences en matière de conformité, de gestion des risques et de transparence.
Personnaliser vos programmes de formation en fonction des rôles : développez des modules de formation sur mesure, qui répondent aux besoins de fonctions spécifiques et qui incluent les meilleures pratiques en matière de performance métier et d’IA responsable.
Déployer l’IA en gardant le principe de responsabilité à l’esprit
Mettre en œuvre l’IA à grande échelle nécessite d’établir un cadre de gouvernance qui garantit une utilisation responsable. Les entreprises doivent donc s’assurer que leurs initiatives en matière d’IA concordent avec leur modèle de gouvernance existant, tout en optimisant en permanence leurs politiques pour répondre à l’évolution des normes réglementaires, des exigences opérationnelles et des critères de responsabilité liés à l’IA.
Actions clés :
- Cultiver l’art de la responsabilité : sensibilisez vos équipes à l’impact plus large de l’IA, que ce soit sur les workflows opérationnels ou sur la confiance des parties prenantes, en promouvant une culture de la responsabilité à l’échelle de votre entreprise.
- Améliorer sans cesse la formation : à mesure que les cadres de gouvernance de l’IA évoluent, adaptez vos programmes de formation pour traduire l’évolution des bonnes pratiques et des réglementations.
Adopter
Étape 1 : former vos équipes et renforcer leurs compétences
- Définissez des directives précises, adaptées aux différents cas d’usage, pour aider vos collaborateurs et vos collaboratrices à savoir quand et comment utiliser l’IA de façon responsable.
- Proposez une formation complète aux groupes concernés à mesure que vous déployez des solutions, et ce, en incluant les meilleures pratiques.
- Célébrez et partagez vos réussites au sein de votre entreprise.
Étape 2 : déployer l’IA en gardant le principe de responsabilité à l’esprit
- Pour chaque technologie, codifiez vos principales exigences d’adoption (impact sur l’entreprise, facilité d’intégration, atténuation des risques, etc.).
- Travaillez en étroite collaboration avec les décisionnaires pour vous aligner sur leurs arbitrages si nécessaire.
- Intégrez des questions stratégiques en matière d’IA et de responsabilité dans vos cadres de gouvernance (accès, contrôle, rôles, etc.).
4. Superviser : surveillance et amélioration continues
Suivre vos performances par rapport à vos objectifs métier et à vos critères en matière d’IA responsable
Pour une surveillance optimale de leurs performances, les entreprises doivent combiner expertise humaine et suivi automatisé. Alors que nombre d’entre elles ont adopté des outils de supervision en temps réel pour évaluer les résultats de leurs systèmes d’IA, l’efficacité de ces solutions va en s’améliorant dès lors qu’un suivi humain y est associé. Le personnel est en effet mieux à même d’analyser les données, d’identifier les risques et de prendre des décisions éclairées sur les ajustements nécessaires.
Alors que 69 % des entreprises interrogées utilisent des outils de surveillance en temps réel, ces derniers ont nettement plus d’impact lorsque leurs résultats sont soumis au jugement humain. De nombreuses entreprises priorisent les indicateurs techniques ; la précision étant importante pour 72 % et le retour sur investissement pour 69 %. Mais pour déployer l’IA de façon responsable, il est également nécessaire de prêter attention aux indicateurs éthiques. En intégrant une dimension humaine, les entreprises garantissent en effet une certaine transparence et prévisibilité, renforçant ainsi la confiance en interne et en externe. S’appuyer sur une expertise humaine permet également d’identifier les biais en amont. À noter que 49 % des entreprises interrogées suivent l’indicateur dédié aux biais, tandis que 33 % surveillent l’indicateur relatif aux résultats préjudiciables. Si vous n’assurez pas une surveillance continue et proactive, vos systèmes d’IA risquent de compromettre à la fois l’intégrité et la confiance. En optimisant le suivi de leurs performances pour limiter les risques techniques et éthiques, les entreprises protègent leur marque, renforcent la confiance des utilisateurs et des utilisatrices, posent les bases d’un environnement résilient, et peuvent développer l’IA de manière responsable.
Allier technologie et humain vous aide ainsi à identifier les risques en amont ; données inexactes, nouveaux biais, non-conformités, etc.
Assurer une gestion continue des risques
La gestion des risques est un processus continu qui doit s’adapter à l’évolution des systèmes d’IA. L’adoption d’une approche structurée et transversale permet aux entreprises de gérer de manière proactive leurs risques métier et de réputation liés à l’IA. Data scientists, décisionnaires, juristes, responsables de la conformité… la réalisation d’évaluations régulières doit impliquer l’ensemble des parties prenantes afin de garantir un suivi précis des performances techniques et des objectifs en matière d’IA responsable.
Répétons-le, la gestion des risques liés à l’IA est un processus continu qui suit les avancées technologiques. Alors que 60 % des entreprises interrogées disposent d’équipes de données et de gouvernance, 49 % sont dotées de comités d’IA, de spécialistes de la conformité et de services juridiques. Ces chiffres témoignent de l’importance d’une collaboration transversale. En adoptant une approche proactive, les entreprises restent en phase avec leurs valeurs internes et les attentes externes. L’objectif étant de gagner en résilience et de s’adapter à l’évolution des réglementations. Avec 68 % des entreprises interrogées qui priorisent l’IA responsable dans la gestion des risques, il est essentiel de déployer une documentation exhaustive et d’évaluer les risques en permanence.
Actions clés :
- Effectuer des analyses de risques transversales : effectuez des évaluations régulières avec l’aide de data scientists, de responsables de la conformité et de juristes afin d’identifier l’émergence de risques à partir de données en temps réel.
- Suivre et signaler systématiquement les risques : collectez en permanence le feedback du personnel et de la clientèle finale pour identifier les problèmes d’utilisation, les biais ou les comportements inattendus.
Superviser
Étape 1 : suivre la performance
- Définissez et suivez des indicateurs de performance liés à l’IA à plus long terme, dont vos objectifs métier et de responsabilité.
- Mettez en place un processus d’évaluation continue et discutez des conclusions afin d’améliorer en permanence votre performance métier tout en respectant les principes qui régissent l’IA responsable.
Étape 2 : déployer l’IA en gardant le principe de responsabilité à l’esprit
- Désignez des rôles, aidez-les à suivre l’évolution des réglementations et des normes en matière d’IA (initiative « AI Verify » de Singapour, propositions du Congrès américain, etc.) et assurez-vous que les normes de l’entreprise s’adaptent en conséquence.
- Mettez au point un processus d’identification et d’atténuation continues des risques, dédié à l’utilisation de l’IA.
- Actualisez votre documentation sur la conformité de votre entreprise aux normes.
ÉTUDE DE CAS ADOBE
Usage interne de l’IA générative
Chez Adobe, nous considérons l’IA générative comme un véritable levier de transformation qui, loin de remplacer la créativité humaine, permet de l’améliorer. Fidèles aux principes de responsabilité et de transparence qui régissent l’IA au sein de notre entreprise, nous encourageons une démarche responsable dans l’exploration des technologies d’IA générative.
En juin 2023, Adobe a mis en place un groupe de travail transversal, appuyé par le DSI et le DRH de l’entreprise. Sa mission : permettre au personnel de tester et d’exploiter l’IA générative de façon sûre, responsable et agile. Cette équipe, qui travaille de concert avec des responsables et des spécialistes métier au sein de l’entreprise, aide les collaborateurs et les collaboratrices à adopter une approche méthodique, en identifiant les potentiels cas d’usage de l’IA générative, en définissant les directives nécessaires et en rationalisant l’expérimentation. Quatre groupes de personas ont été formés dans le cadre de l’initiative afin de représenter l’ensemble des cas d’usage de l’IA générative au sein d’Adobe. Ont également été déployés : un processus de mise en place, un cadre de tolérance aux risques de l’IA générative ainsi qu’un plan directeur pour l’évaluation des cas d’usage prenant en compte l’évolution des questions éthiques, juridiques, de sécurité et de confidentialité. Une liste d’outils et de modèles d’IA générative approuvés, adaptés à des cas d’usage spécifiques, et des directives relatives à l’utilisation de l’IA générative par le personnel sont par ailleurs disponibles. Parmi les directives déployées par Adobe en mars 2024 à l’intention des fournisseurs figurent notamment des sessions de formation sur l’utilisation de l’IA générative et les fonctionnalités des produits sélectionnés.
La mise en œuvre de cette initiative a permis non seulement de simplifier nos processus pour accélérer l’expérimentation et le déploiement à grande échelle lorsque cela était possible, mais aussi d’évaluer l’environnement de l’IA générative à l’échelle de l’entreprise. Adobe n’a de cesse d’encourager le partage de connaissances et d’insights afin de créer un écosystème collaboratif propice à l’exploration collective. Avec l’essor de l’IA générative dans le cadre de nos produits, le développement de technologies et de modèles d’IA générative, et l’évolution des exigences juridiques et réglementaires, le programme évolue en permanence. Enfin, les expérimentations menées par le personnel font l’objet d’un suivi et d’une évaluation : l’équipe supervise en effet les expérimentations après validation, notamment celles déployées à grande échelle.
Intégrer de bonnes pratiques à l’échelle de votre entreprise
Pour adopter, superviser et optimiser des systèmes d’IA de façon responsable, les entreprises doivent répondre à plusieurs enjeux opérationnels en fournissant des conseils d’ensemble au personnel, en évaluant rigoureusement leurs fournisseurs et en mettant en place de solides leviers de gouvernance de l’IA. De cette manière, les entreprises garantissent non seulement la conformité de leurs initiatives d’IA aux normes réglementaires en constante évolution, mais peuvent également s’appuyer sur les travaux en matière de gouvernance et de gestion des risques tout en adoptant des pratiques qui favorisent la confiance, la transparence et la responsabilité.
Dans cette partie, vous trouverez la marche à suivre pour intégrer ces meilleures pratiques dans vos opérations quotidiennes.
Accompagner le personnel dans son utilisation de l’IA
Pour déployer la technologie de manière responsable, il est primordial d’adapter les directives d’utilisation de l’IA aux besoins et risques spécifiques de votre entreprise. Ces directives doivent aider le personnel à respecter les normes réglementaires et les protocoles de gouvernance, et contribuer à aligner les technologies d’IA sur les engagements de l’entreprise en matière de sécurité des données, de transparence et de responsabilité.
Sensibilité des données
Indiquez clairement le type de traitement des données : localement ou sous contrôles d’accès stricts pour empêcher tout accès frauduleux. Abstenez-vous également d’utiliser des prompts susceptibles de générer ou de manipuler des résultats sensibles. Cette directive protège les informations propriétaires et garantit le respect des réglementations sur la confidentialité des données.
Transparence
Faites preuve de transparence concernant l’utilisation de l’IA, par exemple lorsqu’elle est utilisée pour créer des documents internes, des interfaces orientées client ou des communications externes. Cette directive favorise la responsabilité et instaure un climat de confiance vis-à-vis de l’authenticité et de la fiabilité du contenu généré par l’IA, ce qui vous permet de protéger votre marque et la réputation de votre entreprise.
Politiques de gestion des comptes
Mettez en place des politiques claires concernant l’utilisation d’outils d’IA générative qui nécessitent l’enregistrement d’un compte, par exemple en déterminant si des comptes de messagerie peuvent être utilisés, en précisant les outils qui ont été approuvés à des fins commerciales et en décourageant l’utilisation de comptes personnels dans le cadre de la gestion de contenus professionnels. Ces directives permettent de lutter contre les utilisations frauduleuses et s’inscrivent dans la lignée d’un programme de sécurité des informations plus large.
En adaptant ces directives au contexte de votre entreprise, vous permettez à vos collaborateurs et à vos collaboratrices d’utiliser des outils d’IA générative en toute confiance et de façon responsable, et contribuez ainsi à créer un environnement où innovation rime avec intégrité.
Évaluer rigoureusement les fournisseurs : exemples de questions
Pour évaluer correctement vos fournisseurs d’IA, vous devez clarifier les questions que vous souhaitez leur poser et les réponses que vous souhaitez obtenir afin de vous assurer que leurs systèmes sont conformes à vos normes juridiques et réglementaires, mais aussi à vos principes en matière d’IA responsable. Les questions suivantes peuvent vous servir de base pour prendre des décisions éclairées sur de potentiels partenariats et limiter les risques induits par l’adoption de l’IA.
Firefly :Adobe n’inclut pas le contenu utilisateur de l’entreprise (y compris les entrées et sorties Firefly) dans les jeux de données exploités pour entraîner les modèles fondateurs Firefly.
Firefly : les clientes et les clients peuvent à tout moment consulter l’historique des licences sur stock -adobe.com/Dashboard/LicenseHistory en se connectant avec leurs identifiants Adobe.
Assistant IA d’AEP :Adobe n’utilise aucune donnée client pour entraîner ou optimiser le service Azure OpenAI.
Assistant IA d’Acrobat : Adobe limite strictement l’accès à ces informations aux membres de son personnel ayant suivi une formation spécifique et intervenant dans le développement de son service d’IA générative.
Assistant IA d’AEP : Adobe utilise un système de filtrage du contenu développé en interne pour (a) déterminer si le prompt dans l’Assistant IA d’AEP est conforme aux directives d’utilisation de l’IA générative d’Adobe et (b) filtrer toutes les réponses générées qui enfreignent ces directives (par exemple, les propos haineux ou profanatoires).
Déployer des leviers de gouvernance solides
La mise en œuvre d’une gouvernance robuste en matière d’IA garantit que les systèmes d’IA sont développés, déployés et surveillés conformément aux valeurs de l’entreprise et aux réglementations. Il existe de nombreuses normes réglementaires et cadres en vigueur, tels que la loi européenne sur l’IA et l’initiative « AI Verify » de Singapour. Aux États-Unis, les entreprises doivent respecter la législation nationale sur la confidentialité des données ainsi que le cadre de gestion des risques liés à l’IA du NIST, base probable de la prochaine réglementation.
Les leviers de gouvernance suivants peuvent aider les entreprises à gérer les risques de l’IA et à améliorer la transparence, la responsabilité et la sécurité :
Inventaires de systèmes d’IA
Créez des inventaires de systèmes d’IA en les classant selon des profils de risque et des objectifs stratégiques afin de créer un référentiel centralisé.
Avez-vous documenté le cas d’usage de votre système d’IA et catégorisé les risques potentiels ?
Mettre l’IA au service de l’innovation responsable
Pour maximiser le potentiel de l’IA, vous devez vous appuyer sur des technologies ayant été développées de manière responsable, établir des directives claires en matière d’utilisation, développer des programmes de formation dédiés et déployer une gouvernance solide. Cette stratégie permet de créer de la valeur, de satisfaire aux exigences réglementaires et de maintenir des normes élevées en matière de mise en œuvre responsable. Le but : bâtir une véritable culture de l’IA responsable à l’échelle de l’entreprise.
En mettant en place un processus de surveillance et d’adaptation continues, vous assurez ainsi le bon déploiement de vos initiatives d’IA. C’est grâce à l’établissement d’indicateurs de performance, à la réalisation d’évaluations régulières et à une gestion proactive des risques que vous garderez une longueur d’avance sur l’évolution des réglementations et préserverez l’intégrité de vos projets d’IA.
Ce framework sur l’IA, résolument tourné vers l’avenir et axé sur l’impact, l’intégration et l’intégrité, permet aux entreprises de jouer un rôle de premier plan dans le domaine de l’IA responsable, d’ouvrir la voie à l’innovation durable et d’organiser une réussite pérenne.
Recommandations de lecture