View this page in English (US).Continue

Un moment charnière pour l’IA

Comment intégrer l’IA responsable au sein de votre entreprise ?

Le logo rouge Adobe sur fond noir, avec des icônes flottantes représentant les paramètres d’une IA responsable.

La route vers une IA responsable

Dans ce guide, découvrez comment disposer des bons outils, mettre en place la bonne stratégie et adopter le bon état d’esprit pour évaluer, piloter, adopter et superviser efficacement les solutions d’IA de votre entreprise.

IA responsable : une adoption incontournable

À l’heure où l’intelligence artificielle (IA) transforme profondément tous les secteurs d’activité, les décisionnaires font face à une pression inédite, les poussant à innover rapidement, à se démarquer de la concurrence et à améliorer l’efficacité opérationnelle de leur entreprise. Mais cette course à l’IA induit de nouveaux risques. Sans un encadrement strict, ce déploiement à marche forcée peut entraîner des erreurs de conformité règlementaire, perturber les opérations et entacher durablement la réputation des entreprises. Le compromis n’est plus de mise : l’équilibre entre quête de rapidité et principe de responsabilité est une priorité absolue.

Entre gouvernance de l’IA et gestion des risques, les efforts peuvent paraître titanesques au premier abord. Directives, cadres, politiques… face à la somme de nouveautés, mais aussi à l’évolution constante de la législation internationale, nationale et locale, entreprises et parties prenantes baignent souvent dans une certaine confusion qui les empêche d’avancer. Chez Adobe, notre expertise en matière d’innovation responsable, fondée sur les principes essentiels de traçabilité, de responsabilité et de transparence liés à l’éthique de l’IA, nous permet d’obtenir des insights détaillés pour relever ces défis.

D’expérience, même si le chemin pour innover de manière responsable avec l’IA peut sembler ardu, le succès est à portée de main dès lors que les entreprises disposent des bons outils, mettent en place la bonne stratégie et adoptent le bon état d’esprit.

Choisir entre créer, acheter ou personnaliser une solution d’IA ou encore se lancer dans les trois à la fois constitue une des plus grandes décisions à prendre lors de l’élaboration d’une stratégie d’IA. L’approche que nous développons ici s’adresse aux entreprises souhaitant acheter des solutions d’IA et s’appuie sur les valeurs et pratiques métier existantes pour celles qui tendent à exploiter des solutions externes. Entre études indépendantes et interviews de spécialistes sur la gouvernance de l’IA, le présent framework offre aux entreprises un moyen concret de faire le point sur leur situation et d’adopter les meilleures pratiques pour intégrer les principes d’une IA responsable. Il leur permet également d’élaborer des directives sur l’utilisation de l’IA générative à l’intention du personnel, d’évaluer les fournisseurs au moyen de questionnaires détaillés et d’actualiser leurs processus de gouvernance de l’IA pour suivre la mutation en cours.

Quel que soit le stade de votre transition vers l’IA, qu’il s’agisse d’évaluer le niveau de préparation de votre entreprise ou d’affiner votre stratégie, ce framework vous propose une approche éprouvée, qui allie ingéniosité humaine et gouvernance de pointe pour développer l’IA de manière responsable. En suivant cette roadmap, les entreprises peuvent évaluer, piloter, adopter et superviser efficacement leurs solutions d’IA, et ainsi construire un socle résilient qui favorise un climat de confiance, atténue les risques et crée de la valeur de façon pérenne.

Bâtir une IA éthique et scalable

Framework en quatre étapes pour bâtir une IA responsable : évaluer, piloter, superviser et adopter, chaque étape illustrée par des mains interagissant avec des éléments technologiques.
Framework en quatre étapes pour bâtir une IA responsable : évaluer, piloter, superviser et adopter, chaque étape illustrée par des mains interagissant avec des éléments technologiques.
Framework en quatre étapes pour bâtir une IA responsable : évaluer, piloter, superviser et adopter, chaque étape illustrée par des mains interagissant avec des éléments technologiques.

Vous ne mettrez pas en œuvre l’IA générative en cochant des cases sur une liste d’actions : seule une approche stratégique, à plusieurs dimensions vous permettra d’élaborer, phase après phase, une innovation durable et des pratiques d’IA éthiques. Les différentes composantes interdépendantes de ce framework sont pensées pour intégrer des pratiques d’IA responsables à chaque étape : de l’évaluation du niveau de préparation de votre entreprise au développement efficace des systèmes d’IA en passant par la surveillance continue.

Plutôt que de considérer l’adoption de l’IA sous l’angle d’un simple processus à mettre en place, ce framework vous donne les clés pour créer des systèmes réellement en phase avec vos besoins. Il souligne également l’importance de trouver un juste équilibre entre l’humain et l’IA ; l’objectif étant de garantir que votre entreprise puisse exploiter le plein potentiel de cette technologie sans faire l’impasse sur vos objectifs éthiques, règlementaires et opérationnels.

Évaluation de la préparation, pilotage responsable, adoption à grande échelle, suivi continu… chaque phase de ce framework fonctionne en synergie pour une mise en œuvre pérenne. En adoptant des pratiques d’IA responsables à toutes les étapes, vous lèverez tous les obstacles tout en bâtissant une véritable culture de confiance, de transparence et de responsabilité.

Entre expertise et études de spécialistes : des bases solides

Missionné par Adobe pour étudier l’adoption de l’IA générative, un cabinet indépendant a interrogé plus de 200 responsables IT, décisionnaires et spécialistes de la conformité dans divers secteurs. Il en ressort un véritable état des lieux des pratiques actuelles, des problématiques courantes et des stratégies inspirantes en matière d’IA. Adobe s’est également entretenu avec des leaders du secteur et a examiné plusieurs normes internationales : loi européenne sur l’IA, cadre de gestion des risques liés à l’IA du National Institute of Standards and Technology (NIST), initiative « IA Verify » de Singapour, normes IEEE 7000 et ISO 42001. Grâce aux efforts déployés par Adobe, ce framework est applicable en toutes circonstances, quels que soient le secteur, la taille de l’entreprise et son degré de maturité en matière d’adoption de l’IA.

1. Évaluer : niveau de préparation et sélection de technologies d’IA responsables

Gros plan sur l’étape d’évaluation du framework pour bâtir une IA responsable, mettant l’accent sur la préparation et l’évaluation des technologies d’IA.
Gros plan sur l’étape d’évaluation du framework pour bâtir une IA responsable, mettant l’accent sur la préparation et l’évaluation des technologies d’IA.
Gros plan sur l’étape d’évaluation du framework pour bâtir une IA responsable, mettant l’accent sur la préparation et l’évaluation des technologies d’IA.
Pour bâtir une IA responsable, il faut commencer par se pencher sur les personnes qui la piloteront. La phase d’évaluation fournit aux décisionnaires les outils, les données et les insights nécessaires pour examiner la manière dont l’IA s’intègre à vos priorités stratégiques. Cette étape permet aux équipes transversales d’évaluer l’infrastructure technique, les cadres de gouvernance et le niveau de maîtrise de l’entreprise en matière d’IA, contribuant ainsi à déterminer son degré de préparation global.

Évaluer le niveau de préparation

Nombreuses sont les entreprises ayant commencé à adopter l’IA. Pourtant moins d’un quart (21 %) de celles interrogées ont clairement défini leurs priorités en matière d’IA responsable. Pour 78 % d’entre elles, cette tâche est en cours ou encore au stade de projet. Les chiffres parlent d’eux-mêmes : ces entreprises ont besoin de mettre en place une réelle stratégie de préparation. Spécialistes en IT, en conformité, en gestion des risques ou en stratégie, il est essentiel de bien s’entourer pour poser les bases d’une IA responsable. La priorité : examiner l’ensemble de vos cadres de gouvernance et déterminer le niveau de connaissances de votre entreprise en matière d’IA, le but étant d’identifier d’éventuelles lacunes qui pourraient freiner son adoption.

L’évaluation de la préparation nécessite une approche globale, qui mixe les attentes de la direction (approche descendante) et les commentaires du personnel qui interagit au quotidien avec l’IA (approche ascendante).

Actions clés :

  • Réaliser un audit de préparation exhaustif : évaluez l’infrastructure technique, les normes de gouvernance, les politiques en matière d’IA, les cadres d’innovation responsable et les pratiques de conformité de votre entreprise afin d’identifier vos points forts et vos pistes d’amélioration, en garantissant l’alignement entre vos objectifs stratégiques et les exigences d’une IA responsable.
  • Identifier et combler les principales lacunes de manière collaborative :documentez les nouvelles politiques d’IA en matière de sécurité, de confidentialité, de règles juridiques, de conformité et de transparence, et mobilisez des équipes transversales (IT, service juridique, conformité et divisions) pour hiérarchiser les mesures à prendre.
  • Créer des équipes de gouvernance et les doter des moyens nécessaires :désignez des équipes qui superviseront la gouvernance de l’IA afin de garantir le respect des normes internes en matière d’IA responsable, mais aussi des réglementations externes. Confiez-leur le mandat et les ressources nécessaires pour gérer les risques de manière proactive et s’adapter aux exigences en constante évolution.

Sélectionner des technologies d’IA conçues de manière responsable

Analysez soigneusement les normes de gouvernance de votre entreprise. Ces normes couvrent probablement déjà des sujets essentiels tels que la confidentialité, la sécurité, l’accessibilité et les questions d’ordre juridique. Les références internationales comme le règlement général sur la protection des données (RGPD) et les cadres dédiés à l’IA permettent de garantir la conformité et la surveillance des risques au sein de nombreuses entreprises. Quant aux politiques régionales et aux exigences sectorielles (telles que les audits d’IA et les normes de responsabilité), il est important de les intégrer à vos standards de gouvernance.

Graphique à barres indiquant que le RGPD, les directives relatives à l’IA et les pratiques en matière d’IA responsable sont les principales normes ou certifications requises en matière de de sécurité et de confidentialité dans le cadre des technologies d’IA.
Graphique à barres indiquant que le RGPD, les directives relatives à l’IA et les pratiques en matière d’IA responsable sont les principales normes ou certifications requises en matière de de sécurité et de confidentialité dans le cadre des technologies d’IA.
Graphique à barres indiquant que le RGPD, les directives relatives à l’IA et les pratiques en matière d’IA responsable sont les principales normes ou certifications requises en matière de de sécurité et de confidentialité dans le cadre des technologies d’IA.

Une fois que l’entreprise a défini ses attentes et ses cadres de gouvernance en matière d’IA responsable, elle doit fixer des critères de sélection afin d’adopter des technologies d’IA qui auront été développées de manière responsable. Ces critères doivent intégrer les normes existantes et se concentrer sur des éléments spécifiques de l’IA générative : transparence sur l’origine, exactitude des résultats, octroi de licences pour les données d’entraînement, limitation des biais et localisation culturelle.

D’après les résultats de l’étude, les entreprises utilisent les principaux critères suivants pour évaluer les technologies d’IA générative :

1. Évaluation des données d’entraînement (72 %)

2. Communication relative à l’utilisation de l’IA (63 %)

3. Limitation des préjudices (60 %)

4. Transparence sur l’origine (55 %)

5. Limitation des biais (50 %)

Ils garantissent que les technologies d’IA sélectionnées répondent à la fois aux besoins et aux responsabilités éthiques de l’entreprise afin de favoriser sa réussite à long terme.

Les choix qu’elle opère lui permettront de sélectionner des solutions d’IA adaptées à ses objectifs stratégiques et conformes aux principes de l’IA responsable. Ces critères s’articulent autour des quatre piliers suivants :

Transparence

Veiller à ce que les processus d’IA soient compréhensibles et traçables.

Exactitude

Maintenir des normes strictes en matière d’exactitude des données et de fiabilité prédictive.

Localisation culturelle

Adapter les systèmes d’IA à des contextes culturels et régionaux divers et variés.

Limitation des biais

Réduire activement les biais pour obtenir des résultats d’IA justes et équitables.

Documenter chaque étape du processus d’évaluation et de sélection permet de gagner en adaptabilité et en responsabilité, et de mettre en place un modèle de gouvernance flexible qui s’adapte aux avancées de l’IA et à l’évolution des réglementations. Vous trouverez ci-dessous une synthèse des étapes à suivre dans le cadre de la phase d’évaluation :

Évaluer

Étape 1 : évaluer le niveau de préparation de l’entreprise

  • Définissez des normes relatives à l’utilisation responsable de technologies comme l’IA et communiquez sur ce point.
  • Le DSI et/ou le comité transversal passent en revue les différents systèmes et processus métier existants afin d’identifier les domaines qui bénéficieront le plus de l’IA responsable.
  • Agrégez les données des leaders fonctionnels et opérationnels internes dans le cadre d’autres cas d’usage pour une mise en œuvre optimale de l’IA responsable.

Étape 2 : sélectionner une technologie d’IA conçue de manière responsable

  • Analysez les normes de gouvernance existantes sur des sujets essentiels liés à l’IA (confidentialité, sécurité, accessibilité et questions d’ordre juridique).
  • Définissez des critères de sélection intégrant des normes préétablies qui répondent aux exigences en matière d’IA responsable, en mettant l’accent sur la transparence, l’exactitude, les biais, la localisation culturelle et la conformité.
  • Évaluez et sélectionnez les technologies d’IA qui satisfont le mieux les critères définis et les besoins de l’entreprise, et documentez le processus de prise de décisions.

2. Piloter : identification et gestion des cas d’usage à fort impact

Gros plan sur la phase pilote dans la mise en place d’une IA responsable, mettant l’accent sur l’expérimentation et les performances technologiques.
Gros plan sur la phase pilote dans la mise en place d’une IA responsable, mettant l’accent sur l’expérimentation et les performances technologiques.
Gros plan sur la phase pilote dans la mise en place d’une IA responsable, mettant l’accent sur l’expérimentation et les performances technologiques.

La phase pilote fait le lien entre les tests et la réalité opérationnelle de l’IA. Elle permet aux principales parties prenantes d’évaluer les performances de la technologie en fonction de la manière dont elle s’adapte aux objectifs métier de l’entreprise, mais aussi en matière d’IA responsable. Cette phase ne se limite pas à la réalisation de tests de faisabilité technologique, elle permet également aux principaux leaders et parties prenantes d’exploiter directement la technologie à bon escient. Elle offre ainsi la possibilité aux équipes de travailler avec l’IA, de prendre des décisions éclairées sur son évolutivité et de garantir qu’elle répond aux normes éthiques, opérationnelles et réglementaires.

La phase pilote vous donne également les moyens de tester des systèmes d’IA en contexte (afin de comprendre où il serait pertinent de mettre en place des évaluations de responsabilité et de la documentation sur la transparence) ainsi que les performances des nouvelles fonctionnalités par rapport à vos attentes initiales. En documentant les insights et en collectant des informations exploitables, les entreprises peuvent définir une roadmap pour développer l’IA de manière responsable et jeter ainsi les bases qui leur permettront d’atteindre leurs objectifs à court et long termes.

Identifier et préparer les cas d’usage prioritaires

Pour une analyse de rentabilité efficace de l’IA, il est nécessaire de mobiliser les principales parties prenantes et le personnel en contact direct avec la clientèle, l’objectif étant d’obtenir une vue d’ensemble du potentiel de l’IA. En impliquant dès le début celles et ceux qui interagiront directement avec la technologie, les entreprises peuvent identifier les cas d’usage à fort impact où l’IA a de véritables avantages à offrir, comme pour la création de contenu marketing, la programmation, l’automatisation des workflows et la gestion des données.

  • Faites preuve de précision et concentrez-vous sur les processus (pas sur les rôles) : plutôt que de fonder vos cas d’usage sur des rôles spécifiques (par exemple, « l’IA pour les développeurs »), ciblez les processus que l’IA peut simplifier et améliorer, tels que « la programmation assistée par l’IA pour automatiser les révisions de code récurrentes et la détection des erreurs ».
  • Établissez des indicateurs mesurables pour l’utilisation de l’IA et la réduction des coûts :certes, le retour sur investissement est important, mais les entreprises doivent aussi mesurer des indicateurs plus larges, souvent appelés « retour sur expérience », comme la productivité, la rapidité de lancement, la satisfaction des équipes et l’amélioration de l’expérience client.
  • Maximisez l’impact de l’IA (au-delà des avantages immédiats) : considérez l’IA comme un véritable levier de transformation à long terme. Les cas d’usage ne doivent pas seulement répondre à des besoins opérationnels à court terme, mais poursuivre également des objectifs plus stratégiques (par exemple, engager une transformation digitale ou se démarquer de la concurrence).

Combiner objectifs métier et critères en matière d’IA responsable

En adoptant un double prisme dans le cadre de la phase pilote, à savoir la performance commerciale et les principes de l’IA responsable, les entreprises garantissent que leurs initiatives en matière d’IA répondent à la fois à leurs objectifs opérationnels et à leurs critères de responsabilité. Plus de la moitié des entreprises interrogées (54 %) ont déclaré un niveau de risque acceptable pour leurs cas d’usage prioritaires. Les entreprises doivent documenter ces évaluations de façon systématique, en tirant les enseignements qui en découlent pour leurs futurs projets d’IA. Cette approche structurée leur permet de bâtir un socle solide pour une mise en œuvre scalable de l’IA.

Actions clés :

  • Définir des indicateurs opérationnels et des critères en matière d’IA responsable : fixez-vous des objectifs opérationnels (productivité, réduction des coûts, etc.), mais aussi des critères en matière d’IA responsable (transparence, équité, etc.).
  • Définir des seuils de risque : établissez des paramètres de risque et créez un framework dédié à l’évaluation continue afin de gérer et de limiter efficacement les risques induits par l’IA.
  • Tirer et partager des enseignements :déployez un processus standardisé pour documenter les résultats de la phase pilote afin de favoriser la transparence et d’orienter vos actions de développement.

Piloter

Étape 1 : identifier les cas d’usage prioritaires

  • En vous appuyant sur les cas d’usage prioritaires existants, identifiez deux à trois projets pilotes pour lesquels les principes d’éthique et de responsabilité qui régissent l’IA sont importants.
  • Pour ces cas d’usage, définissez des indicateurs et des seuils afin de suivre les performances de votre entreprise, que ce soit vis-à-vis de vos objectifs métier ou de vos critères en matière d’IA responsable.

Étape 2 : combiner objectifs métier et critères d’IA responsable

  • Lancez des projets pilotes afin de tester et de valider de nouveaux cas d’usage à différents niveaux (technique, métier, responsabilité).
  • Évaluez les résultats par rapport à des indicateurs et des seuils prédéfinis conformément à vos objectifs métier et à vos attentes en matière d’IA responsable. Pour ce faire, documentez les enseignements tirés afin de les appliquer à vos futures initiatives d’évaluation et de test.
  • Procédez à l’achat/à l’adoption de technologies d’IA en fonction des résultats et des insights de vos projets pilotes.

3. Adopter : intégration de l’IA responsable au sein de votre entreprise

Étape d’adoption mise en évidence dans le framework pour bâtir une IA responsable, illustrant l’intégration de l’IA dans toute l’entreprise.
Étape d’adoption mise en évidence dans le framework pour bâtir une IA responsable, illustrant l’intégration de l’IA dans toute l’entreprise.
Étape d’adoption mise en évidence dans le framework pour bâtir une IA responsable, illustrant l’intégration de l’IA dans toute l’entreprise.

La phase d’adoption permet de passer d’un projet pilote à l’intégration effective de l’IA au sein de votre entreprise. Lors de cette phase, les entreprises tournent la page de l’expérimentation pour tendre vers des systèmes d’IA pleinement opérationnels. Elles déploient ainsi l’IA de manière responsable en appliquant en conditions réelles les leçons qu’elles ont tirées de leurs projets pilotes.

À ce stade, vos équipes intègrent l’IA dans leurs workflows existants. Grâce à l’expérience pratique acquise lors de la phase précédente, les collaborateurs et collaboratrices ont toutes les clés en main pour mettre en œuvre l’IA.

Former et renforcer les compétences de vos équipes

Pour développer efficacement l’IA, le personnel doit être formé. En effet, il est essentiel que collaborateurs et collaboratrices se familiarisent avec les fonctionnalités de l’IA et comprennent les responsabilités éthiques qui leur incombent. Si les entreprises veulent aider leurs équipes, quel que soit le rôle ou le service, à exploiter pleinement le potentiel de l’IA, elles doivent mettre en place des programmes de formation sur mesure. La plupart des entreprises (89 %) soulignent l’importance de la formation et près des deux tiers y intègrent des directives sur l’IA responsable. Ces programmes de formation doivent aborder les principes de responsabilité, de transparence et de conformité réglementaire tout en renforçant les compétences techniques des équipes.

Actions clés :

Aligner vos programmes de formation sur votre gouvernance : intégrez des directives sur l’IA responsable dans vos supports de formation pour que vos équipes aient conscience de vos exigences en matière de conformité, de gestion des risques et de transparence.

Personnaliser vos programmes de formation en fonction des rôles : développez des modules de formation sur mesure, qui répondent aux besoins de fonctions spécifiques et qui incluent les meilleures pratiques en matière de performance métier et d’IA responsable.

Déployer l’IA en gardant le principe de responsabilité à l’esprit

Mettre en œuvre l’IA à grande échelle nécessite d’établir un cadre de gouvernance qui garantit une utilisation responsable. Les entreprises doivent donc s’assurer que leurs initiatives en matière d’IA concordent avec leur modèle de gouvernance existant, tout en optimisant en permanence leurs politiques pour répondre à l’évolution des normes réglementaires, des exigences opérationnelles et des critères de responsabilité liés à l’IA.

Deux graphiques circulaires montrant que plus de 80 % des répondantes et des répondants au sondage prévoient d’intégrer des questions liées à l’IA responsable dans leurs normes de déploiement et de gouvernance.
Deux graphiques circulaires montrant que plus de 80 % des répondantes et des répondants au sondage prévoient d’intégrer des questions liées à l’IA responsable dans leurs normes de déploiement et de gouvernance.
Deux graphiques circulaires montrant que plus de 80 % des répondantes et des répondants au sondage prévoient d’intégrer des questions liées à l’IA responsable dans leurs normes de déploiement et de gouvernance.

Actions clés :

  • Cultiver l’art de la responsabilité : sensibilisez vos équipes à l’impact plus large de l’IA, que ce soit sur les workflows opérationnels ou sur la confiance des parties prenantes, en promouvant une culture de la responsabilité à l’échelle de votre entreprise.
  • Améliorer sans cesse la formation : à mesure que les cadres de gouvernance de l’IA évoluent, adaptez vos programmes de formation pour traduire l’évolution des bonnes pratiques et des réglementations.

Adopter

Étape 1 : former vos équipes et renforcer leurs compétences

  • Définissez des directives précises, adaptées aux différents cas d’usage, pour aider vos collaborateurs et vos collaboratrices à savoir quand et comment utiliser l’IA de façon responsable.
  • Proposez une formation complète aux groupes concernés à mesure que vous déployez des solutions, et ce, en incluant les meilleures pratiques.
  • Célébrez et partagez vos réussites au sein de votre entreprise.

Étape 2 : déployer l’IA en gardant le principe de responsabilité à l’esprit

  • Pour chaque technologie, codifiez vos principales exigences d’adoption (impact sur l’entreprise, facilité d’intégration, atténuation des risques, etc.).
  • Travaillez en étroite collaboration avec les décisionnaires pour vous aligner sur leurs arbitrages si nécessaire.
  • Intégrez des questions stratégiques en matière d’IA et de responsabilité dans vos cadres de gouvernance (accès, contrôle, rôles, etc.).

4. Superviser : surveillance et amélioration continues

Gros plan sur l’étape de supervision dans le framework pour bâtir une IA responsable, mettant en évidence la supervision et le suivi des performances de l’IA.
Gros plan sur l’étape de supervision dans le framework pour bâtir une IA responsable, mettant en évidence la supervision et le suivi des performances de l’IA.
Gros plan sur l’étape de supervision dans le framework pour bâtir une IA responsable, mettant en évidence la supervision et le suivi des performances de l’IA.
Face au déploiement à grande échelle des systèmes d’IA, il est essentiel de promouvoir une surveillance et une amélioration continues. La phase de surveillance implique un suivi en temps réel, une évaluation rigoureuse des performances et une approche proactive de la gestion des risques. Elle permet ainsi de garantir l’efficacité, la conformité et l’alignement des systèmes d’IA par rapport aux objectifs de votre entreprise. En intégrant des indicateurs dédiés à l’IA responsable et en mettant en place un processus d’évaluation structuré, vous pourrez faire face à l’évolution des exigences réglementaires et à l’émergence de risques tout en instaurant durablement un climat de confiance et en créant de la valeur d’un point de vue opérationnel.

Suivre vos performances par rapport à vos objectifs métier et à vos critères en matière d’IA responsable

Pour une surveillance optimale de leurs performances, les entreprises doivent combiner expertise humaine et suivi automatisé. Alors que nombre d’entre elles ont adopté des outils de supervision en temps réel pour évaluer les résultats de leurs systèmes d’IA, l’efficacité de ces solutions va en s’améliorant dès lors qu’un suivi humain y est associé. Le personnel est en effet mieux à même d’analyser les données, d’identifier les risques et de prendre des décisions éclairées sur les ajustements nécessaires.

Alors que 69 % des entreprises interrogées utilisent des outils de surveillance en temps réel, ces derniers ont nettement plus d’impact lorsque leurs résultats sont soumis au jugement humain. De nombreuses entreprises priorisent les indicateurs techniques ; la précision étant importante pour 72 % et le retour sur investissement pour 69 %. Mais pour déployer l’IA de façon responsable, il est également nécessaire de prêter attention aux indicateurs éthiques. En intégrant une dimension humaine, les entreprises garantissent en effet une certaine transparence et prévisibilité, renforçant ainsi la confiance en interne et en externe. S’appuyer sur une expertise humaine permet également d’identifier les biais en amont. À noter que 49 % des entreprises interrogées suivent l’indicateur dédié aux biais, tandis que 33 % surveillent l’indicateur relatif aux résultats préjudiciables. Si vous n’assurez pas une surveillance continue et proactive, vos systèmes d’IA risquent de compromettre à la fois l’intégrité et la confiance. En optimisant le suivi de leurs performances pour limiter les risques techniques et éthiques, les entreprises protègent leur marque, renforcent la confiance des utilisateurs et des utilisatrices, posent les bases d’un environnement résilient, et peuvent développer l’IA de manière responsable.

Allier technologie et humain vous aide ainsi à identifier les risques en amont ; données inexactes, nouveaux biais, non-conformités, etc.

Graphique à barres présentant les principaux indicateurs de suivi de la performance et de l’efficacité de l’IA, notamment l’exactitude (72 %), les performances de l’IA (69 %) et les biais (49 %).
Graphique à barres présentant les principaux indicateurs de suivi de la performance et de l’efficacité de l’IA, notamment l’exactitude (72 %), les performances de l’IA (69 %) et les biais (49 %).
Graphique à barres présentant les principaux indicateurs de suivi de la performance et de l’efficacité de l’IA, notamment l’exactitude (72 %), les performances de l’IA (69 %) et les biais (49 %).

Assurer une gestion continue des risques

La gestion des risques est un processus continu qui doit s’adapter à l’évolution des systèmes d’IA. L’adoption d’une approche structurée et transversale permet aux entreprises de gérer de manière proactive leurs risques métier et de réputation liés à l’IA. Data scientists, décisionnaires, juristes, responsables de la conformité… la réalisation d’évaluations régulières doit impliquer l’ensemble des parties prenantes afin de garantir un suivi précis des performances techniques et des objectifs en matière d’IA responsable.

Répétons-le, la gestion des risques liés à l’IA est un processus continu qui suit les avancées technologiques. Alors que 60 % des entreprises interrogées disposent d’équipes de données et de gouvernance, 49 % sont dotées de comités d’IA, de spécialistes de la conformité et de services juridiques. Ces chiffres témoignent de l’importance d’une collaboration transversale. En adoptant une approche proactive, les entreprises restent en phase avec leurs valeurs internes et les attentes externes. L’objectif étant de gagner en résilience et de s’adapter à l’évolution des réglementations. Avec 68 % des entreprises interrogées qui priorisent l’IA responsable dans la gestion des risques, il est essentiel de déployer une documentation exhaustive et d’évaluer les risques en permanence.

Une infographie présentant des résultats de recherche qui soulignent l’importance des considérations d’utilisation responsable et éthique de l’IA.
Une infographie présentant des résultats de recherche qui soulignent l’importance des considérations d’utilisation responsable et éthique de l’IA.
Une infographie présentant des résultats de recherche qui soulignent l’importance des considérations d’utilisation responsable et éthique de l’IA.
En mettant en place des indicateurs de performance stricts et en favorisant une gestion continue des risques, les entreprises s’assurent ainsi que les technologies d’IA déployées répondent à la fois à leurs objectifs métier et à leurs principes de responsabilité. Combiner une stratégie de surveillance proactive, des évaluations transversales et une documentation détaillée permet aux entreprises de mener à bien leur transition vers l’IA.

Actions clés :

  • Effectuer des analyses de risques transversales : effectuez des évaluations régulières avec l’aide de data scientists, de responsables de la conformité et de juristes afin d’identifier l’émergence de risques à partir de données en temps réel.
  • Suivre et signaler systématiquement les risques : collectez en permanence le feedback du personnel et de la clientèle finale pour identifier les problèmes d’utilisation, les biais ou les comportements inattendus.

Superviser

Étape 1 : suivre la performance

  • Définissez et suivez des indicateurs de performance liés à l’IA à plus long terme, dont vos objectifs métier et de responsabilité.
  • Mettez en place un processus d’évaluation continue et discutez des conclusions afin d’améliorer en permanence votre performance métier tout en respectant les principes qui régissent l’IA responsable.

Étape 2 : déployer l’IA en gardant le principe de responsabilité à l’esprit

  • Désignez des rôles, aidez-les à suivre l’évolution des réglementations et des normes en matière d’IA (initiative « AI Verify » de Singapour, propositions du Congrès américain, etc.) et assurez-vous que les normes de l’entreprise s’adaptent en conséquence.
  • Mettez au point un processus d’identification et d’atténuation continues des risques, dédié à l’utilisation de l’IA.
  • Actualisez votre documentation sur la conformité de votre entreprise aux normes.

ÉTUDE DE CAS ADOBE

Usage interne de l’IA générative

Chez Adobe, nous considérons l’IA générative comme un véritable levier de transformation qui, loin de remplacer la créativité humaine, permet de l’améliorer. Fidèles aux principes de responsabilité et de transparence qui régissent l’IA au sein de notre entreprise, nous encourageons une démarche responsable dans l’exploration des technologies d’IA générative.

En juin 2023, Adobe a mis en place un groupe de travail transversal, appuyé par le DSI et le DRH de l’entreprise. Sa mission : permettre au personnel de tester et d’exploiter l’IA générative de façon sûre, responsable et agile. Cette équipe, qui travaille de concert avec des responsables et des spécialistes métier au sein de l’entreprise, aide les collaborateurs et les collaboratrices à adopter une approche méthodique, en identifiant les potentiels cas d’usage de l’IA générative, en définissant les directives nécessaires et en rationalisant l’expérimentation. Quatre groupes de personas ont été formés dans le cadre de l’initiative afin de représenter l’ensemble des cas d’usage de l’IA générative au sein d’Adobe. Ont également été déployés : un processus de mise en place, un cadre de tolérance aux risques de l’IA générative ainsi qu’un plan directeur pour l’évaluation des cas d’usage prenant en compte l’évolution des questions éthiques, juridiques, de sécurité et de confidentialité. Une liste d’outils et de modèles d’IA générative approuvés, adaptés à des cas d’usage spécifiques, et des directives relatives à l’utilisation de l’IA générative par le personnel sont par ailleurs disponibles. Parmi les directives déployées par Adobe en mars 2024 à l’intention des fournisseurs figurent notamment des sessions de formation sur l’utilisation de l’IA générative et les fonctionnalités des produits sélectionnés.

La mise en œuvre de cette initiative a permis non seulement de simplifier nos processus pour accélérer l’expérimentation et le déploiement à grande échelle lorsque cela était possible, mais aussi d’évaluer l’environnement de l’IA générative à l’échelle de l’entreprise. Adobe n’a de cesse d’encourager le partage de connaissances et d’insights afin de créer un écosystème collaboratif propice à l’exploration collective. Avec l’essor de l’IA générative dans le cadre de nos produits, le développement de technologies et de modèles d’IA générative, et l’évolution des exigences juridiques et réglementaires, le programme évolue en permanence. Enfin, les expérimentations menées par le personnel font l’objet d’un suivi et d’une évaluation : l’équipe supervise en effet les expérimentations après validation, notamment celles déployées à grande échelle.

Intégrer de bonnes pratiques à l’échelle de votre entreprise

Pour adopter, superviser et optimiser des systèmes d’IA de façon responsable, les entreprises doivent répondre à plusieurs enjeux opérationnels en fournissant des conseils d’ensemble au personnel, en évaluant rigoureusement leurs fournisseurs et en mettant en place de solides leviers de gouvernance de l’IA. De cette manière, les entreprises garantissent non seulement la conformité de leurs initiatives d’IA aux normes réglementaires en constante évolution, mais peuvent également s’appuyer sur les travaux en matière de gouvernance et de gestion des risques tout en adoptant des pratiques qui favorisent la confiance, la transparence et la responsabilité.

Dans cette partie, vous trouverez la marche à suivre pour intégrer ces meilleures pratiques dans vos opérations quotidiennes.

Accompagner le personnel dans son utilisation de l’IA

Pour déployer la technologie de manière responsable, il est primordial d’adapter les directives d’utilisation de l’IA aux besoins et risques spécifiques de votre entreprise. Ces directives doivent aider le personnel à respecter les normes réglementaires et les protocoles de gouvernance, et contribuer à aligner les technologies d’IA sur les engagements de l’entreprise en matière de sécurité des données, de transparence et de responsabilité.

Sensibilité des données

Indiquez clairement le type de traitement des données : localement ou sous contrôles d’accès stricts pour empêcher tout accès frauduleux. Abstenez-vous également d’utiliser des prompts susceptibles de générer ou de manipuler des résultats sensibles. Cette directive protège les informations propriétaires et garantit le respect des réglementations sur la confidentialité des données.

Transparence

Faites preuve de transparence concernant l’utilisation de l’IA, par exemple lorsqu’elle est utilisée pour créer des documents internes, des interfaces orientées client ou des communications externes. Cette directive favorise la responsabilité et instaure un climat de confiance vis-à-vis de l’authenticité et de la fiabilité du contenu généré par l’IA, ce qui vous permet de protéger votre marque et la réputation de votre entreprise.

Politiques de gestion des comptes

Mettez en place des politiques claires concernant l’utilisation d’outils d’IA générative qui nécessitent l’enregistrement d’un compte, par exemple en déterminant si des comptes de messagerie peuvent être utilisés, en précisant les outils qui ont été approuvés à des fins commerciales et en décourageant l’utilisation de comptes personnels dans le cadre de la gestion de contenus professionnels. Ces directives permettent de lutter contre les utilisations frauduleuses et s’inscrivent dans la lignée d’un programme de sécurité des informations plus large.

En adaptant ces directives au contexte de votre entreprise, vous permettez à vos collaborateurs et à vos collaboratrices d’utiliser des outils d’IA générative en toute confiance et de façon responsable, et contribuez ainsi à créer un environnement où innovation rime avec intégrité.

Évaluer rigoureusement les fournisseurs : exemples de questions

Pour évaluer correctement vos fournisseurs d’IA, vous devez clarifier les questions que vous souhaitez leur poser et les réponses que vous souhaitez obtenir afin de vous assurer que leurs systèmes sont conformes à vos normes juridiques et réglementaires, mais aussi à vos principes en matière d’IA responsable. Les questions suivantes peuvent vous servir de base pour prendre des décisions éclairées sur de potentiels partenariats et limiter les risques induits par l’adoption de l’IA.

Thème
Question au fournisseur
Objectif
Exemple Adobe
Provenance et utilisation des données
« Quels types de données spécifiques ont été utilisés dans le développement et l’entraînement de votre système d’IA ? »
Cette question permet d’obtenir des informations sur la source, la nature et la portée des données utilisées pour entraîner les modèles d’IA. Elle garantit ainsi que les pratiques du fournisseur en matière de données sont bien conformes aux normes d’IA responsable de l’acheteur et aux obligations légales.

Firefly :Adobe n’inclut pas le contenu utilisateur de l’entreprise (y compris les entrées et sorties Firefly) dans les jeux de données exploités pour entraîner les modèles fondateurs Firefly.

Respect de la propriété intellectuelle
« Avez-vous utilisé des jeux de données susceptibles d’être soumis à des restrictions en matière de droits d’auteur, de propriété intellectuelle ou de licence ? »
Cette question permet de vérifier que toutes les sources de données utilisées par le fournisseur sont légales et reposent sur des mécanismes approuvés. L’objectif est d’éviter des litiges juridiques.

Firefly : les clientes et les clients peuvent à tout moment consulter l’historique des licences sur stock -adobe.com/Dashboard/LicenseHistory en se connectant avec leurs identifiants Adobe.

Transparence en matière de données d’entraînement et de logique
« Pouvez-vous détailler les données d’entraînement utilisées et la logique appliquée au développement de votre système d’IA ? »
Dans le cas présent, la transparence permet d’identifier d’éventuels biais et de comprendre la logique du modèle, ce qui est essentiel pour évaluer sa fiabilité et son équité.

Assistant IA d’AEP :Adobe n’utilise aucune donnée client pour entraîner ou optimiser le service Azure OpenAI.

Clarté des résultats
« Pouvez-vous décrire les résultats de votre système d’IA de la manière la plus intelligible possible ? »
Cette question garantit la bonne compréhension des résultats pour le personnel en charge de l’évaluation ne disposant pas des compétences techniques nécessaires, favorisant ainsi une prise de décisions efficace et une utilisation responsable.
Firefly :dans un souci de transparence, Adobe génère automatiquement desinformations de traçabilité du contenupour certaines ressources générées par Firefly afin d’indiquer que la ressource a été créée à l’aide de l’IA générative.
Supervision humaine
« Si votre système d’IA implique une intervention humaine, pouvez-vous nous en préciser le degré et la nature ? »
Savoir si un fournisseur combine processus automatisés et expertise humaine permet d’évaluer la dynamique opérationnelle du système et d’identifier les domaines dans lesquels l’intervention humaine peut s’avérer nécessaire pour maintenir des normes élevées en matière de qualité et de responsabilité.

Assistant IA d’Acrobat : Adobe limite strictement l’accès à ces informations aux membres de son personnel ayant suivi une formation spécifique et intervenant dans le développement de son service d’IA générative.

Équité et évaluation des biais
« Avez-vous évalué les biais de votre système d’IA et, si oui, comment ? Le cas échéant, pouvez-vous nous détailler les résultats obtenus à la suite de cette évaluation ? »
Cette question permet non seulement de déterminer l’engagement du fournisseur en faveur de pratiques d’IA équitables, mais également de clarifier ses méthodes d’identification et de limitation des biais qui pourraient impacter disproportionnellement différents groupes démographiques.
Assistant IA d’Acrobat : les équipes d’Adobe effectuent des tests afin de réduire le risque de résultats biaisés ou préjudiciables dans les produits d’IA générative. Consultez la présentation rapide de la solution d’IA générative conçue pour les entreprises.
Atténuation des risques
« Avez-vous effectué une évaluation des résultats potentiellement préjudiciables ? Le cas échéant, quelles mesures avez-vous mises en œuvre pour limiter ces risques ? »
Évaluer les mesures prises de façon proactive par un fournisseur pour identifier et traiter les résultats potentiellement préjudiciables permet de cerner si le fournisseur en question compte y remédier et si le système d’IA a été testé pour fonctionner en toute sécurité.

Assistant IA d’AEP : Adobe utilise un système de filtrage du contenu développé en interne pour (a) déterminer si le prompt dans l’Assistant IA d’AEP est conforme aux directives d’utilisation de l’IA générative d’Adobe et (b) filtrer toutes les réponses générées qui enfreignent ces directives (par exemple, les propos haineux ou profanatoires).

En posant ce type de question ciblée, les entreprises peuvent aisément évaluer leurs fournisseurs d’IA et faire des choix avisés, en phase avec leurs critères de responsabilité et leurs objectifs opérationnels. Cette approche leur permet ainsi de gérer leurs risques et de fonder les relations qu’elles entretiennent avec leurs fournisseurs d’IA sur la transparence, la conformité et l’innovation responsable.

Déployer des leviers de gouvernance solides

La mise en œuvre d’une gouvernance robuste en matière d’IA garantit que les systèmes d’IA sont développés, déployés et surveillés conformément aux valeurs de l’entreprise et aux réglementations. Il existe de nombreuses normes réglementaires et cadres en vigueur, tels que la loi européenne sur l’IA et l’initiative « AI Verify » de Singapour. Aux États-Unis, les entreprises doivent respecter la législation nationale sur la confidentialité des données ainsi que le cadre de gestion des risques liés à l’IA du NIST, base probable de la prochaine réglementation.

Les leviers de gouvernance suivants peuvent aider les entreprises à gérer les risques de l’IA et à améliorer la transparence, la responsabilité et la sécurité :

Inventaires de systèmes d’IA

Créez des inventaires de systèmes d’IA en les classant selon des profils de risque et des objectifs stratégiques afin de créer un référentiel centralisé.

Avez-vous documenté le cas d’usage de votre système d’IA et catégorisé les risques potentiels ?

Mécanismes de rétroaction
Mettez en place des canaux de rétroaction solides pour recueillir les insights de personnes extérieures à l’équipe chargées du développement de l’IA (telles que les utilisateurs et les utilisatrices finales, la clientèle ou le public).
Quels canaux de rétroaction utilisez-vous pour collecter des insights auprès des utilisateurs et des utilisatrices finales, de la clientèle ou du public ?
Documentation relative aux limites du système
Documentez les limites de votre système d’IA, y compris les informations relatives à un manque de connaissances sur le modèle d’IA et le contexte dans lequel les résultats peuvent être utilisés de manière fiable.
Avez-vous répertorié les limites (actuelles ou potentielles) de votre système d’IA dans le cadre de vos cas d’usage ?
Provenance du contenu
Tracez et vérifiez l’origine, l’historique et la modification des données liées à l’IA (dont les sources de données d’entraînement, les algorithmes utilisés et la transformation des données).
Comment suivez-vous la provenance, l’historique et la modification de vos données liées à l’IA (notamment les sources et la transformation de vos données, de leur création à leur utilisation finale) ?
Tests d’IA et red teaming
Évaluez les risques liés à l’exposition involontaire des données d’entraînement, à l’ingénierie à rebours et à l’extraction de modèles.
Quels protocoles de test avez-vous suivis et comment vous permettent-ils de gérer les risques de cas d’usage spécifiques liés à l’IA ?
Développement de logiciels sécurisés
Intégrez les systèmes d’IA au cycle de vie du développement de logiciels sécurisés de l’entreprise via l’adoption de bonnes pratiques en matière de programmation et de déploiement.
Comment avez-vous intégré votre cas d’usage de l’IA à votre protocole de développement de logiciels sécurisés existant ?
Formation
Vérifiez que les programmes de formation couvrent les politiques, les procédures et les exigences de conformité pertinentes afin de fournir aux parties prenantes les connaissances nécessaires pour gérer efficacement les risques liés à l’IA et agir conformément aux normes de l’entreprise.
Avez-vous suivi une formation sur la gouvernance de l’IA et la gestion des risques ?
En intégrant chacune de ces meilleures pratiques dans vos processus existants, vous vous assurez d’adopter, de gérer et d’optimiser vos technologies d’IA de façon responsable. Fournir des conseils détaillés au personnel, évaluer rigoureusement les fournisseurs, mettre en place des leviers de gouvernance solides en matière d’IA… toutes ces actions favorisent la résilience et constituent un référentiel de pratiques qui s’alignent sur les normes de gouvernance et les exigences réglementaires, donnant aux entreprises les moyens non seulement de relever les défis auxquels elles sont confrontées aujourd’hui, mais aussi de développer l’IA de manière responsable pour réussir durablement à l’avenir.

Mettre l’IA au service de l’innovation responsable

Pour maximiser le potentiel de l’IA, vous devez vous appuyer sur des technologies ayant été développées de manière responsable, établir des directives claires en matière d’utilisation, développer des programmes de formation dédiés et déployer une gouvernance solide. Cette stratégie permet de créer de la valeur, de satisfaire aux exigences réglementaires et de maintenir des normes élevées en matière de mise en œuvre responsable. Le but : bâtir une véritable culture de l’IA responsable à l’échelle de l’entreprise.

En mettant en place un processus de surveillance et d’adaptation continues, vous assurez ainsi le bon déploiement de vos initiatives d’IA. C’est grâce à l’établissement d’indicateurs de performance, à la réalisation d’évaluations régulières et à une gestion proactive des risques que vous garderez une longueur d’avance sur l’évolution des réglementations et préserverez l’intégrité de vos projets d’IA.

Ce framework sur l’IA, résolument tourné vers l’avenir et axé sur l’impact, l’intégration et l’intégrité, permet aux entreprises de jouer un rôle de premier plan dans le domaine de l’IA responsable, d’ouvrir la voie à l’innovation durable et d’organiser une réussite pérenne.

Recommandations de lecture

Voyons ce qu’Adobe peut faire pour votre entreprise.

Découvrir