#F8F8F8

L’IA RESPONSABLE D’ADOBE

Découvrez la référence de l’IA responsable.

Adobe développe l’IA selon des principes de traçabilité, de responsabilité et de transparence. Ces valeurs nous guident à chaque étape, afin de garantir que nos fonctionnalités et outils optimisés par l’IA sont aussi performants que fiables, y compris pour les plus grandes entreprises.

Découvrez nos principes éthiques en matière d’IA.

Le déploiement de l’IA responsable chez Adobe repose sur trois principes fondamentaux. Grâce à eux, les équipes s’appuient sur une plateforme d’IA sécurisée, éthique et unifiée, qui leur permet de gagner en créativité, de booster leur productivité et de diffuser des expériences client personnalisées à grande échelle.

Traçabilité.

Les équipes dédiées d’Adobe assument la responsabilité des résultats générés par notre IA. Nous menons également des tests pour prévenir les dommages potentiels, les atténuer et traiter les résultats imprévus.

Responsabilité.

Nous évaluons et examinons avec soin l’impact de l’IA. Nous nous efforçons de concevoir des produits inclusifs et d’éviter les résultats potentiellement injustes, discriminatoires ou inexacts, susceptibles de perpétuer des préjugés et des stéréotypes.

Transparence.

Nous utilisons l’IA en toute transparence et fournissons des informations claires sur ces outils et leur fonctionnement. Le but est de faire comprendre à notre clientèle comment nous utilisons cette technologie, quelle en est la valeur et comment la configurer au sein des produits Adobe.

#f5f5f5

Découvrez comment Adobe développe une IA responsable.

Les cinq piliers de l’IA responsable d’Adobe (entraînement, tests, évaluations de l’impact, surveillance humaine, commentaires) entourant le logo Adobe

Entraînement
L’efficacité et la précision de l’IA dépendent des données utilisées pour l’entraîner. Les résultats considérés comme adéquats dépendent de cas d’usage individuels. Nous avons donc construit des ensembles de données pour l’orchestration d’expériences client à grande échelle. Ainsi, nous nous assurons que les résultats sont adaptés à l’utilisation de l’IA.
Tests
Adobe teste rigoureusement et en continu ses fonctionnalités et produits optimisés par l’IA, afin que ses résultats évitent les préjugés et les stéréotypes négatifs. Cela consiste en des tests automatiques et des vérifications humaines.
Évaluations de l’impact
Les spécialistes qui développent des fonctionnalités optimisées par l’IA doivent en évaluer l’impact éthique. Elle vise à identifier les outils et les produits pouvant perpétuer des préjugés et des stéréotypes négatifs. Ainsi, notre équipe dédiée à l’éthique de l’IA peut continuer à innover rapidement et collaborer sur les fonctionnalités destinées aux entreprises, tout en respectant les normes éthiques les plus exigeantes.
Diversité de la supervision humaine
Les fonctionnalités optimisées par l’IA le plus susceptibles de générer des résultats négatifs sont examinées par un bureau de révision éthique transversal et diversifié. En effet, la présence de plusieurs groupes démographiques est essentielle pour garantir la variété des perspectives et identifier les anomalies potentielles.
Commentaires
Les utilisateurs et les utilisatrices peuvent signaler les résultats potentiellement négatifs en envoyant leurs commentaires. L’IA évolue constamment, et nous aspirons à œuvrer avec notre communauté afin que nos outils et produits profitent à tout le monde. Si vous avez des questions sur l’éthique de l’IA ou que vous souhaitez signaler un problème, contactez-nous.

Explorez l’IA responsable d’Adobe en détail.

Content as a Service v3 - Responsible AI - Friday 17 October 2025 at 00:39

Vous avez des questions ? Nous avons des réponses !

Comment Adobe assure-t-il la traçabilité de l’IA ?

Adobe y contribue avec :

  • Des processus de gouvernance pour suivre et étiqueter les données d’entraînement et les modèles d’IA.
  • Une évaluation de l’impact des nouvelles technologies (dans le cadre de notre processus de développement des services) par un examen éthique avant leur déploiement.
  • Un comité d’éthique de l’IA chargé de surveiller son développement, de relayer les questions d’éthique et de protéger les lanceurs et les lanceuses d’alerte.
  • La correction de tout impact négatif de l’IA découvert après son déploiement.
  • La formation des équipes d’ingénierie et des gestionnaires de produits à l’éthique de l’IA.
  • Des systèmes de commentaires externes et internes pour signaler toute anomalie concernant nos pratiques et fonctionnalités optimisées par l’IA.
Qu’est-ce que le développement responsable de l’IA selon Adobe ?

Pour nous, cela implique :

  • Une conception soigneuse des systèmes d’IA
  • Une évaluation de leurs interactions avec le public.
  • Une vigilance permanente concernant les préjugés négatifs.
  • Une estimation de l’impact de la technologie sur l’être humain.

De plus, il est essentiel d’anticiper, mesurer, documenter et prévenir les dommages potentiels, et de mettre en place des systèmes pour les corriger s’ils n’ont pas pu être anticipés.

Comment Adobe corrige-t-il les résultats des systèmes d’IA pour éviter les préjugés négatifs, quelle que soient les données d’entrée ?

Lors du développement et du déploiement de ses systèmes d’IA, Adobe s’efforce d’éliminer les préjugés liés à des caractéristiques telles que la race, le sexe, la couleur de peau, l’origine ethnique ou sociale, les particularités génétiques ou identitaires, la religion, les convictions politiques, la localisation, les revenus, le handicap, l’orientation sexuelle et la profession. En effet, nous concevons nos produits en appliquant un principe d’inclusivité. De plus, nous priorisons l’équité dans les situations telles que l’accès à l’emploi, au logement, au crédit et aux informations concernant la santé. Nous étudions également les avantages et les risques que comporte l’utilisation de l’IA.

Cette notion d’équité ne signifie pas que toute la clientèle est traitée de la même manière. Dans certains cas d’usage, l’IA effectue une segmentation acceptable, notamment dans le cadre du marketing démographique ou de recommandations personnalisées. Développer une technologie responsable passe par une utilisation raisonnable, dans le respect des normes et des valeurs de notre société.

Comment se manifeste la prise de responsabilité d’Adobe au sein de ses outils multimédias numériques ?
Pour lutter contre la désinformation, Adobe développe des outils et des solutions plus transparentes, afin de renforcer la confiance au sein de l’environnement numérique. À cette fin, nous donnons au public des informations sur la source et le cycle de vie des contenus numériques, et nous précisons si l’IA a été utilisée ou non au cours de leur création.
Comment Adobe garantit-il la transparence de l’IA ?

Pour y parvenir, nous exposons avec clarté notre façon de développer et déployer une IA responsable au sein de nos outils. En effet, la relation de confiance établie avec notre clientèle est précieuse, et la transparence en fait partie intégrante.

Pour la préserver, nous communiquons sur l’utilisation des assets, des données client et de l’IA en vue d’améliorer les produits et services d’Adobe.