La voie de l’innovation responsable

Le chemin qui mène à la responsabilité exige de faire des choix. Entreprise leader dans le secteur technologique, Adobe conçoit des solutions utilisées par des milliards de personnes. À ce titre, les décisions que nous prenons concernant les solutions commercialisées, mais aussi les modes de commercialisation, revêtent une grande importance. Il y a tout juste un an, nous lancions Adobe Firefly, notre premier modèle d’IA générative fondateur. Tout au long du processus de développement, nous avons mûrement réfléchi aux moyens d’encourager l’innovation (utilisation à des fins commerciales sans risque, protection de la communauté créative et politique sur l’IA), tout en garantissant la sécurité et en gérant les problématiques liées à l’intervention de l’IA dans les « deepfakes », ou hypertrucages. Le programme est ambitieux, mais l’IA est une technologie de transformation qui appelle des idées révolutionnaires.

Privilégier l’utilisation à des fins commerciales sans aucun risque

Nous avons choisi d’entraîner le premier modèle fondateur de Firefly sur du contenu sous licence afin d’éviter à nos clients des batailles juridiques autour de l’entraînement des modèles d’IA générative et des droits d’auteur. Il s’agit d’un parti pris stratégique sensiblement éloigné de la tendance actuelle, car nous savons pertinemment que plus les données sont nombreuses, plus l’IA gagne en précision et moins elle est biaisée. Le développement d’une solution de pointe entraînée sur du contenu sous licence représentait toutefois un défi technique. Nous l’avons relevé et le marché a accueilli positivement Firefly en reconnaissant la valeur de cette offre qui est utilisable à des fins commerciales sans aucun risque et n’enfreint aucunement les droits de propriété intellectuelle de tiers.

J’ai eu l’occasion de m’entretenir avec la directrice juridique d’une entreprise du Fortune 500, qui souhaite uniquement miser sur des solutions d’IA générative libres de droits d’auteur, car elle refuse de mettre en place des workflows basés sur un modèle auquel il faudrait éventuellement renoncer par la suite. Alors que nous découvrons les incidences de l’entraînement libre de l’IA, il devient crucial de créer les modèles de manière responsable. Nous avons tous entendu parler d’images blessantes portant atteinte à la réputation de célébrités ou de personnalités politiques, ou encore de modèles entraînés sur des images suspectes ou protégées par des droits d’auteur. Le principe de l’intelligence artificielle est simple : elle fait exactement ce qu’on lui demande. En ne l’entraînant pas sur des images douteuses, vous réduisez donc le risque que le modèle en génère. De fait, quand vous choisissez le modèle à utiliser dans votre workflow, vous savez précisément quels risques vous prenez. C’est la raison pour laquelle nous avons annoncé l’an dernier une politique d’indemnisation inédite qui couvre nos modèles d’IA utilisables à des fins commerciales sans aucun risque. Si nos méthodes d’entraînement limitent d’ores et déjà les risques juridiques liés à l’utilisation de Firefly, nous tenons à offrir cette protection juridique supplémentaire aux personnes intéressées.

Défendre les droits de la communauté créative

En matière d’IA, l’innovation responsable va bien au-delà de la résolution des problèmes techniques. Il nous faut aussi réfléchir à l’impact sociétal des technologies, qu’il soit positif ou négatif. Par exemple, comment aider les profils créatifs à protéger leurs moyens de subsistance dans un monde où la réussite de l’IA repose sur l’accès aux données ? Les créateurs craignent qu’une IA entraînée sur leurs travaux ne leur fasse concurrence avec des créations qui leur ressemblent. Pour répondre à leurs inquiétudes, nous collaborons actuellement avec le Congrès américain pour établir un droit les protégeant contre le détournement de style. En effet, pourquoi les spécialistes de la création ne pourraient-ils pas poursuivre en justice celles et ceux qui se servent de l’IA pour emprunter leur identité et dévaloriser leur travail ? Notre proposition de Loi fédérale anti-usurpation est un moyen de protéger ces droits et de rétablir l’équilibre dans cette nouvelle ère de créativité assistée par l’IA.

Éthique de l’IA et sécurité

L’éthique est un volet fondamental de l’innovation responsable. Depuis quatre ans, une équipe dédiée chez Adobe s’assure que nos pratiques d’ingénierie suivent les principes qui régissent l’éthique de l’IA (traçabilité, responsabilité et transparence). L’Assistant IA d’Adobe Experience Platform (AEP), annoncé lors du Summit, est le dernier exemple en date du processus que nous avons instauré pour analyser les interventions de l’IA et résoudre les problèmes éventuels avant chaque lancement. L’évaluation de l’impact de l’IA a permis d’identifier les cas d’usage et les nouvelles contraintes techniques en vue d’améliorer la fiabilité et la précision, tout en limitant les biais et risques de préjudice. Avec l’équipe en charge de la confidentialité, nous avons veillé à ce que l’Assistant IA d’AEP tienne compte des préférences de chaque client en matière de données, avant même le début de la phase d’entraînement. Ce savoir-faire en création et en gestion d’intelligences artificielles pour Adobe et des milliers de clients, nous le mettons au service d’entreprises et d’administrations du monde entier dans un but : garantir un juste équilibre entre innovation et responsabilité.

Nous avons signé les engagements volontaires de la Maison Blanche en matière d’IA et contribué à l’élaboration du décret présidentiel relatif à l’IA. Nous avons également donné notre avis à la Commission européenne sur la récente loi concernant l’IA et signé tout récemment le « Tech Accord to Combat Deceptive Use of AI in 2024 Elections » aux côtés de leaders technologiques comme Microsoft, Google, OpenAI et TikTok. Pour que leur stratégie d’IA soit efficace, les entreprises doivent mettre en place des mécanismes internes de gouvernance, tout en collaborant en externe. Leur IA continuera ainsi de respecter les dispositions des règlementations mondiales, qui évoluent sans cesse. Les gouvernements vont très probablement s’engager davantage dans la lutte contre la désinformation, notamment en durcissant les règles imposées aux plateformes et aux fournisseurs de modèles d’IA, d’où la nécessité d’anticiper et de s'y préparer.

Visant à accélérer l’innovation dans le domaine de l’IA et à responsabiliser l’ensemble des acteurs, notre dernière proposition règlementaire consiste à fixer des normes claires et atteignables en matière de préjudices, de sécurité et de malveillance sur la base d’un ensemble unifié de prompts tests, géré par les autorités. Cette approche se fonde sur l’expérience pratique que nous avons acquise en administrant notre programme d’éthique de l’IA au cours des quatre dernières années. La « banque de prompts tests » contiendrait des prompts préalablement validés, conçus pour révéler divers problèmes éthiques et de sécurité dans les modèles. Chaque volet éthique pourrait en outre être testé par rapport à des références approuvées. Avec la banque de prompts et les références, il serait possible d’évaluer objectivement les performances des modèles par rapport aux normes de sécurité en vigueur.

Nous avons la conviction que les autorités sectorielles et gouvernementales doivent œuvrer conjointement à la création de banques de prompts mondiales afin d’encadrer la sécurité à l’échelle internationale. Cette approche responsabilise les entreprises grâce à des normes claires. Si vous respectez les normes, vous pouvez commercialiser votre produit, sinon vous devez procéder aux ajustements nécessaires. Les certitudes favorisent l’investissement, et donc l’innovation. Les gouvernements ont par conséquent une formidable occasion de montrer la voie en façonnant l’économie de l’IA.

Lutter contre les « deepfakes »

Avec l’IA générative, n’importe qui peut créer et diffuser des contenus trompeurs en quelques secondes. Résultat, le phénomène des « deepfakes » s’intensifie, menaçant les élections et semant chaque jour la confusion dans la population. Adobe est fier du travail accompli pour amener tout un secteur à relever ce défi en mettant en avant la transparence et la provenance au moyen de Content Credentials, des informations de traçabilité du contenu, qui font office de label d’origine pour le contenu digital. En fournissant aux consommateurs des informations contextuelles essentielles (quand, où, comment et par qui le contenu a été créé ou modifié), nous les aidons à discerner le vrai du faux. La dynamique qui s’opère dans le secteur nous réjouit tout particulièrement. Leica vient de lancer son premier appareil photo avec informations de traçabilité du contenu intégrées, tandis que Meta, OpenAI, Google et BBC ont annoncé leur soutien à cette norme il y a quelques semaines. Compte tenu du nombre d’élections nationales qui approchent, il est primordial que tous et toutes, entreprises, administrations et particuliers, travaillent main dans la main pour restaurer la confiance dans le contenu digital.

Laisser le choix aux clients

Chez Adobe, nous nous engageons à laisser le choix aux clients. Privilégient-ils un modèle utilisable à des fins commerciales sans aucun risque ? Préfèrent-ils utiliser un grand modèle de langage tiers pour ajouter du texte à ses workflows assistés par l’IA ? Nous avons à cœur d’offrir un large éventail de possibilités, des technologies de pointe et des innovations responsables. Le chemin qu’il reste à parcourir s’annonce palpitant. Il sera jalonné d’innovations spectaculaires, mais aussi de décisions inopinées et délicates. Nous nous réjouissons que vous vous lanciez dans cette aventure à nos côtés.

ADOBE SUMMIT — THE DIGITAL EXPERIENCE CONFERENCE

Retrouvez les sessions du Adobe Summit en ligne pour développer vos compétences, trouver l’inspiration et nouer des contacts pour faire de l’économie digitale une affaire personnelle.