#F8F8F8

アドビの責任あるエンタープライズAI

企業に適した責任あるAI基準を設定する

アドビは説明責任、責任、透明性の基本原則にもとづいてAIを開発しています。これらの価値観は当社の開発プロセスのあらゆるステージに反映されています。当社のAIファーストの機能やツールは強力なだけでなく、最大規模の企業に対応する信頼性を備えています。

AI倫理原則

アドビの責任あるAI開発とデプロイメントは3つの主要原則に基づいています。責任を持って開発されたAIを活用することで、企業は創造性を引き出し、生産性を加速し、パーソナライズされたカスタマーエクスペリエンスを幅広く提供できます。これらすべては安全性・倫理性・統合性に優れたAIプラットフォームを通じて実現できます。

説明責任

当社はAI技術の成果に責任を持ち、懸念事項に対処する専任チームを設置しています。さらに危害の可能性をテストし、危害を軽減する予防措置を講じ、システムを使用して予期せぬ結果に対処しています。

社会的責任

当社はAI導入がもたらす影響を慎重に評価・検討しています。包括性の向上に取り組み、公平性・平等性・正確性に欠ける結果がどのような影響を与え、バイアスや固定観念を助長させるかを評価しています。

透明性

当社はAIをどのように使用しているかをオープンにし、当社のAIツールやその適用方法をお客様に明確にお伝えするよう努めています。アドビでAIがどのように使用されているか、AIの価値とは何か、お客様がAIをどのように管理できるのかを明らかにしたいと考えています。

#f5f5f5

アドビが責任あるAIを構築する方法

アドビの責任あるAIを支える5つの柱(トレーニング、テスト、影響評価、多様な人的監視、フィードバック)がアドビアイコンの周囲に表示されている画像

トレーニング
エンタープライズAIの効果や精度は、トレーニングに使用するデータによって大きく左右されます。どのような結果を適切とみなすかはユースケースによって異なります。当社がデータベースを構築し、特定の要件に応じてカスタマーエクスペリエンス全体を調整している理由はここにあります。そうすることでAIの使用目的に応じた結果を導き出しています。
テスト
アドビはAIが生成した結果に有害なバイアスや固定観念が含まれるリスクを低減するため、AIを活用した機能や製品を厳格な方法で継続的にテストしています。テストには、自動テストや人による評価が含まれます。
影響評価
AI技術を活用した機能を開発するエンジニアは、「AI倫理影響評価」を提出する必要があります。この評価は、有害な偏見や固定観念を助長する可能性のある機能や製品を特定するために設計されています。これにより、AI倫理チームは最も高い倫理基準を満たすと同時に、イノベーションの速度を維持しつつ、エンタープライズグレードの機能や製品の開発に専念することができます。
多様な人的監視
潜在的な倫理的影響が最も大きいAI技術を活用した機能は、部門横断型の多様なAI倫理審査会によってレビューされます。多様な視点を提供し、見落とされがちな潜在的問題を特定するためには、多様な属性を持つメンバーを確保して監視を行う必要があります。
フィードバック
ユーザーはバイアスが含まれている可能性のある出力を報告し、フィードバックプロセスを通じて是正できます。エンタープライズAIは進化する技術です。私たちはコミュニティと連携し、当社のツールや製品があらゆるユーザーにメリットをもたらすよう取り組んでいます。AI倫理に関するご質問がある場合や問題を報告する場合は、当社までご連絡ください

アドビの責任あるAIについての詳細

Content as a Service v3 - Responsible AI - Friday 17 October 2025 at 00:39

よくある質問

アドビはAIの説明責任をどのように果たしていますか?

アドビはAIの説明責任を果たすため、以下の取り組みを行っています。

  • ガバナンスプロセスを確立し、トレーニングデータやAIモデルを追跡し、データセットやモデルにラべルを付ける。
  • AI影響評価を(サービス開発プロセスの一環として)義務付け、新しいAI技術をデプロイする前に倫理審査が確実に行われるようにする。
  • AI倫理審査委員会を設置してAI開発の進捗状況を監視し、倫理的な懸念事項に対処し、内部告発者を保護する。
  • デプロイメント後に検出されたAIの悪影響を確実に是正するプロセスを開発する。
  • AIの倫理問題に関する教育をエンジニアや製品マネージャーに提供する。
  • AIの施策や機能に関する懸念について社内外から報告できるフィードバックプロセスを構築する。
アドビにとってAIの責任ある開発とは何ですか?

アドビはAIの責任ある開発には以下が必要になると考えています。

  • AIシステムを慎重に設計する。
  • エンドユーザーとのインタラクション方法を評価する。
  • 十分な注意を払い、望ましくない有害なバイアスを軽減する。
  • AI技術が人に与える影響を評価する。

また、AIの責任ある開発を実現するためには、潜在的な危害を予測し、危害を軽減する予防措置を講じるほか、危害が発生した場合はその影響を測定・文書化する必要もあります。予期せぬ有害な結果を監視・処理するシステムを確立する必要もあります。

入力内容とは関係なく、AIシステムの出力に含まれる有害なバイアスをアドビはどのように是正していますか?

AIシステムの開発・デプロイの一環として、アドビは人間の属性(人種、性別、肌の色、民族的または社会的出身、遺伝的またはアイデンティティ的特徴、宗教的または政治的信条、地域、収入、障害、年齢、性的指向、職業など)に関連するバイアスを軽減するよう努めています。当社は包括性に配慮して設計を行っています。個人の生活に重大な影響を与えるユースケース、たとえば雇用、住宅、信用、健康に関する情報にアクセスするユースケースにおいては公平性を優先しています。また、AIを使用するメリットがAIを使用するリスクを上回るかどうかについても配慮しています。

ここで言う公平性とは、すべてのお客様に同様のサービスを提供することではありません。たとえば、デモグラフィックマーケティングを実施する場合や、個人に適した製品を提案する場合など、一般的なAIユースケースでは個人がセグメント化されることがあります。AIの責任ある開発とは、社会の規範や価値観に基づいて妥当な方法でAIを使用することを意味します。

アドビはデジタルメディアツールに対する責任をどのように果たしていますか?
誤情報に対処するため、アドビは来歴を明らかにするツールやソリューションを強化し、デジタルエコシステムの透明性と信頼性を高めています。当社はデジタルコンテンツのソースやライフサイクルについて理解できる情報をユーザーに提供することが欠かせないと考えています。これにはAIが編集・作成プロセスで使用されているかどうかも含まれます。
アドビはAIの透明性をどのように確保していますか?

透明性を確保するため、当社がいかに責任ある方法でAIを開発し、ツールにデプロイしているかを明確にわかりやすく公開しています。アドビはお客様との信頼関係を重視しており、透明性はそのような関係を構築するために不可欠です。

さらにアドビは、お客様のアセットや使用状況データを収集・使用しているかどうか、収集・使用している場合は当社の製品やサービスの改善にどのように役立てているか、データやAIが当社のツールやサービスにどのように使用されているかも公開しています。