アドビの責任あるエンタープライズAI
企業に適した責任あるAI基準を設定する
アドビは説明責任、責任、透明性の基本原則にもとづいてAIを開発しています。これらの価値観は当社の開発プロセスのあらゆるステージに反映されています。当社のAIファーストの機能やツールは強力なだけでなく、最大規模の企業に対応する信頼性を備えています。
AI倫理原則
アドビの責任あるAI開発とデプロイメントは3つの主要原則に基づいています。責任を持って開発されたAIを活用することで、企業は創造性を引き出し、生産性を加速し、パーソナライズされたカスタマーエクスペリエンスを幅広く提供できます。これらすべては安全性・倫理性・統合性に優れたAIプラットフォームを通じて実現できます。
説明責任
当社はAI技術の成果に責任を持ち、懸念事項に対処する専任チームを設置しています。さらに危害の可能性をテストし、危害を軽減する予防措置を講じ、システムを使用して予期せぬ結果に対処しています。
社会的責任
当社はAI導入がもたらす影響を慎重に評価・検討しています。包括性の向上に取り組み、公平性・平等性・正確性に欠ける結果がどのような影響を与え、バイアスや固定観念を助長させるかを評価しています。
透明性
当社はAIをどのように使用しているかをオープンにし、当社のAIツールやその適用方法をお客様に明確にお伝えするよう努めています。アドビでAIがどのように使用されているか、AIの価値とは何か、お客様がAIをどのように管理できるのかを明らかにしたいと考えています。
よくある質問
アドビはAIの説明責任を果たすため、以下の取り組みを行っています。
- ガバナンスプロセスを確立し、トレーニングデータやAIモデルを追跡し、データセットやモデルにラべルを付ける。
- AI影響評価を(サービス開発プロセスの一環として)義務付け、新しいAI技術をデプロイする前に倫理審査が確実に行われるようにする。
- AI倫理審査委員会を設置してAI開発の進捗状況を監視し、倫理的な懸念事項に対処し、内部告発者を保護する。
- デプロイメント後に検出されたAIの悪影響を確実に是正するプロセスを開発する。
- AIの倫理問題に関する教育をエンジニアや製品マネージャーに提供する。
- AIの施策や機能に関する懸念について社内外から報告できるフィードバックプロセスを構築する。
アドビはAIの責任ある開発には以下が必要になると考えています。
- AIシステムを慎重に設計する。
- エンドユーザーとのインタラクション方法を評価する。
- 十分な注意を払い、望ましくない有害なバイアスを軽減する。
- AI技術が人に与える影響を評価する。
また、AIの責任ある開発を実現するためには、潜在的な危害を予測し、危害を軽減する予防措置を講じるほか、危害が発生した場合はその影響を測定・文書化する必要もあります。予期せぬ有害な結果を監視・処理するシステムを確立する必要もあります。
AIシステムの開発・デプロイの一環として、アドビは人間の属性(人種、性別、肌の色、民族的または社会的出身、遺伝的またはアイデンティティ的特徴、宗教的または政治的信条、地域、収入、障害、年齢、性的指向、職業など)に関連するバイアスを軽減するよう努めています。当社は包括性に配慮して設計を行っています。個人の生活に重大な影響を与えるユースケース、たとえば雇用、住宅、信用、健康に関する情報にアクセスするユースケースにおいては公平性を優先しています。また、AIを使用するメリットがAIを使用するリスクを上回るかどうかについても配慮しています。
ここで言う公平性とは、すべてのお客様に同様のサービスを提供することではありません。たとえば、デモグラフィックマーケティングを実施する場合や、個人に適した製品を提案する場合など、一般的なAIユースケースでは個人がセグメント化されることがあります。AIの責任ある開発とは、社会の規範や価値観に基づいて妥当な方法でAIを使用することを意味します。
透明性を確保するため、当社がいかに責任ある方法でAIを開発し、ツールにデプロイしているかを明確にわかりやすく公開しています。アドビはお客様との信頼関係を重視しており、透明性はそのような関係を構築するために不可欠です。
さらにアドビは、お客様のアセットや使用状況データを収集・使用しているかどうか、収集・使用している場合は当社の製品やサービスの改善にどのように役立てているか、データやAIが当社のツールやサービスにどのように使用されているかも公開しています。