#F8F8F8

Adobe의 책임 있는 엔터프라이즈 AI

기업을 위한 책임 있는 AI 표준 설정

Adobe의 AI 개발은 신뢰, 책임감, 투명성이라는 핵심 원칙에 따라 이루어집니다. 이러한 가치는 개발 프로세스의 모든 단계에 영향을 미치며, 이를 바탕으로 모든 기업이 신뢰할 수 있는 강력한 AI 중심 기능과 툴을 제공합니다.

AI 윤리 원칙

Adobe의 책임 있는 AI 개발 및 배포는 다음 세 가지 핵심 원칙을 기반으로 합니다. AI에 대한 이러한 책임 있는 접근 방식을 통해 기업은 안전하고 윤리적인 통합 AI 플랫폼 내에서 창의력을 발휘하고, 생산성을 높이고, 개인화된 고객 경험을 대규모로 제공할 수 있습니다.

신뢰

Adobe는 AI 기술의 결과에 대한 책임감을 갖고 우려 사항에 대응하는 전담 팀을 운영합니다. 또한 잠재적인 위험을 테스트하고, 선제적 조치를 취해 위험을 완화하며, 시스템을 활용하여 예상치 못한 결과를 해결합니다.

책임감

Adobe는 AI 도입이 미치는 영향을 신중하게 평가하고 고려합니다. 포용성을 고려하여 설계하고, 편견과 고정관념을 심어줄 수 있는 잠재적으로 불공정하고 차별적이거나 부정확한 결과가 미칠 수 있는 영향을 평가하기 위해 노력합니다.

투명성

Adobe는 AI 사용에 대해 투명하게 공개하며, 고객에게 AI 툴과 용도에 대한 명확한 정보를 제공합니다. Adobe가 AI를 사용하는 방법과 그 가치, Adobe에서 제공하는 제어에 대해 고객이 이해하시길 바랍니다.

#f5f5f5

Adobe가 책임 있는 AI를 구축하는 방법

Adobe 로고를 둘러싸고 있는 Adobe 책임 있는 AI의 5가지 주요 요소(학습, 테스트, 파급 효과 검토, 다양한 전문가의 감독, 피드백)

학습
엔터프라이즈 AI의 효과와 정확성은 학습에 사용하는 데이터에 의해 결정됩니다. 결과의 적절성은 개별 활용 사례에 따라 달라지므로, Adobe는 대규모 고객 경험 통합 관리의 특정 요구 사항을 충족하는 데이터 세트를 구축합니다. 이를 통해 AI가 사용될 방식에 적합한 결과를 얻을 수 있습니다.
테스트
Adobe는 AI 기반 기능 및 제품을 지속적으로 엄격하게 테스트하여 AI 기반 결과에서 유해한 편견이나 고정관념의 발생 위험을 줄입니다. 자동화된 테스트뿐만 아니라 인간의 수동 평가도 함께 실시합니다.
파급 효과 검토
AI 기반의 기능 개발에 참여하는 모든 엔지니어는 AI 윤리 파급 효과 평가서를 제출해야 합니다. 이 평가는 유해한 편견과 고정 관념이 내재될 가능성이 있는 기능과 제품을 판별하도록 설계되었습니다. 이를 통해 Adobe의 AI 윤리 팀은 혁신의 속도를 유지하고, 엔터프라이즈급 기능과 제품에 집중하며, 최고의 윤리 기준을 충족할 수 있습니다.
다양한 전문가의 감독
여러 분야의 전문가로 구성된 AI 윤리심사위원회는 잠재적인 윤리적 파급 효과가 큰 AI 기반의 기능을 검토하고 감독합니다. 여러 인구 통계 집단에 걸친 다양성은 다양한 관점을 제공하고, 간과할 수 있는 잠재적 문제를 파악하는 데 중요합니다.
피드백
사용자는 잠재적 편향 결과물을 보고하고, 이는 피드백 메커니즘을 통해 수정할 수 있습니다. 엔터프라이즈 AI는 진화하는 기술이며, Adobe는 커뮤니티와 협력하여 모두에게 도움이 되는 툴과 제품을 제공하고자 합니다. AI 윤리에 대한 문의 또는 신고 사안이 있는 경우, Adobe에 제보해 주세요.

Adobe의 책임 있는 AI에 대해 더 알아보기

Content as a Service v3 - Responsible AI - Friday 17 October 2025 at 00:39

궁금한 점을 답변해 드릴게요.

Adobe는 AI의 신뢰 보장을 어떻게 지원합니까?

Adobe는 다음과 같은 방법으로 AI의 신뢰를 보장합니다.

  • 데이터 세트와 모델에 레이블을 지정하는 등 학습 데이터와 AI 모델을 추적하는 거버넌스 프로세스 구축
  • 새로운 AI 기술을 배포하기 전에 윤리 검토가 이루어질 수 있도록 서비스 개발 프로세스의 일부로 AI 영향 평가 의무화
  • AI 윤리심사위원회를 설립하여 AI 개발 확산을 감독하고 윤리 문제에 대한 공론의 장을 마련하는 동시에 내부 고발자 보호
  • 배포 후 발견되는 부정적인 AI 영향을 해결하기 위한 프로세스 개발
  • 엔지니어와 제품 관리자 대상으로 AI 윤리 문제 교육
  • AI 실행 및 기능에 대한 우려 사항을 보고할 수 있는 외부 및 내부 피드백 메커니즘 제공
책임감 있는 AI 개발은 Adobe에게 어떤 의미입니까?

Adobe는 책임 있는 AI 개발이란 다음을 포괄한다고 생각합니다.

  • AI 시스템의 신중한 설계
  • 최종 사용자와의 상호 작용 방식 평가
  • 실사를 수행하여 원치 않는 유해한 편견 완화
  • AI 기술이 인간에 미치는 영향 평가

또한 책임 있는 AI 개발을 위해서는 잠재적 피해를 예측하고, 이를 완화하기 위한 선제적 조치를 취하고, 피해 발생 시 이를 측정 및 문서화하고, 예상치 못한 유해한 결과를 모니터링하고 대응할 수 있는 시스템을 구축해야 합니다.

Adobe는 입력에 관계없이 AI 시스템의 결과물에서 유해한 편견을 어떻게 해결합니까?

Adobe는 AI 시스템을 개발하고 배포하는 과정에서 인간의 속성(예: 인종, 성별, 피부색, 민족, 사회적 출신, 유전적 또는 아이덴티티 보존 기능, 종교 또는 정치적 신념, 지역, 소득, 장애, 연령, 성적 취향, 직업)과 관련된 편견을 완화하기 위해 노력합니다. 포용성을 염두에 두고 설계합니다. Adobe는 고용, 주택, 신용, 건강 정보에 대한 접근성 등 개인의 삶에 중대한 영향을 미칠 수 있는 상황에서 공정성을 우선시합니다. 또한 AI 사용의 이점이 AI 사용으로 인한 피해 위험보다 더 큰지도 고려합니다.

공정성이라는 개념이 모든 고객을 일률적으로 대우한다는 의미는 아닙니다. 가장 일반적인 AI 활용 사례 중 일부는 인구 통계적 마케팅이나 개인화된 제품 추천 등 평범하고 수용 가능한 방식으로 개인을 세분화합니다. 책임 있는 AI 개발이란 사회의 규범과 가치에 준하는 합리적인 방식의 AI 사용을 의미합니다.

Adobe는 디지털 미디어 툴에 대한 책임을 어떻게 실현합니까?
잘못된 정보를 바로잡기 위해 Adobe는 출처 증명 툴과 솔루션을 발전시켜 디지털 에코시스템의 투명성과 신뢰 향상에 최선을 다합니다. 편집 또는 제작 과정에서 AI 사용 여부를 포함하여 디지털 콘텐츠의 출처와 라이프사이클을 이해하는 데 필요한 정보를 제공하는 것이 중요하다고 생각합니다.
Adobe는 AI 투명성을 어떻게 보장합니까?

투명성이란 툴 내에서 책임 있게 AI를 개발하고 배포하는 방법을 명확하고 이해하기 쉽게 합리적으로 공개하는 것입니다. Adobe는 고객과의 신뢰 관계를 중요하게 여기며, 투명성은 이러한 관계의 핵심입니다.

투명성에는 Adobe가 제품 및 서비스를 개선하기 위해 고객 에셋과 사용 데이터를 수집 및 사용하는 방법과 여부에 대한 정보 공유는 물론, 데이터 및 AI가 툴과 서비스에서 사용되는 방식에 대한 일반적인 공개가 포함됩니다.