변곡점을 맞이한 AI
책임감 있게 AI를 도입하는 방법
책임 있는 AI 혁신을 향한 여정
이 가이드에서 조직을 위한 AI 솔루션을 효과적으로 평가하고, 시범 운영하고, 도입하고, 모니터링하는 올바른 툴, 전략, 사고방식에 대해 알아보세요.
필수가 된 ‘책임감 있는 AI’
AI가 특정 산업을 넘어 모든 산업에서 혁신의 촉매제가 되면서, 경영진들은 신속한 혁신과 운영 효율성 향상을 위해 AI 도입을 서두르고 있습니다. 하지만 AI 도입 경쟁은 새로운 위험을 초래하고 있습니다. 철저한 감독 없이 속도에만 초점을 맞춘 AI 구현은 규정 위반, 비즈니스 운영 중단, 장기적 평판 훼손으로 이어질 수 있습니다. 신속한 추진과 책임의 의무 사이에서 균형을 맞추는 일은 더 이상 선택이 아닌 전략적 필수입니다.
AI를 통제하고 위험을 관리하는 일이 어려울 수 있습니다. 새로 업데이트되는 가이드라인, 프레임워크, 정책과 함께, 갈수록 강화되는 국제법, 연방법, 지역법 등으로 상황은 더욱 복잡해지고 있습니다. 이러한 이유로 조직은 어디부터 어떻게 시작해야 할지 갈피를 잡지 못하고 처음부터 근심거리를 가득 안고 시작합니다. Adobe는 책임, 신뢰, 투명성을 강조하는 AI 윤리 원칙을 기반으로 ‘책임감 있는 혁신’을 진행하면서 이러한 과제를 해결할 방법에 대한 인사이트를 얻을 수 있었습니다.
책임감 있는 AI 혁신으로 향하는 길이 막막해 보일 수 있습니다. 그러나 적절한 툴과 전략, 마음가짐을 갖춘다면 실현 가능한 목표입니다. 이는 Adobe의 경험으로 입증되었습니다.
AI 전략을 개발할 때 직면하는 중요한 의사 결정 중 하나는 AI 솔루션을 구축할 것인지, 구매할 것인지, 맞춤화할 것인지, 아니면 이 세 가지를 모두 적절히 사용할 것인지를 정하는 일입니다. 본 백서에서는 AI 솔루션을 구매하려는 조직을 위한 접근 방식을 소개합니다. 이해관계자의 현재 눈높이에 맞춰 조직의 기존 가치와 비즈니스 실행에 기반한 솔루션 구축을 목표로 합니다. AI 거버넌스에 관한 독립 리서치의 설문조사와 전문가 인터뷰를 기반으로 만든 이 프레임워크는 조직이 현재 상태를 평가하고 모범 사례에 의거해 책임감 있는 AI 원칙을 전사적으로 정착시킬 수 있는 실행 가능한 길을 제안합니다. 여기에는 직원을 위한 생성형 AI 사용 가이드라인을 수립하고, 탄탄한 질문으로 공급업체를 평가하고, 변화 속도에 맞게 AI 거버넌스 프로세스를 업데이트하는 등 실용적인 방법도 포함되어 있습니다.
조직이 AI 여정의 어디에 위치해 있는지는 중요하지 않습니다. AI 준비 상태를 평가하려고 하는 조직, 기존 전략을 발전시키려는 조직 모두가 이 프레임워크의 검증된 접근 방식을 통해, 인간의 독창성과 최첨단 AI 거버넌스를 결합하여 책임감 있게 AI를 확대할 수 있습니다. 이 로드맵을 따라 AI 솔루션을 효과적으로 평가, 시범 운영, 채택, 모니터링하는 한편, 신뢰 형성, 위험 완화, 지속 가능한 비즈니스 가치 창출을 위한 탄력적인 기반을 마련하시기 바랍니다.
뛰어난 확장성과 윤리를 준수하는 AI 미래 구축
AI를 성공적으로 구현하기 위해서는 단순한 체크리스트 이상의 것이 필요합니다. 지속 가능한 혁신과 윤리적인 AI 실행의 기반을 확립할 수 있는 전략적이고 세부적인 접근 방식을 함께 마련해야 합니다. Adobe가 제안하는 프레임워크는 조직의 준비 상태 평가부터 AI 시스템의 효과적인 확대 및 지속적인 모니터링에 이르기까지, 각 단계마다 책임감 있는 AI를 완성하는 데 필요한 필수 요소가 서로 맞물린 구조로 설계되어 있습니다.
이 프레임워크는 AI 도입을 프로세스 중심의 작업이 아닌, 조직의 니즈에 맞춰 유기적으로 진화하는 시스템을 구축하는 데 중점을 둡니다. 인간의 감독과 고급 AI 기술 간의 균형을 강조하며, 이를 통해 조직은 윤리, 규제, 운영 목표에 맞게 AI의 잠재력을 제대로 활용할 수 있습니다.
준비 상태 평가, 책임감 있는 시범 운영, 도입 확대, 지속적인 모니터링 등 프레임워크의 각 단계는 모든 단계에서 서로를 뒷받침하는 견고한 지지대가 되어 장기적인 성공을 지원합니다. 각 단계에서 책임감 있게 AI를 적용하면 신뢰성, 투명성, 책임감을 확보하며 AI 도입이라는 복잡한 문제의 실마리를 차근차근 풀어나갈 수 있습니다.
전문성과 리서치에 기반한 프레임워크
Adobe는 독립 리서치 업체에 생성형 AI 도입에 관한 설문조사를 의뢰했고, 다양한 업계에 종사하는 200명 이상의 IT, 운영, 규정 준수 분야 리더에게서 중요한 인사이트를 얻을 수 있었습니다. 이번 리서치에서는 현재 관행, 도전 과제, AI 도입 성공 전략을 주로 살펴보았습니다. 또한 업계 전문가와 심층 인터뷰를 추가로 실시했고, 유럽 연합 AI 법, 미국 국립표준기술 연구소(NIST) AI 위험 관리 프레임워크, 싱가포르의 AI 검증(AI Verify), IEEE 7000 표준, ISO 42001 등 다양한 글로벌 표준을 검토했습니다. 그 결과 조직의 현재 AI 도입 상태와 상관없이 다양한 산업의 모든 조직에 적용할 수 있는 프레임워크가 만들어졌습니다.
1. 평가: 준비 상태 평가 및 책임감 있게 구축된 AI 기술 선택
조직의 준비 상태 평가
많은 조직이 AI 도입을 시작했지만, 설문 조사에 응답한 조직의 21%만이 책임감 있는 AI 사용을 위한 우선순위를 마련했다고 답했습니다. 78%는 여전히 진행 중이거나 계획 단계에 있다고 답했습니다. 상황이 이러한 만큼 준비 상태에 대한 평가는 반드시 필요합니다. IT, 규정 준수, 위험 관리, 전략 분야의 리더들은 책임감 있는 AI 기반 마련에서 핵심적 역할을 합니다. 책임감 있는 AI의 기반 마련을 위한 첫 단계는 조직의 거버넌스 프레임워크와 AI 리터러시를 종합적으로 검토하고, AI 도입에 영향을 미칠 수 있는 문제점을 찾아내는 것입니다.
그렇다면 AI 준비 상태는 어떤 방식으로 평가해야 할까요? 리더들이 이니셔티브를 제안하는 하향식 방식과 AI를 일상적으로 사용하는 직원이 피드백을 제공하는 상향식 방식을 혼합한 종합적인 접근 방식을 사용하는 것이 좋습니다.
준비 상태 평가를 위해 해야 할 일
- 준비 상태에 대한 포괄적 감사: 장점과 개선점을 파악하기 위해 조직의 기술 인프라, 거버넌스 표준, AI 관련 정책, 책임감 있는 혁신 프레임워크, 규정 준수 현황을 평가합니다. 아울러 책임감 있는 AI 도입에 대한 수요가 전략적 목표 달성에 도움이 되는지 판단합니다.
- 협업을 통해 주요 문제 파악 및 해결: 보안, 개인정보 보호, 법률, 규정 준수, 투명성 표준을 위한 추가적인 AI 정책 니즈를 기록합니다. 그리고 IT 팀, 법무 팀, 규정 준수 팀, 사업부 등이 포함된 다기능 팀을 참여시켜 실행 가능한 다음 단계를 우선적으로 수행합니다.
- 거버넌스 팀 수립 및 역량 강화: AI 거버넌스를 감독할 전담 팀을 지정하여 사내의 책임감 있는 AI 표준과 외부 규제 프레임워크 준수 업무를 할당하고, 위험 요소를 선제적으로 관리하고 변화하는 규제 요건에 대응할 수 있는 권한과 리소스를 제공합니다.
책임감 있게 구축된 AI 기술 선택
먼저, 기업의 기존 거버넌스 표준을 상세히 검토합니다. 이러한 표준에는 개인정보 보호, 보안, 접근성, 법률적 고려 사항과 같은 주요 영역이 포함되어 있습니다. 많은 조직이 규정 준수와 위험 감독을 위해 일반 데이터 보호 규정(GDPR)과 같은 글로벌 벤치마크와 AI 특화 프레임워크를 활용합니다. 지역별 정책과 업계 전용 표준(예: AI 감사 및 책임감 표준) 역시 거버넌스 표준에 반영해야 합니다.
책임감 있는 AI에 대한 기대와 거버넌스 프레임워크에 대한 개요를 마련했다면, 이제 책임감 있는 AI 기술을 선택하는 기준을 설정합니다. 이런 선택 기준에는 기존 기준이 통합되어야 하며 출처의 투명성, 창작물의 정확성, 학습 데이터 라이선스, 편향성 최소화, 문화적 현지화 등 생성형 AI와 관련된 고유한 요소에 초점을 맞춰야 합니다.
리서치 결과에 따르면 생성형 AI 기술 평가 시 조직의 최우선 기준에는 다음이 포함됩니다.
1. 학습 데이터 평가(72%)
2. AI 이용 정보 공개(63%)
3. 유해성 완화(60%)
4. 출처의 투명성(55%)
5. 편향성 완화(50%)
조직은 전략적 비즈니스 목표와 책임감 있는 AI 원칙에 모두 부합하는 AI 솔루션을 선택하기 위해 고유한 기준을 만들어야 합니다. 이때 다음 4가지에 집중합니다.
투명성
AI 프로세스는 설명과 추적이 가능해야 합니다.
정확성
데이터 충실도 및 예측 신뢰도에서 높은 표준을 유지해야 합니다.
문화적 현지화
AI 시스템은 다양한 문화 및 지역에 맞춰 조정되어야 합니다.
편향성 최소화
타당하고 공평한 AI 결과물이 나올 수 있도록 편향성을 최대한 줄여야 합니다.
평가 요약
1단계: 조직의 준비 상태 평가
- AI를 포함한 모든 기술의 책임감 있는 사용에 대한 기업 표준을 정의하고 소통합니다.
- CIO 및/또는 전사적 위원회가 현재 시스템과 비즈니스 프로세스를 검토하면서 책임감 있는 AI 도입으로 가장 많은 혜택을 볼 영역을 찾아냅니다.
- 책임감 있는 AI 도입을 위한 추가 활용 사례에 대해 사내 비즈니스 및 부서 리더들의 견해를 모읍니다.
2단계: 책임감 있게 구축된 AI 기술 선택
- 개인정보 보호, 보안, 접근성, AI 고려 사항에 관한 법률 등 기존의 모든 거버넌스 표준을 검토합니다.
- 투명성, 정확성, 편향성, 문화적 현지화, 규정 준수를 중심으로 이전에 확립된 표준을 통합하여 책임감 있는 AI에 대한 기대를 충족하는 선택 기준을 마련합니다.
- 이미 확립된 기준과 비즈니스 니즈를 가장 잘 충족할 수 있는 AI 기술을 평가 및 선택하고, 이러한 의사 결정 과정을 문서화합니다.
2. 시범 운영: 성과가 뛰어난 활용 사례 파악 및 시범 운영
시범 운영은 AI 실험과 실제 운영의 중간 다리입니다. 이 단계에서는 기술이 비즈니스 목표 및 책임감 있는 AI 목표 달성에 얼마나 적합한지를 주요 이해관계자들이 평가합니다. 기술 타당성 테스트 외에도 주요 리더와 이해관계자가 해당 기술을 활용할 수 있는지도 판단합니다. 조직 구성원들이 AI를 이용해 작업하고, 정보를 바탕으로 AI 확대에 대한 의사 결정을 내리고, 윤리, 운영, 규제 표준을 충족하는지 살펴보아야 합니다.
시범 운영 단계에서는 상황별로 AI 시스템 스트레스 테스트를 실시합니다. 이를 통해 책임성을 평가하고, 투명성에 대한 문서화가 어디에 필요한지, 새로운 기능의 성과가 기대에 부응하는지 등을 파악합니다. 인사이트를 문서화하고, 실행 가능한 교훈을 수집하고, 이를 바탕으로 책임감 있는 AI 확대 로드맵을 작성하면 장단기적 목표를 모두 지원할 수 있는 기반이 마련됩니다.
주요 활용 사례 파악 및 준비
매력적인 AI 비즈니스 사례를 만들려면 주요 이해관계자와 일선 직원이 함께 참여하고, AI의 잠재력을 종합적으로 파악해야 합니다. AI 기술을 직접 사용할 직원들을 처음부터 참여시키면 마케팅 콘텐츠 제작, 코딩, 워크플로우 자동화, 데이터 관리처럼 AI가 실질적인 이점을 제공할 수 있는 성과가 높은 활용 사례들을 어렵지 않게 찾을 수 있습니다.
- 직무가 아닌 프로세스에 집중하고 구체적으로 명시: ‘개발자를 위한 AI’와 같이 특정 직무를 중심으로 활용 사례를 구축하기보다는 AI로 간소화 및 개선이 가능한 프로세스에 주력합니다. 예를 들면 ‘AI 지원 코딩으로 일상적인 코드 검토 및 오류 감지 자동화’와 같이 기술합니다.
- 이용 및 비용 절감 효과 측정을 위한 지표 마련: ROI도 중요하지만, AI 시범 운영 단계에서는 더욱 넓은 범위의 수익도 중점적으로 봐야 합니다. 예를 들어 생산성, 출시 속도, 직원 만족도, 향상된 고객 경험 등이 있습니다. 이러한 지표를 ‘경험 수익률(return on experience, ROX)’이라고 합니다.
- 단기 이익에 매몰되지 않고 장기 효과에 집중: AI 이니셔티브는 장기적인 혁신을 위한 하나의 동인입니다. 활용 사례는 즉각적인 운영 니즈를 해소하는 것은 물론, 디지털 혁신이나 경쟁 차별화와 같은 전략적 목표 달성에도 기여해야 합니다.
비즈니스 및 책임감 있는 AI 기준에 맞는 시범 운영
비즈니스 성과와 책임감 있는 AI라는 두 가지 기준을 놓고 시범 운영을 평가해야 합니다. 그래야 AI 이니셔티브가 운영 목표와 책임감 있는 AI 벤치마크를 모두 충족하는지 확인할 수 있습니다. 이번 설문조사에 참여한 조직의 과반(54%)이 주요 활용 사례에 대해 허용 가능한 위험 수준을 설정한 것으로 나타났습니다. 이러한 평가를 체계적으로 문서화하고 중요한 교훈을 얻어 향후 AI 프로젝트 수행 시 반영하도록 합니다. 이처럼 구조화된 접근 방식은 확장할 수 있는 AI 구현의 견고한 기반이 됩니다.
시범 운영을 위해 해야 할 일
- 비즈니스 벤치마크 및 책임감 있는 AI 벤치마크 설정: 운영 목표(예: 생산성 향상, 비용 절감)와 책임감 있는 AI 지표(예: 투명성, 공정성)를 모두 정의합니다.
- 위험 임계값 설정: 위험 매개 변수를 설정하고 지속적인 평가를 위한 프레임워크를 구축하여 AI 관련 위험을 효과적으로 관리 및 최소화합니다.
- 습득한 교훈 공유: 투명성을 지원하고 향후 확대 노력의 지침으로 삼기 위해 시범 운영 결과를 문서화하는 데 필요한 표준 프로세스를 만듭니다.
시범 운영 요약
1단계: 주요 활용 사례 파악
- 기존 비즈니스 활용 사례 중에서 시범 운영에 사용할 AI 윤리 및 책임감이 중요한 2~3개의 주요 활용 사례를 찾습니다.
- 이런 활용 사례를 대상으로 비즈니스 성과와 책임감 있는 AI 성과를 모두 추적하는 데 필요한 지표와 임계값을 설정합니다.
2단계: 비즈니스 및 책임감 있는 AI 기준에 맞는 시범 운영
- 시범 운영을 실행하고, 필요하면 기술, 비즈니스, 책임감 인증 및 테스트를 추가로 수행합니다.
- 사전 정의된 지표 및 임계값에 따라 시범 운영 결과를 평가하고, 향후 평가 및 테스트 접근 방식에 적용할 교훈을 문서화합니다.
- 시범 운영 결과 및 인사이트에 따라 조달/도입 단계로 넘어갑니다.
3. 도입: 조직 전체에 책임감 있게 AI 통합
도입 단계는 시범 운영에서 조직 전체 통합으로 전환하는 단계입니다. 실험 단계의 애플리케이션을 완전한 AI 운영 시스템으로 전환하는 데 초점을 맞추고, 시범 운영 단계에서 습득한 교훈을 실무에 적용하면서 AI를 책임감 있게 배포합니다.
이 단계에서 직원들은 기존 워크플로우 안에서 AI 역할에 대한 적극적인 주도권을 가지게 됩니다. 직원들은 시범 운영 단계에서 AI를 경험했기 때문에 AI 도입을 위한 준비를 마친 상태입니다.
교육 및 역량 강화
효과적으로 AI를 확대하려면 AI의 기능과 AI 기술 사용에 따른 윤리적 책임을 모두 이해하는 전문 인력이 필요합니다. 맞춤형 교육 프로그램으로 부서 및 직책에 상관없이 모든 직원이 AI 툴을 활용하도록 해야 합니다. 많은 조직(89%)이 교육의 중요성을 인식하고 있고, 거의 2/3가 책임감 있는 AI 가이드라인을 교육 프로그램에 포함시키고 있습니다. 교육 내용에는 기술 역량, 책임성, 투명성, 규정 준수 등을 모두 포함해야 합니다.
교육 및 역량 강화를 위해 해야 할 일
거버넌스에 맞게 교육: 책임감 있는 AI 가이드라인을 교육 자료에도 반영해 직원이 규정 준수, 위험 관리, 투명성 관련 요구 사항을 인지하도록 합니다.
직무별 교육 맞춤화: 비즈니스와 책임감 있는 AI 모두를 위한 모범 사례 등 특정 업무의 니즈에 따라 맞춤형 교육 모듈을 개발합니다.
책임감 있는 배포
AI를 대규모로 도입하려면 책임감 있는 사용을 보장하는 거버넌스 프레임워크를 확립해야 합니다. 조직은 기존 거버넌스 정책에 따라 AI 이니셔티브를 조율하는 한편, 규제, 운영 및 책임감 있는 AI 표준을 준수하도록 지속적으로 정책을 조정합니다.
책임감 있는 배포를 위해 해야 할 일
- 책임 문화 육성: AI가 운영 워크플로우와 이해관계자의 신뢰에 미치는 광범위한 영향을 이해하도록 독려하고, 직책을 불문하고 모든 직원에게 책임감을 심어줍니다.
- 지속적인 교육 업데이트: AI 거버넌스 프레임워크의 발전에 발맞춰 새로운 모범 사례와 규제 변화를 반영하여 교육 프로그램을 업데이트합니다.
도입 요약
1단계: 교육 및 역량 강화
- 책임감 있는 AI 원칙에 따라 AI를 사용하는 방법 및 시기에 관한 활용 사례별 가이드라인을 작성합니다.
- 관련 그룹을 대상으로 모범 사례를 비롯해 포괄적인 교육을 실시합니다.
- 전체 조직에서 성과를 축하하고 공유합니다.
2단계: 책임감 있는 배포
- 각 기술마다 도입에 대한 핵심 요구 사항을 기술합니다(예: 비즈니스 성과, 통합의 용이성, 위험 최소화).
- 필요한 경우 비즈니스 리더와 함께 논의를 거쳐 절충점을 조율합니다.
- AI 및 책임감에 관한 주요 고려 사항을 기존 거버넌스 프레임워크에 반영합니다(예: 액세스, 제어, 직무).
4. 모니터링: 지속적인 감독 및 개선
비즈니스 및 책임감 있는 AI 기반의 성과 모니터링
최고의 기술 성과 모니터링은 자동 성과 추적 기능과 사람의 전문 지식을 결합한 것입니다. 많은 조직이 실시간 모니터링 툴을 도입해 AI 시스템의 성과를 평가하고 있지만, 이러한 툴은 사람의 감독이 개입될 때 효과가 배가됩니다. 데이터를 분석하고, 위험을 감지하고, 어떤 조정이 필요한지 정보에 입각한 의사 결정을 내리는 데는 사람이 더 뛰어납니다.
조직의 69%가 실시간 모니터링 툴을 사용하고 있지만, 이런 툴은 사람의 판단이 개입되었을 때 훨씬 더 효과적입니다. 많은 조직이 기술 지표를 우선순위로 삼고 있으며, 72%가 정확성, 69%가 ROI에 집중하고 있습니다. 하지만 책임감 있는 AI를 확대하기 위해서는 윤리적 측면도 간과해서는 안 됩니다. 사람의 감독을 포함시켜 투명성과 예측 가능성을 보장해 내외부 모두의 신뢰를 쌓아야 합니다. 능동적인 편향성 감지는 모니터링을 통해 가능합니다. 조직의 49%가 편향성 지표를 추적하며, 33%는 유해한 창작물을 모니터링합니다. 일관된 사전 모니터링이 없다면 AI 시스템은 무결성과 신뢰를 모두 잃을 수 있습니다. 성과 모니터링을 개선해 기술적 위험과 윤리적 위험을 모두 해결함으로써 기업은 자사 브랜드를 보호하고, 직원의 신뢰를 얻고, 책임감 있는 AI 확대를 위한 기반을 마련할 수 있습니다.
이처럼 기술과 사람의 협업 없이는 데이터 부정확성, 새로운 편향성, 규정 준수 실패 등 잠재적 위험을 초기에 찾아낼 수 없습니다.
지속적인 위험 관리
AI 위험 관리는 AI 시스템과 더불어 꾸준히 개선되어야 합니다. 구조화된 다기능 접근 방식으로 AI 위험을 관리한다면 비즈니스 위험은 물론 평판 위험까지 선제적으로 해결할 수 있습니다. 기술의 성과와 책임감 있는 AI 목표를 철저하게 평가하기 위해서는 데이터 과학자, 비즈니스 리더, 법률/규정 준수 책임자 등 조직 전체의 이해관계자가 정기적인 검토 작업에 참여해야 합니다.
AI 위험 관리는 기술 발전에 따라 발전하므로 여기에 참여하는 조직도 다양합니다. 데이터 및 거버넌스 팀이 참여한다는 기업은 60%, AI 위원회, 규정 준수 팀, 법무 팀이 참여한다는 기업은 49%에 달합니다. 이는 여러 부서 간 협업의 필요성을 잘 보여줍니다. AI 위험에 대한 선제적 접근 방식을 통해 기업은 내부의 가치와 외부의 기대를 모두 충족할 수 있습니다. 규제 변화에 민첩하고 유연하게 적응 및 대응하기 때문입니다. 위험 관리에서 책임감 있는 AI 사용을 중시하는 기업이 68%에 달하는 지금, 포괄적인 문서화와 지속적인 위험 평가는 필수적입니다.
위험 관리를 위해 해야 할 일
- 다양한 전문가의 위험 검토 작업: 데이터 과학자, 규정 준수 책임자, 법률 전문가까지 참여하는 정기적인 위험 평가를 통해 실시간 데이터를 기반으로 새로운 위험을 파악합니다.
- 꾸준한 추적 및 보고: 직원과 최종 사용자의 피드백을 지속적으로 수집하여 사용성, 편향성, 예상치 못한 문제를 감지합니다.
모니터링 요약
1단계: 성과 모니터링
- 비즈니스 목표, 책임감 목표 등 장기적인 AI 성과 지표를 설정하고 추적합니다.
- 책임 원칙을 지키면서 비즈니스 성과를 지속적으로 향상하기 위해 정기적인 검토와 성과에 관한 논의를 진행합니다.
2단계: 책임감 있는 배포
- 변화하는 AI 규정과 표준(예: 싱가포르 AI 인증, 미 의회 제안서 등)을 추적하고, 이에 따라 기업 표준을 업데이트하는 직무를 지명하고 권한을 부여합니다.
- 프로세스를 마련하여 AI 사용과 관련된 위험을 지속적으로 식별하고 최소화합니다.
- 기업 표준을 준수하는 방식에 대한 문서를 업데이트합니다.
Adobe 사례 연구
Adobe 사내 생성형 AI 활용 사례
Adobe는 생성형 AI를 인간의 창의성을 대신하는 것이 아니라 오히려 강화시키는 혁신적인 기술로 바라봅니다. 책임, 신뢰, 투명성을 강조하는 Adobe의 AI 윤리 원칙을 바탕으로 생성형 AI 기술의 책임감 있는 사용을 장려합니다.
2023년 6월, Adobe는 CIO와 CHRO가 지원하는 내부 다기능 실무 그룹을 구성하고, 직원들이 안전하고, 책임감 있고, 민첩한 방식으로 생성형 AI를 탐색하고 이용할 수 있도록 했습니다. 실무 그룹은 기업의 리더, 주제 전문가들과 협력해 생성형 AI 사용에 대한 다양한 활용 사례를 살펴보고, 적절한 가이드라인을 수립하고, 실험을 간소화하고, 직원들에게 이를 상세히 안내하는 업무를 담당합니다. 이 이니셔티브를 통해 Adobe의 생성형 AI 활용 사례를 대표하는 4개의 페르소나 기반 실무 그룹을 구성했으며 윤리, 보안, 개인정보 보호 및 기타 법률적 고려사항이 반영된 활용 사례를 검토하기 위한 청사진과 요청 프로세스, 생성형 AI 위험 감수 프레임워크를 만들었습니다. 또한 특정 활용 사례를 기반으로 승인된 생성형 AI 툴 및 모델 목록과 직원들을 위한 생성형 AI 사용 가이드라인도 제공했습니다. 2024년 3월 발표된 공급업체를 위한 생성형 AI 가이드라인에는 생성형 AI 사용과 선택한 제품의 기능 사용에 대한 교육 세션을 포함했습니다.
이니셔티브가 본격적으로 실행되면서 프로세스를 간소화하여 실험을 더 빠르게 수행하고, 적용 범위를 확대하고, 전사적인 생성형 AI 환경을 평가할 수 있었습니다. Adobe는 비즈니스 전반에서 인사이트와 교훈을 공유해 협업 기반의 에코시스템을 만들어 나가고 있습니다. 이 프로그램은 Adobe 제품의 생성형 AI 기술 확대, 생성형 AI 기술 및 모델의 확산, 끊임없는 법률 및 규제 가이드 변화에 따라 계속 발전하고 있습니다. 현재는 규모를 확대하기 위한 실험 및 추적 프로세스를 개발하고 있습니다.
모범 사례 적용 방법
책임감 있는 AI 시스템을 도입하고, 모니터링하고, 최적화하기 위해서는 종합적인 직원 가이드 제공, 철저한 공급업체 평가, 강력한 AI 거버넌스 수단 마련 등 운영과 관련된 다양한 업무를 수행해야 합니다. 이를 통해 기업의 AI 이니셔티브가 변화하는 규제 표준을 준수하면서 기존의 거버넌스와 위험 관리를 바탕으로 책임감과 신뢰성, 투명성을 구축할 수 있습니다.
이러한 모범 사례를 일상적인 업무에 적용하는 방법을 간략하게 살펴봅니다.
직원을 위한 가이드
책임감 있는 배포를 위해 기업의 특정 니즈와 위험에 맞는 AI 사용 가이드라인을 만듭니다. 이러한 가이드라인은 직원이 규제 표준과 거버넌스 프로토콜을 준수하고, AI 기술이 데이터 보안, 투명성, 책임을 바탕으로 발전하는 데 도움이 됩니다.
데이터 민감성
데이터가 로컬에서 또는 엄격한 액세스 제어 하에 처리되어야 하는 경우를 명확히 하여 무단 액세스를 방지합니다. 민감한 창작물을 생성 및 편집할 수 있는 프롬프트 사용을 방지하는 것이기도 합니다. 이 가이드라인을 바탕으로 독점 정보를 보호하고, 개인정보 보호 규정 준수를 유지할 수 있습니다.
AI 사용의 투명성
내부 문서, 고객 대면 인터페이스, 외부 커뮤니케이션 등 AI가 사용되는 영역을 바로 공개합니다. 이는 AI 생성 콘텐츠의 진위와 신뢰성에 대한 믿음과 기업의 브랜드 및 평판을 유지하는 데 도움이 됩니다.
계정 관리 정책
기업 이메일 계정 사용 가능 여부, 업무용으로 승인된 툴 명시, 업무용 콘텐츠에 개인 계정 사용 금지 등 계정 등록이 필요한 생성형 AI 툴 사용에 관해 명확한 정책을 세웁니다. 이는 무단 사용을 방지하고 조직의 광범위한 정보 보안 프로그램과 지속적으로 조율하는 데 도움이 됩니다.
이러한 가이드라인을 통해 직원은 생성형 AI 툴을 책임감 있게 안심하고 사용할 수 있으며, 혁신과 무결성이 모두 보장되는 업무 환경이 마련됩니다.
공급업체 평가: 질문 예시
AI 공급업체를 평가하려면 공급업체의 시스템이 책임감 있는 AI, 법률, 규정 표준을 준수하는지 확인할 수 있는 질문을 하고 원하는 답변을 얻어야 합니다. 아래 질문은 기본적인 평가를 위한 것으로, 조직이 정보에 입각한 의사 결정을 내리고, AI 도입에 관한 위험을 최소화할 수 있도록 설계되었습니다.
AI 거버넌스 수단
강력한 AI 거버넌스를 구현한다는 것은 AI 시스템을 조직의 가치와 규제 표준에 의거하여 개발, 배포 및 모니터링한다는 것입니다. 유럽 연합의 AI 법과 같은 규제 표준과 싱가포르의 AI 인증 등 다양한 규제 프레임워크가 존재합니다. 미국에서 비즈니스를 운영하는 기업은 주정부 차원의 포괄적인 개인정보 보호법과 향후 규제의 기초가 될 가능성이 높은 NIST AI 위험 관리 프레임워크를 준수해야 합니다.
다음과 같은 거버넌스 수단을 사용하면 AI 위험을 관리하고 투명성, 책임, 및 보안을 강화할 수 있습니다.
책임감 있는 구현으로 책임감 있는 혁신 추진
AI의 잠재력을 극대화하려면 책임감 있게 구축된 기술을 제공하고, 명확한 사용 가이드라인을 확립하고, 맞춤형 교육을 마련하고, 강력한 거버넌스를 배포해야 합니다. 이러한 접근 방식으로 비즈니스 가치를 높이고, 규제를 준수하고, 책임감 있는 구현 표준을 충족하는 AI 이니셔티브를 추진하여 책임감 있는 AI 문화를 전사적으로 정착시킬 수 있습니다.
AI 이니셔티브를 궤도에 올리기 위해서는 일관성 있는 감독과 대응이 필요합니다. 성과 지표를 정의하고, 정기적인 평가를 수행하고, 선제적으로 위험을 관리한다면 규제 변화에 누구보다 빠르게 대처하고 AI 프로젝트의 무결성을 유지할 수 있습니다.
AI를 통해 미래로 나아가는 Adobe의 프레임워크를 통해 조직은 책임감 있는 AI 지형에서 주도적인 역할을 할 수 있습니다. 영향력, 통합, 무결성이 중심인 이 접근 방식은 지속 가능한 혁신과 지속적인 성공의 길을 열어줍니다.
추천 리소스
https://main--bacom--adobecom.aem.live/fragments/resources/cards/thank-you-collections/generative-ai