#F8F8F8

O ponto de inflexão da IA.

Como adotar a IA de maneira responsável na sua organização.

O logotipo vermelho da Adobe em fundo preto, com ícones flutuantes representando parâmetros de IA responsável.
#F8F8F8

O caminho para a inovação responsável em IA.

Neste guia, conheça as ferramentas, a estratégia e a mentalidade certas para avaliar, testar, adotar e monitorar soluções de IA para sua organização de forma eficaz.

A necessidade urgente de adotar a IA de maneira responsável atualmente.

À medida que a IA se torna um motor de transformação em diversos setores, líderes empresariais enfrentam uma pressão crescente para inovar rapidamente, responder a ameaças competitivas e melhorar a eficiência operacional. Contudo, a aceleração da adoção da IA nas empresas traz novos riscos. Sem uma supervisão rigorosa, a implementação apressada da IA pode resultar em falhas regulatórias, problemas operacionais e danos à reputação no longo prazo. Equilibrar a urgência de avançar com a necessidade de responsabilidade não é mais uma escolha: tornou-se uma obrigação estratégica.

Gerenciar a IA e os riscos associados a ela pode parecer uma tarefa monumental. Com novas diretrizes, estruturas e políticas, além da evolução da legislação internacional, federal e local, essas complexidades frequentemente dificultam o ponto de partida das organizações e criam desafios desde o início para as partes interessadas. Na Adobe, nossa experiência em inovação responsável, alicerçada em nossos princípios de ética da IA, que incluem responsabilidade, prestação de contas e transparência, nos proporcionou valiosos insights sobre como enfrentar esses desafios.

Nossa experiência demonstrou que, embora o caminho para uma inovação responsável em IA possa parecer difícil, o sucesso está ao alcance de qualquer organização, desde que se tenha as ferramentas, a estratégia e a mentalidade adequadas.

Uma das principais decisões que as empresas enfrentam na elaboração de suas estratégias de IA é determinar se devem construir, comprar ou personalizar uma solução de IA, ou até combinar essas opções. A abordagem aqui proposta é voltada para organizações que optam por adquirir soluções de IA e busca aprimorar os valores e as práticas comerciais dessas organizações, ajudando-as a encontrar as partes interessadas onde elas estão atualmente. Baseada em pesquisas independentes e enriquecida por entrevistas com especialistas em governança de IA, a estrutura oferece um caminho prático e acionável para o futuro. Ela auxilia as organizações a avaliar a situação atual e fornece as melhores práticas para integrar princípios de IA responsável em todos os níveis da empresa. A estrutura inclui etapas claras para estabelecer diretrizes de uso de IA generativa por funcionários, avaliar fornecedores por meio de questionários avançados e atualizar os processos de governança de IA para se adaptar às mudanças contínuas do cenário.

Independentemente de onde sua organização está na jornada para a IA (seja avaliando a prontidão para a IA ou aprimorando estratégias já implementadas), essa estrutura oferece uma abordagem comprovada que combina criatividade humana com governança de IA de ponta, permitindo uma escalabilidade responsável. Ao seguir este roteiro, as empresas podem avaliar, testar, adotar e monitorar soluções de IA de maneira eficaz, criando uma base sólida que promove confiança, diminui riscos e gera valor comercial sustentável.

Construção de um futuro de IA dimensionável e ético.

Estrutura de quatro etapas para inovação da IA responsável Avaliar, testar, monitorar e adotar — cada uma mostrada com mãos interagindo com elementos tecnológicos.
Estrutura de quatro etapas para inovação responsável em IA: Avaliar, testar, monitorar e adotar — cada uma mostrada com mãos interagindo com elementos tecnológicos.
Estrutura de quatro etapas para inovação responsável em IA: Avaliar, testar, monitorar e adotar — cada uma mostrada com mãos interagindo com elementos tecnológicos.

A implementação bem-sucedida da IA generativa exige mais do que simplesmente seguir uma lista de tarefas; ela demanda uma abordagem estratégica e multifacetada, em que cada etapa é desenvolvida tomando como base a anterior, estabelecendo uma base sólida para inovação contínua e práticas éticas de IA. Essa estrutura funciona como um conjunto de blocos de construção interconectados, projetados para incorporar práticas de IA responsável em todas as fases, desde a avaliação da prontidão organizacional até a implementação eficaz e o monitoramento constante dos sistemas de IA.

Em vez de tratar a adoção da IA como uma sequência de processos a serem cumpridos, o foco da estrutura é a criação de sistemas que se adaptam e evoluem conforme as necessidades da organização. Ela destaca o equilíbrio essencial entre a supervisão humana e as tecnologias avançadas de IA, garantindo que as organizações aproveitem o potencial da IA de acordo com objetivos éticos, regulatórios e operacionais.

Cada etapa dessa estrutura (avaliação de prontidão, teste responsável, adoção em larga escala e monitoramento contínuo) apoia o sucesso no longo prazo, funcionando como pilares que se fortalecem mutuamente a cada fase. Ao integrar práticas de IA responsável em cada etapa, as empresas conseguem lidar com as complexidades da adoção dessa tecnologia, ao mesmo tempo que fortalecem a confiança, a transparência e a responsabilidade.

Baseado em experiência e informado por pesquisa.

A Adobe contratou uma empresa de pesquisa independente para investigar a adoção da IA generativa, coletando insights de mais de 200 líderes de TI, gestão e conformidade de diferentes setores. A pesquisa revela as práticas atuais, os desafios enfrentados e as estratégias bem-sucedidas na implementação da IA. Além disso, a Adobe conduziu entrevistas aprofundadas com especialistas do setor e revisou padrões globais, incluindo Regulamento de IA da UE (União Europeia), NIST AI Risk Management Framework, Singapore’s AI Verify, IEEE Padrão 7000 e ISO 42001. Esses esforços garantem que a estrutura seja aplicável a todos os setores e organizações de todos os tamanhos, independentemente do progresso da adoção da IA.

1. Avaliar: prontidão organizacional e seleção de tecnologia de IA construída de maneira responsável.

Exibição ampliada da etapa de avaliação na estrutura de inovação responsável de IA — enfatizando prontidão e avaliação de tecnologia de IA.
Exibição ampliada da etapa de avaliação na estrutura de inovação responsável de IA — enfatizando prontidão e avaliação de tecnologia de IA.
Exibição ampliada da etapa de avaliação na estrutura de inovação responsável de IA — enfatizando prontidão e avaliação de tecnologia de IA.
A jornada para adotar IA de forma responsável começa com as pessoas que irão liderá-la. A fase de avaliação capacita os tomadores de decisão com as ferramentas, dados e insights necessários para avaliar como a IA se encaixa nas prioridades estratégicas. Esta fase permite que líderes multifuncionais examinem a infraestrutura técnica da organização, estruturas de governança e alfabetização em IA, o que ajuda a determinar a prontidão geral.A jornada para adotar a IA de maneira responsável começa com as pessoas responsáveis por sua liderança. A fase Avaliar proporciona a tomadores de decisão as ferramentas, os dados e os insights necessários para entender como a IA pode se alinhar às respectivas prioridades estratégicas. Essa fase permite que líderes de diferentes áreas avaliem a infraestrutura técnica da organização, as estruturas de governança e o nível de alfabetização em IA, o que é essencial para determinar a prontidão geral.

Avaliar a prontidão organizacional.

Embora muitas organizações já tenham iniciado a adoção da IA, apenas 21% das pesquisadas concluíram totalmente o desenvolvimento de suas prioridades em IA responsável, com 78% ainda em andamento ou em fases de planejamento. Isso destaca a clara necessidade de abordagens focadas na prontidão. Líderes de TI, conformidade, gerenciamento de riscos e estratégia são fundamentais para estabelecer uma base sólida em IA responsável. Esse processo começa com uma análise detalhada das estruturas de governança da organização e do nível de alfabetização em IA, visando identificar lacunas que possam afetar a adoção efetiva da tecnologia.

As organizações precisam adotar uma abordagem geral para avaliar a prontidão em IA, combinando iniciativas de liderança de cima para baixo com feedback de baixo para cima de funcionários que utilizam a IA no dia a dia.

Ações para prontidão:

  • Realize uma auditoria abrangente de prontidão:avalie a infraestrutura técnica da organização, os padrões de governança, as políticas relacionadas à IA, as estruturas de inovação responsável e as práticas de conformidade para identificar pontos fortes e áreas que precisam de melhorias, garantindo que tudo esteja alinhado com os objetivos estratégicos e as exigências de uma adoção responsável da IA.
  • Identifique e aborde as principais lacunas de maneira colaborativa: documente as necessidades adicionais em relação a políticas de IA, abrangendo segurança, privacidade, aspectos legais, conformidade e transparência, enquanto envolve equipes de várias funções, como TI, jurídico, conformidade e unidades de negócios, e priorize as próximas etapas práticas.
  • Estabeleça e capacite equipes de governança:designe equipes responsáveis pela supervisão da governança de IA, garantindo que cumpram os padrões internos de IA responsável e as regulamentações externas. Forneça a essas equipes a autoridade e os recursos necessários para gerenciar proativamente os riscos e se adaptar às mudanças nos requisitos.

Selecionar a tecnologia de IA que seja feita de maneira responsável.

Comece com uma revisão completa dos padrões de governança existentes da sua empresa. Esses padrões provavelmente já abrangem áreas principais como privacidade, segurança, acessibilidade e considerações jurídicas. Referências globais como o Regulamento Geral sobre a Proteção de Dados (RGPD) e estruturas específicas de IA fazem parte da manutenção da conformidade e supervisão de risco em muitas organizações. Além disso, políticas regionais e padrões específicos do setor, como auditorias de IA e padrões de responsabilidade, devem ser incorporados aos padrões de governança.

Gráfico de barras mostrando GDPR, diretrizes específicas de IA e práticas de IA responsável como principais padrões ou certificações de segurança e privacidade de IA.
Gráfico de barras mostrando GDPR, diretrizes específicas de IA e práticas de IA responsável como principais padrões ou certificações de segurança e privacidade de IA.
Gráfico de barras mostrando GDPR, diretrizes específicas de IA e práticas de IA responsável como principais padrões ou certificações de segurança e privacidade de IA.

Após a organização definir as expectativas para uma IA responsável e estabelecer as estruturas de governança, o próximo passo é criar critérios de seleção para tecnologias de IA que sejam desenvolvidas de maneira ética. Esses critérios devem incorporar os padrões já existentes, ao mesmo tempo que se concentram em aspectos específicos da IA generativa, como transparência na origem, precisão dos resultados, licenciamento de dados de treinamento, redução de preconceitos e adaptação cultural.

De acordo com os resultados da pesquisa, os principais critérios utilizados pelas organizações na avaliação da tecnologia de IA generativa incluem:

1. Avaliação de dados de treinamento (72%)

2. Divulgações de uso de IA (63%)

3. Redução de danos (60%)

4. Transparência da origem (55%)

5. Redução de preconceitos (50%)

Esses fatores garantem que as tecnologias de IA selecionadas atendam às necessidades de negócios e às responsabilidades éticas, apoiando o sucesso organizacional de longo prazo.

As organizações devem estabelecer critérios de seleção específicos que alinhem as soluções de IA aos objetivos estratégicos de negócios e aos princípios de IA responsável. Esses critérios devem destacar:

Transparência

Garantir que os processos de IA sejam explicáveis e rastreáveis.

Precisão

Manter elevados padrões de fidelidade de dados e confiabilidade preditiva.

Localização cultural

Adaptar os sistemas de IA para respeitar diferentes contextos culturais e regionais.

Redução de preconceitos

Reduzir ativamente os preconceitos para garantir resultados de IA justos e equitativos.

Documentar cada etapa do processo de avaliação e seleção fortalece a adaptabilidade e a responsabilidade, estabelecendo um modelo de governança flexível que pode evoluir conforme os avanços da IA e as mudanças nas regulamentações.

Resumo da avaliação

Etapa 1: avaliar a prontidão organizacional.

  • Estabelecer e comunicar os padrões da empresa para o uso responsável da tecnologia, incluindo a IA.
  • O CIO e/ou o comitê interempresarial devem revisar os sistemas e processos de negócios existentes para identificar as áreas que mais se beneficiarão da adoção da IA responsável.
  • Coletar insights de líderes internos de negócios e áreas funcionais sobre casos de uso adicionais que devem ser considerados para a adoção da IA responsável.

Etapa 2: selecionar a tecnologia de IA que seja feita de maneira responsável.

  • Revisar os padrões de governança atuais em privacidade, segurança, acessibilidade e aspectos jurídicos para garantir conformidade com a IA.
  • Desenvolver critérios de seleção que incorporem os padrões estabelecidos, atendendo às expectativas de IA responsável, com foco em transparência, precisão, redução de preconceitos, adaptação cultural e conformidade regulatória.
  • Avaliar e selecionar as tecnologias de IA que melhor atendam aos critérios definidos e às necessidades de negócios, documentando todo o processo de decisão.

2. Testar: identificação e teste de casos de uso de alto impacto.

Visão focada da fase piloto na inovação de IA responsável — destacando a experimentação e o desempenho da tecnologia.
Visão focada da fase piloto na inovação responsável de IA — destacando a experimentação e o desempenho da tecnologia.
Visão focada da fase piloto na inovação da IA responsável — destacando a experimentação e o desempenho da tecnologia.

A fase Testar conecta a experimentação de IA com a realidade operacional. Essa fase permite que as principais partes interessadas avaliem o desempenho da tecnologia, considerando seu alinhamento com os objetivos de negócios e as metas de IA responsável. Vai além da simples análise de viabilidade tecnológica, focando em proporcionar oportunidades para que os principais líderes e partes interessadas interajam com a tecnologia de maneira significativa. O objetivo é permitir que as pessoas utilizem a IA, tomem decisões informadas sobre sua escalabilidade e garantam que ela atenda aos padrões éticos, operacionais e regulatórios.

A fase Testar oferece às organizações a oportunidade de testar sistemas de IA em contexto real, ajudando-as a identificar onde são necessárias avaliações de responsabilidade e documentação de transparência, além de avaliar o desempenho de novos recursos em relação às expectativas estabelecidas. Ao documentar os insights e reunir aprendizados valiosos, as organizações criam um roteiro para escalar a IA de maneira responsável, estabelecendo uma base que sustenta tanto os objetivos imediatos quanto os de longo prazo.

Identificar e preparar casos de uso prioritários.

Criar um caso de negócios sólido para a IA envolve a participação das principais partes interessadas e de funcionários da linha de frente, a fim de ter uma visão abrangente do potencial da tecnologia. Ao envolver desde o início as partes que interagirão diretamente com a IA, as organizações podem identificar casos de uso de alto impacto em que a tecnologia oferece vantagens concretas, como na criação de conteúdo de marketing, codificação, automação de fluxos de trabalho e gerenciamento de dados.

  • Vá direto ao ponto — concentre-se em processos, não em funções: em vez de definir casos de uso com base em funções específicas (como “IA para desenvolvedores”), concentre-se nos processos que a IA pode simplificar e otimizar, como “codificação assistida por IA para automatizar revisões rotineiras de código e detecção de erros”.
  • Estabeleça métricas mensuráveis para uso e redução de custos: embora o ROI seja relevante, os projetos piloto de IA também devem destacar vantagens mais amplas, como aumento de produtividade, aceleração no lançamento de produtos, satisfação de funcionários e aprimoramento da experiência de clientes; métricas comumente conhecidas como “Retorno sobre a experiência”.
  • Amplifique o impacto além dos resultados imediatos: posicione a iniciativa de IA como um motor para transformação no longo prazo. Os casos de uso devem não apenas atender às necessidades operacionais imediatas, mas também estar alinhados com objetivos estratégicos, como transformação digital ou diferenciação competitiva.

Testar em relação a critérios de IA empresarial e responsável.

Avaliar os pilotos sob duas perspectivas (o desempenho empresarial e os critérios de IA responsável) assegura que as iniciativas de IA cumpram tanto os objetivos operacionais quanto os padrões de IA responsável. Mais da metade (54%) das organizações investigadas definiu um limite de risco aceitável para seus casos de uso prioritários. As empresas devem registrar essas avaliações de maneira sistemática, registrando aprendizados que possam guiar futuros projetos de IA. Essa metodologia estruturada estabelece uma base robusta para a implementação de IA em larga escala.

Ações ao testar:

  • Defina referências de IA empresarial e responsável:estabeleça metas operacionais claras (como aumento de produtividade e redução de custos) e métricas de IA responsável (como transparência e equidade).
  • Estabeleça limites de risco:defina parâmetros de risco e crie uma estrutura para avaliações contínuas, com o objetivo de gerenciar e mitigar eficazmente os riscos associados à IA.
  • Capture e compartilhe aprendizados:desenvolva um processo padronizado para documentar os resultados dos pilotos, promovendo a transparência e orientando os próximos passos para a expansão.

Resumo do piloto

Etapa 1: identificar casos de uso prioritários.

  • Com base nos casos de uso empresariais prioritários existentes, selecionar de dois a três pilotos nos quais a ética e a responsabilidade da IA sejam fundamentais.
  • Para esses casos, definir métricas e limites que permitam monitorar tanto o desempenho empresarial quanto os critérios de IA responsável.

Etapa 2: testar em relação a critérios de IA empresarial e responsável.

  • Implementar os pilotos, realizando validações e testes adicionais nas áreas técnica, empresarial e de responsabilidade, conforme o necessário.
  • Avaliar os resultados do piloto com base nas métricas e nos limites estabelecidos, analisando as expectativas de IA empresarial e responsável, e documentar os aprendizados para orientar futuras abordagens de avaliação e teste.
  • Prosseguir para a aquisição ou adoção com base nos resultados e nos insights coletados durante o piloto.

3. Adotar: integração da IA de maneira responsável em toda a organização.

Estágio de adoção destacado na estrutura de inovação de IA responsável — mostrando a integração da IA em toda a organização.
Estágio de adoção destacado na estrutura de inovação de IA responsável — mostrando a integração da IA em toda a organização.
Estágio de adoção destacado na estrutura de inovação de IA responsável — mostrando a integração da IA em toda a organização.

A fase Adotar marca a transição do piloto para a integração em toda a organização. Essa fase foca a transformação de aplicativos experimentais em sistemas de IA totalmente operacionais, implementando a IA de maneira responsável e incorporando as lições aprendidas nos pilotos nas práticas do dia a dia.

Neste momento, funcionários passam a assumir a responsabilidade ativa pela função da IA nos respectivos fluxos de trabalho. Com a experiência adquirida na fase piloto, as equipes estão preparadas para impulsionar a adoção da IA.

Treinar e capacitar a organização.

Dimensionar a IA de maneira eficaz exige uma força de trabalho bem informada, que compreenda tanto as capacidades da IA quanto as responsabilidades éticas associadas ao seu uso. Programas de treinamento personalizados devem capacitar funcionários de todas as áreas e departamentos a utilizar ferramentas de IA. A maioria das organizações (89%) reconhece a importância do treinamento, com quase dois terços incorporando diretrizes de IA responsável. O treinamento deve combinar competências técnicas com princípios de responsabilidade, transparência e conformidade regulatória.

Ações para treinar e habilitar:

Alinhe o treinamento com a governança: incorpore diretrizes de IA responsável nos materiais de treinamento, garantindo que as equipes estejam cientes dos requisitos de conformidade, gestão de riscos e transparência.

Personalize o treinamento para diferentes funções: desenvolva módulos de treinamento específicos para cada função, abordando as melhores práticas tanto para os negócios quanto para a IA responsável.

Implementar tendo em mente a responsabilidade.

Adotar a IA em larga escala exige a criação de uma estrutura de governança que assegure seu uso responsável. As organizações precisam alinhar as iniciativas de IA com as políticas de governança já estabelecidas, ao mesmo tempo que ajustam continuamente essas políticas para atender aos padrões regulatórios, operacionais e de IA responsável que estão em constante evolução.

Dois gráficos circulares mostrando que mais de 80% dos entrevistados da pesquisa planejam incluir IA responsável nos padrões de implantação e governança.
Dois gráficos circulares mostrando que mais de 80% dos entrevistados da pesquisa planejam incluir IA responsável nos padrões de implantação e governança.
Dois gráficos circulares mostrando que mais de 80% dos entrevistados da pesquisa planejam incluir IA responsável nos padrões de implantação e governança.

Ações para uma implantação responsável:

  • Fomente uma cultura de responsabilidade: incentive as equipes a compreenderem o impacto da IA nos fluxos de trabalho operacionais e na confiança das partes interessadas, promovendo um senso de responsabilidade em todos os níveis.
  • Atualize constantemente o treinamento: à medida que as estruturas de governança de IA se desenvolvem, é essencial atualizar os programas de treinamento para refletir as novas melhores práticas e mudanças nas regulamentações.

Resumo da adoção

Etapa 1: treinar e capacitar as organizações.

  • Elaborar diretrizes específicas para casos de uso, definindo como e quando utilizar a IA, sempre alinhando com os princípios de IA responsável.
  • Implementar um treinamento abrangente para os grupos relevantes à medida que as soluções são implantadas, incluindo as melhores práticas.
  • Comemorar e compartilhar os sucessos em toda a organização.

Etapa 2: implementar tendo em mente a responsabilidade.

  • Para cada tecnologia, definir os principais requisitos de adoção, como impacto comercial, facilidade de integração e estratégias para mitigação de riscos.
  • Colaborar de perto com líderes empresariais para alinhar as compensações, quando for necessário.
  • Incorporar as principais considerações sobre IA e responsabilidade nas estruturas de governança já existentes, como acesso, controle e funções.

4. Monitorar: supervisão e melhoria contínuas.

Exibição ampliada da etapa de monitoramento na estrutura de inovação da IA responsável — destacando supervisão e rastreamento de desempenho de IA.
Exibição ampliada da etapa de monitoramento na estrutura de inovação da IA responsável — destacando supervisão e rastreamento de desempenho de IA.
Exibição ampliada da etapa de monitoramento na estrutura de inovação da IA responsável — destacando supervisão e rastreamento de desempenho de IA.
À medida que os sistemas de IA avançam para uma implantação em larga escala, o monitoramento e a melhoria contínuos se tornam fundamentais. A fase Monitorar foca o rastreamento em tempo real, as revisões rigorosas de desempenho e uma abordagem proativa de gestão de riscos, garantindo que os sistemas de IA se mantenham eficazes, em conformidade e alinhados com as metas da organização. Ao incorporar métricas de IA responsável e estabelecer um processo de revisão estruturado, as organizações podem se adaptar às crescentes demandas regulatórias e riscos emergentes, enquanto constroem confiança e geram valor operacional sustentado.

Monitorar o desempenho em relação às referências de negócios e IA responsável.

O melhor monitoramento dos resultados de tecnologia combina rastreamento de desempenho automatizado com supervisão humana. Embora muitas organizações já adotem ferramentas de monitoramento em tempo real para avaliar o desempenho dos sistemas de IA, a eficácia dessas ferramentas aumenta quando há uma supervisão humana envolvida. As equipes humanas são mais bem preparadas para analisar dados, identificar riscos e tomar decisões informadas sobre os ajustes necessários.

Embora 69% das organizações utilizem ferramentas de monitoramento em tempo real, elas se mostram significativamente mais eficazes quando complementadas com o julgamento humano. Muitas organizações priorizam métricas técnicas, com 72% focando a precisão e 69% o retorno sobre o investimento (ROI), mas o dimensionamento responsável também exige atenção às questões éticas. A incorporação da supervisão humana assegura transparência e previsibilidade, fortalecendo a confiança tanto interna quanto externamente. O monitoramento também facilita a detecção proativa de preconceitos, com 49% das organizações acompanhando essa métrica e 33% monitorando possíveis impactos negativos. Sem uma abordagem de monitoramento constante e proativa, os sistemas de IA podem prejudicar a integridade e a confiança. Ao aprimorar o monitoramento de desempenho para lidar com riscos técnicos e éticos, as empresas protegem a marca, fortalecem a confiança de usuários e estabelecem uma base sólida para dimensionar a IA de maneira responsável.

Essa colaboração entre tecnologia e pessoas permite que as organizações identifiquem possíveis riscos com antecedência, como imprecisões nos dados, preconceitos emergentes ou falhas de conformidade.

Gráfico de barras mostrando as principais métricas de rastreamento de desempenho e eficácia de IA, incluindo precisão (72%), desempenho de saída (69%) e viés (49%).
Gráfico de barras mostrando as principais métricas de rastreamento de desempenho e eficácia de IA, incluindo precisão (72%), desempenho de saída (69%) e viés (49%).
Gráfico de barras mostrando as principais métricas de rastreamento de desempenho e eficácia de IA, incluindo precisão (72%), desempenho de saída (69%) e viés (49%).

Gerenciamento contínuo de risco.

O gerenciamento de risco em IA é um processo contínuo que deve se adaptar conforme os sistemas de IA evoluem. Adotar uma abordagem estruturada e multifuncional para o gerenciamento de riscos de IA permite que as organizações enfrentem de maneira proativa os riscos comerciais e de reputação. As revisões regulares devem envolver partes interessadas de toda a organização, como cientistas de dados, líderes empresariais e diretores jurídicos/de conformidade, garantindo uma avaliação abrangente do desempenho técnico e das metas de IA responsável.

O gerenciamento de risco em IA é um processo dinâmico, que deve evoluir juntamente com os avanços tecnológicos. 60% das organizações envolvem equipes de dados e governança, enquanto 49% incluem comitês de IA, conformidade e equipes jurídicas, ressaltando a importância da colaboração entre várias funções. Graças a essa abordagem proativa, as organizações podem manter o alinhamento com seus valores internos e com as expectativas externas. O motivo dessa estratégia é construir resiliência, capaz de se adaptar às mudanças regulatórias. Com 68% das organizações priorizando a IA responsável na gestão de riscos, é fundamental a documentação completa e a realização de avaliações de risco contínuas.

Uma representação infográfica dos resultados da pesquisa destacando a importância das considerações sobre uso responsável e ético de IA.
Uma representação infográfica dos resultados da pesquisa destacando a importância das considerações sobre uso responsável e ético de IA.
Uma representação infográfica dos resultados da pesquisa destacando a importância das considerações sobre uso responsável e ético de IA.
Ao estabelecer métricas de desempenho rigorosas e promover uma cultura de gestão de riscos contínua, as organizações podem garantir que as implementações de IA se mantenham alinhadas com as metas de negócios e as prioridades de IA responsável. O monitoramento proativo, combinado com revisões multifuncionais e documentação detalhada, coloca as organizações em uma posição privilegiada para liderar a transformação orientada por IA com confiança e responsabilidade.

Principais ações na gestão de riscos:

  • Estabeleça revisões de risco multifuncionais: realize avaliações de risco periódicas, envolvendo cientistas de dados, responsáveis pela conformidade e especialistas jurídicos, para identificar riscos emergentes com base em dados em tempo real.
  • Acompanhe e relate de maneira consistente: colete feedback contínuo de funcionários e usuários f inais para identificar problemas de usabilidade, preconceitos ou comportamentos inesperados.

Monitorar

Etapa 1: monitorar desempenho.

  • Estabelecer e monitorar métricas de desempenho de IA no longo prazo, abrangendo tanto as metas de negócios quanto de responsabilidade.
  • Implementar uma revisão contínua e debater os resultados para aprimorar constantemente o desempenho dos negócios, mantendo a integridade dos princípios de responsabilidade da organização.

Etapa 2: implementar tendo em mente a responsabilidade.

  • Designar e capacitar funções responsáveis por monitorar regulamentações e padrões de IA em constante evolução (como o Singapore AI-Verify, propostas do Congresso dos EUA, entre outros) e garantir que os padrões internos da empresa sejam atualizados adequadamente.
  • Desenvolver um processo contínuo para identificar e mitigar os riscos associados ao uso de IA.
  • Atualizar regularmente a documentação sobre como a organização está cumprindo os padrões estabelecidos pela empresa.

ESTUDO DE CASO DA ADOBE

Uso interno de IA generativa.

Na Adobe, consideramos a IA generativa como uma tecnologia transformadora, capaz de potencializar a criatividade humana, sem substituí-la. Fomentamos o uso responsável dessa tecnologia internamente, sempre em alinhamento com nossos princípios de ética em IA, que envolvem prestação de contas, responsabilidade e transparência.

Em junho de 2023, a Adobe formou um grupo de trabalho interno, multifuncional e patrocinado pelo CIO e pelo CHRO, para apoiar cada funcionário no descobrimento e no uso seguro, responsável e ágil da IA generativa dentro da empresa. Esse grupo, em colaboração com líderes e especialistas de diversas áreas, se dedica a oferecer orientações sobre a experimentação de IA por funcionários, avaliando os possíveis cenários de aplicação, criando diretrizes adequadas e facilitando o processo de inovação. A iniciativa criou quatro grupos de trabalho focados em personas que representam diferentes casos de uso da IA generativa na Adobe. Além disso, estabeleceu um processo de admissão, uma estrutura de tolerância ao risco da IA generativa e um modelo de revisão de casos de uso, levando em conta aspectos éticos, de segurança, de privacidade e outras questões jurídicas em constante evolução. Foi também disponibilizada uma lista de ferramentas e modelos de IA generativa aprovados para casos de uso específicos, junto com diretrizes para o uso da IA generativa por funcionários. A implementação das diretrizes para IA generativa de fornecedores, prevista para março de 2024, incluiu treinamentos sobre como utilizar a IA generativa e os recursos disponíveis nos produtos selecionados.

Essa iniciativa contribuiu para acelerar o processo de experimentação e aplicação em larga escala sempre que possível, além de permitir uma avaliação abrangente do cenário de IA generativa em toda a empresa. A Adobe segue incentivando o compartilhamento de aprendizados e insights em toda a empresa, visando criar um ecossistema colaborativo para uma descoberta coletiva da tecnologia. O programa continua a se expandir com a integração da IA generativa em nossos próprios produtos, o crescimento da tecnologia e dos modelos de IA generativa, além da evolução contínua das orientações jurídicas e regulatórias. A revisão dos experimentos é acompanhada de perto, e a equipe está desenvolvendo um sistema para monitorar experimentos após a aprovação, incluindo aqueles que são levados à produção para escalabilidade.

Incorporação das melhores práticas em sua organização.

Para adotar, monitorar e otimizar sistemas de IA de maneira responsável, as organizações devem se concentrar em diversas áreas operacionais: fornecer orientação completa a funcionários, avaliar cuidadosamente fornecedores e estabelecer mecanismos avançados de governança de IA. Ao seguir essas práticas, as empresas podem garantir que as respectivas iniciativas de IA atendam não apenas aos padrões regulatórios em constante evolução, mas também se baseiem em governança e gerenciamento de riscos bem estabelecidos, alinhando-se a práticas que promovem confiança, transparência e responsabilidade.

Esta seção detalha as etapas práticas para incluir essas melhores práticas nas operações diárias.

Orientação para o uso de funcionários.

Adaptar as diretrizes de uso de IA para atender às necessidades e aos riscos específicos de sua organização é crucial para garantir uma implementação responsável. Essas diretrizes devem orientar funcionários nos padrões regulatórios e protocolos de governança, alinhando as tecnologias de IA aos compromissos com a segurança dos dados, a transparência e a responsabilidade.

Confidencialidade dos dados.

Defina claramente quando o processamento de dados deve ocorrer localmente ou sob controles rigorosos de acesso para evitar acessos não autorizados. Isso inclui a prevenção do uso de comandos que possam gerar ou manipular informações confidenciais. Essa diretriz protege dados proprietários e assegura a conformidade com as normas de privacidade de dados.

Transparência no uso da IA:

Informe de maneira clara quando a IA estiver envolvida, como na criação de documentos internos, interfaces para clientes ou comunicações externas. Essa prática fortalece a responsabilidade e mantém a confiança na autenticidade e na confiabilidade do conteúdo gerado pela IA, protegendo a imagem e a reputação da empresa.

Políticas de gerenciamento de contas:

Crie políticas claras para o uso de ferramentas de IA generativa que exigem registro de conta, incluindo a definição sobre se é permitido o uso de emails corporativos, especificando quais ferramentas são autorizadas para uso comercial e desestimulando o uso de contas pessoais para tarefas relacionadas ao trabalho. Essas medidas protegem contra o uso indevido e garantem o alinhamento com as políticas gerais de segurança da informação da organização.

Ao adaptar essas diretrizes ao contexto específico da empresa, as equipes podem utilizar ferramentas de IA generativa de maneira segura e responsável, promovendo um ambiente em que inovação e ética caminham juntas.

Avaliação de fornecedores: perguntas de exemplo.

Avaliar fornecedores de IA exige fazer perguntas detalhadas e compreender as respostas esperadas, a fim de garantir que os sistemas deles estejam em conformidade com os padrões de IA responsável, além das exigências jurídicas e regulatórias. As perguntas abaixo foram formuladas para oferecer uma avaliação inicial, permitindo que as organizações façam escolhas informadas sobre possíveis parcerias e minimizem os riscos na adoção de soluções de IA.

Tema
Pergunta ao fornecedor
Justificativa
Exemplo da Adobe
Proveniência e uso de dados
“Quais tipos específicos de dados foram utilizados no desenvolvimento e no treinamento do sistema de IA?”
Essa pergunta oferece insights sobre as fontes, a natureza e a abrangência dos dados usados para treinar os modelos de IA, assegurando que as práticas de dados do fornecedor estejam em conformidade com os padrões de IA responsável do comprador, além de atender aos requisitos jurídicos.
Firefly:a Adobe não inclui conteúdo de usuários corporativos (incluindo entradas e resultados do Firefly) nos conjuntos de dados usados para treinar os modelos principais do Firefly.
Conformidade com propriedade intelectual
“Algum conjunto de dados utilizado tem restrições relacionadas a direitos autorais, propriedade intelectual ou licenciamento?”
Essa pergunta verifica se todas as fontes de dados estão dentro da lei e foram adquiridas por meio de canais aprovados, prevenindo possíveis problemas jurídicos.
Firefly:clientes podem consultar as informações do histórico de licenças a qualquer momento em stock -adobe.com/Dashboard/LicenseHistory quando entram usando as credenciais da Adobe.
Transparência de dados de treinamento e lógica
“Você poderia fornecer uma explicação detalhada sobre os dados de treinamento e a lógica utilizada no desenvolvimento do sistema de IA?”
A transparência nessas áreas ajuda a identificar possíveis preconceitos e oferece uma visão clara do processo de raciocínio do modelo, o que é crucial para avaliar sua confiabilidade e imparcialidade.
Assistente de IA da AEP:a Adobe não utiliza dados de clientes para treinar ou ajustar o serviço OpenAI do Azure.
Clareza dos resultados
“Você poderia fornecer uma descrição em linguagem simples dos resultados do sistema de IA?”
Garantir que os resultados gerados sejam claros para revisores não técnicos facilita uma tomada de decisão eficaz e o uso responsável da tecnologia.
Adobe Firefly:A Adobe gera automaticamenteContent Credentials para determinados ativos gerados pelo Firefly para ajudar a esclarecer que o ativo foi criado usando IA generativa.
Supervisão humana
“Se a revisão humana faz parte do sistema de IA, qual é a extensão e a natureza do envolvimento humano?”
Compreender o equilíbrio entre processos automatizados e o julgamento humano ajuda a avaliar a dinâmica operacional do sistema, além de identificar onde a intervenção humana pode ser necessária para garantir a qualidade e a responsabilidade.
Assistente de IA do Acrobat:a Adobe restringe rigorosamente o acesso a essas informações, permitindo que apenas um número reduzido de funcionários treinados, diretamente envolvidos no desenvolvimento do Serviço de IA generativa do Acrobat, possam acessá-las..
Imparcialidade e avaliação de preconceitos
“Como o sistema de IA foi avaliado em relação a preconceitos e quais foram os resultados dessas avaliações?”
Essa pergunta evidencia o compromisso do fornecedor com práticas de IA justas e os métodos usados para identificar e reduzir preconceitos que possam afetar de maneira desproporcional diferentes grupos demográficos.
Assistente de IA do Acrobat:as equipes da Adobe realizam testes para reduzir o potencial de resultados tendenciosos e prejudiciais em nossos produtos de IA generativa.Consulte o resumo da solução Generative AI Built for Business.
Redução de riscos
“Houve uma avaliação dos possíveis resultados prejudiciais e que medidas foram tomadas para mitigar esses riscos?”
Avaliar as ações proativas de um fornecedor para identificar e resolver possíveis impactos negativos revela como ele lida com a prevenção de danos. Isso garante que o sistema de IA seja testado para operar de maneira segura e responsável.
Assistente de IA da AEP:a Adobe utiliza filtros de conteúdo desenvolvidos internamente para (a) verificar se a entrada (comando) no Assistente de IA da AEP segue as Diretrizes de Usuário da IA Generativa da Adobe e (b) filtrar as respostas geradas que possam violar essas diretrizes, como discurso de ódio e palavrões.
Ao fazer essas perguntas específicas, as organizações podem avaliar fornecedores de IA e tomar decisões informadas que estejam em conformidade com seus padrões de responsabilidade de IA e prioridades operacionais. Essa abordagem ajuda a gerenciar riscos e assegura que os vínculos com fornecedores de IA sejam estabelecidos com base na transparência, na conformidade e na inovação responsável.

Alavancas de governança de IA.

A adoção de uma governança robusta para a IA assegura que os sistemas sejam desenvolvidos, implementados e monitorados de modo a respeitar os valores da organização e os requisitos regulatórios. Há diversos padrões regulatórios em vigor, como o Regulamento de IA da UE (União Europeia) e estruturas como o Singapore’s AI Verify. Nos Estados Unidos, as empresas precisam seguir as leis estaduais de privacidade e o NIST AI Risk Management Framework, que provavelmente servirá de base para futuras regulamentações.

As seguintes estratégias de governança podem auxiliar as organizações a gerenciar os riscos da IA, além de promover a transparência, a responsabilidade e a segurança:

Inventários de IA
Crie inventários detalhados de sistemas de IA, organizando-os conforme perfis de risco e prioridades estratégicas, para servir como um repositório centralizado.
Você tem um inventário completo de seu caso de uso de IA e identificou os riscos relevantes?
Mecanismos de feedback
Implemente canais de feedback eficazes para coletar opiniões de pessoas fora da equipe de desenvolvimento de IA, como usuários finais, clientes ou o público em geral.
Quais meios de feedback você utiliza para ter insights dos usuários finais, de clientes ou do público?
Documentação das limitações do sistema
Registre as limitações dos sistemas de IA, incluindo as lacunas no conhecimento dos modelos e o contexto em que os resultados podem ser usados com confiança.
Você já documentou as limitações conhecidas ou esperadas em seus casos de uso de IA?
Proveniência do conteúdo
Monitore e verifique a origem, o histórico e as alterações nos dados relacionados à IA, incluindo fontes de dados de treinamento, algoritmos aplicados e transformações realizadas.
Como você acompanha a origem, o histórico e as alterações nos dados relacionados à IA, incluindo fontes de dados e transformações da criação ao uso final?
Testes de IA e red teaming
Realize avaliações de riscos, como a exposição não intencional de dados de treinamento, vulnerabilidades à engenharia reversa e riscos ligados à extração de modelos.
Quais práticas de teste foram implementadas para mitigar riscos específicos em seus casos de uso de IA?
Desenvolvimento de software seguro
Os sistemas de IA devem ser incorporados ao ciclo de desenvolvimento de software seguro da organização, seguindo as melhores práticas para codificação e implantação.
Como seu caso de uso de IA segue os protocolos de desenvolvimento seguro adotados pela organização?
Treinamento
O treinamento deve abranger políticas, procedimentos e requisitos de conformidade relevantes, capacitando as partes interessadas para gerenciar os riscos de IA de maneira eficaz e em conformidade com os padrões da organização.
Você já participou de treinamentos focados na governança de IA e na gestão de riscos?
A integração de cada uma dessas melhores práticas nos processos já estabelecidos assegura a adoção, a gestão e a otimização responsáveis das tecnologias de IA. Ao incorporar essas ações, como oferecer orientação sólida a funcionários, avaliar fornecedores de maneira rigorosa e implementar mecanismos completos de governança de IA, as organizações podem criar uma base robusta de práticas que atendem aos padrões de governança e exigências regulatórias. Isso as prepara não só para lidar com os desafios atuais, mas também para expandir a IA de maneira responsável, visando o sucesso no longo prazo.

A implementação responsável cria inovação responsável.

Para aproveitar ao máximo o potencial da IA em uma empresa, é essencial fornecer tecnologias desenvolvidas de maneira responsável, estabelecer diretrizes claras de uso, oferecer treinamento especializado e implementar uma governança sólida. Essa abordagem cria valor comercial, assegurando que as iniciativas de IA atendam aos requisitos regulatórios e mantenham altos padrões de implementação, promovendo uma cultura de IA responsável em toda a organização.

A supervisão contínua e a capacidade de adaptação garantem que as iniciativas de IA permaneçam dentro dos regulamentos. Ao definir indicadores de desempenho, realizar avaliações periódicas e gerenciar riscos de maneira proativa, as empresas podem se antecipar às mudanças regulatórias e preservar a integridade dos projetos de IA.

Com uma visão voltada para o futuro, essa estrutura prepara as organizações para se destacarem como líderes no campo da IA responsável. Com ênfase no impacto, na integração e na ética, essa abordagem constrói o caminho para uma inovação sustentável e um sucesso duradouro.

Recomendado para você

https://main--bacom--adobecom.aem.live/fragments/resources/cards/thank-you-collections/generative-ai