#F8F8F8

ADOBE E SUA IA RESPONSÁVEL PARA EMPRESAS

Definição do padrão de IA responsável para empresas.

Responsabilidade, prestação de contas e transparência são os princípios fundamentais que guiam a Adobe ao desenvolver sua IA. Esses valores moldam todas as etapas do nosso processo de desenvolvimento, o que garante que nossos recursos e ferramentas baseados em IA sejam eficientes e confiáveis, inclusive para grandes corporações.

Princípios éticos da IA.

A Adobe tem como base três princípios fundamentais ao desenvolver e implementar a IA responsável. Essa abordagem responsável da IA permite que as corporações tenham mais liberdade na hora de criar, acelerem a produtividade e ofereçam experiências personalizadas aos clientes de modo dimensionável, tudo isso dentro de uma plataforma de IA segura, ética e unificada.

Prestação de contas.

Assumimos a responsabilidade pelos resultados de nossa tecnologia de IA com equipes dedicadas a responder às preocupações. Também testamos possíveis danos, tomamos medidas preventivas para mitigá-los e usamos sistemas para lidar com resultados inesperados.

Responsabilidade.

Avaliamos e consideramos cuidadosamente o impacto da implementação da IA. Concentramos esforços para oferecer inclusão e avaliamos o impacto dos resultados potencialmente injustos, discriminatórios ou imprecisos que possam perpetuar preconceitos e estereótipos.

Transparência.

Somos transparentes em relação ao uso da IA e oferecemos aos nossos clientes uma visão clara de nossas ferramentas de IA e sua aplicação. Queremos que entendam como usamos a IA, o valor dela e os controles disponibilizados pela Adobe.

#f5f5f5

Processo de criação da IA responsável da Adobe.

Os cinco pilares da IA responsável da Adobe (Treinamento, Testes, Avaliações do impacto, Supervisão humana diversa, Feedback) exibidos ao redor do logotipo da Adobe

Treinamento
A eficácia e a precisão da IA corporativa dependem diretamente dos dados usados para treiná-la. O resultado ideal depende de cada caso de uso em particular, por isso criamos conjuntos de dados para atender aos requisitos específicos de orquestração de experiências dos clientes de modo dimensionável. Assim garantimos que os resultados sejam coerentes com a aplicação prevista da IA.
Testes
A Adobe testa de maneira contínua e rigorosa os recursos e produtos viabilizados por IA com o objetivo de reduzir o risco de perpetuar preconceitos ou estereótipos prejudiciais nos resultados impulsionados por IA. Isso inclui testes automatizados e avaliação humana.
Avaliações do impacto
Os engenheiros que desenvolvem recursos viabilizados por IA devem apresentar uma avaliação de impacto ético da IA. Essa avaliação foi desenvolvida para identificar recursos e produtos que podem perpetuar preconceitos e estereótipos prejudiciais. Assim nossa equipe de ética da IA pode continuar inovando com rapidez e manter o foco em recursos e produtos corporativos ao mesmo tempo que atende aos mais altos padrões éticos.
Supervisão humana diversa
Os recursos viabilizados por IA com o maior potencial de impacto ético são analisados por um conselho diversificado e multifuncional de revisão da ética da IA. Contar com a diversidade de vários aspectos demográficos é fundamental para proporcionar uma variedade de perspectivas e identificar possíveis problemas que, sem essa visão diversificada, poderiam ser negligenciados.
Feedback
Os usuários podem relatar resultados potencialmente tendenciosos que podem ser corrigidos por meio de mecanismos de feedback. A IA corporativa é uma tecnologia que não para de evoluir e queremos trabalhar em conjunto com nossa comunidade para garantir que nossas ferramentas e produtos sejam benéficos para todos. Se tiver alguma dúvida sobre a ética da IA ou quiser relatar um possível problema, fale conosco.

Saiba mais sobre a IA responsável da Adobe.

Content as a Service v3 - Responsible AI - Friday 17 October 2025 at 00:39

Dúvidas? Nós temos as respostas.

Como a Adobe ajuda a garantir a responsabilidade da IA?

A Adobe ajuda a garantir a responsabilidade da IA ao:

  • Estabelecer processos de governança para rastrear dados de treinamento e modelos de IA, incluindo a criação de rótulos dos conjuntos de dados e modelos.
  • Exigir uma avaliação de impacto da IA (como parte do processo de desenvolvimento de nossos serviços) para ajudar a garantir que uma análise ética seja realizada antes de implementarmos novas tecnologias de IA.
  • Criar um conselho de revisão da ética da IA para supervisionar a promulgação do desenvolvimento da IA e oferecer um espaço de consulta para questões éticas, protegendo os denunciantes.
  • Desenvolver processos para garantir a remediação de quaisquer impactos negativos da IA detectados após a implementação.
  • Instruir engenheiros e gerentes de produto sobre questões relacionadas à ética da IA.
  • Oferecer mecanismos de feedback externos e internos para relatar preocupações sobre nossas práticas e recursos de IA.
O que significa desenvolvimento responsável de IA para a Adobe?

A Adobe acredita que o desenvolvimento responsável de IA abrange os seguintes aspectos:

  • Desenvolver sistemas de IA com extremo cuidado.
  • Avaliar como ela interage com os usuários finais.
  • Exercer a devida diligência para mitigar preconceitos intoleráveis e prejudiciais.
  • Avaliar o impacto humano da tecnologia de IA.

O desenvolvimento responsável da IA também requer prever possíveis danos, bem como adotar medidas preventivas para atenuá-los, avaliar e documentar a ocorrência de tais danos e estabelecer sistemas para monitorar e responder a resultados prejudiciais imprevistos.

Como a Adobe corrige os resultados dos sistemas de IA no que se refere à parcialidade prejudicial, independentemente dos dados de entrada?

Como parte do desenvolvimento e da implantação dos sistemas de IA, a Adobe procura atenuar a parcialidade relacionada a atributos humanos (por exemplo, raça, gênero, cor, origem étnica ou social, características genéticas ou de preservação de identidade, religião ou crença política, geografia, renda, deficiência, idade, orientação sexual e vocações). A inclusão faz parte do nosso processo de desenvolvimento. Priorizamos a justiça em situações com impactos significativos na vida de um indivíduo, como acesso a emprego, moradia, crédito e informações sobre saúde. Também levamos em consideração se as vantagens superam o risco de danos decorrentes do uso da IA.

Justiça não significa tratar todos os clientes do mesmo modo, mas sim tratar cada um conforme suas necessidades. Alguns dos casos de uso mais comuns da IA segmentam indivíduos de maneiras comuns e aceitáveis, como no marketing demográfico ou em recomendações personalizadas de produtos. O desenvolvimento responsável da IA significa usar a IA de maneira sensata que respeita as normas e os valores da nossa sociedade.

Qual a abordagem responsável da Adobe para suas ferramentas de mídia digital?
Para combater a desinformação, a Adobe está comprometida em desenvolver ferramentas e soluções de rastreabilidade dos dados para que o ecossistema digital seja mais transparente e confiável. Acreditamos ser fundamental que as pessoas tenham as informações necessárias para entender a origem e o ciclo de vida de um conteúdo digital, incluindo se a IA foi utilizada no processo de edição ou criação.
De que modo a Adobe garante a transparência da IA?

Transparência é a divulgação pública cabível, em linguagem clara e simples, de como desenvolvemos e implantamos a IA de modo responsável em nossas ferramentas. A Adobe valoriza o relacionamento de confiança que temos com nossos clientes e a transparência é parte integrante desse relacionamento.

O compartilhamento de informações sobre como ou se a Adobe coleta e usa ativos de clientes e dados de uso para melhorar produtos e serviços, bem como a divulgação geral de como os dados e a IA são usados em ferramentas e serviços são exemplos da transparência da Adobe.