#F8F8F8

IA EMPRESARIAL RESPONSABLE EN ADOBE

Definir la norma de la IA empresarial responsable

El desarrollo de la IA en Adobe se basa en tres principios fundamentales: rendición de cuentas, responsabilidad y transparencia. Estos valores definen cada fase de nuestro proceso de desarrollo y garantizan que nuestras funciones y herramientas con IA no solamente sean potentes sino también confiables incluso para las empresas más grandes.

Principios éticos de la IA

El desarrollo y la implementación de una IA responsable en Adobe se basa en tres principios clave. Este enfoque responsable para la IA permite que las empresas potencien la creatividad, agilicen la productividad y brinden experiencias del cliente personalizadas y a gran escala, todo en una plataforma de IA segura, ética y unificada.

Rendición de cuentas

Asumimos la responsabilidad de los resultados de nuestra tecnología de IA, y contamos con equipos especializados para responder a cualquier inquietud. También realizamos pruebas para identificar contenido dañino, tomamos medidas proactivas para mitigar los riesgos y utilizamos sistemas para gestionar los resultados inesperados.

Responsabilidad

Evaluamos y consideramos cuidadosamente el impacto de la implementación de la IA. Nos esforzamos por diseñar de forma inclusiva y evaluamos el impacto de los resultados posiblemente injustos, discriminatorios o imprecisos que puedan perpetuar sesgos y estereotipos.

Transparencia

Somos transparentes sobre nuestro uso de la IA y brindamos a nuestros clientes una perspectiva clara sobre nuestras herramientas de IA y sus usos. Queremos que los clientes comprendan cómo usamos la IA, qué valor tiene y qué controles están disponibles en Adobe.

#f5f5f5

Cómo Adobe desarrolla una IA responsable

Los cinco pilares de la IA responsable en Adobe (entrenamiento, pruebas, evaluación del impacto, supervisión humana diversa y comentarios) en torno al logotipo de Adobe

Entrenamiento
La eficacia y la precisión de la IA empresarial dependen de los datos que se utilizan para entrenarla. Los resultados que se consideran adecuados varían según cada caso, y por ello creamos conjuntos de datos para cumplir con los requisitos específicos de la orquestación de experiencias del cliente a gran escala. De esta forma, garantizamos que los resultados son indicados para el uso que tendrá la IA.
Pruebas
Adobe prueba sus funciones y productos con tecnología de IA de forma rigurosa y continua para reducir el riesgo de que haya sesgos o estereotipos dañinos en los resultados. Esto incluye pruebas automatizadas y evaluación humana.
Evaluación del impacto
Los ingenieros a cargo del desarrollo de funciones con tecnología de IA deben presentar la evaluación del impacto ético de esta tecnología. Esta evaluación está diseñada para identificar las funciones y los productos que podrían perpetuar sesgos y estereotipos dañinos. De esta forma, nuestro equipo de ética de la IA puede seguir innovando rápidamente y enfocarse en las funciones y los productos de nivel empresarial sin dejar de cumplir con los estándares éticos más rigurosos.
Supervisión humana diversa
Contamos con una junta diversa e interfuncional para la revisión de la ética de la IA. Este grupo monitorea las funciones con tecnología de IA que tienen un mayor potencial de impacto ético. Es esencial que haya diversidad entre los distintos grupos demográficos para incluir una variedad de perspectivas y poder identificar posibles problemas.
Comentarios
Si los usuarios reciben resultados sesgados, tienen la opción de notificarlos para que se corrijan mediante mecanismos de retroalimentación. La IA empresarial es una tecnología en evolución, y queremos trabajar con nuestra comunidad para garantizar que nuestras herramientas y productos sean beneficiosos para todos. Si tienes alguna pregunta sobre la ética de nuestra IA o si quieres notificar un problema, contáctanos.

Más información sobre la IA responsable en Adobe

Content as a Service v3 - Responsible AI - Friday 17 October 2025 at 00:39

¿Tienes preguntas? ¡Tenemos las respuestas!

¿Qué hace Adobe para garantizar el principio de rendición de cuentas en la IA?

Adobe garantiza la rendición de cuentas de la siguiente forma:

  • Establecer procesos de gobernanza para medir los datos de entrenamiento y los modelos de IA, lo que incluye etiquetar los modelos y los conjuntos de datos.
  • Exigir la evaluación del impacto de la IA como parte de nuestro proceso de desarrollo de servicios para garantizar que se realice una revisión ética antes de implementar nuevas tecnologías con IA.
  • Crear una junta de revisión ética de la IA para supervisar la promulgación del desarrollo de la IA, abrir el diálogo sobre cuestiones de ética y proteger a posibles informantes.
  • Crear procesos para corregir los impactos negativos de la IA que se identifican luego de la implementación.
  • Capacitar a los ingenieros y los gerentes de producto sobre cuestiones éticas de la IA.
  • Ofrecer mecanismos internos y externos para recibir comentarios y denuncias sobre nuestras prácticas y funciones con IA.
¿Qué significa el desarrollo responsable de la IA en Adobe?

En Adobe, consideramos que el desarrollo responsable de la IA abarca lo siguiente:

  • Diseñar sistemas de IA de forma cuidadosa.
  • Evaluar cómo la IA interactúa con los usuarios finales.
  • Ejercer la diligencia debida para mitigar sesgos dañinos.
  • Evaluar el impacto que tiene la tecnología de IA en las personas.

El desarrollo responsable de la IA también implica anticiparse a posibles problemas, tomar medidas proactivas para mitigarlos, medir y documentar cuando surgen resultados inesperados o dañinos y establecer sistemas para monitorear y responder a ellos.

¿Qué hace Adobe para evitar que los sistemas de IA generen resultados con sesgos dañinos sin importar la indicación que reciben?

Como parte del desarrollo y la implementación de nuestros sistemas de IA, en Adobe buscamos mitigar los sesgos relacionados con los atributos de las personas (por ejemplo, la raza, el género, el color de piel, el origen étnico o social, los rasgos genéticos o de identidad, la religión o las creencias políticas, la geografía, los ingresos, la discapacidad, la edad, la orientación sexual o la vocación). Diseñamos siempre pensando en la inclusividad. Priorizamos la equidad en aquellas situaciones que afectan la vida de una persona, como el acceso a un empleo, una vivienda, un crédito o información de salud. También consideramos si las ventajas de usar la IA superan los riesgos.

Este concepto de equidad no significa que todos los clientes reciben el mismo trato. Algunos de los casos de uso más típicos de la IA segmentan a las personas de formas aceptadas y comunes, como en el marketing demográfico o en las recomendaciones de producto personalizadas. El desarrollo responsable de la IA implica usar la IA de formas razonables que integren las normas y los valores de nuestra sociedad.

¿Cómo incorpora Adobe la responsabilidad en sus herramientas de medios digitales?
Para evitar la desinformación, Adobe se compromete a promover herramientas y soluciones de verificación de la procedencia para brindar más transparencia y confianza al ecosistema digital. Consideramos que es fundamental que las personas entiendan el origen y el recorrido de cada elemento de contenido digital, y esto incluye si se utilizó la IA en el proceso de creación o edición.
¿Qué hace Adobe para garantizar la transparencia de la IA?

La transparencia implica divulgar de forma pública y razonable, en un lenguaje sencillo y claro, cómo desarrollamos e implementamos la IA con responsabilidad en nuestras herramientas. En Adobe, valoramos la relación de confianza que tenemos con nuestros clientes, y la transparencia es un elemento integral de esa relación.

Esta transparencia incluye compartir información sobre la recopilación y el uso de recursos de los clientes, el uso de datos para mejorar nuestros productos y servicios y la explicación general sobre el uso de los datos y la IA en nuestras herramientas y servicios.