#F8F8F8

IA EMPRESARIAL RESPONSABLE EN ADOBE

Establecer el estándar de IA responsable para las empresas.

El desarrollo de la IA en Adobe se guía por los principios básicos de rendición de cuentas, responsabilidad y transparencia. Estos valores dan forma a cada etapa de nuestro proceso de desarrollo garantizando que nuestras funciones y herramientas que priorizan la IA no solo sean eficientes, sino también fiables incluso para las empresas más grandes.

Principios éticos de la IA

El desarrollo y la implementación responsables de la IA de Adobe se basan en tres principios clave. Este enfoque responsable de la IA capacita a las empresas para dar rienda suelta a la creatividad, acelerar la productividad y ofrecer experiencias de cliente personalizadas a escala, todo ello dentro de una plataforma de IA segura, ética y unificada.

Rendición de cuentas

Asumimos la responsabilidad de los resultados de nuestra tecnología de IA con equipos dedicados a reaccionar ante cualquier inquietud. También realizamos pruebas para detectar posibles daños, tomamos medidas preventivas para mitigarlos y utilizamos sistemas para abordar resultados imprevistos.

Responsabilidad

Evaluamos y consideramos detenidamente el impacto de la implementación de la IA. Nos esforzamos por diseñar con un enfoque inclusivo y evaluar el impacto de los resultados potencialmente injustos, discriminatorios o inexactos que puedan perpetuar sesgos y estereotipos.

Transparencia

Somos transparentes sobre nuestro uso de la IA y ofrecemos a nuestra clientela una imagen clara de nuestras herramientas de IA y su aplicación. Queremos que comprendan cómo utilizamos la IA, su valor y los controles que tienen a su disposición con Adobe.

#f5f5f5

Cómo crea Adobe una IA responsable

Los 5 pilares de la IA responsable de Adobe (Entrenamiento, Pruebas, Evaluaciones de impacto, Supervisión humana diversa y Comentarios) alrededor del logotipo de Adobe

Entrenamiento
La IA empresarial es tan eficaz y precisa como los datos utilizados para entrenarla. Los resultados que se consideran apropiados dependen de los casos de uso individuales, por lo que creamos conjuntos de datos para cumplir con los requisitos específicos para la orquestación de la experiencia de cliente a escala. Esto garantiza que tengamos resultados apropiados para la forma en que se utilizará la IA.
Pruebas
Adobe prueba rigurosa y continuamente las funciones y los productos con tecnología de IA para reducir el riesgo de sesgos o estereotipos perjudiciales en los resultados obtenidos con IA. Esto incluye pruebas automatizadas y evaluación humana.
Evaluaciones de impacto
Los equipos de ingeniería que desarrollan funciones con IA deben presentar una evaluación de impacto de la ética de la IA. Esta evaluación está diseñada para identificar funciones y productos que pueden perpetuar sesgos y estereotipos perjudiciales. Esto permite a nuestro equipo de ética de la IA mantener la velocidad de la innovación y centrarse en las funciones y los productos de nivel empresarial, al tiempo que se cumplen los más altos estándares éticos.
Supervisión humana diversa
Las funciones con IA con el mayor impacto ético potencial son revisadas por una junta de revisión ética de la IA diversa e interdisciplinar. La diversidad en varios datos demográficos es fundamental para ofrecer una variedad de perspectivas e identificar posibles problemas que podrían pasarse por alto.
Comentarios
Quienes usan los productos pueden informar de resultados potencialmente sesgados que luego pueden remediarse a través de mecanismos de comentarios. La IA empresarial es una tecnología en evolución, y queremos trabajar con nuestra comunidad para garantizar que nuestras herramientas y productos sean beneficiosos para todo el mundo. Si tienes alguna pregunta sobre la ética de la IA o quieres informar de un posible problema, ponte en contacto con nuestro equipo.

Más información sobre la IA responsable en Adobe

Content as a Service v3 - Responsible AI - Friday 17 October 2025 at 00:39

¿Alguna pregunta? ¡Tenemos las respuestas!

¿Cómo ayuda Adobe a garantizar la rendición de cuentas de la IA?

Adobe ayuda a garantizar la rendición de cuentas de la IA de la siguiente manera:

  • Estableciendo procesos de gobernanza para supervisar los datos de formación y los modelos de IA, incluido el etiquetado de conjuntos de datos y modelos.
  • Exigiendo una evaluación de impacto de la IA (como parte de nuestro proceso de desarrollo de servicios) para ayudar a garantizar que se realice una revisión ética antes de implementar nuevas tecnologías de IA.
  • Creando una junta de revisión ética de la IA para supervisar la promulgación del desarrollo de la IA y ofrecer una caja de resonancia para cuestiones éticas, al tiempo que se salvaguarda a quienes denuncian.
  • Desarrollando procesos para garantizar la corrección de cualquier impacto negativo de la IA descubierto tras la implementación.
  • Educando a los equipos de ingeniería y responsables de producto sobre cuestiones éticas en IA.
  • Ofreciendo mecanismos de comentarios externos e internos para informar sobre las preocupaciones acerca de nuestras prácticas y funciones de IA.
¿Qué significa para Adobe el desarrollo responsable de la IA?

Adobe cree que el desarrollo responsable de la IA abarca lo siguiente:

  • Diseñar sistemas de IA de forma meditada.
  • Evaluar cómo interactúa con quienes la utilizan.
  • Realizar un análisis exhaustivo para mitigar los sesgos perjudiciales no deseados.
  • Evaluar el impacto humano de la tecnología de IA.

El desarrollo responsable de la IA también requiere anticipar posibles daños, tomar medidas preventivas para mitigarlos, medir y documentar cuándo se produce el daño, y establecer sistemas para supervisar y reaccionar a resultados perjudiciales imprevistos.

¿Cómo remedia Adobe los resultados de los sistemas de IA para evitar sesgos perjudiciales, independientemente de la información de entrada?

Como parte del desarrollo y la implementación de nuestros sistemas de IA, Adobe busca mitigar el sesgo relacionado con los atributos humanos (por ejemplo, raza, género, color, origen étnico o social, características genéticas o de preservación de la identidad, religión o creencia política, geografía, ingresos, discapacidad, edad, orientación sexual y vocaciones). Diseñamos teniendo en cuenta la inclusión. Priorizamos la equidad en situaciones con impactos significativos en la vida de una persona, como el acceso al empleo, la vivienda, el crédito y la información sanitaria. También consideramos si las ventajas de usar la IA superan el riesgo de daño de su uso.

Esta noción de equidad no significa que cada cliente reciba el mismo trato. Algunos de los casos de uso más típicos de la IA segmentan a las personas de formas habituales y aceptables, como en el marketing demográfico o las recomendaciones de productos personalizadas. El desarrollo responsable de la IA significa usar la IA de manera razonable que se adapte a las normas y valores de nuestra sociedad.

¿Cómo busca Adobe la responsabilidad en sus herramientas de medios digitales?
Para afrontar la desinformación, Adobe se compromete a promover herramientas y soluciones de procedencia para aportar más transparencia y confianza al ecosistema digital. Creemos que es fundamental dar a la gente la información para comprender el origen y el ciclo de vida de un contenido digital, incluido si se utilizó la IA en el proceso de edición o creación.
¿Cómo garantiza Adobe la transparencia de la IA?

La transparencia es la divulgación pública razonable, en un lenguaje claro y sencillo, de cómo desarrollamos e implementamos responsablemente la IA en nuestras herramientas. Adobe valora la relación de confianza con nuestra clientela; la transparencia es parte integral de esta relación.

Esta transparencia incluye compartir información sobre cómo o si Adobe recopila y utiliza los activos y los datos de uso de cada cliente para mejorar nuestros productos y servicios, así como la divulgación general de cómo se utilizan los datos y la IA en nuestras herramientas y servicios.