IA EMPRESARIAL RESPONSABLE EN ADOBE
Definir la norma de la IA empresarial responsable
El desarrollo de la IA en Adobe se basa en tres principios fundamentales: rendición de cuentas, responsabilidad y transparencia. Estos valores definen cada fase de nuestro proceso de desarrollo y garantizan que nuestras funciones y herramientas con IA no solamente sean potentes sino también confiables incluso para las empresas más grandes.
Principios éticos de la IA
El desarrollo y la implementación de una IA responsable en Adobe se basa en tres principios clave. Este enfoque responsable para la IA permite que las empresas potencien la creatividad, agilicen la productividad y brinden experiencias del cliente personalizadas y a gran escala, todo en una plataforma de IA segura, ética y unificada.
Rendición de cuentas
Asumimos la responsabilidad de los resultados de nuestra tecnología de IA, y contamos con equipos especializados para responder a cualquier inquietud. También realizamos pruebas para identificar contenido dañino, tomamos medidas proactivas para mitigar los riesgos y utilizamos sistemas para gestionar los resultados inesperados.
Responsabilidad
Evaluamos y consideramos cuidadosamente el impacto de la implementación de la IA. Nos esforzamos por diseñar de forma inclusiva y evaluamos el impacto de los resultados posiblemente injustos, discriminatorios o imprecisos que puedan perpetuar sesgos y estereotipos.
Transparencia
Somos transparentes sobre nuestro uso de la IA y brindamos a nuestros clientes una perspectiva clara sobre nuestras herramientas de IA y sus usos. Queremos que los clientes comprendan cómo usamos la IA, qué valor tiene y qué controles están disponibles en Adobe.
Más información sobre la IA responsable en Adobe
Content as a Service v3 - Responsible AI - Friday 17 October 2025 at 00:39
¿Tienes preguntas? ¡Tenemos las respuestas!
Adobe garantiza la rendición de cuentas de la siguiente forma:
- Establecer procesos de gobernanza para medir los datos de entrenamiento y los modelos de IA, lo que incluye etiquetar los modelos y los conjuntos de datos.
- Exigir la evaluación del impacto de la IA como parte de nuestro proceso de desarrollo de servicios para garantizar que se realice una revisión ética antes de implementar nuevas tecnologías con IA.
- Crear una junta de revisión ética de la IA para supervisar la promulgación del desarrollo de la IA, abrir el diálogo sobre cuestiones de ética y proteger a posibles informantes.
- Crear procesos para corregir los impactos negativos de la IA que se identifican luego de la implementación.
- Capacitar a los ingenieros y los gerentes de producto sobre cuestiones éticas de la IA.
- Ofrecer mecanismos internos y externos para recibir comentarios y denuncias sobre nuestras prácticas y funciones con IA.
En Adobe, consideramos que el desarrollo responsable de la IA abarca lo siguiente:
- Diseñar sistemas de IA de forma cuidadosa.
- Evaluar cómo la IA interactúa con los usuarios finales.
- Ejercer la diligencia debida para mitigar sesgos dañinos.
- Evaluar el impacto que tiene la tecnología de IA en las personas.
El desarrollo responsable de la IA también implica anticiparse a posibles problemas, tomar medidas proactivas para mitigarlos, medir y documentar cuando surgen resultados inesperados o dañinos y establecer sistemas para monitorear y responder a ellos.
Como parte del desarrollo y la implementación de nuestros sistemas de IA, en Adobe buscamos mitigar los sesgos relacionados con los atributos de las personas (por ejemplo, la raza, el género, el color de piel, el origen étnico o social, los rasgos genéticos o de identidad, la religión o las creencias políticas, la geografía, los ingresos, la discapacidad, la edad, la orientación sexual o la vocación). Diseñamos siempre pensando en la inclusividad. Priorizamos la equidad en aquellas situaciones que afectan la vida de una persona, como el acceso a un empleo, una vivienda, un crédito o información de salud. También consideramos si las ventajas de usar la IA superan los riesgos.
Este concepto de equidad no significa que todos los clientes reciben el mismo trato. Algunos de los casos de uso más típicos de la IA segmentan a las personas de formas aceptadas y comunes, como en el marketing demográfico o en las recomendaciones de producto personalizadas. El desarrollo responsable de la IA implica usar la IA de formas razonables que integren las normas y los valores de nuestra sociedad.
La transparencia implica divulgar de forma pública y razonable, en un lenguaje sencillo y claro, cómo desarrollamos e implementamos la IA con responsabilidad en nuestras herramientas. En Adobe, valoramos la relación de confianza que tenemos con nuestros clientes, y la transparencia es un elemento integral de esa relación.
Esta transparencia incluye compartir información sobre la recopilación y el uso de recursos de los clientes, el uso de datos para mejorar nuestros productos y servicios y la explicación general sobre el uso de los datos y la IA en nuestras herramientas y servicios.