Adobe ayuda a garantizar la rendición de cuentas de la IA de la siguiente manera:
- Estableciendo procesos de gobernanza para supervisar los datos de formación y los modelos de IA, incluido el etiquetado de conjuntos de datos y modelos.
- Exigiendo una evaluación de impacto de la IA (como parte de nuestro proceso de desarrollo de servicios) para ayudar a garantizar que se realice una revisión ética antes de implementar nuevas tecnologías de IA.
- Creando una junta de revisión ética de la IA para supervisar la promulgación del desarrollo de la IA y ofrecer una caja de resonancia para cuestiones éticas, al tiempo que se salvaguarda a quienes denuncian.
- Desarrollando procesos para garantizar la corrección de cualquier impacto negativo de la IA descubierto tras la implementación.
- Educando a los equipos de ingeniería y responsables de producto sobre cuestiones éticas en IA.
- Ofreciendo mecanismos de comentarios externos e internos para informar sobre las preocupaciones acerca de nuestras prácticas y funciones de IA.
Adobe cree que el desarrollo responsable de la IA abarca lo siguiente:
- Diseñar sistemas de IA de forma meditada.
- Evaluar cómo interactúa con quienes la utilizan.
- Realizar un análisis exhaustivo para mitigar los sesgos perjudiciales no deseados.
- Evaluar el impacto humano de la tecnología de IA.
El desarrollo responsable de la IA también requiere anticipar posibles daños, tomar medidas preventivas para mitigarlos, medir y documentar cuándo se produce el daño, y establecer sistemas para supervisar y reaccionar a resultados perjudiciales imprevistos.
Como parte del desarrollo y la implementación de nuestros sistemas de IA, Adobe busca mitigar el sesgo relacionado con los atributos humanos (por ejemplo, raza, género, color, origen étnico o social, características genéticas o de preservación de la identidad, religión o creencia política, geografía, ingresos, discapacidad, edad, orientación sexual y vocaciones). Diseñamos teniendo en cuenta la inclusión. Priorizamos la equidad en situaciones con impactos significativos en la vida de una persona, como el acceso al empleo, la vivienda, el crédito y la información sanitaria. También consideramos si las ventajas de usar la IA superan el riesgo de daño de su uso.
Esta noción de equidad no significa que cada cliente reciba el mismo trato. Algunos de los casos de uso más típicos de la IA segmentan a las personas de formas habituales y aceptables, como en el marketing demográfico o las recomendaciones de productos personalizadas. El desarrollo responsable de la IA significa usar la IA de manera razonable que se adapte a las normas y valores de nuestra sociedad.
Para afrontar la desinformación, Adobe se compromete a promover herramientas y soluciones de procedencia para aportar más transparencia y confianza al ecosistema digital. Creemos que es fundamental dar a la gente la información para comprender el origen y el ciclo de vida de un contenido digital, incluido si se utilizó la IA en el proceso de edición o creación.
La transparencia es la divulgación pública razonable, en un lenguaje claro y sencillo, de cómo desarrollamos e implementamos responsablemente la IA en nuestras herramientas. Adobe valora la relación de confianza con nuestra clientela; la transparencia es parte integral de esta relación.
Esta transparencia incluye compartir información sobre cómo o si Adobe recopila y utiliza los activos y los datos de uso de cada cliente para mejorar nuestros productos y servicios, así como la divulgación general de cómo se utilizan los datos y la IA en nuestras herramientas y servicios.