#F8F8F8

La grande svolta dell’IA

Come adottarla in modo responsabile

Il logo rosso di Adobe su sfondo nero, con icone fluttuanti che rappresentano i parametri dell'intelligenza artificiale responsabile.
#F8F8F8

La strada verso un'innovazione basata su un'IA responsabile

In questa guida scoprirai gli strumenti, la strategia e l'approccio giusti per valutare, testare, adottare e monitorare efficacemente le soluzioni di intelligenza artificiale per la tua organizzazione.

L’assoluta necessità di un’adozione responsabile dell’IA

Mentre l’IA diventa l’elemento propulsore di una trasformazione di settore, i vertici delle aziende devono far fronte alla necessità inedita di innovare rapidamente, reagire alla concorrenza e incrementare l’efficienza operativa. Tuttavia, la gara all’adozione dell’IA introduce nuovi rischi. Un’implementazione rapida dell’IA non accompagnata da un’attenta supervisione potrebbe causare passi falsi a livello normativo, interruzioni dell’attività e danni reputazionali a lungo termine. Trovare il giusto equilibrio tra velocità e responsabilità nell’adozione non è più solo conveniente, ma indispensabile a livello strategico.

La governance dell’IA e la gestione dei suoi rischi appare spesso come un’impresa titanica. Tra nuovi quadri di riferimento, linee guida e politiche, oltre all’evoluzione delle normative internazionali e locali, queste complessità tendono a rendere confusi i primi passi per le aziende e a creare fin da subito difficoltà per gli stakeholder. L’esperienza di Adobe per quanto riguarda l’innovazione responsabile, basata sui nostri principi di etica dell’IA, ovvero affidabilità, responsabilità e trasparenza, ci ha fornito le conoscenze necessarie per affrontare queste sfide.

L’esperienza ci ha dimostrato che, nonostante il cammino verso un’innovazione responsabile con l’IA possa sembrare arduo, con l’approccio, la strategia e gli strumenti giusti raggiungere il traguardo è possibile.

Nel definire le strategie per l’IA una delle decisioni fondamentali che le aziende si trovano ad affrontare è scegliere se acquistare una soluzione, adattarne una o svilupparla da zero, o ancora combinare questi tre metodi. Il seguente approccio, incentrato sull’acquisto di soluzioni di IA esterne, vuole partire da valori e pratiche di business esistenti e adeguarsi alle esigenze odierne degli stakeholder. Il framework, elaborato sulla base di ricerche indipendenti e interviste con esperti sulla governance dell’IA, offre un piano d’azione concreto che consente alle aziende di valutare la propria situazione e adottare best practice per introdurre principi d’uso responsabile in tutti gli ambiti. Include passaggi pratici per definire linee guida per l’uso dell’IA generativa da parte del personale, valutare i fornitori con domande efficaci e aggiornare i processi di governance dell’IA per stare al passo con l’evoluzione del settore.

Non importa a che punto si trova la tua azienda, se state valutando la vostra preparazione all’IA o rifinendo le strategie esistenti: questo framework offre un approccio collaudato che, coniugando l’ingegno umano e una governance d’avanguardia, permette un’espansione responsabile. Con questa roadmap le aziende possono valutare, sperimentare, adottare e monitorare le soluzioni di IA in modo efficace, costruendo una base resiliente che ispiri fiducia, riduca il rischio e generi un valore duraturo per il business.

Panoramica: un futuro etico e scalabile con l’IA

Panoramica in quattro fasi per un'innovazione basata su un'IA responsabile: valuta, sperimenta, monitora e adotta (ciascuna fase rappresentata con mani che interagiscono con elementi tecnologici).
Panoramica in quattro fasi per un'innovazione basata su un'IA responsabile: valuta, sperimenta, monitora e adotta (ciascuna fase rappresentata con mani che interagiscono con elementi tecnologici).
Panoramica in quattro fasi per un'innovazione basata su un'IA responsabile: valuta, sperimenta, monitora e adotta (ciascuna fase rappresentata con mani che interagiscono con elementi tecnologici).

Per adottare l’IA generativa con successo non basta seguire una serie di passaggi: serve un approccio strategico e strutturato in più fasi, in cui ognuna si fonda sulla precedente, creando le basi per un’innovazione sostenibile e per pratiche di IA etiche. Questo framework è costituito da elementi di base interconnessi, pensati per integrare pratiche di IA responsabili in ogni fase, dalla valutazione della preparazione aziendale all’espansione efficace e al monitoraggio continuo dei sistemi.

Anziché considerare l’adozione dell’IA come un processo da applicare, il framework si incentra sullo sviluppo di sistemi che si evolvono in armonia con le esigenze aziendali. Mette in evidenza l’equilibrio critico tra supervisione umana e tecnologia avanzata e permette alle aziende di sfruttare il potenziale dell’IA senza compromettere gli obiettivi etici, normativi e operativi.

Ciascuna fase del framework (valutazione della preparazione dell’azienda, esecuzione responsabile di test, espansione dell’adozione e monitoraggio continuo) supporta il successo a lungo termine, con pilastri integrati che si rinforzano a vicenda. Integrando pratiche responsabili in ogni fase, le aziende possono destreggiarsi tra le complessità dell’adozione dell’IA e al tempo stesso rafforzare fiducia, trasparenza e affidabilità.

Un solido fondamento di ricerca e competenza

Su incarico di Adobe, una società di ricerca indipendente ha condotto un sondaggio sull’adozione dell’IA generativa, intervistando oltre 200 responsabili di IT, organizzazione e conformità in vari settori. Dalla ricerca sono emerse le attuali pratiche, problematiche e strategie efficaci per l’adozione dell’IA. Inoltre, Adobe ha condotto interviste approfondite con esperti del settore e analizzato standard globali, quali la legge sull’IA dell’Unione europea, l’AI Risk Management Framework del National Institute of Standards and Technology, l’AI Verify di Singapore, la norma IEEE 7000 e la norma ISO 42001. In questo modo, il framework risulta applicabile a prescindere dal settore, dalle dimensioni dell’azienda o dal livello di adozione dell’IA.

1. Valutazione: preparazione dell’azienda e scelta di un’IA sviluppata in modo responsabile

Vista ingrandita del passaggio di valutazione nel framework sull'innovazione basata su un'IA responsabile, con enfasi sulla preparazione e valutazione della tecnologia IA.
Vista ingrandita del passaggio di valutazione nel framework sull'innovazione basata su un'IA responsabile, con enfasi sulla preparazione e valutazione della tecnologia IA.
Vista ingrandita del passaggio di valutazione nel framework sull'innovazione basata su un'IA responsabile, con enfasi sulla preparazione e valutazione della tecnologia IA.
L’adozione responsabile dell’IA inizia dalle persone alla guida dell’iniziativa. Durante la fase di valutazione, chi prende le decisioni determina il ruolo dell’IA rispetto alle priorità strategiche servendosi degli strumenti, dei dati e degli insight necessari. Le figure con responsabilità trasversali esaminano l’infrastruttura tecnica dell’azienda, i quadri di riferimento per la governance e il livello di padronanza dell’IA per stimare il livello di preparazione complessivo.

Valuta la preparazione dell’azienda

Nonostante numerose aziende abbiano mosso i primi passi nell’adozione dell’IA, solo il 21% di quelle intervistate ha definito in modo esaustivo le proprie priorità per un’IA responsabile, mentre il 78% è ancora in fase di pianificazione o di sviluppo attivo. Emerge un chiaro bisogno di approcci alla preparazione. Il personale alla guida di IT, conformità, gestione del rischio e strategia ha un ruolo fondamentale nel porre le basi di un’IA responsabile. Si comincia con un’analisi completa dei quadri di riferimento per la governance e del livello di padronanza dell’IA per individuare eventuali lacune che potrebbero influire sull’adozione.

Le aziende devono adottare un approccio olistico in questa fase, combinando iniziative guidate dalla dirigenza e feedback delle persone che usano l’IA ogni giorno.

Preparazione: azioni concrete

  • Esamina la preparazione sotto ogni aspetto.Valuta l’infrastruttura tecnica dell’azienda, gli standard di governance, le politiche sull’IA, i quadri di riferimento per l’innovazione responsabile e le pratiche di conformità per individuare i punti di forza e i margini di miglioramento e garantire l’allineamento sia agli obiettivi strategici sia alla necessità di un’adozione responsabile dell’IA.
  • Individua e risolvi le lacune critiche in modo collaborativo.Documenta le lacune delle politiche di IA rispetto agli standard legali, di sicurezza, privacy, conformità e trasparenza, creando team interdisciplinari (con rappresentanti dei reparti IT, affari legali, conformità e business) che definiscano le priorità dei passi successivi.
  • Istituisci team di governance e dotali dei mezzi necessari.Crea team incaricati di supervisionare la governance dell’IA e verificare la conformità rispetto agli standard interni per l’uso responsabile e rispetto ai quadri normativi esterni. Conferisci loro le facoltà e le risorse necessarie per gestire i rischi in modo proattivo e adeguarsi all’evoluzione dei requisiti.

Scegli un’IA sviluppata in modo responsabile

Comincia con un esame meticoloso degli standard di governance aziendali esistenti, che probabilmente trattano già gli aspetti essenziali, come privacy, sicurezza, accessibilità e tematiche legali. Gli standard globali, come il Regolamento generale sulla protezione dei dati (GDPR), e i quadri di riferimento specifici per l’IA, concorrono al mantenimento della conformità e alla supervisione dei rischi in molte aziende. Inoltre, è necessario integrare negli standard di governance le politiche locali e le norme di settore specifiche, quali gli audit dell’IA e gli standard di responsabilità.

Grafico a barre che mostra GDPR, linee guida specifiche per l'IA e pratiche di IA responsabile come primi standard o certificazioni di sicurezza e privacy IA.
Grafico a barre che mostra GDPR, linee guida specifiche per l'IA e pratiche di IA responsabile come primi standard o certificazioni di sicurezza e privacy IA.
Grafico a barre che mostra GDPR, linee guida specifiche per l'IA e pratiche di IA responsabile come primi standard o certificazioni di sicurezza e privacy IA.

Una volta definite le aspettative in merito a un’IA responsabile e i quadri di riferimento per la governance, bisogna stabilire i criteri per scegliere tecnologie sviluppate in modo responsabile. Questi criteri devono tenere conto degli standard esistenti e concentrarsi sulle specificità legate all’IA generativa, come trasparenza dell’origine dei dati, precisione dell’output, licenza dei dati di addestramento, limitazione dei bias e adattamento culturale.

In base al nostro studio, questi sono i principali criteri utilizzati dalle aziende per valutare una tecnologia di IA:

1. Valutazione dei dati di addestramento (72%)

2. Informazioni sull’utilizzo dell’IA (63%)

3. Limitazione dei danni (60%)

4. Trasparenza dell’origine dei dati (55%)

5. Limitazione dei bias (50%)

Questi fattori garantiscono che le tecnologie scelte soddisfino sia le esigenze di business sia le responsibilità etiche, favorendo il successo aziendale a lungo termine.

È bene sviluppare criteri di selezione mirati, che rendano le soluzioni di IA conformi tanto agli obiettivi aziendali strategici quanto ai principi dell’IA responsabile e pongano l’accento su questi aspetti:

Trasparenza

Garantire che i processi relativi all’IA siano spiegabili e tracciabili.

Precisione

Mantenere standard elevati di fedeltà dei dati e affidabilità predittiva.

Adattamento culturale

Adattare i sistemi di IA in modo da rispettare contesti culturali e geografici diversi.

Limitazione dei bias

Limitare attivamente i bias per promuovere risultati equi e giusti.

Documentare ogni fase del processo di valutazione e selezione favorisce l’adattabilità e l’affidabilità, creando un modello di governance flessibile che si può adeguare ai progressi dell’IA e alle modifiche normative. Ecco un riepilogo dei passaggi da seguire nella fase di valutazione:

Valutazione

Passaggio 1: valuta la preparazione dell’azienda.

  • Definisci e diffondi gli standard aziendali sull’uso responsabile della tecnologia, inclusa l’IA.
  • Incarica il comitato aziendale trasversale e/o il o la CIO di esaminare i sistemi e i processi di business attuali per individuare le aree che trarrebbero il maggior vantaggio da un’adozione responsabile dell’IA.
  • Raccogli le informazioni fornite dalle figure responsabili dell’azienda e dei vari reparti in merito ad altri casi d’uso da prendere in considerazione per l’adozione responsabile.

Passaggio 2: scegli un’IA sviluppata in modo responsabile.

  • Esamina gli standard di governance esistenti su privacy, sicurezza, accessibilità e aspetti legali rispetto alle considerazioni sull’IA.
  • Sviluppa criteri di selezione che integrino gli standard definiti in precedenza, conformi alle aspettative per un’IA responsabile, concentrandoti su trasparenza, precisione, bias, adattamento culturale e conformità.
  • Valuta le tecnologie di IA e scegli quelle che soddisfano maggiormente i criteri definiti e le esigenze aziendali, documentando il processo decisionale.

2. Progetti pilota: individuare e testare casi d’uso ad alto impatto

Vista mirata della fase pilota nell'innovazione dell'IA responsabile: focus su sperimentazione e prestazioni tecnologiche.
Vista mirata della fase pilota nell'innovazione dell'IA responsabile: focus su sperimentazione e prestazioni tecnologiche.
Vista mirata della fase pilota nell'innovazione dell'IA responsabile: focus su sperimentazione e prestazioni tecnologiche.

La fase pilota crea un ponte tra sperimentazione con l’IA e realtà operativa. Consente agli stakeholder principali di valutare le prestazioni della tecnologia rispetto agli obiettivi aziendali e a quelli per l’IA responsabile. Non si limita a testare la fattibilità tecnica, ma si focalizza sul permettere a figure responsabili e stakeholder principali di utilizzare direttamente la tecnologia per osservarne gli effetti. L’obiettivo è consentire alle persone di lavorare con l’IA, prendere decisioni consapevoli sulla sua scalabilità e garantire la conformità agli standard normativi, etici e operativi.

I progetti pilota offrono la possibilità di mettere alla prova i sistemi di IA in situ e aiutano le aziende a capire se siano necessarie verifiche dell’affidabilità o documentazione per la trasparenza, oltre a determinare le prestazioni effettive delle nuove funzionalità rispetto alle aspettative. Attraverso la documentazione di insight e la raccolta di informazioni actionable, le aziende definiscono una roadmap per estendere in modo responsabile l’uso dell’IA, gettando le basi per supportare obiettivi sia a breve sia a lungo termine.

Individua e prepara i casi d’uso prioritari

Per sviluppare un business case efficace per l’IA, bisogna coinvolgere gli stakeholder principali e il personale in prima linea per delineare un quadro completo del potenziale di questa tecnologia. La partecipazione fin dalle prime fasi delle persone che la utilizzeranno direttamente consente di individuare i casi d’uso ad alto impatto, dove l’IA offrirebbe vantaggi tangibili, come la creazione di contenuti per il marketing, la codifica, l’automazione dei flussi di lavoro e la gestione dei dati.

  • Pensa ai processi specifici, non ai ruoli:anziché definire i casi d’uso a partire dai ruoli del personale, poni l’attenzione sui processi ottimizzabili grazie all’IA: per esempio, invece di “IA per i team di sviluppo”, opta per “codifica assistita dall’IA per automatizzare la revisione ordinaria del codice e il rilevamento di errori”.
  • Definisci metriche misurabili per l’uso e la riduzione dei costi:il ROI è importante, ma i progetti pilota sull’IA devono anche porre l’accento sui risultati in senso lato, come la produttività, il time-tomarket, la soddisfazione del personale e il miglioramento della customer experience. Queste metriche prendono spesso il nome di “ritorno sull’esperienza”.
  • Aumenta l’impatto al di là dei vantaggi a breve termine:presenta l’adozione dell’IA come un fattore di trasformazione a lungo termine. I casi d’uso non devono solo risolvere esigenze operative immediate, ma anche adeguarsi a obiettivi strategici come la trasformazione digitale o la differenziazione dalla concorrenza.

Sperimenta considerando i criteri di business e di IA responsabile

Valutare i progetti pilota attraverso la duplice lente delle prestazioni di business e dei criteri per un’IA responsabile assicura che siano soddisfatti sia gli obiettivi operativi sia i requisiti per l’uso responsabile. Oltre la metà (54%) delle aziende intervistate ha definito un livello di rischio accettabile per i casi d’uso prioritari. Le aziende devono documentare queste valutazioni in modo sistematico e raccogliere le conoscenze acquisite per orientare i futuri progetti di IA. Questo approccio strutturato crea delle basi solide per un’implementazione scalabile dell’IA.

Progetti pilota: azioni concrete

  • Stabilisci parametri a livello di business e di IA responsabile:definisci obiettivi operativi, per esempio di produttività e riduzione dei costi, e metriche di IA responsabile, quali trasparenza e correttezza.
  • Determina soglie di rischio:fissa dei parametri di rischio e crea un framework per le valutazioni continuative per gestire e ridurre efficacemente i rischi legati all’IA.
  • Raccogli e condividi le conoscenze acquisite:sviluppa un processo standard per documentare i risultati dei progetti pilota a favore di una maggiore trasparenza e per favorire l’espansione futura.

Progetti pilota

Passaggio 1: individua i casi d’uso prioritari.

  • A partire dai casi d’uso prioritari per il business, individua 2-3 progetti pilota in cui l’etica dell’IA e la responsabilità sono importanti.
  • Per questi casi d’uso, definisci metriche e soglie per monitorare sia i parametri di business sia quelli di IA responsabile.

Passaggio 2: sperimenta considerando i criteri di business e di IA responsabile.

  • Esegui progetti pilota effettuando se necessario ulteriori test e verifiche tecniche, di business e sulla responsabilità.
  • Valuta i risultati di questi progetti sulla base di metriche e soglie predefinite sulle aspettative in termini di business e IA responsabile, documentando le conoscenze acquisite per definire futuri approcci alla valutazione e ai test.
  • Procedi con la fase di acquisto/adozione in base ai risultati dei progetti pilota e alle conoscenze ricavate.

3. Adozione: integrare l’IA in modo responsabile nell’azienda

La fase di adozione segna la transizione dal progetto pilota all’integrazione in tutta l’azienda, con l’obiettivo di passare da applicazioni sperimentali a sistemi di IA pienamente operativi e implementare la tecnologia in modo responsabile trasformando quanto appreso durante i progetti pilota in pratiche effettive.
La fase di adozione segna la transizione dal progetto pilota all’integrazione in tutta l’azienda, con l’obiettivo di passare da applicazioni sperimentali a sistemi di IA pienamente operativi e implementare la tecnologia in modo responsabile trasformando quanto appreso durante i progetti pilota in pratiche effettive.
Fase di adozione evidenziata nel framework di innovazione basata sull'IA responsabile, che mostra l'integrazione dell'IA in tutta l'organizzazione.

La fase di adozione segna la transizione dal progetto pilota all’integrazione in tutta l’azienda, con l’obiettivo di passare da applicazioni sperimentali a sistemi di IA pienamente operativi e implementare la tecnologia in modo responsabile trasformando quanto appreso durante i progetti pilota in pratiche effettive.

In questa fase, il personale assume un ruolo attivo nella gestione dell’IA all’interno dei flussi di lavoro esistenti e, sulla base dell’esperienza pratica durante la fase pilota, concretizza l’adozione della tecnologia.

Offri formazione e supporto

Per estendere efficacemente l’adozione dell’IA, il personale deve essere competente e comprenderne sia il potenziale sia le responsabilità etiche derivanti dal suo utilizzo. È necessario organizzare programmi formativi mirati per aiutare tutte le figure e i reparti aziendali a sfruttare gli strumenti di IA. Molte aziende (89%) sono consapevoli dell’importanza della formazione e quasi due terzi integrano in quest’ultima le linee guida per un’IA responsabile. Le formazioni devono coniugare le capacità tecniche con i principi di affidabilità, trasparenza e conformità normativa.

Formazione e supporto: azioni concrete

Allinea formazione e governance:integra le linee guida sull’IA responsabile nei materiali formativi per fare in modo che il personale sia a conoscenza dei requisiti di conformità, gestione del rischio e trasparenza.

Adatta la formazione ai vari ruoli:sviluppa moduli formativi su misura per i bisogni delle varie funzioni aziendali e includi le best practice a livello di business e IA responsabile.

Implementa con un approccio responsabile

Per adottare l’IA su larga scala è importante stabilire un framework per la governance che ne garantisca un uso responsabile. Le aziende devono conformare le iniziative sull’IA alle politiche di governance esistenti, che a loro volta devono essere continuamente adeguate alle nuove normative e ai nuovi standard operativi e sull’IA responsabile.

Due grafici circolari che mostrano come oltre l'80% degli intervistati del sondaggio pianifica di includere l'IA responsabile negli standard di implementazione e governance.
Due grafici circolari che mostrano come oltre l'80% degli intervistati del sondaggio pianifica di includere l'IA responsabile negli standard di implementazione e governance.
Due grafici circolari che mostrano come oltre l'80% degli intervistati del sondaggio pianifica di includere l'IA responsabile negli standard di implementazione e governance.

Implementazione responsabile: azioni concrete

  • Promuovi una cultura dell’affidabilità: incoraggia i team a comprendere l’impatto dell’IA sia sui flussi di lavoro operativi sia sulla fiducia degli stakeholder, instillando un senso di responsabilità a tutti i livelli.
  • Aggiorna continuamente la formazione: man mano che i quadri di riferimento per la governance dell’IA cambiano, adegua i programmi formativi alle nuove best practice e alle modifiche normative.

Adozione

Passaggio 1: offri formazione e supporto.

  • Sviluppa linee guida specifiche per i vari casi d’uso su come e quando utilizzare l’IA applicando i principi di responsabilità.
  • Man mano che le soluzioni vengono implementate, offri ai team coinvolti formazioni complete che includano le best practice.
  • Festeggia i risultati positivi e condividili con tutta l’azienda.

Passaggio 2: implementa con un approccio responsabile.

  • Per ogni tecnologia, definisci in modo formale i requisiti fondamentali per l’adozione (per esempio impatto sul business, facilità di integrazione e riduzione del rischio).
  • Lavora a stretto contatto con i vertici aziendali per adottare un approccio condiviso sulle priorità da perseguire.
  • Integra le considerazioni essenziali sull’IA e sulla responsabilità nei framework di governance esistenti (per esempio accessi, controlli, ruoli).

4. Monitoraggio: operare una supervisione e un miglioramento continui

Vista ingrandita della fase di monitoraggio nel framework di innovazione basata sull'IA responsabile, che evidenzia la supervisione e il tracking delle prestazioni dell'IA.
Vista ingrandita della fase di monitoraggio nel framework di innovazione basata sull'IA responsabile, che evidenzia la supervisione e il tracking delle prestazioni dell'IA.
Vista ingrandita della fase di monitoraggio nel framework di innovazione basata sull'IA responsabile, che evidenzia la supervisione e il tracking delle prestazioni dell'IA.
Man mano che l’adozione dei sistemi di IA si generalizza, diventa essenziale monitorarli e migliorarli continuamente. La fase di monitoraggio è incentrata su una supervisione in tempo reale, rigorose revisioni delle prestazioni e un approccio proattivo alla gestione del rischio per assicurarsi che i sistemi di IA continuino a essere efficaci, conformi e allineati agli obiettivi aziendali. Con metriche di IA responsabile e un processo di revisione strutturato, le aziende possono adattarsi all’evoluzione dei requisiti normativi e ai nuovi rischi coltivando allo stesso tempo la fiducia e il valore operativo a lungo termine.

Monitora le prestazioni considerando i parametri di riferimento di business e IA responsabile

Un monitoraggio ideale dei risultati della tecnologia coniuga controllo automatizzato delle prestazioni e competenze umane. Molte aziende adottano strumenti di monitoraggio in tempo reale per valutare le prestazioni dei sistemi di IA, ma la loro efficacia migliora se sono associati a una supervisione umana, in quanto le persone sono in grado di analizzare meglio i dati, individuare rischi e prendere decisioni consapevoli sulle modifiche da apportare

Gli strumenti di monitoraggio in tempo reale, già impiegati dal 69% delle aziende, sono notevolmente più efficaci se combinati con la capacità di discernimento umana. Molte aziende danno la priorità alle metriche tecniche, in particolare alla precisione per il 72% e al ROI per il 69%, ma per un’espansione responsabile bisogna fare attenzione anche ai parametri etici. Il controllo umano garantisce trasparenza e prevedibilità, ispirando un senso di fiducia sia internamente sia esternamente. Il monitoraggio consente inoltre di individuare proattivamente i bias: il 49% delle aziende osserva questa metrica, mentre il 33% controlla la generazione di output dannosi. In assenza di un monitoraggio costante e proattivo, i sistemi di IA rischiano di minare l’integrità e la fiducia. Con un monitoraggio delle prestazioni ottimizzato per i rischi tecnici ed etici, le aziende proteggono il brand, trasmettono fiducia all’utente e creano una base resiliente per espandere in modo responsabile l’adozione dell’IA.

Questa collaborazione interfunzionale tra tecnologia e persone aiuta a identificare precocemente i rischi potenziali, come imprecisioni nei dati, distorsioni emergenti o lacune nella conformità.

Grafico a barre che mostra le principali metriche di tracking delle prestazioni e dell'efficacia dell'IA, incluse accuratezza (72%), prestazioni di output (69%) e distorsioni (49%).
Grafico a barre che mostra le principali metriche di tracking delle prestazioni e dell'efficacia dell'IA, incluse accuratezza (72%), prestazioni di output (69%) e distorsioni (49%).
Grafico a barre che mostra le principali metriche di tracking delle prestazioni e dell'efficacia dell'IA, incluse accuratezza (72%), prestazioni di output (69%) e distorsioni (49%).

Garantisci una gestione del rischio continua

La gestione del rischio nell'IA è un processo continuo che deve evolversi insieme ai sistemi di IA. Stabilire un approccio strutturato e interfunzionale alla gestione del rischio dell'IA consente alla tua organizzazione di affrontare proattivamente sia i rischi aziendali che quelli reputazionali. Le revisioni programmate devono coinvolgere stakeholder di tutta l'organizzazione, inclusi data scientist, leader aziendali e responsabili legali/di conformità, garantendo una valutazione approfondita sia delle prestazioni tecniche che degli obiettivi di IA responsabile.

La gestione del rischio dell'IA è un processo continuo che evolve con i progressi tecnologici. Il 60% delle organizzazioni coinvolge team di dati e governance, e il 49% include comitati di IA, conformità e team legali, evidenziando la necessità di collaborazione interfunzionale. Questo approccio proattivo aiuta a rimanere allineati sia con i valori interni che con le aspettative esterne. Il "perché" riguarda la costruzione di resilienza che si adatta ai cambiamenti normativi. Se il 68% delle organizzazioni mette in luce l'importanza dell'IA responsabile nella gestione del rischio, è evidente che una documentazione completa e valutazioni continue del rischio sono fondamentali.

Una rappresentazione infografica dei risultati della ricerca che evidenzia l'importanza delle considerazioni sull'uso responsabile ed etico dell'IA.
Una rappresentazione infografica dei risultati della ricerca che evidenzia l'importanza delle considerazioni sull'uso responsabile ed etico dell'IA.
Una rappresentazione infografica dei risultati della ricerca che evidenzia l'importanza delle considerazioni sull'uso responsabile ed etico dell'IA.
Definendo metriche di performance rigorose e promuovendo una cultura basata sulla gestione continua del rischio, le aziende possono avere la certezza che l’implementazione dell’IA sia in linea con gli obiettivi aziendali e le priorità sull’uso responsabile. Un monitoraggio proattivo, combinato con revisioni trasversali e una documentazione completa, consente alle aziende di affrontare la trasformazione basata sull’IA con sicurezza e affidabilità.

Gestione del rischio: azioni concrete

  • Programma revisioni trasversali del rischio: organizza valutazioni periodiche del rischio con data scientist, responsabili della conformità e figure legali per individuare i rischi emergenti in base ai dati in tempo reale.
  • Monitora e documenta con costanza: raccogli continuamente feedback dal personale e da chi usa gli strumenti per individuare problemi di usabilità, bias o anomalie.

Monitoraggio

Passaggio 1: monitora le prestazioni

  • Definisci e monitora metriche di performance dell’IA a lungo termine, inclusi gli obiettivi di business e responsabilità.
  • Istituisci un processo di revisione continua e commenta i risultati per migliorare costantemente le prestazioni di business e rispettare i principi di responsabilità.

Passaggio 2: implementa con un approccio responsabile.

  • Incarica determinate persone, dotandole dei mezzi necessari, di seguire l’evoluzione delle normative e degli standard sull’IA (per esempio AI Verify di Singapore, disegni di legge del Congresso degli Stati Uniti, ecc.) e aggiorna gli standard aziendali di conseguenza.
  • Sviluppa processi per individuare e ridurre in modo continuativo i rischi associati all’uso dell’IA.
  • Aggiorna la documentazione in base a come l’azienda osserva questi standard.

CASO STUDIO DI ADOBE

Uso interno dell’IA generativa

Adobe considera l’IA generativa una tecnologia rivoluzionaria in grado di potenziare la creatività umana, senza sostituirla. All’interno dell’azienda promuoviamo l’esplorazione responsabile delle tecnologie di IA generativa secondo i nostri principi etici di responsabilità, affidabilità e trasparenza.

A giugno 2023, su iniziativa della direttrice informatica e della direttrice delle risorse umane, Adobe ha costituito un proprio gruppo di lavoro interdisciplinare per aiutare il personale a destreggiarsi con l’esplorazione e l’utilizzo dell’IA generativa in modo sicuro, responsabile e agile. L’obiettivo primario è quello di favorire, con l’aiuto di leader ed esperti di tutta l’azienda, un approccio ragionato alla sperimentazione da parte del personale. Per questo l’iniziativa si propone di comprendere il panorama di usi potenziali dell’IA generativa, definire linee guida appropriate e ottimizzare prove ed esperimenti. Si sono formati quattro gruppi di lavoro incentrati su diversi tipi di utenti, che rappresentano i casi d’uso dell’IA generativa applicabili nei vari reparti di Adobe. È stato definito un processo di accettazione delle proposte, un framework di tolleranza del rischio dell’IA generativa e un modello per la revisione dei casi d’uso che tiene conto dell’evoluzione delle considerazioni etiche, sulla sicurezza, sulla privacy e altre questioni legali. Sono inoltre disponibili linee guida per l’uso dell’IA generativa da parte del personale, con un elenco di strumenti e modelli approvati per specifici casi d’uso. Nell’ambito dell’introduzione delle linee guida per i fornitori a marzo 2024, sono state organizzate sessioni di formazione sull’uso dell’IA generativa e sulle funzionalità dei prodotti scelti.

Questa iniziativa ha contribuito a ottimizzare il processo per velocizzare la sperimentazione ed estendere l’applicazione ove possibile, oltre ad aver permesso una valutazione complessiva del panorama dell’IA generativa nell’azienda. Adobe continua a promuovere la condivisione di insight e conoscenze in tutta l’azienda per creare un ecosistema collaborativo per l’esplorazione collettiva. Il programma continua a evolversi di pari passo con la presenza sempre maggiore dell’IA generativa nei nostri prodotti, la proliferazione di tecnologie e modelli e l’evoluzione delle linee guida legali e normative. La revisione delle sperimentazioni viene monitorata: il team sta sviluppando controlli degli esperimenti post-approvazione, anche per quelli che entrano nella fase di produzione per l’espansione su larga scala.

Integrazione di best practice nell’azienda

Per adottare, monitorare e ottimizzare in modo responsabile i sistemi di IA, le aziende devono prestare attenzione a vari aspetti operativi: linee guida complete per il personale, valutazione rigorosa dei fornitori e solidi strumenti di governance dell’IA. In questo modo possono assicurarsi che le iniziative di IA siano conformi alle nuove normative, ma anche che si basino su quanto già definito in termini di governance e gestione del rischio e che siano allineate a pratiche che promuovono fiducia, trasparenza e affidabilità.

In questa sezione vedremo come integrare concretamente queste best practice nelle attività aziendali quotidiane.

Accompagnamento del personale nell’utilizzo

Per un’implementazione responsabile è essenziale adattare le linee guida per l’uso dell’IA ai bisogni e ai rischi specifici dell’azienda, per aiutare il personale a destreggiarsi tra normative e protocolli di governance, allineando le tecnologie di IA agli impegni presi in fatto di sicurezza dei dati, trasparenza e affidabilità.

Riservatezza dei dati

Specifica chiaramente in quali casi l’elaborazione dei dati deve avvenire a livello locale o con rigidi controlli per evitare accessi non autorizzati. Allo stesso modo, evita l’utilizzo di prompt che potrebbero generare o manipolare output riservati. Questa pratica permette di proteggere le informazioni proprietarie e di mantenere la conformità alle normative sulla privacy.

Trasparenza nell'uso dell'IA

Comunica apertamente l’uso dell’IA, per esempio per la creazione di documenti interni, interfacce destinate alla clientela o comunicazioni esterne. Questa pratica promuove l’affidabilità e mantiene la fiducia nell’autenticità e nell’attendibilità dei contenuti generati dall’IA, tutelando il brand e la reputazione dell’azienda.

Politiche di gestione degli account

Definisci politiche esplicite per l’uso di strumenti di IA generativa che richiedono la creazione di account, specificando anche se si possano usare indirizzi e-mail aziendali e quali strumenti siano approvati per fini lavorativi, e dissuadere dall’uso di account personali per scopi professionali. Questa pratica permette di evitare gli usi non autorizzati e contribuisce alla conformità al programma aziendale generale per la sicurezza delle informazioni.

Adattando queste linee guida al tuo contesto aziendale, il personale potrà destreggiarsi nell’uso degli strumenti di IA generativa in modo sicuro e responsabile, contribuendo a creare un ambiente in cui innovazione e integrità vanno di pari passo.

Valutazione dei fornitori: esempi di domande

Per valutare i fornitori di soluzioni di IA, devi porre domande efficaci e sapere che tipo di risposte corrispondono alle tue aspettative e indicano il rispetto degli standard normativi, legali e di IA responsabile. Le domande seguenti permettono di operare una valutazione di base, per prendere decisioni consapevoli su eventuali collaborazioni e ridurre i rischi associati all’adozione dell’IA.

Ambito
Domanda per il fornitore
Motivazione
Esempio di Adobe
Origine e utilizzo dei dati
“Quali tipi di dati specifici sono stati utilizzati per sviluppare e addestrare il sistema di IA?”
Questa domanda approfondisce l’origine, la tipologia e la copertura dei dati utilizzati per addestrare i modelli di IA e permette di assicurarsi che le pratiche del fornitore siano allineate con gli obiettivi legali e gli standard dell’azienda per l’IA responsabile.
Firefly:Adobe non include contenuti degli utenti aziendali (compresi input e output Firefly) nei set di dati utilizzati per addestrare i modelli di base di Firefly.
Rispetto della proprietà intellettuale
“Sono stati utilizzati set di dati che potrebbero essere soggetti a restrizioni di copyright, proprietà intellettuale o licenza?"
Questa domanda mira a verificare che i dati provengano da fonti legittime e siano stati ottenuti attraverso metodi autorizzati, al fine di evitare potenziali controversie legali.
Firefly:è possibile revisionare le informazioni dello storico delle licenze in qualsiasi momento su https://stock. adobe.com/it/Dashboard/LicenseHistory una volta eseguito l’accesso con le proprie credenziali Adobe.
Trasparenza su dati di addestramento e logica applicata
“Potete illustrare nel dettaglio i dati di addestramento e la logica applicata per sviluppare il sistema di IA?”
La trasparenza in questi aspetti consente di individuare potenziali bias e di comprendere il processo logico alla base del modello, un elemento fondamentale per valutarne l’affidabilità e la correttezza.
Assistente IA di Adobe Experience Platform:Adobe non utilizza i dati della clientela per addestrare o ottimizzare il servizio OpenAI di Azure.
Chiarezza dell'output
“È possibile avere una descrizione in un linguaggio semplice e chiaro degli output del sistema di IA?”
Garantire output comprensibili per revisori senza particolari competenze tecniche consente un processo decisionale efficace e un uso responsabile.
Firefly:Adobe genera automaticamenteContent Credentialsper alcune risorse generate da Firefly, in modo da chiarire che sono state create utilizzando l’IA generativa.
Supervisione umana
“In che misura e in che modo viene attuata la revisione umana, se il sistema di IA ne prevede una?”
Essere a conoscenza della proporzione tra processi automatizzati e valutazione umana permette di comprendere le dinamiche operative del sistema e di individuare le aree che potrebbero richiedere un intervento umano per garantire gli standard di qualità e responsabilità.
Assistente IA di Acrobat:Adobe limita rigidamente l’accesso a queste informazioni a un piccolo numero di persone formate e coinvolte direttamente nello sviluppo del servizio di IA generativa.
Correttezza e valutazione dei bias
“In che modo il sistema di IA è stato testato per verificare l’assenza di bias? Quali risultati sono emersi da queste valutazioni?”
Questa domanda consente di valutare l’impegno del fornitore verso pratiche eque in fatto di IA e i suoi metodi per individuare e ridurre i bias che potrebbero interessare in modo particolare determinati gruppi demografici
Assistente IA di Acrobat:i nostri team eseguono test per limitare la possibilità che vi siano risultati pregiudizievoli o dannosi nei prodotti di IA generativa di Adobe.Per maggiori informazioni consultare la presentazione della soluzione “Generative AI Built for Business”.
Riduzione del rischio
“È stata eseguita una valutazione dei potenziali output dannosi? Quali misure sono state adottate per ridurre questi rischi?”
Le iniziative proattive del fornitore per individuare e risolvere potenziali risultati negativi sono una prova del suo impegno a rimediare a eventuali danni e indicano che il sistema di IA è sottoposto a test per garantirne il funzionamento sicuro e responsabile.
Assistente IA di Adobe Experience Platform:Adobe utilizza filtri dei contenuti sviluppati internamente per a) determinare se il prompt inserito nell’Assistente IA di Adobe Experience Platform sia conforme alle nostre linee guida per l’uso dell’IA generativa e b) omettere le risposte generate che dovessero violare tali linee guida (per es. istigazioni all’odio e volgarità).
Con queste domande mirate le aziende possono valutare i fornitori di soluzioni di IA e prendere decisioni consapevoli che rispettano i loro standard di responsabilità in materia di IA e le loro priorità operative. Questo approccio consente di gestire il rischio e di costruire relazioni con i fornitori di soluzioni di IA basate su trasparenza, conformità e innovazione responsabile.

Strumenti di governance dell’IA

Una solida governance dell’IA garantisce che i sistemi siano sviluppati, implementati e monitorati secondo modalità conformi ai valori dell’azienda e alle normative. Ci sono diversi standard in vigore, ad esempio la legge sull’IA dell’Unione europea e quadri di riferimento come l’AI Verify di Singapore. Negli Stati Uniti le aziende devono rispettare le leggi statali sulla privacy e l’AI Risk Management Framework del National Institute of Standards and Technology, sulla base del quale saranno probabilmente definite le norme future.

I seguenti strumenti di governance possono aiutare le aziende a gestire i rischi dell’IA e migliorare la trasparenza, l’affidabilità e la sicurezza.

Inventari di sistemi di IA
Crea inventari di sistemi di IA, classificandoli in base ai profili di rischio e alle priorità strategiche, in modo da utilizzarli come archivi centrali.
Hai documentato i casi d’uso dell’IA classificandone i rischi?
Meccanismi di feedback
Stabilisci canali efficaci per raccogliere feedback da persone esterne al team di sviluppo dell’IA, come utenti finali, clienti o il pubblico.
Quali canali utilizzi per raccogliere feedback da utenti finali, clienti o il pubblico?
Documentazione sui limiti dei sistemi di IA
Documenta i limiti dei sistemi, specificando le lacune di conoscenza dei modelli e i contesti in cui l’output è attendibile.
Hai documentato i limiti noti o previsti per i casi d’uso dell’IA?
Origine dei contenuti
Individua e verifica l’origine, la cronologia e le modifiche dei dati usati per l’IA, risalendo per esempio alle fonti dei dati di addestramento, agli algoritmi utilizzati e ai cambiamenti apportati.
Come tieni traccia dell’origine, della cronologia e delle modifiche dei dati usati per l’IA, per esempio le fonti dei dati e i cambiamenti apportati dalla creazione all’uso finale?
Test dell’IA e red teaming
Valuta rischi quali l’esposizione involontaria dei dati di addestramento, la vulnerabilità al reverse engineering e l’estrazione del modello.
Quali protocolli di test sono stati applicati? Come proteggono dai rischi di specifici casi d’uso dell’IA?
Sviluppo sicuro di software
I sistemi di IA devono essere integrati nel ciclo di vita aziendale per lo sviluppo sicuro di software, nel rispetto delle best practice per la codifica e l’implementazione.
In che modo i protocolli esistenti per lo sviluppo sicuro di software sono stati integrati nel caso d’uso dell’IA?
Formazione
La formazione deve trattare le politiche, le procedure e i requisiti di conformità pertinenti, in modo da offrire agli stakeholder le conoscenze necessarie per gestire i rischi legati all’IA in modo efficace e operare nel rispetto degli standard aziendali
Hai partecipato a formazioni sulla governance dell’IA e sulla gestione del rischio?
L’integrazione di queste best practice nei processi esistenti assicura un’adozione, una gestione e un’ottimizzazione responsabili delle tecnologie di IA. Tramite queste attività, quali un buon accompagnamento del personale, una valutazione rigorosa dei fornitori e la definizione di strumenti completi per la governance dell’IA, le aziende possono creare un insieme di pratiche di base resilienti, allineate agli standard di governance e ai requisiti normativi, e riuscire quindi non solo ad affrontare le sfide attuali, ma anche ad ampliare in modo responsabile l’uso dell’IA per il successo futuro.

Un'implementazione responsabile per un'innovazione responsabile

Per sfruttare appieno l’IA in un’azienda, occorre affidarsi a tecnologie sviluppate in modo responsabile, definire chiare linee guida per l’uso, offrire formazioni dedicate e adottare una governance solida. Questo approccio genera valore per il business e assicura che le iniziative di IA soddisfino i requisiti normativi e gli standard di implementazione, diffondendo una cultura dell’IA responsabile in tutta l’azienda.

La supervisione e l’adattamento costanti permettono di avere le iniziative di IA sempre sotto controllo. Attraverso la definizione di metriche di performance, valutazioni periodiche e una gestione proattiva dei rischi, le aziende possono anticipare i cambiamenti normativi e mantenere l’integrità dei progetti di IA.

Avanzando verso il futuro con l’IA, grazie a questo framework le aziende possono assumere un ruolo di guida nel panorama dell’uso responsabile di questa tecnologia. Questo approccio, incentrato su impatto, integrazione e integrità, apre la strada a un’innovazione sostenibile e a un successo duraturo.

Consigliati per te

https://main--bacom--adobecom.aem.live/fragments/resources/cards/thank-you-collections/generative-ai