AI TRiSM: il framework Gartner per un AI sicura ed efficace
Le aziende stanno investendo sempre di più nella sperimentazione di soluzioni di AI. Solo in Italia, secondo le stime dell’Osservatorio Artificial Intelligence del Politecnico di Milano, 6 organizzazioni su 10 hanno già avviato un progetto di intelligenza artificiale, almeno a livello sperimentale. Si è sviluppato, di conseguenza, anche il mercato: lo scorso anno la crescita è stata del 52%, raggiungendo il valore di 760 milioni di euro.
Un tale slancio in termini di investimenti e sperimentazioni, accelerato negli ultimi due anni dall’avvento dei sistemi di Generative AI tra i trend tech del momento, non sembra finora essersi accompagnato a una maggiore attenzione nei confronti dei rischi che comporta l’adozione di modelli di AI. Una ricerca di McKinsey ha certificato, infatti, che meno di un terzo delle aziende ha adottato misure per ridurre l’uso di tecnologie avanzate di AI al fine di mitigare i rischi di cyber security.
Attorno a questi nuovi strumenti occorre invece definire un framework chiaro che ne renda sicura la gestione. È quello che Gartner ha ribattezzato AI TRiSM, acronimo di “trust, risk and security management”. Si tratta di un programma completo di gestione della fiducia, del rischio e della sicurezza dell’AI, utile a definire i modelli di governance necessari a garantire che i sistemi di AI siano conformi alle normative, corretti e affidabili e soprattutto che proteggano la privacy dei dati.
I 4 pilastri del framework AI TRiSM
Nel suggerire alle aziende come migliorare la gestione degli strumenti di AI, Gartner ha individuato quattro pilastri fondamentali che dovrebbero regolare l’implementazione di soluzioni intelligenti.
1. Explainability e model monitoring
Il framework AI TRiSM dovrebbe contenere informazioni che spieghino chiaramente come funziona un modello di AI, ovvero come elabora le informazioni e in che modo prende decisioni. Conoscerne il funzionamento aiuta le organizzazioni a comprendere come agisce il modello e quindi come vanno valutati i suoi risultati e le sue prestazioni in termini di accuratezza, affidabilità, responsabilità e trasparenza.
2. ModelOps
La ModelOps è una funzione di AI TRiSM incentrata sulla gestione del ciclo di vita end-to-end e sulla governance dell’analisi. Gli strumenti di AI comprendono, infatti, diversi modelli di analisi, machine learning e anche regole linguistiche: fare attenzione al modo in cui un modello di AI viene continuamente perfezionato, testato e aggiornato dopo l’implementazione aiuta a tenere sotto controllo i potenziali rischi per la sicurezza.
3. AI Application Security
Anche i sistemi più evoluti di AI possono essere messi in pericolo da accessi non autorizzati, manipolazioni o usi impropri. È quindi fondamentale mettere in campo dei sistemi di protezione delle applicazioni di AI e dei dati che queste utilizzano. Servono sistemi di monitoraggio e rilevamento di anomalie, errori e tentativi di attacco diretti a modificare gli algoritmi e interrompere le funzionalità delle applicazioni.
4. Privacy
Le tecnologie di AI creano e utilizzano una grande quantità di informazioni. La protezione dei dati è essenziale per evitare violazioni che potrebbero causare danni significativi all’organizzazione. Il framework AI TRiSM aiuta le aziende a comprendere limiti e vulnerabilità della tecnologia utilizzata, a identificare potenziali minacce e a rispettare le normative in materia di privacy.
Perché adottare il framework AI TRiSM
L’impiego dell’intelligenza artificiale è destinato ad aumentare: le organizzazioni stanno utilizzando l’AI per aumentare l’efficienza dei processi, automatizzare i sistemi e migliorare il processo decisionale, ma incontrano ancora difficoltà a spiegare al proprio interno quali dati utilizza e quali potenziali rischi può portare con sé – specialmente nell’era del Continuous Threat Exposure Management. Senza gestione del rischio, monitoraggio e controlli, i modelli di AI potrebbero non essere né affidabili né sicuri.
Oltre al rischio della cosiddetta hallucination o allucinazione, ovvero la creazione di output insensati perché scaturiti da schemi inesistenti, c’è anche un problema di rispetto delle fonti delle informazioni. Quando un’azienda integra strumenti di AI di terze parti deve, infatti, mettere in conto che sta facendo entrare al proprio interno anche i grandi set di dati utilizzati per addestrarli: senza gli adeguati controlli, gli utenti potrebbero accedere a dati riservati, con conseguenze negative a livello normativo e reputazionale.
Con l’AI non sono poi sufficienti i tradizionali sistemi di sicurezza. Occorrono controlli e pratiche specializzate per testare, convalidare e migliorare la robustezza dei flussi di lavoro abilitati dall’AI. Implementando il framework AI TRiSM, le organizzazioni possono incrementare la fiducia nei propri sistemi di intelligenza artificiale, mitigare i rischi potenziali e garantire la sicurezza e la privacy per l’azienda stessa e per i suoi clienti.
Fonti consultate:
- Osservatorio Artificial Intelligence, Politecnico di Milano
- McKinsey
- Gartner