Un framework per la gestione del rischio dell’Intelligenza Artificiale.

Il NIST, National Institute of Standards and Technology, un’importante istituzione statunitense le cui indicazioni sono seguite in tutto il mondo, ha pubblicato ieri un nuovo documento denominato “Framework per la gestione dei rischi connessi allo sviluppo dell’Intelligenza Artificiale”.

Che l’AI porti con sé potenziali enormi, ancora da scoprire, così come rischi notevoli è un dato di fatto. Lo dimostrano, in un certo senso, anche le discussioni, a volte anche polemiche, che leggiamo in questi giorni tra entusiasti e critici di sistemi come Chat GPT o Dall-E.

In ogni caso è indubitabile che i rischi derivanti dall’uso dell’AI possano essere diversi e spesso maggiori rispetto a quelli dei software tradizionali, anche perché soprattutto la progettazione di questi sistemi può essere influenzata da bias, errori, fattori sociali o comportamenti umani non corretti.

La gestione e la comprensione dei rischi dell’AI sono dunque essenziali per uno sviluppo responsabile così come per il successivo uso di questi sistemi.

Il documento può essere molto utile per le aziende che progettano e sviluppano soluzioni che utilizzano l’AI: linee guida ben redatte e condivise a livello mondiale aiutano infatti ad allineare posizioni, standard e decisioni sulla progettazione, lo sviluppo e gli usi dei sistemi, affinché siano in linea con gli obiettivi e i valori stabiliti.

L’AI Risk Management Framework (#AIRMF) del NIST ha quindi proprio lo scopo di far comprendere e gestire i rischi per produrre tecnologie eque e responsabili.

Nello specifico il Framework è diviso in due parti. La prima Parte riguarda come le organizzazioni possono inquadrare i rischi legati all’AI. Successivamente vengono analizzati i rischi e l’affidabilità dell’IA, delineando le caratteristiche di progetti e prodotti adeguati, che includono requisiti come validità e affidabilità, sicurezza, protezione e resilienza, responsabilità, trasparenza, spiegabilità, interpretabilità e sviluppo della privacy.

La seconda Parte comprende il “Core” del Framework e descrive quattro funzioni specifiche: governare, mappare, misurare e gestire, con ulteriori sottolivelli.

Si tratta di indicazioni utili anche in Europa, fortemente impegnata in una strategia che non solo mira a sostenere la ricerca e lo sviluppo in questi campi, ma anche a promuovere un uso responsabile dell’AI e garantire la protezione dei dati dei propri cittadini.

Il Framework è disponibile qui: https://lnkd.in/dZmCX8-W