Alla scoperta delle norme dedicate all’intelligenza artificiale

 

Questa newsletter si propone di esaminare il Regolamento Europeo in materia di Intelligenza Artificiale con brevi articoli settimanali (in uscita il venerdì).

La prima uscita è disponibile qui: https://studiolegalebroglia.com/2024/05/17/frid_ai_news-00/

 

AI ACt, la timeline

 

Nelle scorse settimane l’AI Act ha ricevuto l’approvazione del Consiglio Europeo e, di conseguenza, dopo la firma da parte della Presidente del Parlamento europeo e del presidente del Consiglio, l’atto legislativo sarà pubblicato nella Gazzetta ufficiale dell’UE; entrerà in vigore venti giorni dopo la pubblicazione.

Il testo prevede una timeline piuttosto precisa:

  • acquisterà efficacia 24 mesi, ossia due anni dopo (come avvenne con il Gdpr, il Reg. UE 679/2016, che entrò in vigore nel maggio 2018), ma con alcune eccezioni; in particolare:
  • 6 mesi dopo avranno efficacia i divieti relativi ai sistemi di AI vietati;
  • 12 mesi dopo si applicheranno le norme relative ai sistemi di AI per finalità generali;
  • 36 mesi dopo si applicheranno (con, quindi, ulteriori 12 mesi per provvedere) le disposizioni relative ai sistemi di AI ad alto rischio di prodotti armonizzati già regolamentati diversamente.

 

 

I modelli di AI per finalità generali

 

La scorsa settimana, dopo avere sommariamente analizzato cosa sia l’intelligenza artificiale, ossia quel settore dell’informatica che si occupa di modelli, sistemi e applicazioni capaci di svolgere compiti che richiederebbero l’intelligenza umana, abbiamo esaminato alcune definizioni contenute nell’art. 3 che prendono in considerazione, in particolare, i dati connessi allo sviluppo o al funzionamento dei modelli (dati di addestramento, di convalida, di input, di prova).

Nello stesso articolo 3, però, sono contenute altre definizioni direttamente collegate al concetto di intelligenza artificiale che è opportuno conoscere.

Tra queste, ad esempio, quella relativa ai modelli di AI per finalità generali che hanno, oltre che una specifica tempistica di applicabilità (come visto sopra: 12 mesi), anche una specifica regolamentazione.

Il Regolamento definisce “per finalità generali” un modello , anche addestrato con grandi quantità di dati utilizzando l’auto supervisione su larga scala, caratterizzato da una generalità significativa e in grado di svolgere con competenza un’ampia gamma di compiti, che può essere integrato in una varietà di sistemi o applicazioni a valle…” (cfr. sempre Art. 3, n. 63)).

I modelli di IA per finalità generali sono progettati per essere molto versatili e per eseguire una vasta gamma di compiti. 

Addestrati con enormi quantità di dati, utilizzano tecniche di autosupervisione, il che significa che il modello stesso crea le etichette per i dati di addestramento basandosi sulle proprie previsioni. Ciò consente al modello di apprendere senza richiedere una supervisione manuale estesa, il che è particolarmente utile quando si tratta di grandi set di dati. 

Si tratta dei modelli che a partire dalla fine del 2022 sono divenuti molti conosciuti, e utilizzati, anche dal grande “pubblico” di internet: per esempio il noto ChatGPT (Generative Pre-trained Transformer, attualmente in versione 4), un modello di linguaggio sviluppato da OpenAI che è stato addestrato su una vasta gamma di testi; è in grado di generare testo coerente e contestualmente rilevante, rispondere a domande, tradurre lingue, riassumere testi e molto altro; Gemini, oppure BERT (Bidirectional Encoder Representations from Transformers), sviluppati da Google; Bert, ad esempio, comprende il contesto bidirezionalmente, ossia considerando sia il contesto precedente sia quello successivo a una parola; Dall-E, per la generazione di immagini a partire da prompt specifici (descrizioni testuali dell’utente); AlphaGo, sviluppato da DeepMind per giocare a Go, un complesso gioco da tavolo, e così via.

Il Regolamento definisce anche i “Sistemi di IA per finalità generali”, che sono sistemi basati su un modello di IA per finalità generali in grado di assolvere a molteplici scopi, sia per l’utilizzo diretto che per l’integrazione in altri sistemi di IA.

 

Il rischio sistemico

 

Una importante definizione, necessaria per la comprensione della disciplina che riguarda i modelli “general purpose” (quelli che un po’ tutti utilizziamo), è relativa al rischio sistemico, ossia “un rischio specifico per le capacità di impatto elevato … avente un impatto significativo … a causa della sua portata o di effetti negativi effettivi o ragionevolmente prevedibili sulla salute pubblica, la sicurezza, i diritti fondamentali o la società nel suo complesso, che può propagarsi su larga scala lungo l’intera catena del valore”.

Poiché questi modelli di IA sono estremamente potenti e possono svolgere una vasta gamma di compiti con grande efficienza, proprio per queste caratteristiche potrebbero presentare rischi specifici se usati in modo improprio o se qualcosa andasse storto.

Il Regolamento, di conseguenza, prevede una distinzione di disciplina.

 

GPAI (General Purpose AI) models che presentano rischi sistemici

 

Un modello GPAI con rischio sistemico è un modello che soddisfa uno qualsiasi dei seguenti criteri (Capo V del Regolamento, Art. 51):

  1. “presenta capacità di impatto elevato valutate sulla base di strumenti tecnici e metodologie adeguati, compresi indicatori e parametri di riferimento” (da cui derivano obblighi di notifica alla Commissione per i fornitori);
  2. è così definito “sulla base di una decisione della Commissione, d’ufficio o a seguito di una segnalazione qualificata del gruppo di esperti scientifici”, perché presenta capacità o impatto equivalenti a quelli di cui alla lettera a), sulla base degli specifici criteri indicati nell’allegato XIII, che li precisa analiticamente.

Si presume che un modello abbia “capacità ad alto impatto” quando la quantità cumulativa di calcolo utilizzata per l’addestramento del modello, misurata in operazioni in virgola mobile (FLOP), è superiore a 10^25.

Qui si entra nel tecnico: il testo si riferisce alle capacità (potenza di calcolo, accuratezza nelle previsioni, capacità di apprendimento e adattamento, ecc.) di un modello di IA che sono pari o superiori a quelle dei migliori modelli di IA per finalità generali disponibili.

 

I criteri stabiliti nell’Allegato XIII sono i seguenti:

  • numero di parametri del modello: maggiore è il numero di parametri, maggiore è la complessità del modello e la sua capacità di apprendere e svolgere compiti;
  • qualità o dimensione del set di dati: un set di dati di alta qualità o di grandi dimensioni consente al modello di apprendere meglio e di generalizzare meglio a nuove situazioni;
  • quantità di calcolo utilizzata per l’addestramento del modello: più calcolo viene utilizzato, più potente è il modello e maggiore è la sua capacità di apprendere e svolgere compiti complessi;
  • modalità di input e output del modello: il tipo di input e output che il modello può gestire indica le sue capacità e il suo potenziale impatto;
  • parametri di riferimento e valutazioni delle capacità del modello: questi includono il numero di compiti che il modello può svolgere senza addestramento aggiuntivo, la sua capacità di apprendere nuovi compiti, il suo livello di autonomia e scalabilità, e gli strumenti a cui ha accesso; 
  • impatto sul mercato interno: se il modello ha un alto impatto sul mercato interno, è più probabile che abbia un impatto significativo sulla società e sui diritti fondamentali; 
  • numero di utenti finali registrati: un numero elevato di utenti finali indica che il modello è ampiamente utilizzato e ha un impatto significativo sulla società.

 

GPAI (General Purpose AI) models senza rischi sistemici

 

Non hanno, evidentemente, le caratteristiche viste qui sopra.

 

Obblighi per tutti i GPAI

 

Indipendentemente dal livello di rischio, tutti i deployer, produttori e importatori di GPAI sono soggetti a obblighi e requisiti di:

  • documentazione tecnica e informativa;
  • attività di reporting e di cybersecurity;
  • implementazione di policy relative al copyright;
  • cooperazione e compliance.

 

In realtà, poi, se il modello per finalità generali rientra nella ulteriore categoria di modello ad alto rischio, dovrà sottostare alle previsioni previste per tale categoria.

Ma di questo ci occuperemo in una prossima occasione.

 

Il riassunto (di Gemini) di questo testo 😛

 

L’AI Act è un regolamento europeo che stabilisce regole per lo sviluppo, l’immissione sul mercato e l’utilizzo dell’intelligenza artificiale.

Entrerà in vigore tra 24 e 36 mesi, con tempistiche differenti per diverse tipologie di sistemi di intelligenza artificiale.

Introduce la categoria di “modelli di intelligenza artificiale per finalità generali” (GPAI) e ne definisce i rischi e gli obblighi.

Distingue tra GPAI a rischio sistemico (soggetti a regole più stringenti) e GPAI senza rischi sistemici.

 

p.s.: come sempre, ogni suggerimento o correzione, come sempre, è più che ben accetta! 

 

👾 👾 👾 👾 👾

 

Questa newsletter si propone di esaminare le principali disposizioni in arrivo con un linguaggio semplice e chiaro, accompagnato il più possibile da esempi concreti.

Se sei interessato, iscriviti. 👾