Frid_AI_news #01 (24/04/2024)
Alla scoperta delle norme dedicate all’intelligenza artificiale
Di cosa parla l’AI Act
Partiamo, dunque, con questo “viaggio” che ci porterà a scoprire il Regolamento Europeo sull’intelligenza artificiale (per l'”introduzione”, leggi qui.
Un testo voluminoso composto, innanzitutto, da 180 “Considerando”, indispensabili per comprendere il contesto, la giustificazione e gli obiettivi delle disposizioni.
Il testo vero e proprio è invece composto da 113 Articoli, suddivisi in 13 “Capi” e diverse “Sezioni”.
Seguono ben 16 Allegati.
Gli obiettivi
Il Regolamento intende stabilire un quadro giuridico completo e armonizzato per lo sviluppo, la commercializzazione e l’utilizzo dell’intelligenza artificiale nell’Unione Europea; promuovere l’adozione di un’Intelligenza Artificiale centrata sull’uomo, affidabile e, al contempo, garantire un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali, compresi la democrazia, lo stato di diritto e la tutela dell’ambiente. Non per ultimo, ha per obiettivo di sostenere l’innovazione, mitigando gli effetti dannosi che i sistemi di intelligenza artificiale potrebbero causare.
La struttura
Il Regolamento, innanzitutto, nelle Disposizioni Generali (Capo I), precisa il proprio oggetto (Art. 1) e il proprio ambito di applicazione (Art. 2), provvedendo a fornire una lunga serie di Definizioni (Art. 3: sono ben 68!), che analizzeremo nel dettaglio in una futura pubblicazione.
Dopo avere identificato le Pratiche di Intelligenza Artificiale Vietate (Capo II), identifica i Sistemi di Intelligenza Artificiale ad Alto Rischio, classificandoli e precisandone i requisiti, così come stabilendo gli obblighi dei fornitori e dei “deployer” di tali sistemi (Capo III).
Prosegue indicando gli Obblighi di Trasparenza per determinati sistemi di Intelligenza Artificiale (Capo IV) e si sofferma sui Modelli di AI per finalità generali (Capo V), come il noto Chat GPT, oppure Gemini e tanti altri.
Seguono Misure a sostegno dell’innovazione (Capo VI), Governance (Capo VII), Banca dati dell’UE per i sistemi di AI ad alto rischio (Capo VIII) e la parte dedicata al Monitoraggio successivo all’immissione sul mercato (Capo IX).
Chiudono il testo le non meno importanti disposizioni relative a Codici di Condotta (Capo X), Delega di potere e procedura di comitato (Capo XI), le Sanzioni (Capo XII), le Disposizioni finali (Capo XIII).
I molti Allegati precisano normative di armonizzazione, elenchi di sistemi ad alto rischio, documentazioni tecniche necessarie e informazioni da presentare in relazione agli obblighi di trasparenza.
Gli elementi più significativi
Il Regolamento definisce “<sistema di IA> un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
Si tratta di una definizione che, pur a lungo discussa, ricalca sostanzialmente quelle maggiormente riconosciute. Secondo la norma ISO/IEC TR 24030:2021 (AI Use cases), ad esempio, l’intelligenza artificiale è la “capacità di acquisire, elaborare, creare e applicare conoscenza, conservata sotto forma di modello, per svolgere uno o più compiti determinati”.
In sostanza un sistema di AI riceve degli input, li elabora secondo uno o più modelli o algoritmi sottostanti e ne trae risultanze, o esegue compiti specifici.
Come si vede, può essere difficile stabilire la differenza con il software, che è escluso dalla regolamentazione dell’AI Act. Restano infatti fuori dalla definizione di AI software meno complessi, linguaggi o sistemi di programmazione e sistemi basati su regole definite esclusivamente da persone per eseguire automaticamente delle operazioni.
Ciò, molto sinteticamente, perché sono differenti le capacità e le modalità di funzionamento dei due sistemi (sw – ai):
- un software è un insieme di istruzioni e di informazioni progettate per svolgere un compito specifico in modo deterministico, fornendo sempre lo stesso output a fronte del medesimo input, senza alcuna capacità di adattarsi o di apprendere autonomamente;
- un sistema di intelligenza artificiale è un sistema in grado di simulare l’intelligenza umana (solo di simulare, ricordiamocelo!) e può apprendere da dati e da esperienze, adattandosi e migliorando le proprie decisioni.
I livelli di rischio
Il Regolamento, poi, classifica i sistemi di intelligenza artificiale in base al livello di rischio che essi possono presentare e, conseguentemente, stabilisce requisiti per lo sviluppo, l’implementazione e l’utilizzo di tali sistemi, a seconda della classificazione di ciascuno.
Come accennato, il Regolamento classifica i sistemi di IA in base a:
- Rischio inaccettabile: si tratta di sistemi vietati (come vedremo, ad esempio, sistemi di scoring sociale);
- Rischio elevato: sistemi soggetti a rigorosi requisiti (come ad esempio i sistemi di riconoscimento facciale, che necessitano di documentazioni tecniche e procedure di valutazione di impatto appositamente redatte);
- Rischio limitato: prevede requisiti meno rigorosi;
- Rischio minimo: sistemi non soggetti a particolari requisiti.
A chi si applica il Regolamento
Si applica a
- fornitori,
- importatori e
- distributori di sistemi di intelligenza artificiale o modelli di intelligenza artificiale che vengono immessi sul mercato dell’UE, messi in servizio o utilizzati nell’UE, anche se stabiliti in un paese terzo.
Nelle prossime uscite cominceremo ad analizzare il testo più in dettaglio.
👾 👾 👾 👾 👾
Questa newsletter si propone di esaminare le principali disposizioni in arrivo con un linguaggio semplice e chiaro, accompagnato il più possibile da esempi concreti.
Un po’ alla volta, per prepararci tutti quanti insieme, con consapevolezza, a quanto sarà necessario sapere e mettere in pratica nell’attività di tutti i giorni.
Se sei interessato, iscriviti. 👾