Frid_AI_news #01 (24/04/2024)

Alla scoperta delle norme dedicate all’intelligenza artificiale

 

Di cosa parla l’AI Act

 

Partiamo, dunque, con questo “viaggio” che ci porterà a scoprire il Regolamento Europeo sull’intelligenza artificiale (per l'”introduzione”, leggi qui.

 

Un testo voluminoso composto, innanzitutto, da 180 “Considerando”, indispensabili per comprendere il contesto, la giustificazione e gli obiettivi delle disposizioni.

 

Il testo vero e proprio è invece composto da 113 Articoli, suddivisi in 13 “Capi” e diverse “Sezioni”.

 

Seguono ben 16 Allegati.

 

Gli obiettivi

Il Regolamento intende stabilire un quadro giuridico completo e armonizzato per lo sviluppo, la commercializzazione e l’utilizzo dell’intelligenza artificiale nell’Unione Europea; promuovere l’adozione di un’Intelligenza Artificiale centrata sull’uomo, affidabile e, al contempo, garantire un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali, compresi la democrazia, lo stato di diritto e la tutela dell’ambiente. Non per ultimo, ha per obiettivo di sostenere l’innovazione, mitigando gli effetti dannosi che i sistemi di intelligenza artificiale potrebbero causare.

 

La struttura

Il Regolamento, innanzitutto, nelle Disposizioni Generali (Capo I), precisa il proprio oggetto (Art. 1) e il proprio ambito di applicazione (Art. 2), provvedendo a fornire una lunga serie di Definizioni (Art. 3: sono ben 68!), che analizzeremo nel dettaglio in una futura pubblicazione.

Dopo avere identificato le Pratiche di Intelligenza Artificiale Vietate (Capo II), identifica i Sistemi di Intelligenza Artificiale ad Alto Rischio, classificandoli e precisandone i requisiti, così come stabilendo gli obblighi dei fornitori e dei “deployer” di tali sistemi (Capo III).

Prosegue indicando gli Obblighi di Trasparenza per determinati sistemi di Intelligenza Artificiale (Capo IV) e si sofferma sui Modelli di AI per finalità generali (Capo V), come il noto Chat GPT, oppure Gemini e tanti altri.

Seguono Misure a sostegno dell’innovazione (Capo VI), Governance (Capo VII), Banca dati dell’UE per i sistemi di AI ad alto rischio (Capo VIII) e la parte dedicata al Monitoraggio successivo all’immissione sul mercato (Capo IX).

Chiudono il testo le non meno importanti disposizioni relative a Codici di Condotta (Capo X), Delega di potere e procedura di comitato (Capo XI), le Sanzioni (Capo XII), le Disposizioni finali (Capo XIII).

I molti Allegati precisano normative di armonizzazione, elenchi di sistemi ad alto rischio, documentazioni tecniche necessarie e informazioni da presentare in relazione agli obblighi di trasparenza. 

 

Gli elementi più significativi

Il Regolamento definisce “<sistema di IA> un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.

Si tratta di una definizione che, pur a lungo discussa, ricalca sostanzialmente quelle maggiormente riconosciute. Secondo la norma ISO/IEC TR 24030:2021 (AI Use cases), ad esempio, l’intelligenza artificiale è la “capacità di acquisire, elaborare, creare e applicare conoscenza, conservata sotto forma di modello, per svolgere uno o più compiti determinati”.

In sostanza un sistema di AI riceve degli input, li elabora secondo uno o più modelli o algoritmi sottostanti e ne trae risultanze, o esegue compiti specifici.

Come si vede, può essere difficile stabilire la differenza con il software, che è escluso dalla regolamentazione dell’AI Act. Restano infatti fuori dalla definizione di AI software meno complessi,  linguaggi o sistemi di programmazione e sistemi basati su regole definite esclusivamente da persone per eseguire automaticamente delle operazioni.

Ciò, molto sinteticamente, perché sono differenti le capacità e le modalità di funzionamento dei due sistemi (sw – ai):

  • un software è un insieme di istruzioni e di informazioni progettate per svolgere un compito specifico in modo deterministico, fornendo sempre lo stesso output a fronte del medesimo input, senza alcuna capacità di adattarsi o di apprendere autonomamente;
  • un sistema di intelligenza artificiale è un sistema in grado di simulare l’intelligenza umana (solo di simulare, ricordiamocelo!) e può apprendere da dati e da esperienze, adattandosi e migliorando le proprie decisioni.

 

I livelli di rischio

Il Regolamento, poi, classifica i sistemi di intelligenza artificiale in base al livello di rischio che essi possono presentare e, conseguentemente, stabilisce requisiti per lo sviluppo, l’implementazione e l’utilizzo di tali sistemi, a seconda della classificazione di ciascuno.

Come accennato, il Regolamento classifica i sistemi di IA in base a:

  • Rischio inaccettabile: si tratta di sistemi vietati (come vedremo, ad esempio, sistemi di scoring sociale);
  • Rischio elevato: sistemi soggetti a rigorosi requisiti (come ad esempio i sistemi di riconoscimento facciale, che necessitano di documentazioni tecniche e procedure di valutazione di impatto appositamente redatte);
  • Rischio limitato: prevede requisiti meno rigorosi;
  • Rischio minimo: sistemi non soggetti a particolari requisiti.

 

 

A chi si applica il Regolamento

Si applica a 

  • fornitori, 
  • importatori e 
  • distributori di sistemi di intelligenza artificiale o modelli di intelligenza artificiale che vengono immessi sul mercato dell’UE, messi in servizio o utilizzati nell’UE, anche se stabiliti in un paese terzo.

 

Nelle prossime uscite cominceremo ad analizzare il testo più in dettaglio.

 

👾 👾 👾 👾 👾

 

Questa newsletter si propone di esaminare le principali disposizioni in arrivo con un linguaggio semplice e chiaro, accompagnato il più possibile da esempi concreti.

Un po’ alla volta, per prepararci tutti quanti insieme, con consapevolezza, a quanto sarà necessario sapere e mettere in pratica nell’attività di tutti i giorni.

Se sei interessato, iscriviti. 👾