Alla scoperta delle norme dedicate all’intelligenza artificiale

 

Autorità e procedure

Il regolamento sull’intelligenza artificiale, come sappiamo, è ampio e corposo e, purtroppo, in diverse parti non è affatto piacevole da leggere (qualcuno deve pur dirlo! 😁).

Le disposizioni che affrontiamo oggi sono tra queste.

Rammentato che l’obiettivo principale della regolamentazione è quello di garantire che lo sviluppo e l’utilizzo dell’IA avvengano in modo etico, sicuro e rispettoso dei diritti fondamentali, è opportuno conoscere ruolo e competenze di alcune autorità, che hanno per il vero specifiche disposizioni in merito alla loro composizione e funzionamento.

 

Qualche definizione

Autorità nazionale competente: un’autorità di notifica o un’autorità di vigilanza del mercato (art. 3, n. 48).

Autorità di notifica: l’autorità nazionale responsabile dell’istituzione e dell’esecuzione delle procedure necessarie per la valutazione, la designazione e la notifica degli organismi di valutazione della conformità e per il loro monitoraggio (art. 3, n. 19).

Valutazione della conformità: la procedura atta a dimostrare se i requisiti relativi a un sistema di IA ad alto rischio sono stati soddisfatti (n. 20).

Organismo di valutazione della conformità: un organismo che svolge per conto di terzi attività di valutazione della conformità, incluse prove, certificazioni e ispezioni (n. 21).

Organismo notificato: un organismo di valutazione della conformità notificato in conformità del regolamento e di altre norme di armonizzazione (n. 22).

Ogni Stato europeo deve istituire un’Autorità nazionale competente, istituendo o designando almeno una Autorità di notifica (notifying authority) e almeno una Autorità di sorveglianza del mercato (market surveillance authority). 

Queste due Autorità sono incaricate di verificare la conformità alla disciplina del regolamento dei prodotti informatici di IA immessi sul mercato nazionale, con apposite procedure.

 

Autorità di Notifica

Le aziende che sviluppano o impiegano sistemi di IA ad alto rischio sono tenute a notificare tali sistemi alle autorità nazionali competenti, che devono valutare la conformità dei sistemi al regolamento.

Le autorità sono chiamate a 

  • valutare i rischi associati ai sistemi di IA notificati, assicurandosi che siano mitigati adeguatamente; 
  • verificare che i sistemi siano conformi ai requisiti tecnici e di trasparenza;
  • in alcuni casi possono emettere autorizzazioni specifiche per l’immissione sul mercato o l’utilizzo di sistemi di IA ad alto rischio;
  • devono monitorare l’utilizzo dei sistemi per garantire che i rischi siano gestiti in modo efficace e che non si verifichino violazioni del regolamento.

 

Procedure di Notifica

Le procedure di notifica variano a seconda del tipo di sistema di IA e dello Stato membro in cui è sviluppato o utilizzato. 

Tuttavia, in generale, il processo prevede:

  • una autovalutazione: le aziende sono tenute a effettuare un’autovalutazione dei loro sistemi di IA per identificare i potenziali rischi e valutare la conformità ai requisiti del regolamento;
  •  la documentazione dettagliata che descriva il sistema di IA, i suoi scopi, i dati utilizzati e le misure di mitigazione adottate;
  • la notifica della documentazione all’autorità nazionale competente;
  • la successiva valutazione dell’autorità, che può chiedere informazioni o chiarimenti;
  • la decisione dell’autorità sulla conformità del sistema, eventualmente con condizioni e restrizioni.

 

Una immagine per fornire un’idea sommaria di quanto previsto negli articoli che vanno dal 28 al 49, ossia della seconda parte del Capo III dell’AI Act. 

 

 

👾

La prossima settimana continueremo l’analisi e, come sempre, ogni suggerimento o correzione è più che ben accetta! 

👾 👾 👾 👾 👾

Questa newsletter si propone di esaminare le principali disposizioni in arrivo con un linguaggio semplice e chiaro, accompagnato il più possibile da esempi concreti.

Se sei interessato, iscriviti. 👾