Alla scoperta delle norme dedicate all’intelligenza artificiale

 

Modelli e sistemi particolari: trasparenza

 

Oggi leggiamo solamente l’articolo 50, che prevede, sostanzialmente, obblighi di trasparenza per comunicare agli utenti che quello che stanno usando, guardando, leggendo, o con cui stanno interagendo, è un sistema o un software che utilizza anche l’intelligenza artificiale.

 

I sistemi e i modelli “particolari” sono questi:

  • quelli che interagiscono direttamente con le persone;
  • quelli che generano contenuti audio, immagine, video o testuali sintetici;
  • i sistemi di riconoscimento delle emozioni o di categorizzazione biometrica;
  • quelli che generano o manipolano immagini o contenuti audio e video, ossia quelli che permettono la creazione dei deep fake;
  • quelli che generano o manipolano i testi pubblicati per informare il pubblico su questioni di interesse pubblico.

 

I primi due obblighi sono rivolti ai fornitori, ossia a chi sviluppa o fa sviluppare sistemi o modelli di AI e li immette sul mercato o in servizio con il proprio marchio.

Gli altri tre ai deployer, ossia agli utilizzatori (ricordiamo che, come per il Gdpr, questo Regolamento non si applica agli utilizzi privati e domestici).

 

Sistemi che interagiscono direttamente con le persone 

I fornitori devono progettare i sistemi in modo che le persone sappiano di stare interagendo con l’intelligenza artificiale, salvo quando siano ragionevolmente informate (sono esclusi i sistemi di law enforcement).

Per esempio, il classico chatbot di assistenza clienti dovrebbe chiaramente identificarsi come IA, mentre un sistema di analisi del traffico per individuare infrazioni potrebbe non farlo.

 

Sistemi che generano contenuti sintetici

I fornitori devono chiaramente “marcare” i contenuti con soluzioni efficaci, interoperabili, robuste e affidabili, salvo si tratti di sistemi standard che non modificano sostanzialmente il contenuto.

Un applicativo che genera immagini deve quindi chiaramente indicare che l’output è generato tramite l’applicazione di un sistema di AI.

 

Sistemi di riconoscimento delle emozioni

Gli utilizzatori di questi sistemi come di quelli di categorizzazione biometrica, devono informare chiaramente le persone che li stanno utilizzando e farlo, ovviamente, nel rispetto delle norme data protection (che, ricordiamo, si applicano integralmente anche all’AI Act). Questo obbligo non si applica ai sistemi di law enforcement.

Ricordiamo, in ogni caso, che un sistema che inferisca le emozioni di una persona sul luogo di lavoro è un sistema vietato ai sensi dell’art. 5 e altrettanto lo sarebbe un sistema che, tramite un tale riconoscimento, ne sfruttasse le vulnerabilità (cfr. il numero #03: https://studiolegalebroglia.com/2024/06/09/frid_ai_news-03-07-06-2024/).

 

Sistemi che generano deep fake

I deepfake sono foto, video e audio creati grazie a software che manipolano contenuti reali e modificano o creano, in modo molto realistico, caratteristiche reali.

Al di là di eventuali profili di rilevanza penale (cfr. art. 494 c.p.), il regolamento stabilisce che i contenuti generati o manipolati con tali modalità devono essere comunicati.

Fanno eccezione utilizzi autorizzati in tema di law enforcement e utilizzi limitati nell’ambito delle creazioni artistiche (creative, satiriche, fittizie).

Agevole, in questo caso, fare un esempio: un video che rappresenti un personaggio politico che esprime determinate idee, creato artificialmente, deve essere chiaramente “marcato” come artificiale o sintetico (https://www.theverge.com/2024/7/29/24208671/elon-musk-deepfake-ai-kamala-harris-parody).

Diverso il discorso della creazione o utilizzo di un sistema di intelligenza artificiale per ricreare un personaggio in un film, come per esempio è avvenuto nell’ultimo capitolo di Indiana Jones (https://www.wired.it/article/indiana-jones-5-ruota-del-destino-trailer-ai-reaging/).

I deployer devono rendere noto che il contenuto è stato generato o manipolato artificialmente.

 

Sistemi che generano testo su questioni di interesse pubblico

Si tratta dell’utilizzo di sistemi di generazione di testo destinato ad intervenire in questioni di carattere, natura, dominio pubblico, evidentemente finalizzati a creare discussioni, trend, polarizzazioni, engagement o, ancora, a intervenire direttamente in questioni di elevato impatto politico e sociale.

L’intento è, quindi, quello di obbligare a dichiarare che il contenuto non è reale ma creato artificialmente.

 

 

Quando dichiarare l’artificialità

Le informazioni devono essere fornite al più tardi al momento della prima interazione o esposizione; devono essere chiare, distinguibili, accessibili.

 

Sistemi “particolari” perché potenzialmente pericolosi

I sistemi di cui si occupa l’articolo 50 rappresentano tecnologie avanzate che interagiscono con gli esseri umani in modi sempre più sofisticati: utilizzando algoritmi di apprendimento automatico per generare contenuti, riconoscere emozioni e creare rappresentazioni realistiche di persone o situazioni, sollevano preoccupazioni etiche non solo per quanto riguarda la privacy, ma anche la manipolazione delle emozioni e la diffusione di disinformazione.

Il potenziale uso improprio di queste tecnologie potrebbe portare a manipolazioni su larga scala, mentre la diffusione di contenuti sintetici convincenti potrebbe minare la fiducia nelle informazioni autentiche e influenzare l’opinione pubblica in modo dannoso.

👾

La prossima settimana continueremo l’analisi e, come sempre, ogni suggerimento o correzione è più che ben accetta! 

👾 👾 👾 👾 👾

Questa newsletter si propone di esaminare le principali disposizioni in arrivo con un linguaggio semplice e chiaro, accompagnato il più possibile da esempi concreti.

Se sei interessato, iscriviti. 👾