Con un comunicato stampa pubblicato lo scorso 7 maggio, il Parlamento Europeo ha annunciato che, dopo mesi di trattative, è stato raggiunto un accordo con il Consiglio sulla modifica del regolamento europeo sull’intelligenza artificiale, il cosiddetto AI Act. Le modifiche si inseriscono in più ampio pacchetto di proposte di semplificazione promosso dalla Commissione Europea, noto con il nome di “Digital Omnibus”.
Quando, nell’ormai lontano 2021, la Commissione Europea presentò la propria proposta per la regolamentazione dell’intelligenza artificiale, i principali argomenti sostenuti da chi si diceva contrario a questa iniziativa vertevano sul rischio di cosiddetta obsolescenza della normativa e sull’eccessiva onerosità degli obblighi che sarebbero stati imposti a tutti i soggetti coinvolti nel ciclo di vita dei sistemi di intelligenza artificiale. In altre parole, da un lato si temeva che la regolamentazione non riuscisse a stare al passo con l’evoluzione della tecnologia, rivelandosi presto inefficace e, dall’altro, che le aziende avrebbero fatto difficoltà ad adeguarsi ai nuovi obblighi.
Le modifiche che il legislatore europeo ha avvertito la necessità di proporre sembrano per certi versi dare ragione a chi portava avanti queste posizioni.
Anche se il testo dell’accordo non è ancora stato pubblicato, stando al comunicato stampa del Parlamento Europeo, gli interventi verterebbero su tre grandi filoni.
Il primo riguarda l’ampliamento delle cosiddette pratiche vietate, ossia le categorie di sistemi di intelligenza artificiale che non possono essere né immessi né utilizzati nel mercato europeo perché ritenuti a rischio “inaccettabile”. Ad oggi, ad esempio, questa categoria ricomprende sistemi che sfruttano le vulnerabilità degli individui per orientarne le scelte, ma anche molti altri.
Nella nuova versione dell’AI Act, ad essere vietati saranno anche i cosiddetti “nudifier”, ossia i sistemi di intelligenza artificiale che consentono di creare immagini sessualmente esplicite partendo da fotografie normali. I sistemi che “spogliano” le persone. Un’integrazione di cui si è avvertita la necessità a causa della dilagante diffusione del fenomeno, che ha catturato molto l’attenzione pubblica negli ultimi mesi. A livello globale, il caso che ha fatto discutere di più è quello di Grok, il sistema messo a disposizione degli utenti della piattaforma X e che ha portato all’apertura di un’istruttoria da parte della Commissione Europea. In Italia, ad esempio, il tema è stato particolarmente dibattuto in questi giorni, da quando ha iniziato a circolare un deepfake che ritrae la Presidente del Consiglio Giorgia Meloni in biancheria intima. Non a caso, il Garante per la protezione dei dati personali, che in passato ha adottato provvedimenti per cercare di limitare l’attività di piattaforme che offrono questo genere di “servizi”, ha pubblicato un comunicato stampa chiedendo maggiori poteri d’intervento per un’azione più efficace.
La necessità di integrare il testo dell’AI Act per contrastare un fenomeno che fino a poco tempo fa ignoravamo, dà l’idea di quanto sia difficile per la regolamentazione stare al passo rispetto allo sviluppo della tecnologia. Ne avevamo avuto prova già durante l’iter di approvazione dell’AI Act, quando la diffusione improvvisa di sistemi basati su Large Language Models come ChatGPT ha portato a una profonda revisione della proposta iniziale, proprio per includere regole specifiche applicabili ai fornitori di questi modelli.
La seconda categoria di modifiche riguarda, invece, il momento di applicabilità di alcuni degli obblighi previsti dall’AI Act. Nonostante il regolamento sia stato approvato nel 2024, infatti, ad oggi sono applicabili solo regole sulle pratiche vietate e l’alfabetizzazione. Per gli altri obblighi, riguardanti soprattutto i sistemi considerati “ad alto rischio” e i requisiti di trasparenza per alcune tipologie di sistemi (per esempio, l’obbligo di contrassegnare come generato da intelligenza artificiale un determinato contenuto), si è scelto di spostare in avanti il momento dell’applicabilità. Questa scelta, comune soprattutto nella legislazione europea di natura regolamentare, è normalmente finalizzata a garantire ai soggetti che devono adeguarsi alla normativa un periodo di tempo sufficiente per rispettare i nuovi requisiti.
Il testo approvato nel pacchetto Digital Omnibus sposta ulteriormente in avanti l’applicabilità di questi obblighi, distribuendoli fra la metà del 2027 e del 2028, anziché dall’agosto di quest’anno, come previsto dal testo originale. La ragione di questo slittamento va cercata in parte nel fatto che le stesse istituzioni europee non sono state in grado di approvare per tempo le linee-guida e le altre indicazioni che sarebbero servite a facilitare l’adempimento degli obblighi. In parte, il motivo è riconducibile però anche all’onerosità degli obblighi stessi e alla difficoltà riscontrata dalle aziende nel darvi seguito. In altre parole, la concretizzazione di quel rischio che i detrattori dell’AI Act avevano enfatizzato sin dal primo momento.
Anche il terzo pacchetto di modifiche può essere considerato, almeno in qualche misura, riconducibile a questo aspetto. Si tratta, infatti, soprattutto di interventi volti a garantire un migliore coordinamento, in ottica di semplificazione, fra l’AI Act e le altre normative europee applicabili ai sistemi di intelligenza artificiale. L’obiettivo è quello di creare un quadro normativo quanto più lineare possibile, evitando il rischio di sovrapposizione e duplicazione di obblighi.
Adesso, il testo dovrà essere approvato formalmente dal Parlamento Europeo e dal Consiglio, approvazione che dovrebbe avvenire prima del 2 agosto, data a partire dalla quale le disposizioni dell’AI Act sarebbero diventate applicabili.