HABEMUS AI ACT. È GAUDIUM MAGNUM?
Dopo molte ore di trattativa è stato finalmente approvato il cosiddetto AI ACT, ovvero il documento attraverso il quale l’Unione Europea intende regolare lo sviluppo e le modalità di utilizzo dei sistemi AI. Tra i principali estensori del documento vi è il giovane eurodeputato italiano Brando Benifei.
Massimo Morelli
I punti focali
Il provvedimento discusso è naturalmente assai complesso, ma in sostanza le negoziazioni hanno riguardato due ambiti fondamentali:
1. Il possibile utilizzo delle capacità analitico-predittive dei sistemi AI da parte degli Stati membri al fine di prevenire o identificare reati o comportamenti antisociali, limitando però fortemente il diritto alla privacy dei cittadini europei. Qui si tratta di regolamentare il riconoscimento biometrico in tempo reale (soprattutto attraverso il riconoscimento facciale), le attività di polizia predittiva (ricordiamo Minority Report?) e il cosiddetto social scoring, ovvero la generazione di classifiche di merito dei cittadini in base ai loro comportamenti, pratica già piuttosto avanzata ad esempio in Cina. In sostanza il problema è quello di limitare l’espansione della cosiddetta ‘società della sorveglianza’, così come definita nel classico di Shoshana Zuboff.
2. Il difficile equilibrio tra facoltà concesse e limiti imposti alle aziende che sviluppano i cosiddetti modelli fondativi, ovvero i sistemi AI general purpose come chat-GPT, LaMDA, LlaMA e altri, soprattutto quando questi svolgano attività definite ad alto rischio, in relazione ad asset fondamentali come la salute, la sicurezza, l’istruzione e i trasporti.
I protagonisti delle trattative.
Da un lato il Parlamento UE, che mira a salvaguardare la sicurezza e le libertà fondamentali dei cittadini europei, dall’altro il Consiglio Europeo in rappresentanza degli Stati membri cui molte applicazioni dei sistemi AI possono essere utili per garantire la sicurezza e ordine delle strutture statuali. Semplificando molto, potremmo dire: da un lato i rappresentati dei cittadini, dall’altro i rappresentanti dei governi degli Stati membri.
A questi aggiungiamo due attori importantissimi: da una parte gli accademici/intellettuali preoccupati per i rischi di varia natura legati allo sviluppo dei sistemi AI, dall’altra i rappresentanti delle aziende coinvolte nello sviluppo dei medesimi, che naturalmente mirano a garantirsi la maggiore libertà d’azione possibile.
Com’è andata a finire?
In buona sostanza gli estensori dell’AI ACT possono ritenersi soddisfatti, perché molte delle loro proposte sono passate.
1. Per quanto riguarda le capacità analitico-predittive, il riconoscimento biometrico in tempo reale è vietato salvo che in nei casi di evidente minaccia di attacco terroristico, ricerca di vittime dei crimini e persecuzione di crimini particolarmente efferati.
L’uso di sistemi AI in grado di definire le potenzialità criminogene degli individui (polizia predittiva) è anch’esso vietato tranne che in casi di evidente minaccia per la sicurezza nazionale. Naturalmente bisognerà capire chi e in base a quali criteri deciderà se e quando ci si trovi in presenza di tali minacce, ma questo è oggetto di futuri sviluppi attuativi.
Infine anche il social scoring è bandito dall’ambito dell’Unione Europea.
2. Per quanto attiene ai modelli fondativi, si è deciso di definire due diverse categorie basate sulla capacità computazionale: al di sopra dei 10^25 FLOPs (floating point operations per second) e al di sotto. Per i sistemi che si trovano al di sopra di questa soglia viene richiesta ex ante una stringente applicazione delle norme di sicurezza informatica, trasparenza nei processi e nei dati impiegati per il tutoring, nonché un’ampia condivisione delle specifiche tecniche (architetture, parametri, etc.). Insomma si richiede un alto livello di trasparenza, e qui bisognerà vedere come tali obblighi saranno armonizzati con le esigenze delle aziende di tutelare il loro know-how tecnologico.
Per quanto riguarda i sistemi al di sotto di tale soglia, le richieste di trasparenza, controllo dei contenuti e rispetto della privacy si attivano ex post al momento della commercializzazione delle singole applicazioni.
Ma forse l’aspetto più interessante è la dinamica premiante nei confronti dei sistemi open source rispetto a quelli black box, laddove si afferma che “forti eccezioni alle restrizioni previste per i modelli fondativi sono previste per i modelli open source, che vengono sviluppati utilizzando codice liberamente disponibile per gli sviluppatori che possono modificarlo per i propri prodotti e strumenti.”
The good and the bad
A nostro giudizio l’aspetto più positivo dell’AI ACT è proprio l’incoraggiamento a percorrere la strada dell’intelligenza artificiale open source. Visto che comunque lo sviluppo di questi modelli è inarrestabile, il livello di pubblica condivisione degli standard tecnologici riveste un’importanza fondamentale.
Sul tema della lotta al dilagare della società della sorveglianza siamo invece più scettici. Non vorremmo che i pur legittimi limiti imposti ai sistemi AI in merito alle loro capacità analitico-predittive (riconoscimento biometrico, polizia predittiva, social scoring) distogliesse l’attenzione dal vero vulnus già in essere grazie ai dati raccolti nel web e nei social media da multinazionali private, tanto che qualcuno parla legittimamente di ‘feudalesimo digitale’. Non stiamo per caso chiudendo il recinto quando i buoi sono già allegramente usciti?