La polizia predittiva può arrestare l’AI ACT?

Le trattative per arrivare a un accordo informale il 6 dicembre hanno alcuni ostacoli. Regolamentazione dei foundation model e dell’uso di AI securitarie su tutti

Un'immaginaria copertina di un'altrettanto immaginaria vecchia rivista dal titolo ROBOPOLICE realizzata con Dall-e su idea di Alberto Puliafito

Le elezioni stanno arrivando

Con le elezioni europee alle porte, parecchi dossier su cui sta lavorando l’attuale legislatura hanno bisogno di accelerare. Fra questi dossier c’è senz’altro l’AI Act, cioè la proposta di regolamento delle intelligenze artificiali che si trova nella fase del trilogo. Se nell’estate del 2023 sembrava che le cose procedessero spedite, l’autunno ha portato qualche intoppo.

Italia, Francia e Germania contro l'AI Act?

Secondo Politico, un’azione congiunta Italia, Francia e Germania starebbe minando le basi stesse del regolamento. Stando alle ricostruzioni del giornale, le tre nazioni starebbero facendo ostruzionismo perché i governi sosterrebbero che «imporre severe restrizioni a questi nuovi modelli danneggerebbe i campioni dell’UE nella corsa per sfruttare la tecnologia dell’intelligenza artificiale».

Ma non era tutto pericolosissimo?

Questa presa di posizione, almeno apparentemente, stride con la narrativa dominante – culminata, almeno nel mondo della politica, con la cosiddetta dichiarazione di Bletchley.
A Londra il Primo ministro britannico Rishi Sunak ha intervistato l’uomo più ricco del mondo, Elon Musk – facendo precedere l’intervista da un video con il numero 10 di Downing Street che si trasforma nella X di X/Twitter, il social dello stesso Musk. Il primo novembre 2023, 28 governi – fra cui anche quello italiano – hanno firmato proprio a Londra questo documento con cui si riconoscono le enormi possibilità e opportunità offerte dalle intelligenze artificiali. Ma si pone anche l’accento sui rischi esistenziali che comportano, senza però attenersi al qui e ora. Per esempio: se è vero che decine di milioni di posti di lavoro sono a rischio ci si aspetterebbe, da una dichiarazione del genere, riferimenti alla ricerca di ammortizzatori sociali innovativi. Si preferisce, invece, concentrarsi sulle potenziali problematiche catastrofiche.
In realtà concentrarsi sulla possibile catastrofe che verrà un giorno sembra essere un perfetto paravento per nascondere i problemi e i rischi che ci sono già adesso, connessi a svariati usi possibili delle AI.

Slow News. Il primo progetto italiano di slow journalism.
L'immagine fa parte della serie "Robopolice", realizzata con Dall-e da Alberto Puliafito

Accordo sull'impianto generale del regolamento

Abbiamo chiesto all’europarlamentare Brando Benifei, correlatore dell’AI Act, di commentare la situazione e di spiegarcela. «In queste ore», ci ha detto, «si sta discutendo un possibile compromesso per concludere le negoziazioni il 6 dicembre. Non è facile. In realtà, non è in discussione l’impianto generale del regolamento. C’è accordo sul fatto che vada verificata la rischiosità dei sistemi di intelligenza artificiale a seconda degli ambiti di utilizzo, per esempio, nei luoghi di lavoro, nell’amministrazione della giustizia, nella sanità: sono tutti ambiti dove i sistemi di AI vengono qualificati come ad alto rischio e devono sottostare a una verifica di conformità e a una serie di verifiche tecniche. Su questo, appunto, c’è accordo: si tratta di una procedura che regola i sistemi sulla base degli ambiti in cui è previsto il loro uso»

Scontro su due temi. Il primo: i foundation model

«Ci sono in particolare due temi su cui ci sono ancora delle distanze significative», prosegue Benifei. «Uno riguarda le regole sui modelli più potenti, i foundation models». Si tratta di modelli di machine learning addestrati su grandi quantità di dati. Dei foundation model fanno parte i vari GPT su cui è costruito, per esempio, ChatGPT.

«Le posizioni sono ancora distanti perché alcuni governi, in particolare, stanno spingendo per avere soltanto delle indicazioni facoltative rispetto a alcuni temi di sicurezza come la governance dei dati, la cyber-sicurezza, l’impatto ambientale. La proposta del Parlamento Europeo non esclude la possibilità di fare ulteriori passi in una forma di co-regolazione, anche volontaria, ma vuole mantenere un nucleo – anche limitato – di obblighi. Secondo noi, questi modelli prima di diventare sistemi che entrano nel mercato devono avere alcune regole di sicurezza.»

Slow News. Il primo progetto italiano di slow journalism.
Un'altra illustrazione realizzata con Dall-e per la serie "Robopolice"

Secondo: la sorveglianza e la polizia predittiva

«L’altro tema molto complesso sono i divieti di utilizzo dei sistemi di intelligenza artificiale per attività di sorveglianza, per polizia predittiva, per riconoscimento emotivo: su questi sistemi ci sono divergenze ancora forti. I governi vorrebbero più mano libera per gli strumenti di sorveglianza e vorrebbero più eccezioni per gli usi in ambito di polizia, mentre noi vorremmo molti limiti, come crediamo sia necessario per tutelare le persone dal rischio di violazione dei diritti fondamentali».

«Questi sono i temi su cui si deve trovare un accordo perché l’approvazione avvenga il 6, per un accordo provvisorio informale tra Parlamento e Consiglio, che permetterebbe un voto formale il nuovo anno. Se non raggiungeremo un accordo dovremo riprovare a gennaio».

Un lavoro difficile

Regolamentare è un lavoro difficile. Farlo in un mondo che va velocissimo anche. Farlo in un mondo dove l’estrazione di valore e di profitto sembra essere raccontata come unico possibile modello di vita, ancora di più. Le intelligenze artificiali offrono enormi opportunità all’umanità tutta: basta intravederne le possibili applicazioni per rendersene conto. Tuttavia, l’assenza di regole potrebbe rappresentare un problema serio: abbiamo bisogno di parlare di queste macchine per decidere come usarle, quando usarle e in che modo. Ecco perché è importante seguire con attenzione queste trattative in corso.

 

Credits

A questo pezzo hanno lavorato:

– una persona, Alberto Puliafito, per i contatti con Benifei, la stesura del pezzo, le idee

– tre macchine

    • Pinpoint per la trascrizione dell’intervista con Benifei
    • Midjourney per alcune illustrazioni poi scartate
    • Dall-e per alcune illustrazioni utilizzate nella serie “Robopolice”
Continua a seguirci
Slow News ti arriva anche via email, da leggere quando e come vuoi...
Iscriviti gratis e scegli quali newsletter vuoi ricevere!
Altri articoli Politica