Gli usi delle intelligenze artificiali e l’AI Act
L’Unione Europea è al lavoro per regolare le nuove tecnologie, a partire dal modo in cui vengono usate. Perché ci riguarda? Ne parliamo anche con Brando Benifei, parlamentare europeo e correlatore dell’AI Act.
La transizione digitale è accelerata grazie alla pandemia. E può essere un’occasione per diminuire le disuguaglianze.
Le intelligenze artificiali sono diventate virali e pop tra l’estate del 2022 e la primavera del 2023, complici le strategie di marketing di alcune aziende private americane che si occupano prevalentemente di intelligenze artificiali generative. E complice anche il ciclo delle news che, come al solito, va a ondate, si muove per picchi di interesse per poi lasciare enormi buchi tra un macro-evento e l’altro.
Su Slow News abbiamo pubblicato una policy per l’uso che facciamo delle I.A., perché queste macchine entreranno – anzi, sono già entrate – in maniera massiva nel mondo del giornalismo. Anche questo articolo è illustrato da immagini disegnate da una macchina su mie indicazioni. E ho usato macchine di intelligenza artificiale per fare molte cose (se vuoi scoprire quali, scrolla fino al fondo dell’articolo e scoprirai chi ci ha lavorato, umani e non umani).
Ma le intelligenze artificiali ci riguardano da vicino, più in generale, come cittadine e cittadini.
Non sono un fatto nuovo: hanno una storia strutturata. Non sono una tecnologia che piomba all’improvviso nel discorso, non si devono all’impulso di una sola persona o di una sola azienda. Non sono un fatto nuovo nemmeno per quanto riguarda la politica di coesione europea, quella politica, cioè, che agisce in Europa per eliminare le disuguaglianze.
Se cerchiamo sul sito di Open Coesione le parole “intelligenza artificiale”, per esempio, troviamo elencati, al 4 agosto 2023, 452 progetti italiani che rientrano tra i finanziamenti e i co-finanziamenti dei fondi di politica di coesione europea, per un totale di 200 milioni di finanziamenti pubblici.
Li abbiamo estratti e messi in ordine qui: 35 fanno parte del ciclo di programmazione dei fondi che andava dal 2007 al 2014.
Se si consulta l’archivio soprattutto esaminando i progetti più vecchi si trovano già, in embrione, gli usi più interessanti delle intelligenze artificiali: diagnosi precoci di malattie e trattamenti di patologie oncologiche su tutte.
Ma si trovano già anche usi con rischi potenziali, come per esempio il reclutamento in ambito lavorativo. E le strutture di monitoraggio di contesti ambientali e di spostamenti di persone, potenzialmente molto invasive, come la Smart Control Room 2.0 di Venezia.
Se la tecnologia va velocissima – quando non la monitori quotidianamente, poi, ti sembra che proceda per salti esponenziali –, gli usi della medesima rientrano in ambiti che si possono quasi sempre circoscrivere, a patto di volerli mappare con calma.
L’AI Act dell’Unione Europea: cos’è?
Il cosiddetto AI Act dell’Unione Europea è il primo lavoro politico, a livello mondiale, di regolamentare gli usi della tecnologia e non la tecnologia stessa.
La priorità del Parlamento – si legge nella scheda che introduce i lavori – è quella di garantire che i sistemi di intelligenze artificiali (IA) utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori ed ecologici. I sistemi IA dovrebbero essere supervisionati da persone, piuttosto che da automazione, per prevenire possibili output dannosi.
Il Parlamento, inoltre, vuole anche arrivare a una definizione uniforme e neutra delle tecnologie di IA, che possa essere applicata anche a futuri sistemi. Sembra una questione puramente burocratica, ma, in realtà, la definizione del concetto stesso di intelligenza artificiale è sfuggente e complessa.
AI Act: regole diverse per diversi livelli di rischio
L’AI Act prevede una definizione dei rischi all’interno della quale rientrano diversi usi di queste tecnologie: a seconda della tipologia di “rischio” in cui rientra l’uso di un’AI, ci sono regole diverse.
Rischio inaccettabile (cioè, pericoloso per le persone)
Questi usi sono proibiti dall’AI Act. Rientrano in questa categoria, per esempio:
1) manipolazione comportamentale cognitiva delle persone o di gruppi vulnerabili specifici (ad esempio giocattoli attivati dalla voce che incoraggiano comportamenti pericolosi nei bambini)
2) punteggio sociale (in inglese, social scoring): classificazione delle persone in base al comportamento, allo status socio-economico o alle caratteristiche personali
3) sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale
Rischio elevato
I sistemi IA che possono avere impatti negativi sulla sicurezza delle persone o sui diritti fondamentali saranno considerati ad alto rischio. Verranno valutati prima di poter essere immessi nel mercato e durante il loro “ciclo di vita”.
Rientrano in questo ambito:
1) Sistemi IA utilizzati in prodotti che rientrano nella legislazione dell’UE sulla sicurezza dei prodotti (per esempio: giocattoli, automobili, aviazione, dispositivi medici, ascensori)
2) Sistemi IA che rientrano in otto aree specifiche che dovranno essere registrati in un database dell’UE.
Le aree sono:
a) Identificazione e categorizzazione biometrica delle persone
b) Gestione e funzionamento delle infrastrutture critiche
c) Educazione e formazione professionale
d) Occupazione, gestione dei lavoratori e lavoro autonomo
e) Accesso e godimento di servizi privati essenziali e servizi e benefici pubblici
f) Applicazione della legge
g) Gestione del controllo dell’immigrazione, dell’asilo e dei confini
h) Assistenza nell’interpretazione legale e nell’applicazione della legge
IA generativa nell’AI ACT
Le intelligenze artificiali generative – come ChatGPT e Midjourney – dovranno rispettare requisiti di trasparenza:
1) divulgare che il contenuto è stato generato da IA
2) progettare il modello per impedire che generi contenuti illegali
3) pubblicare riassunti dei dati protetti da copyright utilizzati per la formazione
Rischio limitato
I sistemi IA a rischio limitato dovrebbero, infine, secondo l’AI Act, rispettare requisiti minimi di trasparenza per consentire alle persone di prendere decisioni informate: le persone devono essere consapevoli di stare interagendo con un’IA e deve poter decidere se continuare a utilizzarla o meno. Questo include anche sistemi IA che generano o modificano immagini, audio o contenuti video.
Brando Benifei e l’AI ACT: l’intervista
Per capire meglio a che punto è questo lavoro di regolamentazione e per chiarirne alcuni aspetti, abbiamo raggiunto telefonicamente Brando Benifei, correlatore per il Parlamento Europeo proprio dell’AI Act che, a giugno del 2023 è stato votato in forma definitiva dal Parlamento europeo, dopo la prima proposta della Commissione europea e dopo il lavoro dell’Eurocamera e delle sue commissioni.
Quali sono i prossimi passi dell’AI Act e quando dobbiamo aspettarci di vederlo “in azione”?
«Bisogna affrontare l’ultimo step del processo legislativo, cioè l’allineamento tra il testo del Parlamento Europeo e quello del Consiglio (composto dai governi dei 27 stati Ue, ndr) per arrivare così a un testo finale di legge da approvare.
Questo processo di negoziazione e allineamento dovrebbe occupare i prossimi mesi fino alla fine dell’anno, in modo da approvare il testo finale all’inizio del 2024. Ad oggi – a meno che non cambiamo i termini nella negoziazione in corso – è previsto che ci siano due anni prima della piena applicazione. Il che non vuol dire che nei due anni tra approvazione e piena applicazione non succeda nulla. Ci saranno diversi step.
Intanto, sarà necessario installare le autorità nazionali di supervisione che sovrintendono la governance di questa norma. Poi c’è la necessità di dare il tempo alle pubbliche amministrazioni, alle aziende di adattarsi alle nuove regole: questo riguarda sia gli sviluppatori sia gli utilizzatori dei sistemi di intelligenza artificiale. La Commissione Europea ha preso anche un’iniziativa che di fatto si avvierà dopo l’approvazione dell’AI Act, che noi appoggiamo, che si chiama AI PACT, il patto per l’intelligenza artificiale.
L’AI PACT replica quel che si è già fatto con il codice di condotta del Digital Service Act, cioè dell’atto europeo sui servizi digitali: è stato applicato e rispettato in via volontaria da una serie di piattaforme, con un codice di condotta che ha avvicinato il momento della piena entrata in vigore.
L’idea è di fare la stessa cosa, cioè di avere un patto europeo sull’intelligenza artificiale che nei due anni di transizione incentivi le pubbliche amministrazioni e le aziende a essere compliant prima del tempo.
Faccio un esempio molto italiano: quando è entrato in vigore il GDPR abbiamo letto, anche sui nostri giornali, cose tipo: «Tra una settimana l’Europa ci impone le nuove norme sulla privacy». Ma c’è stato un sacco di tempo per adeguarsi alle norme: a un certo punto, semplciemente, il GDPR è entrato in vigore.
Il fatto di anticipare il rispetto della norma è un modo per aiutare tutti a adeguarsi a una regolamentazione complessa con una certa gradualità.
Questi sono i prossimi passi».
II fatto di aver progettato l’AI Act sulla base degli usi e non sulla base dell’evoluzione tecnologica è sufficiente per evitare di essere travolti dalla velocità con cui vengono fatte evolvere queste tecnologie? Nel frattempo, cosa dobbiamo aspettarci?
«La scelta della regolazione degli usi, più che della tecnologia in quanto tale, è uno dei modi utilizzati per cercare di contrastare l’obsolescenza della norma.
Credo che questa scelta sia giusta ed efficace e che sia già un importante salvaguardia.
Sia l’evoluzione dell’interpretazione sia le autorità di supervisione e l’Ufficio europeo dell’Intelligenza Artificiale contribuiranno, comunque, a seguire le evoluzioni di queste tecnologie.
Ci sarà un apparato di norme – che stiamo ancora discutendo con gli stati membri – per dare la possibilità di aggiornare l’AI ACT attraverso diversi strumenti (atti delegati e di implementazione) che potranno permettere, in maniera più rapida, di aggiornare alcuni aspetti del regolamento».
E per quanto riguarda gli usi più critici? Per esempio, strutture già operative come la Smart Control Room 2.0 di Venezia, peraltro finanziata con fondi europei (qui e qui)? Potrebbero diventare, nel frattempo, strumenti di sperimentazione e di controllo. Oppure, aree come le migrazioni? O le armi?
«Ovviamente il testo è il frutto di un compromesso politico. Ad esempio, io avevo proposto di vietare l’uso del riconoscimento biometrico alle frontiere, ma non c’era il consenso neanche in Parlamento. Questo ha portato a fare la scelta di inserire nell’alto rischio questo tipo di tecnologia. Abbiamo vietato il riconoscimento emotivo alle frontiere, quindi nei confronti dei migranti, ed è comunque una proposta del Parlamento che andrà negoziata con i Governi.
Rispetto alle sperimentazioni già in atto che potrebbero diventare illegali, be’, certamente sarà vietato qualcosa che viene fatto, se non rispetterà le norme.
Penso ad esempio alla polizia predittiva – cioè ai tentativi di usare l’AI per prevenire i reati – che noi riteniamo non possa funzionare, anche sulla base dei dati raccolti: la vogliamo vietare.
Queste questioni, poi, non si muovono in un ambito normativamente vuoto: l’intelligenza artificiale, comunque dovrà deve rispettare le norme esistenti.
Su alcuni punti dovremo negoziare con il Consiglio anche per i divieti che ci sono nella proposta, perché ci sono posizioni molto diverse su varie questioni. In ogni caso i principi fondamentali della Costituzione Italiana, della Protezione Europea dei diritti umani, i documenti fondativi delle varie legislazioni si applicano a prescindere».
E l’incorporazione in armi, droni, robot per uso militare?
«Non possiamo normare su questo, in quanto non abbiamo la competenza per poter intervenire sull’ambito militare con questa norma. È un problema di assenza di potere».
Mi sembra che non sia prevista un’organizzazione a cui appellarsi nel caso un’AI prenda una decisione su di me: il diritto alla spiegazione e a potermi appellare. Ci lavorerete?
«Abbiamo una serie di strumenti che sono previsti dalla proposta del Parlamento con le modifiche che abbiamo fatto. Ovviamente è un tema su cui dovremo continuare a lavorare per definire meglio le condizioni di azionabilità e gli aspetti pratici. Sono temi che sono stati espansi e affrontati in maniera più ampia dalla proposta del Parlamento Europeo e con la necessità comunque di dover negoziare con gli stati membri (riuniti nel Consiglio, ndr)».
Le intelligenze artificiali generative, per funzionare, hanno bisogno di essere addestrate. Cioè, hanno bisogno di testi, immagini, video che si usano per “insegnare” loro a generare altri testi, immagini, video. In Giappone è stato stabilito che l’uso di opere per l’addestramento è fair use. Cioè, si può fare senza autorizzazioni specifiche da chi detiene il copyright sulle opere. Qual è la vostra linea?
«Credo che si debba seguire la normativa europea rispetto al concetto del fair use. Serve un bilanciamento e dobbiamo ancora parlarne, magari l’addestramento si riterrà fair use, ma non riterremo tale lo scraping indiscriminato di dati: siamo, però, ancora in una fase di ipotesi.
È chiaro che tutto questo non può essere contenuto nel solo AI Act ma va inquadrato nelle specifiche norme del copyright. Per facilitare soluzioni anche a tutela degli autori – al netto del fatto che, appunto, non si risolverà in maniera definitiva nell’AI Act –, la proposta del Parlamento europeo è quella dell’obbligo di una sintesi sufficientemente dettagliata dei materiali coperti da copyright utilizzati per l’addestramento dei modelli, in modo da verificare il livello di tutela
Probabilmente, molti usi rientreranno nelle eccezioni previste.
Andrà valutato se ci sono state palesi violazioni dei diritti dei creativi ed è chiaro che ciò è legato anche alle interpretazioni delle norme. Ma senza la conoscenza a monte dei dati usati, nulla di tutto questo può essere ipotizzato».
E quindi trasparenza e ispezionabilità?
«Sì, serve trasparenza dei contenuti che sono stati utilizzati per l’addestramento e ispezionabilità dei modelli di fondazione alla base delle AI generative. Tuttavia, anche questa è materia di negoziazione con gli stati membri e di fatto non ci siamo ancora entrati: ci siamo concentrati, per il momento, sui temi legati alla sicurezza e ai diritti fondamentali».
Ci sono cose che potrebbero non essere fattibili tecnicamente, proprio per come funzionano queste tecnologie. Mi riferisco, per esempio, all’opt-in o all’opt-out dei propri contenuti dall’addestramento. O alla certificazione di “contenuto prodotto con AI”.
«È vero: la fattibilità tecnica dell’opt-in o dell’opt-out è un tema enorme, come la riconoscibilità dei contenuti prodotti dai contenuti artificiali.
Stiamo esplorando opzioni tecniche e non abbiamo una risposta definitiva su quanto si possa fare e come. Però, se riterremo, dopo un confronto democratico, che servano certe regole, le pratiche che andranno a infrangere quelle regole non saranno possibili, una volta che il regolamento sarà entrato in vigore. Non accetteremo come risposta a un tema di tutela e di protezione il fatto che non ci siano mezzi tecnici a disposizione.
Le regole verranno fatte tenendo conto di tutti gli aspetti in gioco, ma il “non si può fare” non deve diventare una scusa».
Anche a costo di cancellazione di modelli già esistenti?
«Se non rispetteranno le norme che verranno approvate, le aziende e i loro modelli non potranno operare nel mercato europeo. Comunque, siamo convinti che la legge avrà un effetto di ricasco anche su altre parti del mondo».
Il futuro delle intelligenze artificiali è di coesione
Il lavoro del Parlamento Europeo di cui abbiamo parlato con Brando Benifei è un precedente importante e sarà importante seguirne le evoluzioni, perché segnerà in qualche modo una linea di demarcazione fra un “prima” senza regole e un “dopo”.
Monitorare questa regolamentazione significa lavorare per assicurarsi che le tecnologie basate su AI non violino i diritti umani e non vengano usate per scopi deleteri: i compromessi che si raggiungeranno dopo la negoziazione con gli Stati membri saranno fondamentali per capire se si genereranno, ancora una volta, cittadine e cittadini di serie A e di serie B.
Abbiamo bisogno di trovare una via di mezzo fra gli apocalittici che paventano solo catastrofi e gli integrati che idolatrano qualsiasi innovazione.
In ballo c’è un pezzo di futuro, di mezzo c’è anche la nostra visione del mondo.
Abbiamo bisogno di trovare una via di mezzo fra gli apocalittici che paventano solo catastrofi e gli integrati che idolatrano qualsiasi innovazione.
Ci sono posizioni radicali che vorrebbero la messa al bando di queste tecnologie, ritenute troppo pericolose. È un’ipotesi difficile da perseguire e rischia di cancellare anche tutto il buono che queste macchine si possono portare appresso: basti pensare agli usi potenziali in medicina o in altri ambiti in cui possono fare la differenza.
D’altra parte, anche l’entusiasmo acritico non aiuta affatto: in aree come l’accesso al credito, il mondo delle assicurazioni, le migrazioni, l’amministrazione della giustizia, le disuguaglianze potrebbero essere ulteriormente amplificate da queste macchine. Se è una macchina che decide se ho diritto o no a entrare in un Paese o ad accendere un mutuo (questo, per inciso, accade già), a chi parlo, una volta che la decisione è stata presa? A chi mi appello? Se una macchina ha dei pregiudizi di programmazione ed è usata per prendere decisioni nel mondo del lavoro, come faccio a tutelarmi? E poi ci sono le armi, appunto: la possibilità di incorporare intelligenze artificiali generative dentro a robot-soldati di cui nemmeno il Parlamento europeo ha potuto occuparsi.
C’è anche il tema della proprietà intellettuale: in Metà dei soldi va per i recinti abbiamo già parlato di come sia importante trovare soluzioni collettive e di come crediamo che solo l’open access possa essere il modo migliore per liberare l’accesso alle macchine che si possono usare per il lavoro creativo. Fino a questo momento, tutti i tentativi di recintare la proprietà delle opere si sono risolti a vantaggio di pochissime persone (le major, ovviamente, e una élite di artisti e creatori).
Abbiamo anche parlato dei rischi reali (non quelli dell’estinzione di massa), che sono in buona parte quelli individuati dall’AI Act e quelli che abbiamo raccontato in questo pezzo.
Tutto questo, infine, è sostenibile? Come impatta sul resto del mondo, quello storicamente depredato? Come si risolve il problema dell’estrazione dei materiali che occorrono per realizzare queste macchine? Come si bilancia la loro richiesta di energia?
Ci sono tante domande. Abbiamo poche risposte. Quel che possiamo dire è che, ancora una volta, siamo di fronte a una tecnologia che potrebbe essere usata per rendere più coeso il mondo. Rischiamo di vederla usata per amplificare le disuguaglianze.
A questo articolo hanno lavorato
Due persone
1) Paolo Riva, per i contatti con l’ufficio stampa di Brando Benifei e per l’editing finale
2) Alberto Puliafito, per la scalettatura, l’ideazione, le domande, la stesura dell’articolo, i prompt a ChatGPT e a Midjourney, i pareri finali
Tre macchine basate su intelligenza artificiale:
1) Pinpoint per ottenere una trascrizione veloce dell’intervista telefonica a Benifei
2) ChatGpt per
– controllare i refusi
– controllare eventuali salti logici o mancanze dell’articolo
– fare una sintesi dell’AI Act, poi revisionata dall’autore
3) Midjourney per la creazione delle immagini
Questo pezzo fa parte di A Brave New Europe – Next Generation, un progetto di Slow News, Percorsi di Secondo Welfare, Internazionale, Zai.net, La Revue Dessinée Italia, finanziato dalla Commissione Europea.
Il gruppo di lavoro, le autrici e gli autori dei contenuti sono i soli responsabili di questa pubblicazione. I contenuti riflettono i nostri punti di vista, con la massima libertà editoriale e senza condizionamenti. La Commissione Europea non è in alcun modo responsabile di come verranno utilizzate le informazioni contenute in questo progetto.
La transizione digitale è accelerata grazie alla pandemia. E può essere un’occasione per diminuire le disuguaglianze.
Tutti gli episodi
Facilitare il digitale
La digitalizzazione dei servizi pubblici sta accelerando anche in Italia. Ma gli anziani rischiano di restare indietro. Come evitarlo?
Quali competenze per un’Italia digitale
La digitalizzazione avanza e le competenze digitali diventano sempre più cruciali per evitare che la tecnologia escluda. Spesso, proprio chi è già escluso
Gli usi delle intelligenze artificiali e l’AI Act
L’Unione Europea è al lavoro per regolare le nuove tecnologie, a partire dal modo in cui vengono usate. Perché ci riguarda? Ne parliamo anche con Brando Benifei, parlamentare europeo e correlatore dell’AI Act.