L’intelligenza artificiale per raccontare la strage di Bologna
Come stiamo usando le tecnologie per un lavoro sul 2 agosto 1980
Quali sono i veri rischi di cui dovremmo preoccuparci subito?
Ormai, quando si parla di intelligenze artificiali, la lucidità viene meno e qualsiasi cosa fa notizia nella maniera più deteriore, seguendo schemi che ormai avremmo dovuto abbandonare da tempo e che, invece, continuano a regnare indisturbati nel mondo giornalistico occidentale. L’allarmismo, per esempio, continua a farla da padrone alla prima occasione.
In questo caso, l’occasione è la petizione di un auto-proclamatosi centro per le intelligenze artificiali sicure (qui il Center for AI Safety) che ha lanciato un appello per mitigare i rischi di un’estinzione di massa dovuta alle intelligenze artificiali, appunto. Messe sullo stesso piano di una pandemia o di una guerra nucleare.
È un abbonamento strano, perché chiunque può leggerci e scegli tu quanto pagare. A seconda di quel che scegli, riceverai diversi omaggi direttamente a casa tua.
Di per sé, la cosa non farebbe notizia. Ma se ci aggiungiamo che tra i primi firmatari c’è Sam Altman, CEO di Open AI, l’azienda che ha sviluppato e diffuso ChatGPT e Dall-e-2 (due tra le più famose macchine di intelligenza artificiale generativa mentre scrivo), allora gli ingredienti per creare un po’ d’ansia ci sono tutti. Così, scrollando per i feed dei social e cercando su Google, praticamente tutti i grandi giornali italiani ne hanno parlato con toni più o meno apocalittici.
La petizione è vera. Che l’abbia firmata Altman è vero pure quello, almeno secondo il sito ufficiale che l’ha lanciata.
Ma il fatto stesso che il CEO di un’azienda creata per fare profitto e che sta sviluppando proprio quel tipo di tecnologia firmi una petizione del genere dovrebbe, quantomeno, sollevare qualche domanda e farci evitare di riprendere con convinzione acritica questo tipo di contenuti.
In effetti, questa strana richiesta di regole per difenderci da un futuro apocalittico – che fa un po’ il paio con la petizione firmata da Musk a marzo del 2023 in cui si chiedeva una moratoria di sei mesi per la ricerca sulle IA – è molto strana.
A pensar male, potrebbe sembrare una mossa di marketing. O un modo perfetto per distrarci da problematiche molto più concrete e attuali che riguardano questi strumenti.
Per esempio, il fatto che per svilupparli occorrono ingenti quantità di denaro. E anche il loro accesso potrebbe essere, ben presto, appannaggio di poche persone paganti. Il che sarebbe un vero peccato, viste le enormi potenzialità di queste tecnologie. In altre parole, le intelligenze artificiali potrebbero diventare un motore riproduttivo e moltiplicatore di disuguaglianze sociali e di divario digitale
Non solo: abbiamo bisogno anche di rendere queste macchine trasparenti e ispezionabili, sapere come funzionano, visto che saranno presto integrate in vari altri strumenti tecnologici e potrebbero addirittura essere chiamate a prendere decisioni che riguardano la vita delle persone (cosa già successa, per esempio, nel 2020 nei Paesi Bassi).
I software di riconoscimento facciale e la cosiddetta profilazione algoritmica potrebbero diventare sempre più pervasivi. Combinati insieme potrebbero portare a storture tipo la polizia predittiva. Cioè, per fare un esempio pratico: la tua faccia diventa riconoscibile alle macchine, i tuoi comportamenti sociali tracciati associati alla tua faccia potrebbero renderti persona indesiderata in certi contesti a cui potrebbe esserti negato l’accesso. O peggio.
Perché a qualcuno potrebbe venir in mente di far prendere alle macchine decisioni automatizzate.
In quel caso, sarebbe molto importante, ancora una volta, la trasparenza: le persone dovrebbero poter sapere su che basi vengono prese decisioni sul loro conto.
Le applicazioni di questo approccio potrebbero riguardare, per esempio, la gestione del rischio assicurativo, ma anche l’accesso ai servizi base, fino a scenari distopici di ipotetici controlli sulla vita sociale delle persone.
Bisognerebbe, insomma, battersi per un diritto alla spiegazione delle decisioni algoritmiche.
Le AI potrebbero essere utilizzate, per esempio, per la gestione dei flussi migratori: sarebbe necessario, allora, capire quali siano gli eventuali pregiudizi in sede di progettazione di queste macchine.
Le macchine di intelligenza artificiale potrebbero essere utilizzate anche per le assunzioni – in realtà in alcuni casi è un fenomeno già in atto – o per decisioni relative al mondo del lavoro. Inutile dire che anche in questo caso lavoratrici e lavoratori dovrebbero essere messi in condizione, quantomeno, di sapere quali sono le regole, i parametri attraverso i quali vengono decisi comportamenti premiali o sanzionatori.
Insomma: a voler trovar problemi nelle intelligenze artificiali c’è solo l’imbarazzo della scelta, senza bisogno di cedere al catastrofismo fantascientifico (alimentato dalle medesime persone che hanno tutti gli interessi a far crescere l’interesse verso queste macchine).
Non abbiamo davvero bisogno di più regole: non faranno altro che favorire chi già detiene l’oligopolio della produzione di queste macchine. Abbiamo bisogno di regole sensate, che tengano conto dei rischi concreti ma anche delle opportunità di queste tecnologie.
Purtroppo, non sembra essere questa la strada intrapresa. E i media fanno la loro parte nell’alimentare la confusione.
La puntata del 31 maggio 2023 di Sportello Italia su RadioRai1, da 9’15”
La scorciatoia, di Nello Cristianini
L’immagine è creata con un’intelligenza artificiale generativa.
Come stiamo usando le tecnologie per un lavoro sul 2 agosto 1980
Da Sanremo a Magenta, fotografando con un aggeggio strano che converte, inventando, le tue foto rendendole digital-retrò.
Tutto quel che vuoi sapere sulle intelligenze artificiali generative e che puoi chiedere
Sono apparsi in rete due chatbot misteriosi ad alta prestazione. Ecco come usarli (con un po’ di fortuna)