Più deepfake per tutti

È davvero in gioco il valore documentale di una fotografia?

Fotografia sovrapposta con un avviso che dichiara "IMMAGINE SINTETICA CREATA CON I.A. GENERATIVA". In primo piano, due uomini si stringono la mano, uno sfocato in avanti e l'altro sorridendo rivolto verso la fotocamera. Uno dei due uomini ha le fattezze di George W. Bush. Sullo sfondo, si intravede una scena di distruzione con rovine e detriti, e personale in uniforme che sembra assistere agli eventi. Un'icona di avvertimento triangolare con un punto esclamativo è posizionata sopra l'immagine per attirare l'attenzione sulla natura artificiale della foto.

Foto sintetiche iper-realistiche

Con le intelligenze artificiali generative si possono creare immagini iper-realistiche. Alcuni sviluppatori di alcuni strumenti stanno bloccando questa possibilità – mentre scrivo, a dicembre 2023, è praticamente impossibile ottenere una fotografia sintetica iper-realistica dalla versione di Dall-e integrata in ChatGPT, per esempio – ma altri non percorrono questa strada. Questo significa che il costo per produrre un’immagine sintetica, una sintografia, iper-realistica, difficile da distinguere da un foto autentica, è sempre più basso e alla portata di chiunque voglia cimentarsi.

The great Cascadia: le foto del mai avvenuto terremoto Big One

Su Reddit c’è, da marzo 2023, una gallery fotografica di sintografie, con tanto di didascalie, di un terremoto con tsunami mai avvenuto. Chi le ha create ha inventato anche il nome e la data: The 2001 Great Cascadia 9.1 Earthquake & Tsunami – Pacific Coast of US/Canada. Questo tipo di produzioni ha fatto allarmare molte persone, che si sono chieste – anche giustamente, da certi punti di vista – fino a che punto si arriverà nella produzione di queste immagini, come influiranno sulla percezione della realtà da parte delle persone, che effetti avranno rispetto alla nostra possibilità o impossibilità di abitare in una realtà condivisa.

Ma come si faceva prima?

Sono preoccupazioni condivisibili. A volte, tuttavia, pare che non siano sufficientemente messe in prospettiva storica. La manipolazione delle immagini non è sempre stata alla portata di tutti – di sicuro non lo era la creazione ex novo –, questo è chiaro. E oggi si può fare in scala e velocemente. Ma la modifica delle fotografie e dei video ha una sua storia ben precisa, che va dai fondali dipinti sulle prime stampe fotografiche a Photoshop, dal dito medio di Varoufakis al framing, dalle immagini fake di Trump arrestato alla propaganda.

Le foto dell'autostrada della morte

Durante la Prima guerra del Golfo, nella notte tra il 26 e il 27 febbraio 1991, gli aerei statunitensi attaccarono e distrussero le unità dell’esercito iracheno in ritirata lungo una superstrada che portava dalla capitale del Kuwait, Kuwait City, verso l’Iraq in direzione di Bassora. La strada fu soprannominata autostrada della morte. Le foto che circolarono – come quella che abbiamo pubblicato, di pubblico dominio – hanno una caratteristica che è stata messa in evidenza da molti analisti. Non si vedono morti. Non si vedono persone. I cadaveri sono stati inceneriti? Sono stati rimossi prima che venisse scattata la foto? Non ce n’erano perché i soldati iracheni semplicemente scapparono prima dei bombardamenti aerei? Non lo sappiamo con esattezza e non lo sapremo mai: non c’è certezza nemmeno sul numero effettivo delle vittime di quella sera.
Sappiamo che è un episodio controverso. Che sono state pubblicate foto di cadaveri sparsi nel deserto che sarebbero stati bruciati da quelle che, all’epoca, si chiamavano “Alleati”, che è uscito un famoso reportage fotografico dal titolo The Unseen Gulf War, oggi visibile solamente grazie all’esistenza di un sito che si chiama archive.org.
Eppure, le foto che hanno visto tutte le persone che all’epoca si informavano sono quelle epurate dalle fastidiose presenze umane.
Che valore documentale hanno, allora, quelle foto?

Veicoli demoliti lungo l'autostrada 80, conosciuta anche come "l'autostrada della morte", il percorso che hanno preso le forze irachene in fuga mentre si ritiravano dal Kuwait durante l'operazione Desert Storm. Il carro armato visibile al centro dell'immagine è un Tipo 59 o un Tipo 69, come evidenziato dal ventilatore a forma di cupola sulla parte superiore della torretta e dai fari sul parafango destro. Dettagli dell'autorizzazione Questo file multimediale è stato realizzato da un aviatore o da un dipendente dell'Aeronautica militare degli Stati Uniti durante il suo servizio. Essendo un lavoro del governo federale USA, il file è nel pubblico dominio.
"Autostrada della morte" – immagine di pubblico dominio

Punti di vista

Le foto hanno un punto di vista. Sono scattate da una certa persona in un certo momento con una certa attrezzatura, un preciso obiettivo fotografico, con un’inquadratura scelta in un certo modo e in un determinato contesto. Quella persona potrebbe avere le proprie motivazioni, potrebbe far parte di un lavoro di gruppo, di un progetto, potrebbe seguire una determinata agenda. Una foto, da sola, non ha il valore documentale di certificazione della realtà che vorremmo avesse. Tant’è che anche le foto che si portano in tribunale possono essere, sì, foto documentali, ma solo a certe condizioni (per esempio, in Italia se vengono contestate dalla controparte non sono valide a fini giuridici).
Le foto hanno un framing, cioè “inquadrano” la realtà, la incorniciano, la raccontano in un certo modo. La rappresentano ma non sono la realtà stessa: non lo erano nemmeno prima delle intelligenze artificiali generative. In un certo senso, anche la foto che mostra l’autostrada della morte senza cadaveri è una foto sintetica, anche se non è stata realizzata da un’intelligenza artificiale.

La democratizzazione degli artefatti

Senza voler negare che i deepfake alla portata di tutti possano rappresentare un problema, non si può far finta che sia un problema di oggi. In qualche modo, se volessimo ribaltare la prospettiva, siamo di fronte a una specie di democratizzazione della possibilità di costruire artefatti fotografici, mentre prima era un’operazione alla portata di chi aveva enormi budget e grandi possibilità di distribuzione del proprio punto di vista. Siamo di fronte anche – ma questo da anni, con l’abbattimento dei costi di produzione e in qualche modo di distribuzione dei contenuti – a una democratizzazione del framing. Persone che prima non avevano voce possono mostrare più facilmente il proprio punto di vista, la propria versione di una storia (almeno in teoria, e comunque sottostando a logiche distributive algoritmiche). Preoccuparsi di questo in un’ottica di mera critica alle intelligenze artificiali generative significa, ancora una volta, spostare l’attenzione dalle questioni umane per rivolgerle alle macchine. È poco utile, rischia di offuscare analisi e sguardi.

Illustrazione in bianco e nero che mostra una scena con diverse figure umane stilizzate. Un individuo in piedi manovra una telecamera su ruote, che funge anche da televisione, mostrando due persone all'interno dello schermo in una lotta. Questo individuo agisce sia come cameraman che come spettatore. I due personaggi inquadrati sono sono raffigurati in movimento davanti a questo dispositivo. Quella che, nell'inquadratura della telecamera/televisione sembra la vittima, in realtà insegue l'altra persona e corre con un pugnale in mano, suggerendo un'azione o un conflitto imminente. L'illustrazione è attribuita all'artista statunitense David Suter.
Immagine attribuita all'artista statunitense David Suter. Spiega molto bene il concetto di framing.

Ci sono soluzioni?

Una soluzione potrebbe essere vietare alle persone di utilizzare le intelligenze artificiali generative per generare immagini iper-realistiche. Mentre la scrivo mi chiedo quando sia praticabile, quanto sia utile e persino quanto senso possa avere, ma non escludo che sia un’ipotesi con sostenitori in vari ambiti. A chi ne sostiene l’auspicabilità andrebbe chiesto se, dunque, vieterebbero anche qualsiasi altra forma di framing.

Un’altra soluzione, più realistica, più pratica, più operativa, è quella di smettere di lamentarsi e di produrre analisi del qui e ora e adoperarsi, invece, per costruire una società con più anticorpi nei confronti di qualsiasi tipo di artefatto. Sia quelli che provengono dalle intelligenze artificiali sia quelli che provengono dalle intelligenze umane. Significa diffondere conoscenza, usare gli strumenti, democratizzarne l’accesso, crescere generazioni con competenze specifiche nella lettura di un’immagine, di un video, di un testo, nella ricerca delle fonti, nella verifica. Sicuramente è più faticoso di un divieto. Sospetto, però, che avrebbe ricaschi più positivi.

Continua a seguirci
Slow News ti arriva anche via email, da leggere quando e come vuoi...
Iscriviti gratis e scegli quali newsletter vuoi ricevere!
Altri articoli Società