Come disinformiamo (con o senza le A.I. generative)

I problemi dei media e dell’informazione sono meno recenti di quanto si pensi

Slow News. Il primo progetto italiano di slow journalism.

Questa immagine, forse, è di David Suter

Ho fatto molta fatica a ritrovare l’illustrazione che vedi qui accanto (non quella in alto con una versione di Papa Francesco artefatta, in cui spero di aver chiarito molto bene che si tratta di una foto falsa).

Ho fatto molto fatica persino a dare la giusta attribuzione a questa illustrazione: non ho idea se sia corretta e se qualcuno, prima o poi, arriverà a lamentarsi per una violazione del copyright. Nel caso, sono pronto a rimuoverla, anche se sarebbe un peccato.

Comunque: questa immagine, secondo una ricerca del 2014 e questo thread su Reddit, sarebbe di David Suter, illustratore.

Lo stile coincide ma non ho altre informazioni, nemmeno una data di prima pubblicazione o una rivista o giornale di pubblicazione.

Oltre a questi problemi di attribuzione – che amerei vedere più spesso sollevati nel mondo dei media, soprattutto da noi giornaliste e giornalisti – questa immagine ci serve per tanti motivi.

Come disinformiamo

Chi era Suter e cosa faceva?

David Suter era celebre per i suoi editoriali sotto forma di illustrazione, fatti, fra l’altro, per il Washington Post, il Time, il New York Times. Il suo stile ha dato vita a un genere vero e proprio, chiamato Suterism (c’è anche un libro con titolo analogo): sono delle storie senza dialogo in cui si mescolano molti concetti e diversi punti di vista.

Come nell’immagine che vedi, che probabilmente è di David Suter.

Il framing

Prima di tutto, è una bellissima spiegazione del concetto di framing che trovi anche nel nostro glossario.

L’inquadratura offerta dal visore della telecamera inquadra una parte della scena che si sta verificando nella realtà.
La parte inquadrata ribalta completamente il significato della scena.
Questo avviene senza che ci sia necessariamente volontà di mistificare.
Avviene per la natura stessa della tecnologia, della telecamera che inquadra.

In effetti, non sappiamo se il cameraman abbia uno zoom e abbia zoomato volontariamente. Non sappiamo se ci sia una regia che gli dice cosa inquadrare. Non sappiamo se le due persone siano piombate in scena per caso, se stiano recitando. Non sappiamo niente, se non che la presenza stessa di un mezzo tecnologico ha un effetto sulla realtà: la inquadra e inquadrandola, in qualche modo, la altera.

Nel caso dell’illustrazione, addirittura ne mistifica il significato.
In generale, comunque, la altera.

Quali implicazioni ha questo?

A seconda di chi guarda questa stupenda illustrazione ci saranno delle deduzioni.

Ma davvero, non possiamo stabilire se ci sia volontà di alterazione o meno.

Questo significa una cosa importantissima per chi fa giornalismo e per chi non lo fa.

Per chi fa giornalismo, come me, significa che ogni volta che usiamo uno strumento (fosse anche solo la nostra interpretazione, cioè il nostro cervello) dovremmo ricordarci che stiamo alterando la realtà, usandolo. Dovremmo ricordarci come informiamo e come disinformiamo: cosa scegliamo di dire e cosa di omettere. Cosa omettiamo non per cattiveria o malizia ma perché non fa parte del nostro punto di vista, non entra nel viewfinder attraverso il quale osserviamo la realtà. Mentre informiamo corriamo sempre il rischio di disinformare.

Per chi non fa giornalismo, non significa che non ci si deve fidare di nessuno. Ma che bisogna imparare a convivere con il fatto che la realtà raccontata è sempre, comunque, per forza di cose parziale. Anche quando chi racconta è animato dalle migliori intenzioni.

Cosa c'entrano le A.I. generative?

Avrai letto, qui o altrove, di Chat-GPT, Midjourney, Dall-e-2, strumenti che, a partire da un testo, generano altro testo o video o foto.

In particolare, questi strumenti ora sono in grado di generare foto iper-realistiche difficilissime da distinguere da foto vere. Come quelle di Trump arrestato o di Papa Francesco con il piumino bianco. Presto saranno in grado di realizzare video altrettanto credibili.

Per chi fa giornalismo, come me, significa che dovremmo ricordarci che una foto, un video non sono (in realtà non sono mai stati!) una fonte certa.

Significa anche che dobbiamo porci il problema di come agire con immagini e video creati da persone che usano le macchine, dalle intelligenze artificiali generative.

Se vale la lezione che impariamo dall’immagine (probabilmente) di Suter, questo vuol dire una cosa sola.

Siccome, mentre informiamo, operiamo delle scelte volontarie o meno, che rischiano anche di disinformare, dobbiamo evitare in tutti i modi qualsiasi elemento che inquini ulteriormente il mondo delle informazioni, la cosiddetta infosfera.

E quindi non dobbiamo utilizzare, per nessun motivo, immagini o video iper-realistici generati dalle macchine. Nemmeno per dire che sono false, a meno che non siano impressi sul video stesso o sulla foto stessa dei chiari, evidenti, non rimovibili riferimenti al fatto che sono immagini false.

Tipo così

Ma non è troppo?

Se ti sembra troppo, ripensa all’immagine-probabilmente-disegnata-da-Suter.

Continua a seguirci
Slow News ti arriva anche via email, da leggere quando e come vuoi...
Iscriviti gratis e scegli quali newsletter vuoi ricevere!
Altri articoli Media