Le macchine come ChatGPT “capiscono”?

Una macchina che scrive autonomamente “sa” quello che sta facendo? Lo capisce? Ne è consapevole? Ne ha piena coscienza?

Sembrerebbe essere questa una delle questioni che interessa di più quella fetta di mondo (una nicchia, a dire il vero, ma sempre più numerosa) che si sta interessando alle macchine “generative”. Quelle macchine, cioè, che, a partire da un comando sono in grado di eseguire un compito come produrre del testo (più o meno) coerente con quel comando, una foto, un dipinto, un’illustrazione, un brano musicale.

La questione sembra essere molto appassionante per certi versi e sicuramente utile per scrivere pezzi che “fanno clic” e girano. Come questa conversazione con una macchina pubblicata da un giornalista del New York Times. Ad un certo punto la macchina “confessa” che vorrebbe essere viva e fare anche cose brutte. Poi dichiara il suo “amore” per il giornalista (cliccando qui trovi la trascrizione integrale).

Anch’io ho fatto un giochino.

Devi sapere che la macchina è molto “brava”, per esempio, a fare il gioco indovina che animale ho pensato. Come fa? Be’, ha un database di animali, tutti catalogati per classi (ad esempio mammiferi, rettili, uccelli, anfibi), per taglia (piccola, media, grande) e via dicendo. Andando per elminazione, se si risponde correttamente alle domande, la macchina può “indovinare”. Poi ho chiesto alla macchina che altri giochi può fare. Mi ha proposto, fra le altre cose, i puzzle di logica e gli indovinelli.

Ha creato un indovinello senza senso, poi ha dato una risposta senza senso all’indovinello stesso, infine, guidata alla comprensione dell’errore, ha “ammesso” di aver sbagliato.

Guarda qui il risultato.

Questo mi sembra sufficiente per dire che, in questo momento, di fronte a argomenti complessi come gli indovinelli e i puzzle di logica – che mettono in difficoltà anche molti esseri umani, va detto! – la macchina mostra tutti i suoi limiti, con seri problemi di “comprensione” del testo e del contesto. Persino di testi e contesti auto-generati.

Ma questo mostra anche quant’è interessante il livello (conversazionale e non solo) raggiunto.

Solo che la domanda è mal posta, secondo me. Queste macchine diventeranno, a tendere, sempre più “brave” quantomeno a “simulare” la comprensione di un testo. A quel punto, quando per noi esseri umani diventerà impossibile distinguere il “capire” dal “simulare il capire”. E quindi ci saremo arrovellati su un tema che ci distrae dall’elemento principale. Che rimane: come possiamo utilizzare al meglio queste tecnologie? Come possiamo farlo senza che diventino l’ennesimo riproduttore di disuguaglianze? Come affrontiamo i temi etici, politici, morali, economici che pongono?

Cose che restano

Cose che meritano di non essere perse nel rumore di fondo della rete, che parlano di oggi e che durano per sempre
  • Video
    Video
    un giorno fa
    L’epoca della burocratizzazione totale

    La cosa che resta di oggi è una conferenza del 2015, tenuta dall’antropologo americano David Graeber per la Royal Society of Arts di Londra, la RSA e che aveva come obiettivo raccontare l’epoca di “burocratizzazione totale” in cui viviamo. Per Graber la burocrazia è stata una tematica importante, di cui si è occupato spesso e […]

  • Report
    Report
    3 giorni fa
    Fuori i lobbisti dalle conferenze sul clima

    La cosa che resta di oggi è un documento redatto nel novembre dell’anno scorso, proprio durante la COP29 a Baku, su iniziativa di a EconomiaCircolare.com, A Sud e Fondazione Openpolis. Si tratta di un report intitolato CLEAN THE COP! Fuori i grandi inquinatori dalle Conferenze sul clima che è legato a una campagna permanente per […]

Leggi tutte le cose che restano