Le macchine come ChatGPT “capiscono”?

Una macchina che scrive autonomamente “sa” quello che sta facendo? Lo capisce? Ne è consapevole? Ne ha piena coscienza?

Sembrerebbe essere questa una delle questioni che interessa di più quella fetta di mondo (una nicchia, a dire il vero, ma sempre più numerosa) che si sta interessando alle macchine “generative”. Quelle macchine, cioè, che, a partire da un comando sono in grado di eseguire un compito come produrre del testo (più o meno) coerente con quel comando, una foto, un dipinto, un’illustrazione, un brano musicale.

La questione sembra essere molto appassionante per certi versi e sicuramente utile per scrivere pezzi che “fanno clic” e girano. Come questa conversazione con una macchina pubblicata da un giornalista del New York Times. Ad un certo punto la macchina “confessa” che vorrebbe essere viva e fare anche cose brutte. Poi dichiara il suo “amore” per il giornalista (cliccando qui trovi la trascrizione integrale).

Anch’io ho fatto un giochino.

Devi sapere che la macchina è molto “brava”, per esempio, a fare il gioco indovina che animale ho pensato. Come fa? Be’, ha un database di animali, tutti catalogati per classi (ad esempio mammiferi, rettili, uccelli, anfibi), per taglia (piccola, media, grande) e via dicendo. Andando per elminazione, se si risponde correttamente alle domande, la macchina può “indovinare”. Poi ho chiesto alla macchina che altri giochi può fare. Mi ha proposto, fra le altre cose, i puzzle di logica e gli indovinelli.

Ha creato un indovinello senza senso, poi ha dato una risposta senza senso all’indovinello stesso, infine, guidata alla comprensione dell’errore, ha “ammesso” di aver sbagliato.

Guarda qui il risultato.

Questo mi sembra sufficiente per dire che, in questo momento, di fronte a argomenti complessi come gli indovinelli e i puzzle di logica – che mettono in difficoltà anche molti esseri umani, va detto! – la macchina mostra tutti i suoi limiti, con seri problemi di “comprensione” del testo e del contesto. Persino di testi e contesti auto-generati.

Ma questo mostra anche quant’è interessante il livello (conversazionale e non solo) raggiunto.

Solo che la domanda è mal posta, secondo me. Queste macchine diventeranno, a tendere, sempre più “brave” quantomeno a “simulare” la comprensione di un testo. A quel punto, quando per noi esseri umani diventerà impossibile distinguere il “capire” dal “simulare il capire”. E quindi ci saremo arrovellati su un tema che ci distrae dall’elemento principale. Che rimane: come possiamo utilizzare al meglio queste tecnologie? Come possiamo farlo senza che diventino l’ennesimo riproduttore di disuguaglianze? Come affrontiamo i temi etici, politici, morali, economici che pongono?

Alberto Puliafito
Alberto Puliafito
un anno fa

News Flow

Ultimo aggiornamento 13 giorni fa
Leggi tutte le News Flow
Slow News, via email
Lasciaci il tuo indirizzo e ricevi gratuitamente solo le parti di Slow News che ti interessano: