Le macchine come ChatGPT “capiscono”?

Una macchina che scrive autonomamente “sa” quello che sta facendo? Lo capisce? Ne è consapevole? Ne ha piena coscienza?

Sembrerebbe essere questa una delle questioni che interessa di più quella fetta di mondo (una nicchia, a dire il vero, ma sempre più numerosa) che si sta interessando alle macchine “generative”. Quelle macchine, cioè, che, a partire da un comando sono in grado di eseguire un compito come produrre del testo (più o meno) coerente con quel comando, una foto, un dipinto, un’illustrazione, un brano musicale.

La questione sembra essere molto appassionante per certi versi e sicuramente utile per scrivere pezzi che “fanno clic” e girano. Come questa conversazione con una macchina pubblicata da un giornalista del New York Times. Ad un certo punto la macchina “confessa” che vorrebbe essere viva e fare anche cose brutte. Poi dichiara il suo “amore” per il giornalista (cliccando qui trovi la trascrizione integrale).

Anch’io ho fatto un giochino.

Devi sapere che la macchina è molto “brava”, per esempio, a fare il gioco indovina che animale ho pensato. Come fa? Be’, ha un database di animali, tutti catalogati per classi (ad esempio mammiferi, rettili, uccelli, anfibi), per taglia (piccola, media, grande) e via dicendo. Andando per elminazione, se si risponde correttamente alle domande, la macchina può “indovinare”. Poi ho chiesto alla macchina che altri giochi può fare. Mi ha proposto, fra le altre cose, i puzzle di logica e gli indovinelli.

Ha creato un indovinello senza senso, poi ha dato una risposta senza senso all’indovinello stesso, infine, guidata alla comprensione dell’errore, ha “ammesso” di aver sbagliato.

Guarda qui il risultato.

Questo mi sembra sufficiente per dire che, in questo momento, di fronte a argomenti complessi come gli indovinelli e i puzzle di logica – che mettono in difficoltà anche molti esseri umani, va detto! – la macchina mostra tutti i suoi limiti, con seri problemi di “comprensione” del testo e del contesto. Persino di testi e contesti auto-generati.

Ma questo mostra anche quant’è interessante il livello (conversazionale e non solo) raggiunto.

Solo che la domanda è mal posta, secondo me. Queste macchine diventeranno, a tendere, sempre più “brave” quantomeno a “simulare” la comprensione di un testo. A quel punto, quando per noi esseri umani diventerà impossibile distinguere il “capire” dal “simulare il capire”. E quindi ci saremo arrovellati su un tema che ci distrae dall’elemento principale. Che rimane: come possiamo utilizzare al meglio queste tecnologie? Come possiamo farlo senza che diventino l’ennesimo riproduttore di disuguaglianze? Come affrontiamo i temi etici, politici, morali, economici che pongono?

News Flow

Ultimo aggiornamento 20 ore fa
  • Le ferite dello Stato di diritto europeo

    La cantante maliana Rokia Traoré, arrestata il 20 giugno all’aeroporto di Fiumicino e da allora detenuta nel carcere di Civitavecchia, sarà estradata in Belgio. Lo ha deciso martedì sera la Corte di Cassazione, presso la quale si è svolta un’udienza in cui è stata discussa la questione di legittimità costituzionale sollevata dalla legale dell’artista. La […]

  • Moriremo tutti

    Ha fatto notizia un rapporto commissionato dal dipartimento di stato degli Stati Uniti in cui si tracciano vari rischi esistenziali delle intelligenze artificiali, inclusa la possibilità di estinzione dell’umanità. Abbiamo ricevuto il report integrale, che si può leggere integralmente qui. Ci sono anche i piani d’azione per evitare questi rischi. Anche se da queste parti […]

Leggi tutte le News Flow
Slow News, via email
Lasciaci il tuo indirizzo e ricevi gratuitamente solo le parti di Slow News che ti interessano: