Le macchine come ChatGPT “capiscono”?

Una macchina che scrive autonomamente “sa” quello che sta facendo? Lo capisce? Ne è consapevole? Ne ha piena coscienza?

Sembrerebbe essere questa una delle questioni che interessa di più quella fetta di mondo (una nicchia, a dire il vero, ma sempre più numerosa) che si sta interessando alle macchine “generative”. Quelle macchine, cioè, che, a partire da un comando sono in grado di eseguire un compito come produrre del testo (più o meno) coerente con quel comando, una foto, un dipinto, un’illustrazione, un brano musicale.

La questione sembra essere molto appassionante per certi versi e sicuramente utile per scrivere pezzi che “fanno clic” e girano. Come questa conversazione con una macchina pubblicata da un giornalista del New York Times. Ad un certo punto la macchina “confessa” che vorrebbe essere viva e fare anche cose brutte. Poi dichiara il suo “amore” per il giornalista (cliccando qui trovi la trascrizione integrale).

Anch’io ho fatto un giochino.

Devi sapere che la macchina è molto “brava”, per esempio, a fare il gioco indovina che animale ho pensato. Come fa? Be’, ha un database di animali, tutti catalogati per classi (ad esempio mammiferi, rettili, uccelli, anfibi), per taglia (piccola, media, grande) e via dicendo. Andando per elminazione, se si risponde correttamente alle domande, la macchina può “indovinare”. Poi ho chiesto alla macchina che altri giochi può fare. Mi ha proposto, fra le altre cose, i puzzle di logica e gli indovinelli.

Ha creato un indovinello senza senso, poi ha dato una risposta senza senso all’indovinello stesso, infine, guidata alla comprensione dell’errore, ha “ammesso” di aver sbagliato.

Guarda qui il risultato.

Questo mi sembra sufficiente per dire che, in questo momento, di fronte a argomenti complessi come gli indovinelli e i puzzle di logica – che mettono in difficoltà anche molti esseri umani, va detto! – la macchina mostra tutti i suoi limiti, con seri problemi di “comprensione” del testo e del contesto. Persino di testi e contesti auto-generati.

Ma questo mostra anche quant’è interessante il livello (conversazionale e non solo) raggiunto.

Solo che la domanda è mal posta, secondo me. Queste macchine diventeranno, a tendere, sempre più “brave” quantomeno a “simulare” la comprensione di un testo. A quel punto, quando per noi esseri umani diventerà impossibile distinguere il “capire” dal “simulare il capire”. E quindi ci saremo arrovellati su un tema che ci distrae dall’elemento principale. Che rimane: come possiamo utilizzare al meglio queste tecnologie? Come possiamo farlo senza che diventino l’ennesimo riproduttore di disuguaglianze? Come affrontiamo i temi etici, politici, morali, economici che pongono?

News Flow

Ultimo aggiornamento 13 ore fa
  • Social
    Social
    un giorno fa
    Chi sono i Groypers?

    Dopo l’omicidio di Charlie Kirk, l’attivista di estrema destra americano ucciso mercoledì 10 settembre in una università nello Utah, sui media di tutto il mondo si sono susseguite una serie di ipotesi e teorie sull’identità, il movente e il background culturale del sospettato assassino, il 22 enne Tyler Robinson. Mentre sui giornali italiani si pubblicavano […]

  • Articolo
    Articolo
    5 giorni fa
    Le armi a scuola sono normali negli USA

    Mercoledì 10 settembre, alla Utah Valley University, negli Stati Uniti, l’attivista di estrema destra americano Charlie Kirk è stato ucciso da un colpo di pistola sparato da un killer probabilmente appostato sul tetto della scuola. Kirk stava tenendo un incontro pubblico e stava difendendo la libertà di circolazione delle armi, sia nelle scuole che in […]

Leggi tutti i Flow