Perplexity è un pasticcio

20 giugno 2024

Perplexity, qualora tu non la conosciate, è una startup dedicata alle IA supportata da investitori di un certo calibro: il fondo familiare di Jeff Bezos e NVIDIA, per dirne due. Non si è ben capito cosa faccia esattamente: il CEO Aravind Srinivas nel corso dei mesi le ha dato diverse definizioni, tra cui “aggregatore di risposte” (quindi una sorta di motore di ricerca?), o, più precisamente ma neanche troppo “una via di mezzo tra ChatGPT e Wikipedia”.

 

E fin qui.

 

Perplexity stessa, se interrogata, sostiene di essere un “motore di ricerca in tempo reale”, che indicizza il web quotidianamente.

 

Bene. Un’inchiesta di WIRED avrebbe messo in luce che Perplexity, a quanto pare, ignorerebbe il protocollo REP, o Robots Exclusion Protocol, accedendo a siti che, espressamente, hanno vietato di essere visitati dai bot – o comunque hanno applicato delle restrizioni importanti.

Ed è una cosa grave, molto grave.

Trovi l’inchiesta completa a questo link, su WIRED… che utilizza il protocollo REP e che, a quanto pare, è stato plagiato da Perplexity.

 

In sostanza sembra che Perplexity, pur dichiarando di rispettare i protocolli di esclusione dei robot, abbia utilizzato un IP non pubblicizzato per accedere e raccogliere contenuti da siti protetti, tra cui proprietà di Condé Nast. Questo indirizzo IP “segreto” avrebbe visitato i siti di Condé Nast almeno 822 volte negli ultimi tre mesi, come rivelato dai log di rete dell’azienda. WIRED ha anche verificato il legame con Perplexity creando un sito test e monitorandone l’accesso: subito dopo aver richiesto una sintesi di quel sito attraverso il chatbot di Perplexity, il log del server ha segnalato una visita dall’IP in questione.

 

Il comportamento di Perplexity ha destato ulteriori preoccupazioni sulla trasparenza delle sue operazioni e sulla modalità di accesso alle fonti. In diverse occasioni, il chatbot avrebbe infatti prodotto riassunti delle notizie basandosi non sui contenuti reali degli articoli, ma su frammenti e metadati presenti in altri motori di ricerca, talvolta con inesattezze o interpretazioni approssimative. Un esempio fornito da WIRED evidenzia come Perplexity abbia attribuito a un articolo dichiarazioni inesistenti e persino riportato fatti errati su figure reali. Questo fenomeno, noto come “allucinazione”, sembra più comune di quanto dichiarato, evidenziando una certa affidabilità problematica per gli output del chatbot.

 

Srinivas ha respinto le critiche, definendo l’inchiesta di WIRED come “un fraintendimento profondo e fondamentale” del funzionamento di Perplexity e della rete. Tuttavia, non ha contestato direttamente i dettagli specifici riportati e ha preferito non rispondere a domande di follow-up.

 

In parallelo, alcuni editori, tra cui Forbes, hanno segnalato che Perplexity avrebbe riprodotto dettagli esclusivi dei loro articoli con citazioni minime e difficili da rintracciare. In risposta, Srinivas ha dichiarato che l’azienda sta lavorando a nuove modalità di collaborazione e condivisione dei ricavi con i principali editori, prevedendo anche aggiornamenti sul miglioramento della visibilità delle fonti utilizzate nelle risposte del chatbot.

 

La situazione solleva interrogativi non solo sul modo in cui Perplexity ottiene i contenuti, ma anche sull’effettivo rispetto degli standard etici e delle norme di copyright.

TAG:

Continua a seguirci
Slow News ti arriva anche via email, da leggere quando e come vuoi...
Iscriviti gratis e scegli quali newsletter vuoi ricevere!
Altri articoli Tecnologia