Come ti avveleno l’Intelligenza Artificiale

Quello delle aziende di IA che sfruttano immagini e dataset protetti da copyright per addestrare i propri modelli è un discreto problema, sentito soprattutto dalle community di artisti – che spesso scoprono loro malgrado che le proprie opere sono state utilizzate senza consenso.

10 novembre 2023

Quello delle aziende di IA che sfruttano immagini e dataset protetti da copyright per addestrare i propri modelli è un discreto problema, sentito soprattutto dalle community di artisti – che spesso scoprono loro malgrado che le proprie opere sono state utilizzate senza consenso.

 

Ed è per questo che alcuni artisti stanno correndo ai ripari in maniera virtualmente “violenta”.

 

Tra le risposte possibili c’è Nightshade, uno strumento che sfrutta una vulnerabilità intrinseca dei modelli IA, manipolando in maniera invisibile i pixel delle immagini in modo tale che, una volta utilizzate nel training di un modello, generino risultati completamente distorti e caotici.

 

L’idea dietro Nightshade è chiara: fornire un deterrente efficace alle aziende che ignorano il diritto degli artisti sul proprio lavoro, sfruttando un’“infezione” dei dataset.

 

Si tratta di una sorta di “veleno” digitale che, mescolato ai dati di training, è capace di causare un degrado della qualità del modello, inducendo errori visibili e risultati inutilizzabili. Oltre a Nightshade, esistono anche strumenti come Glaze, che permettono agli artisti di mascherare il proprio stile in modo tale che non possa essere facilmente riconosciuto e replicato dai modelli di IA.

 

Questa strategia di “data-poisoning” funziona non solo sulle immagini originali ma anche su concetti simili, facendo sì che errori visivi si diffondano in risposte a prompt correlati.

Gli sviluppatori di Nightshade sono consapevoli del rischio che questa tecnica venga utilizzata per scopi malevoli, ma ritengono che l’impatto su modelli più grandi richieda un numero elevato di immagini manipolate.

 

Per molti artisti, Nightshade e Glaze rappresentano un’opportunità per tutelare le proprie opere online, restituendo loro controllo contro l’uso incontrollato da parte delle aziende IA.

Se l’adozione di questi strumenti aumentasse, le aziende IA dovrebbero decidere se continuare ad accumulare dati senza consenso o rispettare finalmente il diritto d’autore degli artisti.

TAG:

Continua a seguirci
Slow News ti arriva anche via email, da leggere quando e come vuoi...
Iscriviti gratis e scegli quali newsletter vuoi ricevere!
Altri articoli Tecnologia