L’intelligenza artificiale per raccontare la strage di Bologna
Come stiamo usando le tecnologie per un lavoro sul 2 agosto 1980
Dal 1 agosto 2024 entrerà in vigore il cosiddetto AI Act, una normativa dell’Unione Europea che imporrà agli sviluppatori di Intelligenze Artificiali dei requisiti di trasparenza e vieterà determinati usi – in particolare quelle che potrebbero minacciare i diritti dei cittadini, come la categorizzazione biometrica.
Dal 1 agosto 2024 entrerà in vigore il cosiddetto AI Act, una normativa dell’Unione Europea che imporrà agli sviluppatori di Intelligenze Artificiali dei requisiti di trasparenza e vieterà determinati usi – in particolare quelle che potrebbero minacciare i diritti dei cittadini, come la categorizzazione biometrica.
Ma, cosa forse più interessante, entro agosto 2025 i sistemi di IA dovranno rispettare sia i requisiti di trasparenza, sia le leggi sul copyright.
Qui per saperne di più.
In sostanza, con la sua entrata in vigore, i fornitori e sviluppatori di sistemi di IA dovranno adattarsi a stringenti requisiti di trasparenza e rispettare una serie di divieti specifici, mirati a salvaguardare i diritti fondamentali delle persone. Tra le restrizioni principali, si evidenzia il divieto di applicazioni che possano minacciare la privacy e la dignità individuale, come la categorizzazione biometrica per inferire caratteristiche sensibili (ad esempio, orientamento sessuale o appartenenza religiosa) e la raccolta indiscriminata di immagini facciali da internet o sistemi di sorveglianza.
A partire da febbraio 2025, le imprese dovranno eliminare l’uso di tecnologie per la categorizzazione biometrica non autorizzata e per il rilevamento delle emozioni in contesti come scuole o ambienti di lavoro, considerati luoghi “ad alta vulnerabilità”. Bando definitivo anche per i sistemi di “social scoring” – meccanismi di valutazione del comportamento che ricordano quelli già attivi in alcuni Paesi non europei – e per gli strumenti di previsione criminale (predictive policing), che sollevano notevoli preoccupazioni etiche per i rischi di discriminazione.
In parallelo, sarà introdotta una normativa di conformità per le IA ad “alto rischio”, quali quelle utilizzate in settori delicati come l’infrastruttura critica, i servizi essenziali (sanità e servizi finanziari), l’occupazione e la giustizia.
Un’altra importante scadenza arriverà a maggio 2025, quando sarà obbligatorio seguire i codici di condotta istituiti, che includono requisiti di trasparenza dettagliati: gli sviluppatori dovranno pubblicare informazioni su origine e caratteristiche dei dati impiegati per addestrare i sistemi, rendendo più trasparente il funzionamento delle IA.
Seguirà, entro agosto 2025, l’obbligo per i sistemi di IA generica – come chatbot e strumenti di generazione automatica di contenuti – di rispettare le norme sul copyright, garantendo che i dati utilizzati siano conformi alla legge e senza violare i diritti di terzi.
Il regime sanzionatorio previsto dall’AI Act si rivela particolarmente severo, con multe che possono raggiungere il 7% del fatturato globale annuale o 35 milioni di euro per le violazioni più gravi.
Come stiamo usando le tecnologie per un lavoro sul 2 agosto 1980
Da Sanremo a Magenta, fotografando con un aggeggio strano che converte, inventando, le tue foto rendendole digital-retrò.
Tutto quel che vuoi sapere sulle intelligenze artificiali generative e che puoi chiedere
Sono apparsi in rete due chatbot misteriosi ad alta prestazione. Ecco come usarli (con un po’ di fortuna)