L’intelligenza artificiale per raccontare la strage di Bologna
Come stiamo usando le tecnologie per un lavoro sul 2 agosto 1980
Di recente YouTube ha annunciato che limiterà l’esposizione degli adolescenti a video che promuovono fitness o modifiche fisiche considerate “estreme”.
Verranno anche posti limiti ai contenuti che mostrano aggressioni, intimidazioni o altri comportamenti simili, e che potrebbero essere considerati “dannosi” soprattutto per un pubblico vulnerabile.
L’intento principale è tutelare il benessere psicologico dei ragazzi, un aspetto su cui la piattaforma ha ricevuto parecchie critiche in passato, e in generale non ha mai avuto una gran reputazione.
A partire da settembre, YouTube ha implementato misure per evitare che i giovani siano eccessivamente esposti a contenuti che idealizzano certi standard fisici o estetici, come esercizi specifici per raggiungere un certo tipo di fisico o routine di bellezza mirate a modificare i tratti del viso.
Anche se questi video non violano le linee guida di per sé, YouTube avrebbe riconosciuto che una visione prolungata, e “spinta” dagli algoritmi, potrebbe influire negativamente sull’autostima degli adolescenti.
Di conseguenza, i suoi algoritmi non proporranno più automaticamente tali contenuti agli utilizzatori tra i 13 e i 17 anni.
Il Dr. Garth Graham, responsabile globale della salute su YouTube, ha spiegato che l’esposizione continua a standard estetici irrealistici durante l’adolescenza, una fase estremamente delicata per lo sviluppo dell’identità, può portare i ragazzi e le ragazze a crearsi aspettative poco realistiche, oppure percezioni negative di sé, in un momento della vita già colmo di frustrazioni e insicurezze.
Queste nuove linee guida, già attive negli Stati Uniti e ora estese al Regno Unito e ad altri Paesi, sono state sviluppate in collaborazione con il comitato consultivo di YouTube per la gioventù e le famiglie. Si stima potrebbero arrivare presto anche in Italia.
Questi nuovi “freni” arrivano in un periodo in cui la sicurezza online per i minori è un tema di crescente attenzione normativa. In particolare, il Regno Unito ha recentemente introdotto l’Online Safety Act, che richiede alle piattaforme online di proteggere i giovani da contenuti potenzialmente dannosi e di valutare seriamente come i loro algoritmi influiscano sull’esposizione a tali contenuti.
Secondo il Guardian, la professoressa Sonia Livingstone della London School of Economics ha accolto positivamente l’iniziativa di YouTube, sottolineando come una recente indagine della Children’s Society abbia rilevato che quasi una ragazza su quattro nel Regno Unito sarebbe insoddisfatta del proprio aspetto fisico.
“L’intervento sugli algoritmi è un passo importante che piattaforme come YouTube possono fare per proteggere i giovani”, ha dichiarato Livingstone, aggiungendo che queste modifiche potrebbero essere particolarmente utili per chi è già vulnerabile psicologicamente rispetto ai coetanei.
Fonte: TheGuardian.com
Come stiamo usando le tecnologie per un lavoro sul 2 agosto 1980
Da Sanremo a Magenta, fotografando con un aggeggio strano che converte, inventando, le tue foto rendendole digital-retrò.
Tutto quel che vuoi sapere sulle intelligenze artificiali generative e che puoi chiedere
Sono apparsi in rete due chatbot misteriosi ad alta prestazione. Ecco come usarli (con un po’ di fortuna)