l’intelligenza artificiale di facebook è stupida?
Perché l’intelligenza artificiale di Facebook non è riuscita a bloccare i video delle riprese in Nuova Zelanda?
Le riprese del massacro sono passate oltre il sistema di Facebook perché non aveva dati per addestrare la sua IA alle sparatorie di massa in diretta.
L’incidente assomigliava ad un filmato dei videogiochi sparatutto in prima persona, che è comune sulla piattaforma.
L’IA di Facebook non è riuscita a rilevare i video in diretta dell’attacco della moschea neozelandese perché il sistema semplicemente non è abbastanza intelligente da riconoscere un’azione del genere, dice il social network.
In un post sul blog del mercoledì , Facebook ha offerto una panoramica dettagliata di come ha risposto al video dell’attacco terroristico, che è stato trasmesso in diretta sulla piattaforma .
Facebook ha utilizzato algoritmi basati su AI per rimuovere automaticamente video e immagini contenenti pornografia e sponsorizzati dal terrorismo. Gli algoritmi possono farlo perché sono stati nutriti con un gran numero di esempi reali del contenuto offensivo.
Le riprese di venerdì scorso sono passate oltre il sistema perché Facebook non possiede dati di addestramento che descrivono sparatorie di massa in diretta. Gli eventi sono per fortuna rari, ha scritto Facebook VP Guy Rosen.
A complicare la questione è la prevalenza di video su Facebook che ritraggono filmati di videogiochi da sparatutto in prima persona.
“Un’altra sfida consiste nel discernere automaticamente questo contenuto da contenuti visivamente simili e innocui, ad esempio se migliaia di video di videogiochi in streaming sono contrassegnati dai nostri sistemi, i nostri revisori potrebbero perdere gli importanti video del mondo reale in cui potremmo avvisare i primi soccorritori per ottenere aiuto sul campo “,
ha aggiunto Rosen.
Di conseguenza, la società ha dovuto dipendere dagli utenti per conoscere le riprese. Tuttavia, durante la trasmissione dal vivo, il video è stato visualizzato solo 200 volte, nessuna delle quali ha generato un singolo report utente. Erano passati solo 12 minuti dallo streaming live quando un utente di Facebook ha finalmente segnalato il contenuto.
Prima che il video originale fosse rimosso su Facebook, era stato visto 4000 volte. Ma alla fine altri utenti hanno iniziato a condividere e pubblicare nuove copie del video su Facebook.
Rosen ha incolpato la circolazione del video a tre gruppi: cattivi utenti che stavano deliberatamente cercando di mantenere popolare il filmato; medi che coprono il fatto; e utenti regolari curiosi dell’evento. Nuove copie dei video venivano condivise in diversi formati, rendendo più difficile per i sistemi automatici di Facebook rilevarli e ridurli.
“In totale, abbiamo trovato e bloccato oltre 800 varianti visivamente distinte del video che circolavano”,
ha affermato Rosen. I sistemi di Facebook alla fine sono diventati abbastanza intelligenti da rimuovere automaticamente oltre 1,2 milioni di video dell’attacco durante il processo di caricamento. Tuttavia, circa 300.000 copie aggiuntive sono state rimosse solo dopo la pubblicazione.
Quindi, in che modo Facebook potrebbe impedire a un’altra sparatoria di diventare virale?
La società non ha offerto soluzioni chiare. “Alcuni hanno chiesto se dovremmo aggiungere un ritardo di tempo a Facebook Live, simile al ritardo di trasmissione a volte utilizzato dalle stazioni TV. Ma ci sono milioni di trasmissioni in diretta ogni giorno, il che significa che un ritardo non aiuta a risolvere il problema a causa del gran numero di video “, ha detto Rosen.
Tuttavia, l’azienda ha in programma di migliorare i propri sistemi di intelligenza artificiale per rilevare rapidamente e impedire che i video problematici diventino virali. Un esperimento riguarda l’utilizzo di tecnologia basata sull’audio per identificare diversi formati dello stesso video.