In due casi, uno negli Usa e l’altro in India, sono state utilizzate metriche differenti per agire contro i deepfake
Il comitato di vigilanza di Meta si sta facendo carico ancora una volta delle regole del social network per i contenuti generati dall’intelligenza artificiale. Il consiglio ha accettato due casi che riguardano immagini esplicite di personaggi pubblici realizzate dall’intelligenza artificiale. Sebbene le regole di Meta proibiscano già la nudità su Facebook e Instagram, il consiglio ha dichiarato di voler verificare se “le politiche di Meta e le sue pratiche di applicazione sono efficaci nel contrastare le immagini esplicite generate dall’intelligenza artificiale”. A volte definite “deepfake porno”, le immagini di celebrità femminili, politici e altri personaggi pubblici sono diventate una forma sempre più importante di molestie online e hanno attirato un’ondata di proposte di regolamentazione. Con i due casi, l’Organismo di Vigilanza potrebbe spingere Meta ad adottare nuove regole per affrontare tali molestie sulla sua piattaforma. L’Osservatorio ha affermato che non nominerà le due figure pubbliche al centro di ciascun caso nel tentativo di evitare ulteriori molestie, sebbene abbia descritto le circostanze attorno a ciascun post. Un caso riguarda un contenuto su Instagram che mostra un’immagine generata dall’intelligenza artificiale di una donna indiana nuda, pubblicata da un account che “condivide solo immagini di donne indiane generate dall’intelligenza artificiale”. Il post è stato segnalato a Meta ma la segnalazione è stata chiusa dopo 48 ore perché non revisionata. Lo stesso utente ha presentato ricorso contro tale decisione, ma anche il ricorso è stato archiviato e mai rivisto. Meta alla fine ha rimosso il post dopo che l’utente ha presentato ricorso all’Organismo di Vigilanza e il comitato ha accettato di occuparsi del caso.
Il secondo riguardava un post su Facebook in un gruppo dedicato all’arte dell’intelligenza artificiale. Il post in questione mostrava “un’immagine generata dall’intelligenza artificiale di una donna nuda con un uomo che le palpava il seno”. La donna avrebbe dovuto somigliare a “un personaggio pubblico americano” il cui nome figurava anche nella didascalia del post. Il contenuto è stato rimosso automaticamente perché già segnalato. L’utente ha presentato ricorso all’Organismo di Vigilanza, che ha accettato di esaminare il caso. In una dichiarazione, la copresidente del comitato di sorveglianza Helle Thorning-Schmidt ha affermato che il consiglio ha esaminato i due casi provenienti da paesi diversi al fine di valutare le potenziali disparità nel modo in cui vengono applicate le politiche di Meta. “Sappiamo che Meta è più rapido ed efficace nel moderare i contenuti in alcuni mercati e lingue rispetto ad altri”, ha affermato Thorning-Schmidt. “Prendendo un caso dagli Stati Uniti e uno dall’India, vogliamo verificare se Meta sta proteggendo tutte le donne a livello globale in modo equo”. L’Osservatorio chiede commenti pubblici per le prossime due settimane e pubblicherà la sua decisione nelle prossime settimane, insieme alle raccomandazioni politiche per Meta. Un processo simile che coinvolge un video modificato in modo fuorviante di Joe Biden ha recentemente portato Meta ad accettare di etichettare più contenuti generati dall’intelligenza artificiale sulla sua piattaforma.