Il social vuole rendere più trasparente la distinzione tra digitale e reale per le immagini che circolano sulla piattaforma
Un’app ancora utilizzata dai più giovani, Snapchat, potrebbe essere la prima a rendere più trasparente l’uso dell’IA generativa. Lo sviluppatore, Snap, prevede di aggiungere filigrane alle immagini generate dall’intelligenza artificiale sulla sua piattaforma. La filigrana è una versione traslucida del logo Snap con un’emoji scintillante che verrà aggiunta a qualsiasi immagine creata dall’intelligenza artificiale esportata dall’app o salvata nel rullino fotografico. Nella sua pagina di supporto, la società ha affermato che rimuovere la filigrana dalle immagini violerà i suoi termini di utilizzo. Non è chiaro come Snap rileverà la rimozione di queste filigrane ma anche altri giganti della tecnologia come Microsoft, Meta e Google hanno adottato misure per etichettare o identificare le immagini create con strumenti basati sull’intelligenza artificiale. Attualmente, Snap consente agli abbonati di creare o modificare immagini generate dall’intelligenza artificiale utilizzando Snap AI. Una funzionalità incentrata sui selfie, Dreams, consente inoltre di usare l’intelligenza artificiale per ravvivare le proprie immagini.
A febbraio, Snap ha collaborato con HackerOne per attivare un programma di bug bounty volto a sottoporre a stress test i suoi strumenti di generazione di immagini AI. “Vogliamo che gli Snapchatter di ogni ceto sociale abbiano accesso e aspettative equi quando utilizzano tutte le funzionalità della nostra app, in particolare le esperienze basate sull’intelligenza artificiale. Con questo in mente, stiamo implementando ulteriori test per ridurre al minimo i risultati dell’IA potenzialmente distorti”. Gli sforzi di Snapchat per migliorare la sicurezza e la moderazione dell’intelligenza artificiale arrivano dopo che il suo chatbot “My AI” ha suscitato alcune polemiche al momento del lancio nel marzo 2023, quando alcuni utenti sono riusciti a convincere il bot a rispondere e parlare di sesso, alcol e altri argomenti potenzialmente non sicuri. Successivamente, l’azienda ha implementato controlli nel Family Center per consentire a genitori e tutori di monitorare e limitare le interazioni dei propri figli con l’intelligenza artificiale.