Una panacea minore quella pensata dall’azienda che non risolve le numerose criticità sulla generazione dei fake
OpenAI vuole realizzare un software in grado di riconoscere le foto che la sua stessa IA genera o modifica. Uno strumento che dovrebbe aiutare gli utenti di domani a scindere in maniera più certa i contenuti GenAI da quelli “reali”. L’azienda afferma di essere in grado di rilevare con precisione le immagini manipolate da software come DALL-3 il 98% delle volte. Ci sono, tuttavia, alcuni limiti: prima di tutto, l’immagine deve essere creata solo da DALL-E che non è esattamente l’uniuco software del genere su piazza. Inoltre, secondo i dati forniti da OpenAI, il sistema è riuscito a classificare con successo solo dal 5% al 10% delle immagini realizzate da altri modelli di intelligenza artificiale. Possono poi verificarsi problemi se l’immagine è stata modificata in qualsiasi modo. Questo non sembra essere un grosso problema nel caso di modifiche minori, come ritaglio, compressione e cambiamenti di saturazione. In questi casi, il tasso di successo era inferiore ma comunque entro un range accettabile, compreso tra il 95% e il 97%. La regolazione della tonalità, tuttavia, ha ridotto la percentuale di successo all’82%.
Ora è qui che le cose si fanno davvero complicate. Il set di strumenti ha avuto difficoltà quando utilizzato per classificare le immagini che hanno subito modifiche più estese. OpenAI non ha pubblicato la percentuale di successo in questi casi, affermando semplicemente che “altre modifiche, tuttavia, possono ridurre le prestazioni”. Una problematica critica in tempi in cui la grande maggioranza delle immagini generate dall’intelligenza artificiale viene modificata dopo la realizzazione, per eliminare difetti e imprecisioni. OpenAI è trasparente riguardo ai limiti della sua tecnologia di rilevamento e fornisce ai tester esterni l’accesso agli strumenti sopra menzionati per aiutare a risolvere questi problemi. Come riportato dal Wall Street Journal, l’azienda, insieme a Microsoft, ha versato 2 milioni di dollari in un progetto chiamato Societal Resilience Fund, che spera di espandere l’istruzione e l’alfabetizzazione sull’intelligenza artificiale.