L’obiettivo è spegnere sul nascere ogni polemica in vista delle presidenziali USA
Mentre gli Stati Uniti si preparano alle elezioni presidenziali del 2024, OpenAI condivide i suoi piani per sopprimere la disinformazione relativa alle elezioni in tutto il mondo, con l’obiettivo di aumentare la trasparenza sull’origine delle informazioni. Uno di questi punti salienti è l’uso della crittografia, standardizzata dalla Coalition for Content Provenance and Authenticity, per codificare la provenienza delle immagini generate da DALL-E 3. Ciò consentirà alla piattaforma di rilevare meglio le immagini generate dall’intelligenza artificiale utilizzando un classificatore di provenienza, per aiutare gli elettori a valutare l’affidabilità di determinati contenuti. Questo approccio è simile, se non migliore, al SynthID di DeepMind per filigranare digitalmente immagini e audio generati dall’intelligenza artificiale, come parte della strategia di contenuti elettorali di Google pubblicata il mese scorso. Il generatore di immagini AI di Meta aggiunge una filigrana invisibile al suo contenuto, anche se la società deve ancora condividere la sua disponibilità ad affrontare la disinformazione legata alle elezioni.
OpenAI afferma che lavorerà presto con giornalisti, ricercatori e piattaforme per ottenere feedback sul suo classificatore di provenienza. Seguendo lo stesso tema, gli utenti di ChatGPT inizieranno a vedere notizie in tempo reale da tutto il mondo complete di attribuzioni e collegamenti. Verranno anche indirizzati a CanIVote.org, la fonte online ufficiale sul voto negli Stati Uniti, quando faranno domande procedurali come dove votare o in che modo. Inoltre, OpenAI ribadisce le sue attuali politiche sulla repressione dei tentativi di impersonificazione sotto forma di deepfake e chatbot, nonché di contenuti realizzati per distorcere il processo di voto o per scoraggiare le persone dal votare. L’azienda vieta inoltre le applicazioni create per campagne politiche e, quando necessario, i suoi nuovi GPT consentono agli utenti di segnalare potenziali violazioni. OpenAI afferma che gli insegnamenti tratti da queste prime misure, se avranno successo aiuteranno a implementare strategie simili in tutto il mondo.