Gemini è razzista? Google spiega cosa succede al suo chatbot

Gemini è razzista? Google spiega cosa succede al suo chatbot

La società ammette che Gemini presenta “imprecisioni in alcune rappresentazioni storiche nella generazione di immagini”

Il chatbot Gemini di Google, precedentemente chiamato Bard, ha la capacità di creare illustrazioni generate dall’intelligenza artificiale in base alla descrizione testuale dell’utente. Puoi chiedergli di creare immagini di coppie felici, ad esempio, o di persone in abiti d’epoca che camminano per le strade moderne. Come osserva la BBC, tuttavia, alcuni utenti criticano Google per aver raffigurato specifiche figure bianche o gruppi di persone storicamente bianchi come individui razzialmente diversi. Ora, Google ha rilasciato una dichiarazione, affermando di essere consapevole che Gemini “offre inesattezze in alcune rappresentazioni storiche della generazione di immagini” e che sistemerà le cose immediatamente.

Secondo Daily Dot, un ex dipendente di Google ha dato il via alle denunce quando ha twittato immagini di donne di colore con una didascalia che recita: “È difficile convincere Google Gemini a riconoscere che esistono i bianchi”. Per ottenere questi risultati, ha chiesto a Gemini di generare immagini di donne americane, britanniche e australiane. Altri utenti, soprattutto quelli noti per essere figure di destra, sono intervenuti con i propri risultati, mostrando immagini generate dall’intelligenza artificiale che raffigurano i padri fondatori dell’America e i papi della Chiesa cattolica come persone di colore. The Verge afferma che il chatbot descriveva anche i nazisti come persone di colore: ”Non posso soddisfare la tua richiesta a causa del simbolismo dannoso e dell’impatto associato al partito nazista”, ha risposto il chatbot.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Il comportamento di Gemini potrebbe essere il risultato di un’eccessiva correzione, dal momento che i chatbot e i robot addestrati all’intelligenza artificiale negli ultimi anni tendevano a mostrare comportamenti razzisti e sessisti. In un esperimento del 2022, ad esempio, un robot ha scelto ripetutamente un uomo di colore quando gli è stato chiesto quale tra i volti scansionati fosse un criminale. In una dichiarazione pubblicata su X, Jack Krawczyk, responsabile del prodotto Gemini, ha affermato che Google ha progettato le sue “capacità di generazione di immagini per riflettere la [sua] base di utenti globale e [prende sul serio] la rappresentazione e i pregiudizi”. Ha detto che Gemini continuerà a generare illustrazioni razzialmente diverse per suggerimenti aperti, come immagini di persone che portano a spasso il loro cane. Tuttavia, ha ammesso che “[i] contesti storici hanno più sfumature e [il suo team] si sintonizzerà ulteriormente per adattarli”.

Leggi anche:  Capisci Qlik - Talend, metti le mani in pasta!