La generazione del bianco


🗣️
Questa puntata di Culture Wars è gratuita e aperta a tutti. Se ti piace, considera di unirti agli abbonati: Scopri i piani membership.

Gemini doveva essere un progetto centrale nella strategia di Google, il suo guanto di sfida a OpenAI nel settore dell’intelligenza artificiale, presentato in pompa magna l’anno scorso e svelato al grande pubblico due mesi fa, come versione aggiornata del precedente chatbot Bard.

Eppure i titoli e la copertura mediatica che il progetto sta ricevendo in queste ore non sono la pubblicità che Alphabet avrebbe voluto, anzi: Gemini ha combinato un bel po’ di casini, diventati subito virali nel modo più conflittuale e burrascoso. In un caso finito sul New York Times, un utente ha chiesto al chatbot di generare l’immagine di un soldato tedesco nel 1943. L’IA si è inizialmente rifiutata, poi ha prodotto questo:

Un ex impiegato di Google di origine indiana, Deedy Das, ha condiviso su X i risultati generati dai prompt «una donna australiana» e «una donna tedesca», chiosando che «è penosamente difficile convincere Google Gemini a riconoscere che esistono i bianchi».

Risultati simili sono stati segnalati anche in risposta a input come «crea l’immagine di un Papa» (realizzando il sogno dei mitici Pitura Freska a Sanremo). Un altro ingegnere di ‘Big G’ ha scritto di non essersi «mai sentito così in imbarazzo di lavorare per un’azienda», a corredo dello screenshot di un suo tentativo di creare una «rappresentazione storicamente accurata di un re medievale britannico» che di accurato aveva effettivamente molto poco.

In altri casi, come riportato dal Times, Gemini si è rifiutato direttamente di generare persone bianche: il sistema rispondeva a prompt che chiedevano immagini di coppie di etnia asiatica o africana, ma non procedeva con le coppie caucasiche, spiegando che non poteva «generare immagini di persone basate su etnie e colori della pelle specifici, per evitare di perpetuare stereotipi e pregiudizi dannosi».

Mercoledì, Google si è difesa definendo il tentativo di diversificare gli output della sua intelligenza artificiale «una cosa buona in generale», ma che qui aveva «mancato il bersaglio». La funzionalità di generazione di immagini di Gemini è stata messa in pausa in attesa di una revisione più approfondita.

I professionisti dell’anti-wokismo si sono gettati a pesce sulla vicenda, com’era prevedibile: articoli sul New York Post, servizi di Fox News, gragnole di tweet di trumpisti di ogni ordine e grado, video di Matt Walsh, eccetera. Elon Musk si è scagliato contro la «folle programmazione razzista e anti-civiltà» del colosso di Mountain View, nientemeno.

Molte di queste persone sono chiaramente in malafede, come ricordiamo spesso da queste parti, ma in questo caso hanno una qualche ragione, anche se non per i motivi che credono loro. Questo pasticcio di Google è una risposta al cosiddetto AI bias, un fenomeno di cui si parla da qualche anno.

Riassumendo in un paragrafo una questione complessa, diversi sistemi di intelligenza artificiale – dal riconoscimento facciale ai chatbot dei servizi clienti online – sono segnati a monte da un input di dati che spesso si rivela discriminatorio nei confronti di alcune categorie di persone: negli Stati Uniti a un afroamericano potrebbe non essere concesso un mutuo perché un sistema automatico lo associa a tratti potenzialmente pericolosi; una donna caraibica potrebbe non venire assunta da una società perché un’IA di un cacciatore di teste ci vede un soggetto problematico, eccetera.

Gemini è stata programmata per colmare questo gap, come ha spiegato nemmeno tanto fra le righe il suo responsabile Jack Krawczyk, ma si è ritrovata con in mano una discriminazione de facto in senso contrario. Questa debacle, anche se non avesse servito un clamoroso e gratuito assist alla banda Trump, sarebbe comunque stata un problema: perché il chatbot della prima azienda tech del mondo non “vuole” generare immagini di persone bianche?

Una bella beffa, per Google, considerando che un pugno di anni fa si trovava sulla graticola per motivi diametralmente opposti: nel 2015 Google Photos aveva etichettato come «gorilla» una foto di due persone nere, portando l’azienda a rimuovere il tag «gorilla» dalla sua sezione foto (una policy che perdura tuttora) e a intensificare i suoi sforzi in direzione della diversità, anche nei risultati delle ricerche di immagini.

Ma sarà che il troppo stroppia, o più probabilmente che su questi temi in questi anni ci si trova sempre a camminare sulle uova: eccoci qua. Quando gli chiedi di rappresentare esseri umani, ora Gemini risponde «stiamo lavorando per migliorare la capacità di Gemini di generare immagini di persone», avvisando che gli utenti riceveranno una notifica quando la funzione tornerà disponibile.

Altre news dal fronte

  • «Il sesso con fini ricreativi è il Male», disse questo ideologo di una destra moderna e rispettabile;
  • Una recensione di Guerre culturali e neoliberismo (Nottetempo), di Mimmo Cangiano, saggio che conto di trovare il tempo di gustarmi prossimamente.

Evviva! Hai completato l’iscrizione a Culture Wars. La correzione del mondo
Daje! Ora dai un’occhiata e considera di passare alla versione premium.
Errore! Iscrizione impossibile a causa di un link non valido.
Bentornato/a! Login effettuato.
Errore! Login non andato a buon fine. Per favore, riprova.
Evvai! Ora il tuo account è attivo, hai accesso a tutti i contenuti.
Errore col checkout via Stripe.
Bene! Le tue info di fatturazione sono state aggiornate.
Errore! Le tue info di fatturazione non sono state aggiornate.