Registrazione avvenuta con successo!
Per favore, clicca sul link trasmesso nel messaggio inviato a

Facebook: errore inaccettabile quando Intelligenza artificiale se la prende con uomini di colore

© AP Photo / Tony AvelarLogo di Facebook
Logo di Facebook - Sputnik Italia, 1920, 04.09.2021
Seguici su
Gli algoritmi dei giganti tecnologici sono stati precedentemente accusati di errori imbarazzanti. Nel 2015, l'AI di Google ha etichettato i volti di due persone di colore con la parola "gorilla". L'azienda si è scusata e ha prontamente censurato le parole "gorilla", "scimpanzé" e "scimmia" da Google Lens, "accecando" l'algoritmo.
Un contrito Facebook venerdì si è affrettato a rilasciare delle scuse dopo che il suo software programmato con l’intelligenza artificiale ha generato dei messaggi "continua a vedere" che etichettavano i video che mostravano uomini di colore con il termine "primati".
Un portavoce di Facebook ha detto al New York Times, che per primo ha riportato la storia, che si è trattato di un "errore chiaramente inaccettabile" del suo sistema di raccomandazione autogenerato.
Darci Groves, un'ex responsabile del design dei contenuti di Facebook, ha detto che un'amica le ha inviato uno screenshot del video in questione con il prompt generato automaticamente dall'azienda. Il video, datato 27 giugno 2020, è stato pubblicato dal tabloid britannico Daily Mail.
Conteneva clip di due incidenti separati, apparentemente avvenuti negli Stati Uniti. Uno mostra un gruppo di afroamericani che litigano con un uomo di carnagione bianca su una strada del Connecticut, mentre l'altro mostra diversi uomini di colore che litigano con agenti di polizia bianchi in Indiana prima di essere fermati.
Gli utenti di Facebook che guardavano il video avevano ricevuto una richiesta automatica che chiedeva se volevano "continuare a vedere video sui primati".
Darci Groves ha condiviso lo screenshot su Twitter, postandolo in un forum di feedback sui prodotti per gli attuali ed ex dipendenti di Facebook. Groves ha criticato la richiesta come "orribile e vergognosa".
In risposta, un product manager di Facebook ha detto che l'azienda stava "esaminando la ragione principale". L'azienda ha poi detto che il software di raccomandazione coinvolto è stato disabilitato.
"Abbiamo disattivato l'intera funzione di raccomandazione degli argomenti non appena ci siamo resi conto che stava accadendo in modo da poter indagare sulla causa ed evitare che questo accada di nuovo", ha detto un portavoce citato dal New York Times.
Questo avviene mentre le aziende tecnologiche, tra cui Twitter e Google, sono finite sotto tiro per i pregiudizi da parte dei loro software ad intelligenza artificiale.
L'anno scorso Twitter ha verificato se il suo sistema di ritaglio automatico delle immagini possa essere razzialmente influenzato contro le persone di colore, quando seleziona quale parte di un'immagine visualizzare in anteprima nei tweet.
Nel 2015, l'algoritmo di Google avrebbe etichettato i volti di due persone di colore con la parola "gorilla", spingendo l'azienda a dire di essere "sinceramente dispiaciuta che ciò sia accaduto" in una dichiarazione rilasciata al Wall Street Journal.
Notizie
0
Prima i più recentiPrima i più vecchi
loader
LIVE
Заголовок открываемого материала
Per partecipare alla discussione
accedi o registrati
loader
Chats
Заголовок открываемого материала