L’algoritmo di Facebook sbaglia: video con persone di colore finisce nella categoria “video con primati”

Anche le intelligenze artificiali possono commettere gaffe clamorose, come è accaduto nei giorni scorsi all’algoritmo di Facebook che ha etichettato nel modo sbagliato alcuni video che ritraevano degli uomini di colore.

Alcuni utenti del popolare social, che avevano guardato un video di un tabloid britannico con uomini di colore, hanno visto apparire un prompt automatico di Facebook che domandava se volessero “continuare a vedere video sui primati”.

La società si è trovata costretta ad intervenire tempestivamente per disabilitare la funzione basata sull’intelligenza artificiale che ha inviato il messaggio sbagliato. Facebook non ha potuto far altro che scusarsi per l’imbarazzante errore commesso dal programma che dovrebbe riuscire a classificare correttamente i video in base ai contenuti.

Da Facebook sono quindi arrivate le doverose scuse per l’accaduto, con la società che ha definito “un errore inaccettabile” quello commesso dall’I.A, garantendo che si sta lavorando per perfezionare la funzione con l’obiettivo di “evitare che ciò accada ancora”.

Il video che ha mandato in fallo l’intelligenza artificiale di Facebook è datato 27 giugno 2020 ed era del Daily Mail. Presentava clip di uomini neri in alterchi con civili bianchi e agenti di polizia e non aveva alcun legame con scimmie o primati.

Darci Groves, una ex responsabile del design dei contenuti di Facebook ha affermato che un amico le ha inviato uno screenshot del prompt. L’immagine è stata quindi pubblicata su un forum di feedback su prodotti per gli attuali e gli ex dipendenti di Facebook. Un product manager di Facebook Watch che ha visto il contenuto sul forum ha definito “inaccettabile” l’accaduto e ha fatto sapere che la società stava “esaminando la causa principale” dell’errore.

Nel commentare l’errore commesso dall’intelligenza artificiale la Groves ha affermato che il suggerimento del prompt è stato “orribile e clamoroso”.

Sull’episodio è arrivato anche il commento di Dani Lever, portavoce di Facebook, che ha dichiarato: “come abbiamo detto, nonostante siano stati apportati dei miglioramenti alla nostra intelligenza artificiale, sappiamo che non è perfetta e ci sono ulteriori progressi da fare. Ci scusiamo con chiunque abbia visto questi suggerimenti offensivi”.

La gaffe dell’intelligenza artificiale di Facebook non è del tutto una novità

Quella dei ‘pregiudizi’ delle intelligenze artificiali è una questione che società tecnologiche come Google e Amazon hanno già analizzato a fondo per anni, con particolare attenzione per la questione razziale.

Stando agli studi svolti fino ad oggi è emerso che la tecnologia di riconoscimento facciale è ‘prevenuta’ nei confronti delle persone di colore, e riscontra maggiori difficoltà nell’identificarle, motivo per cui si verificano poi incidenti come questo in cui il video che ritrae persone di colore finisce in una categoria sbagliata dedicata invece ai primati.

Quanto accaduto con Facebook e il video inserito nella categoria sbagliata in realtà ha dei precedenti. Nel 2015 ad esempio Google Foto ha erroneamente etichettato immagini che ritraevano persone di colore come “gorilla”, il che costrinse Google a scusarsi dichiarandosi “sinceramente dispiaciuto” assicurando poi che il problema sarebbe stato risolto immediatamente.

Passano poco più di due anni e Wired scopre che per risolvere il problema il più famoso motore di ricerca del mondo aveva deciso di censurare la parola “gorilla” dalle ricerche e con essa anche “scimpanzé” e “scimmia”.

Tornando a Facebook, con le sue inesauribili scorte di immagini caricate dagli utenti, di certo non manca il materiale su cui far ‘allenare’ gli algoritmi educandoli al riconoscimento facciale e degli oggetti. Per ora però, a quanto pare, il problema non è stato risolto, e non è chiaro se il messaggio rivolto all’utente che ha visualizzato il filmato col quale si domandava se intendesse vedere altri video sui “primati” fosse un caso isolato o se è accaduto anche con altri video.

Questo contenuto non deve essere considerato un consiglio di investimento. Non offriamo alcun tipo di consulenza finanziaria. L’articolo ha uno scopo soltanto informativo e alcuni contenuti sono Comunicati Stampa scritti direttamente dai nostri Clienti.
I lettori sono tenuti pertanto a effettuare le proprie ricerche per verificare l’aggiornamento dei dati. Questo sito NON è responsabile, direttamente o indirettamente, per qualsivoglia danno o perdita, reale o presunta, causata dall'utilizzo di qualunque contenuto o servizio menzionato sul sito https://www.borsainside.com.

Rimani aggiornato con le ultime novità su investimenti e trading!

Telegram
Regolamentazione Trading
Non perdere le nostre notizie! Vuoi essere avvisat* quando pubblichiamo un nuovo articolo? No Sì, certo