L'algoritmo di Facebook sbaglia: video con persone di colore finisce nella categoria "video con primati"

L'algoritmo di Facebook sbaglia: video con persone di colore finisce nella categoria

Facebook ha definito un "errore inaccettabile" quello commesso dall'Intelligenza Artificiale, ammettendo che occorre "fare maggiori progressi"

Anche le intelligenze artificiali possono commettere gaffe clamorose, come è accaduto nei giorni scorsi all'algoritmo di Facebook che ha etichettato nel modo sbagliato alcuni video che ritraevano degli uomini di colore.

Alcuni utenti del popolare social, che avevano guardato un video di un tabloid britannico con uomini di colore, hanno visto apparire un prompt automatico di Facebook che domandava se volessero "continuare a vedere video sui primati".

La società si è trovata costretta ad intervenire tempestivamente per disabilitare la funzione basata sull'intelligenza artificiale che ha inviato il messaggio sbagliato. Facebook non ha potuto far altro che scusarsi per l'imbarazzante errore commesso dal programma che dovrebbe riuscire a classificare correttamente i video in base ai contenuti.

Da Facebook sono quindi arrivate le doverose scuse per l'accaduto, con la società che ha definito "un errore inaccettabile" quello commesso dall'I.A, garantendo che si sta lavorando per perfezionare la funzione con l'obiettivo di "evitare che ciò accada ancora".

Il video che ha mandato in fallo l'intelligenza artificiale di Facebook è datato 27 giugno 2020 ed era del Daily Mail. Presentava clip di uomini neri in alterchi con civili bianchi e agenti di polizia e non aveva alcun legame con scimmie o primati.

Darci Groves, una ex responsabile del design dei contenuti di Facebook ha affermato che un amico le ha inviato uno screenshot del prompt. L'immagine è stata quindi pubblicata su un forum di feedback su prodotti per gli attuali e gli ex dipendenti di Facebook. Un product manager di Facebook Watch che ha visto il contenuto sul forum ha definito "inaccettabile" l'accaduto e ha fatto sapere che la società stava "esaminando la causa principale" dell'errore.

Nel commentare l'errore commesso dall'intelligenza artificiale la Groves ha affermato che il suggerimento del prompt è stato "orribile e clamoroso".

Sull'episodio è arrivato anche il commento di Dani Lever, portavoce di Facebook, che ha dichiarato: "come abbiamo detto, nonostante siano stati apportati dei miglioramenti alla nostra intelligenza artificiale, sappiamo che non è perfetta e ci sono ulteriori progressi da fare. Ci scusiamo con chiunque abbia visto questi suggerimenti offensivi".

La gaffe dell'intelligenza artificiale di Facebook non è del tutto una novità

Quella dei 'pregiudizi' delle intelligenze artificiali è una questione che società tecnologiche come Google e Amazon hanno già analizzato a fondo per anni, con particolare attenzione per la questione razziale.

Stando agli studi svolti fino ad oggi è emerso che la tecnologia di riconoscimento facciale è 'prevenuta' nei confronti delle persone di colore, e riscontra maggiori difficoltà nell'identificarle, motivo per cui si verificano poi incidenti come questo in cui il video che ritrae persone di colore finisce in una categoria sbagliata dedicata invece ai primati.

Quanto accaduto con Facebook e il video inserito nella categoria sbagliata in realtà ha dei precedenti. Nel 2015 ad esempio Google Foto ha erroneamente etichettato immagini che ritraevano persone di colore come "gorilla", il che costrinse Google a scusarsi dichiarandosi "sinceramente dispiaciuto" assicurando poi che il problema sarebbe stato risolto immediatamente.

Passano poco più di due anni e Wired scopre che per risolvere il problema il più famoso motore di ricerca del mondo aveva deciso di censurare la parola "gorilla" dalle ricerche e con essa anche "scimpanzé" e "scimmia".

Tornando a Facebook, con le sue inesauribili scorte di immagini caricate dagli utenti, di certo non manca il materiale su cui far 'allenare' gli algoritmi educandoli al riconoscimento facciale e degli oggetti. Per ora però, a quanto pare, il problema non è stato risolto, e non è chiaro se il messaggio rivolto all'utente che ha visualizzato il filmato col quale si domandava se intendesse vedere altri video sui "primati" fosse un caso isolato o se è accaduto anche con altri video.

©RIPRODUZIONE RISERVATA

Miglior Broker Consigliato

BDSWISS