Um software do Facebook foi desactivado, depois de ter identificado um vídeo com pessoas negras com o tópico "primatas". A empresa pediu desculpa e vai analisar o sucedido, sobre mais um episódio de erro de programação relacionado com o reconhecimento facial de pessoas negras.

Um dos porta-vozes de uma das maiores redes sociais da actualidade, o Facebook reconheceu que se tratou de "um erro claramente inaceitável" e garantiu que o software de recomendação envolvido foi retirado da rede social. "Pedimos desculpa a todos aqueles que possam ter visto estas recomendações ofensivas", acrescentou o porta-voz.
"Desativámos toda a funcionalidade de recomendação de tópicos assim que nos apercebemos que isto estava a acontecer para podermos investigar a causa e evitar que isto volte a acontecer". Vários softwares de reconhecimento facial têm sido muito criticados por defensores dos direitos civis, que apontam problemas de exatidão, particularmente no que diz respeito a pessoas que de pele negra.
Este caso foi espoletado por um vídeo de tabloide britânico "DailyMail" com homens negros, onde era mostrada uma mensagem automática a perguntar se o utilizador gostaria de "continuar a ver vídeos sobre Primatas". O vídeo de junho de 2020 em questão tinha o título "Homem branco chama polícias devido a homens negros na marina".
Uma captura de ecrã da recomendação foi partilhada no Twitter pelo antigo gestor de design de conteúdos do Facebook Darci Groves. "Esta mensagem de 'continuar a ver' é inaceitável", disse Groves, apontando a mensagem a antigos colegas no Facebook.