DPAUn estudio del Instituto Nacional de Estándares y Tecnología (NIDT, según sus siglas en inglés) de Estados Unidos confirmaron que la mayoría de los algoritmos de reconocimiento facial muestran sesgos raciales, ya que tienen problemas a la hora de identificar a personas no caucásicas. Los algoritmos identificaron erróneamente de 10 a 100 veces más las caras de afroamericanos y asiáticos que las de caucásicos, según el informe. El investigador principal del estudio, Patrick Grother, recalcó que un falso negativo puede ser un gran inconveniente, ya que los usuarios, por ejemplo, no podrían acceder a su teléfono. Según el estudio, las mujeres afroamericanas son más propensas que otros grupos a ser identificadas erróneamente en una base de datos con fotografías policiales del FBI. Los investigadores afirman que los falsos positivos son muy importantes porque "las consecuencias podrían incluir detenciones y acusaciones por error".
Source: Milenio December 20, 2019 16:34 UTC