Home » La herramienta de análisis facial de Amazon mostró sesgo de género y raza, según un estudio
INDUSTRIA

La herramienta de análisis facial de Amazon mostró sesgo de género y raza, según un estudio

Amazon Reconocimiento Facial 2

La investigación sugiere que los algoritmos de análisis facial de Amazon han luchado contra el sesgo de género y racial. El MIT Media Lab encontró que Rekognition no tenía ningún problema en identificar correctamente el género de los hombres de piel más clara, pero clasificaba a las mujeres como hombres casi una quinta parte del tiempo y las mujeres de piel más oscura como hombres en casi una de cada tres ocasiones. El software de IBM y Microsoft funcionó mejor que la herramienta de Amazon: la solución de Microsoft pensó erróneamente que las mujeres de piel oscura eran hombres el 1,5 por ciento de las veces.

Sin embargo, Amazon ha disputado los resultados de las pruebas de MIT, que se llevaron a cabo en el transcurso de 2018. Argumentó que los investigadores no habían usado la versión actual de Rekognition, y dijo que la prueba de identificación de género utilizó análisis facial (que selecciona rostros de imágenes). y les asigna atributos genéricos), en lugar de reconocimiento facial, que busca una coincidencia para una cara específica. Señaló que son distintos paquetes de software.

“Al utilizar una versión actualizada de Amazon Rekognition con datos similares descargados de sitios web parlamentarios y el conjunto de datos de Megaface de [1 millón] de imágenes, encontramos exactamente cero coincidencias falsas positivas con el umbral de confianza recomendado del 99 [porcentaje],” Matt Wood , gerente general de aprendizaje profundo e inteligencia artificial en Amazon Web Services, dijo a VentureBeat .

No es la primera vez que este tipo de software ha sido atacado. Los investigadores del MIT y de Stanford dijeron que en febrero pasado tres programas de análisis facial mostraron un sesgo de color de piel y color similar. Desde entonces, IBM ha lanzado un conjunto de datos que dice que debería mejorar la precisión en las herramientas de análisis facial, mientras que Microsoft ha pedido una mayor regulación de la tecnología para mantener altos estándares.

Mientras tanto, en noviembre, un grupo de legisladores le pidió a Amazon que respondiera a su decisión de proporcionar Rekognition a las autoridades policiales , después de considerar que la respuesta de la compañía a una carta anterior era insuficiente. Amazon también lanzó Rekognition to Immigration and Customs Enforcement (ICE), mientras que algunos accionistas le pidieron a la compañía que dejara de vender la tecnología ; les preocupa que puedan violar los derechos civiles de las personas.