Home » China usa Inteligencia Artificial para rastrear a los musulmanes
INTELIGENCIA ARTIFICIAL

China usa Inteligencia Artificial para rastrear a los musulmanes

musulmanes, China usa Inteligencia Artificial para rastrear a los musulmanes, SecureWeek

Los denunciantes dicen que la policía china ha integrado AI con cámaras de seguridad para “rastrear y controlar” a unos 11 millones de musulmanes. Y los expertos advierten que esto es solo el comienzo.

El gobierno chino está utilizando un software de reconocimiento facial para “rastrear y controlar” a un grupo minoritario predominantemente musulmán, según un informe perturbador del New York Times. Según informes, el gobierno chino ha integrado inteligencia artificial en sus cámaras de seguridad para identificar a los uigures y parece estar utilizando la información para monitorear al grupo perseguido.

El informe, basado en las cuentas de los informantes familiarizados con los sistemas y una revisión de las bases de datos utilizadas por el gobierno y la policía, sugiere que el país autoritario ha abierto una nueva frontera en el uso de la inteligencia artificial para el control social racista, y levanta el desconcierto Posibilidad de que otros gobiernos puedan adoptar prácticas similares.

Dos personas familiarizadas con el asunto dijeron al Times que la policía en la ciudad china de Sanmenxia evaluó si los residentes eran uigures 500,000 veces en un solo mes. Según se informa, los documentos proporcionados al periódico muestran que la demanda de tecnología está aumentando: más de 20 departamentos en 16 provincias buscaron acceso al sistema de cámaras, en un caso que escribía que “debería ser compatible con el reconocimiento facial para identificar los atributos Uighur / non-Uighur”. , dicen los expertos, es más que suficiente para levantar banderas rojas. “No creo que sea exagerado tratar esto como una amenaza existencial para la democracia”, dijo Jonathan Frankle, un investigador de inteligencia artificial del Instituto de Tecnología de Massachusetts, al Times.

“Una vez que un país adopta un modelo en este modo autoritario, utiliza los datos para imponer el pensamiento y las reglas de una manera mucho más profunda de lo que podría haber sido hace 70 años en la Unión Soviética. En ese sentido, esta es una crisis urgente en la que lentamente estamos caminando en silencio “.

El perfil racial ha sido durante mucho tiempo una preocupación en el uso de la inteligencia artificial. Pero en los Estados Unidos y otros países occidentales, gran parte de ese escrutinio se ha centrado en sesgos incorporados en los sistemas de inteligencia artificial. La científica informática Aylin Caliskan explicó brevemente el asunto en una entrevista de 2017 con Vox: “Muchas personas piensan que las máquinas no están sesgadas. Pero las máquinas están entrenadas en datos humanos.

Y los humanos están sesgados ”. Ya, los estudios han demostrado que este es el caso. Una investigación de 2016ProPublica descubrió que el software de aprendizaje automático calificaba a los negros con mayor riesgo de cometer otro delito después de un arresto inicial. (Las conclusiones del software se basaron en las tasas actuales de encarcelamiento). Los legisladores estadounidenses han resaltado estas preocupaciones a medida que la carrera de AI se calienta. “Algoritmos todavía se hacen por los seres humanos, y los algoritmos todavía están vinculadas a supuestos humanos básicos”, Rep. Alejandría Ocasio-Cortez dijo en un evento en enero. “Solo son suposiciones automatizadas. Y si no arreglas el sesgo, simplemente estás automatizando el sesgo “.

En China, sin embargo, el gobierno parece estar explotando ese sesgo, utilizando deliberadamente la tecnología para controlar a un subconjunto de su población. China ha enfrentado crecientes críticas de grupos de derechos humanos por su trato a los 11 millones de uigures del país, de los cuales se cree que alrededor de un millón están detenidos en campos de adoctrinamiento de China, que el gobierno caracterizó al Times.como “centros de formación profesional que frenan el extremismo”.

Pero el uso secreto de la inteligencia artificial como parte de su represión contra la minoría musulmana es probable que exacerbe los temores sobre el enfoque cada vez más agresivo del gobierno hacia el grupo y sobre las capacidades de los gobiernos de todo el mundo. Tecnología para propósitos nefarios.

China parece ser el primer país en utilizar los sistemas explícitamente para la elaboración de perfiles raciales, pero a los expertos les preocupa que otros los sigan. “Tome la aplicación más arriesgada de esta tecnología y es muy probable que alguien la intente” , dijo al Times Clare Garvie, asociada del Centro de Privacidad y Tecnología de Georgetown Law.. “Si creas una tecnología que puede clasificar a las personas por una etnia, alguien la usará para reprimir esa etnia”.

X