Tenemos Noticias de Venezuela y el Mundo

Tecnología

China ya usa el reconocimiento facial para elaborar perfiles raciales y vigilar de cerca a la minoría aigur

Por:

xataka

23

Publicado: 16 de abril, 2019 — 0:07 a.m. (hace 5 meses)
Ver en fuente

Otras fuentes (1)



Desde el año pasado, las medidas puestas en marcha por las autoridades chinas para controlar las revueltas de carácter independentista y/o islamista secundadas por diversos sectores de la minoría étnica uigur (un pueblo de cultura túrquica y fe mayoritariamente musulmana) han causado bastante polémica entre los organismos internacionales vinculados a la defensa de los derechos humanos.

Pero si hace unos meses dicha polémica giraba en torno a la existencia de "campos de reeducación" ideológica que albergarían hasta un millón de prisioneros, ahora los titulares los protagoniza el vasto sistema de reconocimiento facial puesto en marcha por el gobierno chino, que según los medios internacionales habría estado utilizando la inteligencia artificial para generar 'perfiles raciales'.



En Xataka

Hay quien critica a mucha inteligencia artificial como racista/etnocéntrica, pero el problema está en los datos

Recurriendo al machine learning, los ingenieros logran entrenar a los sistemas de IA para que detecten qué tipo de patrones (a veces invisibles al ojo humano) están presentes de forma exclusiva en un determinado grupo de imágenes , sean fotos de gatos extraídas de Facebook o, como en este caso, fotos de uigures extraídas de fichas policiales.

Es decir, que China estaría dedicando recursos a identificar personas por sus particularidades étnicas (por ahora se estarían centrando únicamente en la etnia uigur) y no por sus rasgos individuales , como venía haciendo hasta ahora.

Eso es relativamente sencillo, puesto que el aspecto de los uigures, similar al de los pueblos de Asia Central, difiere bastante de la mayoría de grupos étnicos del país , como la etnia mayoritaria (los Han) o sus vecinos los tibetanos.



Mercado callejero en una zona de mayoría uigur. (Imagen: Wikimedia Commons)

Según el New York Times, esta tecnología "marca el comienzo de una nueva era de racismo automatizado" y está permitiendo ya que su gobierno vigile las idas y venidas de 11 millones de uigures , tanto dentro como fuera de las fronteras de su región natal, Sinkiang. De hecho, 16 departamentos de policía provinciales y regionales (por ejemplo, en la región costera de Fujian) habrían adoptado ya esta nueva tecnología.

Tampoco es que a China le preocupe mantener este programa en secreto : CloudWalk, una de las compañías proveedoras de esta tecnología, afirma en su web corporativa que uno de los posibles usos de la misma es programar alertas (dirigidas a la policía) si en un determinado plazo de tiempo aparecen cierto número de uigures por un vecindario.

El único consuelo que le resta a los vigilados es que el sistema dista aún de ser perfecto: todavía falla a menudo , y su éxito depende de factores como la colocación de las cámaras o el nivel de iluminación.



En Xataka

La tecnología está preparada para el reconocimiento facial en multitudes, ahora toca a la sociedad tener el debate ético y de privacidad

En Occidente, donde la el debate sobre algoritmos y razas giraba en torno a la presencia de sesgos inconscientes en los sistemas de reconocimiento facial que pudieran estar discriminando a las monorías, puede parecer increíble esta apuesta clara y sin matices de algoritmos de segregación racial por parte de un gobierno.

Y no sólo de dicho gobierno: las grandes empresas chinas del sector de la IA, como Yitu, Megvii, SenseTime o la ya citada CloudWalk (todas ellas valoradas en más de 1.000 millones de dólares ) también participan en este programa.

Según explica Kai Fu-Lee, expresidente de Google China, la ventaja del régimen de Pekín a la hora de adoptar nuevas tecnologías de vigilancia es que, como buena dictadura, pueden permitirse el lujo de ignorar "complejidades legales" y "consensos morales" .

Vía | New York Times

Imagen | Beijing Patrol

¿Qué te pareció el artículo?

¡Qué divertido!
0
¡Waaaooo!
0
¡Me molesta!
0
¡Me encanta!
0
Qué Aburrido...
0
Qué mal...
0
¡Qué Cagada!
0