Menú Cerrar

Reconocimiento facial por ordenador, una tecnología envuelta en debates éticos y políticos

[Img #70044]

Aunque el reconocimiento facial por ordenador se utiliza en cuestiones vinculadas a la seguridad, también es cierto que dos de sus grandes problemas son la amenaza que acarrea para la privacidad de la gente y el peligro que tiene de convertirse en una herramienta de control social.

 

Un grupo de 120 organizaciones no gubernamentales y 60 expertos en tecnología y privacidad pidieron suspender la utilización de reconocimiento facial en espacios públicos y en personas inmigrantes, ya que ese uso puede conllevar abusos y discriminación. Aunque la carta fue impulsada por el grupo europeo de defensa de los derechos digitales, contó con el apoyo de organizaciones de todo el mundo. Si bien el reconocimiento facial es uno de los puntos ásperos de la Ley de Inteligencia Artificial que está trabajando la Unión Europea, el problema de esta tecnología que incluye derechos digitales y privacidad se replica en muchas partes del mundo.

 

El reconocimiento facial se emplea cotidianamente para loguearse en teléfonos celulares (móviles) y validar la identidad para instalar aplicaciones bancarias o de organismos oficiales. Incluso, basta con hacerse una selfie y mostrar el DNI para que en muchas entidades otorguen a la persona un crédito o le permitan hacer compras sin seguir los mecanismos tradicionales.

 

Aunque hay aplicaciones para la identificación de personas extraviadas y desaparecidas, el reconocimiento facial por ordenador se utiliza mayormente para supervisar la identidad de la gente que entra y sale de un país o que circula por espacios públicos, a fin de brindar “mayor seguridad” a la población.

 

Aunque diversos sectores sociales tratan de resguardar la privacidad ante el uso del reconocimiento facial por ordenador, cada vez hay más tecnologías que capturan rostros, voces y movimientos.

 

“La gente trata de resguardarse, pero en realidad tenemos otras fugas de privacidad que son los celulares. Siempre nos parece casual que nos aparezca publicidad de un lugar al que nos gustaría ir y del cual hablamos con alguien un rato antes. Los teléfonos móviles todo el tiempo están captando nuestra información e incluso la venden”, señala Pablo Negri, investigador del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET) en el Instituto de Ciencias de la Computación de la Universidad de Buenos Aires (UBA) en Argentina, en diálogo con la Agencia de Noticias Científicas de la Universidad Nacional de Quilmes, Argentina.

 

¿Seguridad o privacidad?

 

La seguridad es uno de los temas que reina en todos los debates políticos y el reconocimiento facial se ofrece como una herramienta para detectar a aquellas personas consideradas peligrosas. En este sentido, uno de los debates es hasta qué punto la población está dispuesta a perder privacidad para ganar seguridad.

 

“En este punto, la cuestión radica en la utilización proporcional frente a ciertos casos riesgosos para la sociedad o para las personas. Seguramente hay sociedades más permeables a este tipo de usos que prefieren estar más seguras, y otras que prefieren optar por la privacidad”, destaca Negri.

 

Pese al debate entre ambas posturas, el peligro es caer en la vigilancia y el control social a través de esta herramienta. De hecho, la Procuraduría de Investigaciones Administrativas denunció penalmente a las autoridades de la Ciudad Autónoma de Buenos Aires por presunto espionaje ilegal con cámaras y datos biométricos sobre funcionarios, dirigentes sociales y gremiales, opositores, jueces, periodistas y empresarios.

 

Una de las polémicas en torno al reconocimiento facial por ordenador está vinculada a su imprecisión con diferentes grupos sociales. (Ilustración: Amazings / NCYT)

 

La tecnología tampoco es objetiva

 

Aunque suele pensarse que estos programas informáticos son neutros y eficientes, quienes los diseñan todavía son personas de carne y hueso que cargan con sus prejuicios, estereotipos y errores. Denominado como sesgo tecnológico, el problema está en la construcción de las bases de datos sobre las que se fundamentan tales sistemas. Las primeras, que se pusieron en marcha hace unos pocos años, estaban formadas con millones de fotos de personas famosas, en su mayoría provenientes de Estados Unidos y Europa.

 

De esta manera, se generó una preponderancia de gente blanca, occidental y masculina. Si bien el margen de error para estos rasgos es mínimo, hay otras etnias y géneros que quedaron por fuera de la validación precisa.

 

“Esto lleva a que se produzcan más falsas alarmas con personas que no son blancas y europeas. Así, se generan falsas alarmas donde una persona que según los umbrales del sistema es parecida, pueda ser detenida en la vía pública”, señala el científico creador de Siface: un sistema de reconocimiento facial para localizar individuos perdidos y prófugos.

 

Argentina, Brasil y Estados Unidos tienen más de un ejemplo donde la tasa de error del reconocimiento facial es mayor en personas negras, mujeres o trans, que en hombres blancos. Según un informe de la Red en Defensa de los Derechos Digitales, “estos errores alcanzan casi el 40 por ciento cuando se trata de mujeres racializadas o personas trans, mientras que, en hombres blancos, la tasa de error cae hasta solo el 0,3 por ciento”.

 

Por eso, es necesario generar otras bases de datos que sean más inclusivas y tecnologías que sean capaces de reconocer con igual eficacia todos los tipos de rostros y todos los tipos de pieles. (Fuente: Nicolás Retamar / Agencia de Noticias Científicas de la Universidad Nacional de Quilmes)

 

 

Fuente de TenemosNoticias.com: noticiasdelaciencia.com

Publicado el: 2023-10-09 05:45:34
En la sección: Ciencia Amazings® / NCYT®

Publicado en Ciencia