Menú Cerrar

La UE plantea prohibir hasta cinco años el reconocimiento facial en lugares públicos | Tecnología

La UE plantea prohibir hasta cinco años el reconocimiento facial en lugares públicos | Tecnología

La Unión Europea plantea la posibilidad de prohibir el uso de la tecnología de reconocimiento facial en lugares públicos por un periodo de hasta cinco años con el fin de avanzar en el desarrollo de soluciones que mitiguen los riesgos que supone.

Esta posibilidad se recoge en un borrador de un libro blanco sobre inteligencia artificial (IA), recogido por Politico y Euractiv. Su objetivo es ofrecer una «perspectiva europea» que «promueva el desarrollo y la adopción de la inteligencia artificial en toda Europa, mientras se asegura que la tecnología se desarrolla y se usa de una forma que respecte los valores y principios europeos».

Este libro blanco propone un endurecimiento de las condiciones que impone a los desarrolladores de inteligencia artificial, en un intento porque la tecnología sea usada de una manera ética. La Comisión Europea, el brazo ejecutivo de la UE, ultima una serie de nuevas reglas aplicables a «sectores de alto riesgo» como la sanidad y el transporte, y sugiere que el bloque ha de actualizar las leyes de seguridad y responsabilidad. Así se desprende del borrador de un libro blanco sobre artificial inteligencia al que ha tenido acceso la agencia Bloomberg.

La Comisión Europea tiene previsto presentar dicho documento a mediados de febrero, si bien, según asegura la agencia estadounidense, resulta muy probable que cambie la versión final. Este documento forma parte de un esfuerzo más amplio de la UE por ser capaz de competir con Estados Unidos y China en inteligencia artificial, una tecnología que cada vez más está detrás de todas las innovaciones que se lanzan al mercado. No obstante, las autoridades europeas quieren diferenciarse en un uso más ético en aspectos como, por ejemplo, la privacidad del usuario.

No son pocas las voces que objetan, por el contrario, que las estrictas leyes de protección de datos como las que imperan en la UE (además de la fragmentación legal y política) podrían obstaculizar la innovación en torno a la IA. Los funcionarios de la UE sostienen, por el contrario, que una armonización como la que van a proponer impulsará el desarrollo.

La presidenta de la Comisión Europea, Ursula von der Leyen, en primer término; y la comisaria de Competencia, Margherite Verstager, durante una sesión plenaria en el Parlamento Europeo.

La nueva presidenta de la Comisión Europea, Ursula von der Leyen, prometió cuando asumió el cargo que su equipo presentaría un nuevo enfoque legislativo sobre inteligencia artificial durante de los primeros 100 días de su mandato, que comenzó el 1 de diciembre. Para ello, encargó la tarea a la comisaria de la Competencia y responsable del sector, Margrethe Vestager, para coordinar estos esfuerzos. Un portavoz de la Comisión con sede en Bruselas se negó a comentar a Bloomberg acerca del documento, si bien sostuvo que «para maximizar los beneficios y abordar los desafíos de la inteligencia artificial, Europa ha de actuar como uno y definir su propio camino, un camino humano. La confianza y la seguridad de los ciudadanos de la UE estará, por lo tanto, en el centro de la estrategia de la UE».

Reconocimiento 

Fotograma de 'Metrópolis', de Fritz lang (1927)
Fotograma de ‘Metrópolis’, de Fritz lang (1927)

La UE, por ejemplo, pretende obligar a los Estados Miembros a que nombren autoridades que se encarguen de monitorear la aplicación de cualquier regla futura que rige el uso de IA, de acuerdo con el documento. Además, Bruselas también está considerando nuevas obligaciones para las autoridades públicas en torno al despliegue de tecnologías de reconocimiento facial, así como reglas más detalladas sobre el uso de tales sistemas en espacios públicos.

El libro blanco sugiere así prohibir el uso del reconocimiento facial, tanto por la administración como por la empresa privada durante un tiempo suficiente hasta que se calibren de forma adecuada sus riesgos. En el borrador, la UE define estas herramientas de alto riesgo como «aplicaciones de inteligencia artificial que pueden producir efectos legales efectos para el individuo o la persona jurídica, o representar un riesgo de lesión, muerte o daño material significativo para el individuo o la persona jurídica».

Obviamente, la inteligencia artificial ya está sujeta a varias regulaciones europeas, incluidas las normas sobre derechos fundamentales en torno a la privacidad, la no discriminación y la seguridad del producto y las leyes de responsabilidad. Pero estas normas pueden haberse quedado obsoletas y no cubrir completamente los riesgos específicos planteados por las nuevas tecnologías, según asegura la Comisión en el documento, informa Bloomberg.

Sin embargo, vigilar a sus ciudadanos con inteligencia artificial no es algo exclusivamente chino. Un informe del grupo de investigación Carnegie Endowment for International Peace, cifra en al menos 75 los países que están utilizando activamente herramientas de IA como el reconocimiento facial para la vigilancia. España está ente ellos, así como Alemania, Francia o Reino Unido.

Anteriores trabajos

La estrategia de la UE para la inteligencia artificial se ha basado anteriores trabajos que ha coordinado la Comisión, incluidos los informes publicados en el último año por un comité de académicos, expertos y ejecutivos. Las normas de la UE solo tienen validez para el territorio europeo, obviamente. Sin embargo, suelen tener un nivel de vinculación, toda vez que las empresas no suelen estar por la labor de crear software que pueda ser prohibido en un mercado de más de 500 millones de personas.

A petición de la propia Unión Europea, el pasado mes de abril un comité de expertos publicó las pautas para el desarrollo de la inteligencia artificial, basadas en tres pilares: el legal, el ético y el técnico. En total, el documento recoge siete requisitos que, entre otras cosas, buscan que los sistemas estén al servicio de los seres humanos, sean seguros y transparentes, salvaguarden la privacidad y eviten la discriminación. Es, en definitiva, el marco requerido para diferenciarse de los modelos que abanderan China y Estados Unidos, según informa Zigor Aldama.

No obstante, consultoras como McKinsey advierten de que la tradicional brecha que separa a la UE de sus dos principales competidores en la economía de internet se está ensanchando con el desarrollo de la inteligencia artificial. “Solo dos de las 30 principales empresas digitales, el 25% de las startups de IA, y el 10% de los unicornios digitales son europeos”, subrayan. Y añaden que “si Europa desarrollase la IA de forma proporcional a su peso digital en el mundo, podría añadir 2,7 billones de euros a su riqueza en 2030”. Una cifra que podría aumentar hasta los 3,6 billones si se pusiera a la altura de Estados Unidos, que cuenta con una población menor.

Informes

Uno de los informes publicados el pasado año describió un conjunto de siete requisitos clave que los sistemas de IA deberían implementar para ser considerados confiables. Estos incluyen incorporar la supervisión humana, respetar la privacidad, la trazabilidad o evitar sesgos injustos en las decisiones. Otro de aquellos documentos describía las políticas y recomendaciones de inversión para la UE y sus estados miembros, como restringir el desarrollo de armas letales automatizadas y apuntó a que se deberían considerar nuevas reglas sobre el seguimiento injustificado a través del tratamiento facial reconocimiento u otras tecnologías biométricas.

El CEO de Alphabet Inc., Sundar Pichai, tiene previsto llevar a cabo una aparición pública en Bruselas la próxima semana para dar un discurso en un grupo de expertos sobre el desarrollo responsable de IA. 

Fuente de TenemosNoticias.com: elpais.com / Guillermo Vega

Publicado el: 2020-01-17 03:58:22
En la sección: Portada de Tecnología | EL PAÍS

Volver al inicio