Formulario de búsqueda

La Unión Europea contempla prohibir temporalmente el reconocimiento facial

Compartir en:

La Unión Europea contempla prohibir temporalmente el reconocimiento facial

  • El veto duraría entre 3 y 5 años mientras las autoridades comunitarias estudian las implicaciones éticas y legales que puede tener esta tecnología
  • La medida afectaría a espacios públicos como estaciones de tren, estadios deportivos y centros comerciales

La Unión Europea está considerando prohibir temporalmente la tecnología de reconocimiento facial en espacios como estaciones de tren, estadios deportivos y centros comerciales. Sería una medida que duraría entre 3 y 5 años mientras las autoridades comunitarias estudian las implicaciones éticas y legales de esta tecnología puede tener y sería un veto que tendrían que respetar tanto los actores públicos como privados en los lugares públicos mencionados.

El futuro del reconocimiento facial en la Unión Europea

Según un borrador del libro blanco sobre Inteligencia Artificial (IA) al que ha tenido acceso la red de medios Euractiv, los planes de la Unión Europea podrían frenar los proyectos actuales de IA en algunos países de la Unión como Alemania, que pretende implementar el reconocimiento facial automático en 134 estaciones de ferrocarril y 14 aeropuertos, o Francia, que también tiene planes para establecer un marco legal que permita integrar sistemas de videovigilancia con tecnologías de reconocimiento facial.

Alemania tendría que paralizar sus planes en estaciones de tren y aeropuertos

El documento de la Comisión estipula que un futuro marco regulatorio podría "incluir una prohibición por tiempo limitado del uso de tecnología de reconocimiento facial en espacios públicos”. El documento agrega que durante este tiempo de 3-5 años en que estaría vigente la prohibición, se implementaría "una metodología sólida para evaluar los impactos de esta tecnología y las posibles medidas de gestión de riesgos".

En concreto, Bruselas estaría contemplando 5 opciones regulatorias para la IA que incluiría en el borrador del Libro Blanco, cuya versión completa debe publicar a finales de febrero. Estas opciones son:

  1. Etiquetado voluntario: que podría consistir en un instrumento legal mediante el cual los desarrolladores podrían "optar por cumplir, de forma voluntaria, con los requisitos de inteligencia artificial ética y confiable". En este caso, hab´ria una "etiqueta" de ética artificial o confiable con condiciones vinculantes.
  2. Requisitos sectoriales para la administración pública y el reconocimiento facial: este área se centra en el uso de inteligencia artificial por parte de las autoridades públicas, así como el empleo de tecnologías de reconocimiento facial en general. En este caso, la UE podría adoptar un enfoque similar a la postura adoptada por Canadá en su Directiva sobre la toma de decisiones automatizada, que establece normas mínimas para los departamentos gubernamentales que desean utilizar un sistema de decisión automatizado. En cuanto al reconocimiento facial, el documento de la Comisión destaca las disposiciones del Reglamento General de Protección de Datos de la UE, que otorgan a los ciudadanos "el derecho a no ser objeto de una decisión basada únicamente en el procesamiento automatizado, incluida la elaboración de perfiles".
  3. Requisitos obligatorios basados ​​en el riesgo para aplicaciones de alto riesgo: los instrumentos jurídicamente vinculantes se aplicarían solo "a las aplicaciones de inteligencia artificial de alto riesgo". El documento establece que "este enfoque basado en el riesgo se enfocaría en áreas donde el público está en riesgo o hay un interés legal importante en juego". Los sectores que podrían considerarse de alto riesgo según el documento incluyen la atención médica, el transporte, la policía y el poder judicial. La Comisión agrega que para que una solicitud se considere "de alto riesgo", tendría que o bien entrar en el ámbito de un sector de alto riesgo o bien presentar posibles ramificaciones legales y plantear "el riesgo de lesiones, muerte o daños materiales significativos para el individuo ".
  4. Seguridad y responsabilidad: cubre los problemas de seguridad y responsabilidad que pueden surgir como parte del desarrollo futuro de la Inteligencia Artificial y sugiere que se podrían hacer "enmiendas específicas" a la legislación de seguridad y responsabilidad de la UE, incluida la Directiva General de Seguridad del Producto, la Directiva de Maquinaria, la Radio Directiva de equipos y la Directiva de responsabilidad del producto. Los riesgos que actualmente no están cubiertos en la legislación vigente, según el documento, incluyen "los riesgos de amenazas cibernéticas, riesgos para la seguridad personal, la privacidad y la protección de datos personales", que pueden considerarse como parte de posibles modificaciones futuras.
  5. Gobernanza: la Comisión dice que un sistema efectivo de aplicación es esencial, que requiere un sistema sólido de supervisión pública con la participación de las autoridades nacionales. El documento señala que sería necesario promover la cooperación entre tales autoridades nacionales.

Los enfoques más probables que podría adoptar la Unión Europea en este asunto podrían ser una combinación de las opciones 3, 4 y 5. De hecho, el documento explica: "La Comisión puede considerar una combinación de un instrumento horizontal que establezca requisitos de transparencia y rendición de cuentas y cubra también el marco de gobernanza complementado con enmiendas específicas de la legislación vigente de seguridad y responsabilidad de la UE".

Estas medidas surgen a raíz de un informe publicado en junio por el Grupo de alto nivel de la Comisión sobre IA que sugirió que la UE debería considerar la necesidad de una nueva regulación para "garantizar una protección adecuada contra los impactos adversos", que podría incluir problemas derivados del reconocimiento biométrico, el uso de armas letales autónomas sistemas (LEYES), sistemas de inteligencia artificial basados ​​en perfiles de niños y el impacto que la inteligencia artificial puede tener en los derechos fundamentales.