Formulario de búsqueda

Los neuroderechos o el desequilibrio competitivo, entre las lagunas de la regulación europea sobre la inteligencia artificial

  • La propuesta normativa no establece especificaciones sobre la propiedad intelectual o la responsabilidad civil
  • Expertos consideran que la capacidad para cumplir con las obligaciones podría sofocar la innovación en el sector

Además de una poderosa herramienta para solucionar y mitigar problemas, como la ineficiencia energética o la optimización de los procesos productivos, la inteligencia artificial puede convertirse en una auténtica arma capaz de aumentar la brecha entre clases sociales y bloques políticos o consolidar el dominio que ya ostentan algunas corporaciones. Ante el creciente uso de esta tecnología, una oleada de nuevas normativas recorre el mundo con los objetivos de sacar el máximo beneficio de esta solución y, al mismo tiempo, proteger a ciudadanos y organizaciones.

La Comisión Europea presentó su propuesta regulatoria el pasado mes de abril

El pasado mes de abril la Comisión Europea presentó una propuesta de reglamento sobre la inteligencia artificial con la intención de generar un marco jurídico sobre esta tecnología enfocado a garantizar la seguridad y los derechos fundamentales de las personas y las empresas. Las autoridades comunitarias han tratado de proporcionar unas normas, a la vez que unos estándares, para abordar los riesgos específicos que plantean los sistemas de IA y aumentar la confianza de la población.

Las medidas propuestas, todavía en fase de aprobación y cuya redacción final puede variar significativamente antes de recibir la luz verde, siguen un planteamiento basado en riesgo. De esta forma, se establecen cuatro niveles diferentes atendiendo, principalmente, a la severidad del daño y la probabilidad de que este ocurra. En este sentido, el texto clasificaría las herramientas de la siguiente manera:

  • Riesgo inadmisible: son los sistemas considerados clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas.
  • Riesgo alto: tecnologías de IA empleadas en infraestructuras críticas como transporte, educación, salud, aplicación de las leyes, la administración de justicia o la gestión de la migración.
  • Riesgo moderado: en este nivel se incluyen sistemas como chatbots o robots conversacionales, que deberán cumplir unas medidas específicas de transparencia.
  • Riesgo bajo: son sistemas, como videojuegos basados en inteligencia artificial o filtros de correo basura, con limitado riesgo sobre los derechos o la seguridad de los individuos.

Atendiendo a esto, cuanto más riesgo más obligaciones deberán cumplir y respetar los sistemas de IA. Entre ellas, contar con sistemas adecuados de evaluación y mitigación de riesgo o responder a una alta calidad de los conjuntos de datos que alimentan el sistema. Además deberán aportar un registro de la actividad para garantizar la trazabilidad de los resultados, documentación detallada sobre el sistema y su finalidad, y proporcionar información clara y adecuada al usuario.

La necesidad de un enfoque menos distópico

Con esta propuesta la Unión Europea refuerza su compromiso por convertirse en actor de referencia en materia normativa. Es más, el documento podría llegar a convertirse en el estándar mundial de facto e influir y definir las líneas que ya trabajan los legisladores y organismos reguladores de Estados Unidos, India y otros países. Lo contemplado en el texto ha sido, además, celebrado en términos generales por la mayoría de la industria tecnológica al solo limitar o prohibir ciertos usos de la inteligencia artificial, y no la tecnología en sí misma, dejando así la puerta abierta a nuevas investigaciones y usos beneficiosos.

Así lo explicaba recientemente Alfonso González, Director de Asuntos Gubernamentales y Regulatorios de IBM España, en declaraciones a Reason.Why. “Nos congratula que se esté adoptando una postura de regulación no de la tecnología, sino de sus usos y que, además, estos se estén abordando de distinta forma en función de su riesgo. Porque no es lo mismo un chatbot que te está ayudando a elegir un producto en una tienda, que una aplicación que está asistiendo a un doctor a tomar una decisión médica”.

La definición amplia de la inteligencia artificial podría dar lugar a libres interpretaciones

No obstante, el reglamento también ha recibido críticas y se ha encontrado con opiniones negativas respecto a sus puntos débiles. Algunos expertos señalan que, a pesar de contar con un enfoque muy meditado, este no es lo suficientemente riguroso y aporta una definición de la inteligencia artificial demasiado amplia y ambigua, algo que podría dar lugar a libres interpretaciones. Estas, a su vez, podrían ser empleadas para el beneficio de algunas compañías que quieren aprovechar de forma abusiva la ventaja competitiva que ofrece esta tecnología.

En esta misma línea, y a pesar de que el texto está enfocado a construir la confianza de los usuarios, algunos especialistas apuntan que el lenguaje utilizado en la normativa puede aumentar las preocupaciones de los ciudadanos sobre esta tecnología. Expresiones como "sistemas de IA de alto riesgo”, “daños físicos o psicológicos”, "técnicas subliminales”, “manipulación del comportamiento humano” o "puntuación social" forman parte del vocabulario empleado en la propuesta regulatoria de la Unión Europea.

Desde BCG Gamma, la división de inteligencia artificial y analítica avanzada de Boston Consulting Group, consideran que la normativa podría beneficiarse de una visión más equilibrada sobre el potencial de la IA. “El texto tiene un tono muy sombrío que hace que se vea la inteligencia artificial como algo malo, algo muy peligroso que requiere grandes niveles de regulación”, ha señalado Sylvain Duranton, Managing Director & Senior Partner, Global Leader de la compañía, en un encuentro online internacional organizado con medios. “La mayoría de los usos de esta tecnología son mundanos y forman parte de nuestro día a día. Conviene mantener un discurso y una narrativa positiva para educar y generar confianza, y no caer en la trampa de ser demasiado distópicos en nuestra forma de ver la IA”.

Algunos puntos débiles de la normativa

La consultora recuerda que actualmente la inteligencia artificial forma parte de muchas de las herramientas cotidianas de nuestro entorno. Hacemos uso de ella cuando buscamos información con Siri o Alexa, cuando recibimos recomendaciones personalizadas en Spotify, cuando utilizamos un filtro de Instagram o cuando aparcamos el coche o jugamos a videojuegos. Por eso, la compañía entiende que los reguladores deberían esforzarse por encontrar un tono equilibrado que anime a la sociedad a permanecer atenta, pero que deje hueco para los beneficios que puede aportar la tecnología. También destacan que lo ideal sería centrarse en las relativamente pocas aplicaciones asociadas a diferentes riesgos, y generar espacio para permitir que se desarrollen las demás.

Sin embargo, otra sección de expertos consideran que la propuesta de normativa obvia precisamente aspectos de la inteligencia artificial que podrían parecer sencillos e inocuos, pero que cuentan con potencial para generar graves distorsiones del orden social. Así, Josep Curto, Founder de AthenaCore y profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC, reconoce que es muy complicado delimitar hasta dónde debe llegar la normativa, pero se sorprende de que el texto “no considere áreas que afectan a los consumidores y que están ligadas a las burbujas de información, las noticias falsas o las redes sociales”. En su opinión, también es llamativa la omisión, en el ámbito técnico, de recomendaciones de enfoques sobre la privacidad, los sistemas conocidos como privacy-preserving machine learning.

Algunas soluciones de IA comprometen la privacidad o la intimidad de los usuarios

El terreno de los contenidos sugeridos, las recomendaciones de producto o la compra predictiva, funciones habituales ya en numerosas plataformas de comercio electrónico, es donde Sergio de Juan-Creix, experto en derecho digital del despacho Croma Legal y profesor colaborador de Derecho del grado de Comunicación de la UOC, encuentra algunas tensiones. “La inteligencia artificial es la herramienta necesaria para predecir tu comportamiento y, basándose en esto, ofrecerte productos o servicios en función de cómo eres o cuál es tu estado de ánimo, anticipándote a él o moldeándolo al gusto del oferente. Esto va más allá de la privacidad o incluso de la intimidad porque para hacerlo necesitan tener cierto control predictivo sobre tu mente”.

Según apunta, el de los neuroderechos, es decir, el área relacionada con la privacidad e identidad mental, es uno de los terrenos que queda sin cubrir por la propuesta regulatoria de la UE. Algunos expertos indican que el campo de actuación de ciertos sistemas de inteligencia artificial puede ser calificado de intrusivo y, por tanto, traducirse en una manipulación a gran escala y puede tener un impacto directo en las decisiones de consumidores y ciudadanos.

Otro aspecto que podría generar controversia y que no ha sido recogido por el texto comunitario es el del uso de la inteligencia artificial para las creaciones intelectuales. Los expertos de la universidad se preguntan si la propiedad intelectual de una creación podría ser atribuible a un robot y, en caso afirmativo, sobre quién recaería la misma, ya que bien podría asignarse al propietario de la máquina o al programador que ha desarrollado la inteligencia artificial.

Inteligencia Artificial

En esta misma línea, la responsabilidad civil es otra de las cuestiones que no han quedado definidas en el documento. A día de hoy la propuesta no estipula quien o quienes serían responsables en caso de que los sistemas de inteligencia artificial incurrieran en fallos, así como si el nivel de responsabilidad sería el mismo o cómo esta quedaría distribuida. Este punto, además, implicaría la definición de unas directrices informativas de cara a mantener la transparencia de cara al consumidor.

A este respecto, Josep Curto echa en falta la recomendación de un rol similar al de responsable del tratamiento de datos (DPO) en el Reglamento General de Protección de Datos. “Este rol puede ser CDO (chief data officer), CAO (chief analytics officer) o equivalente, y debe colaborar con el departamento de auditoría interno y con el legal, así como participar en el comité de gobierno del dato”.

Transparencia y autogobernanza

No obstante, las grandes compañías han optado por la autorregulación en ese punto, y grandes firmas tecnológicas ya cuentan con sistemas de gobernanza como parte de su compromiso ciudadano. Google, por ejemplo, tiene públicos y accesibles sus principios respecto al uso de la IA, los resultados de sus progresos y guías prácticas para una inteligencia artificial responsable. Por su parte, Microsoft también cuenta con órganos internos como el Comité Aether, la Oficina de IA Responsable (ORA) y la Estrategia de IA Responsable en Ingeniería (RAISE).

Asimismo, desde BCG Gamma aseguran que la comunidad empresarial se encuentra motivada y comprometida con una actuación responsable y ética respecto a la IA. Para esta afirmación se apoya en una encuesta realizada este mismo año a ejecutivos de más de 1.000 organizaciones. Atendiendo a los resultados, el 86% de los encuestados sostienen que sus empresas están adoptando medidas activas para utilizar la IA de la mejor forma posible. Las razones para ellos son la búsqueda de beneficios para el negocio (42%), satisfacer las expectativas de los consumidores (20%) y mitigar los riesgos (16%).

Exigir excesivos requisitos a los sistemas de riesgo bajo podría generar desequilibrios

En lo que respecta a las obligaciones a cumplir por los sistemas de IA, desde BCG Gamma señalan que lo estipulado en la normativa podría generar desequilibrios competitivos. En el caso de las aplicaciones de bajo riesgo, se promueve un carácter voluntario de su acatamiento, lo que pondría a muchas compañías en una posición compleja, teniendo que elegir entre realizar un gran esfuerzo económico y de infraestructura para implantar la normativa; o responder ante los clientes, que les exigirán adecuarse a estos estándares. En este sentido, la consultora aboga por encontrar un término medio entre los riesgos extremos y los moderados, tratando de fomentar la transparencia y la responsabilidad, sin exigir excesivos requisitos.

Además, según Sylvain Duranton, el cumplimiento de determinadas obligaciones establecidas podría acotar el mercado de la inteligencia artificial al perjudicar principalmente a las pequeñas compañías. “En algunos casos es necesario cumplir muchos requisitos y aportar mucha documentación. A veces, incluso, es necesaria una autorización judicial o administrativa. Es probable que solo las grandes empresas puedan tener acceso a este tipo de servicios o permitirse asumir este coste”, ha explicado en la sesión.

A consecuencia de todo ello, los especialistas advierten de que la regulación podría desembocar en una limitación de la capacidad de innovación del sector, especialmente en lo que respecta entre pequeñas y medianas compañías. “Me preocupa que la complejidad y la ambigüedad en el reglamento, así como los requisitos algo onerosos, puedan sofocar la innovación. Es posible que se produzca una situación similar a la vivida con la GDPR, cuando algunas empresas decidieron salir del mercado de la UE por completo debido a las dificultades de la norma”, ha apuntado Steven Mills, Managing Director & Partner, Chief AI Ethics Officer de BCG Gamma. “La ley requiere conjuntos de datos completos, pero luego no define lo que eso significa. Cuando se combina ambigüedad con multas elevadas por incumplimiento, se crea incertidumbre, lo cual es malo para cualquier empresa”.

Las sanciones que establece el reglamento fija distintos umbrales en función del incumplimiento de distintos aspectos:

  • Hasta treinta millones de euros o el 6% del volumen de negocios anual total del ejercicio financiero anterior por incumplimiento o prácticas prohibidas en relación con los requisitos sobre los datos
  • Hasta veinte millones de euros o el 4% del volumen de negocios anual total del ejercicio financiero anterior por el incumplimiento de cualquier otro requisito
  • Hasta diez millones de euros o el 2% del volumen de negocios total anual del ejercicio anterior por el suministro de información incorrecta, incompleta o engañosa a los organismos notificados y a las autoridades nacionales competentes

Algunos expertos consideran necesaria una revisión de estas multas, ya que podría dar lugar a situaciones similares a las vividas en relación a la GDPR. “En los últimos años muchas empresas han recibido sanciones vinculadas al tratamiento y a la protección de los datos de cliente, y aun así algunas de ellas siguen realizando las mismas prácticas puesto que operan en múltiples países al mismo tiempo y buscan estratagemas para saltarse el cumplimiento”, apunta Josep Curto. El profesor de la UOC propone bien elevar la cuantía de las multas con efectos disuasorios, especialmente entre las grandes compañías tecnologías, o realizar acciones coordinadas entre países en lo que respecta a las empresas investigadas para aumentar la eficacia de las multas acumuladas.

La licencia social como motor de la autorregulación

Con todo, los especialistas coinciden en que la consecución de una inteligencia artificial responsable implicará grandes dosis de autorregulación por parte de las empresas desarrolladoras. Según la encuesta de BCG Gamma, el 55% de las organizaciones encuestadas pensaban que eran mucho más maduros en su implementación de esta tecnología de lo que en realidad eran. Desde la consultora entienden que esto se debe a que carecen de una visión clara del alcance de la responsabilidad y de los estándares para construirla. El reto que muchos ejecutivos señalan es la falta de normas claras, lo que lleva a muchos de ellos a crear las suyas propias.  

La definición de una IA responasable requerirá colaboración público - privada

La definición de una IA responasable para todas las partes implicadas requerirá del entendimiento y colaboración público-privada. Así lo aseguraba recientemente Carlos Guardiola, Chief Innovation Officer en Sngular, en declaraciones a Reason.Why. “Evolucionar en este sentido requiere colaboración y responsabilidad. No puede depender solo de la administración, porque no siempre tiene una respuesta ágil, y tampoco solo de los negocios, porque persiguen unos intereses económicos”.

El establecimiento de medidas proactivas será esencial para desarrollar una inteligencia artificial responsable que se gane la confianza de la sociedad. “Es necesaria una regulación, pero creo que podemos confiar en que las empresas avancen en su actividad buscando la licencia social. Las empresas están viendo la importancia de la aprobación ciudadana”, ha destacado Steven Mills (BCG Gamma). “El enfoque está claramente en ver las responsabilidades como una fuente de valor. La cuestión está en cómo reforzarlo y acelerarlo, capturando un camino en el que ya se encuentran muchas compañías construyendo y exigiendo transparencia para que los clientes puedan tomar decisiones informadas”.