Formulario de búsqueda

De los sesgos a la manipulación, la cuestión ética es ineludible en el desarrollo de la inteligencia artificial

  • Pese a sus evidentes beneficios, la IA plantea profundos desafíos de cara a construir sistemas justos y responsables
  • Empresas e instituciones confían en la combinación de regulación y gobernanza corporativa para velar por la ética

En buscadores de internet, en asistentes virtuales, en electrodomésticos, en redes sociales, en la calle y centros comerciales… La inteligencia artificial está presente en nuestras actividades cotidianas desde hace años y su desarrollo, aupada en el crecimiento imparable del ecosistema digital a raíz de la pandemia, solo está llamado a continuar escalando. Esta tecnología cuenta con un gran potencial de transformación desde el punto de vista tecnológico, económico y social, pero plantea profundos desafíos a la hora de construir modelos y sistemas justos y responsables.

Se estima que el gasto mundial en IA ascenderá a los 110.000 millones de dólares en 2024

Las diferentes industrias se enfrentan a grandes retos en los próximos años, como la necesidad de incrementar la competitividad a través de la automatización y optimización de los procesos, o mejorar la sostenibilidad mediante la eficiencia energética, el desarrollo de nuevos materiales con menor impacto ambiental o la apuesta por la economía circular. Y para lograr todo ello, resultará imprescindible escalar el uso de los datos y la inteligencia artificial en toda la cadena de valor. Es por eso que el gasto mundial en esta tecnología se duplicará en los próximos cuatro años aumentando de 50.100 millones de dólares en 2020 a más de 110.000 millones en 2024, según estiman desde IDC.

Y es que en la actual data economy, la capacidad de la inteligencia artificial para gestionar la información será esencial en el devenir de las compañías. “Nuestro cerebro es finito, tiene un límite, pero la máquina no descansa”, nos explica Idoia Salazar, Presidenta de OdiseIA, el Observatorio del Impacto Social y Ético de la Inteligencia Artificial. “La IA es un software con capacidad para analizar datos, extraer conclusiones, tomar decisiones de forma autónoma y aprender. Es una tecnología con enormes posibilidades para ayudarnos a tener una vida mejor si se usa para el bien”.

¿Una inteligencia artificial confiable?

La aplicación de la IA es cada vez más habitual en todo tipo de actividades. Solo en el último año se ha podido conocer, por ejemplo, cómo Intel ha desarrollado una mochila con inteligencia artificial, cámara espacial y auricular bluetooth integrados para ayudar a que las personas con discapacidad visual puedan caminar con mayor seguridad en la vía pública. Mientras que Sony ha creado el sensor fotográfico IMX500 que aplica la IA con la intención de reducir los atascos y la contaminación de los aparcamientos, mitigar los accidentes de los peatones y reducir las aglomeraciones en el transporte público en la ciudad de Roma. Y Samsung ha puesto en marcha Tallk, una aplicación que permite a los pacientes de ELA comunicarse gracias a los algoritmos predictivos y a un sistema de eye tracking.

No obstante, algunas de las soluciones creadas a base de inteligencia artificial también han sido objeto de polémica por adentrarse en terrenos que una sección de usuarios y profesionales consideran moral y éticamente cuestionables. Tal es el caso de la aplicación Deep Nostalgia, de MyHeritage, que está siendo usada, principalmente, para “devolver a la vida” a antepasados o personajes históricos. Esta herramienta se apoya en la tecnología deepfake, la misma empleada por Channel 4 en la creación de un vídeo -duramente criticado- que alteraba digital y artificialmente la imagen de la reina Isabel II para alertar sobre el riesgo de las fake news; y la misma que Cruzcampo ha utilizado para “revivir” a Lola Flores para su campaña “Con mucho acento”.

Por su parte, otros sistemas de inteligencia artificial puestos en marcha en los últimos tiempos han demostrado los efectos negativos de esta tecnología, y han llegado a comprometer o vulnerar cuestiones como la privacidad, la protección de datos o, incluso, los derechos humanos. Sonado fue el caso, en 2015, del algoritmo detrás de Google Photos que confundía personas afroamericanas con simios; o el de Rekognition, el sistema de Amazon, que en 2018 identificó falsamente a 28 miembros del Congreso como personas que habían sido arrestadas por delitos. En nuestro país, el año pasado, Mercadona implantó un sistema de reconocimiento facial en 40 de sus supermercados con el objetivo de detectar personas con una "sentencia firme de orden de alejamiento del establecimiento”, una iniciativa que según la Audiencia Provincial de Barcelona vulneraba la privacidad de los usuarios.

Según la CE, una inteligencia artificial confiable es legal, ética y robusta

Algunos de estos casos no se adecuarían, por tanto, a lo establecido en la “Guía ética para una Inteligencia Artificial confiable”, elaborada por el grupo de expertos de la Comisión Europea en 2019. Según el organismo comunitario, una IA confiable es aquella que cumple tres requisitos fundamentales: es legal, es decir, respeta todas las leyes y regulaciones aplicables; es ética, esto es, respeta los principios y valores éticos; y es robusta, tanto desde una perspectiva técnica del dato como a la hora de tener en cuenta el contexto social.

Es más, Carlos Guardiola, Chief Innovation Officer en Sngular, considera que, “aunque resulta difícil generalizar en este terreno, la mayoría de inteligencias artificiales no son confiables porque no cumplen las tres condiciones de manera simultánea”. Tal y como nos explica, “un porcentaje muy alto son robustas porque la tecnología ya es fuerte y desarrollada, como en el caso de Alexa o Siri, que cada vez entienden mejor, pero en los aspectos legales y éticos aún hay mucho que mejorar. Todavía hay que ver si las soluciones se están construyendo con planteamientos éticos desde la base, o si se les están aplicando a posteriori”.

Esto explicaría que, según una encuesta realizada el año pasado por la OCU a nivel europeo, un 67% de los ciudadanos consideren que la IA servirá a las empresas para manipular a los consumidores, o que un 65% piensen que puede provocar mayores abusos en el uso de datos privados y personales. Al igual que un 61% crean que puede servir a los gobiernos para controlar a la población, y que un 68% estimen que el desarrollo de los sistemas de IA supondrá una pérdida de puestos de trabajo en diversos sectores.

Pese a las connotaciones negativas asociadas a la inteligencia artificial, las empresas -al menos las grandes y tecnológicas- parecen concienciadas de la necesidad de implementar medidas que promuevan la confianza. “Nuestra misión es crear tecnologías para el progreso de la sociedad, es algo que forma parte de nuestro ADN. Trabajamos con gobiernos, clientes, universidades e investigadores para que la IA se desarrolle de forma beneficiosa para todos”, nos comenta Alfonso González, Director de Asuntos Gubernamentales y Regulatorios de IBM España. “Debe haber un sistema de mejores prácticas que ayuden a la gestión ética y segura de la IA y que estén alineados no solo con la normativa, sino con los valores existentes en la sociedad”.

En esta línea, la preocupación por la transparencia de las aplicaciones parece haber cobrado peso. “Nuestros principios están alineados con el respeto a la autonomía humana, la prevención del daño, la equidad y la explicabilidad que rigen los fundamentos de una IA fiable”, nos asegura Alberto Pinedo, National Technology Officer de Microsoft España. “Promovemos el uso ético de la IA a través de una metodología compuesta por unos principios, prácticas y herramientas, así como por un consejo asesor que discrimina aquellos usos que no son considerados como confiables, éticos o robustos, basándose en las directrices europeas”.

Los desafíos éticos de la inteligencia artificial

No obstante, compañías e instituciones entienden que para aportar beneficios y resultar clave para la construcción de un mundo mejor, la inteligencia artificial debe resolver una serie de retos. Los principales, según Alberto de Torres, CEO de Nektiu y Profesor y Director Académico de ESIC, son tres. “Lo más importante es la fiabilidad del dato, conseguir información de calidad, adecuada y suficiente para aportar valor. El segundo es el de la confianza en las herramientas, que pasa por generar una cultura del conocimiento. Y en tercer lugar el talento, son necesarios perfiles diversos que sepan trabajar con los datos para obtener el máximo potencial de estas soluciones a todos los niveles”.

Sesgos y prejuicios

Más allá de las cuestiones técnicas que atañen a la inteligencia artificial como tecnología en sí misma, la industria es consciente de la necesidad de abordar los aspectos sociales, culturales y morales de sus aplicaciones e implicaciones. Así, los expertos coinciden en que el del sesgo o cómo evitar que se construyan algoritmos o sistemas que hereden las visiones enjuiciadas de personas, empresas y sociedades, se convierte en uno de los principales desafíos. Es más, según un estudio de Capgemini, el 65% de los directivos dice ser consciente del problema de las inclinaciones discriminatorias de los sistemas de IA.

La aparición de prejuicios o conductas discriminatorias es una problemática habitual, por ejemplo, de las inteligencias artificiales basadas en texto, como GPT-3, el modelo de lenguaje de OpenAI. Estos sirven para predecir construcciones textuales, pero muchos tienden a amplificar estereotipos negativos relacionados con la religión, la orientación sexual o la raza. Concretamente, se ha descubierto recientemente que GPT-3 asocia términos violentos a musulmanes en 9 de cada 10 casos, frente a los 2 casos de los cristianos o solo 1 para los judíos.

Para luchar contra esto, los expertos están empleando distintas técnicas, como inyectar texto positivo sobre aquello sobre lo que la IA genera sesgos. En este caso, incorporar términos positivos sobre los musulmanes en un modelo de lenguaje extenso redujo el número de menciones de violencia sobre los practicantes de esta fe en casi un 40%. Otra estrategia es alimentar a la máquina con discursos de odio, blasfemias o insultos, para que posteriormente un equipo de seres humanos etiquete las expresiones como inseguras y ayudar al sistema a identificar y eliminar texto tóxico.

Asimismo, las empresas desarrolladoras de algoritmos y soluciones de IA también están haciendo frente a este desafío desde la perspectiva de la capacitación. Trabajamos con las administraciones para fomentar la educación en IA en toda la población, y para que la ética se incluya en los programas formativos de colegios, institutos y universidades”, señala Alfonso González (IBM España). “Hacemos especial énfasis en determinados colectivos con menos acceso a la educación para que a medio y largo plazo haya una mayor representación entre lo desarrolladores de algoritmos”.

Manipulación del comportamiento

Asimismo, el de la manipulación de comportamiento es otro de los grandes retos a los que se enfrenta la inteligencia artificial desde el punto de vista de la ética. Con el auge de tecnologías como el deepfake, capaz de reproducir digitalmente los rasgos, movimientos y expresiones de cualquier persona, los esfuerzos del sector se vuelcan en establecer medidas y desarrollar herramientas para evitar que los algoritmos desencadenen comportamientos o nuevos hábitos en los consumidores, o incluso manipulen sus certezas o creencias.

En un contexto de creciente desinformación y preocupación hacia las fake news, determinar si un contenido audiovisual es real o manipulado resulta crucial para evitar daños o situaciones comprometidas, como por ejemplo, la alteración de unos resultados electorales. En 2018,  el director de cine Jordan Peele y el medio BuzzFeed se unieron para concienciar sobre ello en un vídeo que reproducía digitalmente a Barack Obama. "Estamos entrando en una era en la que nuestros enemigos pueden hacer que cualquiera diga cualquier cosa en cualquier momento”, comentaba la imagen alterada del ex Presidente de Estados Unidos.

Con el avance de la tecnología, la democratización del acceso a internet y la compartición de herramientas de código abierto, hoy en día es cada vez más sencillo manipular imágenes y moldear discursos tomando como referencia la fisionomía de figuras relevantes. Por ello, crecen los proyectos y sistemas enfocados a detectar manipulaciones, como el desarrollado por Sensity, que permite identificar, buscar y monitorizar amenazas visuales de cientos de fuentes, tanto de la web abierta como de la dark web, gracias al deep learning.

Para Alberto Pinedo (Microsoft España) los principales desafíos a este respecto están en la naturaleza sociotécnica de la IA, es decir, produce efectos sociales y tiene un componente técnico difícil de explicar. A medida que técnicas como el deepfake se hacen más habituales, es más común observar la consolidación de una figura responsable del aspecto ético de la tecnología. “Hay que alcanzar un ethos responsable como comunidad que desarrolla la IA, para lo que conviene adoptar una aproximación basada en los valores europeos, con autoevaluación ética y una regulación orientada a riesgos. En Microsoft, ademas de dos comités de seguimiento, contamos con un “Responsible AI champ” que se encarga de garantizar el uso ético de nuestra tecnología”.

Autonomía, seguridad y responsabilidad

En la lista de retos éticos que la inteligencia artificial debe acometer, también destaca el de la autonomía, es decir, todo aquello vinculado a las decisiones que los algoritmos toman por sí mismos y la asunción de responsabilidad en las consecuencias de las mismas. Uno de los debates más acalorados sobre la materia se produjo a raíz del fallecimiento de Elaine Herzberg en la ciudad de Temple (Arizona) en marzo de 2018 a consecuencia de un atropello por parte de un vehículo autónomo de Uber, considerada la primera víctima causada por un coche sin conductor.

En la carrera del coche autónomo, la responsabilidad sobre las decisiones es una cuestión a debate

Tras una investigación llevada a cabo por la National Transportation Safety Board, se determinó que entre las causas del fatal accidente se encontraba el mal comportamiento cívico de la víctima, que cruzó la carretera de manera incorrecta, o la falta de atención por parte de la conductora, que se encontraba mirando un vídeo en su teléfono móvil. No obstante, también se señaló las insuficientes políticas de regulación de los vehículos autónomos del estado de Arizona, así como los inadecuados procedimientos de evaluación de riesgos de seguridad o la ineficaz supervisión por parte de Uber de los comportamientos de sus vehículos.

El caso resultó ser un revulsivo en la carrera del desarrollo del coche autónomo, obligando a compañías como Uber, Tesla. Toyota o Volkswagen a revisar sus sistemas y políticas, pero también empujando a las instituciones a establecer marcos regulatorios más estrictos. En este sentido, en junio del año pasado, 50 países firmaron en la ONU un reglamento para acotar el uso y funcionamiento de este tipo de máquinas. Así, se establecía la limitación de velocidad en 60 km/h, el permiso de circulación solo en vías en las que esté prohibida la circulación de peatones y ciclistas, y la necesidad de que dichas vías cuenten con una barrera física que separe los dos sentidos de circulación.

Privacidad, transparencia y confianza

En 2020 el 62% de los consumidores a nivel global creían que las empresas son completamente transparentes en el uso de sus datos personales, una cifra que ha experimentado una caída notable en comparación con el 76% de 2019, según un informe realizado por Capgemini. Lo cierto es que, según apunta el estudio, en 2019 el 73% de las compañías del mundo informaba a sus usuarios sobre cómo podían afectarles las decisiones de sus sistemas de inteligencia artificial, un dato que actualmente se sitúa en el 59%. Se trata de datos que reflejan la desconfianza de la población ante la opacidad y falta de transparencia que en múltiples ocasiones envuelve a los sistemas de inteligencia artificial con los que a menudo interactúan los usuarios.

En este sentido, la propuesta de marco regulatorio de la Comisión Europa dado a conocer en abril de este año busca establecer una serie de estándares respecto a la transparencia del uso de los datos en sistemas de inteligencia artificial, del mismo modo que ya hizo anteriormente el Reglamento General de Protección de Datos (GDPR). De esta forma, en el caso de los sistemas de alto riesgo, estarán sujetos a una serie de obligaciones estrictas, entre las que destaca la responsabilidad de aportar un registro de la actividad para garantizar la trazabilidad de los resultados, aportar documentación detallada sobre el sistema y su finalidad o proporcionar información clara y adecuada al usuario.

Más allá de la regulación, las principales compañías tecnológicas que trabajan con IA son conscientes de la necesidad de impulsar la autorregulación y crear sistemas de gobernanza como parte de su compromiso ciudadano. Entre otras medidas, Google tiene públicos y accesibles sus principios respecto al uso de la IA, los resultados de sus progresos y guías prácticas para una inteligencia artificial responsable. Por su parte, Microsoft también cuenta con órganos internos como el Comité Aether, la Oficina de IA Responsable (ORA) y la Estrategia de IA Responsable en Ingeniería (RAISE). Junto a medidas similares, IBM ha puesto en marcha AI OpenScale, una plataforma abierta y escalable que permite a las empresas gestionar la IA de forma transparente durante todo el ciclo de vida de la solución, independientemente de dónde se hayan creado sus aplicaciones.

Conocimiento y formación

El impacto de la inteligencia artificial en el futuro del trabajo también genera incertidumbres. Según una encuesta de OCU, un 68% de los ciudadanos europeos creen que el desarrollo de los sistemas de IA supondrá una pérdida de puestos de trabajo en diversos sectores. Por ello, los expertos señalan que mejorar el conocimiento respecto a la tecnología, reducir la concepción de los algoritmos como cajas negras y abordar la automatización del trabajo, desde la perspectiva de la mejora de las condiciones de los trabajadores y la complementariedad de tareas y funciones, es otro de los grandes desafíos de la industria.

Crear una cultura del conocimiento sobre IA pasa por formar a la alta dirección de las compañías

Además de elevar el nivel de conocimiento general de la población respecto a la inteligencia artificial, los expertos consideran urgente formar también a los miembros de la alta dirección de las compañías con el objetivo de mejorar la confianza y la comunicación de los beneficios de la tecnología. Y es que tal y como apunta el Barómetro sobre Ética e Inteligencia Artificial 2020, en el que han participado más de 150 Consejeros y CEOs del Ibex 35, el 85% de los encuestados declara tener conocimientos básicos o medios en IA, y solo un 15% declara tener conocimientos avanzados.

Una mayor comprensión del funcionamiento de la inteligencia artificial promoverá un mejor entendimiento de sus implicaciones morales. Según nos explica Alberto de Torres (Netkiu y ESIC), las formaciones existentes están principalmente enfocadas a los aspectos técnicos, aunque la perspectiva de negocio es cada vez más demandada. Sin embargo, la educación en las cuestiones éticas es un terreno que debe cobrar mayor relevancia en los incipientes cursos, másteres y posgrados relacionados con la materia. “Cuanto más técnica es una formación, menos se habla de ética. Se cree que ese aspecto es algo más vinculado al negocio, pero es importante que el científico también tenga formación ética para crear sistemas no solo acordes a la regulación, sino positivos para la sociedad”.

Regulación y gobernanza para una IA confiable

Conscientes de todos estos desafíos, los distintos agentes del sector se muestran favorables al impulso de la construcción de una inteligencia artificial ética basada en la colaboración público-privada y en la combinación tanto de regulación como de autorregulación. En este sentido, compañías e instituciones aplauden los primeros pasos dados por la Comisión Europea respecto al proyecto de marco regulatorio de la IA. “Nos congratula que se esté adoptando una postura de regulación no de la tecnología, sino de sus usos y que, además, estos se estén abordando de distinta forma en función de su riesgo. Porque no es lo mismo un chatbot que te está ayudando a elegir un producto en una tienda, que una aplicación que está asistiendo a un doctor a tomar una decisión médica”, sostiene Alfonso González (IBM España).

"Evolucionar en sentido ético requiere colaboración y responsabilidad"

Como ciudadanos y, por tanto, receptores de la tecnología, los agentes de la industria también tienen un interés obvio en que la IA resulte beneficiosa para la vida diaria de todos. “Desde el punto de vista moral y reputacional, nadie quiere ser protagonista de casos negativos, por eso nos interesa a todos contar con planteamientos éticos tanto desde el inicio de los proyectos, como desde postura de compañía”, comenta Carlos Guardiola (Sngular). “Evolucionar en este sentido requiere colaboración y responsabilidad. No puede depender solo de la administración, porque no siempre tiene una respuesta ágil, y tampoco solo de los negocios, porque persiguen unos intereses económicos”.

No obstante, la consecución de una IA ética y confiable dependerá, en última instancia, de que los desarrollos no pierdan la perspectiva de tener al ser humano como sujeto responsable del uso de esta tecnología. “La labor de supervisión es la que más se necesita. Somos las personas las que debemos ejercer el control y la supervisión sobre algoritmos, y no debemos dejarnos llevar por las luces de esta tecnología”, señala Idoia Salazar (OdiseIA). “No podemos poner puertas al campo y tratar de frenar la inteligencia artificial, pero estamos en un momento muy importante para su desarrollo y la decisión última de qué camino tomar la tenemos los seres humanos. Está en nuestras manos”.