Retrocedamos hasta el año 1960, cuando un joven senador por el Estado de Massachusetts, John F. Kennedy, aceptaba su nominación como candidato demócrata a la presidencia de los Estados Unidos pronunciando un discurso con un título popularmente conocido como “The New Frontier” (“La Nueva Frontera”), frase que posteriormente serviría de eslogan para su campaña . Esta consigna puede parecer banal o genérica, pero cobra especial fuerza en el contexto que envuelve la situación. Estados Unidos y la Unión Soviética se encuentran en una carrera científica y tecnológica por ser la primera gran potencia en visitar el Espacio, embarcándose en una carrera por la hegemonía. La “Nueva Frontera”, entendida como la conquista del Espacio, se convierte así en el gran reto instalado en el imaginario colectivo de la sociedad estadounidense: la tecnología y la ciencia como camino hacia el progreso, pero también como arma contra sus enemigos.
Aunque ya no podamos asegurar que la conquista del Espacio sea una de las claves de la competición entre las grandes potencias mundiales hoy en día, sí que podemos afirmar que el progreso tecnológico no ha abandonado su papel protagonista como vehículo de dicha competición. En vista de sus comprobados beneficios, el uso y regulación de la inteligencia artificial (IA), acompañada del uso de otras tecnologías como el big data u otros mecanismos basados en machine learning, se sitúa como punta de lanza de la competición tecnológica, esto es, nuestra “Nueva Frontera”.
En vista del desarrollo de los sistemas de IA y su utilidad para el desempeño de tareas que hasta ahora no se pensaban automatizables, pero también de sus riesgos éticos y posibles sesgos; a partir del año 2017, los gobiernos de todo el mundo comenzaron a desarrollar directrices para el uso de estas tecnologías, las llamadas estrategias (nacionales) de IA. Los entes supranacionales no tardaron en sumarse a la necesidad de armonizar estas directrices y objetivos políticos sobre la utilización de IA, y pronto, desde 2018 en adelante, la Unión Europea, la Unión Africana u organizaciones internacionales como Naciones Unidas o la OCDE, incluso el Centro Latinoamericano de Administración para el Desarrollo, no han parado de publicar documentos con principios, estrategias, directrices y/o recomendaciones en la materia. Sin embargo, su mera publicación no garantiza necesariamente un buen uso de la IA, sobre todo por parte de empresas,particulares o administraciones públicas, por lo que las regulaciones directas e indirectas al uso de IA también han ido creciendo exponencialmente a diferentes niveles.
Uno de los índices más fiables, rigurosos y completos para medir la situación del desarrollo de la IA a diferentes niveles (investigación, aplicaciones, normativa, efectos de distinto calado…) es el Artificial Intelligence Index elaborado por la Universidad de Standford. En su edición de 2024, con suficiente tiempo en perspectiva desde el boom del desarrollo de la IA en 2017, expone datos relevantes que, comparados, nos hacen plantearnos una pregunta sobre el rumbo de la regulación de la IA en el mundo: ¿Vamos todos en la misma dirección? Tomando la comparativa planteada entre Estados Unidos (EEUU) y la Unión Europea (UE) por este índice, y conscientes del sesgo occidental del estudio (exclusión de otros estados relevantes como China o Rusia), se derivan una serie de aspectos relevantes acerca de ambos modelos de regulación de la IA, síntomas significativos de la situación en la que nos encontramos.
En primer lugar, aunque somos conscientes del aumento de la densidad normativa de la IA en todos los países del mundo, la inclusión de menciones a la IA en regulaciones no específicas a ella también ha aumentado exponencialmente. Este es el caso tanto de la UE (en un 50%) como en los EEUU (en un 31%). La IA se sitúa de esta forma como un agente transversal a multitud de regulaciones sectoriales (consultar gráficos 7.4.5 y 7.4.10) en las que puede surtir efectos necesarios de prever en pro de un bien superior: proteger derechos, planificar beneficios, incentivar actividades…etc. Dado que las regulaciones específicas también aumentan, podemos encontrar un punto en común: la regulación de la IA es necesaria para la consecución de objetivos, el modelo del laissez-faire parece descartado ante una tecnología de tal calado.
Por otro lado, encontramos tendencias divergentes en cuanto a la naturaleza de las iniciativas de regulación de IA. El índice distingue entre dos tipos de iniciativas, las “expansivas”, dedicadas a fomentar el uso de la IA en administraciones y empresas, y las “restrictivas”, dirigidas a limitarlo o restringirlo en determinadas aplicaciones. Si atendemos a esta variable, podemos observar una tendencia creciente de los EEUU a presentar iniciativas restrictivas frente a las expansivas (con un balance de 10 a 3 en 2023) y al contrario en la UE (balance de 8 a 12 en el mismo año). ¿Quiere decir esto que en la UE la IA está menos implementada que en EEUU y por eso es necesario fomentar su uso? ¿O resulta que en EEUU el uso de IA ha invadido terreno indebido en sus aplicaciones y por eso es necesario restringirla? Aunque es probable que estas dos cuestiones sean complementarias, lo claro es que nos encontramos modelos de regulación, al menos de momento, divergentes.
Puede que la actual carrera por la regulación y control de la IA a nivel mundial no tenga el componente dramático de la carrera espacial de la Guerra Fría, pero ganar la competición tecnológica no ha dejado de representar buena parte de la hegemonía mundial en términos de desarrollo económico y dominio de las relaciones internacionales. Concluyendo, podemos decir que nuestra “Nueva Frontera” se presenta como un desafío con una doble vertiente; el de regular una IA que favorezca los intereses de los estados democráticos en un mundo polarizado, y el de diseñar un modelo de IA ético, democrático y centrado en las personas.
Sergio Medina Bernabé. Candidato a Doctor e Investigador Predoctoral FPI-Ministerio de Ciencia. Departamento de Ciencia Política y Relaciones Internacionales, e Investigador en el Lab Innovación, Tecnología y Gestión Pública (ITGesPub), Grupo de Investigación, Universidad Autónoma de Madrid.
Este post se ha realizado con el apoyo del Proyecto del Ministerio de Ciencia, Innovación y Universidades “Abriendo la caja negra de la gobernanza pública mediada por algoritmos. Implicaciones de la Inteligencia Artificial en gobiernos, servicios públicos y personas (#AIPublicGov)”. Ref. PID2022-136283OB-I00, MCIN/AEI/10.13039/501100011033 y FSE+.
La imagen de encabezado fue generada por la inteligencia artificial DALL•E 3, de OpenAI