El uso de la inteligencia artificial (IA) se ha expandido en la administración pública y el ámbito judicial no puede ser ajeno a esta realidad. Los inminentes avances que se han hecho en tecnología han llevado al personal académico y juristas a manifestar sus preocupaciones frente a su implementación en los procesos que abarca la justicia. Al mismo tiempo, los gobiernos han creado políticas estratégicas que orientan, guían y establecen metas, objetivos y principios para que la administración pública cuente con directrices sobre la utilización de herramientas de IA, además de reflejar la visión del gobierno nacional sobre su implementación.
Este post ofrece un primer acercamiento a las políticas estratégicas de IA a nivel nacional y en el sector de la justicia de España y Colombia. Se trata de casos que revisten un especial interés por varias razones. En primer lugar, cabe destacar la vinculación histórica entre España y Latinoamérica, con Colombia como un referente en el desarrollo de un marco regulatorio a nivel estratégico sobre IA. En segundo lugar, ambos países son cercanos en sus avances e historia en la creación de documentos estratégicos sobre la materia: España desarrolló una primera política estratégica en 2020 mientras que Colombia tuvo su primera propuesta en 2019. A su vez, ambos países emitieron una versión más actualizada de manera casi simultánea, España en 2024 y Colombia en 2025. Por otro lado, de cara al sector justicia, Colombia es uno de los pocos países de la región que cuentan con regulaciones sobre IA en este ámbito.
Con lo anterior, este post busca responder la siguiente pregunta: ¿en qué medida se alinean las políticas estratégicas del sector justicia y las políticas nacionales sobre IA en España y Colombia?
Documentos analizados y preocupaciones de la literatura
La política estratégica nacional de Colombia se encuentra en un documento emitido en 2025 por el Consejo Nacional de Política Económica-Social (CONPES), titulado Política Nacional de Inteligencia Artificial, y desde la rama judicial está el Acuerdo PCJA24-12243 2024. El documento estratégico nacional de España fue emitido por el Ministerio para la Transformación Digital y de la Función Pública en 2024, como una actualización de la estrategia publicada en 2020, y se denomina Estrategia de Inteligencia Artificial 2024, mientras que a nivel sectorial está la Política de uso de la IA en la Administración de Justicia.
Analizar las políticas nacionales permite acercarse al nivel macro de la gobernanza de la IA en el sector público Criado et al (2025), siendo este el marco de acción que determina el diseño institucional con patrones y prioridades propios de cada sistema político. Por su parte, el análisis de la política sectorial de justicia permite empezar a entender cómo la IA y los algoritmos pueden afectar la prestación del servicio, la organización de las instituciones y el trabajo específico del personal judicial.
En concreto, para estudiar los documentos, se definieron unos códigos de acuerdo con la literatura relacionada con la ética de la IA en el ámbito de la justicia (Segura et al.,2023; Jurado et al., 2024; Burdina y Kornev,2024; Ahmad et al.,2024; Santoni de Sio et al.,2024; Wirtz et al., 2019 y Zichun,2022). Como puede evidenciarse (Figura 1), los códigos incluyen la protección de los derechos fundamentales, con énfasis en aquellos que podrían verse negativamente afectados, como la privacidad y los datos personales, así como el derecho a ser juzgado por un humano y no por un “juez robot”. Adicionalmente, se considera el riesgo de discriminación, como consecuencia de los sesgos que pueden contener estos sistemas de IA, y que se expresa en estereotipos y falta de representatividad en los datos. Otras categorías abordan las tensiones en la inclusión y comprensión del lenguaje jurídico en los modelos o herramientas de IA, la importancia de mantener la empatía, la supervisión humana, la moral en la toma de decisiones y la necesidad de garantizar la previsibilidad e individualidad de cada caso. También se incluye el rol del personal público, como las obligaciones, deberes y la formación necesaria para operar herramientas de IA. Para finalizar, se identifican los retos de usar la IA en tareas administrativas repetitivas en comparación con su implementación en procesos que inciden directamente en las decisiones judiciales.
Figura 1. Mapa conceptual del libro de códigos

Resultados de la codificación
Como se evidencia en el Gráfico 1, la política estratégica nacional de Colombia incluye elementos como la protección de datos y la falta de representatividad. En contraposición, sólo la primera preocupación se tiene en cuenta en la política sectorial de justicia, mientras que la segunda no es identificada en el documento. En el documento nacional colombiano hay menciones reiterativas que hacen referencia a cómo “la falta de representatividad perpetúa sesgos en los modelos de IA”, la existencia de decisiones discriminatorias contra grupos poblacionales y la representatividad como problemática clave en los datos del país. La ausencia de esta categoría en la política sectorial invisibiliza estos riesgos y podría generar decisiones inequitativas jurídicamente. Como respuesta, la política estratégica de justicia consigue abordar otros derechos fundamentales al usar IA, haciendo hincapié en que cada decisión sea explicable a la ciudadanía. Además, reitera la igualdad y la equidad como eje central de las decisiones, aceptando que la IA puede generar un impacto negativo pero sin profundizar al respecto.
Otro hallazgo es la ausencia de referencias a la categoría de Dificultad de razonamiento, con excepción de una sección destacada en Humanidad que proviene de la política estratégica general. Por último, la política sectorial colombiana aborda preocupaciones referentes al personal público y brinda una orientación clara sobre el uso de la IA en procesos administrativos o de toma de decisión, lo cual no fue identificado en la política nacional.
Gráfico 1. Resultados políticas estratégicas de Colombia

En España, los resultados en la categoría Otros derechos fundamentales resaltan por encima de las demás preocupaciones (ver Gráfico 2). Se menciona de forma mayoritaria la transparencia y la explicabilidad de los datos o modelos usados sin profundizar en el tema (ej. “estos modelos cumplirán también con los máximos estándares de transparencia y serán revisados por la AESIA”). A pesar de ello, la estrategia nacional de España menciona otros derechos fundamentales que deben ser protegidos, como la salud. En el caso de la política sectorial hay mayor diversidad de preocupaciones identificadas (seguridad jurídica, formación y obligaciones y deberes) y, en cuanto a la Discriminación, aunque falta determinar subcategorías concretas, hay una clara identificación y realce de dicho reto.
Es destacable que la política nacional y la sectorial encuentren múltiples coincidencias entre códigos. La política sectorial desarrolla nuevas preocupaciones acorde a su naturaleza, por ejemplo, con la presencia del código Juez robot (ej. “la IA nunca debe reemplazar la toma de decisiones humanas en cuestiones cruciales de la Administración de Justicia”). La Seguridad jurídica se manifiesta en apartados sobre la independencia judicial que ha de tener un juez para analizar cada caso de manera individual sin perjuicio de las herramientas de IA que utilice.
Gráfico 2. Resultados políticas estratégicas de España

Debate y conclusiones
En primer lugar, en el análisis se evidenció una alta presencia del código Sobre la protección de datos personales y privacidad en todos los documentos, incluso en las estrategias sectoriales, lo que denota un especial interés en garantizar la protección a estos derechos. Por su parte, la categoría Otros derechos fundamentales presenta algunos traspiés en su identificación, siendo más difusa o encasillada a la transparencia y omitiendo menciones sobre la presunción de inocencia u otros derechos. Destaca la ausencia de apartados que respondan a la categoría Interpretación jurídica y sus subcategorías, en concreto en las estrategias sectoriales. Esto plantea un desafío importante para hacer frente a asuntos éticos específicos del uso de la IA en el ámbito de la justicia. Entendiendo la importancia de los documentos estratégicos, la escasa o nula mención de estos aspectos puede traducirse en un riesgo de desatención de estas preocupaciones en la práctica, por lo que se dependerá en mayor medida de la discrecionalidad del personal público que trabaja en esta área.
Por otro lado, las políticas nacionales cuentan con una base para orientar las preocupaciones del sector judicial. En cada país se ve un óptimo nivel de alineación entre las políticas nacionales y sectoriales, siendo natural que las últimas aborden más temáticas relacionadas con la justicia. Desde la comparación internacional, Colombia y España encuentran especial coincidencia en su regulación sectorial, lo cual evidencia que en ambos países los intereses y preocupaciones son cercanos, incluso en aquellas categorías que ninguno de los dos incluyó. Por el contrario, hay mayor divergencia en las políticas estratégicas nacionales, lo cual podría radicar en diferentes factores como las prioridades de cada país, la naturaleza del documento, entre otros elementos. La diferencia podría ser una oportunidad para aprender del otro según su experiencia y avances, lo cual daría paso a que puedan identificar nuevas acciones para enfrentar los retos que representa el uso de la IA a nivel nacional y en el sector judicial.
Catherine Benavides. Estudiante del Máster en Democracia y Gobierno, Universidad Autónoma de Madrid.
Este post se ha realizado con el apoyo del Proyecto del Ministerio de Ciencia, Innovación y Universidades “Abriendo la caja negra de la gobernanza pública mediada por algoritmos. Implicaciones de la Inteligencia Artificial en gobiernos, servicios públicos y personas (#AIPublicGov)”. Ref. PID2022-136283OB-I00, MCIN/AEI/10.13039/501100011033 y FSE+.
También se agradece el apoyo del Master en Democracia y Gobierno, Departamento de Ciencia Política y Relaciones Internacionales, Universidad Autónoma de Madrid.