El ser humano no es un ser racional. Al menos no de forma “plena”. A pesar de que desde los inicios de la Modernidad, científicos, filósofos y demás pensadores han enmarcado sus obras como el resultado del ejercicio de la razón “pura”, el siglo XX supuso una verdadera revolución a la hora de entender qué es la razón humana y cuáles son sus límites. Concretamente, a mediados del siglo XX tuvo lugar lo que hoy se conoce con el nombre de “revolución cognitiva”, la cual puso de relieve, con base en estudios psicológicos de carácter científico, que la racionalidad humana estaba limitada por estructuras cognitivas. Estas estructuras funcionales y de carácter eminentemente pragmático limitan la obtención y el procesamiento de la información disponible en nuestro entorno. Por ello, se concluyó que el ser humano se desenvuelve en el mundo siguiendo su propia heurística y sesgos. Admitir estas limitaciones cognitivas implica asumir que el ser humano posee una racionalidad limitada con la que observa, interpreta y actúa en el mundo.
Aunque nuestra racionalidad limitada es en parte una cuestión biológica, el contenido de nuestros sesgos y “atajos” mentales depende de cuestiones culturales. Así, nuestros sistemas de creencias, marcos mentales o paradigmas están determinados por nuestro contexto. Esta característica hace que gran parte del contenido de nuestros marcos sea compartido por aquellos que participan de una misma cultura social, política, familiar o incluso organizativa. Además, nuestros marcos mentales incluyen todos los aspectos de la vida humana, incluido el de la tecnología. A través de todos estos elementos, se ha desarrollado durante las últimas décadas la noción de marcos tecnológicos. Los marcos tecnológicos son todas aquellas asunciones, conocimientos y percepciones (todas ellas limitadas por nuestras estructuras cognitivas) que las personas que componen una organización comparten sobre una tecnología.
A pesar de las reticencias iniciales, la aplicación de las perspectivas socio-cognitivas al estudio de la tecnología en las organizaciones ha demostrado ser un campo muy prolífero, no solo desde un punto de vista teórico, sino con aplicaciones directas en lo que se refiere al funcionamiento de las organizaciones. En el caso de las organizaciones públicas, los enfoques socio-cognitivos están ganando cada día más relevancia y prometen ser fundamentales a la hora de diseñar, implementar y usar nuevas tecnologías disruptivas como, por ejemplo, la Inteligencia Artificial (IA), en el sector público. ¿Por qué? Porque conocer los marcos tecnológicos de los distintos grupos que conforman las administraciones públicas, a saber, políticos, funcionarios TIC y usuarios nos permite entender cuáles son las ideas, prejuicios y conocimientos que están funcionando dentro de una administración.
La congruencia entre marcos tecnológicos es un factor fundamental a la hora de determinar el éxito con el que se implementará, en este caso, la IA en el sector público. Si los políticos que promueven la digitalización y la transición tecnológica del sector público sostienen marcos tecnológicos respecto a la IA radicalmente distintos a los de los funcionarios TIC, entonces es difícil que esta tecnología se implemente con éxito. De la misma forma, si los usuarios de la IA no la conceptualizan de la misma forma que aquellos encargados de su implementación, entonces, con toda seguridad, se producirán fallos y deficiencias en el uso de la misma.
Por ejemplo, podría ser el caso que, por distintos motivos, los políticos entendieran la IA como una tecnología disruptiva que va producir un tránsito hacia una algoritmización de las administraciones públicas y nos adentrará en el nuevo paradigma administrativo de la Gobernanza Algorítmica. Además, algunos de estos políticos podrían entender, debido a sus propios marcos mentales y sistemas de creencias, que la IA tiene una dimensión ética y política que hay que abordar de manera inmediata si se pretenden evitar las consecuencias negativas del uso de esta tecnología disruptiva (sesgos, opacidad algorítmica y falta de transparencia, rendición de cuentas, problemas de privacidad, etc.).
Sin embargo, si los funcionarios TIC a cargo del diseño y la implementación de la IA en el sector público no comparten este marco tecnológico sobre la IA y, por el contrario, la conciben como una tecnología más que simplemente va a permitir ganar eficiencia y eficacia a las administraciones, a través de un aumento en sus capacidades tecnológicas sin que existan problemas éticos reseñables, probablemente la IA no se implemente de forma exitosa. Entendiendo por éxito, no solo que la IA sea viable desde un punto de vista técnico, sino que también sea respetuosa con los derechos y libertades de las personas. Finalmente, si políticos y TIC no comparten marcos tecnológicos, entonces serán los usuarios de la IA los que sufran las consecuencias de su mala implementación. No solo a través de un uso deficiente de las capacidades que ofrece esta tecnología, sino también mediante la experiencia en primera persona de los problemas éticos que de ella se derivan.
Por este motivo, es fundamental que a la hora de plantearse una transformación digital de la administración pública, como la que ha propuesto el Gobierno de España a través de su proyecto España Digital 2025 o la Estrategia Nacional de Inteligencia Artificial, se trabaje no solo teniendo en cuenta la dimensión tecnológica, sino también las consecuencias éticas y políticas de la nueva gobernanza algorítmica. Para ello es imprescindible conocer los marcos tecnológicos de las personas que trabajan en la administración pública y así determinar sus incongruencias y, en la medida de lo posible, armonizarlas. En este sentido, es necesario, por un lado, legislar al respecto, y, por otro lado, que todas las personas involucradas reciban formación, tanto en competencias tecnológicas como en los retos humanos que implica el uso de las nuevas tecnologías. El principal reto de la transformación digital que ya está viviendo España no es solo de naturaleza tecnológica, que también, sino, y principalmente, de carácter ético y político. Se trata de usar la IA para tener administraciones públicas más eficientes y eficaces, que al mismo tiempo sean más justas e igualitarias. Se trata de usar la tecnología para superar las limitaciones humanas en aras del bien común.
Lucía Ortiz de Zárate Alcarazo. Investigadora predoctoral FPI-UAM y Candidata a Doctora en la Universidad Autónoma de Madrid (UAM).