El próximo 8 de Julio (12:00 h Ciudad de México / 20:00 h en horario peninsular español) participaré como ponente en una conferencia promovida por la Universidad Autónoma del Estado de México, bajo el título “Inteligencia Artificial en la docencia: oportunidades y desafíos en la educación universitaria”. Ante el auge de herramientas como ChatGPT, el objetivo de la conferencia es discutir las transformaciones que la Inteligencia Artificial (IA) supone para la educación superior, particularmente, en el entorno universitario. En esta entrada, y a modo de avance sobre la discusión que trataré durante la conferencia, me gustaría reflexionar sobre algunos aspectos que considero claves en la conversación sobre el impacto de la IA en la educación superior. Por un lado, me centro en revisar la visión que la literatura académica tiene sobre los principales discursos del impacto de la IA en la educación superior. Por otro lado, expongo cuatro problemas sobre los que, en mi opinión, es fundamental reflexionar a la hora de enfrentar las ideas que plantean estos discursos.
Dos discursos sobre cómo la IA afecta (y afectará) a la educación superior
Aunque todavía escasos, los estudios sobre los potenciales impactos de la IA en la educación se encuentran actualmente en auge. En una reciente revisión sistemática de literatura publicada en la revista Higher Education, las profesoras Margaret Bearman, Juliana Ryan y Rola Ajjawi analizaron los discursos relativos al uso de IA en la educación superior, a través de artículos presentes en algunas de las revistas científicas más importantes del sector. Su trabajo arrojó la presencia de dos discursos mayoritarios, que han etiquetado como el “discurso del cambio imperativo” (discourse of imperative change), y el “discurso de alteración de la autoridad” (discourse of altering authority).
La máxima del discurso del cambio imperativo es reflejar la consideración de la IA en la educación como un cambio inevitable. Inexorablemente ocurrirá, y todo el sector debe responder a esta transformación con el objetivo de sobrevivir a ella. Este cambio se representa discursivamente tanto de maneras distópicas como utópicas:
- En su versión distópica, la IA se introduce en funciones clave de la enseñanza superior, aliena al profesor, e incluso lo reemplaza. Los sistemas más avanzados, orientados a la toma de decisiones, reducen la discrecionalidad del docente y los efectos positivos que ésta tiene en la implementación de ciertas políticas públicas. Por otro lado, la IA altera las capacidades de aprendizaje y reflexión crítica de los estudiantes y los hace más dependientes de la tecnología.
- En su versión utópica, los profesores emplean la IA para ser más eficientes en la gestión de la preparación de sus sesiones, reducir su trabajo administrativo y mejorar la provisión de retroalimentación al estudiante en los procesos de evaluación. Los estudiantes mejoran sus capacidades de autoevaluación y manejo de datos, beneficiándose de un aprendizaje más autónomo.
Por su parte, el discurso de alteración de la autoridad refleja cómo la introducción de la IA en la educación superior genera procesos de descentralización del rol educativo entre múltiples agentes. La IA se abre espacio entre otros actores educativos, llevando consigo una materia prima fundamental: los grandes datos (big data, en inglés). La datificación de los entornos universitarios se convierte en un desafío vital. Este discurso también se representa de maneras distópicas y utópicas:
- En su versión distópica, la IA suplanta la autoridad del docente. Pero la autoridad de la IA es engañosa, parece mágica. Aprende de la experiencia de alumnos y docentes, pero desconocemos cómo lo hace y cómo trata esos datos, ya que forma parte de un proceso oscuro y complejo al que no tenemos acceso. Las universidades se convierten en grandes centros datificados, que sirven a un control tecnocrático del proceso educativo. Mediante procesos de personalización, la IA reduce la capacidad de elección y libertad de aprendizaje del estudiante, e incluso incurre en procesos de discriminación a la hora de enseñar y evaluar.
- En su versión utópica, la IA es crítica con la autoridad del docente. Más que suplantar, ayuda a las instituciones universitarias a reflexionar sobre el valor humano que el profesor puede aportar. Estos sistemas analizan grandes datos y ofrecen al docente nuevas estrategias pedagógicas y de evaluación. Los estudiantes se benefician de estas herramientas ya que co-crean con ellas entornos personalizados de aprendizaje, que les permiten reforzar aquellas áreas de conocimiento que les resultan más difíciles.
Cuatro problemas que es fundamental abordar
Más allá de lo que ambas líneas discursivas proponen, lo más interesante a mi parecer es ver cómo refieren a elementos que trascienden la implementación de una tecnología. En cualquiera de los mundos, la educación superior no afronta únicamente la incorporación de la IA como un cambio tecnológico, sino como un proceso de cambio fundacional. El discurso del cambio imperativo habla de supervivencia, una supervivencia que requiere replantear el modelo de universidad que queremos y su rol en la sociedad. El discurso de la alteración de la autoridad habla del poder, y de cómo las universidades no pueden continuar erigidas como silos del conocimiento. Se replantea qué es ser docente, cómo garantizar que los procesos de datificación sirvan al interés general, y cómo se debe plantear la interacción entre los diferentes actores de la comunidad educativa.
Sin embargo, cualquiera de esos propósitos podría encallar con facilidad. Esto es así porque desde hace muchos años hay otros procesos abiertos en el entorno de la educación superior que todavía no han alcanzado un grado suficiente de madurez, cuya discusión ha quedado inconclusa, o simplemente están todavía a medio camino en su implementación. Sin ánimo de ser exhaustivo, y sabiendo que me dejo mucho en el tintero, me refiero a continuación a cuatro de ellos.
Relación ambigua de la educación superior con la tecnología. Desde la generalización de internet en los años 90 y la primera década de los 2000, la relación entre tecnología y educación ha tenido profundos altibajos. Visiones similares a las que se tienen ahora con la IA sucedieron anteriormente con el rápido acceso al conocimiento libre que internet proporciona. Wikipedia, por ejemplo, se ha laureado y demonizado por igual. Este proceso continúa con entornos de educación superior que todavía no terminan de encajar este nuevo acceso al conocimiento.
Por otro lado, la implementación de la tecnología en la educación superior, con plataformas de hibridación entre lo online y lo presencial (blended learning), está todavía en su infancia en muchos lugares. Los docentes no reciben apoyo suficiente para innovar con estas herramientas, y la tecnología no está bien integrada con el resto de sistemas del entorno educativo. Tal y como comentaba el profesor Ramió en su libro “Inteligencia Artificial y Administración Pública”, no hemos terminado de implementar las fases iniciales de los sistemas de información en los servicios públicos y ya estamos tratando de incorporar fases mucho más avanzadas a estos procesos.
Escasez de modelos educativos basados en las experiencias. Hay un temor generalizado. Los estudiantes emplearán la IA para auto-generar sus ensayos, escribir informes, e incluso redactar sus trabajos de fin de grado. No son infundados, y ya he visto casos en los que se ha recurrido a estas herramientas para presentar un trabajo académico. Sin embargo, tendemos a considerar que el problema está en la herramienta y no en el proceso. La pregunta debería ser, ¿por qué el estudiante recurre a una herramienta que auto-genera, en vez de profundizar por sí solo en el resultado de su aprendizaje?
Puede haber múltiples razones, muchas de las cuales remitan al estudiante en sí mismo. Pero también es posible que el proceso de aprendizaje, tal y como se ofrece actualmente en la universidad, no sea suficientemente atractivo para el estudiante. Por falta de recursos, es difícil ofrecer una educación personalizada. Además, una gran cantidad de tareas se basan meramente en teoría, y no en cómo la teoría puede satisfacer las experiencias y necesidades en el contexto de cada estudiante. Conectar la teoría con la práctica, y ambas con las experiencias personales del estudiante, parece fundamental.
Falta de focalización en la crítica y la práctica. Las universidades son entornos de reflexión. Sin embargo, gran parte de lo que se ofrece al estudiante es todavía muy memorístico. Esto no favorece que el alumnado desarrolle su capacidad crítica, un elemento fundamental del valor añadido en la educación superior. Esta falta de capacidad de análisis crítico se traslada luego a una incapacidad de trabajar con las herramientas IA de una forma provechosa, tal y como ya empieza a requerir el mercado laboral en algunas profesiones. No son capaces de reconocer sus sesgos, las alucinaciones a las que es proclive, sus ventajas y sus inconvenientes. Esto no ocurre únicamente con los estudiantes, sino también con los docentes. La universidad se blinda ante el uso de la IA, se habla en reuniones de la “amenaza” de la IA, de la importancia de dar más peso a las actividades supervisadas, de incorporar sistemas que alerten de la presencia de textos auto-generados… pero no ofrece soluciones a su comunidad para que la empleen de una forma responsable.
Dependencia tecnológica frente al acceso libre, equitativo y transparente. La mayor parte de las comunidades educativas de enseñanza superior se han lanzado a los brazos de las grandes empresas tecnológicas para proveer sus servicios digitales. Esto, en mi opinión, es problemático, por al menos dos motivos. Por un lado, acelera un vaciamiento de conocimiento organizativo dentro de estos entornos, y los entresijos de los servicios quedan en manos de empresas externas, generando una dependencia de proveedores. A la larga, incluso, creo que hace difícil la evaluación por parte del personal universitario sobre si estos sistemas cumplen con los requisitos y necesidades de la organización. Por otro lado, estas herramientas son privativas, se hace difícil auditarlas, y sus servicios no siempre están disponibles de manera completa para toda la comunidad.
El gran riesgo que corremos es que estas prácticas de externalización se repliquen (como ya lo hacen) en la incorporación de la IA. Muchos de estos servicios son costosos económicamente, lo que genera brechas entre comunidades educativas y estudiantes que pueden permitírselos, y otros que no. Además, al ser privativos, hace que sea más difícil reclamar una transparencia algorítmica sobre la gestión y análisis de los datos que procesan, y de las decisiones resultantes. En ese sentido, iniciativas como mixtral, suponen una esperanza desde el mundo de los modelos abiertos.
A modo de conclusión, todos estos problemas interactúan en un clima docente complejo. Por un lado, el docente no es únicamente docente. También es investigador, y en muchos casos, se le exige ser gestor administrativo, enfrentado a un entorno educativo cada vez más burocratizado. Por otro lado, el proceso de toma de decisiones en los entornos educativos es altamente costoso, con deliberaciones infinitas entre docentes, personal de administración y servicios, y estudiantes. Deliberaciones a las que les falta en muchas ocasiones una dirección estratégica. Irónicamente, la IA puede ofrecer soluciones a algunas de estas cuestiones. Pero, por ahora, las dejo para otra publicación.
Julián Villodre. Assistant Professor, Institute of Public Administration, Faculty of Governance and Global Affairs, Leiden University (The Netherlands).