viernes, 15 de mayo de 2026
·carga_contenido

Desde hace algunos años se ha insistido en el desarrollo de recursos para distinguir entre máquinas y humanos. Uno de los más populares es el reCAPTCHA que, basado en el test de Turing, nos solicita hacer clic en un recuadro de “No soy un robot” y posteriormente seleccionar imágenes (semáforos, pasos de cebra, etc.). Debo confesar que soy bastante torpe en este tipo de pruebas y, en ocasiones, no logro demostrar que efectivamente no soy un robot. Mi mayor temor es que algún día llegue a creer que, por no superar el test, realmente termine creyendo que soy un robot.
Este mismo problema puede trasladarse, de forma análoga, al uso de la inteligencia artificial (IA) en la educación. Habitualmente, las políticas sobre el uso de la IA en entornos educativos se establecen en forma de criterios. El problema con estas estructuras estándar es que, en ocasiones, se formula con base en criterios cuantitativos exclusivamente. En ocasiones se matiza con algunos criterios cualitativos pero que en gran medida dependen de cuantificadores.
Quisiera ilustrar algunos casos: un criterio cuantificable (comúnmente usado en las políticas de diversas universidades) podría ser que “el estudiante debe declarar explícitamente el uso de herramientas de IA en la elaboración de su trabajo”. Aquí se enfatiza el “deber”, ya que su incumplimiento se asocia con una “mala” académica. Sin embargo, en la práctica, lo que termina definiendo al “buen estudiante” es no superar cierto umbral numérico de uso de IA.
En contraste, los criterios de carácter cualitativo responden a otra lógica. Un ejemplo relevante sería: “el estudiante comprende de manera profunda el contenido mediante defensa oral o aplicación contextual, independientemente del uso de IA”. Este criterio resulta especialmente interesante porque desplaza la atención desde la cuantificación del uso de herramientas hacia la evaluación situada del aprendizaje, algo que jamás podrán señalar aplicaciones como Turnitin, Compilatio o herramientas similares. En este caso, lo determinante no es el porcentaje cuantitativo detectado, sino la retroalimentación efectiva por parte del docente o de la comunidad académica, como el ejercicio de pares de las revistas indexadas.
Lo que quiero señalar es un aspecto fundamental en la educación: mientras el primer enfoque cuantitativo sugiere que una máquina evalúe la producción de otra máquina, el segundo se fundamenta en el diálogo, el entorno y el conocimiento construido en la academia como indicadores de comprensión profunda. Muchas de las reflexione sobre este asunto apuntan, con una mirada exclusiva al futuro, hacia una transformación radical de las universidades y de las prácticas docentes que se enfrentan a inteligencias artificiales generativas muy sofisticadas.
Quiero proponer una perspectiva distinta. Por extraño que parezca en ocasiones también hay qué mirar hacia el pasado. Las universidades humanistas desde sus pilares tienen algo en común: la disputatio. El valor del diálogo propicia algo que los programas diseñados con algoritmos o procesamientos de información computacional no pueden reemplazar. La discusión en entornos académicos permite el reconocimiento de lo Otro. En este último caso,
no resulta relevante cómo opera la IA, ni en la producción ni en la revisión de textos. En cambio, lo esencial es la calidad de la interacción entre estudiantes, docentes y contexto educativo para satisfacer indicadores de comprensión de los contenidos.
Aunque debo admitir que frecuentemente este tipo de discusiones suele dejar un cierto sinsabor. Cuando las políticas cuantitativas buscan establecer medidas objetivas de juicio (cosa que se requiere en cierta medida), en el ámbito educativo, resultan ser insuficientes. Esta insuficiencia se acentúa cuando el criterio evaluativo depende exclusivamente de otra máquina. Quizás una vuelta de mirada hacia las universidades humanistas propicie una herramienta útil como la discusión.
El peligro que quiero señalar respecto a los enfoques puramente cuantitativos es que tienden a dejar de lado lo humano. Si se insiste en este tipo de aproximaciones, a mi ya conocido temor de no poder demostrar ante un reCAPTCHA que no soy un robot, se suma otro aún más inquietante: que, por superar un determinado porcentaje en el análisis de mis textos mediante herramientas como Turnitin o Compilatio, tampoco logre demostrar que sigo siendo humano y no una inteligencia artificial.
Otro riesgo importante radica en el intento de regular aquello que aún no comprendemos plenamente. Podría pensarse, a modo de analogía, en cómo, cuándo se acerca un mundial de fútbol, todos parecen saber de fútbol, o cuando hay elecciones, todos parecen expertos en política. Se genera una especie de atmósfera de conocimiento generalizado que, en realidad, suele ser superficial. Algo similar ocurre con el auge de la IA: da la impresión de que todos comprendemos esta tecnología. En este contexto, regular en medio de un desconocimiento todavía profundo sobre el funcionamiento, los alcances y las implicaciones de estas herramientas puede terminar obstaculizando, más que favoreciendo, nuestras oportunidades educativas.
Daniel Augusto Duarte Arias
Docente del programa de licenciatura en literatura y lengua castellana