
A medida que se populariza el uso de la inteligencia artificial, crecen también las sospechas sobre su presencia en el ámbito académico y en las aulas de todos los niveles.
El foco de la preocupación suele recaer en la posibilidad de que los estudiantes “copien” respuestas generadas por sistemas como ChatGPT, empobreciendo así el razonamiento propio y degradando —según algunas voces— a las instituciones educativas y a la sociedad en su conjunto.
Sin embargo, cabe preguntarse qué es realmente más grave para la producción de conocimiento: ¿la redacción impersonal que puede ofrecer una herramienta de IA o la ausencia de ideas que surjan de la relación viva entre datos, conceptos y experiencia? Da la impresión de que buena parte de las evaluaciones actuales se concentran en detectar el uso de la herramienta, ignorando si, a pesar de ella —o gracias a ella—, se ha producido una idea nueva, que debería ser el fin último de toda investigación y de todo proceso educativo.
La desinformación, sumada a cierta propaganda amarillista, encuentra en la IA un terreno fértil para cultivar el miedo entre los temerosos y la duda entre los ignotos. Pero lo que suele presentarse como un diagnóstico alarmante no es más que una mirada exagerada, homogénea y defensiva, más cercana al miedo institucional que a un análisis sociológico fino.
Da la impresión de que buena parte de las evaluaciones actuales se concentran en detectar el uso de la herramienta, ignorando si, a pesar de ella —o gracias a ella—, se ha producido una idea nueva, que debería ser el fin último de toda investigación y de todo proceso educativo.
Estos temores no son nuevos. Forman parte del folclore humano. Cada gran tecnología cognitiva fue acusada, en su momento, de debilitar la inteligencia. Platón temía que la escritura erosionara el pensamiento vivo y la memoria, pero terminó utilizándola como la mejor herramienta disponible para preservar y transmitir la filosofía, construyendo un puente entre la oralidad y la escritura que constituye la esencia misma de su obra.
Algo similar ocurrió con la imprenta de Gutenberg. Su aparición alivió el trabajo rutinario de copia, pero también dejó sin tarea a los monjes copistas, en lo que podría considerarse uno de los primeros “despidos tecnológicos” de la historia. No es difícil imaginar la pregunta que resonaba entonces: ¿está mi oficio a punto de desaparecer? Como toda innovación profunda, la imprenta encontró resistencia antes de transformar radicalmente el acceso al conocimiento.
La historia se repite con la calculadora mecánica. El temor inicial se centró en su capacidad para reemplazar el trabajo humano en tareas repetitivas de cálculo, afectando a tenedores de libros y contadores. Desde la máquina de Wilhelm Schickard en 1623 hasta la Pascalina de Blaise Pascal en 1642, estas invenciones fueron vistas como amenazas antes de convertirse en herramientas indispensables. El tiempo demostró que, aunque ciertas tareas desaparecen, surgen nuevos oficios y formas de trabajo.
Todas estas tecnologías fueron acusadas de “universalizar el daño”, como si su uso fuera estructuralmente negativo. Pero el tiempo suele revelar que el problema no reside en la herramienta, sino en cómo y para qué se la utiliza.
¿Cuál es el núcleo del problema del conocimiento?
El núcleo del problema del conocimiento no son los instrumentos empleados en su producción, sino la ausencia de asociación conceptual previa. Un estudiante que no sabe asociar conceptos copia de un libro, copia de Wikipedia o copia de ChatGPT. La herramienta es contingente; la carencia cognitiva es anterior.
El conocimiento surge cuando hay intención, método, asociación y criterio. Esta afirmación desmonta la idea de que la IA “piensa por el estudiante”. La IA piensa con él o en lugar de él, según su nivel de formación y su capacidad crítica.
Descalificar por miedo
¿Por qué, entonces, aumenta la descalificación del uso de la inteligencia artificial? En diversos ámbitos —especialmente académicos— se alzan voces agoreras que anuncian malos tiempos por venir. Esto ocurre, en parte, porque cuando una tecnología aún no cuenta con protocolos claros, consensos éticos maduros y una alfabetización generalizada, el vacío se llena de miedo.
Además, en espacios donde la escritura era la herramienta central, el rol profesional se siente amenazado al convertirse en un commodity. Antes, el valor estaba puesto en redactar, memorizar y reproducir. Hoy, el valor se desplaza hacia la capacidad de preguntar bien, asociar ideas, editar, interpretar y contextualizar. Ese corrimiento incomoda.
Para echar luz sobre el debate es necesario establecer una distinción clave:
- Uso instrumental de la IA: copiar, pegar, delegar.
- Uso cognitivo de la IA: dialogar, contrastar, expandir.
Frente a este escenario, la respuesta no debería ser la prohibición, sino la alfabetización en IA, una pedagogía del uso y sistemas de evaluación que privilegien los procesos por sobre los resultados finales.
Quizás lo más revelador de este debate sea que el prejuicio no proviene de los sectores más vulnerables, sino de aquellos que sienten que están perdiendo centralidad simbólica. La inteligencia artificial no degrada el pensamiento: expone, con crudeza, su ausencia o su potencia. Y en ese espejo, no todos están dispuestos a mirarse.
Lic. Aníbal E. Rodríguez
