La irrupción de la Inteligencia Artificial en las aulas: Un debate entre la precaución y la inminente adaptación

La irrupción de la Inteligencia Artificial en las aulas: Un debate entre la precaución y la inminente adaptación

La era de la inteligencia artificial ha llegado a la educación primaria y secundaria, y lo ha hecho con una fuerza que ya no se puede ignorar. Un reciente sondeo de RAND, realizado en septiembre de 2025, revela cifras que ponen en perspectiva la magnitud del cambio: el 54 por ciento de los estudiantes de K–12 indicaron que ya utilizan IA para sus labores escolares, un salto de más de 15 puntos porcentuales en apenas dos años. Sin embargo, más allá de la rápida adopción tecnológica, lo que realmente llama la atención es la brecha de percepción sobre sus efectos. Mientras que una mayoría significativa de padres (61%) y estudiantes de secundaria (55%) coinciden en que un mayor uso de la IA podría dañar las habilidades de pensamiento crítico, solo el 22 por ciento de los líderes distritales comparte esa preocupación. Parece que la sensibilidad de los administradores escolares no va al mismo paso que la inquietud de las familias.

El temor a perder el rigor académico

En medio de la avalancha de artículos y opiniones, surgen dos bandos claros: los que temen que la máquina suplante el esfuerzo del alumno y los que ven una oportunidad para complementar el aprendizaje. Para los escépticos, el riesgo principal es que los atajos tentadores de la IA impidan el verdadero aprendizaje. Ashanty Rosario, una estudiante de último año, lo describió con crudeza en The Atlantic, lamentando la pérdida de camaradería con sus compañeros, quienes solían luchar juntos para entender las materias difíciles y ahora, simplemente, le delegan el trabajo duro a ChatGPT.

No es solo una queja estudiantil; expertos como Robert Pondiscio advierten sobre la “ilusión de aprendizaje”, mientras que Andy Smarick, del Manhattan Institute, sugiere que la entrada de la IA no debería verse como algo inevitable. Las sociedades, argumenta, deben sopesar los compromisos morales y prácticos antes de abrir las compuertas, llegando incluso a proponer una moratoria de dos años para evitar una implementación apresurada y riesgosa. Jessica Grose, columnista del New York Times, se suma a este equipo de la preocupación, argumentando que el argumento de “preparar para la fuerza laboral” es flojo cuando nadie sabe cómo serán los trabajos dentro de una década. Para ella, la amenaza al pensamiento crítico pesa más que los beneficios teóricos.

Adaptarse o quedarse atrás

Por otro lado, están quienes creen que las escuelas no pueden darse el lujo de arrastrar los pies. Michael Horn sostiene que, dado que la fuerza laboral del mañana ya está incorporando la IA hoy, ignorarla dejaría a los estudiantes mal preparados para el mundo real. Centrarse únicamente en evitar que los alumnos hagan trampa, en lugar de enseñarles a usar la herramienta para mejorar, sería un error estratégico.

Incluso hay optimismo pedagógico. Carlo Rotella, profesor del Boston College, plantea que la amenaza de la trampa digital puede empujar a los docentes a retomar prácticas “a prueba de IA”, como exámenes orales, mayor participación en clase y trabajos presenciales, métodos que, aunque exigen más, podrían elevar la calidad educativa. Además, se vislumbra la promesa de una enseñanza personalizada: tutores de IA que se adapten a las necesidades de cada cipote, ofreciendo una atención individualizada y una paciencia que a veces supera la capacidad humana, tal como argumenta John Bailey.

Comprendiendo la “caja negra” desde la infancia

Independientemente de cuándo se decida integrar formalmente estas herramientas, existe un consenso creciente entre los expertos técnicos: no basta con enseñar a usar la tecnología, hay que enseñar cómo funciona. A medida que la inteligencia artificial permea más carreras profesionales, organizaciones como Code.org y la Asociación de Maestros de Ciencias de la Computación (CSTA) están explorando qué tan temprano se deben introducir estos conceptos.

Karim Meghji, de Code.org, señala que, aunque no están convencidos de enseñar IA a niños de kínder, sí creen en comenzar temprano a explicar lo que sucede “bajo el capó”. Si los estudiantes solo aprenden a usar la herramienta sin entender su funcionamiento, no sabrán discernir por qué un algoritmo comete errores o alucina datos.

Patrones, sesgos y ciudadanía digital

La visión de la CSTA va un paso más allá, abogando por cierta instrucción desde el jardín de infantes. Jake Baskin, su director ejecutivo, explica que los niños pequeños ya están empezando a reconocer patrones, y es fundamental que entiendan que las máquinas hacen lo mismo para tomar decisiones. Para cuando llegan a primer grado, los alumnos ya pueden investigar cómo las personas utilizan estos patrones.

Construir esta base temprana es crucial. Permite que un estudiante de quinto grado, por ejemplo, comprenda por qué el reconocimiento facial identifica mejor a ciertas personas que a otras, basándose en los sesgos inherentes construidos en los modelos. Ya en la secundaria, los jóvenes podrían estar desarrollando sus propios modelos de IA con datos apropiados.

Al final del día, lo que queda claro tras esta disrupción tecnológica es que el currículo fundamental de informática es más vital que nunca. No se trata solo de capacitación laboral para un futuro incierto, sino de preparar a cada estudiante para ser un ciudadano comprometido, con agencia y capacidad para entender y cuestionar las herramientas que moldearán su vida.