comscore
Tecnología

Aprendizaje personalizado con inteligencia artificial en colegios: la nueva aula

La IA bien guiada no reemplaza al docente: lo potencia, mejora resultados y exige ética desde la escuela.

Aprendizaje personalizado con inteligencia artificial en colegios: la nueva aula

Imagen de ilustración generada con IA.

Compartir

Aprendizaje personalizado con inteligencia artificial en colegios: así cambia la forma de aprender y evaluar, con mejores resultados cuando hay guía docente y reglas claras.

En muchos colegios, la discusión sobre inteligencia artificial (IA) arrancó como alarma: “¡se van a copiar!”; “¡se acabó la tarea!”; “¡esto va a volver flojos a los pelados!”. Pero, como pasa con el mar en Cartagena, uno puede quedarse mirándolo con susto… o aprender a navegarlo. Lo que hoy está quedando claro —con evidencia que ya mide resultados, no solo intuiciones— es que el aprendizaje personalizado con inteligencia artificial en colegios puede mejorar el desempeño académico y, al mismo tiempo, puede dañar el aprendizaje si se usa sin barandas. La diferencia no la hace el algoritmo. La hace el diseño.

Para aterrizarlo: no toda “IA en educación” es lo mismo. Los estudios más sólidos de los últimos años se han concentrado en tres formas de implementación. La primera es la tutoría apoyada por IA con supervisión humana: docente o tutor al frente, y la IA como copiloto pedagógico que sugiere preguntas, detecta vacíos y propone andamiajes. Esta modalidad tiende a mostrar mejoras medibles, sobre todo en contextos donde un buen tutor es escaso o costoso. La segunda es la tutoría generativa sin guardrails (sin límites claros): ahí la IA puede inflar el rendimiento “en caliente” mientras el estudiante practica, pero luego bajar el desempeño cuando le quitan la herramienta (en un examen, por ejemplo), porque se vuelve muleta: el alumno copia el camino, no construye el músculo. La tercera es el aprendizaje asistido por computador con rutas personalizadas (estilo “mastery learning”): suele dar efectos positivos, pero más modestos y muy dependientes de la intensidad y la calidad del uso. Le puede interesar: IA para crear medicamentos más rápido: la “nueva ciencia” de Isomorphic Labs

¿Y dónde aparecen esos “mejores resultados” que tanto buscamos? Un hallazgo clave, útil para directivos y rectores, es que el primer retorno de inversión en colegios no siempre se ve de inmediato en la nota final: se ve en el tiempo y en la calidad de la intervención docente. Dicho en criollo: la IA puede ayudar a que el profesor llegue antes al estudiante que se está quedando atrás, y no cuando ya perdió el período.

En experiencias recientes con tutorías apoyadas por IA, por ejemplo, se han observado mejoras concretas en mediciones frecuentes de aprendizaje (los famosos “exit tickets”, esas mini-pruebas al cierre de una sesión). En un caso con escuelas K–11 y población vulnerable, los estudiantes que trabajaron con tutores apoyados por IA fueron varios puntos porcentuales más propensos a aprobar esas verificaciones rápidas de dominio. Y lo más interesante: el impacto creció justamente donde más importa para la equidad, cuando el tutor humano de partida era de menor calidad; la IA actuó como “entrenador del entrenador”, elevando el estándar de la ayuda sin reemplazarla.

Ahora bien, no vendamos humo: personalizar no es magia. La personalización funciona como un salpicón de pescado: no es solo tener los ingredientes, es saber combinarlos y encontrar el punto de cocción. Hay evidencia de que, con poco uso semanal, los efectos en pruebas estandarizadas pueden ser pequeños; con mayor frecuencia, crecen, pero no se reparten igual: algunos estudiantes —los que ya venían mejor— tienden a beneficiarse más si el colegio no diseña apoyos adicionales. Por eso la conversación adulta no es “¿compramos IA sí o no?”, sino “¿cómo la integramos para que reduzca brechas, no para que las amplíe?”.

El gran riesgo, paradójicamente, es que la misma herramienta que aumenta productividad puede disminuir aprendizaje profundo. Hay escenarios en los que la IA ayuda a resolver más ejercicios… pero no necesariamente a comprender. Productividad no es aprendizaje. Un estudiante puede entregar una tarea impecable y, sin embargo, no poder resolver un problema nuevo cuando está solo, sin el chatbot al lado. Ahí aparece el “nuevo contrato del aprendizaje”: si los colegios van a incorporar IA, deben redefinir qué significa aprender, qué significa evaluar y qué significa ser responsable.

En evaluación, por ejemplo, la IA obliga a mover el foco: menos “copiar y pegar”, más demostrar procesos. Más oralidad, más proyectos con trazabilidad, más preguntas que exijan explicar decisiones, justificar fuentes, comparar alternativas. También más evaluaciones en clase con acompañamiento, y menos tareas que hoy son, seamos honestos, una invitación abierta a delegar en la máquina. No se trata de castigar la tecnología; se trata de diseñar actividades donde usar IA sea parte del reto, pero no el atajo que borra el pensamiento.

Y aquí entra la palabra que muchos mencionan pero pocos enseñan: ética. Si el aprendizaje personalizado con inteligencia artificial en colegios va a ser el estándar, la alfabetización en IA no puede quedarse en “cómo hacer prompts”. Debe incluir, al menos, cuatro habilidades ciudadanas: 1) saber cuándo confiar y cuándo dudar (porque la IA se equivoca con seguridad), 2) proteger datos y privacidad (especialmente de menores), 3) reconocer sesgos y efectos de burbuja (la IA también hereda prejuicios), y 4) mantener agencia humana: usar la herramienta sin entregarle el volante.

Lo más bonito de esto es que no exige convertir cada colegio en una fábrica de programadores. La tesis fuerte es otra: todos los estudiantes deben aprender a trabajar con IA sin perder criterio. Como cuando uno aprende a usar calculadora: no es para olvidar sumar, sino para liberar cabeza y resolver problemas más complejos. Con IA pasa igual: bien usada, puede ser tutor, editor, entrenador de estudio, simulador de debates, generador de prácticas personalizadas. Mal usada, se vuelve niñera cognitiva.

Además, el contexto global se está moviendo rápido. En 2026 la conversación ya no es solo “chatbots”: son tutores multimodales (que leen texto, voz e imágenes), herramientas que funcionan en dispositivos con modelos más pequeños (menos dependencia de la nube) y sistemas que empiezan a integrarse como “agentes” que planifican tareas. Todo eso llegará al aula, quiera o no quiera el manual de convivencia. La pregunta es si llegará como ola desordenada o como marea canalizada.

En Cartagena sabemos que una muralla no se construyó para “parar el mar”, sino para orientar lo que entra y lo que no. Con la IA en educación, la muralla se llama gobernanza pedagógica: reglas claras, capacitación docente, selección cuidadosa de herramientas, protección de datos, y un currículo que enseñe productividad con ética. Porque sí: los colegios que lo están haciendo con método están viendo mejores resultados. Pero el verdadero éxito no es subir unos puntos en una prueba. Es graduar pelados que sepan pensar con la IA… sin que la IA piense por ellos.

Únete a nuestro canal de WhatsApp
Reciba noticias de EU en Google News