La UE marca la IA educativa como de “alto riesgo” cuando decide accesos, notas o exámenes

"Debe hacerse siempre en colaboración con un adulto": IA en Infantil y Primaria según Google

17 de abril de 2026 a las 18:19h
La UE marca la IA educativa como de “alto riesgo” cuando decide accesos, notas o exámenes
La UE marca la IA educativa como de “alto riesgo” cuando decide accesos, notas o exámenes

La inteligencia artificial ha irrumpido en las aulas con la contundencia de una ola que no se detiene a pedir permiso. No es solo una herramienta más entre cuadernos y pizarras, sino un cambio de paradigma transforma cómo enseñamos, cómo aprendemos y, sobre todo, qué valoramos del conocimiento. En los pasillos de los colegios españoles, en las aulas virtuales de universidades como la UOC o en las reuniones del Ministerio de Educación, ya no se discute si la IA debe estar presente, sino cómo hacerlo con criterio, equidad y sentido pedagógico.

Entre la innovación y la regulación

La Unión Europea ya ha trazado líneas rojas cualquier sistema de IA que decida el acceso a centros educativos, evalúe aprendizajes o supervise exámenes entra en la categoría de "alto riesgo". Esto obliga a una supervisión rigurosa, transparencia y garantías legales. En España, mientras tanto, el Ministerio de Educación adelantó su ficha en 2022 con una actualización del marco de competencia digital docente y una guía específica sobre el uso de la IA generativa. El foco no está puesto en prohibir, sino en formar formar a los profesores, sí, pero también en proteger datos, promover la transparencia y enseñar a los estudiantes a usar estas herramientas sin delegar en ellas su pensamiento crítico.

Paralelamente, el Congreso tramita una ley de protección de menores en entornos digitales que podría tener un impacto directo en las aulas. La norma permitirá a los centros escolares regular el uso de móviles, establecer límites al tiempo de pantalla y reforzar la educación digital desde edades tempranas. No se trata de demonizar la tecnología, sino de reconocer que el riesgo no es solo qué hacen con la IA, sino cuánto tiempo pasan conectados y en qué condiciones, como señala Jordi Cirach, experto en bienestar digital.

La IA en el aula entre la colaboración y la autonomía

En Infantil y Primaria, el uso de la IA no debería ser autónomo. Julia Wilkowski, directora de Pedagogía en Google, es clara "debe hacerse siempre en colaboración con un adulto". Es una etapa de descubrimiento, de construcción de hábitos, no de interacción solitaria con algoritmos. A partir de los 13 años, en cambio, el acompañamiento puede ceder paso a un uso más independiente, siempre guiado por objetivos pedagógicos.

Y aquí es donde la IA revela su potencial transformador. No se trata de que los alumnos pregunten y copien, sino de que exploren, discutan y aprendan en el proceso. "Con este modo, la intención es distinta no se busca solo una respuesta, sino un aprendizaje", afirma Marc Sanz, director de Educación en Google para la península ibérica, Oriente Medio y África. La IA como compañero de viaje, no como conductor del trayecto.

Maureen Heymans, vicepresidenta de Google para Ingeniería del Aprendizaje, lo resume así

"Las posibilidades pedagógicas que abre la IA pretenden hacer el aprendizaje más atractivo, efectivo y personal, permitiendo a los alumnos la usen como un medio para explorar su curiosidad, en vez de como un fin exclusivo para ejecutar tareas" - Maureen Heymans, vicepresidenta de Google para Ingeniería del Aprendizaje.

Universidades como laboratorio de transformación

En la Universitat Oberta de Catalunya (UOC), con cerca de 100.000 estudiantes, la IA ya no es un experimento aislado, sino una estrategia institucional. Han creado un centro específico para coordinar su uso en procesos clave desde la detección de riesgo de abandono hasta la personalización del acompañamiento académico. Al analizar patrones de actividad cuándo se conectan, qué materiales consultan, cómo resuelven dudas, la universidad puede intervenir antes de que un estudiante desaparezca.

Pero el verdadero salto no es tecnológico, sino cultural. "Lo que cambia es el enfoque pasamos de iniciativas que surgen de manera dispersa a una visión más estratégica, en la que se identifican qué procesos queremos mejorar y cómo la IA puede ayudarnos a hacerlo", explica Ricard Gómez, vicegerente de Talento, Transformación y Organización de la UOC. Para él, "la IA debe ser un aumentador de las capacidades del profesorado, no un sustituto". Y añade una advertencia contundente "Hay un riesgo de que estas herramientas se desplieguen de forma distribuida y poco controlada. Necesitamos gobernarlas para asegurarnos de que hacen lo que queremos que hagan".

La evaluación bajo el microscopio

Si la IA puede generar un ensayo en segundos, ¿qué sentido tiene evaluar la reproducción de contenidos? Para Ricard Gómez, "lo que no tiene sentido es una evaluación memorística o basada en reproducir contenidos que una inteligencia artificial puede generar de manera inmediata". La evaluación, en su opinión, debe integrarse en el proceso de aprendizaje, no limitarse a un examen final. Observar cómo un alumno investiga, contrasta fuentes, discute ideas o corrige errores eso es lo que debería valorarse.

Y hay datos que respaldan esta transición. Un estudio de la Education Endowment Foundation, publicado en diciembre de 2024 en centros de Secundaria del Reino Unido, muestra que los profesores que usan IA generativa con una guía de buenas prácticas reducen en un 31% el tiempo dedicado a la planificación. Ese tiempo ganado puede destinarse a lo que realmente importa acompañar, escuchar, inspirar.

Equidad y vigilancia los desafíos pendientes

Pero no todo es progreso. La IA también puede amplificar desigualdades. Juan Luis Moreno, director ejecutivo en The Valley, lo advierte con claridad "La IA puede amplificar desigualdades si no se usa de forma adecuada, porque no todos los estudiantes parten de un mismo punto". Un alumno con dislexia o TDAH podría recibir recomendaciones poco ajustadas, mientras que otro con más recursos o apoyo familiar avanza sin freno. Sin mecanismos de compensación, la brecha se agranda.

Y está el asunto de los datos. La Agencia Española de Protección de Datos insiste en la necesidad de evaluar riesgos y minimizar el uso de información personal, especialmente en menores. Cada interacción con una herramienta de IA deja huella. ¿Quién la controla? ¿Para qué se usa? La transparencia no es un lujo es una condición para la confianza.

En medio de este debate, una frase de Ricard Gómez suena como un recordatorio necesario "La forma natural es aceptar lo que devuelve la máquina sin cuestionarlo. Por eso hay que obligar al alumno a comparar, analizar y posicionarse". Enseñar a desconfiar, a contrastar, a pensar. Porque, como bien dice Juan Luis Moreno, "el verdadero valor sigue estando en la capacidad del docente para inspirar, motivar y enseñar a pensar". La tecnología puede cambiar las herramientas, pero no el corazón del aprendizaje.

Sobre el autor
Redacción
Ver biografía