Vivimos un momento en el que hablar de inteligencia artificial (IA) en el aula se ha vuelto inevitable. Pero en medio del entusiasmo por nuevas herramientas, modelos generativos y asistentes virtuales, aparece una pregunta urgente y menos popular: ¿cómo enseñamos IA sin promover una fe ciega en la tecnología?
Este artículo propone cambiar el foco. En lugar de enseñar a usar IA, planteamos enseñar a pensarla. No como un recetario de prompts, sino como un fenómeno sociotécnico complejo que modela la realidad, amplifica sesgos y redefine el aprendizaje. Inspirado en el libro AI for Teachers: An Open Textbook, exploramos cómo construir una alfabetización crítica en IA en el contexto universitario.
Del uso a la comprensión
Los docentes no necesitan convertirse en ingenieros de datos, pero sí deben comprender los principios que estructuran la IA. Del mismo modo que enseñamos cómo funcionan los pulmones antes de advertir los riesgos de fumar, necesitamos enseñar cómo funcionan los algoritmos antes de aceptar sus consecuencias.
“No basta con saber que la IA existe: hay que saber cómo opera, qué datos consume, qué decisiones toma y con qué criterios lo hace.”
Esta comprensión se vuelve vital porque:
La IA ya está mediando evaluaciones, aprendizajes y trayectorias académicas.
Los estudiantes la usan antes de entenderla.
Las decisiones algorítmicas pueden reforzar desigualdades si no son interrogadas.
Enseñar IA es, entonces, una forma de devolver agencia a los estudiantes, para que puedan cuestionar, rediseñar y tomar decisiones informadas sobre las tecnologías que los rodean.
Evitar la fascinación: enseñar sin convertirnos en promotores
El riesgo no está solo en ignorar la IA, sino en adoptarla acríticamente, sin mediar su impacto. Algunos síntomas comunes de la fascinación tecnológica en el aula:
Confundir uso intensivo con innovación educativa.
Celebrar los resultados sin cuestionar quién define los indicadores.
Adoptar herramientas sin entender cómo gestionan datos, privacidad o sesgos.
Muchas herramientas “gratuitas” están sustentadas en modelos de negocio basados en la explotación de datos. Enseñar IA implica abrir estas cajas negras, incluso si no podemos ver todos sus engranajes.
Como docentes, debemos formar usuarios que no sólo reproduzcan resultados, sino que problematicen procesos: ¿por qué la IA me recomendó esto? ¿Qué información usó? ¿Cuál dejó afuera?

Estrategias didácticas para una alfabetización crítica
A continuación, algunas estrategias concretas para incluir la IA como tema de reflexión crítica en el aula, sin necesidad de enseñar código:
1. Desarmar los sesgos algorítmicos con ejercicios simples
Pedir a los alumnos que traduzcan frases con Google Translate (ej. “ingeniera”) para detectar sesgos de género. Luego, discutir cómo los algoritmos aprenden del mundo… y lo perpetúan.
2. Hacer un análisis de los recomendadores
Analizar recomendaciones de YouTube o Spotify: ¿cómo cambia la experiencia al navegar sin cuenta o desde otra ubicación? ¿Por qué no todos vemos lo mismo? Ideal para trabajar el concepto de filtro de burbuja.
3. Simular decisiones con datos
Crear escenarios simples de clasificación (quién aprueba, quién recibe una beca, etc.) y hacer que los estudiantes definan atributos, etiquetas y reglas. Esto permite ver el poder y el peligro de entrenar sistemas con criterios sesgados.
4. Debatir dilemas éticos
Usar casos reales: ¿debería una universidad usar IA para detectar plagio? ¿Y para predecir deserción? ¿Quién decide qué es “riesgo”? Estos debates permiten vincular tecnología con justicia, inclusión y derechos.
¿Por qué esto es urgente?
Porque si no enseñamos a pensar la IA, otros la enseñarán a pensar por nosotros. La educación tiene hoy la oportunidad de evitar que la IA se convierta en una herramienta opaca y vertical, decidiendo por nosotros qué es relevante, quién aprende bien y cómo debe evaluarse.
Enseñar inteligencia artificial no es una opción técnica, sino una decisión política y pedagógica. Y cuanto antes la asumamos, más capaces seremos de formar ciudadanos críticos, creativos y libres en un mundo cada vez más automatizado.
¿Querés sumar esta perspectiva a tu aula o proyecto institucional? Desde INNOVA LAB trabajamos para diseñar estrategias de alfabetización crítica en IA que vayan más allá del uso instrumental. Escribinos para colaborar.
Este artículo se basa en el libro abierto “AI for Teachers: An Open Textbook”, escrito por Colin de la Higuera y Jotsna Iyer en el marco del proyecto europeo AI4T. La obra ofrece una guía comprensiva, crítica y accesible sobre el uso y la enseñanza de la inteligencia artificial en contextos educativos. Incluye fundamentos técnicos, dilemas éticos, ejemplos pedagógicos y propuestas didácticas para docentes de todos los niveles.Descargalo gratis en: https://www.ai4t.eu/textbook/