Cookie Consent by Free Privacy Policy Generator

Inteligencia artificial en el aula: el riesgo de no verificar


La inteligencia artificial puede ayudarnos a escribir, resumir, ordenar ideas y preparar materiales de clase. Pero el caso ocurrido en Nebraska, Estados Unidos, muestra con claridad que usar IA sin verificación no es simplemente “un error técnico”: puede tener consecuencias profesionales, institucionales y éticas.

Según la nota difundida por CryptoNews, la Corte Suprema de Nebraska suspendió al abogado Greg Lake luego de que presentara un escrito judicial con 57 citas defectuosas sobre un total de 63, incluidas citas completamente inventadas y casos inexistentes atribuidos a la IA . La resolución judicial previa, en el caso Prososki v. Regan, ya había ordenado rechazar el escrito, desestimar la apelación y remitir la conducta del abogado al órgano disciplinario correspondiente .

El caso es importante porque marca un precedente: el problema no fue usar IA, sino confiar en ella sin control profesional.

El precedente: la IA no reemplaza la responsabilidad humana

La Corte Suprema de Nebraska fue clara al señalar que la IA puede ser útil, pero debe emplearse “con cautela y humildad”. También advirtió que no verificar la información afecta la reputación profesional y consume tiempo y recursos de tribunales y partes involucradas .

Este punto es central para cualquier profesión basada en conocimiento. En derecho, una cita falsa puede perjudicar a un cliente. En medicina, una recomendación no verificada puede poner en riesgo a un paciente. En educación, un contenido erróneo puede formar mal a decenas o cientos de estudiantes.

La IA generativa no “sabe” en el mismo sentido en que sabe una persona experta. Produce respuestas plausibles a partir de patrones. Por eso puede redactar con seguridad algo incorrecto. A este fenómeno se lo conoce como alucinación: la herramienta entrega datos, autores, normas, papers o citas que parecen reales, pero no necesariamente lo son.

Por qué no debemos confiar ciegamente

Para docentes universitarios, este caso deja una enseñanza muy concreta: la IA puede ser una asistente poderosa, pero no debe convertirse en una autoridad incuestionable.

En la preparación de clases, la IA puede ayudar a:

  • proponer actividades;
  • explicar conceptos complejos con lenguaje más accesible;
  • diseñar casos prácticos;
  • sugerir preguntas para debate;
  • resumir bibliografía;
  • adaptar materiales para distintos niveles.

Pero todo eso requiere una condición previa: verificación docente.

El riesgo aparece cuando se copian respuestas directamente en una diapositiva, una guía de lectura, un examen o una bibliografía sin revisar las fuentes. Una cita falsa en un material de clase no siempre tendrá el impacto inmediato de una sanción judicial, pero sí puede erosionar la confianza académica. Los estudiantes aprenden no solo contenidos, sino también hábitos intelectuales. Si el docente naturaliza fuentes no verificadas, transmite una práctica débil de validación.

Impacto en la preparación de temas para la enseñanza

El caso de Nebraska también obliga a repensar cómo preparamos temas de clase con apoyo de IA. No se trata de prohibir estas herramientas, sino de integrarlas con criterios pedagógicos claros.

Un uso responsable podría seguir tres pasos simples:

Primero, usar la IA para explorar. Puede servir para obtener un primer mapa del tema, identificar conceptos clave o imaginar ejemplos. En esta etapa, la IA funciona como disparador, no como fuente final.

Segundo, contrastar con bibliografía confiable. Toda afirmación importante debe verificarse en libros, artículos académicos, documentos oficiales, bases de datos, normativas vigentes o fuentes institucionales. En el caso judicial, la Corte indicó que los errores podrían haberse evitado con una investigación básica en plataformas jurídicas estándar .

Tercero, transparentar el uso. Cuando se utiliza IA para apoyar la elaboración de materiales, conviene aclararlo. No para desvalorizar el trabajo docente, sino para enseñar buenas prácticas: la IA puede asistir, pero la responsabilidad intelectual sigue siendo humana.

Una oportunidad pedagógica

Este caso puede convertirse en un excelente recurso didáctico. Permite trabajar con estudiantes preguntas como:

¿Qué diferencia hay entre una respuesta convincente y una respuesta verdadera?
¿Cómo se verifica una fuente?
¿Qué responsabilidades tiene un profesional cuando usa herramientas automatizadas?
¿Cuándo el uso de IA mejora el aprendizaje y cuándo lo debilita?

En carreras como Derecho, Comunicación, Educación, Salud, Ingeniería, Economía o Arquitectura, estas preguntas ya no son accesorias. Forman parte de la alfabetización profesional contemporánea.

La lección no es “no usar IA”. La lección es no delegar el juicio profesional. La IA puede acelerar tareas, abrir caminos y enriquecer la enseñanza, pero también puede fabricar certezas falsas con una redacción impecable.

Para la universidad, el desafío es doble: enseñar con IA y enseñar sobre IA. Eso implica formar docentes y estudiantes capaces de preguntar mejor, verificar más y asumir que la tecnología no elimina la responsabilidad académica. La confianza ciega en la IA puede ser cómoda, pero la educación superior necesita exactamente lo contrario: criterio, evidencia y pensamiento crítico.

Referencias

CryptoNews. (2026, 18 de abril). Nebraska Supreme Court suspends lawyer who used AI to write brief full of fabricated citations.

Nebraska Supreme Court. (2026). Prososki v. Regan, 321 Neb. 38.

Nebraska Public Media. (2026). Nebraska Supreme Court blasts AI-authored court filings, recommends discipline.

Artículo elaborado con asistencia de inteligencia artificial generativa, siguiendo los requisitos editoriales del proyecto.