Outside the box
Campus bajo inteligencia artificial: profesores, estudiantes y la ética en crisis

Periodista

Clases con chatbots, alumnos acusados por error y docentes que también delegan en IA. ¿Quién está enseñando a quién?
En las universidades de Estados Unidos ya no se estudia solo con libros. Se charla, se redacta y hasta se sueña con ChatGPT. Lo cuenta Natasha Singer en The New York Times (7/6/25), donde detalla el experimento masivo que OpenAI está llevando a cabo con 460.000 alumnos del sistema de la Universidad Estatal de California: cada uno con su propio asistente personalizado de IA. ¿La promesa? Un campus inteligente. ¿La advertencia? Una inteligencia que aún no sabemos si es sabia o simplemente obediente.
La visión de Leah Belsky, vicepresidenta de educación de OpenAI, es clara: así como te dan un mail institucional, ahora te darán tu cuenta de IA desde el primer día. La llaman “universidad nativa en IA”. Pero ¿qué significa ser nativo de una herramienta que no distingue el bien del mal sino lo estadísticamente probable?
Mientras tanto, profesores de Harvard, Ohio y Duke ya no dedican horas a responder dudas introductorias: derivan la tarea a bots entrenados. Algunos, como el SoilSage en Ohio, fueron armados con papers propios y responden con autoridad (cuando no se equivocan). Otros, como el caso de un curso de liderazgo en Northeastern, simplemente copian y pegan contenido generado con prompts del estilo “expandir y sonar más profundo”. La estudiante que lo descubrió, Ella Stapleton, no solo sintió que le habían cobrado una clase dictada por una máquina: exigió la devolución de los US$ 8.000. No se los dieron.
En paralelo, florece el lado B del campus aumentado: los estudiantes honestos que deben probar que no usaron IA. Leigh Burrell, de la Universidad de Houston-Downtown, terminó grabando 93 minutos de video mostrando su proceso de escritura para evitar ser reprobada injustamente. ¿La acusación? Un falso positivo del sistema Turnitin. Un estudio de la Universidad de Maryland confirma que estos errores no son la excepción. Los que no copian también temen. Se filman. Se justifican. Se acusan entre sí. Es un poco como una infancia con cámara de seguridad: todo por si acaso.
A esta desconfianza le sigue el nuevo dilema moral del aula: profesores que usan IA para generar contenidos mientras prohíben a los alumnos hacer lo mismo. Kashmir Hill, también en The New York Times, describe esta doble vara como el nuevo talón de Aquiles del sistema. Los profesores lo justifican: están saturados, tienen cientos de alumnos, y sí, usan ChatGPT para los feedbacks, las presentaciones, los parciales. “Es como una calculadora con esteroides”, dice un docente. Lo curioso es que eso mismo dijeron los chicos hace dos años, cuando empezó la prohibición.
En este contexto, cuesta saber qué se está enseñando en las universidades. ¿Conocimientos? ¿Coherencia? ¿Cómo desarrollar una brújula ética cuando hasta los mensajes institucionales sobre tiroteos masivos están escritos con IA, como ocurrió en Vanderbilt en 2023? Si el duelo se terceriza, ¿qué queda del alma?
Pero no todo es distopía. En medio del enjambre de prompts, acusaciones y algoritmos, también emerge una idea potente: que la educación no es solo un archivo compartido o un modelo predictivo. Que enseñar (y aprender) es acompañar a otro en su proceso, no reemplazarlo con una fórmula. Que el feedback humano, aunque lento o imperfecto, deja una huella distinta.
Quizás el verdadero dilema no sea tecnológico, sino humano. No es la IA la que está desbordando a las universidades, sino nuestra incomodidad con los límites, con el esfuerzo, con la espera, con el error. Queremos inmediatez, eficiencia, perfección. Pero en el apuro por automatizar todo, corremos el riesgo de automatizar también la empatía, la duda, el vínculo. Y eso no se puede tercerizar sin perder algo esencial en el camino.
La verdadera inteligencia —artificial o no— se mide por nuestra capacidad de no olvidarnos del otro. Aunque cueste más que apretar “enter”.