
El avance de la inteligencia artificial generativa en las universidades impulsó un debate global sobre el futuro de la educación superior. Herramientas como ChatGPT, Copilot, DeepSeek y Gemini ya forman parte de la vida académica, facilitando desde la redacción de ensayos hasta la resolución de tareas complejas.
Este fenómeno, que se expandió desde finales de 2022, generó inquietud entre docentes y autoridades universitarias, especialmente por la integridad académica y las facilidades para el plagio. Sin embargo, un reciente estudio liderado por Anitia Lubbe plantea que el desafío de la IA no reside solo en su control, sino en repensar cómo y qué aprenden los estudiantes universitarios. La propuesta es transformar la inteligencia artificial en aliada educativa, incentivando el pensamiento crítico y el aprendizaje autónomo.
El uso de inteligencia artificial generativa en educación superior se masificó. Mientras algunas instituciones optaron por restringir o regular el acceso, otras buscan respuestas para enfrentar su impacto. El temor más marcado surge por la facilidad que la IA ofrece para el plagio, pero el estudio advierte que centrarse solamente en la vigilancia puede desviar el enfoque de una cuestión más profunda: la verdadera efectividad del aprendizaje universitario. Los métodos de evaluación tradicionales, basados en memorización y repetición, resultan especialmente vulnerables, ya que corresponden a las tareas donde la IA muestra mayor destreza.

El análisis realizado por Lubbe y su equipo fue una revisión conceptual de la literatura académica publicada desde la aparición de ChatGPT. El objetivo consistió en examinar cómo se utiliza ya la inteligencia artificial generativa en la educación universitaria, su impacto en la evaluación académica y la relación de estas prácticas con la taxonomía de Bloom, un marco utilizado para clasificar habilidades cognitivas. De acuerdo con los hallazgos, la IA sobresale en tareas de bajo nivel, como recordar información y comprender conceptos. Por ejemplo, puede generar preguntas de opción múltiple, definiciones o explicaciones superficiales de manera rápida y precisa. “La IA destaca en tareas de nivel inferior. Los estudios muestran que es fuerte en recordar y comprender”, afirma el informe.
Sin embargo, la inteligencia artificial presenta serias limitaciones ante habilidades cognitivas superiores. En los niveles de evaluación y creación, su eficacia disminuye. Aunque logra redactar un plan de negocios o un esquema de política sanitaria, suele carecer de matices contextuales, juicio crítico y originalidad. “La IA tiene dificultades con el pensamiento de orden superior. En los niveles de evaluación y creación, su efectividad cae”, señala el estudio.

Este panorama transforma el papel del profesorado universitario. En lugar de invertir tiempo en diseñar y calificar pruebas de memorización, los docentes pueden enfocarse en crear tareas que la IA no resuelve por sí sola, fomentando así el análisis, la creatividad y el aprendizaje autodirigido. El autoaprendizaje implica que el estudiante asuma la iniciativa para identificar sus necesidades, establecer metas, buscar recursos, elegir estrategias y evaluar resultados, con o sin apoyo externo. Además, el estudio subraya que, aunque existen preocupaciones sobre el fraude académico, las oportunidades que brinda la IA superan los riesgos. Utilizada de forma adecuada, puede ofrecer ejercicios de práctica, retroalimentación y generar debate, siempre que los estudiantes sean guiados para interactuar críticamente con los resultados. “Las oportunidades que presenta la IA parecen superar las amenazas”, concluye el análisis.
Ante estos desafíos, el estudio recomienda acciones concretas para que las universidades adapten sus modos de evaluación y enseñanza. En primer lugar, señala la necesidad de rediseñar las evaluaciones para enfocarse en habilidades de pensamiento superiores. En vez de tareas que la IA puede automatizar, sugiere optar por evaluaciones auténticas y contextualizadas, como estudios de caso, portafolios, debates y proyectos vinculados a contextos reales. En segundo lugar, invita a integrar la IA como recurso pedagógico, pidiendo al estudiantado que critique respuestas generadas por inteligencia artificial, identifique vacíos o adapte propuestas a situaciones reales. Así, la IA se convierte en un soporte para practicar análisis y evaluación.

El informe también resalta la importancia de fortalecer la formación docente en la creación de evaluaciones integradas con inteligencia artificial, y de promover el uso ético y la fluidez digital entre los estudiantes. “Los estudiantes deben aprender no solo a usar la IA, sino a cuestionarla”, enfatiza el estudio. Comprender las limitaciones, sesgos y potenciales riesgos de la inteligencia artificial resulta esencial para preservar la integridad académica. Por ello, se recomienda fomentar la transparencia en el uso de la IA y diseñar tareas que impulsen la fijación de objetivos, la reflexión personal y el diálogo entre pares, elementos clave para desarrollar hábitos de aprendizaje duradero.
La integración ética y estratégica de la inteligencia artificial generativa puede convertir una amenaza en una oportunidad para la educación superior. El verdadero valor universitario en la era de la IA radica en formar personas capaces de analizar, juzgar y crear sentido, competencias que no puede replicar ninguna máquina.
Últimas Noticias
Prime Day de Amazon: estos son los descuentos históricos de Apple durante octubre 2025
Dispositivos como el iPad Air con procesador M3, los AirPods Max USB-C o el Apple Watch Series 10 forman parte de las oportunidades con precios reducidos disponibles solo durante el evento

Así funciona el nuevo Gemini 2.5, la IA de Google que trabaja como un humano
La nueva versión, gracias a su capacidad de razonamiento visual y ejecución iterativa, puede clasificar, mover elementos y operar en plataformas colaborativas, facilitando la gestión de tareas y flujos de trabajo digitales

OpenAI revela cómo se está usando ChatGPT para cometer estafas: conoce las más comunes
La empresa asegura que su chatbot es utilizado con mayor frecuencia para descubrir intentos de fraude, pese a las preocupaciones sobre su potencial para facilitar ciberataques y campañas de desinformación

Google Research presenta un asistente de salud basado en inteligencia artificial
El sistema experimental coordina subagentes especializados para analizar información personal y brindar recomendaciones adaptadas a cada perfil. Integra análisis estadístico, conocimiento médico y estrategias de coaching en un solo marco modular

Dogecoin y otras criptomonedas: así ha cambiado su valor
El bitcoin, una de las principales criptomonedas, registra un precio de 123.058,95 dólares
