CV / SOCIALES

Los asistentes al curso "Una IA hablando con otra IA. Gestión de la calidad universitaria" posan durante la última jornada

La asociación europea de agencias de calidad, ENQA, propone un decálogo de aplicación de la IA en la educación superior

Texto: Alberto Martín, Fotografía: Francisco Rivas - 4 jul 2025 14:16 CET

La Inteligencia artificial es imparable. No hay sector que no esté revolucionando. El de la educación superior, sin duda, es uno ellos, modificando las maneras de enseñar, aprender e, incluso, de gestionar y evaluar a las propias universidades. Sobre este último aspecto ha tratado el curso “Una IA hablando con otra IA. Gestión de la calidad universitaria”, que bajo la dirección del director de la Fundación Madri+d, Federico Morán, se ha celebrado del 2 al 4 de julio en San Lorenzo de El Escorial.

 

La última jornada del curso contó con la participación de Goran Dakovic, jefe de la agencia de Reviews de ENQA. Como explica Federico Morán, ENQA, European Association for Quality Assurance in Higher Education, es la encargada de acreditar a las agencias nacionales y regionales de toda Europa y de renovar esas certificaciones cada 5 años. El uso eficiente y ético de la Inteligencia Artificial en la educación superior y en las propias agencias de evaluación y acreditación es algo que, como admite Dakovic, preocupa a ENQA. De hecho, el pasado mes de junio esta agencia europea celebró en Tallin (Estonia) un workshop en el que se trató específicamente este tema, bajo dos perspectivas: comprender las implicaciones de la IA para las instituciones de educación superior y considerar su uso responsable por parte de las agencias de evaluación de calidad.

 

Dakovic para enfatizar hasta qué punto la IA se ha introducido en la educación superior hizo un repaso a los distintos programas y aplicaciones que se utilizan en las universidades a diario por sus estudiantes, profesores o personal. Asistentes generales de IA: ChatGPT, Claude, Google Gemini, Perplexity-ai, Pi. Para garantizar la integridad académica: GrammarlyGO/Quillbot, Turnitin con AI Detection, Zero GPT/GPT Zero. Evaluación y feedback: Gradescope, Cadmus, EvaSys. Soporte para enseñanza y diseño de cursos: Curipod, Khanmigo, Sana Labs. Uso institucional y herramientas de control de la calidad: UNIwise, Caktus.ai, QBot (Microsoft Teams for Education).

 

Ante esta “sobreinflación” de IA en la Educación Superior, ENQA tras su workshop de Tallin, ha lanzado un decálogo de recomendaciones:

  1. La IA debe servir a objetivos estratégicos, no impulsarlos.
  2. Respetar la ética en la prestación de servicios de educación superior, la autonomía académica y su sostenibilidad.
  3. Garantizar la transparencia en el uso de la IA.
  4. Proteger los datos y exigir el consentimiento.
  5. Garantizar el acceso equitativo a la IA.
  6. Promover la enseñanza en IA y la formación continua.
  7. Utilizar la IA sólo cuando sea la herramienta adecuada para el objetivo buscado.
  8. Mantener el juicio humano en el centro.
  9. Fomentar la innovación, pero con cautela
  10. Revisar los principios de manera habitual para que sigan siendo relevantes.

 

En cuanto a su uso por las agencias de acreditación y evaluación, Dakovic también hizo partícipes a los asistentes al curso -entre ellos estaban los directores de la mayor parte de las agencias de acreditación españolas y también la de Andorra- de algunas buenas prácticas, que ENQA considera de interés. Entre ellas, mencionó el apoyo a las políticas institucionales de IA y códigos éticos, elaborar guías de IA y chatbots de aprendizaje personal, contribuir al rediseño de las evaluaciones para garantizar la autenticidad y la integridad, poner en marcha iniciativas de formación en IA para personal y estudiantes de educación superior o generar repositorios compartidos y distribución equitativa de herramientas.