
La Universidad Autónoma de Madrid (UAM) ha publicado su estudio sobre el uso responsable de la Inteligencia Artificial por parte de los estudiantes. Esta investigación ha demostrado que los alumnos tienen capacidad suficiente para usarla y hacerlo bien.
El centro universitario ha informado sobre los descubrimientos, publicados en la revista Applied Sciences, a través de un comunicado. En éste, se concluye que los jóvenes completan sus formaciones con la capacidad de discernir cuándo la IA generativa resulta útil y cuándo no ofrece respuestas fiables.
Los investigadores han nutrido su búsqueda con la evaluación del análisis racional de los matriculados. Concretamente, aquellos que finalizan sus estudios en ámbitos tan distintos como: Turismo, Derecho, Economía, Ingeniería, Química, Psicología y otros grados.

Declaraciones de los autores
Gracias a la labor de investigación y a la luz arrojada sobre estos hechos, los autores han puesto sobre la mesa un nuevo tema de debate. ¿En qué momento del aprendizaje se adquiere ese pensamiento crítico y cómo debe abordarse en las políticas educativas?
“Con nuestro trabajo hemos demostrado que los alumnos adquieren, a lo largo de su trayectoria académica y junto con otras competencias incluidas en los programas docentes, la formación necesaria para hacer un uso responsable de la IA generativa, independientemente del tipo de estudios cursados”, han explicado los autores.
Además, los autores señalan que el reto ahora es identificar en qué etapa educativa los alumnos desarrollan un pensamiento para usar estas herramientas de forma responsable. No obstante, advierten de la necesidad de definir qué políticas deben aplicarse para prevenir un uso inadecuado antes de alcanzar ese nivel.
Precauciones con la IA
La Inteligencia Artificial generativa se ha convertido en una herramienta habitual para los estudiantes universitarios. Estos modelos son capaces de producir textos, resolver ejercicios o elaborar resúmenes, pero también pueden generar errores o sesgos. Por este motivo, los investigadores destacan la importancia del pensamiento crítico a la hora de interpretar las respuestas de la IA y contrastarlas con fuentes fiables.
Entre los principales riesgos se encuentran los sesgos algorítmicos, que pueden reproducir desigualdades presentes en los datos, y los problemas de privacidad derivados del tratamiento masivo de información. También preocupa la difusión de contenido falso generado por modelos avanzados y el posible impacto de la automatización en determinados sectores laborales.

A ello se suman los fallos en sistemas autónomos, especialmente en tareas críticas, y la falta de una regulación sólida que permita supervisar adecuadamente estas tecnologías. Por estos motivos, los investigadores subrayan que el uso responsable de la IA requiere pensamiento crítico, supervisión humana y políticas educativas que ayuden a los estudiantes a identificar limitaciones y riesgos antes de integrar estas herramientas en su trabajo académico.
Qué es TutorIA_Lab
El estudio forma parte del TutorIA_Lab, una iniciativa impulsada por la Universidad Autónoma de Madrid. Este proyecto analiza cómo la Inteligencia Artificial generativa influye en los procesos de aprendizaje universitario.
La propuesta evalúa de qué manera los estudiantes utilizan estas herramientas para elaborar trabajos académicos y recibir retroalimentación, Los investigadores también compararán los resultados entre distintas áreas de conocimiento para identificar diferencias en el uso y en el impacto de estas tecnologías.
Los hallazgos serán difundidos en publicaciones científicas y jornadas formativas. De esta manera, se consigue orientar de una manera efectiva políticas educativas y promover un uso responsable de la IA en la educación superior.
