SciELO - Scientific Electronic Library Online

 
vol.20Ética na comunicação científica: navegando entre princípios e algoritmosComercialização da desonestidade acadêmica: análise de plataformas de compra e venda de trabalhos acadêmicos na Espanha índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Compartilhar


Práxis Educativa

versão impressa ISSN 1809-4031versão On-line ISSN 1809-4309

Práxis Educativa vol.20  Ponta Grossa  2025  Epub 30-Set-2025

https://doi.org/10.5212/praxeduc.v.20.25119.045 

Seção temática: Ética, integridade e Inteligência Artificial

Inteligencia Artificial en la Universidad: Un Taller para Promover el Uso Responsable de ChatGPT entre el Alumnado

Artificial Intelligence at University: A Training to Promote the Responsible Use of ChatGPT Among Students

Inteligência Artificial na Universidade: Um Workshop para Promover o Uso Responsável do ChatGPT entre os Estudantes

Silvia Ortiz-Bonnin* 
http://orcid.org/0000-0003-1896-1048

Francisco Rejón-Guardia** 
http://orcid.org/0000-0002-5201-8435

Joanna Blahopoulou*** 
http://orcid.org/0000-0001-7807-530X

*Silvia Ortiz-Bonnin is Associate Professor at the Universitat de les Illes Balears. E-mail: <silvia.ortiz@uib.es>.

**Francisco Rejón-Guardia is Associate Professor at the Universidad de Málaga. E-mail: <franrejon@uma.es>.

***Joanna Blahopoulou is Assistant Professor at the Universitat de les Illes Balears. E-mail: <joanna.blahopoulou@uib.es>.


Resumen

La adopción de herramientas de Inteligencia Artificial Generativa (IAG), como ChatGPT, está transformando la educación superior al cambiar el acceso y la generación de conocimiento. Estas tecnologías ofrecen oportunidades para personalizar el aprendizaje y mejorar la eficiencia, pero también plantean desafíos éticos en torno a la veracidad, la privacidad y la integridad académica. Ante la limitada formación del estudiantado para un uso ético de la IAG, este estudio presenta el diseño, implementación y evaluación de un taller para promover el uso responsable de ChatGPT entre el alumnado. Un total de 140 estudiantes participaron en el taller. Los resultados muestran una alta satisfacción y un notable interés por continuar formándose en los diversos usos de la IAG. En conclusión, es esencial promover una reflexión crítica sobre estas herramientas, a fin de integrarlas de manera ética y responsable en el ámbito universitario.

Palabras clave: Inteligencia artificial; ChatGPT; Taller

Abstract

The adoption of Generative Artificial Intelligence (GAI) tools, such as ChatGPT, is transforming higher education by reshaping access to and the generation of knowledge. These technologies offer opportunities to personalize learning and improve efficiency, but they also raise ethical challenges related to reliability, privacy, and academic integrity. Given the limited student training on the ethical use of GAI, this study presents the design, implementation, and evaluation of a workshop aimed at promoting responsible use of ChatGPT among students. A total of 140 students participated in the workshop. The results show high satisfaction and a strong interest in continuing to learn about the various uses of GAI. In conclusion, it is essential to foster critical reflection on these tools in order to integrate them ethically and responsibly into the university environment.

Keywords: Artificial intelligence; ChatGPT; Workshop

Resumo

O uso de ferramentas de Inteligência Artificial Generativa (IAG), como o ChatGPT, está transformando o ensino superior ao modificar o acesso e a geração do conhecimento. Essas tecnologias oferecem oportunidades para personalizar o aprendizado e aumentar a eficiência, mas também levantam desafios éticos relacionados à veracidade, privacidade e integridade acadêmica. Diante da formação limitada dos estudantes quanto ao uso ético da IAG, este estudo apresenta o desenho, implementação e avaliação de uma oficina para promover o uso responsável do ChatGPT entre os alunos. Um total de 140 estudantes participaram do workshop. Os resultados indicam alta satisfação e um interesse significativo em continuar aprendendo sobre os diversos usos da IAG. Conclui-se que é fundamental promover uma reflexão crítica sobre essas ferramentas para integrá-las de forma ética e responsável no ambiente universitário.

Palavras-chave: Inteligência artificial; ChatGPT; Oficina

Introducción

La adopción de la Inteligencia Artificial (IA), y en concreto de la Inteligencia Artificial Generativa (IAG) como ChatGPT (OpenAI), en educación superior, está cambiando drásticamente tanto el acceso al conocimiento como las metodologías docentes (Cruz-Argudo et al., 2023). Estas tecnologías ofrecen un nuevo paradigma para el aprendizaje lleno de oportunidades, donde destacan la personalización y la mejora de la eficiencia (Adeshola et al., 2023), pero también plantean desafíos éticos relacionados con la autoría, la veracidad de la información, la privacidad o la integridad académica, que convienen ser abordados por la comunidad educativa (Blahopoulou & Ortiz-Bonnin, 2025; Lopes et al., 2024).

Aunque las instituciones de educación han comenzado a desarrollar normativas y orientaciones para guiar en el uso de la IAG, estás iniciativas no garantizan por sí solas una comprensión crítica por parte de la comunidad (Bendixen et al., 2024). En la práctica, se observa una disociación entre la expansión de herramientas de IAG y la alfabetización ética sobre el empleo de éstas en el ámbito académico. Investigaciones recientes evidencian que la mayoría de alumnado usa la IAG para tareas académicas (Blahopoulou & Ortiz, 2025), pero sin conocer de forma adecuada cuáles son los límites normativos o los riesgos asociados a su uso, como son los sesgos algorítmicos, las alucinaciones o la delegación no crítica de funciones cognitivas esenciales para el aprendizaje (Chen et al., 2025; Bergström et al., 2024; Farrokhnia et al., 2023). Por tanto, esta desconexión destaca la necesidad de desarrollar intervenciones formativas que no sólo informen, sino que promuevan una reflexión crítica sobre el uso de estas tecnologías (Figura 1).

Este trabajo aporta un enfoque novedoso al presentar, analizar y evaluar empíricamente una intervención formativa centrada en el uso ético de la IAG en el contexto universitario. En este contexto, el presente trabajo tiene los siguientes objetivos:

  • Objetivo 1: Presentar el diseño (contenidos y actividades) de un taller sobre el uso responsable de la IA dirigido al alumnado universitario en el ámbito académico, desarrollado en el marco de un proyecto de innovación docente.

  • Objetivo 2: Evaluar la satisfacción del alumnado con el taller.

  • Objetivo 3: Analizar el interés por recibir formación futura sobre IA, y los contenidos específicos que desearían abordar a través de información cualitativa.

Fuente: Elaboración propia.

Figura 1 Marco conceptual del estudio 

Marcos normativo internacional y nacional

En cuanto a la normativa disponible, los distintos marcos normativos internacionales destacan de forma clara que, en primer lugar, el desarrollo y despliegue de la IAG debe estar supervisado por humanos, y, en segundo lugar, la importancia de una alfabetización ética en el uso de la IA que enfatice valores cruciales como son el respecto a los derechos humanos, la dignidad, la equidad, la no discriminación o la transparencia (Agyemang-Badu et al., 2024). En concreto, las recomendaciones más recientes de la UNESCO sobre el uso de la IA se apoyan en el consenso de Beijing (UNESCO, 2019), en el que se destaca la importancia de la integración ética de la IAG en educación y donde se proponen criterios clave para su implementación. En paralelo, la Unión Europea también ha desarrollado directrices y reglamentos orientados a garantizar el uso legal, ético y robusto de la IA (Comisión Europea, 2021). En el ámbito Español el Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado (INTEF) creó una guía sobre el uso de la IAG en el ámbito educativo, haciendo especial hincapié en abordar la ética y la IAG con el alumnado (INTEF, 2024). Por tanto, estos marcos normativos constituyen los fundamentos sólidos desde los que diseñar programas educativos universitarios que fomenten el uso responsable de estas tecnologías. Además, se encuentra legitimada la inclusión del uso responsable de la IA en los planes de estudio, tanto desde una perspectiva normativa como pedagógica (UNESCO, 2024).

Iniciativas institucionales en universidades españolas

Desde las Universidades Españolas, la Conferencia de Rectores (CRUE, 2024) ha promovido, en los últimos años, talleres y jornadas sobre IAG en educación superior, evidenciando el interés institucional por estas temáticas (CRUE, 2023). En concreto, se han comenzado a implementar iniciativas institucionales para regular el uso ético de la IAG en el ámbito académico. Varias universidades españolas han publicado guías y documentos con declaraciones y recomendaciones para un uso responsable, algunas de ellas, aún en fases incipientes, y que se recogen en la Tabla 1.

Tabla 1 Iniciativa institucional sobre el uso de la IA en Universidades españolas 

Universidad Año Documento/Acción principal Enfoque destacado
Universidad Internacional de La Rioja (UNIR) 2023 Declaración institucional de 10 principios sobre IA Uso justo, seguro y transparente; difusión UNESCO
Universidad Carlos III de Madrid (UC3M) 2023 Guía sobre IA generativa en docencia Uso crítico y responsable por parte del estudiantado
Universidad de Granada (UGR) 2024 Recomendaciones participativas sobre IA Buenas prácticas, riesgos y oportunidades en docencia, investigación y gestión
Universidad de Deusto 2024 Posicionamiento institucional sobre IA Valores humanistas y derechos digitales
Universidad de Cádiz (UCA) 2025 Guía para docentes e investigadores sobre IA generativa Marco ético alineado con legislación europea y nacional
Universidad Pontificia Comillas 2025 Orientaciones prácticas para toda la comunidad universitaria Normas claras sobre citación, uso pedagógico y supervisión humana
Universidad de Málaga (UMA) 2025 Orientaciones prácticas para la comunidad universitaria Guía oficial sobre el uso de la IA en el ámbito académico

Fuente: Elaboración propia.

Estas acciones reflejan el compromiso por parte de las universidades de establecer unas normas de uso y en la regulación ética de la IAG en educación superior. Evidenciando una respuesta normativa creciente, pero aún insuficiente, para consolidar una auténtica cultura institucional sobre el uso ético de la IAG. En concreto, varias universidades han emitido declaraciones sobre el uso de la IAG, pero la implementación de actividades formativas sigue siendo desigual. Por ejemplo, la Universidad de Murcia, en colaboración con EUniWell (Universidad Europea para el Bienestar), han impulsado talleres online dirigidos tanto a estudiantes como a personal docente, centrados en ética, bienestar y competencias digitales (UMU, 2023). También destaca la alfabetización en relación con el uso de la IAG en educación que se lleva a cabo desde la iniciativa #YosigoUGR desde la Universidad de Granada (UGR, 2025). Estas experiencias han sido reconocidas por su capacidad para promover una cultura de integridad y uso responsable de la IAG entre los participantes y representan modelos replicables por otras universidades en el espacio europeo. Mientras que en países europeos se ha comenzado a institucionalizar módulos obligatorios sobre ética digital e IAG responsable (Ansari et al., 2024).

Necesidad formativa ante el avance de la IA en el ámbito universitario

Tal y como se ha mencionado con anterioridad, en España, a pesar de la proliferación normativa y las respuestas institucionales, persiste una preocupante brecha entre el uso extendido de la IAG por parte del estudiantado y la comprensión profunda de las implicaciones éticas y las políticas vigentes (Chen et al., 2025). Es decir, muchos todavía no comprenden las oportunidades y los riesgos asociados a su uso (Chen et al., 2024). Estas carencias pueden tener consecuencias graves, ya que, sin una formación adecuada, el alumnado puede estar usando herramientas de IAG de manera inadecuada, sin entender los riesgos asociados a la desinformación, la delegación acrítica de tareas o el uso de contenidos sesgados y erróneos. Además, a ello se suma una falsa percepción de neutralidad tecnológica, que invisibiliza los marcos ideológicos que modelan los sistemas de IA (Bergström et al., 2024).

Otro aspecto importante a considerar es que la deshonestidad académica sigue siendo una preocupación persistente para las instituciones educativas, amenazando la reputación universitaria, y la aparición de Internet y ahora herramientas de IAG, como ChatGPT, intensifican este desafío (Bin-Nashwan et al., 2023; Cerdà-Navarro et al., 2025; Comas-Forgas & Sureda, 2008). La introducción de la IAG está difuminando las líneas tradicionales entre el uso aceptable de herramientas de apoyo y la deshonestidad académica (Bergström et al., 2024; Premat & Farazouli, 2025). Por su parte, Bergström et al. (2024) desarrollaron una escala para medir percepciones y conductas en torno al uso de una IAG (ChatGPT), e identificaron perfiles de estudiantes que, pese a tener actitudes positivas sobre su educación, no conocían las implicaciones éticas básicas. En concreto, encontraron que la percepción estudiantil sobre la gravedad de diferentes usos de la IAG varía significativamente: mientras que copiar respuestas en un examen con IAG se considera mayoritariamente inaceptable, utilizarla para mejorar la redacción o generar ideas iniciales recibe una valoración mucho más laxa (Bergström et al., 2024). Esta ambigüedad percibida resalta la necesidad de directrices claras y de programas formativos que se enfoquen tanto en el uso responsable de la IAG como en el fomento de la integridad académica, basados en valores como el respeto, el valor de la autoría o la honestidad (Chen et al., 2024; Vallespir-Adillón et al., 2024).

También, estudios recientes muestran que la percepción de riesgo asociada al uso de estas herramientas influye en la frecuencia y la intención de su uso por parte de estudiantes. Aquellos con una mayor percepción de la gravedad de la deshonestidad académica presentan también un mayor reconocimiento de los riesgos del uso de ChatGPT, lo que se traduce en un uso más limitado de la herramienta. Estos hallazgos señalan la importancia de integrar la IAG en la educación superior de manera ética y reflexiva, considerando no solo sus ventajas para el aprendizaje personalizado y el acceso a la información, sino también, enseñando sobre los riesgos asociados, como la generación de información inexacta y el plagio (Ortiz & Blahopoulou, 2025).

Además, la demanda de formación específica sobre el uso responsable de herramientas de IAG por parte del alumnado es evidente y urgente. En una investigación en la que participaron más de 700 estudiantes de diversos grados de la Universidad de las Islas Baleares, se confirmó que el interés por recibir este tipo de formación es significativo (Blahopoulou & Ortiz, 2024). Concretamente, un 39 % de los participantes expresaron su disposición a inscribirse en un taller enfocado en el uso ético de herramientas de IAG. Estos resultados reflejan una necesidad y motivación entre el estudiantado por adquirir competencias que les permitan manejar la IAG de manera ética y responsable, por lo que se justifica la implementación de talleres formativos adaptados a esta demanda.

Diseño del taller

El taller que aquí se presenta se desarrolló de forma presencial, teniendo en cuenta las necesidades específicas de sus participantes. Según la literatura, los talleres sobre ética e IAG deben incorporar cuatro características clave - interactividad, contextualización, co-construcción del conocimiento y evaluación formativa -, recomendaciones que fueron tenidas en cuenta en el diseño y desarrollo de la actividad (CRUE, 2023; Fernández-Mármol, 2024). En concreto, el taller fue diseñado y realizado por miembros del equipo de investigación en el marco de un Proyecto de Innovación y Mejora de la Calidad Docente 2024-2026 de la Universidad de las Islas Baleares, titulado "Una propuesta para integrar la Inteligencia Artificial en la universidad, fomentar un uso ético y responsable, y potenciar la futura empleabilidad del alumnado" (PID242647), financiado por el Instituto de Investigación e Innovación Educativa (IRIE). La metodología de enseñanza era mixta, incluyendo presentación de datos y definiciones, así como, la inclusión de ejercicios prácticos tanto a nivel individual, como por parejas y en grupos. Además, se incorporaron elementos de gamificación para fomentar la participación activa y el compromiso del alumnado.

La mayoría de los trabajos sobre intervenciones ofrecen escasa información respecto a su contenido. Así, con el objetivo de garantizar una mayor transparencia del trabajo realizado, favorecer la replicación de este y permitir una evaluación más clara de los resultados, a continuación, se presentan tanto los temas tratados en la formación como la metodología de enseñanza seguidas.

Objetivos del taller

El taller abordó los siguientes objetivos: 1) mostrar que es la IAG, qué la caracteriza y qué herramientas existen en la actualidad; 2) promover la reflexión sobre como la IAG transformará el aprendizaje universitario y la futura vida laboral; 3) informar sobre las oportunidades y los riesgos asociados al uso de la IAG; 4) sensibilizar al alumnado sobre la importancia de un uso responsable y ético; 5) fomentar la integridad académica del alumnado.

Contenidos y estructura del taller

El taller constaba de seis partes en las que se abordaron diferentes contenidos a través de diversas metodologías docentes. La Tabla 2 resume la estructura y dinámica del taller.

Tabla 2 Estructura y dinámica del taller “Uso responsable de la IA” 

Parte del taller Contenido principal Dinámicas
1. Introducción Presentación del índice de contenidos. Visualización y análisis de un vídeo publicitario sobre IA. Debate guiado a partir del vídeo; preguntas de reflexión grupal.
2. Conceptos clave Definición de IA e IAG; ejemplos de herramientas como ChatGPT, Claude o Gemini. Exposición breve y encuesta de uso de la IA en directo mediante la aplicación Mentimeter.
3. Aplicación de la teoría a la práctica Preguntas clave sobre el impacto de la IA en el aprendizaje y la vida laboral. Trabajo en grupos pequeños y puesta en común.
4. Oportunidades y riesgos de la IA Identificación de oportunidades y riesgos como la deshonestidad académica a partir de afirmaciones. Dinámica de votación (cartulinas rojo/verde) y diálogo argumentado.
5. Conclusiones Elaboración de normas de uso de IA pensadas por el propio alumnado. Trabajo por parejas y discusión grupal.
6. Cierre Recomendaciones finales. Exposición final por parte de la formadora.

Fuente: Elaboración propia.

Primera parte - Introducción

El taller “Uso responsable de la Inteligencia Artificial” comienza con una introducción de los contenidos que se abordarán a lo largo de la sesión: 1) ¿Qué es la IA? 2) Reflexiones sobre el presente y el futuro con IA. 3) Oportunidades y riesgos de la IA. 4) Principales conclusiones. Para comenzar el taller, se visualizó un video publicitario. En este anuncio, vemos algo poco habitual: el propio director aparece dentro del mismo anuncio reconociendo que la primera versión fue generada por una IA. A pesar de su calidad técnica, el director comenta que no está satisfecho con el resultado. A medida que avanza el video, va señalando aspectos que le parecen poco auténticos o genéricos, como la falta de diversidad en las personas que aparecen o la manera superficial en la que se transmite el mensaje. Entonces, decide intervenir y hacer cambios: elige actores más diversos, ajusta el guion y modifica escenas. En definitiva, personaliza el contenido para que sea más real, más humano y representativo. Este video sirve como punto de partida para reflexionar sobre el papel de la IA en la creación de contenidos, pero también sobre el valor de la intervención humana: el juicio crítico, la creatividad y la capacidad de contextualizar (ver vídeo: https://www.youtube.com/watch?v=VpJ79WLl0JA).

Para fomentar un análisis en grupo y estimular la discusión, se hicieron una serie de preguntas a la clase sobre el video. Estas preguntas tenían como objetivo romper el hielo y profundizar en su contenido. Estas preguntas buscan que los participantes reflexionen y discutan sobre el mensaje que transmite el video, promoviendo un debate más profundo y una comprensión más completa de la relación entre la IA y la intervención humana en el trabajo académico.

Finalmente, se utiliza este anuncio como un símil con el trabajo académico. Al igual que en el anuncio, no es lo mismo usar la IAG como una herramienta para la generación de ideas, con la que ayudar o inspirar, que dejarla hacer todo el trabajo. En el ámbito académico, es fundamental mantener una participación activa, personal y reflexiva por ejemplo en la producción de textos. El propósito de esta sección es destacar que la IAG puede actuar como un recurso de apoyo, pero el análisis, la expresión y la responsabilidad deben continuar siendo ejercidos por los seres humanos.

Segunda parte - Conceptos clave

En este parte se presentaba una definición general de IA, con especial énfasis en la IAG, y se explican conceptos clave como LLM (Large Language Model) y GPT (Generative Pre-trained Transformer). Se introducen también otras herramientas de IAG además de ChatGPT, como Claude o Gemini. Esta sección incluye un breve repaso histórico de los avances tecnológicos, con el mensaje de que los seres humanos han sabido adaptarse y beneficiarse de cada revolución tecnológica. La parte final de esta sección consistía en una encuesta anónima en vivo, realizada a través de Mentimeter, en la que se preguntaba al alumnado para qué utiliza la IAG. Los resultados se proyectan y se comentan de forma general con el grupo.

Tercera parte - Reflexión grupal: Aplicación de la teoría a la práctica

En esta sección, el alumnado se organizaba en grupos de cuatro personas para reflexionar sobre dos preguntas clave: “¿Cómo está cambiando y cambiará la IA nuestra forma de aprender?” y “¿Cómo está afectando y afectará la IA a mi futuro trabajo?”. Tras un tiempo de trabajo en grupo, se ponen en común los resultados. Cada grupo tiene, además, la posibilidad de compartir oralmente sus conclusiones con la clase y la formadora.

Cuarta parte - Oportunidades y Riesgos de la IA

A continuación, se realizó una dinámica basada en la gamificación, en la que el alumnado debía localizar siete sobres numerados, previamente escondidos en diferentes puntos del aula. La colocación oculta de los sobres funcionó como una metáfora, simbolizando cómo los riesgos, mitos o percepciones erróneas en torno al uso de la IAG en el ámbito educativo a menudo permanecen “escondidos” o poco visibles. Una vez localizados los sobres, una persona de cada grupo leía en voz alta la afirmación contenida en su interior. Estas frases reflejaban distintos puntos de vista sobre el uso de la IAG en el ámbito educativo, incluyendo tanto oportunidades (por ejemplo, “la IA puede ayudarme a redactar mejor y corregir mis faltas de ortografía” o “la IA puede ayudarme a comprender mejor las asignaturas y resolver mis dudas”), como riesgos potenciales (por ejemplo, “la IA puede generar injusticas entre el alumnado”). Además, se plantearon afirmaciones vinculadas a otros temas relevantes, como la pérdida de creatividad, el fomento del plagio, la privacidad y la protección de datos, así como beneficios asociados al ahorro de tiempo y la automatización de tareas repetitivas.

Inmediatamente después de la lectura, el resto de la clase debía votar si consideraba que la afirmación era verdadera o falsa, levantando cartulinas verdes (si creían que era verdadera) o rojas (si creían que era falsa). Estas cartulinas se repartieron antes de empezar la actividad. Tras la votación, se compartía información relevante relacionada con el contenido del sobre y se abría un espacio al diálogo en el que el alumnado explicaba los motivos de su elección y reflexionaba colectivamente sobre si la afirmación planteaba una oportunidad o un riesgo en el uso de la IAG. Con esta dinámica se pretendía desmitificar ideas como que la IAG siempre ofrece datos verídicos y contrastados (alucinaciones) y sensibilizar sobre el peligro de que el uso de IAG potencie el plagio.

Quinta parte - Conclusiones

En este punto del taller se proponía una dinámica que fomentaba el pensamiento crítico del alumnado. En parejas, debían responder a la siguiente pregunta: “Si tuvieras que definir una política de uso de IAG en la universidad, ¿cuáles serían las tres reglas esenciales para garantizar un uso seguro, ético y justo?”. Esta actividad buscaba estimular la reflexión en torno a los beneficios, riesgos y complejidades del uso de la IAG en el entorno académico.

Sexta parte - Cierre

Para finalizar el taller, se compartían tres recomendaciones finales:

  • El ser humano es el responsable del uso de la IAG (Arnestad, et al., 2024)

  • La IAG es una aliada que acompaña en el aprendizaje y el trabajo (Zhang, 2025).

  • “Si usas IA, hazlo bien” (Khyati Sundaram, CEO de Applied)

Al final del taller se le proporcionó acceso al alumnado (a través de la plataforma online de la asignatura en cuestión) a un documento que contenía la presentación del taller con todos los conceptos trabajados durante la sesión.

Implementación del taller

Procedimiento

Durante el curso académico 2024/25 se realizaron cuatro talleres en la Universidad de las Islas Baleares, con la misma estructura desarrollada en el apartado anterior. En estos talleres participaron estudiantes de distintos títulos universitarios. Cada taller tenía una duración de dos horas y se llevó a cabo durante una sesión de prácticas de una asignatura concreta. La actividad se llevó a cabo en las asignaturas donde las investigadoras principales del proyecto tenían docencia, en concreto, en los grados de Trabajo Social, Relaciones Laborales, Dirección Hotelera y Derecho de la Universidad de las Islas Baleares. Al final de cada taller el alumnado contestó el cuestionario de evaluación para valorar las características del taller de forma voluntaria y anónima. En todos los casos, las personas participantes fueron tratadas respetando estrictamente las normas éticas al uso para realizar una investigación. Este trabajo cumple con los principios éticos que propone APA en relación con la investigación con seres humanos. El estudio recibió la aprobación ética del Comité de Ética de la Investigación de la Universidad de las Islas Baleares (CER), con el número de aprobación 353CER23, el 21 de septiembre de 2023, antes de la recolección de datos, y todos los participantes dieron su consentimiento informado antes de participar en el estudio.

Participantes

En los cuatro talleres participaron un total de 140 estudiantes, aproximadamente 30 por grupo. Al finalizar la actividad, se recopilaron datos sociodemográficos, incluyendo el género, la titulación y el curso más alto en el que se encontraban matriculados. La Tabla 3, recoge los datos sociodemográficos de los participantes.

Tabla 3 Descripción de la muestra (n = 140) 

Frecuencia Porcentaje
Género
Masculino 32 27.4%
Femenino 85 72.6%
Sin respuesta 23 16.4%
Estudios
Trabajo social 59 42.1%
Dirección hotelera 36 25.7%
Relaciones laborales 24 17.1%
Derecho 18 12.9%
Turismo 1 0.7%
Otros 2 1.4%
Curso académico
Primero 81 57.9%
Tercero 53 37.9%
Cuarto 4 2.9%
Quinto 2 1.4%

Fuente: Elaboración propia.

Instrumentos para la recogida de datos

El cuestionario empleado para la evaluación del taller fue elaborado por miembros del equipo de investigación y está constituido por catorce ítems. Los/as participantes podían valorar distintas características de la formación (realización de actividades, relevancia de los contenidos, utilidad del material de apoyo, satisfacción general, etc.) mediante una escala tipo Likert de cinco valores siendo 1 (nada de acuerdo) a 5 (totalmente de acuerdo). Un ejemplo de ítem es: “La presentación y los objetivos del taller fueron claros desde el inicio”. Esta escala, ya ha sido utilizada previamente por Blahopoulou et al. (2024), demostrando una alta fiabilidad interna en este estudio (α = .92; ω = .93).

El estudiantado respondió también a dos preguntas, con el objetivo de conocer los intereses formativos del alumnado: ¿Tienes pensado hacer algún curso sobre IAG?, ¿Qué te gustaría aprender en otro taller sobre IAG?

Análisis de datos

A partir del procedimiento descrito recogieron datos sobre la valoración del taller de parte de los participantes. En primer lugar, se analizaron las métricas descriptivas de cada uno de los ítems. En segundo lugar, se creó una variable que representaba la media de todos los ítems de evaluación del taller, para la cual también se calculó la media y la desviación estándar. Por último, se analizaron las frecuencias para evaluar cuántas personas habían valorado con la puntuación máxima cada uno de los ítems de la escala que evaluaba el taller.

Resultados

Evaluación de la satisfacción del alumnado con el taller

En general, el análisis de los resultados cuantitativos muestra que el alumnado valoró muy positivamente el taller (Tabla 4 y Figura 2).

Tabla 4 Valoración del taller por parte del alumnado 

Ítems de satisfacción con el taller Media Desviación típica
1. La presentación y los objetivos del taller fueron claros desde el inicio. 4.80 0.53
2. El material de apoyo fue útil y bien estructurado. 4.69 0.59
3. Los contenidos fueron presentados con claridad. 4.81 0.46
4. El contenido del taller ha sido relevante y útil para mi desarrollo personal. 4.2 0.92
5. El contenido del taller ha sido relevante y útil para mi desarrollo profesional. 4.21 0.90
6. El taller y sus actividades han sido preparados y planificados adecuadamente. 4.79 0.46
7. El taller me ha ayudado a entender mejor la IA y cómo afecta ésta a mi vida personal. 4.24 0.93
8. El taller me ha ayudado a entender mejor la IA y cómo afecta ésta a mi vida profesional. 4.29 0.91
9. El taller fomentó la participación activa y el intercambio de ideas. 4.63 0.72
10. Me siento más preparado/a para utilizar la IA de manera correcta y responsable después de este taller. 4.1 0.93
11. La duración del taller fue adecuada para cubrir los temas presentados. 4.63 0.62
12. En general, estoy satisfecho/a con el taller. 4.65 0.68
13. El taller ha cumplido con mis expectativas. 4.54 0.77
14. Recomendaría este taller a otros/as estudiantes. 4.61 0.72
Satisfacción total (media de los ítems) 4.51 0.52

Fuente: Elaboración propia.

En concreto, el ítem que obtuvo la puntuación más alta hace referencia a la claridad con la que fueron explicados los contenidos (M = 4. 81; SD = 0.53). El alumnado ha evaluado con puntuaciones muy similares, los ítems 1, 2 y 6, que hacen referencia a que desde el inicio se presentaron los objetivos del taller (M = 4.80, SD = 0.50), la preparación y planificación de las actividades (M = 4.79, SD = 0.46), y la utilidad del material de apoyo (M = 4.69, SD = 0.59). Además, la gran mayoría mostraron una alta satisfacción con el taller a nivel general (M= 4.51; SD= 0.52) y también declararon recomendarlo a otros/as estudiantes (M= 4.61; SD= 0.80).

Fuente: Elaboración propia.

Figura 2 Valoración del taller por parte del alumnado. 

Análisis del interés en formación futura sobre Inteligencia Artificial

Dado el volumen y la naturaleza abierta de las respuestas, en esta sección no se presenta un análisis exhaustivo caso por caso, sino una síntesis temática que permite ilustrar las ideas más recurrentes expresadas por el alumnado. Para ello, se empleó una técnica de análisis asistido, en la que las respuestas fueron introducidas en ChatGPT mediante el siguiente prompt: “Resumir las respuestas en temas o categorías principales.” Siguiendo el enfoque metodológico propuesto por Tight (2015), el objetivo del análisis fue identificar palabras clave y temas centrales con el fin de revelar diversas perspectivas estudiantiles. En lugar de aplicar categorías predefinidas, este enfoque fenomenográfico permite que los temas emerjan directamente de los datos, reflejando la variedad de puntos de vista. Esta estrategia, alineada con enfoques exploratorios y de categorización inicial en estudios cualitativos (Braun & Clarke, 2006), permitió agrupar los comentarios en torno a los temas más representativos, lo cual facilita su interpretación y presentación. Cabe señalar que este procedimiento constituye una primera aproximación exploratoria al contenido cualitativo, útil para identificar patrones generales, aunque no sustituye un análisis cualitativo en profundidad. A continuación, se ofrece un resumen organizado por categorías emergentes. A continuación, se ofrece un resumen organizado por categorías emergentes. Las reflexiones de los estudiantes fueron analizadas mediante un proceso de categorización temática orientado a identificar las diferentes formas cualitativas en que comprenden la relación entre herramientas de IA como ChatGPT y la integridad académica.

En respuesta a la primera pregunta, ¿Tienes pensado hacer algún curso sobre IA?, se recogieron 140 respuestas: 106 personas (75,7%) indicaron que no tenían planes de realizar un curso sobre IA, mientras que 34 (24,3%) expresaron su intención de hacerlo en el futuro. Esta categorización básica, de tipo cuantitativo-descriptivo, se empleó únicamente como una primera aproximación para ilustrar la tendencia general del alumnado respecto a su interés formativo en IA.

Respecto a la segunda pregunta “¿Qué te gustaría aprender en otro taller sobre IA?”. Se recogieron 109 respuestas cuyas ideas se resumen en la Tabla 5.

Tabla 5 Categorías de respuesta a la pregunta “¿Qué te gustaría aprender en otro taller sobre IA?”. 

Categorías Ejemplos de respuestas
1. Cómo usar mejor la IA • Cómo preguntar mejor a la IA
• Cómo estructurar preguntas para obtener mejores respuestas
• Técnicas para aprovechar la IA académica y profesionalmente
• Usarla de manera más beneficiosa, adecuada y correcta
• Aprender a utilizarla correctamente en el día a día y en los estudios
2. Uso ético y responsable • Uso ético de la IA
• Protección de datos personales
• Impacto medioambiental y psicológico de la IA
• Evitar la dependencia de la IA
3. Fiabilidad y verificación • Cómo saber si una respuesta de IA es verdadera o confiable
• Contrastar y comprobar información
• Detección de errores en las respuestas de IA
4. Funcionamiento interno de la IA • Cómo procesa la información
• Cómo fue creada y su evolución
• Automatización de respuestas
• Manejo de datos
5. Herramientas y plataformas • Otras IAs además de ChatGPT
• Herramientas emergentes como Suno para crear videos
• Plataformas específicas según cada necesidad
6. Aplicaciones específicas • Aplicaciones en trabajo social
• Uso académico
• Organización de estudios
• Futuro uso profesional
7. Creatividad y expansión • Creación de imágenes
• Diversos usos menos conocidos
• Futuros distópicos o utópicos relacionados con IA

Fuente: Elaboración propia.

Discusión

Distintos centros educativos y de investigación han publicado guías institucionales con recomendaciones de uso de la IA para educación, pero aún existe una brecha entre la normativa disponible y la alfabetización ética entre la comunidad universitaria (Chen et al., 2024, 2025). Este trabajo responde a la necesidad creciente de formar al alumnado universitario en el uso responsable de la IAG, en un contexto académico y profesional cada vez más influido por esta tecnología (Abdelwahab et al., 2023). Tal y como han señalado investigaciones recientes, el desarrollo de competencias digitales y éticas vinculadas a la IA resulta esencial para preparar a las futuras generaciones ante los retos de la era digital (Luckin et al., 2022; Holmes et al., 2019).

Con este propósito, el estudio tuvo tres objetivos principales: (1) presentar el diseño de un taller sobre uso responsable de la IA dirigido al alumnado universitario; (2) evaluar la satisfacción de los participantes con dicha formación; y (3) analizar el interés por recibir formación futura sobre IA. En relación con el primer objetivo, el taller se diseñó con un enfoque aplicado y participativo, combinando contenidos teóricos con dinámicas prácticas como debates, encuestas en directo o actividades grupales. Esta estructura permitió abordar tanto los aspectos técnicos como los dilemas éticos asociados a la IA, promoviendo una reflexión crítica sobre su impacto en el aprendizaje y en el futuro profesional del alumnado. La descripción detallada del taller constituye una aportación relevante, ya que muchas intervenciones previas no explicitan sus contenidos ni metodologías, dificultando su replicabilidad.

Respecto al segundo objetivo, los resultados muestran una satisfacción muy alta por parte del alumnado, con puntuaciones medias cercanas al valor máximo en todos los ítems evaluados. Por una parte, valoran positivamente la claridad de los objetivos y la presentación de los contenidos, la utilidad y la estructura del material de apoyo y las actividades realizadas. La gran mayoría considera que el taller fomentó la participación y el intercambio de ideas. También se valora positivamente la duración del taller y los resultados muestran una alta satisfacción general. La gran mayoría recomendaría el taller a otros/as estudiantes.

En cuanto al tercer objetivo, el análisis cualitativo reveló un interés creciente por aprender a utilizar mejor la IAG, especialmente desde una perspectiva ética, práctica y adaptada a cada ámbito profesional. A pesar de que una parte del alumnado no planea formarse aún en IAG, muchos identifican competencias clave para la era digital como el pensamiento crítico, la creatividad, la responsabilidad y la capacidad de adaptación.

Implicaciones teóricas y practicas

El presente trabajo aporta implicaciones relevantes para la educación superior y la alfabetización ética en IAG. En primer lugar, destaca la necesidad de desarrollar actividades que integren la alfabetización digital crítica y la formación ética como dimensiones inseparables ante la expansión de la IAG en contextos académicos (Luckin et al., 2022; Holmes et al., 2019). La investigación apoya la idea de que la existencia de normativas institucionales no garantiza por sí sola una comprensión profunda ni un uso ético de la tecnología por parte del alumnado, en línea con los hallazgos de Bergström et al. (2024) y Chen et al. (2024, 2025). Además, los resultados empíricos obtenidos refuerzan teorías que subrayan la eficacia de las intervenciones participativas y reflexivas para fomentar el pensamiento crítico y la integridad académica (Usher & Barak, 2024). Así, este estudio contribuye a la literatura al mostrar que la integración activa de la ética en los procesos de alfabetización digital es clave para afrontar los desafíos de la IAG y promover una cultura institucional basada en la responsabilidad y la reflexión.

En cuanto a las implicaciones prácticas, la valoración positiva del taller por parte del alumnado respalda su utilidad como vía formativa para fomentar un uso responsable de la IA en la universidad. Estos resultados invitan a ampliar su aplicación a otros grados, programas de posgrado e incluso al conjunto del alumnado universitario. No obstante, su implementación sostenible exige superar ciertos retos, como asegurar su integración en los planes de estudio. En este caso, el hecho de impartir el taller en horario lectivo facilitó una participación elevada, lo que indica que será necesario encontrar fórmulas que permitan su incorporación efectiva en la estructura curricular. En este sentido, se propone su integración transversal como parte de la formación en ciudadanía digital (Ansari et al., 2024).

El taller fue percibido como dinámico, informativo y necesario, y el alumnado expresó su agradecimiento por este tipo de iniciativas. Las respuestas cualitativas también mostraron interés por aprender a usar la IA de manera ética, crítica y adaptada a contextos profesionales, lo que refuerza la necesidad de diseñar formaciones que combinen aspectos técnicos con marcos éticos y reflexivos.

Más allá de los talleres para el estudiantado, se requieren estrategias institucionales más amplias. Estas deberían incluir acciones paralelas dirigidas al profesorado y otros miembros de la comunidad universitaria, de modo que exista coherencia entre las expectativas formativas y las prácticas docentes. Muchos docentes expresan incertidumbre respecto al uso de herramientas de IAG y a los marcos institucionales vigentes, lo que limita su capacidad de orientación (Chen et al., 2025). Diseñar formaciones específicas para el profesorado ayudaría a alinear los valores promovidos con las prácticas reales.

Además, los talleres pueden convertirse en espacios de diálogo sobre normas, valores y dilemas relacionados con la IAG. Para que tengan un impacto duradero, deben formar parte de una estrategia institucional coherente que incluya directrices claras y prácticas sobre el uso de la IAG en el contexto académico. La confianza institucional es fundamental: cuando las normas son vagas o ambiguas, el alumnado puede explorar zonas grises o justificar usos inapropiados (Cotton, 2023). Por tanto, el desarrollo e implementación de directrices claras debe ir acompañado de su difusión efectiva y de orientaciones prácticas comprensibles para toda la comunidad universitaria. En este proceso, los talleres pueden desempeñar un papel clave no solo como espacios de formación, sino también como vehículos para la apropiación y diseminación de dichas directrices.

Limitaciones y futuras investigaciones

Este trabajo presenta varias limitaciones que deben considerarse al interpretar sus resultados. La muestra se limita a estudiantes de una única universidad, lo que restringe la generalización de los hallazgos. Además, la evaluación de la intervención se basa en la autopercepción del alumnado, sin un grupo de control ni una medición a largo plazo de los cambios en el comportamiento. Asimismo, el enfoque cualitativo empleado para analizar el interés formativo puede introducir sesgos interpretativos. Futuros estudios deberán analizar los efectos del taller no solo en el uso ético y responsable, sino también en la prevalencia de conductas deshonestas como el plagio en el campus universitario, tanto a corto como a largo plazo (Muñoz-Cantero et al., 2021). Desde una perspectiva metodológica, la evaluación de los talleres puede basarse en modelos de cambio actitudinal y aprendizaje transformativo. Estudios previos han empleado pretest y postest, análisis cualitativos de portafolios reflexivos y escalas de autoeficacia ética para valorar su impacto (Bergström et al., 2024). Experiencias formativas llevadas a cabo en el ámbito universitario muestran que intervenciones breves pero intensivas sobre el uso responsable de la IA pueden modificar no solo conocimientos, sino también actitudes y prácticas sostenidas en el tiempo (Villajos & Soriano, 2024). Por tanto, futuras investigaciones deben abordar estos aspectos para fortalecer la validez y el alcance de las conclusiones.

Conclusiones

Desde asistentes virtuales como ChatGPT hasta sistemas de análisis de datos y personalización del aprendizaje, la IA está redefiniendo las dinámicas académicas. A medida que el alumnado adopte herramientas de IA, estas tecnologías transformarán la forma en que acceden a la información, realizan tareas y se resuelven problemas. Sin embargo, la aceptación de una herramienta no implica necesariamente su uso responsable. El alumnado se encuentra ante una situación donde, aunque el uso de la IA es cada vez más común, aún no existe una formación lo suficientemente clara. Sin una formación adecuada, el alumnado puede caer en la tentación de usar la IA para realizar tareas que van en contra de la integridad académica, ya sea por ignorancia de las normas o por una falta de reflexión ética sobre el impacto de sus acciones. En este contexto, la necesidad de formaciones específicas en IA se vuelve crucial para preparar a los estudiantes para aprovechar estas herramientas de manera ética y efectiva.

Por todas estas razones, es esencial que las universidades implementen talleres de formación en IA que aborden estos puntos clave. Estos talleres deben proporcionar al alumnado una comprensión integral de las tecnologías de IA, sus oportunidades y riesgos, y promover una reflexión ética sobre su uso, fomentando la integridad académica. La formación en IA debe ser vista no solo como una herramienta pedagógica, sino como una preparación esencial para el futuro profesional del alumnado, garantizando que puedan desenvolverse con responsabilidad en el entorno académico y laboral que la IA está configurando. Los resultados obtenidos respaldan la necesidad de que las universidades implementen medidas como talleres interactivos y evaluados para promover el uso ético y responsable de la IA, contribuyendo así a una formación más integral y adaptada a los desafíos del entorno digital contemporáneo.

Agradecimientos

El presente texto se enmarca en el Proyecto de Innovación y Mejora de la Calidad Docente 2024-2026 de la Universidad de las Islas Baleares, titulado "Una propuesta para integrar la Inteligencia Artificial en la universidad, fomentar un uso ético y responsable, y potenciar la futura empleabilidad del alumnado" (PID242647), financiado por el Instituto de Investigación e Innovación Educativa (IRIE) y en el Proyecto “Modelización y predicción de la experiencia del consumidor de servicios turísticos mediante inteligencia artificial (MP-ECSTIA)” ayuda para el fomento de proyectos de investigación en Ciencias Sociales y Jurídicas, Humanidades, Arquitectura y Bellas Artes (2023) (B3) de la Universidad de Málaga (B3-2023/21).

Referencias

Abdelwahab, H. R., Rauf, A., & Chen, D. (2023). Business students’ perceptions of Dutch higher educational institutions in preparing them for artificial intelligence work environments. Industry and Higher Education, 37(1), 22-34. https://doi.org/10.1177/09504222221087614Links ]

Adeshola, I., & Adepoju, A. P. (2023). The opportunities and challenges of ChatGPT in education. Interactive Learning Environments, 32(10), 6159-6172. https://doi.org/10.1080/10494820.2023.2253858Links ]

Agyemang-Badu, S., Tibbitts, F., & Phillips, S. (2024). AI human rights literacy. Current Issues in Comparative Education, 26(2), 94-111. https://doi.org/10.52214/cice.v26i2.13139Links ]

Ansari, A. N., Ahmad, S., & Bhutta, S. M. (2024). Mapping the global evidence around the use of ChatGPT in higher education: A systematic scoping review. Education and Information Technologies, 29(9), 11281-11321. https://doi.org/10.1007/s10639-023-12223-4Links ]

Arnestad, M. N., Meyers, S., Gray, K., & Bigman, Y. E. (2024). The existence of manual mode increases human blame for AI mistakes. Cognition, 252. https://doi.org/10.1016/j.cognition.2024.105931Links ]

Bendixen, C., Premat, C., Gunnerstad, A., & Farazouli, A. (2024). Preventing plagiarism Handbook for Stockholm University staff (2nd ed.). Stockholm University. https://doi.org/10.17045/sthlmuni.27826344.v1Links ]

Bergström, J., Repo, V., & Tuunainen, V. (2024). Challenges to Academic Integrity from New Tools-A Survey of Students’ Perceptions and Behaviors of Employing ChatGPT. International Conference on System Sciences. Hawaii International Conference on System Sciences, Hawaii. https://doi.org/10.24251/HICSS.2024.010Links ]

Bin-Nashwan, S. A., Sadallah, M., & Bouteraa, M. (2023). Use of ChatGPT in academia: Academic integrity hangs in the balance. Technology in Society, 75, 1-11. https://doi.org/10.1016/j.techsoc.2023.102370Links ]

Blahopoulou, J., & Ortiz-Bonnin, S. (2024). ¿Para qué usa mi alumnado ChatGPT?: el uso de herramientas de inteligencia artificial en el ámbito académico. In F. M. Juana, G. C. Rocío, & V. F. Lilian (Eds.), Estrategias para la transferencia de conocimiento y la innovación educativa: usos y aplicaciones de tecnologías innovadoras en la docencia (pp. 882-897). Dykinson. [ Links ]

Blahopoulou, J., & Ortiz-Bonnin, S. (2025). Student perceptions of ChatGPT: Benefits, costs, and attitudinal differences between users and non-users toward AI integration in higher education. Education and Information Technologies, 1-24. https://doi.org/10.1007/s10639-025-13575-9Links ]

Braun, V., & Clarke, V. (2006). Using thematic analysis in psychology. Qualitative Research in Psychology, 3(2), 77-101. https://doi.org/10.1191/1478088706qp063oaLinks ]

Cerdà-Navarro, A., Vallespir-Adillón, M., Morey-López, M., & Sureda-Negre, J. (2025). Faculty influences on academic integrity at postgraduate level-views from Spanish universities. Práxis Educativa, 20, 1-20. https://doi.org/10.5212/praxeduc.v.20.24495.010Links ]

Chen, K., Tallant, A. C., & Selig, I. (2024). Exploring generative AI literacy in higher education: Student adoption, interaction, evaluation and ethical perceptions. Information and Learning Sciences, 126(1/2), 132-148. https://doi.org/10.1108/ILS-10-2023-0160Links ]

Chen, K., Tallant, A. C., & Selig, I. (2025). Exploring generative AI literacy in higher education: Student adoption, interaction, evaluation and ethical perceptions. Information and Learning Sciences, 126(1/2), 132-148. https://doi.org/10.1108/ILS-10-2023-0160Links ]

Comas, R., & Sureda, J. (2008). Academic Cyberplagiarism: Tracing the causes to reach solutions. Digithum, 0(10). https://doi.org/10.7238/d.v0i10.505Links ]

Comisión Europea. (2021). Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión. Comisión Europea. https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0008.02/DOC_1&format=PDFLinks ]

Cotton, D. R. E., Peter, A., Cotton, D. R. E., & Shipway, J. R. (2024). Chatting and Cheating: Ensuring Academic Integrity in the Era of ChatGPT. Innovations in Education and Teaching International, 61(2), 228-239. https://doi.org/10.1080/14703297.2023.2190148Links ]

CRUE. (2023, November 21). CRUE celebra sus jornadas sobre digitalización universitaria en la Universidad de Zaragoza. https://www.crue.org/2023/11/crue-jornadas-digitalizacion/Links ]

CRUE. (2024). La inteligencia artificial generativa en el sistema universitario español: Retos y oportunidades. https://www.crue.org/wp-content/uploads/2024/03/Crue-Digitalizacion_IA-Generativa.pdfLinks ]

Cruz-Argudo, F., García-Varea, I., Martínez-Carrascal, J. A., Ruiz-Martínez, A., Ruiz-Martínez, P. M., Sánchez-Campos, A., & Turró-Ribalta, C. (2023). La inteligencia artificial generativa en la docencia universitaria: Oportunidades, desafíos y recomendaciones. Universidades Españolas. https://www.crue.org/2023/11/crue-jornadas-digitalizacion/Links ]

Farrokhnia, M., Banihashem, S. K., Noroozi, O., & Wals, A. (2023). A SWOT analysis of ChatGPT: Implications for educational practice and research. Innovations in Education and Teaching International, 61(3), 460-474. https://doi.org/10.1080/14703297.2023.2195846Links ]

Fernández-Marmol, K. (2024). Docencia en la era de la Inteligencia Artificial: Enfoques prácticos para Docentes. Universidad de Burgos. https://virtuva.uva.es/site/wp-content/uploads/2024/07/AbellaDocencia_era_inteligencia_artificial_enfoques_practicos_docentes.pdf.Links ]

Holmes, W., Bialik, M., & Fadel, C. (2019). Artificial intelligence in education: Promises and implications for teaching and learning. The Center for Curriculum Redesign. https://hdl.handle.net/20.500.12424/4276068Links ]

INTEF. (2024). Guía sobre el uso de la IA en el ámbito educativo. Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado (INTEF). https://code.intef.es/wp-content/uploads/2024/07/Gu%C3%ADa-sobre-el-uso-de-la-IA-en-el-%C3%A1mbito-educativo-INTEF_2024.pdfLinks ]

Luckin, R., Cukurova, M., Kent, C., & du Boulay, B. (2022). Empowering educators to be AI-ready. Computers and Education: Artificial Intelligence, 3, p. 1-11. https://doi.org/10.1016/j.caeai.2022.100076Links ]

Lopes, C., Forgas, R. C., & Cerdà-Navarro, A. (2024). A PhD dissertation in education written by artificial intelligence?. Revista Brasileira de Educação, 29, p. 1-21. https://doi.org/10.1590/s1413-24782024290066Links ]

Muñoz-Cantero, J. M. M., Bellón, E. M. E., & Crego, M. C. P. (2021). Medidas para combatir el plagio en los procesos de aprendizaje. Educación XX1, 24(2), 97-119. https://doi.org/10.5944/educxx1.28341Links ]

Ortiz-Bonnin, S., & Blahopoulou, J. (2025). Chat or cheat? Academic dishonesty, risk perceptions, and ChatGPT usage in higher education students. Social Psychology of Education, 28(1), 1-21. https://doi.org/10.1007/s11218-025-10080-2Links ]

Premat, C., & Farazouli, A. (2025). Academic Integrity vs. Artificial Intelligence: A tale of two AIs. Práxis Educativa, 20, 1-12. https://doi.org/10.5212/praxeduc.v.20.24871.016Links ]

Sundaram, K. (2024, 22 october). A CEO shares how she spots AI in job applications and how it impacts the decision to hire an applicant. Business Insider. https://www.businessinsider.es/desarrollo-profesional/soy-ceo-empresa-seleccion-personal-detecto-alguien-usa-ia-candidatura-1413420Links ]

Tight, M. (2015). Phenomenography: The development and application of an innovative research design in higher education research. International Journal of Social Research Methodology, 19(3), 319-338. https://doi.org/10.1080/13645579.2015.1010284Links ]

Universidad de Granada (2025). Cursos. #YoSigoUGR. https://yosigo.ugr.es/cursos/Links ]

Universidad de Murcia (2023). La UMU coordina los primeros talleres sobre Inteligencia Artificial en EUniWell. https://www.um.es/web/ari/-/la-umu-coordina-los-primeros-talleres-sobre-inteligencia-artifical-en-euniwellLinks ]

UNESCO. (2019). Beijing consensus on artificial Intelligence and education. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000368303Links ]

UNESCO. (2024). AI competency framework for students. UNESCO. https://doi.org/10.54675/JKJB9835Links ]

Universidad de Cádiz. (2025). Guía de uso ético de la inteligencia artificial generativa en la educación superior. https://transformaciondigital.uca.es/wp-content/uploads/2025/03/Dossier-Guia-de-Uso-Etico-de-IA-Generativa-en-la-Educacion-Superior-UCA.pdfLinks ]

Universidad de Deusto. (2023). Posicionamiento de la Universidad de Deusto sobre el uso de la inteligencia artificial en el ámbito universitario. https://www.deusto.es/document/deusto/es/posicionamiento-deusto-uso-ia.pdfLinks ]

Universidad de Granada. (2023). Recomendaciones para el uso de herramientas de inteligencia artificial en la Universidad de Granada. Centro de Producción de Recursos para la Universidad Digital (CEPRUD). https://ceprud.ugr.es/sites/centros/ceprud/public/ficheros/Recomendaciones_IA_en_UGR.pdfLinks ]

Universidad Internacional de La Rioja. (2023, july 18). Declaración UNIR para un uso ético de la inteligencia artificial en educación superior. https://www.unir.net/actualidad/responsabilidad-social-corporativa/declaracion-unir-para-un-uso-etico-de-la-inteligencia-artificial-en-educacion-superior/Links ]

Universidad de Málaga. (2024). Guía de uso de la inteligencia artificial en la Universidad de Málaga. https://www.uma.es/servicio-central-de-informatica/info/151689/guia-uso-ia/Links ]

Universidad Pontificia Comillas. (2024). Guía práctica de aplicación de la inteligencia artificial en la Universidad Pontificia Comillas. https://files.griddo.comillas.edu/guia-practica-de-aplicacion-de-la-ia.pdfLinks ]

Usher, M., & Miri, B. (2024). Unpacking the role of AI ethics online education for science and engineering students. International Journal of STEM Education, 11(35), p. 1-14. https://doi.org/10.1186/s40594-024-00493-4Links ]

Vallespir-Adillón, M., Espiñeira-Bellón, E. M., Muñoz-Cantero, J. M., & Comas-Forgas, R. (2024). Academic integrity in pre-service teacher education: A review of the literature. Práxis Educativa, 19, p. 1-21. https://doi.org/10.5212/PraxEduc.v.19.23273.026Links ]

Villajos Girona, E., & Soriano Ripoll, A. (2024). Talleres prácticos para enseñar a usar la inteligencia artificial a los universitarios. The Conversation. Universitat de València. https://www.uv.es/uvweb/unidad-cultura-cientifica-innovacion-catedra-divulgacion-ciencia/es/the-conversation/talleres-practicos-ensenar-usar-inteligencia-artificial-universitarios-1286096356772/GasetaRecerca.html?id=1286377930538Links ]

Zhang, Z. (2025). Practical applications of generative AI in educational support. Education Journal, 14(3), 111-125. https://doi.org/10.11648/j.edu.20251403.14Links ]

Recibido: 16 de Mayo de 2025; Revisado: 03 de Julio de 2025; Aprobado: 05 de Julio de 2025; Publicado: 14 de Julio de 2025

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons