SciELO - Scientific Electronic Library Online

 
vol.9O tema de pesquisa como elemento de análise sobre pesquisa em Educação na região NordesteInfluência de métodos de ensino individualizados na melhoria da flexibilidade profissional dos futuros professores do ensino primário índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Compartilhar


Educação & Formação

versão On-line ISSN 2448-3583

Educ. Form. vol.9  Fortaleza  2024  Epub 29-Ago-2024

https://doi.org/10.25053/redufor.v9.e12636 

Articulos

Percepción del alumnado de la Universidad de Extremadura sobre los cambios en los sistemas de evaluación durante el confinamiento por Covid-19

Percepções dos estudantes da Universidade da Extremadura sobre as mudanças nos sistemas de avaliação durante o confinamento da Covid-19

Violeta Hidalgo Izquierdoi 

Diplomada en Ingeniería Informática de Gestión y máster en Investigación en las Ciencias Experimentales, Sociales y Matemáticas, por la Universidad de Extremadura. Estudiante de doctorado en la Universidad de Extremadura. Profesora en el Departamento de Tecnología, Computadores y de las Comunicaciones en la Universidad de Extremadura. Sus actividades de investigación incluyen la publicación de artículos en revistas de reconocido factor de impacto, así como la publicación de capítulos de libros. Ha participado en varios congresos de investigación, tanto nacionales como internacionales, como parte del comité científico u organizador de alguno de ellos.

, Curación de datos, recursos, validación, visualización
http://orcid.org/0000-0001-6019-8336

Triana Arias Abelairaii 

Graduada en Administración y Dirección de Empresas y graduada en Economía por la Universidad de Extremadura. Máster en Formación del Profesorado de la Universidad Pablo de Olavide. Estudiante de doctorado en la Universidad de Granada. Profesora en la Universidad de Extremadura. Sus actividades de investigación incluyen la publicación de artículos en revistas de reconocido factor de impacto, así como la publicación de capítulos de libros. Ha participado en varios congresos de investigación, tanto nacionales como internacionales, como parte del comité científico u organizador de alguno de ellos.

, Análisis formal, redacción - revisión y edición, investigación, metodología, software, supervisión
http://orcid.org/0000-0002-4832-3058

Juan Ángel Contreras Vasiii 

Ingeniero informático por la Universidad de Educación a Distancia en España (UNED). Máster en Computación Grid y Paralelismo y máster en la enseñanza y el aprendizaje en las Ciencias Experimentales Sociales y Matemáticas por la Universidad de Extremadura. Doctor en Educación por la Universidad de Extremadura. Profesor contratado doctor con más de 25 años de experiencia docente. Actualmente docente en el Grado de Informática en Tecnologías de la Información, Grado en Telemática en Telecomunicación y en el Máster de Investigación Universitario en el Centro Universitario Mérida. Miembro del Departamento de Ingeniería de Sistemas Informáticos y Telemáticos en el Centro Universitario de Mérida. Pertenece al Grupo de Investigación Ciberdidact de la Universidad de Extremadura con un sexenio de investigación.

, Administración de proyectos, conceptualización, redacción - primer borrador, metodología
http://orcid.org/0000-0002-2180-1339

iUniversidad de Extremadura, Extremadura, España. E-mail: vhidalgo@unex.es

iiUniversidad de Extremadura, Extremadura, España. E-mail: tariasa@unex.es

iiiUniversidad de Extremadura, Extremadura, España. E-mail: jaconvas@unex.es


Resumen

Los sistemas de evaluación aplicados en la universidad son algunos de los temas que más discusiones, alteraciones y controversias supusieron en el confinamiento. La pandemia provocada por la Covid-19 supuso un reto para la docencia universitaria, teniendo que adaptar los docentes la forma de evaluar con las herramientas tecnológicas disponibles para realizar las pruebas de evaluación y vigilancia de estas. A través de un análisis de metodología mixta de las respuestas dadas por 456 alumnos de diversos grados de la Universidad de Extremadura a un cuestionario validado por este equipo de investigación, se pretende estudiar la percepción que los alumnos tienen sobre los cambios en los sistemas de evaluación durante el confinamiento debido a la Covid-19. Los resultados no permiten afirmar que haya habido cambios en los sistemas de evaluación y que estos hayan provocado una mejora en el rendimiento académico de los alumnos.

Palabras clave: universidad; alumnos; sistemas de evaluación; Covid-19

Resumo

Os sistemas de avaliação aplicados na universidade são um dos temas que mais discussões, alterações e polêmicas causaram durante o confinamento. A pandemia provocada pela Covid-19 constituiu um desafio para o ensino universitário, tendo os docentes de adaptar a forma de avaliar com as ferramentas tecnológicas disponíveis para a realização dos testes de avaliação e monitorização. Através de uma análise de metodologia mista das respostas dadas por 456 estudantes de diferentes graus da Universidade da Extremadura a um questionário validado por esta equipe de investigação, o objetivo é estudar a percepção dos estudantes sobre as mudanças nos sistemas de avaliação durante o confinamento devido à Covid-19. Os resultados não permitem afirmar que tenha havido mudanças nos sistemas de avaliação e que estas tenham conduzido a uma melhoria do desempenho acadêmico dos estudantes.

Palavras-chave: universidade; estudantes; sistemas de avaliação; Covid-19

Abstract

The evaluation systems applied at the university are one of the topics that caused the most discussions, alterations and controversies during confinement. The pandemic caused by Covid-19 posed a challenge for university teaching, with teachers having to adapt the way they assess with the technological tools available to carry out the assessment and monitoring tests. Through a mixed methodology analysis of the answers given by 456 students from different degrees at the University of Extremadura to a questionnaire validated by this research team, the aim is to study the students' perception of the changes in the assessment systems during the confinement due to Covid-19. The results do not allow us to affirm that there have been changes in the assessment systems and that these have led to an improvement in the students' academic performance.

Keywords: university; students; assessment systems; Covid-19

1 Introducción

A finales de 2019, surgió una nueva enfermedad infecciosa en Wuhan, China (Prevention, 2020). Esta enfermedad, causada por un virus nuevo, el SARS-CoV-2, altamente contagiosa y caracterizada por afectar el sistema respiratorio, fue declarada pandemia global de Covid-19 por la Organización Mundial de la Salud el 11 de marzo de 2020 (Levani; Prastya; Mawaddatunnadila, 2021).

La pandemia de Covid-19 cambió la forma de vida habitual en todo el mundo, teniendo un gran impacto en los estudiantes de educación superior (Aristovnik et al., 2020; Narayan; Naidu, 2024). En este sentido, los campus universitarios fueron cerrados debido a las medidas de restricción global para minimizar la propagación de Covid-19, trasladando docentes y discentes la enseñanza y aprendizaje del aula, a servicios en línea (a distancia) (Alqahtani; Rajkhan, 2020).

Los estudiantes tuvieron dificultades para seguir la educación de manera no presencial, afectándoles negativamente a su rendimiento académico (Crawford; Cifuentes-Faura, 2022). Aunque algunas universidades tienen experiencia con la educación a distancia y flexible, este cambio a enseñanza en línea de manera inmediata como consecuencia de una pandemia se conoce en muchos estudios como enseñanza remota de emergencia (ERE) (Hodges; Fowler, 2020). En este sentido, la ERE producida por la pandemia de Covid-19 supuso un desafío muy grande debido a que la escala de estudiantes a la que iba dirigida era muy superior en comparación con la educación a distancia habitual, además de no tener la mayoría de los docentes y discentes experiencia previa con esta nueva forma de impartición de clases (Zacharis; Nikolopoulou, 2022), así como con el manejo de las tecnologías de la información y las comunicaciones (TIC) (Bortolin; Nauroski, 2022).

Entre las diferentes características de la ERE vivida por la Covid-19, destaca la necesidad de recursos tecnológicos (Aguilera-Hermida, 2020) orientados a la comunicación sincrónica, como, por ejemplo, Zoom1, Teams2, Google Meet3, adecuación de los diseños y metodologías de los cursos, problemas de conectividad, falta de planificación, falta de preparación de los estudiantes respecto a la autodisciplina y actitud negativa de los docentes para hacer frente al aprendizaje electrónico, entre otras (Aretio, 2021; Estrada Araoz; Gallegos Ramos, 2022).

Estudios como los de Almomani et al. (2021), Freitas et al. (2022) o Yekefallah et al. (2021) revelan que la mayoría de los estudiantes de sus investigaciones consideraron el rendimiento académico en la pandemia insuficiente y se muestran insatisfechos con el aprendizaje electrónico, la calidad y cantidad del material impartido, así como con los exámenes y sistemas de evaluación llevados a cabo durante la Covid-19. En contraposición, estudios como los de Amir et al. (2020) destacan que los alumnos tienen una percepción positiva del uso del aprendizaje electrónico y aceptan este nuevo sistema en las universidades. Por otro lado, Béjar y Vera (2022) revelan en su trabajo que los alumnos indican que la evaluación no se ajustaba a la situación de ERE en la que se encontraban. Así, los sistemas evaluativos aplicados en la universidad es uno de los temas que ha sido extensamente tratado por varios académicos (Guerra, 2003) y que también fue el que más discusiones, alteraciones y controversias supuso, según J. Castillo Olivares y A. Castillo Olivares (2021) en el confinamiento.

En línea con lo anterior, se ha vuelto imprescindible evaluar la calidad del aprendizaje electrónico y compararlo con el contenido actual, además de conocer la satisfacción de los estudiantes (Mohammed et al., 2022). No obstante, entre las diferentes dimensiones que abarca el aprendizaje electrónico, es escasa la literatura existente que analiza los cambios percibidos por los estudiantes sobre las variaciones en los sistemas de evaluación durante el confinamiento por Covid-19. En este sentido, si de por si la deshonestidad académica es un fenómeno que lleva muchos años en nuestras vidas, las evaluaciones online tuvieron mucho más riesgo de que se produjesen comportamientos no éticos por parte del alumnado. Estudios como el de Amzalag, Shapira y Dolev (2021) y Murdock y Anderman (2006) revelan tres razones por las que los estudiantes hacían trampas; (1) dificultades de aprendizaje; (2) descontento con los profesores y factores externos; y (3) beneficios obtenidos. Así, los métodos de evaluación por parte de los docentes cambiaron, con la intención de ser lo más justos posibles a la hora de evaluar prácticas o exámenes en la modalidad online.

En consecuencia, se plantea la siguiente pregunta de investigación: ¿Ha provocado la pandemia cambios en los métodos de evaluación? Para ello se ha recogido la opinión de los alumnos en diversos grados de la Universidad de Extremadura, con respecto a la dimensión de sistemas de evaluación. El resto del trabajo está estructurado de la siguiente forma: tras la presente introducción, se llevará a cabo una descripción de la metodología utilizada, objetivo y del diseño de la investigación. A continuación, se expondrán los resultados, una vez realizado el análisis estadístico de los datos y, por último, se presentan las conclusiones, limitaciones del estudio y futuras líneas de investigación.

2 Metodología

Este trabajo tiene como objetivo analizar si los alumnos de educación superior de la Universidad de Extremadura (España) han percibido un cambio en los sistemas de evaluación en el proceso de enseñanza-aprendizaje a raíz de la pandemia de Covid-19. Para ello, partiendo de una investigación más completa que este equipo está desarrollando, cuyo objetivo general es: “Analizar y determinar los cambios producidos por la pandemia de Covid-19 en el proceso de enseñanza/aprendizaje en los grados presenciales de la Universidad de Extremadura con respecto a las dimensiones de Metodologías Docentes, Herramientas Tecnológicas y Sistemas de Evaluación, utilizadas en la enseñanza superior”, en este estudio se presenta sólo la dimensión Sistemas de Evaluación.

Esta investigación está basada en la aplicación del cuestionario validado en Hidalgo et al. (2023) y diseñado para conocer la opinión de los estudiantes acerca de los cambios producidos en el proceso de enseñanza/aprendizaje en la educación superior a consecuencia de la pandemia Covid-19. La aplicación del cuestionario comenzó en abril de 2022 y estuvo disponible hasta diciembre del mismo año. En total se obtuvieron 456 respuestas anónimas de alumnos en los grados universitarios en los campus de las cuatro sedes de la Universidad de Extremadura, abarcando las ramas de conocimiento siguientes: Ciencias de la Salud, Ingeniería y Arquitectura, Educación y Ciencias Sociales. Como puede encontrarse en Hidalgo et al. (2023), este cuestionario permite el anonimato; proporciona al encuestado tiempo para pensar acerca de las respuestas antes de contestar; se puede administrar simultáneamente a muchas personas; proporciona uniformidad (todas las personas responden exactamente a la misma pregunta); los datos obtenidos son más fáciles de tratar, analizar e interpretar que si los datos se obtuvieran en base a respuestas orales; y, además, puede ser administrado por terceras personas sin pérdida de fiabilidad de los resultados.

El análisis de las respuestas de los alumnos se realizó utilizando una metodología mixta (Martínez Miguélez, 2006). Algunas de las opiniones de los estudiantes se analizan desde el punto de vista del carácter hermenéutico y fenomenológico que tienen (Hernández, 2018; Hernández-Sampieri, 2014). Otras respuestas se analizan utilizando software de análisis cuantitativo de contrastación de hipótesis.

La Tabla 1 contiene la relación de las preguntas realizadas a los estudiantes que se analizan en este artículo, aunque el cuestionario tenía más ítems.

Tabla 1 Relación entre las preguntas de investigación y las preguntas del cuestionario validado junto con el método de análisis 

Pregunta de investigación / Hipótesis Preguntas en el cuestionario a los alumnos Método de análisis
Dimensión sistemas de evaluación
¿Ha provocado la pandemia cambios en los métodos de evaluación? Hipótesis: Los sistemas de evaluación adaptados durante el confinamiento de la pandemia Covid-19 permitieron que los alumnos mejoraran el rendimiento académico con respecto a cursos anteriores Pregunta 4.4.- ¿Cómo considera que ha sido su rendimiento académico (calificaciones) durante el confinamiento (segundo semestre del curso 2019/20) con respecto al periodo pre-pandémico? (Seleccione una opción) Cuantitativo (Respuestas posibles con 5 ítems, escala Likert, desde Mejoró Mucho a Empeoró Mucho)
Pregunta 4.5.- ¿Qué aspectos positivos considera que han surgido con respecto a la evaluación utilizada durante el confinamiento (segundo semestre del curso 2019/20) y que se mantienen tras el mismo? Cualitativo
Pregunta 4.6.- ¿Qué aspectos negativos considera que han surgido y se mantienen con respecto a la evaluación durante el confinamiento (segundo semestre del curso 2019/20) y en consecuencia deberían mejorarse? Cualitativo
Sugerencias
Espacio para que el alumno pueda aportar ideas y opiniones que no estuvieran recogida en el cuestionario. Pregunta 5.2.- En este espacio le pedimos que nos indique cualquier sugerencia que considere oportuna en relación con los temas que se han planteado en el presente cuestionario. Cualitativo

Fuente: Elaboración propia (2024).

Para cada una de las preguntas de investigación expuestas en la Tabla 1, se ha formulado una hipótesis de trabajo que se confirmará o no posteriormente, utilizando las respuestas dadas por los alumnos a las preguntas del cuestionario utilizado. Además, existen algunas respuestas que son analizadas de forma cuantitativa utilizando software de contrastación de hipótesis como es SPSS (George; Mallery, 2019). El resto de las respuestas se examinan de forma cualitativa y servirán para afianzar y clarificar la contrastación de las hipótesis de trabajo analizadas de forma cuantitativa. Además, con las sugerencias se recogieron aquellas cuestiones que no estaban contempladas por el equipo investigador y que algunos alumnos quisieron hacer constar.

3 Resultados y discusión

3.1 Resultados demográficos

Con la intención de poder realizar un análisis desde la perspectiva de género en futuras investigaciones, todas las variables se han medido y contrastado tanto en conjunto como desagrupadas por género. Así, se aplicará la prueba T de Student (prueba paramétrica) o la prueba U de Mann-Whitney (prueba no paramétrica), para comparar las dos muestras independientes. En todos los casos se realiza un análisis estadístico para determinar si han de aplicarse pruebas paramétricas o no paramétricas. Para ello, determinamos los valores de normalidad, aleatoriedad y homocedasticidad. La prueba de normalidad se ha realizado con la prueba de Kolmogórov-Smirnov, ya que la muestra es mayor de 50. La aleatoriedad se medirá con la prueba de Rachas y la homocedasticidad con la prueba de Levenne.

La muestra de trabajo está basada en la contestación de 456 individuos, de los cuales el 56,1% son mujeres y un 43,95% son hombres. En cuanto a la edad de estos, una gran mayoría son los nacidos en el año 1999 (18,4%), en el 2000 (20,2%) y en el 2001 (32,5%). En el año 1998 y 1997, un 7,9% en cada uno de ellos y, en el 1996, un 5,3%. El resto de los individuos - un 7,8% - tienen una distribución en distintos años, siendo el más mayor un alumno nacido en el 1963. Además, la gran mayoría de los alumnos encuestados, un 61,4%, comenzó sus estudios en cursos 2019-2020, un 27,2% en el curso 2017-2019 y un 11,4% antes del curso 2018-2019.

Tabla 2 Distribución de alumnos por curso durante el confinamiento y después del mismo 

Confinamiento Después del confinamiento
Cuarto curso 1,80% 7,90%
Primer curso 57,90% 3,50%
Segundo curso 25,40% 54,40%
Tercer curso 14,90% 34,20%

Fuente: Elaboración propia (2024).

También una gran mayoría de la muestra son alumnos de tercer curso de grado, un 71,9%; de cuarto curso son un 27,2% y sólo un 0,9% son alumnos de segundo curso. En cuanto a la distribución por cursos en que se encontraban en el curso 2019-2020 (durante el confinamiento), la mayoría, un 57,9%, estaba en el primer curso, un 25,4% en el segundo, un 14,9% en el tercer y un 1,8% en el cuarto. Estos datos concuerdan con los datos sobre qué curso estaban matriculados en el curso siguiente al confinamiento (curso 2020-2021). En la Tabla 2 se puede ver la comparación de los datos del confinamiento y los datos de después del confinamiento.

En la Tabla 3 se puede observar que el número de créditos matriculados y aprobados en el semestre del confinamiento (segundo semestre del curso 2019-2020), frente al mismo semestre del curso académico siguiente (segundo semestre del curso 2020-2021), presenta valores muy similares, así una gran mayoría aprobó los 30 créditos ECTS, que se corresponden con las cinco asignaturas que se cursan en cada semestre, concretamente un 60,5% durante el confinamiento y un 61,4% en el posterior al confinamiento.

Tabla 3 Comparativa de créditos matriculados (Cré. Matr.) y créditos aprobados (Cré. Apro.) durante el confinamiento (Conf.) y después del mismo (Pos-Conf) 

Cré. Matr. Conf. Cré. Matr. Pos-Conf Cré. Apro. Conf. Cré. Apro. Pos-Conf.
30 créditos ECTS 70,20% 70,20% 60,50% 61,40%
Más de 30 créditos ECTS 24,60% 24,60% 22,80% 18,40%
Menos de 30 ECTS 5,30% 5,30% 16,70% 20,20%

Fuente: Elaboración propia (2024).

Finalmente, la pregunta 1.84 del cuestionario evalúa si el alumno dispuso o no de espacio individual para el estudio durante confinamiento. Una gran mayoría, un 95,61%, si dispuso de ese espacio frente a un 4,39% que no dispusieron de ello.

Al analizar estos valores desde el punto de vista del género y dado que se deben aplicar pruebas no paramétricas5, concretamente debe hacerse la prueba U de Mann-Whitney, el valor de significación es 0,028. En consecuencia, se rechaza la hipótesis nula. En este caso, la hipótesis nula es que no hay diferencia estadísticamente significativa en que sean hombres o mujeres el haber dispuesto o no de un espacio individual para el trabajo. Por tanto, existe diferencia entre hombres y mujeres, siendo un 6,3% de mujeres las que no dispusieron de espacio individual de trabajo durante el confinamiento, frente a sólo un 2,0% de hombres.

Las respuestas respecto a los datos sociodemográficos de los alumnos sobre los créditos matriculados reflejan que el 1,8% de mujeres se matriculó durante la pandemia en menos de 30 créditos ECTS, es decir, menos de cinco asignaturas, pasando al 0,9% tras la pandemia. Los hombres que se matricularon de menos de cinco asignaturas durante la pandemia fueron un 3,5%, pasando al 2,6% después de la pandemia. El 42,1% de mujeres se matricularon en cinco asignaturas durante la pandemia y el 43% tras la misma; los hombres matriculados de 30 ECTS representan el 28,10% durante y tras la pandemia. Por otro lado, el porcentaje de matriculados de más de 30 créditos ECTS (más de cinco asignaturas) fue similar entre sexos, siendo un 12,30% las mujeres matriculadas, durante y tras la pandemia, igual porcentaje de hombres durante la pandemia, pasando a un 13,20% los hombres tras la pandemia.

3.2 Resultados estadísticos

El análisis de la opinión de los alumnos se realizó con el software de análisis cualitativo webQDA (Costa; Amado, 2018). De la misma forma que Arias et al. (2017) y que Contreras et al. (2019), los datos se codificaron en la estructura de categorías grupales mostrada en la Tabla 4, con la finalidad de obtener las conclusiones acerca de cada una de las dimensiones del estudio: Metodologías Docentes, Herramientas Tecnológicas y Sistemas de Evaluación. Esta tabla muestra los datos del estudio completo de las tres dimensiones que se evalúan en el cuestionario de Hidalgo et al. (2023), aunque en este trabajo se muestre sólo los resultados de la dimensión Sistemas de Evaluación.

Tabla 4 Resultado de la codificación por dimensión 

Dimensión Frecuencia
Dimensión 1. Metodologías Docentes 220
Dimensión 2. Herramientas Tecnológicas 173
Dimensión 3. Sistemas de Evaluación 64
Otras sugerencias 22

Fuente: Elaboración propia (2024).

Tras la codificación de las respuestas de los alumnos, a cada una de ellas se les asignaron determinadas subcategorías dentro de cada dimensión, obteniéndose una estructura de árbol con las frecuencias obtenidas. A continuación, analizamos los datos obtenidos por la dimensión de sistemas de evaluación.

Para dar respuesta a la hipótesis relacionada con los Sistemas de Evaluación mostrada en Tabla 5, realizaremos una prueba de contrastación de hipótesis utilizando el software SPSS.

Tabla 5 Hipótesis de investigación sobre Sistemas de Evaluación 

Dimensión Sistemas de Evaluación
Pregunta de investigación / Hipótesis Preguntas en el cuestionario a los alumnos Método de análisis
¿Ha provocado la pandemia cambios en los métodos de evaluación?
Hipótesis: Los sistemas de evaluación adaptados durante el confinamiento de la pandemia Covid-19 permitieron que los alumnos mejoraran el rendimiento académico con respecto a cursos anteriores
Pregunta 4.4. -¿Cómo considera que ha sido su rendimiento académico (calificaciones) durante el confinamiento (segundo semestre del curso 2019/20) con respecto al periodo pre-pandémico? (Seleccione una opción) Cuantitativo (Respuestas posibles con 5 ítems, escala Likert, desde Mejoró Mucho a Empeoró Mucho)

Fuente: Elaboración propia (2024).

Como las respuestas dadas por los alumnos se encontraban en escala de Likert, se transformaron las mismas siguiendo el siguiente criterio observado en la Tabla 6:

Tabla 6 Transformación de las respuestas de los alumnos a las preguntas 4.4 

Respuesta alumno (escala Likert) Transformación para contrastar hipótesis
Mejoró mucho. Sí. Hubo mejora.
Mejoró bastante. Sí. Hubo mejora.
No hubo cambios. No hubo mejora.
Empeoró poco. No hubo mejora.
Empeoró mucho. No hubo mejora.

Fuente: Elaboración propia (2024).

El resultado de esta transformación es obtener dos valores posibles en las respuestas de los alumnos: percepción de haber mejora (valor 0) de los Sistemas de Evaluación o percepción de que no hubo mejora (valor 1) en los Sistemas de Evaluación.

Se realiza la prueba de normalidad en SPSS para saber si hay que realizar pruebas paramétricas o no paramétricas, siendo el resultado el que se muestra en la siguiente Tabla 7.

Tabla 7 Pruebas de normalidad para Sistemas de Evaluación 

Pruebas de normalidad
Kolmogorov-Smirnova Shapiro-Wilk
Estadístico gl Sig. Estadístico gl Sig.
Valor mejora (0-Si,1-No) ,453 456 ,000 ,562 456 ,000

a. Corrección de significación de Lilliefors

Fuente: Elaboración propia (2024).

Como el valor Sig. es 0,000, tanto en la prueba de Kolmogorov-Smirnov como en la prueba de Shapiro-Wilk, esto indica que no hay normalidad, por lo que habrá que realizar pruebas no paramétricas.

Se realiza la prueba no paramétrica binomial para contrastar nuestra hipótesis, teniendo en cuenta que, si el resultado de significación de la prueba binomial es menor o igual que 0,05, se aceptará nuestra hipótesis y, en el caso contrario, se aceptará la hipótesis nula (H0), es decir, lo contrario a lo que proponíamos.

El resultado de la prueba binomial se muestra en las Tabla 8 y 9:

Tabla 8 Estadísticos descriptivos de la prueba binomial para los Sistemas de Evaluación 

Estadísticos descriptivos
N Media Desv. Desviación Mínimo Máximo
Valor mejora (0-Si,1-No) 456 ,72 ,450 0 1

Fuente: Elaboración propia (2024).

Tabla 9 Resultado de la prueba binomial para los Sistemas de Evaluación 

Prueba binomial
Categoría N Prop. observada Prop. de prueba Significación exacta (bilateral)
Valor mejora (0-Si,1-No) Grupo 1 1 328 ,72 ,50 ,000
Grupo 2 0 128 ,28
Total 456 1,00

Fuente: Elaboración propia (2024).

Como se puede comprobar, la significación exacta (bilateral) tiene un valor de 0,000, indicando que las medias no son iguales. Como el valor N de la categoría del Grupo 1 (categoría con valor 1) es superior a la del Grupo 2 (categoría con valor 0), es decir, valor de la percepción de no haber mejoras, no se acepta nuestra hipótesis, es decir: “Los sistemas de evaluación adaptados durante el confinamiento de la pandemia Covid-19 no permitieron que los alumnos mejoraran el rendimiento académico con respecto a cursos anteriores”.

En la Tabla 10 se muestra la distribución de referencias por subcategorías resultado del análisis cualitativo a la pregunta 4.56.

Tabla 10 Frecuencias por categorías de las respuestas de los alumnos a la pregunta 4.5 en la dimensión Sistemas de Evaluación 

Pregunta cuestionario Categoría grupal Categoría Frecuencia
4.5. ¿Qué aspectos positivos considera que han surgido con respecto a la evaluación utilizada durante el confinamiento (segundo semestre del curso 19/20) y que se mantienen tras el mismo? Aspectos positivos Vuelta a exámenes físicos 1
No desplazarse a la universidad 2
Menor peso a exámenes y más a la evaluación continua 8
Mejora de la calificación final o rendimiento académico 8
Ninguno 9
Se puede copiar 2
Exámenes online (Safe Exam Browser) 6

Fuente: Elaboración propia (2024).

Respecto a los datos recogidos y analizados a la pregunta 4.5, aspectos positivos, observamos que un gran número de alumnos no valoran positivamente los aspectos que hayan surgido sobre la evaluación durante la pandemia (“Ninguno”, con nueve referencias). Sin embargo, en contraposición de estos anteriores, existe también un amplio grupo de alumnos que sí consideran que han mejorado su calificación o rendimiento académico (“Mejora de la calificación final o rendimiento académico”, con ocho referencias), por lo que no existe unanimidad entre los alumnos y, por lo tanto, no se puede constatar nuestra hipótesis inicial.

También reconocen que se ha dado un peso menor al valor de los exámenes y más valor a las actividades realizadas en la evaluación continua (“Menor peso a exámenes y más a la evaluación continua”, con ocho referencias), lo que podría haber dado lugar a una mejora del rendimiento final con estos cambios producidos.

Otros de los aspectos que valoran positivamente es el paso de los exámenes a modelo online (“Exámenes online (Safe Exam Browser)”, con seis referencias). Este aspecto vino obligado por el cambio a la modalidad de docencia. No obstante, han considerado que este aspecto fue positivo para ellos.

Todo hacía pensar que los cambios producidos en los métodos y modalidades de evaluación mejorarían el rendimiento académico de los alumnos, incluso han llegado a comentar que uno de los aspectos positivos fue que hubo más posibilidad de copiar en los exámenes (“Se puede copiar”, con dos referencias). Aunque todos los comentarios positivos indicaban que hubo mejora, finalmente no se pudo verificar la hipótesis inicial.

En la Tabla 11 se muestra la distribución de referencias por subcategorías resultado del análisis cualitativo a la pregunta 4.67.

Tabla 11 Frecuencias por categorías de las respuestas de los alumnos a la pregunta 4.6 en la dimensión Sistemas de Evaluación 

Pregunta cuestionario Categoría grupal Categoría Frecuencia
4.6. ¿Qué aspectos negativos considera que han surgido y se mantienen con respecto a la evaluación durante el confinamiento (segundo semestre del curso 19/20) y, en consecuencia, deberían mejorarse? Aspectos negativos Ninguno 10
Relajación de los alumnos 1
Problemas de conexión 2
Disminución del rendimiento académico 1
Disminución de la formación 5
Aumento de desarrollo de exámenes tipo test 1
No había evaluación continua 1
Jugárselo a un examen 1
Poco tiempo para realizar el examen 2
Incertidumbre en la evaluación 2
Criterios de evaluación no conforme 2

Fuente: Elaboración propia (2024).

Respecto a los datos recogidos y analizados a la pregunta 4.6, aspectos negativos que han surgido y se mantienen con respecto a la evaluación, observamos que un gran número de alumnos no valoran negativamente ninguno de los aspectos que hayan surgido sobre la evaluación durante la pandemia (“Ninguno”, con diez referencias). Como aspecto más negativo, consideran que se ha disminuido su formación en este periodo de pandemia (“Disminución de la formación”, con cinco referencias).

Otras cuestiones negativas dignas de mencionar son: los problemas de comunicación y conexión que han tenido (“Problemas de conexión”, con dos referencias), algunas disconformidades introducidas por los profesores en los criterios de evaluación (“Criterios de evaluación no conforme”, con dos referencias) y la incertidumbre de cómo les iba a ir los exámenes en esta nueva modalidad de evaluación (“Incertidumbre en la evaluación”, con dos referencias).

Existen otro rango menos importante de aspectos negativos que consideran que existió y que podemos observar en la Tabla 11.

3.3 Sugerencias de los alumnos

Al finalizar el cuestionario, se dio la oportunidad a los alumnos para que aportaran las sugerencias que considerasen necesarias. Para ello, se creó el apartado 5.2 en el cuestionario. Posteriormente, se analizaron las respuestas y se creó una nueva categoría que pudiera codificar las respuestas, llamándose esta categoría “sugerencias”, y, a su vez, se subdividió en varias subcategorías, como se muestra en la Tabla 12.

Tabla 12 Sugerencias de los alumnos 

Pregunta cuestionario Categoría Frecuencia
5.2. En este espacio le pedimos que nos indique cualquier sugerencia que considere oportuna en relación con los temas que se han planteado en el presente cuestionario Tener una única plataforma para dar clases online 1
Ninguna 3
Mejoras de la evaluación continua 2
Mejoras de los sistemas de control de la evaluación 1
Mejorar la coordinación entre profesores y entre profesor y alumno 3
Mejorar la formación en herramientas tecnológicas (profesores y alumnos) 4
Facilitar el uso de clases no presenciales 1
Mejorar la adaptación de asignaturas a la virtualización 1
Mejorar la implicación del profesorado 5
Mejorar contenidos audiovisuales 1

Fuente: Elaboración propia (2024).

En esta tabla se puede observar que la subcategoría más referenciada es “Mejorar la implicación del profesorado”, con cinco referencias. Entre alguno de los comentarios concretos de esta categoría, tenemos: “Mayor implicación de los profesores” o “Más apoyo por parte de los profesores”. Entre otros aspectos interesantes que han sugerido los alumnos, se encuentran:

  • - Introducir mejoras para que se permita obtener una formación acorde a esta modalidad de docencia online, tanto para profesores como para los alumnos (“Mejorar la formación en herramientas tecnológicas [profesores y alumnos]”, con cuatro referencias).

  • - Mejorar la coordinación de los equipos docentes y también entre los profesores y los alumnos (“Mejorar la coordinación entre profesores y entre profesor y alumno”, con tres referencias).

  • - Mejoras en los procesos y herramientas de evaluación continua (“Mejoras de la evaluación continua”, con dos referencias).

4 Conclusiones

Con respecto a la pregunta de investigación: ¿Ha provocado la pandemia cambios en los métodos de evaluación? Y con respecto a nuestra hipótesis inicial: “Los sistemas de evaluación adaptados durante el confinamiento de la pandemia Covid-19 permitieron que los alumnos mejoraran el rendimiento académico con respecto a cursos anteriores”, hemos de indicar que no podemos constatar nuestra hipótesis inicial, es decir, no podemos asegurar que haya habido cambios en los sistemas de evaluación y estos hayan provocado una mejora en el rendimiento académico de los alumnos.

Analizando de forma cualitativa la información proporcionada por los alumnos en algunas de las preguntas del cuestionario, podemos destacar como aspectos más positivos que han surgido en la evaluación durante la pandemia: la realización de exámenes online, la mejora de las calificaciones o rendimiento académico, la realización de evaluaciones continua y la minoración del peso de los exámenes. Como aspectos más negativos destacan que no observan nada que sea negativo o la disminución en la formación recibida durante la pandemia. En resumen, no se puede constatar cuantitativamente la mejora del rendimiento académico de los alumnos durante la pandemia por los cambios en los sistemas de evaluación, pese a que lo refieren en algunas respuestas a preguntas que se han analizado de forma cualitativa.

Nos gustaría dejar constancia también de las sugerencias finales que realizaron los alumnos que pueden servir cuando se vivan situaciones similares, entre las que se encuentran: mayor implicación del profesorado para que los alumnos no se sientan solos en su proceso de enseñanza/aprendizaje, mejorar la formación en las herramientas tecnológicas, más y mejor coordinación entre los equipos docentes y mejorar la interacción entre los profesores y alumnos.

Por otra parte, debe indicarse que este trabajo presenta varias limitaciones que, además, suponen futuras líneas de investigación para sus autores. En primer lugar, el inevitable juicio de los investigadores inherente a la obtención de la información, pues se ha confiado en la objetividad de los alumnos a la hora de responder el cuestionario. Además, aunque la muestra objeto de estudio es suficientemente significativa para la realización del mismo, se ha limitado únicamente a los estudiantes de la Universidad de Extremadura, dejando fuera el resto de las universidades españolas, pudiendo no ser representativa esta muestra de todo el país. No obstante, a pesar de las limitaciones mencionadas, los resultados son lo suficientemente interesantes como para justificar y ampliar la investigación a la realización de estudios comparativos con otras instituciones de enseñanza superior. Además, este trabajo informa de la necesidad de autoevaluar todo el sistema de evaluación universitario y sirve de guia para futuros académicos.

6 Referencias

AGUILERA-HERMIDA, A. P. College students’ use and acceptance of emergency online learning due to COVID-19. International Journal of Educational Research Open, [S.l.], v. 1, 2020. [ Links ]

ALMOMANI, E. Y. et al. The influence of coronavirus diseases 2019 (COVID-19) pandemic and the quarantine practices on university students’ beliefs about the online learning experience in Jordan. Frontiers in Public Health, [S.l.], v. 8, 2021. [ Links ]

ALQAHTANI, A. Y.; RAJKHAN, A. A. E-learning critical success factors during the covid-19 pandemic: A comprehensive analysis of e-learning managerial perspectives. Education Sciences, [S.l.], v. 10, n. 9, 2020. [ Links ]

AMIR, L. R. et al. Student perspective of classroom and distance learning during COVID-19 pandemic in the undergraduate dental study program Universitas Indonesia. BMC Medical Education, [S.l.], v. 20, n. 1, p. 1-8, 2020. [ Links ]

AMZALAG, M.; SHAPIRA, N.; DOLEV, N. Two sides of the coin: lack of academic integrity in exams during the corona pandemic, students’ and lecturers’ perceptions. Journal of Academic Ethics, [S.l.], p. 1-21, 2021. [ Links ]

ARETIO, L. G. COVID-19 y educación a distancia digital: preconfinamiento, confinamiento y posconfinamiento. Revista Iberoamericana de Educación a Distancia, [S.l.], v. 24, n. 1, p. 9-32, 2021. [ Links ]

ARIAS, J. et al. Validación de un cuestionario de satisfacción para la introducción de la gamificación móvil en la educación superior. Revista Ibérica de Sistemas e Tecnologias de Informação, [S.l.], n. 23, p. 33-45, 2017. [ Links ]

ARISTOVNIK, A. et al. Impacts of the COVID-19 pandemic on life of higher education students: A global perspective. Sustainability, [S.l.], v. 12, n. 20, 2020. [ Links ]

BÉJAR, M. O. C.; VERA, M. M. S. Cambio de modalidad presencial a virtual durante el confinamiento por Covid-19: percepciones del alumnado universitario. Revista Iberoamericana de Educación a Distancia, [S.l.], v. 25, n. 1, p. 243-260, 2022. [ Links ]

BORTOLIN, L.; NAUROSKI, E. Desafios e emergências da avaliação da aprendizagem no contexto de pandemia: impactos docentes na profissão. Educação & Formação, Fortaleza, v. 7, e8252, 2022. [ Links ]

CASTILLO OLIVARES, J. M.; CASTILLO OLIVARES, A. El impacto de la Covid-19 en el profesorado de educación superior y sus concepciones sobre la evaluación. Campus Virtuales: Revista Científica Iberoamericana de Tecnología Educativa, 2021. [ Links ]

CONTRERAS, J. A. et al. Análisis cualitativo de las respuestas de los expertos a la validación de un cuestionario de obtención de Conceptos Nucleares. CIAIQ, [S.l.], 2019. [ Links ]

COSTA, A. P.; AMADO, J. Análisis de contenido en siete pasos con webQDA, versión 1 - 260117. [S.l.]: Ludomedia, 2018. [ Links ]

CRAWFORD, J.; CIFUENTES-FAURA, J. Sustainability in higher education during the COVID-19 pandemic: A systematic review. Sustainability, [S.l.], v. 14, n. 3, 2022. [ Links ]

ESTRADA ARAOZ, E. G.; GALLEGOS RAMOS, N. A. Esgotamento emocional em estudantes universitários peruanos no contexto da pandemia Covid-19. Educação & Formação, Fortaleza, v. 7, e6759, 2022. [ Links ]

FREITAS, E. O. et al. Self-evaluation of nursing students about their academic performance during the Covid-19 pandemic. Revista Gaúcha de Enfermagem, Porto Alegre, v. 43, e20210088, 2022. [ Links ]

GEORGE, D.; MALLERY, P. IBM SPSS statistics 26 step by step: A simple guide and reference. [S.l.]: Routledge, 2019. [ Links ]

GUERRA, M. Á. S. Dime cómo evalúas y te diré qué tipo de profesional y de persona eres. Revista Enfoques Educacionales, [S.l.], v. 5, n. 1, 2003. [ Links ]

HERNÁNDEZ, R. Metodología de la investigación. Las rutas cuantitativa, cualitativa y mixta: las rutas cuantitativa cualitativa y mixta. McGRAW-HILL Interamericana Editores S.A. de C.V., [S.l.], p. 753, 2018. [ Links ]

HERNÁNDEZ-SAMPIERI. Selección de la muestra. Metodología de la Investigación, [S.l.], p. 170-196, 2014. [ Links ]

HIDALGO, V. et al. Validation of a questionnaire to evaluate the changes produced in the teaching/learning process during the Covid-19 pandemic: Cadernos de Educação Tecnologia e Sociedade, Minho, v. 16, p. 55-69, 2023. [ Links ]

HODGES, C. B.; FOWLER, D. J. The Covid-19 crisis and faculty members in higher education: from emergency remote teaching to better teaching through reflection. International Journal of Multidisciplinary Perspectives in Higher Education, [S.l.], v. 5, n. 1, p. 118-122, 2020. [ Links ]

LEVANI, Y.; PRASTYA, A. D.; MAWADDATUNNADILA, S. Coronavirus disease 2019 (COVID-19): patogenesis, manifestasi klinis dan pilihan terapi. Jurnal Kedokteran dan Kesehatan, [S.l.], v. 17, n. 1, p. 44-57, 2021. [ Links ]

MARTÍNEZ MIGUÉLEZ, M. Validez y confiabilidad en la metodología cualitativa. Paradígma, [S.l.], v. 27, n. 2, p. 7-33, 2006. [ Links ]

MOHAMMED, L. A. et al. Exploring factors affecting graduate Students’ satisfaction toward E-learning in the era of the Covid-19 crisis. European Journal of Investigation in Health, Psychology and Education, [S.l.], v. 12, n. 8, p. 1121-1142, 2022. [ Links ]

MURDOCK, T. B.; ANDERMAN, E. M. Motivational perspectives on student cheating: Toward an integrated model of academic dishonesty. Educational Psychologist, [S.l.], v. 41, n. 3, p. 129-145, 2006. [ Links ]

NARAYAN, J.; NAIDU, S. A new contextual and comprehensive application of the UTAUT2 model post‐Covid‐19 pandemic in higher education. Higher Education Quarterly, [S.l.], v. 78, n. 1, p. 47-77, 2024. [ Links ]

PREVENTION, C. D. C. Coronavirus disease 2019 (Covid-19) hospital preparedness assessment tool. 2020. [ Links ]

YEKEFALLAH, L. et al. Factors related to students’ satisfaction with holding e-learning during the Covid-19 pandemic based on the dimensions of e-learning. Heliyon, [S.l.], v. 7, n. 7, 2021. [ Links ]

ZACHARIS, G.; NIKOLOPOULOU, K. Factors predicting University students’ behavioral intention to use eLearning platforms in the post-pandemic normal: an UTAUT2 approach with ‘Learning Value’. Education and Information Technologies, [S.l.], v. 27, n. 9, p. 12.065-12.082, 2022. [ Links ]

1Más información en https://zoom.us/es.

2Más información en https://www.microsoft.com/es-es/microsoft-teams/log-in.

3Más información en https://meet.google.com/.

4Pregunta 1.8.-¿Ha podido disponer de un espacio de trabajo individual durante el confinamiento (cuarto de estudio, dormitorio individual, despacho)?

5Para esta variable, el test de Kolmogorov-Smirnov tiene un valor de significación de 0,00, con lo cual es menor de 0,05 y, en consecuencia, se rechaza la hipótesis nula de que la muestra siga una distribución normal.

6¿Qué aspectos positivos considera que han surgido con respecto a la evaluación utilizada durante el confinamiento (segundo semestre del curso 19/20) y que se mantienen tras el mismo?”.

7¿Qué aspectos negativos considera que han surgido y se mantienen con respecto a la evaluación durante el confinamiento (segundo semestre del curso 19/20) y, en consecuencia, deberían mejorarse?”

Recibido: 03 de Marzo de 2024; Aprobado: 02 de Abril de 2024; Publicado: 19 de Mayo de 2024

Editora responsable:

Lia Machado Fiuza Fialho

Pareceristas ad hoc:

Mauricio Rodríguez López y Mercedes Causse Cathcart

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons