MIME-Version: 1.0 Content-Type: multipart/related; boundary="----=_NextPart_01D6E5B8.C4573100" Este documento es una página web de un solo archivo, también conocido como archivo de almacenamiento web. Si está viendo este mensaje, su explorador o editor no admite archivos de almacenamiento web. Descargue un explorador que admita este tipo de archivos, como Windows® Internet Explorer®. ------=_NextPart_01D6E5B8.C4573100 Content-Location: file:///C:/24F3CDD5/04okMarianaLeonQLU.htm Content-Transfer-Encoding: quoted-printable Content-Type: text/html; charset="us-ascii"
Evaluación
de plataformas de aprendizaje virtual usadas en universidades de Panam&aacu=
te;
Mariana
León1,10, *, Aura López de R=
amos2,10, Ulina Mapp3,10, Sebastián Reyes4,10, Manning Suárez5,10, Aymara Pacheco 6, 10, Victry Rangel7,10, Magdy De Las Salas8,10, Ender
Carrasquero9,10
(1) Quality Leadership
University (QLU)
(2)<=
span
lang=3DES style=3D'font-size:12.0pt;mso-bidi-font-size:11.0pt;font-family:"=
Garamond",serif;
mso-ansi-language:ES'> Universidad Internacional de Ciencia y Tecnolog&iacu=
te;a
(UNICyT)
(3)<=
span
lang=3DES style=3D'font-size:12.0pt;mso-bidi-font-size:11.0pt;font-family:"=
Garamond",serif;
mso-ansi-language:ES'> ISAE Universidad
(4)<=
span
lang=3DES style=3D'font-size:12.0pt;mso-bidi-font-size:11.0pt;font-family:"=
Garamond",serif;
mso-ansi-language:ES'> Universidad Santander
(5)<=
span
lang=3DES style=3D'font-size:12.0pt;mso-bidi-font-size:11.0pt;font-family:"=
Garamond",serif;
mso-ansi-language:ES'> Universidad Tecnológica OTEIMA (UTO)
(6) Universidad del Istmo (UDI)
(7) Universidad Cristiana de Panamá (UCP)
8) Universidad Metropolitana de Educación Cie=
ncia
y Tecnología (UMECIT)
(9) Universidad Euroamericana (UEA)
(10) Red de Investigación de la Asociació=
;n
de Universidades Particulares de Panamá (REDIA)
*Autor para correspondencia. E-mail: =
mariana.leon@qlu.pa
=
Recibido: 19 de octubr=
e de
2020
Aceptado:
15 de noviembre de 2020
_________________=
_____________________________________________________________
Resumen
Luego que el Gobierno panameño decretara la
cuarentena absoluta y obligatoria para reducir la propagación del vi=
rus
COVID-19, las universidades panameñas tuvieron que migrar todos sus
programas académicos a la modalidad virtual, utilizando plataformas =
para
facilitar el proceso de enseñanza-aprendizaje. La investigación tuvo como
objetivo identificar las diferentes plataformas de aprendizaje que usan las
universidades en Panamá, así como evaluar éstas tomand=
o en
cuenta los indicadores de calidad desarrollados por Berrocal y Megías
(2015) agrupados en los siguientes aspectos: diseño, herramientas de
comunicación y aspectos académicos. Se adaptó y
validó por expertos el instrumento de recolección de datos, q=
ue
fue autoadministrado a través de la herramienta Google Forms. La muestra de estudio estuvo constituida por
profesores universitarios que han utilizado plataformas de aprendizaje virt=
ual.
El total de muestras válidas (n =3D 460) identificó las sigui=
entes
plataformas: Moodle (23%), Educativa (16%), Google Classroom (15%), Microso=
ft
Teams (14%), Canvas (14%), Chamilo (13%) y Schoology (5%). La media de
evaluación de las plataformas virtuales fue de 4.41 en una escala Li=
kert
de 5 puntos. Se encontraron diferencias significativas en las medias de eva=
luación
y las 7 plataformas virtuales de principal uso en educación superior.
Adicionalmente, se encontró una correlación positiva entre la
media de evaluación de las plataformas virtuales y el tiempo de uso =
y el
nivel de dominio de las mismas. Se observaron diferencias entre las medias =
de
evaluación por aspectos, con una tendencia de evaluación mayor
para herramientas disponibles y evaluación menor para aspectos
académicos. No se encontraron diferencias en las medias de
evaluación y el sexo del participante, con una media casi
idéntica entre hombres y mujeres.
Palabras clave:=
b> plataforma virtual, educación superior, COVID=
-19,
evaluación, Panamá. =
span>
Abstract
After
the Panamanian government decreed complete and mandatory quarantine to redu=
ce
the spread of the COVID-19 virus, universities in Panamá had to migr=
ate
their academic programs to a virtual format, using platforms to facilitate =
the
learning process. The objective of this study was to identify the different
learning platforms used by universities in Panamá, and to evaluate t=
hese
platforms taking into account the quality indicators developed by Berrocal =
and
Megías (2015), that are grouped into the following aspects: design,
tools, and academic aspects. The data collection instrument was adapted and
validated by experts and then self-administered through Google Forms. The s=
tudy
sample were university faculty that had previously used virtual learning
platforms. The total valid sample (n =3D 460) identified the following plat=
forms:
Moodle (23%), Educativa (16%), Google Classroom (15%), Microsoft Teams (14%=
),
Canvas (14%), Chamilo (13%), and Schoology (5%). The evaluation mean of the
virtual platforms was 4.41 in a 5-point Lickert scale. Significant differen=
ces
were found among the evaluation means and the 7 main virtual platforms being
used in higher education. We also found a positive correlation between the
evaluation means, time of use, and level of expertise of these platforms.
Differences between the evaluation means by aspects were observed, with a
tendency of greater evaluation for available tools, and a lower evaluation =
for
academic aspects. No differences were found in the evaluation means and
participant sex, with an almost identical mean between men and women.
Keywords:
virtual platform, higher education, COVID-19, evaluation, Panamá.
1. Introducción
Desde marzo de 2020, millones de estudiantes y profesores se han vis=
to
afectados por la suspensión de clases en todo el mundo. Muchas
instituciones educativas decidieron continuar con su período
académico y tuvieron que adoptar estrategias de acceso remoto y
virtualización para no detener los procesos de formación de s=
us
estudiantes.
En Panamá la situación no fue diferente. Luego que el
Gobierno panameño decretara la cuarentena absoluta y obligatoria para
reducir la propagación del virus COVID-19, las universidades
panameñas tuvieron que migrar toda su oferta académica a la
modalidad virtual. Algunas universidades ofrecían carreras y program=
as
solamente en la modalidad presencial, mientras que otras, ya venían
usando la semipresencial y la virtual.
Para la virtualización del proceso educativo es indispensable
contar con plataformas digitales y equipo técnico necesario para su
correcto funcionamiento. Según el Observatorio de Innovación
Educativo del Tecnológico de Monterrey, es importante que las
instituciones educativas adquieran y/o actualicen sus plataformas de
enseñanza virtual para que puedan responder eficazmente en caso de u=
na
crisis, tal y como lo ha sido la del COVID-19 (Delgado, 2020).
Aunque para que se lleve a cabo el aprendizaje en la modalidad virtu=
al
se requiere de una plataforma tecnológica, también es importa=
nte
resaltar que el profesorado tiene un importante rol, tal y como lo afirma
Bautista (2011); ya que una de las funciones de los docentes es la de
“diseñar las actividades y espacios en los que éstas de=
ben
desarrollarse” (p.53). También es importante el rol asesor que
tienen los profesores para motivar y estimular a los estudiantes en el proc=
eso
de educación virtual (Manrique Maldonado & Sánchez-L&oacu=
te;pez,
2019).
Según UNESCO (IESALC, 2020) las principales dificultades de l=
os
estudiantes de educación superior durante la pandemia son la
conexión a internet, el mantenimiento de un horario regular y las
preocupaciones económicas. Este contexto permite entender la
situación actual del estudiante, pues en el diseño de las
sesiones de clases se debe garantizar el desarrollo de los procesos educati=
vos
a todos los estudiantes, a través de la flexibilidad curricular, la
combinación de actividades síncronas y asíncronas,
así como digitales y análogas. Para llevar a cabo estas
actividades es imprescindible el uso de plataformas de aprendizaje como med=
io
para el desarrollo de los procesos de enseñanza-aprendizaje.
Este trabajo de investigación tuvo como objetivo identificar =
las
diferentes plataformas de aprendizaje que usan las universidades particular=
es
en Panamá, así como evaluar éstas, tomando en cuenta l=
os
indicadores de calidad desarrollados por Berrocal & Megías
(2015) agrupados en los siguientes bloques: diseño, herramientas de
comunicación y aspectos académicos.
Las hipótesis =
que
se exploraron en este estudio fueron las siguientes:
Hipótesis 1:=
span>
No hay diferencias significativas entre las medias de evaluación y l=
as
diferentes plataformas virtuales.
En el contexto universitario en Panamá, hay una diversidad de
plataformas virtuales que están siendo utilizadas en las institucion=
es
de educación superior. Esta hipótesis pretende explorar si
existen diferencias significativas por plataforma según las evaluaci=
ones
de los participantes. En cierta medida, esta información ayudar&aacu=
te;
a establecer la calidad o preferencia de algunas plataformas por encima de
otras.
Hipótesis 2:=
span>
No hay diferencias significativas en las medias de evaluación y los =
tres
aspectos de evaluación de las plataformas virtuales (aspectos de
diseño, herramientas disponibles, aspectos académicos).
Berrocal y Megías (2015) proponen=
tres
aspectos principales que inciden en la calidad de una plataforma virtual, p=
or
lo que se agrupan los ítems pertenecientes a cada aspecto, para tene=
r un
mejor entendimiento del desempeño de cada plataforma por aspecto.
Hipótesis 3:=
span>
No hay diferencias significativas en las medias de evaluación y el s=
exo
del participante.
Se busca entender si existen diferencias en la evaluación que
otorga el participante, dependiendo de su sexo. De existir estas diferencia=
s,
tomadores de decisión de educación superior y tecnologí=
;as
de aprendizaje, deben establecer apoyos dirigidos a la población que
así lo requiera.
Hipótesis 4:=
span>
No hay diferencias significativas entre la media de evaluación del
docente y la cantidad de tiempo que lleva usando la plataforma.
Hipótesis 5: No hay diferencias significativas entre la media=
de
evaluación del docente y el nivel de dominio que tiene de la platafo=
rma.
2. Antecedentes
En la educación virtual es indispensable disponer de un espac=
io
donde estudiantes y profesores puedan compartir contenidos, hacer consultas
para aclarar dudas, intercambiar experiencias y hacer evaluaciones entre ot=
ros.
Estos espacios permiten usualmente intercambios asíncronos y son
denominadas aulas virtuales (AV). En la literatura especializada se encuent=
ran
descritas muchas experiencias de diseño de estas aulas; tal es el ca=
so
del trabajo de González-Hernández (2019) quien reporta una
experiencia en el diseño de una AV para aumentar el grado de
satisfacción en el aprendizaje de las matemáticas en estudian=
tes
del tercer grado en la Institución Educativa Neira (Colombia). La
investigadora afirma que el AV diseñada “mejoró la
percepción y aumentó el grado de satisfacción frente al
estudio de las matemáticas” (González-Hernández,
2019, p. 211).
En la literatura especializada se encuentran estudios puntuales para
evaluar plataformas virtuales específicas. Tal es el caso de la inve=
stigación
realizada por Guel et al. (2016) para la plataforma Blackboar=
d
que usa el Tecnológico de Monterrey para impartir los cursos de
maestría en línea. Ellos usaron seis (6) indicadores para eva=
luar
la usabilidad, metodología, calidad y organización del conten=
ido, capacidad de motivación e interacción de aulas
virtuales del primer año de programas de maestría. Diseñaron un cuestionario
con el objeto de conocer las impresiones y nivel de satisfacción de =
los
estudiantes. Los investigadores aseguran que los principales hallazgos en la
investigación fueron que los alumnos consideran muy importante, al
momento de cursar una maestría en línea, la metodología
usada por el docente, la relevancia práctica del curso y la
motivación y de menor importancia a la facilidad de uso de la plataf=
orma
de aprendizaje.
Estrada & Boude (2015) diseña=
ron un
instrumento para evaluar un ambiente virtual de aprendizaje (AVA) para la
Maestría en Informática Educativa de la Universidad de La Sab=
ana
en Colombia. Los autores usaron siete (7) criterios que incluyeron aspectos
pedagógicos y tecnológicos, tales como objetivos de ense&ntil=
de;anza
y competencias para el siglo XXI, enfoque pedagógico, actores y
comunicación, estrategia y contenidos, actividades estratégic=
as y
evaluación, integración de las TIC y calidad y pertinencia. C=
ada
criterio tenía cinco (5) parámetros dando un total de 35 items.
Un estudio previo (Fernández-Pascual et al, 2013) tuvo como
objetivos “evaluar el grado de satisfacción de la formaci&oacu=
te;n
recibida en un entorno virtual y analizar su capacidad predictiva sobre la
satisfacción” (p. 167). Para ello utilizaron el cuestionario <=
span
class=3DSpellE>Distance Education Learning Enviroment Survey (Sp-DELES). Las
dimensiones que incluye el referido cuestionario son: apoyo al profesorado,
interacción y colaboración entre estudiantes, relevancia
personal, aprendizaje real, aprendizaje activo y autonomía (Falta ci=
ta
directa de DELES). Una de las conclusiones de este estudio fue que la mayor
parte de los estudiantes encuestados se sienten notablemente satisfechos co=
n la
metodología de enseñanza aprendizaje.
Navarro Rodríguez et =
al.
(2018) propusieron rúbricas para evaluar ambientes virtuales de
aprendizaje (AVA). Su objetivo era lograr una evaluación integral ba=
sada
en las variables satisfacción de los usuarios y la calidad del ambie=
nte
virtual.
Hay pocos estudios actuales que evalúen propiamente a las
plataformas de aprendizaje per se. Uno de ellos es el realizado por Berrocal
& Megías (2015). La estructura del
cuestionario propuesto por Berrocal & Megía=
s
(2015) es la mostrada en la Tabla 1. Los autores recomiendan el uso de una
escala de Likert.
Tabla 1:
Bloques e ítems del cuestionario propuesto por Berrocal & Megías (2015).
Bloque=
|
Items |
Diseño |
•<=
span
style=3D'font:7.0pt "Times New Roman"'> &nbs=
p;
Menús y botones de
navegación accesibles. •<=
span
style=3D'font:7.0pt "Times New Roman"'> &nbs=
p;
Notificaciones de sucesos y eve=
ntos
desde la última conexión. •<=
span
style=3D'font:7.0pt "Times New Roman"'> &nbs=
p;
Múltiples opciones de
personalización de los menús, el escritorio, agenda...etc. =
•
Herramienta flexib=
le. •
Facilidad de uso. •
Ayuda para el uso. •<=
span
style=3D'font:7.0pt "Times New Roman"'> &nbs=
p;
Tasas de abandono y visitas por
parte del alumnado de mi/s asignatura/s •<=
span
style=3D'font:7.0pt "Times New Roman"'> &nbs=
p;
Visitas del alumnado con
búsquedas para consultar material y documentación de la
plataforma •<=
span
style=3D'font:7.0pt "Times New Roman"'> &nbs=
p;
Facilita la navegación
mediante pestañas. |
Herramientas |
=
•<=
span
style=3D'font:7.0pt "Times New Roman"'> &nbs=
p;
Herramientas de comunicaci&oacu=
te;n
síncronas (foros de debate, pizarra y chats) =
•<=
span
style=3D'font:7.0pt "Times New Roman"'> &nbs=
p;
Herramientas de comunicaci&oacu=
te;n
asíncronas (correo y mensaje internos, charlas). =
•<=
span
style=3D'font:7.0pt "Times New Roman"'> &nbs=
p;
Existe aplicación de la
plataforma (app) =
•<=
span
style=3D'font:7.0pt "Times New Roman"'> &nbs=
p;
Los recursos multimedia facilit=
an
el aprendizaje y el estudio •
La calidad de los recursos
multimedia es adecuada |
Aspectos=
b> académicos |
•
Difusión de materiales de estudio •<=
span
style=3D'font:7.0pt "Times New Roman"'> &nbs=
p;
Creación de espacios de
trabajo compartidos •
Tutorizació=
;n: o
La comunicación con el alumnado o<=
span
style=3D'font:7.0pt "Times New Roman"'> =
La
multidisciplinariedad, es decir, la conexi&oa=
cute;n
con compañeros de asignatura o departamento relacionados con el
alumnado o<=
span
style=3D'font:7.0pt "Times New Roman"'> =
Visitas
del alumnado con realización de actividades o<=
span
style=3D'font:7.0pt "Times New Roman"'> =
Tasas
de abandono y visitas por parte del alumnado de mi/s asignatura/s o<=
span
style=3D'font:7.0pt "Times New Roman"'> =
Visitas
del alumnado con búsquedas para consultar material y
documentación de la plataforma&nb=
sp;
•
Evaluación=
: o<=
span
style=3D'font:7.0pt "Times New Roman"'> =
La
plataforma permite evaluar los trabajos entregados por el alumnado o<=
span
style=3D'font:7.0pt "Times New Roman"'> =
La
plataforma me permite publicar las calificaciones de las actividades del =
alumnado
o<=
span
style=3D'font:7.0pt "Times New Roman"'> =
La
plataforma facilita la entrega de calificaciones •<= span style=3D'font:7.0pt "Times New Roman"'> &nbs= p; Modalidad de enseñanza: = b-learning o e-learning:<= o:p> o<=
span
style=3D'font:7.0pt "Times New Roman"'> =
En
el desarrollo del curso, la plataforma me permite proponer tanto activida=
des
online como presenciales o<=
span
style=3D'font:7.0pt "Times New Roman"'> =
La
plataforma se usa como una herramienta de aprendizaje a distancia: solo h=
ay
actividades y trabajos autónomos desde casa o<=
span
style=3D'font:7.0pt "Times New Roman"'> =
Las
actividades y documentos de la plataforma son un con complemento del trab=
ajo
que se hace en clase presencial •<=
span
style=3D'font:7.0pt "Times New Roman"'> &nbs=
p;
Asignaturas (crear y editar
material de estudio para compartir): o<=
span
style=3D'font:7.0pt "Times New Roman"'> =
Facilita
el diseño de materiales de estudio para ser utilizados en las
asignaturas |
Fuente: Berrocal & Megías (20=
15).
Contexto de la
Educación Superior en Panamá
Según Gómez et al. (2019) en Panamá existen 5
universidades oficiales y 31 universidades particulares con planes de estud=
ios
aprobados por la Comisión Técnica de Desarrollo Académ=
ico
(CTDA). Adicionalmente, operan 6 universidades establecidas en la Ciudad del
Saber que funcionan bajo un Decreto de Ley Especial (Ley 6 de 10 de febrero=
de
1998).
En Panamá, con la Ley 30 de 20 de julio de 2006, se cre&oacut=
e;
el Sistema Nacional de Evaluación y Acreditación para el
Mejoramiento de la Calidad de la Educación Superior Universitaria y =
dos
organismos con funciones para la acreditación de instituciones de
educación superior: el Consejo Nacional de Evaluación y
Acreditación Universitaria de Panamá (CONEAUPA) y la antigua
Comisión Técnica de Fiscalización (CTF), hoy
Comisión Técnica de Desarrollo Académico (CTDA).
Actualmente, la Ley 52 es la que regula todos los procesos de
acreditación institucional y de carreras que son obligatorios para t=
odas
las universidades que operan en territorio panameño.
Plataformas educativa=
s en
Panamá
El instrumento permitió la identificación de un total =
de
11 plataformas utilizadas por docentes que laboran en instituciones de
educación superior en Panamá: Blackboard=
,
Canvas, Chamilo, Go=
ogle Classroom, Cloud Campus Pro, Edm=
odo,
Educativa, Microsoft Teams, Moodle, Renweb y Schoology. Las
plataformas de Blackboard, Cloud Campus Pro, Edmodo y Renweb, recibier=
on menos
de 6 evaluaciones cada una, por lo que no fue posible incluirlas en el estu=
dio.
A continuación se presenta una
descripción breve de las plataformas que fueron evaluadas, las cuales
formaron parte del análisis y discusión del presente estudio.=
Canvas:
Plataforma LMS
open source que opera bajo la licencia AGPLv3
desarrollada por instructure en 2011.
Chamilo: Plataforma LMS=
para
e-learning libre, licenciada bajo la GNU/GPLv3.=
Google Classroom: Plataforma LMS cread=
a por
Google e=
n 2014
especialmente para ser usada en el mundo educativo.
E ducativa:
Plataforma e-learning para dictar cursos y gest=
ionar
material educativo. Su desarrollo está basado en el concepto de
colaboración.
Microsoft Teams: Plataforma unificada de comunicac=
ión
y colaboración que puede ser usada para fines educativos.
Moodle: Plataforma
LMS para la gestión de aprendizaje, de distribución libre,
escrita en PHP.
Schoology: Plataforma LMS=
de
uso gratuito o a través de licenciamiento pagado por instituci&oacut=
e;n,
diseñado para instituciones educativas.
3. Materiales y métodos<= o:p>
El
estudio se realizó bajo el enfoque cuantitativo, el tipo de
investigación descriptivo, con diseño transversal, no
experimental. Se desarrolló en tres fases: adaptación de las
encuestas, evaluación de la validez y confiabilidad y la fase de
envío y recogida del instrumento. El uso de la encuesta como
técnica de recolección de datos, permitió obtener
descripciones numéricas de algunas tendencias, actitudes y opiniones=
de
la muestra (Creswell, 2013). Adicionalmente, el
carácter descriptivo del estudio permiió=
caracterizar el uso de plataformas virtuales en la educación superio=
r en
Panamá, además de ser útil para mostrar diferentes fac=
etas
o dimensiones y documentar información que confirme algunas suposici=
ones
sobre el tema de estudio (Hernández Sampieri y
Mendoza, 2018).
Población y muestra
La
población de estudio estuvo constituida por docentes universitarios =
de
Panamá. Los criterios de inclusión para poder participar del
estudio fueron que el docente debía enseñar en Panamá,=
y
además haber utilizado al menos una plataforma de aprendizaje virtua=
l en
los 4 meses previos a la aplicación del instrumento.
En
el 2017, la población de docentes universitarios estuvo compuesta po=
r un
total de 14.589 docentes, de los cuales 8.729 forman parte de las universid=
ades
oficiales (4.432 hombres y 4.297 mujeres) y 5.860 docentes afiliados a
universidades particulares (3.120 hombres y 2.740 mujeres) (Instituto Nacio=
nal
de Estadística y Censo, 2017; Instituto de Investigación de
AUPPA, 2019). Es importante resaltar que esta cifra no necesariamente refle=
ja
la realidad del total de docentes universitarios, ya que el conteo no toma =
en
cuenta profesores que enseñan en más de una universidad, crea=
ndo
la oportunidad para que existan registros duplicados de docentes en esta
estadística.
A
pesar de que la muestra total analizada (n =3D 460) no es representativa de=
toda
la población docente universitaria en Panamá, y los resultado=
s de
este estudio no son generalizables, sus resultados son novedosos y muestran=
una
descripción con criterios científicos sobre el contexto actua=
l en
el que se desenvuelve la educación universitaria virtual en
Panamá.
Instrumento
El
instrumento utilizado en este estudio fue un cuestionario adaptado denomina=
do
“Indicadores de calidad para la evaluación de Plataformas
Virtuales” desarrollado por Berrocal y Meg&iacut=
e;as
(2015). En este estudio, se operacionaliza el
cuestionario en 5 dimensiones; tipos de plataforma, aspectos de diseñ=
;o,
herramientas disponibles, aspectos académicos y grado de
satisfacción, dividido en 23 indicadores y 32 ítems. Se emplea
una escala de Likert de 5 puntos, siendo 1 el puntaje más bajo
(totalmente en desacuerdo) y 5 el puntaje más alto (totalmente de
acuerdo).
Algunas
preguntas utilizaron otras escalas. Por ejemplo, se añadió un
ítem de nivel de dominio que el docente consideraba que tenía
sobre la plataforma, con 4 opciones: ninguno, poco, medio, bueno, alto.
También se incluyó un ítem sobre tiempo de uso de la
plataforma virtual con los siguientes rangos de opción: menos de 6 m=
eses,
entre 7 a 11 meses, entre 1 a 2 años, más de dos años.
Estos ítems fueron clave para el análisis de las hipót=
esis
4 y 5.
A
pesar de que ya el instrumento contaba con una validación y pruebas
previas de confiabilidad, se realizaron algunos cambios en el texto de los
ítems para que el palabreo fuera más cónsono con los
matices de la cultura de aplicación del estudio, logrando así
contextualizarlo. Un panel de 10 expertos en educación superior y
educación virtual llenaron un instrumento de validación que
incluía verificación de la operacionaliz=
ación
de los ítems, así como campos para realizar sugerencias a cada
ítem. Con base a las sugerencias de los pares, se realizaron algunos
cambios al instrumento final. En su
estudio, Berrocal y Megías realizan dife=
rentes
pruebas para comprobar la validez y consistencia interna del instrumento,
facilitando la replicabilidad del instrumento p=
ara
otros contextos. Estos investigadores obtuvieron un Alfa de Cronbach
de .821. Adicionalmente, presentan resultados de análisis factorial =
por
ítem, resultando en índices mayores de .500 para cada í=
;tem
evaluado.
El
instrumento para la recolección de datos se basó en la siguie=
nte
tabla de operacionalización de variable:=
Tabla 2: Tabla de
Operacionalización
DIMENSI=
ONES |
INDICAD=
ORES |
Tipos |
Tipos
de Plataformas Nivel
de dominio Tiempo de |
Aspecto=
s de
Diseño |
Menús
y botones de navegación Opciones
de personalización |
Herramientas disponibles |
Facilidad
de uso Facilidad
de navegación |
Aspectos académicos |
Comunicación
síncrona Comunicación
asíncrona APP |
Grado de |
Recursos
multimedia |
Fuente:
Elaboración propia (2020)
Recolección de datos
El
instrumento fue auto-administrado de manera digital a través de Goog=
le Forms y estuvo habilitado por un periodo de un mes, d=
urante
agosto del 2020. El instrumento fue divulgado a encargados de
investigación de universidades panameñas oficiales y
particulares, para que lo compartieran con la planta docente de sus institu=
ciones.
Fue también compartido a través de gremios universitarios com=
o la
Asociación de Universidades Particulares de Panamá y el Conse=
jo
de Rectores de Panamá. Asimismo, se realizó divulgació=
n en
redes sociales y de comunicación digital, tales como Facebook y Whatsapp.
Al
instrumento digital le precedía un formulario de consentimiento
informado digital, que cada participante debía leer y afirmar su
consentimiento para poder pasar al llenado de la encuesta. Si el participan=
te
respondía que no daba su consentimiento a participar del estudio, la
página emitía un mensaje de agradecimiento. Si el participante
respondía que sí otorga consentimiento, la página llev=
aba
al participante directamente al instrumento. Al terminar el instrumento, se
emitía un mensaje de agradecimiento automático.
Los
investigadores decidieron no preguntar a los docentes la universidad de
afiliación de cada participante y el participante únicamente
debía marcar la plataforma virtual que estaba evaluando. Si el docen=
te
hubiera tenido la oportunidad de usar y conocer más de una plataforma
virtual, éste tenía permitido llenar varios formularios evalu=
ando
diferentes plataformas.
Al
formulario entraron 540 registros, que fueron depurados para eliminar regis=
tros
duplicados. También se eliminaron registros que evaluaban herramient=
as
de videoconferencias (por ejemplo Zoom, Meet, Jitsi y Webex),
ya que no eran objeto de evaluación de este estudio, y que por algun=
os
participantes fueron confundidas como plataformas virtuales de aprendizaje.
Para motivos de análisis también se excluyeron algunas
plataformas que recibieron pocas respuestas (menos de 7 cada una), como
Método de Análisis =
de
Datos
Para
analizar los datos se usó Microsoft Excel y SPSS. Excel fue utilizado
para la depuración inicial de los registros y para obtener
estadísticas descriptivas. Algunas de las estadísticas
descriptivas que se calcularon fueron cantidad de registros por plataforma,
cantidad de registros por sexo y medias de evaluación por item por plataforma y por categoría.
SPSS
fue utilizado para las estadísticas inferenciales que requerí=
an
las diferentes hipótesis planteadas al inicio del estudio.
Adicionalmente, SPSS se utilizó para observar si la distribuci&oacut=
e;n
de la muestra era normal y si había homogeneidad de la varianza, a
través de las pruebas Shapiro-Wilk y
3. Resultados
Para
la hipótesis 1, se realizó la prueba no paramétrica Kruskal-Wallis para reemplazar la ANOVA unidirecciona=
l,
debido a que la muestra falló dos asunciones clave para poder realiz=
ar
el ANOVA: distribución normal de la muestra y homogeneidad de varian=
za.
Se trató de arreglar la distribución, eliminando los 5 regist=
ros
con medias más altas y más bajas por plataformas, pero ambas
pruebas seguían demostrando una distribución anormal y falta =
de
homogeneidad en la varianza.
Adicional
a la Kruskal Wallis H también se
realizó la prueba Dunn de comparaci&oacu=
te;n
de parejas para tener un mejor entendimiento de cuáles plataformas m=
ostraban
las diferencias más significativas entre sí. La tabla 3 muest=
ra
la media de evaluación y la cantidad de registros por plataforma. La
plataforma de Moodle registró el número más alto de
registros, y Schoology el número m&aacut=
e;s
bajo de registros. La plataforma con la media de evaluación má=
;s
alta fue Canvas y la plataforma con la media de
evaluación más baja fue Microsoft Teams<=
/span>.
Tabla 3. Media
de evaluación y número de registros por plataforma.
PLATAFO=
RMA |
MEDIA DE
EVALUACIÓN |
N&Uacut=
e;MERO
DE REGISTROS |
CANVAS<= o:p> |
4.50 |
65 |
CHAMILO=
|
4.04 |
61 |
E-DUCAT=
IVA |
4.36 |
76 |
GOOGLE
CLASSROOMS |
4.01 |
68 |
MICROSO=
FT TEAMS |
3.95 |
63 |
MOODLE<= o:p> |
4.31 |
104 |
SCHOOLO=
GY |
4.44 |
23 |
Fuente:
elaboración propia (2020)
La prueba Krus=
kal-Wallis
H demostró que hay una diferencia estadísticamente significat=
iva
entre la media de evaluación de los docentes y las diferentes
plataformas, χ2(2)
=3D 61.966, p < 0.001. Por ende, se rechaza la hipótesis nula. La
prueba Dunn de comparación de parejas
demostró que las diferencias se encontraron entre Google Classrooms y cuatro plataformas, entre ellas Moodle,
Educativa, Schoology y Can=
vas.
También se encontraron diferencias significativas entre Microsoft Teams y las mismas cuatro plataformas. Esto indica qu=
e las
dos plataformas que obtuvieron las evaluaciones más bajas mostraron
diferencias significativas entre las 4 plataformas que salieron mejor
evaluadas.
Para
la hipótesis 2, se realizaron pruebas descriptivas para observar si
había alguna diferencia en las medias de los tres aspectos por
plataforma. La Tabla 4 muestra los resultados de la media de evaluaci&oacut=
e;n
por aspecto, agrupado por plataforma. Se encontró que
en cada una de las plataformas, los aspectos académicos fue el menor
evaluado en las 7 plataformas. También, herramientas disponibles fue=
el
aspecto con mayor puntaje en 6 de las 6 plataformas.
Tabla 4.
Media de evaluación por aspecto, agrupado por plataforma.
PLATAFORMA |
ASPECTOS DE DISEÑO |
HERRAMIENTAS DISPONIBLES |
ASPECTOS ACADÉMICOS |
CANVAS<= o:p> |
4.54 |
4.54 |
4.31 |
CHAMILO=
|
4.16 |
4.21 |
3.94 |
E-DUCAT=
IVA |
4.40 |
4.47 |
4.19 |
GOOGLE
CLASSROOMS |
4.12 |
4.17 |
3.82 |
MICROSO=
FT TEAMS |
3.99 |
4.10 |
3.81 |
MOODLE<= o:p> |
4.36 |
4.43 |
4.09 |
SCHOOLO=
GY |
4.48 |
4.39 |
4.27 |
Fuente:
elaboración propia (2020)
Para
probar la hipótesis 3, se realizó la prueba t de muestras
independientes y la prueba de Levene de igualda=
d de
varianzas. La Tabla 5 muestra la media de evaluación por sexo, indic=
ando
una media casi identica entre hombres y mujeres=
.
Tabla 5.
Media de evaluación por sexo.
SEXO |
MEDIA DE
EVALUACIÓN |
MASCULI=
NO |
4.2187<= o:p> |
FEMENIN=
O |
4.22 |
Fuente:
elaboración propia
La
prueba Levene de igualdad de varianzas result&o=
acute;
en p =3D .652 lo cual demuestra que las varianzas entre las mujeres y los h=
ombres
en la muestra son similares. La prueba t de muestras independientes
demostró que no hay diferencias significativas entre las medias de
evaluación de plataformas (sin importar cuál es la plataforma=
) y
el sexo del participante (t416.224 =3D -.022, p =3D .982).
Para
la hipótesis 4, se aplicó la prueba no paramétrica
Tabla 6.
Media de evaluación por tiempo de uso de la plataforma.
TIEMPO =
DE USO |
MEDIA DE
EVALUACIÓN |
Menos d=
e 6
meses |
4.04 |
De 7 a =
11 meses |
4.17 |
Entre 1=
y 2
años |
4.16 |
M&aacut=
e;s de 2
años |
4.41 |
Fuente:
elaboración propia (2020)
La
prueba Kruskal-Wallis H demostró que hay=
una
diferencia estadísticamente significativa entre la media de
evaluación de los docentes y el tiempo de uso de plataforma, =
χ2(2) =3D 38.745, p < 0.001.
Por
último, para la hipótesis 5, se realizó la prueba no
paramétrica Kruskal-Wallis para reemplaz=
ar la
ANOVA unidireccional, debido a que la muestra falló una asunci&oacut=
e;n
clave para poder realizar el ANOVA: distribución normal de la muestr=
a.
Tabla 7.
Media de evaluación por nivel de dominio de la plataforma.
NIVEL DE
DOMINIO |
MEDIA DE
EVALUACIÓN |
Bajo |
3.68 |
Medio <= o:p> |
3.8 |
Bueno |
4.21 |
Alto |
4.45 |
Fuente:
Elaboración propia (2020)
La
prueba Kruskal-Wallis H demostró que hay=
una
diferencia estadísticamente significativa entre la media de
evaluación de los docentes y el tiempo de uso de plataforma, =
χ2(2) =3D 88.573, p < 0.001.
4. Discusión
En
los resultados indicamos que las dos plataformas que obtuvieron las
evaluaciones más bajas fueron la Microsoft Team=
s
y Google Classroom, las cuales mostraron difere=
ncias
significativas entre las 4 plataformas que salieron mejor evaluadas: Chamilo, E-ducativa, Schoology y Canvas. En es=
te
resultado es importante tomar en cuenta otros factores que pueden influir e=
n la
relativa baja calificación otorgada a Teams y Classroom, entre ellas el hecho de que también
fueron las plataformas en las que sus usuarios tienen menor tiempo de uso. =
Teams y Classroom han sido
herramientas que han cobrado relevancia durante la pandemia, mientras que
plataformas como Chamilo, E-ducativa,
Schoology y Canvas
reportaron tiempos de uso mayores a un año, demostrando que estaban =
en uso
previo a la pandemia.
Las
medias de evaluación por plataforma proveen una mirada importante ha=
cia
la calidad percibida que tienen éstas por parte de los docentes que =
las
utilizan a diario para impartir sus cursos en la modalidad virtual. La
utilización de plataformas virtuales durante la pandemia ha sido
esencial para que los docentes puedan realizar su labor y la importancia de=
las
mismas queda plasmada claramente en el resultado de la media de ítem=
s,
que buscan obtener una mirada a la actitud del docente frente al uso de las
mismas. Por ejemplo, el ítem: “Considero que el uso de la
plataforma mejora la calidad del aprendizaje virtual de las asignaturasR=
21;,
obtuvo una media de evaluación de 4.42, y estuvo entre los ít=
ems
individuales con mayor evaluación. Este ejemplo plasma que existe una
aceptación y actitud positiva a trabajar con plataformas virtuales. =
Hubo
dos ítems relacionados que obtuvieron altas evaluaciones: “La
plataforma permite evaluar los trabajos entregados por los estudiantes̶=
1;,
y “La plataforma permite publicar las calificaciones de las actividad=
es
de los estudiantes”, con promedios de 4.51 y 4.45, respectivamente. E=
stas
altas calificaciones reflejan el buen desempeño de las 7 plataformas
virtuales expuestas en este estudio hacia estos aspectos esenciales y
también refleja lo importante que es para el docente, tener mecanism=
os
adecuados para evaluar a su estudiante y otorgarle una calificación.=
Es
importante también discutir algunos ítems que obtuvieron baja
evaluación. El ítem: “La plataforma facilita de alguna
manera su uso a las personas con discapacidad”, fue el menor evaluado,
con una media de 3.25. La pandemia ha dejado en evidencia que cuando toda la
población universitaria panameña debe tomar sus asignaturas en
una modalidad virtual, las plataformas virtuales que están siendo
utilizadas, no están integrando adecuadamente estrategias de inclusividad que faciliten su uso a estudiantes con
discapacidad. Este tema impone un reto no solamente a las plataformas virtu=
ales
que deben integrar elementos de inclusividad, s=
i no a
las universidades y al docente, que debe atender al estudiante con discapac=
idad
y dedicar esfuerzos para transformar su contenido académico hacia
formatos adecuados para estudiantes no videntes, con discapacidad auditiva e
inclusive estudiantes con trastornos de aprendizaje, entre otros.
Otro
ítem que vale la pena discutir expone: “Dentro de la plataforma
existe un enlace para emitir mis sugerencias o incidencias a la figura que =
sea
pertinente, si tengo algún problema, de forma rápida y
clara”. Este ítem obtuvo una media general de 3.73. Este enunc=
iado
se refiere a que el docente tenga un espacio para expresar sus dudas en cua=
nto
a la plataforma y que las mismas sean resueltas oportunamente. A pesar de q=
ue
el ítem se refiere expresamente a que la misma plataforma ofrezca es=
te
servicio, es probable que el docente también interprete el ít=
em
como un servicio de soporte también ofrecido por la universidad. En
cualquier caso, es importante que tanto las plataformas virtuales, como las
universidades, le ofrezcan a sus docentes opcion=
es
rápidas de soporte que incrementen la auto-confianza del docente fre=
nte
al uso de tecnologías en el aula.
Adicionalmente,
el ítem: “La plataforma permite registrar la asistencia de los
estudiantes”, obtuvo una media general de 3.79, con 6 de 7 plataformas
obteniendo un puntaje menor a 4.0. Este tema es relevante, especialmente pa=
ra
la realización de cursos sincrónicos en donde se utiliza una
variedad de herramientas de videoconferencia y el docente busca un recurso =
que
le permita marcar la asistencia del estudiante de manera ágil.
Al
tener estadísticas sobre el nivel de dominio y tiempo de uso y su
relación con la media de evaluación de las plataformas, busca=
mos
también establecer una relación entre las cuatro variables, c=
omo
se demuestra en la Tabla 7.
Tabla 7.
Comparativo de plataforma, nivel de dominio, tiempo de uso y media de
evaluación.
PLATAFORMA |
NIVEL DE DOMINIO |
TIEMPO DE USO |
MEDIA DE EVALUACIÓN |
CANVAS<= o:p> |
3.38 |
3.08 |
4.49 |
CHAMILO=
|
3.28 |
3.28 |
4.04 |
E-DUCAT=
IVA |
3.14 |
2.79 |
4.35 |
GOOGLE
CLASSROOMS |
2.93 |
1.51 |
4.01 |
MICROSO=
FT TEAMS |
2.76 |
1.43 |
3.94 |
MOODLE<= o:p> |
3.30 |
3.28 |
4.3 |
SCHOOLO=
GY |
3.07 |
3.57 |
4.43 |
Fuente:
elaboración propia (2020)
Esta
tabla muestra que existe una relación entre la media de
evaluación baja y el bajo nivel de dominio y poco tiempo de uso de la
plataforma. Sin embargo, es importante recalcar que el nivel de dominio y
tiempo de uso es relevante, pero no se considera un determinante úni=
co
de la media de evaluación del participante.
5. Conclusión
La
pandemia del COVID-19 ha sido catalizadora del uso de la tecnología,=
en
donde la educación ha tenido que rápidamente responder al ret=
o de
no poder ofrecer educación presencial para reducir los riesgos de
propagación. Las plataformas virtuales, conformadas por diferentes
herramientas de aprendizaje y sistemas de gestión de aprendizaje (learning management systems o LMS),
han sido clave para una adecuada entrega de cursos virtuales en Panam&aacut=
e; y
alrededor del mundo. Este estudio aporta conocimiento nuevo a la ciencia de=
la
educación, ya que a través de la
aplicación de un instrumento previamente validado, generó
estadísticas necesarias para tener un mejor entendimiento de los
factores que influyen en la calidad de las plataformas virtuales.
Adicionalmente, se obtuvo información que aporta a una
caracterización del uso actual de plataformas virtuales, al identifi=
car
cuáles están en uso actualmente en el país y có=
mo
son evaluadas por los docentes que las utilizan.
Este
estudio abre puertas para futuras oportunidades de investigación, en
donde se amplíe la muestra hacia estudiantes que, acompañados=
por
sus docentes, son los usuarios clave de estas plataformas.
6. Referencias
Bautista, G. (2011). El acompañamiento del
estudiante: profesorado para una nueva forma de aprender. Evolución y retos de la educación virtual. Construyen=
do
el e-learning del siglo XXI. Barcelona: https://in=
desvirtual.iadb.org/mod/resource/view.php?id=3D128737.
Berrocal, E. B., & Meg&ia=
cute;as,
S. (2015). Indicadores de calidad para la evaluación de plataformas
virtuales. TEXTOS Revista Internacional de Aprendizaje y CiberSociedad,
19(2), 105–118.
Delgado, P. (8 de junio de 2020). Lecciones del
COVID-19 en el sector educativo. Recuperado de: =
https://ob=
servatorio.tec.mx/edu-news/lecciones-covid-19-educacion.
Estrada, E. & Boude, O.
(2015). Hacia una propuesta para evaluar ambientes virtuales para evaluar
ambientes virtuales de aprendizaje (AVA) en Educación Superior. Revi=
sta
Academia y Virtualidad, 8(2), pp. 14-23.
Fernández-Pascual, M. D., Ferrer-Cascales, R., & Reig-=
Ferrer,
A. (2013). Entornos virtuales: predicción de la satisfacción =
en
contexto universitario. Pixel-Bit. Revista de Medios y Educación, 43,
pp. 167-181. Disponible en: https://ru=
a.ua.es/dspace/bitstream/10045/33183/1/ENTORNOS_VIRTUALES_PREDICCION_DE_LA_=
SATISFACCION_EN_CONTEXTO_UNIVERSITARIO.pdf
Fernández-Pascual, M.D., Ferrer-Cascales, R., Reig-Ferrer=
, A., Albaladejo-Blázquez, N. & Walker, S. L. (2=
015). Validation of a Spanish version of the Distan=
ce
Education
Hernández-Sampieri,
R. & Mendoza, C (2018). Metodología de la
investigación. Las rutas cuantitativa, cualitativa y mixta, Ciudad de México,
México: Editorial Mc Graw Hill Education,
Año de edición: 2018, ISBN: 978-1-4562-6096-5, 714 p.
Instituto de Investigación de AUPPA (IdIA). (2019). Diagnóstico 2018 de Productivid=
ad,
Visibilidad e Impacto de las Universidades Particulares en Panamá.
Obtenido de: http://idia.org.pa/=
diagnosticos_de_productividad/
Instituto Nacional de Estadística y Censo
(INEC). (2020). PERSONAL DOCENTE DE EDUCACIÓN UNIVERSITARIA EN LA
REPÚBLICA: Año 2017. Retrived f=
rom:
<=
span
style=3D'font-size:12.0pt;mso-bidi-font-size:11.0pt;line-height:150%;font-f=
amily:
"Garamond",serif;color:#1155CC'>https://www.inec.gob.pa/publicaciones/
Learning
Environments Survey (DELES) in Spain. Learning Environ Res, 18, pp.
179–196. https://doi.org/10.1007/s10984-015-9179-0
Gómez, M.; Castillo, Y. & Villarreal, E.
(2019). El sistema de educación superior en Panamá. Reporte
Nacional. Panamá: RecoLATIN. Disponible =
en: http://=
www.recolatin.eu/wp-content/uploads/2017/06/National-Report-on-the-Higher-E=
ducation-systems-of-Panama_ES.pdf
González-Hernández, L. (2019). El au=
la
virtual como herramienta para aumentar el grado de satisfacción en el
aprendizaje de las matemáticas. Información Tecnológic=
a,
30(1), pp. 203-214.
IESALC (2020). COVID-19 y educación superio=
r:
De los efectos inmediatos al día después. Análisis de
impactos, respuestas políticas y recomendaciones. Recuperado de: http://www=
.iesalc.unesco.org/wp-content/uploads/2020/04/COVID-19-060420-ES-2.pdf
Manrique Maldonado, K. A. &
Sánchez-López, M. (2019). Satisfacción estudiantil
universitaria: Un referente para elevar los indicadores de los cursos en
línea impulsados por la Coordinación General de Educaci&oacut=
e;n
Virtual UAGro. Cuaderno de Pedagogía
Universitaria, 16(31), pp. 17-30. Disponible en: http://eds.b.ebscohost.com/eds/=
pdfviewer/pdfviewer?vid=3D2&sid=3D90d198af-2ad7-4e83-bd11-e2cb4a3c1ba1%=
40pdc-v-sessmgr05
Navarro Rodríguez, M., Edel
Navarro, R. & García López, R. I. (2018). Rúbrica =
para
evaluar ambientes virtuales de aprendizaje. 3C TIC. Cuadernos de desarrollo
aplicados a las TIC, 7(3), pp. 80-96. http://dx.doi.org/10.17993/3ctic.2018.61.80-96/
Invest. Pens. Crit. (ISSN 1812-3864; e=
ISSN
2644-4119)
DOI: =
https://doi.org/10.37387/ipc.v9i1.210
Vol. 9, No. 1, Enero
– Abril 2021
pp. 46 - 61
____________________________________________________________________=
_________________