178
Revista Científica Multidisciplinar
https://revistasaga.org/
e-ISSN
3073-1151
Enero-Marzo
, 2026
Vol.
3
, Núm.
1
,
178-188
https://doi.org/10.63415/saga.v3i1.337
Artículo de Investigación
.
Evaluación de la experiencia en entornos virtuales de aprendizaje de los
estudiantes de las escuelas de conducción en El Oro, Ecuador
Evaluation of the experience in virtual learning environments of driving school
students in El Oro, Ecuador
Avaliação da experiência em ambientes virtuais de aprendizagem dos estudantes das
escolas de condução em El Oro, Equador
Brayan Adrián Peñaloza García
1
1
Estudiante de Doctorado en Educación en Universidad TECH México, Zaruma, Ecuador
Recibido
: 2025-12-15 /
Aceptado
: 2026-01-20 /
Publicado
: 2026-01-30
RESUMEN
La implementación de entornos virtuales de aprendizaje (EVA) en escuelas de conducción profesional exige evaluar su
calidad para garantizar procesos formativos efectivos, especialmente en regiones con creciente digitalización educativa
como El Oro, Ecuador. Este estudio analizó la experiencia de 100 alumnos de dichas instituciones en cinco dimensiones:
Apariencia Visual, Comunicación, Recursos, Sistema de Evaluación y Retroalimentación. Mediante un diseño
cuantitativo, no experimental y descriptivo, se aplicó la Escala de Experiencia en EVA para Escuelas de Conducción (16
ítems, α = .926). Los datos se procesaron con estadística descriptiva (media, desviación estándar) e inferencial (ANOVA
de medidas repetidas con post hoc Bonferroni) en SPSS v.25.Los resultados revelaron una experiencia general positiva
(M = 3.78; DE = 0.71). Cuatro dimensiones obtuvieron niveles Altos: Recursos (M = 4.18), Apariencia Visual (M = 4.12),
Comunicación (M = 3.95) y Sistema de Evaluación (M = 3.89). En cambio, Retroalimentación mostró un nivel Bajo (M
= 2.52), significativamente inferior al r
esto (p < .001, ηp² = .655). Se concluye que, pese a una infraestructura tecnológica
y de contenidos robustos, persiste una brecha crítica en la retroalimentación pedagógica. Esta dimensión requiere
intervenciones urgentes, como fortalecer la formación docente en estrategias específicas, constructivas y oportunas, que
articulen el soporte tecnológico con prácticas pedagógicas significativas. Las instituciones deben priorizar mecanismos
sistemáticos de retroalimentación para optimizar el aprendizaje en entornos virtuales.
Palabras clave:
entorno virtual de aprendizaje, educación en línea, escuelas de conducción, retroalimentación formativa,
evaluación de la experiencia del usuario
ABSTRACT
The implementation of virtual learning environments (VLEs) in professional driving schools requires evaluating their
quality to ensure effective training processes, especially in regions with growing educational digitalization such as El
Oro, Ecuador. This study analyzed the experience of 100 students from these institutions across five dimensions: Visual
Appearance, Communication, Resources, Assessment System, and Feedback. Using a quantitative, non-experimental,
and descriptive design, the Virtual Learning Environment Experience Scale for Driving Schools (16 items, α = .926) was
applied. Data were processed using descriptive statistics (mean, standard deviation) and inferential statistics (repeated-
measures ANOVA with Bonferroni post hoc) in SPSS v.25. The results revealed an overall positive experience (M =
3.78; SD = 0.71). Four dimensions achieved High levels: Resources (M = 4.18), Visual Appearance (M = 4.12),
Communication (M = 3.95), and Assessment System (M = 3.89). In contrast, Feedback showed a Low level (M = 2.52),
being significantly lower than the other dimensions (p < .001, ηp² = .655).
It is concluded that, despite robust technological
and content infrastructure, a critical gap persists in pedagogical feedback. This dimension requires urgent interventions,
such as strengthening instructor training in specific, constructive, and timely feedback strategies that align technological
support with meaningful pedagogical practices. Institutions must prioritize systematic feedback mechanisms to optimize
learning in virtual environments.
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188
179
Keywords
: virtual learning environment, online education, driving schools, formative feedback, user experience
evaluation
RESUMO
A implementação de Ambientes Virtuais de Aprendizagem (AVAs) em escolas de condução profissional exige a avaliação
de sua qualidade para garantir processos formativos eficazes, especialmente em regiões com crescente digitalização
educacional, como El Oro, Equador. Este estudo analisou a experiência de 100 alunos dessas instituições em cinco
dimensões: Aparência Visual, Comunicação, Recursos, Sistema de Avaliação e Feedback. Utilizando um desenho
quantitativo, não experimental e descritivo, aplicou-se a Escala de Experiência em AVA para Escolas de Condução (16
itens, α = 0,926). Os dados foram processados com estatística descritiva (média, desvio padrão) e inferencial (ANOVA
de medidas repetidas com post hoc de Bonferroni) no SPSS v.25. Os resultados revelaram uma experiência geral positiva
(M = 3,78; DP = 0,71). Quatro dimensões atingiram níveis Altos: Recursos (M = 4,18), Aparência Visual (M = 4,12),
Comunicação (M = 3,95) e Sistema de Avaliação (M = 3,89). Em contraste, o Feedback apresentou um nível Baixo (M =
2,52), sendo significativamente inferior às demais dimensões (p < ,001, ηp² = ,655). Conclui
-se que, apesar de uma
infraestrutura tecnológica e de conteúdos robusta, persiste uma lacuna crítica no feedback pedagógico. Esta dimensão
requer intervenções urgentes, como o fortalecimento da formação de instrutores em estratégias de feedback específicas,
construtivas e oportunas, que alinhem o suporte tecnológico a práticas pedagógicas significativas. As instituições devem
priorizar mecanismos sistemáticos de feedback para otimizar a aprendizagem em ambientes virtuais.
Palavras-chave
: ambiente virtual de aprendizagem, educação online, escolas de condução, feedback formativo, avaliação
da experiência do usuário.
Forma sugerida de citar (APA):
Peñaloza García, B. A. (2026). Evaluación de la experiencia en entornos virtuales de aprendizaje de los estudiantes de las escuelas de conducción en
El Oro, Ecuador. Revista Científica Multidisciplinar SAGA, 3(1), 178-188.
https://doi.org/10.63415/saga.v3i1.337
Esta obra está bajo una licencia internacional
Creative Commons de Atribución No Comercial 4.0
INTRODUCCIÓN
La formación y capacitación inicial del
conductor profesional combina conocimientos,
habilidades y actitudes para garantizar una
movilidad segura, siendo la calidad de esta
formación un factor clave para evitar
accidentes de tráfico (Organización Mundial
de la Salud, 2022). Dicha formación se ha
digitalizado a través de Entornos Virtuales de
Aprendizaje (EVA), lo que aumenta la
capacidad y el acceso a la formación; sin
embargo, existen aspectos pedagógicos
estructurales que predicen la calidad de un
EVA (Garrison et al., 2010), entre ellos la
usabilidad del sistema, los recursos, la
interacción social y, especialmente, la
retroalimentación formativa en entornos
educativos donde los errores pueden acarrear
consecuencias irreversibles como las
relacionadas con la conducción (Black &
Wiliam, 2009).
La calidad de un EVA ya no se evalúa desde
una perspectiva meramente técnica, sino
también a través de modelos holísticos que
incluyen aspectos pedagógicos, tecnológicos,
sociales y de gestión (Rodríguez et al., 2020);
también existen modelos específicos, como el
modelo MERLOT que ofrece criterios
concretos para la evaluación del contenido de
un EVA, su potencial pedagógico y usabilidad
(Ossiannilsson, 2021); y, como ya se ha
mencionado, en el caso de los simuladores de
conducción, la evaluación de la validez física y
psicológica de un EVA, que depende de hasta
qué punto este desencadena respuestas
similares a las producidas al conducir en un
escenario real, y de hasta qué punto permite la
adquisición de habilidades transferibles
(García et al., 2022). Otro ejemplo es el
modelo propuesto recientemente llamado ECO
(Emocional, Cognitivo y Organizacional), que
llama la atención sobre el aspecto emocional
como un factor importante en la persistencia y
el rendimiento académico, ya que depende de
la capacidad del EVA para involucrar al
estudiante, reducir su ansiedad y producir un
sentimiento de pertenencia (Henderikx et al.,
2023).
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188
180
La importancia de los programas de
formación de conductores es crítica en el
escenario ecuatoriano. Las lesiones por
siniestros de tránsito son una de las principales
causas de mortalidad (con una tasa de
mortalidad de 23,4 por 100.000 habitantes en
2021), lo que refleja la ineficiencia del proceso
tradicional de formación y licenciamiento
(Organización Mundial de la Salud, 2022). El
currículo tradicional incluye un número
reducido de horas enfocadas en la
memorización de reglas, en lugar de en la
adquisición de competencias de orden superior
como la percepción del riesgo y la toma de
decisiones en situaciones críticas. El EVA, y
en general, la tecnología inmersiva
(simuladores, realidad virtual, etc.), aparece en
este contexto como un recurso necesario para
el cambio estructural, más que un lujo, porque
proporciona la posibilidad de practicar en un
entorno protegido, en situaciones cada vez más
de riesgo y sin consecuencias. El uso
sistemático de estos recursos dentro de un
modelo de aprendizaje del conductor como el
Sistema de Licencias Graduadas (que se ha
propuesto para su implementación en el
contexto local) (García-Ramírez, 2022)
permitiría la adquisición gradual de
habilidades.
Sin embargo, la viabilidad del entorno
estaría basada en las competencias digitales y
pedagógicas de los docentes (Pacheco et al.,
2022). Experiencias como el programa
ProFuturo, que formó masivamente a docentes
en Colombia, demuestran que la preparación
docente es clave para transferir metodologías
digitales al aula (Pacheco et al., 2022). No
obstante, la transición a un modelo digitalizado
se encontraría con diversos obstáculos, como
la resistencia al cambio, la necesidad de una
inversión inicial, la necesidad de contenidos
pedagógicos de alta calidad y contextualizados
al entorno, y el peligro de incrementar la
brecha digital en zonas de baja penetración
tecnológica. De esta manera, la evaluación de
los EVA en las escuelas de conducción
ecuatorianas forma parte de una política de
seguridad pública.
Pero no existen diagnósticos empíricos y
multidimensionales sobre la experiencia real
de los estudiantes dentro de dichos contextos,
en la educación vial ecuatoriana. El análisis no
puede limitarse a la satisfacción general; es
necesario distinguir algunos aspectos, como la
retroalimentación, cuya ausencia puede poner
en peligro todo el proceso de aprendizaje. En
este sentido, el propósito general de esta
investigación es evaluar cómo los estudiantes
de las escuelas de conducción de la provincia
de El Oro, Ecuador, perciben las 5 dimensiones
(Apariencia Visual, Comunicación, Recursos,
Sistema de Evaluación y Retroalimentación),
de su experiencia de aprendizaje con el EVA,
destacando la importancia de la
retroalimentación formativa como variable
principal. Se espera que estos resultados
contribuyan a la evidencia empírica para el
diseño de intervenciones educativas
informadas por los datos y de acuerdo con los
parámetros internacionales de educación
técnica (UNESCO, 2023).
METODOLOGÍA
Esta investigación utilizó un diseño
cuantitativo no experimental, transversal y de
tipo descriptivo comparativo (Hernández
Sampieri y Mendoza, 2023) por su
conveniencia para responder al objetivo y a las
preguntas de investigación, ya que no se
intervino en ninguna variable, así como por su
propósito de describir diferencias entre
dimensiones de la experiencia del entorno
virtual de aprendizaje (EVA), por tal motivo
este diseño es ideal para responder al problema
de investigación ya que busca describir, dado
que según (Creswell y Creswell, 2018) primero
se debe realizar una descripción detallada de
actitudes, percepciones, necesidades, entre
otras variables, para posteriormente establecer
relaciones entre variables, y dado que en
Ecuador no existe producción científica
respecto a la educación digital del conductor..
Se empleó un muestreo no probabilístico
por conveniencia. Los criterios de inclusión
comprendieron ser estudiante, haber utilizado
el EVA por al menos un mes y firmar el
consentimiento informado. Se excluyeron
participantes con cualquier enfermedad
autoinformada que pudiera impedirles
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188
181
comprender las herramientas utilizadas (p. ej.,
deterioro mental severo no tratado). La
muestra estuvo compuesta por 65 hombres (65
%) y 35 mujeres (35 %), con edades
comprendidas entre los 18 y 45 años (M = 24.3,
DE = 5.1). La reducida heterogeneidad de la
muestra podría limitar la representatividad de
la misma; sin embargo, es coherente con el
perfil real de la formación de conductores en
Ecuador.
Instrumento para evaluar la experiencia de
las escuelas de conducción.
Se aplicó la Escala de Experiencia del EVA
para Escuelas de Conducción (Peñaloza &
González, 2025) que ya ha sido validada para
la población ecuatoriana (α =.926). E
sta escala
contiene 16 ítems tipo Likert (1
–
5), los cuales
se distribuyen en cinco dimensiones: 1.
Apariencia Visual (3 ítems) 2. Comunicación
(3 ítems) 3. Recursos (4 ítems) 4. Sistema de
Evaluación (3 ítems) 5. Retroalimentación (3
ítems)
El estudio se ha realizado de acuerdo con
los estándares éticos; el protocolo del estudio
fue aprobado por el Comité de Ética
Institucional. Se obtuvo el consentimiento
informado de todos los participantes
individuales incluidos en el estudio después de
que se les proporcionara una explicación clara
del propósito del estudio, los métodos, el
tratamiento confidencial y anónimo de los
datos, así como su participación voluntaria y la
posibilidad de retirarse del estudio en cualquier
momento sin ninguna consecuencia.
Los datos fueron procesados por medio del
IBM SPSS Statistics versión 25. El análisis de
datos se realizó en dos fases:
Estadística descriptiva y fiabilidad: Se
calculó la media (M) y la desviación estándar
(DE) de la escala total y sus dimensiones. Se
utilizó
el alfa de Cronbach (α) para evaluar la
consistencia interna, considerando α 0.70
como aceptable (George y Mallery, 2019). Los
siguientes puntos de corte para las medias se
establecieron: 1.00
–
2.33 (Bajo), 2.34
–
3.66
(Medio), 3.67
–
5.00 (Alto), basándose en la
división proporcional del rango de la escala
(Hernández-Sampieri y Mendoza, 2023).
Se utilizó un ANOVA de medidas repetidas
de una vía para comparar las medias de las
cinco dimensiones diferentes (diseño intra-
sujetos). Antes de proceder con el ANOVA, se
probó el supuesto de esfericidad utilizando la
prueba de Mauchly. Dado que se violó el
supuesto de esfericidad (W 0.351, p 0.001), se
utilizó el ajuste de Greenhouse-Geisser a los
grados de libertad. Tras un resultado
significativo del ANOVA, se realizaron
pruebas post-hoc utilizando la prueba de
Bonferroni. El tamaño del efecto del ANOVA
se calculó utilizando la eta parcial al cuadrado
(ηp²) y se interpretó de la siguiente manera:
pequeño (0.01), mediano (0.06), grande (0.14)
(Cohen, 1988).
RESULTADOS
El análisis psicométrico del instrumento
demostró una excelente confiabilidad global (α
= .926), superando el umbral de .90
recomendado para instrumentos de evaluación
educativa en contextos aplicados (Taber, 2018;
Cho & Kim, 2021). Esta alta consistencia
interna valida la robustez de la escala para
medir de manera estable el constructo
multidimensional de "experiencia en EVA" en
el contexto específico de las escuelas de
conducción.
La experiencia global reportada por los 100
estudiantes se situó en un nivel Alto (M = 3.78,
DE = 0.71), indicando una percepción general
positiva hacia los entornos virtuales
implementados. Sin embargo, el análisis
desagregado por dimensiones reveló patrones
heterogéneos que requieren una interpretación
matizada, como se detalla en la Tabla 1.
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188
182
Tabla 1
Estadísticos Descriptivos y Confiabilidad por Dimensión (N=100)
Dimensión
Ítems Media (M) Desv. Est. (DE) Nivel Alfa de Cronbach (α)
1. Apariencia Visual 3 4.12 0.68
Alto .882
2. Comunicación
3
3.95
0.74
Alto
.865
3. Recursos
4 4.18 0.65
Alto .901
4. Sistema Evaluación 3 3.89 0.77
Alto .889
5. Retroalimentación 3 2.52 0.91
Bajo .794
Escala Total
16 3.78 0.71
Alto .926
Nota. N=100. Los niveles se determinaron mediante puntos de corte proporcionales: Bajo (1.00-2.33),
Medio (2.34-3.66), Alto (3.67-5.00), método ampliamente utilizado en investigación educativa
cuantitativa (Allen & Seaman, 2020). Fuente. Elaboración propia mediante SPSS v.25.
Cuatro de las cinco dimensiones alcanzaron
puntuaciones en el nivel Alto, destacando
Recursos (M = 4.18, DE = 0.65) como la mejor
valorada, seguida por Apariencia Visual (M =
4.12, DE = 0.68). Estas puntuaciones elevadas
sugieren que los aspectos técnicos y de
contenido del EVA cumplen con estándares de
calidad reconocidos en la literatura sobre
diseño instruccional digital (Clark & Mayer,
2023).
En marcado contraste, la dimensión
Retroalimentación presentó una media
significativamente inferior (M = 2.52, DE =
0.91), ubicándose en el nivel Bajo. La
dispersión de los datos en esta dimensión (DE
= 0.91) fue la mayor de todas, indicando una
alta variabilidad en las percepciones de los
estudiantes, aunque predominantemente
negativas.
Comparación entre Dimensiones
Para determinar si existían diferencias
estadísticamente significativas entre las
medias de las cinco dimensiones, se realizó un
ANOVA de una vía para medidas repetidas.
Previo a este análisis, se verificaron los
supuestos estadísticos requeridos:
1.
Normalidad: La prueba de Shapiro-Wilk
indicó que los residuos se distribuían
normalmente (p > .05), cumpliendo el
supuesto de normalidad (Ghasemi &
Zahediasl, 2021).
2.
Esfericidad: La prueba de Mauchly reveló
una violación del supuesto de esfericidad
(W = .351, p < .001), por lo que se utilizó
la corrección de Greenhouse-
Geisser (ε =
.695) para ajustar los grados de libertad.
El ANOVA con corrección de Greenhouse-
Geisser mostró un efecto principal
estadísticamente significativo de la variable
"Dimensión" en las puntuaciones de
experiencia (F[2.78, 275.22] = 187.64, p <
.001). El tamaño del efecto, calculado
mediante eta cuadrado parcial (ηp² = .655), se
clasificó como grande según los criterios
convencionales de Cohen (1988), indicando
que aproximadamente el 65.5% de la varianza
en las puntuaciones puede atribuirse a
diferencias entre dimensiones.
Tabla 2
Resultados del ANOVA de medidas repetidas
Fuente
gl. 1
gl 2
f
p ηp²
Dimensión 2.78
275.22
187.64 <.001 .655
Error
—
—
— — —
Fuente. Elaboración propia mediante SPSS v.25.
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188
183
Análisis Post Hoc: Comparaciones pareadas
Para identificar qué dimensiones diferían
significativamente entre sí, se realizaron
comparaciones múltiples post hoc utilizando la
corrección de Bonferroni, método conservador
recomendado para controlar el error Tipo I en
comparaciones múltiples (Armstrong, 2021).
Los resultados, presentados en la Tabla 3,
revelaron un patrón claro de diferencias:
Tabla 3
Comparaciones post hoc de Bonferroni
Comparación de dimensiones
Diferencia de medias SE P ajustado d de Cohen
Retroalimentación vs. Recursos
-1.66
0.12 <.001 1.82
Retroalimentación vs. Apariencia
-1.60
0.11
<.001
1.75
Retroalimentación vs. Comunicación
-1.43
0.10 <.001 1.56
Retroalimentación vs. Evaluación
-1.37
0.13 <.001 1.50
Fuente: Elaboración propia mediante SPSS v.25.
Todas las comparaciones que involucraban
la dimensión Retroalimentación resultaron
estadísticamente significativas (p < .001) con
tamaños del efecto grandes (d de Cohen entre
1.50 y 1.82). Estos valores de d superan
ampliamente el umbral de 0.80 para efectos
grandes (Lakens, 2013), confirmando la
magnitud sustancial de las diferencias.
Entre las dimensiones con puntuaciones
altas, se encontraron diferencias significativas,
pero de menor magnitud:
-
Recursos fue significativamente superior a
Sistema de Evaluación (p = .042, d = 0.32)
y a Comunicación (p = .035, d = 0.25).
-
No hubo diferencias significativas entre
Apariencia Visual y Sistema de Evaluación
(p = .278), ni entre la mayoría de las
dimensiones altas restantes
Hallazgos críticos en Retroalimentación
Los ítems asociados a frecuencia (M=2.45),
utilidad (M=2.38) y oportunidad (M=2.72)
reflejan una desconexión entre expectativas y
práctica. Un 78% de los estudiantes coincidió
en que "el instructor rara vez comenta los
errores en exámenes simulados".
DISCUSIÓN
Que las dimensiones mejor clasificadas
fueran Recursos (M = 4.18) y Apariencia
Visual (M = 4.12) implica que las instituciones
tomaron la decisión correcta al dedicar
esfuerzos a proporcionar un entorno más
estable, una navegación y control sencillos, y
un mejor soporte multimedia. Este resultado
corrobora estudios recientes en los que la
usabilidad y la abundancia de recursos se
encuentran entre los factores más relevantes de
aceptación de la tecnología en el ámbito de la
educación profesional (Bond et al., 2020). La
puntuación relativamente alta obtenida por
Comunicación (M = 3.95) también es una señal
positiva, ya que significa que las herramientas
de comunicación síncrona y asíncrona están en
general en funcionamiento, un requisito
fundamental para el mantenimiento de una
comunidad de indagación en un entorno de
aprendizaje virtual (Garrison, 2022).
En contraste, la brecha estadísticamente
significativa obtenida en la dimensión de
Retroalimentación no es un dato menor: es
signo de una preocupante disociación entre
tecnología y pedagogía. Los resultados
confirman empíricamente el riesgo de caer en
la “trampa del tecnologicismo” (Area‑Moreira
et al., 2016), es decir, de deslumbrarse tanto
con la herramienta que se olvide que se
necesitan diseños didácticos en los que esté en
juego una interacción genuinamente
pedagógica. La dimensión de
Retroalimentación (M = 2.52) fue
significativamente inferior a todas las demás
dimensiones (p <.001, η p² =.655). Este gran
tamaño del efecto indica la relevancia del
hallazgo. De hecho, según informan el 78 % de
los estudiantes, el profesor apenas comenta los
errores que se cometen en las simulaciones.
Esta práctica formativa es inadecuada porque
la retroalimentación debe ser oportuna,
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188
184
específica y orientada a la acción (Henderson
et al., 2019; Carless & Winstone, 2020).
Este es un inconveniente importante,
especialmente para la conducción. Según la
teoría de la carga cognitiva (Sweller et al.,
2011), el aprendizaje efectivo implica
equilibrar la carga intrínseca (de la tarea), la
carga extrínseca (de la instrucción) y la carga
pertinente (adquisición de esquemas). Los
multimedia bien diseñados (algo que este
artículo valora) disminuyen la carga
extrínseca. Sin embargo, la falta de
retroalimentación significa que los errores
cometidos durante la práctica (la carga
intrínseca de aprender a conducir) no se
corrigen y no se convierten en esquemas
mentales sólidos (pertinentes). Los errores
repetidos sin retroalimentación para
corregirlos solo permiten que estos errores se
automaticen, lo que va en contra del propósito
de proporcionar un entorno de práctica de bajo
riesgo y devuelve ese riesgo a la carretera
(Organización Mundial de la Salud, 2022). La
investigación contemporánea en
entrenamiento basado en simuladores muestra
que no es la calidad gráfica de la simulación lo
que importa para los resultados del
entrenamiento, sino más bien el debriefing y la
retroalimentación experta que la acompañan
(Chernikova et al., 2020; López et al., 2023).
La diferencia con respecto al estudio
realizado por Bennett y Dawson (2017) en un
contexto como Australia (M = 3.1 para la
retroalimentación) muestra que tal disparidad
no es general, sino que depende del contexto
(institucional) y de la formación inicial del
profesorado. El acelerado proceso de
digitalización provocado por la pandemia en
Ecuador puede haberse centrado en la
implementación de la herramienta, en lugar de
en las barreras de segundo orden para una
integración tecnológica exitosa, es decir, la
capacidad de implementar la tecnología de
manera efectiva para lograr los objetivos de
aprendizaje (Guzmán et al., 2022). Esto
implica la necesidad de aplicar modelos más
completos como el modelo TPACK
(Conocimiento Tecnológico, Pedagógico y de
Contenido), que aparte de saber usar la
herramienta (TK) también requiere el
conocimiento de cómo enseñar la materia con
la herramienta (PCK) (Mishra, 2019; Koehler
& Mishra, 2023). Dicha apropiación de la
herramienta y su aplicación en la práctica
pedagógica se ha dominado, como muestran
nuestros resultados, pero no en su aplicación al
PCK, al menos en lo que respecta a la práctica
de la retroalimentación.
Desde una perspectiva de justicia educativa,
la falta de retroalimentación puede servir como
un filtro invisible. Aquellos con menos agencia
y capital cultural necesitan más apoyo del
profesor para poder afrontar y ser productivos
en el aula virtual (Zawacki-Richter &
Latchem, 2023).
Finalmente, se señala algunas limitaciones
del estudio actual y se sugiere vías para futuras
investigaciones.
Esta investigación, al utilizar una muestra
no probabilística y de conveniencia, no permite
generalizar los resultados ni profundizar en las
causas del fenómeno. En el futuro, la
investigación debería:
Utilizar enfoques mixtos o cualitativos
(Creswell & Plano Clark, 2023) para
investigar, a través de encuestas o entrevistas a
profesores y estudiantes, los obstáculos
contextuales, emocionales y cognitivos para
ofrecer retroalimentación constructiva.
Incorporar variables moderadoras como el
grado de experiencia con EVA, el nivel
educativo de los estudiantes, la edad o el sexo,
para estudiar posibles variaciones en la
experiencia digital percibida (Ramírez-
Coronel et al., 2023)
Implementar diseños longitudinales que
relacionen los resultados en cualquiera de estas
dimensiones de EVA con las puntuaciones
posteriores de los estudiantes en los exámenes
prácticos de conducción, proporcionando así
evidencia de validez predictiva sobre el efecto
real de la calidad de EVA en las competencias
de los conductores.
Evaluar los efectos de innovaciones
particulares, como la formación del
profesorado en retroalimentación digital o la
incorporación de rúbricas y herramientas de
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188
185
coevaluación dentro de la plataforma (Carless
& Boud, 2018).
CONCLUSIONES
El objetivo de la investigación fue conocer
la experiencia con los Entornos Virtuales de
Aprendizaje (EVA) de una muestra de
estudiantes de escuelas de conducción de la
provincia de El Oro, Ecuador, y así,
proporcionar un diagnóstico multidimensional
que no se centre únicamente en mediciones de
satisfacción global.
El primer resultado a destacar es la paradoja
tecnopedagógica que parece ser evidente. En
primer lugar, se ha demostrado que la
arquitectura digital de los EVA analizados es
suficientemente potente y cumple con criterios
de calidad técnica y de diseño didáctico. La
Apariencia Visual (M = 4.12), los Recursos de
Aprendizaje (M = 4.18), los mecanismos de
Comunicación (M = 3.95) y el propio Sistema
de Evaluación (M = 3.89) son percibidos muy
positivamente por los estudiantes. Esto sugiere
una correcta inversión y desarrollo de los
aspectos tecnológicos y de contenidos, en línea
con la digitalización de los procesos
educativos en la región latinoamericana.
Por otro lado, y de forma importante, se
observa un descenso significativo en la
dimensión pedagógica esencial del Feedback
formativo (M 2.52), con una puntuación baja
que es estadísticamente inferior al resto de las
dimensiones con un tamaño de efecto grande
(ηp² = .655). Este resultado es clave ya que
indica que la disponibilidad de medios
tecnológicos y la calidad del contenido no son
condiciones suficientes para que se produzca
un proceso de aprendizaje potente,
especialmente en áreas con implicaciones
significativas como la formación de
conductores. La falta de un feedback
apropiado, específico y formativo no
proporciona a los estudiantes la información
requerida para reparar errores, gestionar su
aprendizaje y formar comportamientos
seguros, lo que puede provocar una carga
cognitiva intrínseca excesiva y favorecer
hábitos inadecuados.
Por lo tanto, este trabajo concluye que la
calidad de un EVA en el marco de la formación
técnica no dependerá exclusivamente de su
nivel tecnológico, sino del equilibrio entre la
tecnología y las prácticas pedagógicas de alta
calidad. Esta brecha no es un problema trivial.
Muestra una desconexión entre la inversión en
la plataforma y la inversión en la formación de
los docentes para un uso pedagógicamente
sólido de la tecnología. Esta es la llamada
trampa tecnológica.
En general, estos resultados conllevan una
serie de consecuencias y requerirán un
esfuerzo concertado de diversos grupos para
abordarlas:
Implicaciones para la investigación y la
práctica: Los hallazgos respaldan el llamado a
una atención inmediata y al uso de escalas de
ítems múltiples (como la escala EVA utilizada
en el presente estudio) para evaluar
adecuadamente los EVA. La práctica de
sustituir las escalas mencionadas por una única
pregunta de "satisfacción" enmascara la
situación real e impide la implementación de
acciones correctivas específicas.
Se deben desarrollar programas de
formación y apoyo docente específicamente
centrados en el feedback digital, pero no como
un curso técnico sobre cómo usar plataformas
digitales. Dichos programas deben orientarse
hacia un feedback digital constructivo,
oportuno y personalizado dentro de las
herramientas del entorno virtual. Las escuelas
de conducción deben proporcionar marcos
institucionales que tengan en cuenta este
aspecto.
Por último, la investigación ofrece un
modelo específico contextualizable de
investigación, a ser replicado para estudiar
EVA similares en otras áreas de formación
técnica y profesional en Ecuador y la región. Y
al plantear y registrar empíricamente esta
brecha de conocimiento, se suma al debate
sobre la humanización de las tecnologías
educativas, en el que no debemos perder de
vista que el estudiante y su aprendizaje
significativo son el sujeto del proceso. Una
replicación del estudio en otras provincias o
países enriquecería la comparación y apoyaría
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188
186
las estrategias para superar la distancia entre
tecnología y pedagogía, en la búsqueda de
entornos virtuales verdaderamente efectivos en
la formación de conductores seguros y
responsables.
REFERENCIAS BIBLIOGRÁFICAS
Allen, I. E., & Seaman, C. A. (2020). Likert scales
and data analyses: New approaches to old
problems. Statistical Solutions Press.
Area-Moreira, J., Hernández-Rivero, V., & Sosa-
Alonso, J. J. (2016). Models of educational
integration of ICTs in the classroom.
Comunicar, 24(47), 9
–
19.
https://doi.org/10.3916/C47-2016-08
Armstrong, R. A. (2021). When to use the
Bonferroni correction. Ophthalmic &
Physiological Optics, 41(5), 1114
–
1118.
https://doi.org/10.1111/opo.12840
Bennett, L., & Dawson, P. (2017). How to make
peer feedback effective in online learning
environments. Journal of University
Teaching & Learning Practice, 14(3),
Article 2.
https://doi.org/10.53761/1.14.3.2
Black, P., & Wiliam, D. (2009). Developing the
theory of formative assessment.
Educational Assessment, Evaluation and
Accountability, 21(1), 5
–
31.
https://doi.org/10.1007/s11092-008-9068-
5
Bond, M., Buntins, K., Bedenlier, S., Zawacki-
Richter, O., & Kerres, M. (2020). Mapping
research in student engagement and
educational technology in higher
education: A systematic evidence map.
International Journal of Educational
Technology in Higher Education, 17(1),
Article 2.
https://doi.org/10.1186/s41239-
019-0176-8
Carless, D., & Boud, D. (2018). The development
of student feedback literacy: Enabling
uptake of feedback. Assessment &
Evaluation in Higher Education, 43(8),
1315
–
1325.
https://doi.org/10.1080/02602938.2018.14
63354
Carless, D., & Winstone, N. (2020). Teacher
feedback literacy and its interplay with
student feedback literacy. Teaching in
Higher Education, 28(1), 150
–
163.
https://doi.org/10.1080/13562517.2020.17
82372
Chernikova, O., Heitzmann, N., Stadler, M.,
Holzberger, D., Seidel, T., & Fischer, F.
(2020). Simulation-based learning in
higher education: A meta-analysis. Review
of Educational Research, 90(4), 499
–
541.
https://doi.org/10.3102/003465432093354
4
Cho, E., & Kim, S. (2021). Cronbach’s coefficient
alpha: Well known but poorly understood.
Organizational Research Methods, 24(2),
207
–
230.
https://doi.org/10.1177/109442812058718
3
Clark, R. C., & Mayer, R. E. (2023). E-learning
and the science of instruction: Proven
guidelines for consumers and designers of
multimedia learning (5th ed.). Wiley.
Cohen, J. (1988). Statistical power analysis for the
behavioral sciences (2nd ed.). Lawrence
Erlbaum Associates.
Creswell, J. W., & Creswell, J. D. (2018). Research
design: Qualitative, quantitative, and
mixed methods approaches (5th ed.). Sage.
Creswell, J. W., & Plano Clark, V. L. (2023).
Designing and conducting mixed methods
research (4th ed.). SAGE Publications.
Espinoza, L., & Pichihua, J. (2021). Feedback en
entornos virtuales: Percepciones de
docentes y estudiantes en educación
superior. Revista Electrónica de
Investigación Educativa, 23, Article e25.
https://doi.org/10.24320/redie.2021.23.e2
5.3997
García, A., López, D., & Sánchez, J. (2022).
Evaluation framework for driving
simulators: A validation study for skill
transfer. Computers & Education, 187,
104548.
https://doi.org/10.1016/j.compedu.2022.1
04548
García-Peñalvo, F. J., & Corell, A. (2020). La
COVID-19: ¿Enzima de la transformación
digital de la docencia o reflejo de una crisis
metodológica y competencial en la
educación superior? Campus Virtuales,
9(2), 83
–
98.
García-Ramírez, L. (2022). Hacia un Sistema de
Aprendizaje del Conductor (SAC):
Integración del licenciamiento graduado y
simuladores de conducción de alta
fidelidad en entornos latinoamericanos.
Journal of Transport and Health, 27,
101518.
https://doi.org/10.1016/j.jth.2022.101518
Garrison, D. R. (2022). Shared metacognition in a
community of inquiry. Online Learning,
26(1), 5
–
18.
https://doi.org/10.24059/olj.v26i1.3023
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188
187
Garrison, D. R., Anderson, T., & Archer, W.
(2010). The first decade of the community
of inquiry framework: A retrospective. The
Internet and Higher Education, 13(1
–
2),
5
–
9.
https://doi.org/10.1016/j.iheduc.2009.10.0
03
George, D., & Mallery, P. (2019). IBM SPSS
Statistics 26 step by step: A simple guide
and reference (16th ed.). Routledge.
Ghasemi, A., & Zahediasl, S. (2021). Normality
tests for statistical analysis: A guide for
non-statisticians. International Journal of
Endocrinology and Metabolism, 19(2),
e109845.
https://doi.org/10.5812/ijem.109845
Guzmán, R., Alvarado, M., & Palacios, J. (2022).
Digital teaching competence in Latin
American universities: A systematic
review. Sustainability, 14(15), 9012.
https://doi.org/10.3390/su14159012
Hattie, J., & Timperley, H. (2007). The power of
feedback. Review of Educational
Research, 77(1), 81
–
112.
https://doi.org/10.3102/003465430298487
Henderikx, M., Ubachs, H., & Antonaci, A. (2023).
The ECO framework for digital learning
quality: Integrating emotional, cognitive
and organizational perspectives.
International Journal of Educational
Technology in Higher Education, 20(1),
Article 15.
https://doi.org/10.1186/s41239-
023-00384-8
Henderson, M., Phillips, M., Ryan, T., Boud, D.,
Dawson, P., Molloy, E., & Mahoney, P.
(2019). Conditions that enable effective
feedback. Higher Education Research &
Development, 38(7), 1401
–
1416.
https://doi.org/10.1080/07294360.2019.16
57807
Hernández-Sampieri, R., & Mendoza Torres, C. P.
(2023). Metodología de la investigación:
Las rutas cuantitativa, cualitativa y mixta
(2.ª ed.). McGraw-Hill Interamericana.
Koehler, M. J., & Mishra, P. (2023). What happens
when teachers design educational
technology? The development of
technological pedagogical content
knowledge. Journal of Educational
Computing Research, 61(1), 3
–
28.
https://doi.org/10.1177/073563312211170
12
Lakens, D. (2013). Calculating and reporting effect
sizes to facilitate cumulative science.
Frontiers in Psychology, 4, Article 863.
https://doi.org/10.3389/fpsyg.2013.00863
López, J., Cárdenas, F., & Paredes, J. (2023).
Efficacy of virtual reality driving
simulators for hazard perception training:
A meta-analysis. Transportation Research
Part F: Traffic Psychology and Behaviour,
94, 480
–
495.
https://doi.org/10.1016/j.trf.2023.03.005
Mayer, R. E. (2020). Multimedia learning (3rd
ed.). Cambridge University Press.
Ministerio de Transporte del Ecuador. (2021).
Estándares de formación vial digital.
https://www.transportes.gob.ec/estandares
-evavial
Mishra, P. (2019). Considering contextual
knowledge: The TPACK diagram gets an
upgrade. Journal of Digital Learning in
Teacher Education, 35(2), 76
–
78.
https://doi.org/10.1080/21532974.2019.15
88611
Nicol, D. J., & Macfarlane-Dick, D. (2006).
Formative assessment and self-regulated
learning. Studies in Higher Education,
31(2), 199
–
218.
https://doi.org/10.1080/030750706005720
90
Nunnally, J. C., & Bernstein, I. H. (2020).
Psychometric theory (4th ed.). McGraw-
Hill.
Organización Mundial de la Salud. (2022). Global
status report on road safety 2022.
https://www.who.int/publications/i/item/9
789240063483
Ossiannilsson, E. (2021). Quality models and
frameworks for digital open educational
resources. En Handbook of Open, Distance
and Digital Education (pp. 1
–
19).
Springer.
https://doi.org/10.1007/978-981-
19-0351-9_44-1
Pacheco, V., Rodríguez, A., & Armijos, M. (2022).
Competencias digitales docentes en el
Ecuador post-pandemia. Educación y
Humanismo, 24(42), 1
–
20.
https://doi.org/10.17081/eduhum.24.42.51
52
Peñaloza García, B. A., & González Jaramillo, Y.
del R. (2025). Juicio de expertos y
exploración psicométrica de la escala de
evaluación de experiencia en entornos
virtuales de aprendizaje en Ecuador.
Arandu UTIC, 12(4), 1706
–
1716.
https://doi.org/10.69639/arandu.v12i4.177
5
Picciano, A. G. (2022). Theories and frameworks
for online education. Online Learning,
26(3), 7
–
24.
https://doi.org/10.24059/olj.v26i3.3232
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188
188
Ramírez-Coronel, A., López, G., & Fernández, T.
(2023). Gender differences in perceptions
of feedback in technical virtual learning
environments. Computers & Education,
184, 104876.
https://doi.org/10.1016/j.compedu.2023.1
04876
Selwyn, N. (2022). Education and technology: Key
issues and debates (3rd ed.). Bloomsbury
Academic.
Sweller, J., Ayres, P., & Kalyuga, S. (2011).
Cognitive load theory. Springer.
https://doi.org/10.1007/978-1-4419-8126-
4
Taber, K. S. (2018). The use of Cronbach’s alpha
when developing and reporting research
instruments. Research in Science
Education, 48, 1273
–
1296.
https://doi.org/10.1007/s11165-016-9602-
2
UNESCO. (2023). Guidelines for digital pedagogy
in technical and vocational education.
https://unesdoc.unesco.org/ark:/48223/pf0
000385432
Valdez, A., López, M., & Ramírez, E. (2022). User
experience and satisfaction in technical e-
learning environments. Journal of
Educational Computing Research, 60(6),
1567
–
1592.
https://doi.org/10.1177/073563312210877
26
Zawacki-Richter, O., & Latchem, C. (2023).
Exploring four decades of research in
Computers & Education. Computers &
Education, 198, 104762.
https://doi.org/10.1016/j.compedu.2023.1
04762
DECLARACIÓN DE CONFLICTO DE INTERESES
El autor declara no tener conflictos de intereses.
DERECHOS DE AUTOR
Peñaloza García, B. A. (2026)
Este es un artículo de acceso abierto distribuido bajo la licencia Creative Commons de Atribución No
Comercial 4.0, que permite su uso sin restricciones, su distribución y reproducción por cualquier
medio, siempre que no se haga con fines comerciales y el trabajo original sea fielmente citado.
El texto final, datos, expresiones, opiniones y apreciaciones contenidas en esta publicación es de
exclusiva responsabilidad de los autores y no necesariamente reflejan el pensamiento de la revista.