178 Revista Científica Multidisciplinar https://revistasaga.org/ e-ISSN 3073-1151 Enero-Marzo , 2026 Vol. 3 , Núm. 1 , 178-188 https://doi.org/10.63415/saga.v3i1.337 Artículo de Investigación . Evaluación de la experiencia en entornos virtuales de aprendizaje de los estudiantes de las escuelas de conducción en El Oro, Ecuador Evaluation of the experience in virtual learning environments of driving school students in El Oro, Ecuador Avaliação da experiência em ambientes virtuais de aprendizagem dos estudantes das escolas de condução em El Oro, Equador Brayan Adrián Peñaloza García 1 ​ ​ 1 Estudiante de Doctorado en Educación en Universidad TECH México, Zaruma, Ecuador Recibido : 2025-12-15 / Aceptado : 2026-01-20 / Publicado : 2026-01-30 RESUMEN La implementación de entornos virtuales de aprendizaje (EVA) en escuelas de conducción profesional exige evaluar su calidad para garantizar procesos formativos efectivos, especialmente en regiones con creciente digitalización educativa como El Oro, Ecuador. Este estudio analizó la experiencia de 100 alumnos de dichas instituciones en cinco dimensiones: Apariencia Visual, Comunicación, Recursos, Sistema de Evaluación y Retroalimentación. Mediante un diseño cuantitativo, no experimental y descriptivo, se aplicó la Escala de Experiencia en EVA para Escuelas de Conducción (16 ítems, α = .926). Los datos se procesaron con estadística descriptiva (media, desviación estándar) e inferencial (ANOVA de medidas repetidas con post hoc Bonferroni) en SPSS v.25.Los resultados revelaron una experiencia general positiva (M = 3.78; DE = 0.71). Cuatro dimensiones obtuvieron niveles Altos: Recursos (M = 4.18), Apariencia Visual (M = 4.12), Comunicación (M = 3.95) y Sistema de Evaluación (M = 3.89). En cambio, Retroalimentación mostró un nivel Bajo (M = 2.52), significativamente inferior al r esto (p < .001, ηp² = .655). Se concluye que, pese a una infraestructura tecnológica y de contenidos robustos, persiste una brecha crítica en la retroalimentación pedagógica. Esta dimensión requiere intervenciones urgentes, como fortalecer la formación docente en estrategias específicas, constructivas y oportunas, que articulen el soporte tecnológico con prácticas pedagógicas significativas. Las instituciones deben priorizar mecanismos sistemáticos de retroalimentación para optimizar el aprendizaje en entornos virtuales. Palabras clave: entorno virtual de aprendizaje, educación en línea, escuelas de conducción, retroalimentación formativa, evaluación de la experiencia del usuario ABSTRACT The implementation of virtual learning environments (VLEs) in professional driving schools requires evaluating their quality to ensure effective training processes, especially in regions with growing educational digitalization such as El Oro, Ecuador. This study analyzed the experience of 100 students from these institutions across five dimensions: Visual Appearance, Communication, Resources, Assessment System, and Feedback. Using a quantitative, non-experimental, and descriptive design, the Virtual Learning Environment Experience Scale for Driving Schools (16 items, α = .926) was applied. Data were processed using descriptive statistics (mean, standard deviation) and inferential statistics (repeated- measures ANOVA with Bonferroni post hoc) in SPSS v.25. The results revealed an overall positive experience (M = 3.78; SD = 0.71). Four dimensions achieved High levels: Resources (M = 4.18), Visual Appearance (M = 4.12), Communication (M = 3.95), and Assessment System (M = 3.89). In contrast, Feedback showed a Low level (M = 2.52), being significantly lower than the other dimensions (p < .001, ηp² = .655). It is concluded that, despite robust technological and content infrastructure, a critical gap persists in pedagogical feedback. This dimension requires urgent interventions, such as strengthening instructor training in specific, constructive, and timely feedback strategies that align technological support with meaningful pedagogical practices. Institutions must prioritize systematic feedback mechanisms to optimize learning in virtual environments.
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188 179 Keywords : ​virtual learning environment, online education, driving schools, formative feedback, user experience evaluation RESUMO A implementação de Ambientes Virtuais de Aprendizagem (AVAs) em escolas de condução profissional exige a avaliação de sua qualidade para garantir processos formativos eficazes, especialmente em regiões com crescente digitalização educacional, como El Oro, Equador. Este estudo analisou a experiência de 100 alunos dessas instituições em cinco dimensões: Aparência Visual, Comunicação, Recursos, Sistema de Avaliação e Feedback. Utilizando um desenho quantitativo, não experimental e descritivo, aplicou-se a Escala de Experiência em AVA para Escolas de Condução (16 itens, α = 0,926). Os dados foram processados com estatística descritiva (média, desvio padrão) e inferencial (ANOVA de medidas repetidas com post hoc de Bonferroni) no SPSS v.25. Os resultados revelaram uma experiência geral positiva (M = 3,78; DP = 0,71). Quatro dimensões atingiram níveis Altos: Recursos (M = 4,18), Aparência Visual (M = 4,12), Comunicação (M = 3,95) e Sistema de Avaliação (M = 3,89). Em contraste, o Feedback apresentou um nível Baixo (M = 2,52), sendo significativamente inferior às demais dimensões (p < ,001, ηp² = ,655). Conclui -se que, apesar de uma infraestrutura tecnológica e de conteúdos robusta, persiste uma lacuna crítica no feedback pedagógico. Esta dimensão requer intervenções urgentes, como o fortalecimento da formação de instrutores em estratégias de feedback específicas, construtivas e oportunas, que alinhem o suporte tecnológico a práticas pedagógicas significativas. As instituições devem priorizar mecanismos sistemáticos de feedback para otimizar a aprendizagem em ambientes virtuais. Palavras-chave : ambiente virtual de aprendizagem, educação online, escolas de condução, feedback formativo, avaliação da experiência do usuário. Forma sugerida de citar (APA): Peñaloza García, B. A. (2026). Evaluación de la experiencia en entornos virtuales de aprendizaje de los estudiantes de las escuelas de conducción en El Oro, Ecuador. Revista Científica Multidisciplinar SAGA, 3(1), 178-188. https://doi.org/10.63415/saga.v3i1.337 Esta obra está bajo una licencia internacional Creative Commons de Atribución No Comercial 4.0 INTRODUCCIÓN La formación y capacitación inicial del conductor profesional combina conocimientos, habilidades y actitudes para garantizar una movilidad segura, siendo la calidad de esta formación un factor clave para evitar accidentes de tráfico (Organización Mundial de la Salud, 2022). Dicha formación se ha digitalizado a través de Entornos Virtuales de Aprendizaje (EVA), lo que aumenta la capacidad y el acceso a la formación; sin embargo, existen aspectos pedagógicos estructurales que predicen la calidad de un EVA (Garrison et al., 2010), entre ellos la usabilidad del sistema, los recursos, la interacción social y, especialmente, la retroalimentación formativa en entornos educativos donde los errores pueden acarrear consecuencias irreversibles como las relacionadas con la conducción (Black & Wiliam, 2009). La calidad de un EVA ya no se evalúa desde una perspectiva meramente técnica, sino también a través de modelos holísticos que incluyen aspectos pedagógicos, tecnológicos, sociales y de gestión (Rodríguez et al., 2020); también existen modelos específicos, como el modelo MERLOT que ofrece ​criterios concretos para la evaluación del contenido de un EVA, su potencial pedagógico y usabilidad (Ossiannilsson, 2021); y, como ya se ha mencionado, en el caso de los simuladores de conducción, la evaluación de la validez física y psicológica de un EVA, que depende de hasta qué punto este desencadena respuestas similares a las producidas al conducir en un escenario real, y de hasta qué punto permite la adquisición de habilidades transferibles (García et al., 2022). Otro ejemplo es el modelo propuesto recientemente llamado ECO (Emocional, Cognitivo y Organizacional), que llama la atención sobre el aspecto emocional como un factor importante en la persistencia y el rendimiento académico, ya que depende de la capacidad del EVA para involucrar al estudiante, reducir su ansiedad y producir un sentimiento de pertenencia (Henderikx et al., 2023).
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188 180 La importancia de los programas de formación de conductores es crítica en el escenario ecuatoriano. Las lesiones por siniestros de tránsito son una de las principales causas de mortalidad (con una tasa de mortalidad de 23,4 por 100.000 habitantes en 2021), lo que refleja la ineficiencia del proceso tradicional de formación y licenciamiento (Organización Mundial de la Salud, 2022). El currículo tradicional incluye un número reducido de horas enfocadas en la memorización de reglas, en lugar de en la adquisición de competencias de orden superior como la percepción del riesgo y la toma de decisiones en situaciones críticas. El EVA, y en general, la tecnología inmersiva (simuladores, realidad virtual, etc.), aparece en este contexto como un recurso necesario para el cambio estructural, más que un lujo, porque proporciona la posibilidad de practicar en un entorno protegido, en situaciones cada vez más de riesgo y sin consecuencias. El uso sistemático de estos recursos dentro de un modelo de aprendizaje del conductor como el Sistema de Licencias Graduadas (que se ha propuesto para su implementación en el contexto local) (García-Ramírez, 2022) permitiría la adquisición gradual de habilidades. Sin embargo, la viabilidad del entorno estaría basada en las competencias digitales y pedagógicas de los docentes (Pacheco et al., 2022). Experiencias como el programa ProFuturo, que formó masivamente a docentes en Colombia, demuestran que la preparación docente es clave para transferir metodologías digitales al aula (Pacheco et al., 2022). No obstante, la transición a un modelo digitalizado se encontraría con diversos obstáculos, como la resistencia al cambio, la necesidad de una inversión inicial, la necesidad de contenidos pedagógicos de alta calidad y contextualizados al entorno, y el peligro de incrementar la brecha digital en zonas de baja penetración tecnológica. De esta manera, la evaluación de los EVA en las escuelas de conducción ecuatorianas forma parte de una política de seguridad pública. Pero no existen diagnósticos empíricos y multidimensionales sobre la experiencia real de los estudiantes dentro de dichos contextos, en la educación vial ecuatoriana. El análisis no puede limitarse ​a la satisfacción general; es necesario distinguir algunos aspectos, como la retroalimentación, cuya ausencia puede poner en peligro todo el proceso de aprendizaje. En este sentido, el propósito general de esta investigación es evaluar cómo los estudiantes de las escuelas de conducción de la provincia de El Oro, Ecuador, perciben las 5 dimensiones (Apariencia Visual, Comunicación, Recursos, Sistema de Evaluación y Retroalimentación), de su experiencia de aprendizaje con el EVA, destacando la importancia de ​la retroalimentación formativa como variable principal. Se espera que estos resultados contribuyan a la evidencia empírica para el diseño de intervenciones educativas informadas por los datos y de acuerdo con los parámetros internacionales de educación técnica (UNESCO, 2023). METODOLOGÍA ​ Esta investigación utilizó un diseño cuantitativo no experimental, transversal y de tipo descriptivo comparativo (Hernández Sampieri y Mendoza, 2023) por su conveniencia para responder al objetivo y a las preguntas de investigación, ya que no se intervino en ninguna variable, así como por su propósito de describir diferencias entre dimensiones de la experiencia del entorno virtual de aprendizaje (EVA), por tal motivo este diseño es ideal para responder al problema de investigación ya que busca describir, dado que según (Creswell y Creswell, 2018) primero se debe realizar una descripción detallada de actitudes, percepciones, necesidades, entre otras variables, para posteriormente establecer relaciones entre variables, y dado que en Ecuador no existe producción científica respecto a la educación digital del conductor.. Se empleó un muestreo no probabilístico por conveniencia. Los criterios de inclusión comprendieron ser estudiante, haber utilizado el EVA por al menos un mes ​y firmar el consentimiento informado. Se excluyeron participantes con cualquier enfermedad autoinformada que pudiera impedirles
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188 181 comprender las herramientas utilizadas (p. ej., deterioro mental severo no tratado). La muestra estuvo compuesta por 65 hombres (65 %) y 35 mujeres (35 %), con edades comprendidas entre los 18 y 45 años (M = 24.3, DE = 5.1). La reducida heterogeneidad de la muestra podría limitar la representatividad de la misma; sin embargo, es coherente con el perfil real de la formación de conductores en Ecuador. Instrumento para evaluar la experiencia de las escuelas de conducción. Se aplicó la Escala de Experiencia del EVA para Escuelas de Conducción (Peñaloza & González, 2025) que ya ha sido validada para la población ecuatoriana (α =.926). E sta escala contiene 16 ítems tipo Likert (1 5), los cuales se distribuyen en cinco dimensiones: 1. Apariencia Visual (3 ítems) 2. Comunicación (3 ítems) 3. Recursos (4 ítems) 4. Sistema de Evaluación (3 ítems) 5. Retroalimentación (3 ítems) El estudio se ha realizado de acuerdo con los estándares éticos; el protocolo del estudio fue aprobado por el Comité de Ética Institucional. Se obtuvo el consentimiento informado de todos los participantes individuales incluidos en el estudio después de que se les proporcionara una explicación clara del propósito del estudio, los métodos, el tratamiento confidencial y anónimo de los datos, así como su participación voluntaria y la posibilidad de retirarse del estudio en cualquier momento sin ninguna consecuencia. Los datos fueron procesados por medio del IBM SPSS Statistics versión 25. El análisis de datos se realizó en dos fases: Estadística descriptiva y fiabilidad: Se calculó la media (M) y la desviación estándar (DE) de la escala total y sus dimensiones. Se utilizó el alfa de Cronbach (α) para evaluar la consistencia interna, considerando α 0.70 como aceptable (George y Mallery, 2019). Los siguientes puntos de corte para las medias se establecieron: 1.00 2.33 (Bajo), 2.34 3.66 (Medio), 3.67 5.00 (Alto), basándose en ​la división proporcional del rango de la escala (Hernández-Sampieri y Mendoza, 2023). Se utilizó un ANOVA de medidas repetidas de una vía para comparar las medias de las cinco dimensiones diferentes (diseño intra- sujetos). Antes de proceder con el ANOVA, se probó el supuesto de esfericidad utilizando la prueba de Mauchly. Dado que se violó el supuesto de esfericidad (W 0.351, p 0.001), se utilizó el ajuste de Greenhouse-Geisser a los grados de libertad. Tras un resultado significativo del ANOVA, se realizaron pruebas post-hoc utilizando la prueba de Bonferroni. El tamaño del efecto del ANOVA se calculó utilizando la eta parcial al cuadrado (ηp²) y se interpretó de la siguiente manera: pequeño (0.01), mediano (0.06), grande (0.14) (Cohen, 1988). RESULTADOS El análisis psicométrico del instrumento demostró una excelente confiabilidad global (α = .926), superando el umbral de .90 recomendado para instrumentos de evaluación educativa en contextos aplicados (Taber, 2018; Cho & Kim, 2021). Esta alta consistencia interna valida la robustez de la escala para medir de manera estable el constructo multidimensional de "experiencia en EVA" en el contexto específico de las escuelas de conducción. La experiencia global reportada por los 100 estudiantes se situó en un nivel Alto (M = 3.78, DE = 0.71), indicando una percepción general positiva hacia los entornos virtuales implementados. Sin embargo, el análisis desagregado por dimensiones reveló patrones heterogéneos que requieren una interpretación matizada, como se detalla en la Tabla 1.
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188 182 Tabla 1 Estadísticos Descriptivos y Confiabilidad por Dimensión (N=100) Dimensión Ítems ​Media (M) ​Desv. Est. (DE) ​Nivel ​Alfa de Cronbach (α) 1. Apariencia Visual ​3 ​4.12 ​0.68 Alto ​.882 2. Comunicación 3 3.95 0.74 Alto .865 3. Recursos 4 ​4.18 ​0.65 Alto ​.901 4. Sistema Evaluación ​3 ​3.89 ​0.77 Alto ​.889 5. Retroalimentación ​3 ​2.52 ​0.91 Bajo ​.794 Escala Total 16 ​3.78 ​0.71 Alto ​.926 Nota. N=100. Los niveles se determinaron mediante puntos de corte proporcionales: Bajo (1.00-2.33), Medio (2.34-3.66), Alto (3.67-5.00), método ampliamente utilizado en investigación educativa cuantitativa (Allen & Seaman, 2020). Fuente. Elaboración propia mediante SPSS v.25. Cuatro de las cinco dimensiones alcanzaron puntuaciones en el nivel Alto, destacando Recursos (M = 4.18, DE = 0.65) como la mejor valorada, seguida por Apariencia Visual (M = 4.12, DE = 0.68). Estas puntuaciones elevadas sugieren que los aspectos técnicos y de contenido del EVA cumplen con estándares de calidad reconocidos en la literatura sobre diseño instruccional digital (Clark & Mayer, 2023). En marcado contraste, la dimensión Retroalimentación presentó una media significativamente inferior (M = 2.52, DE = 0.91), ubicándose en el nivel Bajo. La dispersión de los datos en esta dimensión (DE = 0.91) fue la mayor de todas, indicando una alta variabilidad en las percepciones de los estudiantes, aunque predominantemente negativas. Comparación entre Dimensiones Para determinar si existían diferencias estadísticamente significativas entre las medias de las cinco dimensiones, se realizó un ANOVA de una vía para medidas repetidas. Previo a este análisis, se verificaron los supuestos estadísticos requeridos: 1. Normalidad: La prueba de Shapiro-Wilk indicó que los residuos se distribuían normalmente (p > .05), cumpliendo el supuesto de normalidad (Ghasemi & Zahediasl, 2021). 2. Esfericidad: La prueba de Mauchly reveló una violación del supuesto de esfericidad (W = .351, p < .001), por lo que se utilizó la corrección de Greenhouse- Geisser (ε = .695) para ajustar los grados de libertad. El ANOVA con corrección de Greenhouse- Geisser mostró un efecto principal estadísticamente significativo de la variable "Dimensión" en las puntuaciones de experiencia (F[2.78, 275.22] = 187.64, p < .001). El tamaño del efecto, calculado mediante eta cuadrado parcial (ηp² = .655), se clasificó como grande según los criterios convencionales de Cohen (1988), indicando que aproximadamente el 65.5% de la varianza en las puntuaciones puede atribuirse a diferencias entre dimensiones. Tabla 2 Resultados del ANOVA de medidas repetidas Fuente gl. 1 gl 2 f p ​ηp² Dimensión ​2.78 275.22 187.64 ​<.001 ​.655 Error — ​— ​— Fuente. Elaboración propia mediante SPSS v.25.
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188 183 Análisis Post Hoc: Comparaciones pareadas Para identificar qué dimensiones diferían significativamente entre sí, se realizaron comparaciones múltiples post hoc utilizando la corrección de Bonferroni, método conservador recomendado para controlar el error Tipo I en comparaciones múltiples (Armstrong, 2021). Los resultados, presentados en la Tabla 3, revelaron un patrón claro de diferencias: Tabla 3 Comparaciones post hoc de Bonferroni Comparación de dimensiones Diferencia de medias ​SE ​P ajustado ​d de Cohen Retroalimentación vs. Recursos -1.66 0.12 ​<.001 ​1.82 Retroalimentación vs. Apariencia -1.60 0.11 <.001 1.75 Retroalimentación vs. Comunicación -1.43 0.10 ​<.001 ​1.56 Retroalimentación vs. Evaluación -1.37 0.13 ​<.001 ​1.50 Fuente: Elaboración propia mediante SPSS v.25. Todas las comparaciones que involucraban la dimensión Retroalimentación resultaron estadísticamente significativas (p < .001) con tamaños del efecto grandes (d de Cohen entre 1.50 y 1.82). Estos valores de d superan ampliamente el umbral de ​0.80 para efectos grandes (Lakens, 2013), confirmando la magnitud sustancial de las diferencias. Entre las dimensiones con puntuaciones altas, se encontraron diferencias significativas, pero de menor magnitud: - Recursos fue significativamente superior a Sistema de Evaluación (p = .042, d = 0.32) y a Comunicación (p = .035, d = 0.25). - No hubo diferencias significativas entre Apariencia Visual y Sistema de Evaluación (p = .278), ni entre la mayoría de las dimensiones altas restantes Hallazgos críticos en Retroalimentación Los ítems asociados a frecuencia (M=2.45), utilidad (M=2.38) y oportunidad (M=2.72) reflejan una desconexión entre expectativas y práctica. Un 78% de los estudiantes coincidió en que "el instructor rara vez comenta los errores en exámenes simulados". DISCUSIÓN Que las dimensiones mejor clasificadas fueran Recursos (M = 4.18) y Apariencia Visual (M = 4.12) implica que las instituciones tomaron la decisión correcta al dedicar esfuerzos a proporcionar un entorno más estable, una navegación y control sencillos, y un ​mejor soporte multimedia. Este resultado corrobora estudios recientes en los que la usabilidad y la abundancia de recursos se encuentran entre los factores más relevantes de aceptación de la tecnología en el ámbito de la educación profesional (Bond et al., 2020). La puntuación relativamente alta obtenida por Comunicación (M = 3.95) también es una señal positiva, ya que significa que las herramientas de comunicación síncrona y asíncrona están en general en funcionamiento, un requisito fundamental para el mantenimiento de una comunidad de indagación en un entorno de aprendizaje virtual (Garrison, 2022). En contraste, la brecha estadísticamente significativa obtenida en la dimensión de Retroalimentación no es un dato menor: es signo de una preocupante disociación entre tecnología y pedagogía. Los resultados confirman empíricamente el riesgo de caer en la “trampa del tecnologicismo” (Area‑Moreira et al., 2016), es decir, de deslumbrarse tanto con la herramienta que se olvide que se necesitan diseños didácticos en los que esté en juego una interacción genuinamente pedagógica. La dimensión de Retroalimentación (M = 2.52) fue significativamente inferior a todas las demás dimensiones (p <.001, η p² =.655). Este gran tamaño del efecto indica la relevancia del hallazgo. De hecho, según informan el 78 % de los estudiantes, el profesor apenas comenta los errores que se cometen en las simulaciones. Esta práctica formativa es inadecuada porque la retroalimentación debe ser oportuna,
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188 184 específica y orientada a la acción (Henderson et al., 2019; Carless & Winstone, 2020). Este es un inconveniente importante, especialmente para la conducción. Según la teoría de la carga cognitiva (Sweller et al., 2011), el aprendizaje efectivo implica equilibrar la carga intrínseca (de la tarea), la carga extrínseca (de la instrucción) y la carga pertinente (adquisición de esquemas). Los multimedia bien diseñados (algo que este artículo valora) disminuyen la carga extrínseca. Sin embargo, la falta de retroalimentación significa que los errores cometidos durante la práctica (la carga intrínseca de aprender a conducir) no se corrigen y no se convierten en esquemas mentales sólidos (pertinentes). Los errores repetidos sin retroalimentación para corregirlos solo permiten que estos errores se automaticen, lo que va en contra del propósito de proporcionar un entorno de práctica de bajo riesgo y devuelve ese riesgo a la carretera (Organización Mundial de la Salud, 2022). La investigación contemporánea en entrenamiento basado en simuladores muestra que no es la calidad gráfica de la simulación lo que importa para los resultados del entrenamiento, sino más bien el debriefing y la retroalimentación experta que la acompañan (Chernikova et al., 2020; López et al., 2023). La diferencia con respecto al estudio realizado por Bennett y Dawson (2017) en un contexto como Australia (M = 3.1 para la retroalimentación) muestra que tal disparidad no es general, sino que depende del contexto (institucional) y de la formación inicial del profesorado. El acelerado proceso ​de digitalización provocado por la pandemia en Ecuador puede haberse centrado en la implementación de la herramienta, en lugar de en las barreras de segundo orden para una integración tecnológica exitosa, es decir, la capacidad de implementar la tecnología ​de manera efectiva para lograr los objetivos de aprendizaje (Guzmán et al., 2022). Esto implica la necesidad de aplicar modelos más completos como el modelo TPACK (Conocimiento Tecnológico, Pedagógico y de Contenido), que aparte de saber usar la herramienta (TK) también requiere el conocimiento de cómo enseñar la materia con la herramienta (PCK) (Mishra, 2019; Koehler & Mishra, 2023). Dicha apropiación de la herramienta y su aplicación en la práctica pedagógica se ha dominado, como muestran nuestros resultados, pero no en su aplicación al PCK, al menos en lo que respecta a la práctica de la retroalimentación. Desde una perspectiva de justicia educativa, la falta de retroalimentación puede servir como un filtro invisible. Aquellos con menos agencia y capital cultural necesitan más apoyo del profesor para poder afrontar y ser productivos en el aula virtual (Zawacki-Richter & Latchem, 2023). Finalmente, se señala algunas limitaciones del estudio actual y se sugiere vías para futuras investigaciones. Esta investigación, al utilizar una muestra no probabilística y de conveniencia, no permite generalizar los resultados ni profundizar en las causas del fenómeno. En el futuro, la investigación debería: Utilizar enfoques mixtos o cualitativos (Creswell & Plano Clark, 2023) para investigar, a través de encuestas o entrevistas a profesores y estudiantes, los obstáculos contextuales, emocionales y cognitivos para ofrecer retroalimentación constructiva. Incorporar variables moderadoras como el grado de experiencia con EVA, el nivel educativo de los estudiantes, la edad o el sexo, para estudiar posibles variaciones en la experiencia digital percibida (Ramírez- Coronel et al., 2023) Implementar diseños longitudinales que relacionen los resultados en cualquiera de estas dimensiones de EVA con las puntuaciones posteriores de los estudiantes en los exámenes prácticos de conducción, proporcionando así evidencia de validez predictiva sobre el efecto real de la calidad de EVA en las competencias de los conductores. Evaluar los efectos de innovaciones particulares, como la formación del profesorado en retroalimentación digital o la incorporación de rúbricas y herramientas de
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188 185 coevaluación dentro de la plataforma (Carless & Boud, 2018). CONCLUSIONES El objetivo de la investigación fue conocer la experiencia con los Entornos Virtuales de Aprendizaje (EVA) de una muestra de estudiantes de escuelas de conducción de la provincia de El Oro, Ecuador, y así, proporcionar un diagnóstico multidimensional que no se centre únicamente en mediciones de satisfacción global. El primer resultado a destacar es la paradoja tecnopedagógica que parece ser evidente. En primer lugar, se ha demostrado que la arquitectura digital de los EVA analizados es suficientemente potente y cumple con criterios de calidad técnica y de diseño didáctico. La Apariencia Visual (M = 4.12), los Recursos de Aprendizaje (M = 4.18), los mecanismos de Comunicación (M = 3.95) y el propio Sistema de Evaluación (M = 3.89) son percibidos muy positivamente por los estudiantes. Esto sugiere una correcta inversión y desarrollo de los aspectos tecnológicos y de contenidos, en línea con la digitalización de los procesos educativos en la región latinoamericana. Por otro lado, y de forma importante, se observa un descenso significativo en la dimensión pedagógica esencial del Feedback formativo (M 2.52), con una puntuación baja que es estadísticamente inferior al resto de las dimensiones con un tamaño de efecto grande (ηp² = .655). Este resultado es clave ya que indica que la disponibilidad de medios tecnológicos y la calidad del contenido no son condiciones suficientes para que se produzca un proceso de aprendizaje potente, especialmente en áreas con implicaciones significativas como la formación de conductores. La falta de un feedback apropiado, específico y formativo no proporciona a los estudiantes la información requerida para reparar errores, gestionar su aprendizaje y formar comportamientos seguros, lo que puede provocar una carga cognitiva intrínseca excesiva y favorecer hábitos inadecuados. Por lo tanto, este trabajo concluye que la calidad de un EVA en el marco de la formación técnica no dependerá exclusivamente de su nivel tecnológico, sino del equilibrio entre la tecnología y las prácticas pedagógicas de alta calidad. Esta brecha no es un problema trivial. Muestra una desconexión entre la inversión en la plataforma y la inversión en la formación de los docentes para un uso pedagógicamente sólido de la tecnología. Esta es la llamada trampa tecnológica. En general, estos resultados conllevan una serie de consecuencias y requerirán un esfuerzo concertado de diversos grupos para abordarlas: Implicaciones para la investigación y la práctica: Los hallazgos respaldan el llamado a una atención inmediata y al uso de escalas de ítems múltiples (como la escala EVA utilizada en el presente estudio) para evaluar adecuadamente los EVA. La práctica de sustituir las escalas mencionadas por una única pregunta de "satisfacción" enmascara la situación real e impide la implementación de acciones correctivas específicas. Se deben desarrollar programas de formación y apoyo docente específicamente centrados en el feedback digital, pero no como un curso técnico sobre cómo usar plataformas digitales. Dichos programas deben orientarse hacia un feedback digital constructivo, oportuno y personalizado dentro de las herramientas del entorno virtual. Las escuelas de conducción deben proporcionar marcos institucionales que tengan en cuenta este aspecto. Por último, la investigación ofrece un modelo específico contextualizable de investigación, a ser replicado para estudiar EVA similares en otras áreas de formación técnica y profesional en Ecuador y la región. Y al plantear y registrar empíricamente esta brecha de conocimiento, se suma al debate sobre la humanización de las tecnologías educativas, en el que no debemos perder de vista que el estudiante y su aprendizaje significativo son el sujeto del proceso. Una replicación del estudio en otras provincias o países enriquecería la comparación y apoyaría
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188 186 las estrategias para superar la distancia entre tecnología y pedagogía, en la búsqueda de entornos virtuales verdaderamente efectivos en la formación de conductores seguros y responsables. REFERENCIAS BIBLIOGRÁFICAS Allen, I. E., & Seaman, C. A. (2020). Likert scales and data analyses: New approaches to old problems. Statistical Solutions Press. Area-Moreira, J., Hernández-Rivero, V., & Sosa- Alonso, J. J. (2016). Models of educational integration of ICTs in the classroom. Comunicar, 24(47), 9 19. https://doi.org/10.3916/C47-2016-08 Armstrong, R. A. (2021). When to use the Bonferroni correction. ​Ophthalmic & Physiological Optics, 41(5), 1114 1118. https://doi.org/10.1111/opo.12840 Bennett, L., & Dawson, P. (2017). How to make peer feedback effective in online learning environments. ​Journal of University Teaching & Learning Practice, 14(3), Article 2. https://doi.org/10.53761/1.14.3.2 Black, P., & Wiliam, D. (2009). Developing the theory of ​formative assessment. Educational Assessment, Evaluation and Accountability, 21(1), 5 31. https://doi.org/10.1007/s11092-008-9068- 5 Bond, M., Buntins, K., Bedenlier, S., Zawacki- Richter, O., & Kerres, M. (2020). Mapping research in student engagement and educational technology in higher education: A systematic evidence map. International Journal of Educational Technology in Higher Education, 17(1), Article 2. https://doi.org/10.1186/s41239- 019-0176-8 Carless, D., & Boud, D. (2018). The development of student feedback literacy: Enabling uptake of feedback. ​Assessment & Evaluation in Higher Education, 43(8), 1315 1325. https://doi.org/10.1080/02602938.2018.14 63354 Carless, D., & Winstone, N. (2020). Teacher feedback literacy and its interplay with student feedback literacy. ​Teaching in Higher Education, 28(1), 150 163. https://doi.org/10.1080/13562517.2020.17 82372 Chernikova, O., Heitzmann, N., Stadler, M., Holzberger, D., Seidel, T., & Fischer, F. (2020). Simulation-based learning in higher education: A meta-analysis. Review of Educational Research, 90(4), 499 541. https://doi.org/10.3102/003465432093354 4 Cho, E., & Kim, S. (2021). Cronbach’s coefficient alpha: Well known but poorly understood. Organizational Research Methods, 24(2), 207 230. https://doi.org/10.1177/109442812058718 3 Clark, R. C., & Mayer, R. E. (2023). E-learning and the science of instruction: Proven guidelines for consumers and designers of multimedia learning (5th ed.). Wiley. Cohen, J. (1988). Statistical power analysis for the behavioral sciences ​(2nd ed.). Lawrence Erlbaum Associates. Creswell, J. W., & Creswell, J. D. (2018). Research design: Qualitative, quantitative, and mixed methods approaches (5th ed.). Sage. Creswell, J. W., & Plano Clark, V. L. (2023). Designing and conducting mixed methods research (4th ed.). SAGE Publications. Espinoza, L., & Pichihua, J. (2021). Feedback en entornos virtuales: Percepciones de docentes y estudiantes en educación superior. ​Revista Electrónica de Investigación Educativa, 23, Article e25. https://doi.org/10.24320/redie.2021.23.e2 5.3997 García, A., López, D., & Sánchez, J. (2022). Evaluation framework for driving simulators: A validation study for skill transfer. ​Computers & Education, 187, 104548. https://doi.org/10.1016/j.compedu.2022.1 04548 García-Peñalvo, F. J., & Corell, A. (2020). La COVID-19: ¿Enzima de la transformación digital de la docencia o reflejo de una crisis metodológica y competencial en la educación superior? ​Campus Virtuales, 9(2), 83 98. García-Ramírez, L. (2022). Hacia un Sistema de Aprendizaje del Conductor (SAC): Integración del licenciamiento graduado y simuladores de conducción de alta fidelidad en entornos latinoamericanos. Journal of Transport and Health, 27, 101518. https://doi.org/10.1016/j.jth.2022.101518 Garrison, D. R. (2022). Shared metacognition in a community of inquiry. ​Online Learning, 26(1), 5 18. https://doi.org/10.24059/olj.v26i1.3023
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188 187 Garrison, D. R., Anderson, T., & Archer, W. (2010). The first decade of the community of inquiry framework: A retrospective. The Internet and Higher Education, 13(1 2), 5 9. https://doi.org/10.1016/j.iheduc.2009.10.0 03 George, D., & Mallery, P. (2019). ​IBM SPSS Statistics 26 step by step: A simple guide and reference (16th ed.). Routledge. Ghasemi, A., & Zahediasl, S. (2021). Normality tests for statistical analysis: A guide for non-statisticians. International Journal of Endocrinology and Metabolism, 19(2), e109845. https://doi.org/10.5812/ijem.109845 Guzmán, R., Alvarado, M., & Palacios, J. (2022). Digital teaching competence in Latin American universities: A systematic review. ​Sustainability, 14(15), 9012. https://doi.org/10.3390/su14159012 Hattie, J., & Timperley, H. (2007). The power of feedback. ​Review of Educational Research, 77(1), 81 112. https://doi.org/10.3102/003465430298487 Henderikx, M., Ubachs, H., & Antonaci, A. (2023). The ECO framework for digital learning quality: Integrating emotional, cognitive and organizational perspectives. International Journal of Educational Technology in Higher Education, 20(1), Article 15. https://doi.org/10.1186/s41239- 023-00384-8 Henderson, M., Phillips, M., Ryan, T., Boud, D., Dawson, P., Molloy, E., & Mahoney, P. (2019). Conditions that enable effective feedback. ​Higher Education Research & Development, 38(7), 1401 1416. https://doi.org/10.1080/07294360.2019.16 57807 Hernández-Sampieri, R., & Mendoza Torres, C. P. (2023). ​Metodología de la investigación: Las rutas cuantitativa, cualitativa y mixta (2.ª ed.). McGraw-Hill Interamericana. Koehler, M. J., & Mishra, P. (2023). What happens when teachers design educational technology? The development of technological pedagogical content knowledge. ​Journal of Educational Computing Research, 61(1), 3 28. https://doi.org/10.1177/073563312211170 12 Lakens, D. (2013). Calculating and reporting effect sizes to facilitate cumulative science. Frontiers in Psychology, 4, Article 863. https://doi.org/10.3389/fpsyg.2013.00863 López, J., Cárdenas, F., & Paredes, J. (2023). Efficacy of virtual reality driving simulators for hazard perception training: A meta-analysis. Transportation Research Part F: Traffic Psychology and Behaviour, 94, 480 495. https://doi.org/10.1016/j.trf.2023.03.005 Mayer, R. E. (2020). ​Multimedia learning ​(3rd ed.). Cambridge University Press. Ministerio de Transporte del Ecuador. (2021). Estándares de formación vial digital. https://www.transportes.gob.ec/estandares -evavial Mishra, P. (2019). Considering contextual knowledge: The TPACK diagram gets an upgrade. ​Journal of Digital Learning in Teacher Education, 35(2), 76 78. https://doi.org/10.1080/21532974.2019.15 88611 Nicol, D. J., & Macfarlane-Dick, D. (2006). Formative assessment and self-regulated learning. ​Studies in Higher Education, 31(2), 199 218. https://doi.org/10.1080/030750706005720 90 Nunnally, J. C., & Bernstein, I. H. (2020). Psychometric theory ​(4th ed.). McGraw- Hill. Organización Mundial de la Salud. (2022). Global status report on road safety 2022. https://www.who.int/publications/i/item/9 789240063483 Ossiannilsson, E. (2021). Quality models and frameworks for digital open educational resources. En Handbook of Open, Distance and Digital Education ​(pp. 1 19). Springer. https://doi.org/10.1007/978-981- 19-0351-9_44-1 Pacheco, V., Rodríguez, A., & Armijos, M. (2022). Competencias digitales docentes en el Ecuador post-pandemia. ​Educación y Humanismo, 24(42), 1 20. https://doi.org/10.17081/eduhum.24.42.51 52 Peñaloza García, B. A., & González Jaramillo, Y. del R. (2025). Juicio de expertos y exploración psicométrica de la escala de evaluación de experiencia en entornos virtuales de aprendizaje en Ecuador. Arandu UTIC, 12(4), 1706 1716. https://doi.org/10.69639/arandu.v12i4.177 5 Picciano, A. G. (2022). Theories and frameworks for online education. ​Online Learning, 26(3), 7 24. https://doi.org/10.24059/olj.v26i3.3232
SAGA Rev. Cienc. Multidiscip. | e-ISSN 3073-1151 | Enero-Marzo, 2026 | vol. 3 | núm. 1 | pág. 178-188 188 Ramírez-Coronel, A., López, G., & Fernández, T. (2023). Gender differences in perceptions of feedback in technical virtual learning environments. ​Computers & Education, 184, 104876. https://doi.org/10.1016/j.compedu.2023.1 04876 Selwyn, N. (2022). Education and technology: Key issues and debates (3rd ed.). Bloomsbury Academic. Sweller, J., Ayres, P., & Kalyuga, S. (2011). Cognitive load theory. Springer. https://doi.org/10.1007/978-1-4419-8126- 4 Taber, K. S. (2018). The use of Cronbach’s alpha when developing and reporting research instruments. ​Research in Science Education, 48, 1273 1296. https://doi.org/10.1007/s11165-016-9602- 2 UNESCO. (2023). Guidelines for digital pedagogy in technical and vocational education. https://unesdoc.unesco.org/ark:/48223/pf0 000385432 Valdez, A., López, M., & Ramírez, E. (2022). User experience and satisfaction in technical e- learning environments. ​Journal of Educational Computing Research, 60(6), 1567 1592. https://doi.org/10.1177/073563312210877 26 Zawacki-Richter, O., & Latchem, C. (2023). Exploring four decades of research in Computers & Education. ​Computers & Education, 198, 104762. https://doi.org/10.1016/j.compedu.2023.1 04762 DECLARACIÓN DE CONFLICTO DE INTERESES El autor declara no tener conflictos de intereses. DERECHOS DE AUTOR Peñaloza García, B. A. (2026) Este es un artículo de acceso abierto distribuido bajo la licencia Creative Commons de Atribución No Comercial 4.0, que permite su uso sin restricciones, su distribución y reproducción por cualquier medio, siempre que no se haga con fines comerciales y el trabajo original sea fielmente citado. El texto final, datos, expresiones, opiniones y apreciaciones contenidas en esta publicación es de exclusiva responsabilidad de los autores y no necesariamente reflejan el pensamiento de la revista.