Resumen
El desarrollo de la investigación científica ha experimentado un notable crecimiento en la actualidad, lo que ha dado lugar al surgimiento de aplicaciones digitales dirigidas a la preservación de corpus investigativos, como es el caso del DYAC desarrollado por la Universidad del Azuay. En este contexto, el objetivo de este estudio fue evaluar la usabilidad de la aplicación web DYAC en dos grupos de usuarios: investigadores y usuarios registrados. Se llevó a cabo un estudio de caso que involucró a 68 participantes, entre los cuales se encontraban 59 estudiantes y 9 docentes-investigadores, a quienes se les aplicaron casos de prueba y la encuesta WAMMI. Los resultados de los casos de prueba revelaron comentarios de los usuarios acerca de las dificultades de usabilidad en la aplicación en cuanto a la navegación, el diseño de interfaz, la búsqueda, la arquitectura, la funcionalidad y la facilidad de aprendizaje, así mismo, aspectos a mejorar relacionado a la semántica de etiquetas, el tamaño de letra, el uso de colores y arquitectura. Por otro lado, la encuesta WAMMI arrojó una puntuación global de usabilidad del 66.09 indicativo de calificación satisfactoria. Se concluye que las pruebas de usabilidad proporcionan información relevante para esta investigación, ya que sirven como guía para realizar mejoras significativas en la aplicación.
Abstract
The development of scientific research has currently experienced notable growth, which has given rise to the emergence of digital applications aimed at investigative corporas preservation, as is the case of the DYAC developed by the University of Azuay. In this context, the objective of this study was to evaluate the usability of the DYAC web application in two groups of users: researchers and registered users. A case study was carried out that involved 68 participants, among whom were 59 students and 9 teacher-researchers, to whom test cases and a WAMMI survey were applied. The results of the test cases revealed user comments about usability difficulties in the application. On the other hand, the WAMMI survey showed an overall usability score of 66.09. It is concluded that usability tests provide important information for this research since they serve as a guide to make significant improvements to the application.
Keywords
Caso de prueba, DYAC, estudio de caso, encuesta WAMMI, test de usabilidad, usabilidad DYAC.
Palabras clave
Case study, DYAC, test cases, usability testing, usability DYAC, WAMMI survey.
Artículo recibido: 1-abr-24. Artículo aceptado: 8-dic-24.
DOI: https://doi.org/10.33324/uv.vi85.871 Páginas: 108-129
1.
Introducción
Con el continuo crecimiento de la investigación científica y el avance tecnológico, la obtención de resultados científicos se ha vuelto considerablemente más accesible, esto ha permitido tanto a usuarios como a investigadores respaldar sus investigaciones de manera más efectiva; las plataformas digitales que recopilan, preservan y ofrecen acceso gratuito y en formato digital a una variedad de documentos científicos comenzaron a surgir a principios del año 2000 (Fushimi, 2018).
Ante esta necesidad de consolidar archivos científicos, la Universidad del Azua ha implementado la plataforma web Documentación y Archivo Científico (DYAC), la cual se encarga de reunir y preservar documentos investigativos para que estén disponibles de manera libre a la comunidad en general (Cedillo et al., 2021; Verdugo et al., 2020). A pesar de ser una aplicación relativamente nueva, no se han realizado estudios de usabilidad sobre la misma.
La usabilidad web se refiere a la facilidad con la que usuarios específicos pueden utilizar una aplicación, herramienta de software, producto o servicio para alcanzar sus objetivos de manera efectiva, eficiente y satisfactoria dentro de un contexto de uso particular (Commission & for Standardization, 2010; ISO, 2018; Paz et al., 2015). Su objetivo principal es comprender las dificultades que enfrenta el usuario al interactuar con una aplicación web (Xu & Topi, 2017).
La usabilidad es un factor crítico a considerar en el desarrollo de software, ya que determina si los diseños de interfaz propuestos son útiles, claros y fáciles de usar. Los cuestionarios son una herramienta comúnmente utilizada para evaluar la utilidad del diseño de una interfaz, con varios enfoques diseñados para obtener la perspectiva de los usuarios finales (Paz et al., 2021). Garantizar un alto nivel de usabilidad es crucial para mejorar la experiencia y satisfacción del usuario, así como para aumentar la productividad, eficiencia y facilidad de uso, reduciendo al mínimo el tiempo de aprendizaje necesario (Hartson & Pyla, 2019).
Según Alfayez y Al-Tawriy (2021), para evaluar la usabilidad, se debe seleccionar una metodología, la define como un proceso estructurado para analizar la facilidad de uso y la experiencia del usuario en aplicaciones web, la metodología incluye la evaluación sistemática de diferentes aspectos del diseño y funcionalidad, así como la generación de recomendaciones para mejorar la experiencia del usuario.
Existen diversos métodos para evaluar la usabilidad, para esta investigación se seleccionó el estudio de caso y las pruebas WAMMI. Los estudios de caso proporcionan información cualitativa sobre la experiencia del usuario, mientras que las pruebas WAMMI proporcionan información cuantitativa sobre la usabilidad del sitio web. Esta combinación proporciona una visión más completa de la usabilidad del sitio web e identificar una gama más amplia de problemas.
La metodología de estudio de caso, en el campo de la ingeniería de software, es considerada como una investigación experimental que emplea múltiples fuentes de datos para investigar una instancia (o una pequeña cantidad de ocurrencias) en su contexto del mundo real de un fenómeno moderno relacionado con la ingeniería de software, particularmente cuando las fronteras entre el fenómeno y su entorno son borrosas (Runeson et al., 2012). En ese sentido, el estudio de caso es una metodología que permite realizar simulacros en entornos reales.
Por otra parte, los tests de usabilidad, según Lewis (2012) y Riihiaho (2017), son métodos esenciales para evaluar la funcionalidad y la experiencia del usuario en aplicaciones web. Estas pruebas implican la observación directa de usuarios reales mientras realizan tareas específicas o expresan sus pensamientos durante el proceso. El autor Wichansky (2010) destaca la utilidad de la aplicación de los tests para medir el rendimiento del usuario y la satisfacción frente a un sistema o producto de software, se recopila información valiosa sobre las dificultades de usabilidad y se proponen soluciones para mejorar la experiencia del usuario.
Lewis (2012), del mismo modo que Nelson y Stavrou (2011) destacan las ventajas de los tests de usabilidad, como la interacción directa con la aplicación, la identificación y solución de problemas de usabilidad, la obtención de datos útiles y la corrección de fallas para mejorar la experiencia del usuario. Sin embargo, señalan algunas desventajas, como la posibilidad de que los usuarios no realicen las pruebas con seriedad, la dificultad para detectar distracciones en un entorno no controlado y la falta de seguimiento de las instrucciones por parte de los usuarios. Estas consideraciones resaltan la importancia de diseñar y ejecutar pruebas de usabilidad de manera cuidadosa y reflexiva para garantizar resultados significativos.
El test de evaluación de aplicaciones web WAMMI, fue desarrollado por el Grupo de Investigación de Factores Humanos (HFRG) del University College Cork; para Assila et al. (2016) este test se fundamenta en un cuestionario dirigido a los usuarios de la aplicación web, cuyos resultados proporcionan una medida de la valoración y facilidad de uso de la plataforma. Dichos resultados se desglosan en cinco escalas de usabilidad: atractivo, control, eficiencia, utilidad y capacidad de aprendizaje. El informe generado por WAMMI incluye un puntaje general de usabilidad, una calificación global del sitio web y un perfil detallado de usabilidad. El cuestionario WAMMI está compuesto por veinte ítems, cada uno con una escala de 5 puntos, que abarcan tanto aspectos positivos como negativos. Una ventaja destacada de WAMMI es su capacidad para agregar más preguntas, lo que permite evaluar de manera exhaustiva diferentes sitios web utilizando su sistema de calificación. Los resultados obtenidos se comparan con una base de datos de referencia creada a partir de la evaluación de numerosos sitios web.
En este contexto, este estudio tiene como objetivo evaluar la usabilidad de la plataforma DYAC con el fin de identificar problemas de usabilidad. Este artículo se estructura con una introducción en la cual se presenta la importancia del tema y las nociones teóricas; la revisión de la literatura, con los estudios relacionados al tema; la metodología; los resultados; y finalmente conclusiones.
2.
Revisión de literatura
En la revisión de literatura se abordan diversos estudios que evalúan la usabilidad de aplicaciones web mediante métodos variados para medir la experiencia del usuario y detectar posibles problemas. Grigera et al. (2017) proponen enfoques para analizar la interacción del usuario, destacando la identificación de indicadores de dificultad de usabilidad. Axinte y Bacivarov (2019) presentan pasos para mejorar la calidad del software a través de pruebas de usabilidad, demostrando el impacto positivo de estas evaluaciones en la usabilidad del producto. Liu et al. (2021) aplican un estudio de caso para evaluar un sistema para automóviles inteligentes, mientras que Cardoso et al. (2019) diseñan una plataforma web para promover el uso del transporte público mediante pruebas de usabilidad.
Por otro lado, se describen métodos y metodologías aplicadas en estos estudios. Valenti (2019) y Agustina et al. (2019) utilizan estudios de caso de usabilidad para mejorar aplicaciones web, mientras que Khodambashi et al. (2015) y Lindberg et al. (2017) diseñan prototipos y aplican pruebas de usabilidad para evaluar herramientas en el campo de la salud. Mabanza (2018) evalúa un aplicativo web para la comunicación entre estudiantes, y López Cisternas (2012) emplea pruebas heurísticas en aplicaciones específicas. Ismailova (2015) examina la usabilidad de sitios web gubernamentales, mientras que Ismail et al. (2015) y, Sukardjo y Sugiyanta (2018) aplican pruebas de usabilidad en plataformas web para mejorar su rendimiento y experiencia del usuario. Finalmente, Selmanovic et al. (2021) evalúan la usabilidad de una aplicación web para cursos en línea, destacando la importancia de adaptar el idioma a los usuarios.
3.
Metodología
En este estudio, se emplea la metodología de estudio de caso propuesta por Runeson et al. (2012) de tipo cualitativa, y la prueba de evaluación WAMMI (Kirakowski, s. f.) de tipo cuantitativa. La metodología se desarrolló en cuatro etapas: 1) diseño y planificación del estudio de caso, 2) preparación y recopilación de datos, 3) análisis e interpretación de los datos, y 4) presentación de los resultados obtenidos. Estas actividades se detallan en la figura 1, la cual proporciona las directrices y el número de procesos involucrados.
Figura 1.
Metodología de estudio de caso

3.1. Diseño y planificación del estudio de caso
En el diseño y planificación del estudio de caso, se establecen dos preguntas de investigación fundamentales: (1) ¿Cuáles son las dificultades de usabilidad percibidas por los usuarios? y (2) ¿Cuáles son las características de usabilidad que requieren mejora en la aplicación? Dado que la medición de las opiniones de los usuarios sobre la usabilidad puede ser compleja, se busca cuantificar los datos para responder estas preguntas, pero también se consideran datos cualitativos para comprender las opiniones de los usuarios.
3.2. Preparación y recopilación de datos
Para la preparación y recolección de datos, se utilizó una muestra por conveniencia. Los sujetos de prueba se dividieron en dos grupos: el Grupo 1, compuesto por 10 docentes-investigadores, identificados como usuarios investigadores, quienes depositan sus corpus investigativos en la aplicación DYAC para ser compartidos y utilizados en otras investigaciones; y el Grupo 2, que incluye a 59 estudiantes de diversas carreras de la Universidad del Azuay, identificados como usuarios registrados, quienes representan a interesados en emplear los recursos investigativos del Grupo 1.
La selección de participantes con perfiles homogéneos dentro de cada grupo buscó minimizar sesgos psicográficos que pudieran afectar los resultados de la prueba de estudio de caso. Al tener participantes con un nivel similar de familiaridad con las aplicaciones web y experiencia en investigación (Grupo 1) o nivel académico, carrera e interés en la investigación (Grupo 2), se reduce la influencia de sesgos relacionados con la experiencia tecnológica o el conocimiento previo de la aplicación DYAC.
Para ambos grupos se diseñaron casos de prueba específicos para el uso de la aplicación DYAC, adaptados a su perfil de usuario (investigador o registrado), en donde se captura información sobre el tiempo para la ejecución de la tarea e información cualitativa sobre aspectos de usabilidad como: semántica, tamaño de letra y uso de colores, también incluye una sección de recomendaciones. Si bien estos aspectos son relevantes para la usabilidad, la selección se basa en una comprensión más amplia de la experiencia del usuario y los factores que la afectan: i) La semántica está relacionada con el significado y la claridad del contenido del sitio web, evalúa si el lenguaje utilizado es claro, preciso y comprensible para el público objetivo; ii) El tamaño de letra es un factor importante para la legibilidad del contenido del sitio web, valora si el texto es lo suficientemente grande y claro para ser leído con facilidad en diferentes dispositivos y condiciones de visualización; iii) El uso de colores juega un papel importante en la estética, la accesibilidad y la experiencia general del usuario, indaga si la paleta de colores utilizada es atractiva y adecuada para el público objetivo.
Al finalizar la ejecución de los casos de prueba, se aplicaron encuestas WAMMI (Kirakowski, s. f.). La estructura de los casos de prueba para ambos grupos se presenta en la Tabla 1, el listado de tareas para usuario investigador y usuario registrado se detalla en la Tabla 2.
Tabla 1.
Plantilla de caso de prueba para usuario investigador

Tabla 2
Listado de tareas usuario investigador y usuario registrado

El procedimiento para la aplicación de los casos de prueba a los usuarios investigadores sigue los siguientes pasos: i) se agenda una cita individual con el investigador, ii) se presenta la aplicación DYAC y se solicita su participación en el estudio de caso, iii) se programa una fecha específica, y finalmente, iv) se lleva a cabo la aplicación del estudio de caso junto con la encuesta WAMMI. Durante el paso iv, se les proporcionan las instrucciones impresas junto con los casos de prueba, y al concluir, se les pide que completen la encuesta WAMMI en línea.
El procedimiento para aplicar los casos de prueba a los usuarios registrados sigue estos pasos: i) se convoca al grupo de estudiantes en una fecha y hora específicas, ii) se presenta la aplicación DYAC, y finalmente iii) se lleva a cabo el estudio de caso y se les administra la encuesta WAMMI. Durante el paso iii, se les proporcionan instrucciones impresas junto con los casos de prueba, y al concluir, se les solicita completar en línea la encuesta WAMMI.
La diferencia en el procedimiento señalado para los dos grupos, radica específicamente en la aplicación, al primer grupo se lo realizó de forma individual.
El test WAMMI fue aplicado al finalizar la ejecución del caso de prueba por parte de los usuarios.
3.3. Análisis e interpretación de los datos
Una vez finalizados los estudios, se analizan los datos recopilados. Esto implica identificar patrones y temas comunes en los comentarios de los participantes.
3.1. Presentación de los resultados obtenidos
Para obtener los resultados cualitativos, en primer lugar, se aplican los casos de prueba, y se recopilan las opiniones de los dos grupos de usuarios. Posteriormente, estas opiniones se transcriben y se analizan para identificar posibles errores de usabilidad en la aplicación DYAC. Para facilitar el análisis, se organizan los comentarios por secciones en tablas separadas.
Con los datos cuantitativos, se elaboran varios gráficos para visualizar el tiempo empleado por usuarios investigadores y usuarios registrados, relacionados a completar las tareas definidas en los casos de prueba. Esto permite identificar las tareas que presentan la mayor dificultad percibida por cada usuario.
Del mismo modo, al realizar las encuestas, se genera un informe de usabilidad con datos estadísticos proporcionados directamente por el test WAMMI. Esta información se solicita al propietario del test para su análisis y evaluación.
4.
Resultados
4.1. Resultados de casos de prueba
Los resultados de los casos de prueba se presentan de la siguiente manera: en el Grupo 1, de los 10 usuarios investigadores contactados para llevar a cabo el caso de prueba, 9 completaron las tareas asignadas, mientras que un investigador se excusó por razones personales. Por otro lado, en el Grupo 2, los 59 usuarios registrados participaron en el caso de prueba. Es importante destacar que todos los usuarios tenían un perfil similar, por lo que se esperaba que el tiempo promedio para realizar las tareas fuera similar.
Se analizó los resultados obtenidos en los casos de prueba realizados tanto con usuarios investigadores como con usuarios registrados. Utilizando una hoja electrónica, uno de los integrantes del equipo de investigación, registra la tarea, la hora de inicio y hora de finalización para obtener los tiempos de ejecución, así también, se digitan los comentarios de los usuarios en las secciones de Semántica, Tamaño de letra, Uso de colores y Recomendaciones. Posteriormente, estos comentarios fueron separados por temática para identificar y eliminar términos repetidos, esto permitió identificar las dificultades y aspectos a mejorar en relación a la usabilidad de la aplicación dando respuesta a las preguntas de investigación.
Los resultados del tiempo (en minutos) empleado por tarea de los usuarios investigadores se presentan en la figura 2. En esta figura se visualiza la variabilidad de los datos en cuartiles, la mediana, los valores máximos y mínimos representados mediante líneas verticales, y finalmente, se identifican los valores anómalos. Se puede observar que la tarea con el identificador UINV-004 registra el valor medio más alto, con 7 minutos, alcanzando un máximo de 14 minutos y un mínimo de 3 minutos. Seguidamente, la tarea con el identificador UINV-007 muestra un tiempo medio de 5 minutos, con un máximo de 12 minutos y un mínimo de 2 minutos.
Asimismo, se detallan los resultados del tiempo (en minutos) dedicado por tarea de los usuarios registrados en la figura 3. En ella se aprecia la distribución de los datos en cuartiles, la mediana, los valores máximos y mínimos, representados mediante líneas verticales, así como también se identifican los valores anómalos. Se observa que la tarea identificada como UREG-001, registra el promedio más alto, con un valor de 4 minutos y un máximo de 10 minutos. Por otro lado, las tareas UREG-002 y UREG-006 presentan valores anómalos de 11 y 10 minutos, respectivamente.
Para identificar las tareas que presentan la mayor dificultad percibida por cada usuario, analizamos los tiempos empleados para completar cada tarea, observamos el comportamiento de los usuarios y revisamos las recomendaciones escritas durante la ejecución. Los resultados indican que las tareas UINV-004 y UINV-007, aplicadas a los usuarios investigadores, y la tarea UREG-001, aplicada a los usuarios registrados, son las más prolongadas en tiempo. Esto sugiere que estas tareas probablemente presentan la mayor dificultad percibida por cada usuario y representan posibles áreas de revisión y mejora en la aplicación.
Figura 2.
Tiempo por tarea, reportado por los usuarios investigadores

Figura 3.
Tiempo por tarea, reportado por los usuarios registrados

4.2. Resultados de la encuesta WAMMI
La encuesta WAMMI proporciona resultados en lo referente a: 1) perfil gráfico de los resultados de la encuesta, 2) el análisis de las 20 afirmaciones que proporciona la encuesta, 3) las respuestas a tres preguntas abiertas, 4) las respuestas a dos preguntas de selección, 5) resumen numérico de los resultados de WAMMI, y 6) el perfil de los visitantes por cada una de las escalas WAMMI. Cada una de estos resultados es analizado por el propio sistema WAMMI mediante una comparación con su base de datos.
El resumen numérico de los resultados de WAMMI de las puntuaciones individuales de los usuarios registrados e investigadores, se visualiza en la tabla 3, en esta se muestra, por una parte, el puntaje de usabilidad global de 66.09 que indica que la aplicación DYAC evaluada se encuentra por encima del promedio en términos de usabilidad; y por otra, la desviación estándar de las cinco escalas WAMMI, con un valor de 20,12 lo que indica una alta variabilidad en las puntuaciones individuales. Esto significa que hubo una gran dispersión en las opiniones de los usuarios sobre la usabilidad del sitio web DYAC.
Tabla 3.
Resumen numérico de los resultados de WAMMI

4.3. Respuestas a las preguntas de investigación
PI1: ¿Cuáles son las dificultades de usabilidad percibidas por los usuarios?
Los problemas percibidos por los usuarios investigadores y usuarios registrados se obtienen en base a los comentarios segregados de los casos de prueba, los mismos se mencionan a continuación:
- Difícil navegabilidad de la aplicación
- Diseño de interfaz poco agradable.
- Accesibilidad a la búsqueda de elementos y resultados erróneos.
- Organización de información.
- Funcionalidad de la aplicación.
- Poca capacidad de aprendizaje.
PI2: ¿Cuáles son las características de usabilidad que se deben mejorar en la aplicación?
Se presenta un informe con recomendaciones derivadas de los resultados obtenidos en los casos de prueba, tanto de los usuarios investigadores como de los usuarios registrados. Este informe abarca exclusivamente los comentarios que ofrecen alguna sugerencia para la aplicación DYAC. Estos datos servirán como guía para el equipo de investigación y desarrollo, facilitando la implementación de mejoras significativas dirigidas a la usabilidad de la aplicación
En lo que respecta al informe tanto de usuarios investigadores como registrados, se incluye las categorías de: semántica en etiquetas, el tamaño de letra y el uso de colores. Se detalla en la tabla 4.
Tabla 4.
Reporte extraído de los usuarios investigadores

Es importante recalcar que, al llevar a cabo y determinar las pruebas de usabilidad, se enfrentaron algunas limitaciones, como la disponibilidad de los usuarios investigadores para ejecutar los casos de prueba y el costo asociado a las encuestas de usabilidad, que en su mayoría no son gratuitas.
5.
Discusión
Al analizar los resultados de los casos de prueba, se identificaron tareas específicas que representan mayor dificultad para los usuarios. Es así que para los Usuarios investigadores las tareas UINV-004 y UINV-007 muestran tiempos más prolongados, y para Usuarios registrados la tarea UREG-001 tuvo el promedio más alto en relación al tiempo empleado.
El análisis de los tiempos de ejecución y los comentarios proporcionados sugiere que estas tareas probablemente presentan mayor dificultad percibida, lo cual podría estar relacionado con problemas de usabilidad. Las observaciones realizadas, junto con las recomendaciones escritas, señalan posibles áreas de mejora en la aplicación.
En particular, el tiempo elevado registrado en estas tareas podría deberse a varios factores como: Complejidad en los pasos necesarios para completarlas; Elementos de la interfaz que no son intuitivos o que no están suficientemente destacados; Distracciones o ambigüedades en el diseño de las tareas.
Esto resalta la importancia de revisar estas tareas, optimizando su diseño y asegurando una experiencia más fluida para todos los usuarios.
Por otra parte, los resultados obtenidos de la encuesta WAMMI reflejan dos hallazgos principales: i) El puntaje de usabilidad global de 66.09 sugiere que la aplicación DYAC se encuentra en una posición favorable respecto al promedio de usabilidad general en comparación con otras aplicaciones evaluadas por el sistema WAMMI. Esto indica un buen desempeño general en términos de experiencia de usuario; y, ii) La desviación estándar de 20.12 señala una gran dispersión en las opiniones de los usuarios. Este nivel de variabilidad podría deberse a diferencias en las expectativas y necesidades entre los usuarios registrados y los usuarios investigadores, lo que sugiere que algunos aspectos de la usabilidad pueden no estar siendo igualmente efectivos para ambos grupos.
El análisis detallado de las cinco escalas WAMMI y las respuestas cualitativas proporcionadas por los usuarios será clave para identificar áreas específicas de mejora y abordar esta disparidad en las percepciones de usabilidad.
6.
Conclusiones
Para concluir, este proyecto representa un hito al evaluar la usabilidad de la aplicación DYAC, demostrando el valor significativo de las pruebas de usabilidad mencionadas anteriormente para esta investigación. Estas pruebas permitieron determinar la facilidad de uso de la aplicación, subrayando la importancia de aplicarlas de manera recurrente durante el desarrollo para asegurar mejoras continuas y garantizar la calidad del producto.
Además, la implementación de los test de usabilidad facilitó la recopilación de recomendaciones por parte de los usuarios, quienes probaron la aplicación en su totalidad a través de diversas tareas. Estos test demostraron ser efectivos al identificar problemas de usabilidad en DYAC. Los problemas percibidos por los usuarios investigadores y los usuarios registrados se identificaron a partir de los comentarios recogidos durante las pruebas, los cuales incluyen: dificultad en la navegabilidad de la aplicación, diseño de interfaz poco atractivo, accesibilidad deficiente en la búsqueda de elementos y resultados, deficiente organización de la información, problemas de funcionalidad de la aplicación, y baja facilidad de aprendizaje.
Además, las recomendaciones derivadas de los resultados obtenidos durante los casos de prueba, tanto para los usuarios investigadores como para los usuarios registrados de la aplicación DYAC, incluyen mejoras en la semántica de las etiquetas, el tamaño del texto y el uso de colores. Estos datos servirán como una hoja de ruta para el equipo de investigación y desarrollo, facilitando la implementación de mejoras significativas enfocadas en la usabilidad de la aplicación.
Así mismo, la encuesta de usabilidad WAMMI permitió evaluar el sistema según sus cinco escalas de usabilidad, destacando su especialización en la evaluación de aplicaciones web. Los resultados obtenidos, comparados con la base de datos del sistema WAMMI, arrojaron un puntaje de usabilidad global de 66.09, indicativo de una calificación satisfactoria. Sin embargo, la desviación estándar de 20.12, nos indica que las opiniones de los usuarios sobre la usabilidad del sitio web no son uniformes, siendo un indicio de que el sitio web no ofrece una experiencia consistente a todos los usuarios.
Para abordar la variabilidad observada, es fundamental investigar las causas subyacentes. Esto puede implicar revisar la segmentación de usuarios, tipo de tarea u otras variables relevantes. Considerar la segmentación de usuarios nos permitirá adaptar el diseño y la funcionalidad del sitio web de manera específica para diferentes segmentos. Asimismo, implementar cambios en el sitio web, como simplificar la navegación, optimizar la interfaz y proporcionar información más clara, contribuirá a mejorar la consistencia de la experiencia del usuario.
Las líneas futuras de investigación que se abren a partir de este estudio de caso sería las mejoras en la aplicación, considerando las recomendaciones que arrojaron los resultados de casos de prueba y preguntas de investigación.
Referencias
Agustina, B. N., Santoso, H. B., & Fadhilah, S. (2019). Usability evaluation of purchasing activity flow on three leading E-commerce platforms9 mobile version in Indonesia: Case studies shopee,Tokopedia, and Bukalapak. 2019 International Conference on Advanced Computer Science and Information Systems, ICACSIS 2019, pp. 55-62. https://doi.org/10.1109/ICACSIS47736.2019.8979843
Alfayez, Z., & Al-Tawriy, H. (2021). Usability Evaluation of Educational Websites: A case Study of University of Basrah Website. Solid State Technology, 63, pp. 9865-9886.
Assila, A., Marçal De Oliveira, K., & Ezzedine, H. (2016). Standardized Usability Questionnaires: Features and Quality Focus. electronic Journal of Computer Science and Information Technology, 6(1). http://ejcsit.uniten.edu.my/index.php/ejcsit/article/view/96
Axinte, S. D., & Bacivarov, I. C. (2019). Improving the Quality of Web Applications Through Targeted Usability Enhancements. Proceedings of the 10th International Conference on Electronics, Computers and Artificial Intelligence, ECAI 2018. https://doi.org/10.1109/ECAI.2018.8679098
Cardoso, B., Ribeiro, M., Prandi, C., & Nunes, N. (2019). When gamification meets sustainability: A pervasive approach to foster sustainable mobility in Madeira. Proceedings of the Annual International Conference on Mobile Computing and Networking, MOBICOM, pp. 3-8. https://doi.org/10.1145/3349622.3355449
Cedillo, S., Astudillo-Rodriguez, C., Verdugo-Cardenas, P., & Verdugo-Cardenas, J. (2021). Web Application: Documentación y Archivo Científico, DYAC. Proceedings of the International Conference on Industrial Engineering and Operations Management, pp. 1104-1113.
Commission, I. E., & for Standardization, I. O. (2010). Systems and software engineering—Systems and software Quality Requirements and Evaluation (SQuaRE)—System and software quality models. pp. 2010, 44.
Fushimi, M. (2018). Desarrollo de repositorios digitales institucionales en las universidades nacionales en Argentina, periodo 2004-2015. RIDAA-UNQ. http://ridaa.unq.edu.ar/handle/20.500.11807/887
Grigera, J., Garrido, A., Rivero, J. M., & Rossi, G. (2017). Automatic detection of usability smells in web applications. International Journal of Human-Computer Studies, 97, pp. 129-148. https://doi.org/10.1016/J.IJHCS.2016.09.009
Hartson, R., & Pyla, P. (2019). What Are UX and UX Design? The UX Book, 3-25. https://doi.org/10.1016/B978-0-12-805342-3.00001-1
Ismailova, R. (2015). Web site accessibility, usability and security: A survey of government web sites in Kyrgyz Republic. Universal Access in the Information Society 2015 16:1, 16(1), pp. 257-264.
https://doi.org/10.1007/S10209-015-0446-8
ISO. (2018). ISO 9241-11:2018(en), Ergonomics of human-system interaction—Part 11: Usability: Definitions and concepts. https://www.iso.org/obp/ui/#iso:std:iso:9241:-11:ed-2:v1:en
Khodambashi, S., Perry, A., & Nytrø, Ø. (2015). Comparing User Experiences on the Search-based and Content-based Recommendation Ranking on Stroke Clinical Guidelines- A Case Study. Procedia Computer Science, 63, pp. 260-267. https://doi.org/10.1016/J.PROCS.2015.08.342
Kirakowski, J. (s. f.). WAMMI - Home. Recuperado 23 de octubre de 2022, de http://www.wammi.com/
Lewis, J. R. (2012). Usability Testing. Handbook of Human Factors and Ergonomics: Fourth Edition, pp. 1267-1312. https://doi.org/10.1002/9781118131350.CH46
Lindberg, S., Svedberg, P., Bergquist, M., & Nygren, J. M. (2017). International Journal of Human–Computer Interaction. Evaluating Digital Peer Support for Children Cured from Cancer. 33(8), pp. 664-676. https://doi.org/10.1080/10447318.2017.1278892
Liu, Y., Zhang, J., Li, Y., Hansen, P., & Wang, J. (2021). Human-Computer Collaborative Interaction Design of Intelligent Vehicle—A Case Study of HMI of Adaptive Cruise Control. Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 12791 LNCS, pp. 296-314. https://doi.org/10.1007/978-3-030-78358-7_21
López Cisternas, M. F. (2012). Métodos de evaluación de usabilidad para aplicaciones web transaccionales. Pontificia Universidad Católica de Valparaíso-Chile, p. 142.
Mabanza, N. (2018). Evaluating the Usability of Flat Panel Displays: A Case Study of the Faculty of Engineering and Information Technology. 2018 International Conference on Advances in Big Data, Computing and Data Communication Systems, icABCD 2018. https://doi.org/10.1109/ICABCD.2018.8465477
Nelson, E. T., & Stavrou, A. (2011). Advantages and Disadvantages of Remote Asynchronous Usability Testing Using Amazon Mechanical Turk. Sage journals, 55(1), pp. 1080-1084. https://doi.org/10.1177/1071181311551226
Paz, F., Paz, F. A., Villanueva, D., & Pow-Sang, J. A. (2015). Heuristic Evaluation as a Complement to Usability Testing: A Case Study in WEB Domain. Proceedings - 12th International Conference on Information Technology: New Generations, ITNG 2015, pp. 546-551. https://doi.org/10.1109/ITNG.2015.92
Riihiaho, S. (2017). Usability Testing. The Wiley Handbook of Human Computer Interaction Set, 1, pp. 255-275. https://doi.org/10.1002/9781118976005.CH14
Runeson, P., Höst, M., Rainer, A., & Regnell, R. (2012). Case Study Research in Software Engineering: Guidelines and Examples—Martin Host, Austen Rainer, Per Runeson, Bjorn Regnell—Google Libros. John Wiley & Sons, Inc.
https://books.google.es/books?hl=es&lr=&id=T7rXoaxqPIAC&oi= fnd&pg=PT8&dq=Case+study+ research+in+software+engineering+guidelines &ots=bcBlreLbuI&sig=J_ PFtHvSBf6WYyQx9gjyF syf2Zg#v=onepage&q=Case study research in software engineering guidelines&f=false
Selmanovic, D., Sayar, A., & Durdu, P. O. (2021). Cross cultural usability testing of MOOC platform. ISMSIT 2021 - 5th International Symposium on Multidisciplinary Studies and Innovative Technologies, Proceedings, pp. 409-414. https://doi.org/10.1109/ISMSIT52890.2021.9604673
Sukardjo, M., & Sugiyanta, L. (2018). Measurement of Usability for Multimedia Interactive Learning Based on Website in Mathematics for SMK. IOP Conference Series: Materials Science and Engineering, 336(1), 012032. https://doi.org/10.1088/1757-899X/336/1/012032
Valenti, A. M. (2019). Usability testing for a community college library website. Library Hi Tech News, 36(1), pp. 1-8. https://doi.org/10.1108/LHTN-06-2018-0039/FULL/XML
Verdugo, P., Astudillo-Rodriguez, C., Verdugo, J., Lima, J.-F., & Cedillo, S. (2020). Documentation and Scientific Archiving: Digital Repository. En E. Markopoulos, R. S. Goonetilleke, A. G. Ho, & Y. Luximon (Eds.), Advances in Creativity, Innovation, Entrepreneurship and Communication of Design (pp. 296-302). Springer International Publishing. https://doi.org/10.1007/978-3-030-51626-0_38
Wichansky, A. M. (2010). Usability testing in 2000 and beyond. 43(7), pp. 998-1006. https://doi.org/10.1080/001401300409170
Xu, J., & Topi, H. (2017). A Conceptual Model for User-System Collaboration: Enhancing Usability of Complex Information Systems. Communications of the Association for Information Systems, 41, pp. 775-800. https://doi.org/10.17705/1CAIS.04131