Evaluación y Selección de Aplicaciones de

Anuncio
Evaluación y Selección de Aplicaciones de Actividades
de Aprendizaje y Juegos en E-learning
Johan Serrato-Romero1, Martín Fallas-Hidalgo1, César Garita-Rodríguez1, Mario
Chacón-Rivas1
1
TEC Digital, Instituto Tecnológico de Costa Rica
{jserrato, mafallas, cesar, machacon}@itcr.ac.cr
1
Resumen. En los procesos de implementación de sistemas de software, cuando
es necesario hacer una búsqueda entre las herramientas disponibles para
seleccionar o descartar cualquiera de éstas, es difícil hacer esta evaluación sin
un método bien fundamentado que determine cuáles son las características de
las herramientas que las convierten o no en posibles candidatos a la
implementación. Para éste proceso, existen métodos que facilitan de alguna
forma la investigación y permiten documentar adecuadamente los resultados.
Sin embargo, no siempre es posible encontrar un método que se adapte
exactamente a necesidades particulares de un caso dado, puesto que
aplicaciones de software para audiencias y procesos diferentes tienen
requerimientos de implementación diferentes. El presente artículo describe
cómo realizar una evaluación y selección de herramientas de generación de
actividades de aprendizaje en ambientes de e-learning, mediante una adaptación
del método QSOS (Method for Qualification and Selection of Open Source
Software). Dicha evaluación fue realizada para el proyecto Gestor de
Actividades de Aprendizaje (GAAP) del TEC Digital (plataforma de e-learning
del Instituto Tecnológico de Costa Rica). Entre las características novedosas de
este trabajo, se puede mencionar la agilización del proceso de investigación,
añadiendo un paso previo a la ponderación detallada de QSOS para evaluar y
descartar rápidamente, mediante criterios generales, aquellas herramientas que
no cumplan los requerimientos más importantes. Además, se añadieron criterios
específicos para las aplicaciones de actividades de aprendizaje y juegos en elearning, que permiten su ponderación de manera más precisa.
Palabras Clave: Comparación de Software, Herramientas E-learning,
Evaluación de Aplicaciones, QSOS.
1
Introducción
En el proceso inicial de desarrollo o implementación de un proyecto de software, es
importante establecer el ámbito de la revisión de trabajos relacionados mediante un
método objetivo que permita conocer fortalezas y debilidades de cada herramienta
existente que esté a disposición. A partir de esto, se puede descartar que exista una
aplicación ya desarrollada que realice lo que el proyecto en cuestión intenta
implementar, o de otro modo, fundamentar la puesta en marcha de un nuevo proyecto.
Existen diferentes métodos que pueden ser utilizados para estos fines, cada uno con
una orientación y procedimiento diferente, los cuales serán mencionados
posteriormente en este documento.
En este contexto, este artículo describe un método para realizar una evaluación y
selección de herramientas de generación de actividades de aprendizaje en ambientes
de e-learning, mediante una adaptación del método QSOS (Method for Qualification
and Selection of Open Source Software) [1]. Para esta evaluación, se realizó una
adaptación de QSOS, añadiendo un paso previo que permite descartar todas aquellas
herramientas que no cumplen alguno de los requerimientos generales que tienen
mayor relevancia para el proyecto. Adicionalmente, se añadió un conjunto de criterios
de evaluación específicos para las herramientas de actividades de aprendizaje y juegos
en e-learning, advirtiendo que el enfoque pedagógico de estos criterios no es objeto de
estudio en el presente artículo y que sirven como modelo para generar otros criterios
más específicos, dado que la herramienta de evaluación lo permite.
A lo largo de este documento se ilustra la adaptación y aplicación real del
instrumento de evaluación desarrollado para el caso del proyecto Gestor de
Actividades de Aprendizaje (GAAP) del TEC Digital en el Instituto Tecnológico de
Costa Rica (TEC). Este proyecto permite que por medio del LMS dotLRN que utiliza
la institución, el profesor pueda crear una gran variedad de actividades de aprendizaje
para los estudiantes de sus cursos. Dada la gran cantidad de herramientas de autoría
disponibles, debía ser evaluada exhaustivamente la posibilidad de que existiera alguna
de ellas que pudiera ser implementa para el proyecto, documentando para cada una de
ellas sus fortalezas y debilidades con respecto a los requerimientos. L
Este documento se divide en las siguientes secciones: Trabajos Relacionados: hace
un resumen de otras herramientas de evaluación y selección de software que fueron
tomadas en cuenta para los propósitos de esta investigación; Descripción de la
Metodología: incluye un recuento de los pasos que se llevaron a cabo para realizar
esta evaluación; Matriz de Comparación: muestra la ponderación final que se logra
mediante el método QSOS con la adaptación para las herramientas de actividades de
aprendizaje; Resultados de la Investigación: resume los logros del proceso de
investigación y evaluación; consecuentemente las Conclusiones describen los logros
obtenidos después de la investigación.
2.1 Trabajos relacionados
Múltiples metodologías de evaluación de software han sido creadas por diferentes
organizaciones en el mundo. Cada metodología es concebida con fines diferentes o
enfocadas en aspectos diferentes del software como la madurez, la durabilidad o la
funcionalidad en sí misma. A continuación se hace un recuento de algunas de las
metodologías que fueron evaluadas para esta investigación.
2.1.1
OpenBRR
El modelo OpenBRR (Open Business Readiness Rating) [4] es un modelo creado bajo
licencia “Creative Commons” y catalogado como un modelo de valoración científico.
Los criterios de evaluación reciben valores de 1 a 5 en un proceso iterativo. Está
basado en los modelos OSMM, y cuenta con 12 categorías y 29 métricas. Estas son
definidas en una jerarquía y define además los procedimientos para asignar pesos a las
características o métricas [2].
2.1.2
QualOSS
El modelo QualOSS (Quality of Open Source Software) [8] surge de un proyecto en
el que participan organizaciones de cinco países europeos (Alemania, Bélgica,
España, Francia y Holanda). Es un modelo bajo licencia pública y está catalogado
como un modelo práctico, basado en la metodología GQM (Goal-Question-Metric).
El objetivo es permitir comparaciones de productos de software libre en forma
objetiva, semi-automatizada, simple y rápida, para medir el grado de evolución y de
implantación [2].
También fueron analizadas otras metodologías entre las que se pueden mencionar
OpenBQR [16], sin embargo cabe destacar que QSOS se consideró más apta para el
tipo de herramienta que se necesitaba evaluar por poseer buenas herramientas de
análisis cuantitativo (tablas, gráficos), por ser aplicable a diferentes ámbitos de
desarrollo del software y por pertenecer a una organización que en la actualidad le
sigue dando soporte y mejoras al producto.
En este artículo se ha adaptado la metodología de QSOS para optimizar la
inversión de tiempo y esfuerzo en la investigación sobre herramientas para
actividades de aprendizaje y juegos en e-learning. A continuación se encontrará la
descripción de dicha adaptación junto con el caso práctico de GAAP que permitirá
comprender la implementación de la metodología.
3
Descripción de la metodología utilizada
La metodología fue diseñada considerando cuatro fases principales de investigación,
cada una buscando cumplir con un grado de reducción de la cantidad de candidatos
posibles. A continuación se presenta la lista de pasos que el investigador debe llevar
acabo para conseguir la evaluación precisa de las herramientas encontradas:
1. Identificar requerimientos generales: en esta etapa se definen a detalle los
requerimientos del proyecto de software a desarrollar o implementar.
2. Definición de filtros de primer nivel: a partir de los requerimientos generales, se
consideran como filtros aquellas características que son estrictamente necesarias
para la solución de software que se busca.
3. Seleccionar herramientas por evaluar y filtrado: se crea una lista de herramientas
candidatas y se filtra mediante los requerimientos definidos en el paso dos.
4. Definir criterios específicos para hoja de evaluación: se definen un conjunto de
criterios que son específicos para el tipo de herramienta que se desea investigar,
en este caso, herramientas de actividades de aprendizaje y juegos en e-learning.
Las siguientes cuatro subsecciones describen en detalle cada una de estas fases.
3.1 Identificar requerimientos generales
Primeramente, se deben identificar los requerimientos del proyecto que se desea
implementar. En este punto es importante enfocarse en aquellos requerimientos que
son esenciales para el proyecto, por ejemplo: “aplicación de escritorio”, “código
abierto”, etc. A partir de éstos requerimientos se definirán los filtros específicos
(criterios de exclusión/inclusión) que serán mostrados en el siguiente punto.
Para el caso específico del proyecto GAAP, se definieron los siguientes
requerimientos principales:
La aplicación debe ser de código abierto para poder realizar las modificaciones
necesarias para la integración con la plataforma del TEC Digital.
Debe permitirse la creación de actividades y juegos educativos.
Debe ser un sistema web y estar desarrollado en tecnologías altamente
compatibles con diferentes navegadores.
Soporte a SCORM o IMS.
Ser mantenido por alguna comunidad u organización identificada y localizable.
3.2 Definición de filtros de primer nivel
Como segundo paso, con base en los requerimientos mencionados en la sección
anterior, se definen los filtros de primer nivel. Estos criterios permiten descartar
herramientas con base en los requerimientos esenciales para el proyecto definidos en
el punto anterior, de modo que se descartan, por ejemplo, aplicaciones que no
soporten SCORM ni IMS o que sean de código cerrado. A continuación, se presenta
una lista ilustrativa de filtros basados en los requerimientos iniciales de GAAP.
Tabla 1. Tabla de definición de filtros de primer nivel.
Código
F01
F02
F03
F04
F05
F06
Filtro
No permitir creación de actividades y/o juegos
Ser aplicaciones de escritorio no migrables o sin soporte web.
No soportar SCORM o IMS.
Software sin soporte o descontinuado.
Ejecutarse en Flash, Shockwave, Java Applet, Silvertlight
Ser de código cerrado.
3.3 Seleccionar herramientas por evaluar y filtrado
Como tercer paso, por medio de una investigación profunda, se debe definir la lista de
herramientas para considerarlas como candidatos para el proyecto. Con estas
herramientas se puede iniciar la ponderación utilizando los criterios definidos en la
tabla de filtros. Para el caso de GAAP, las herramientas destacadas que fueron
tomadas en cuenta fueron: Xerte [5], eXeLearning [13], Microsoft LCDS [17],
Ardora [15], Educaplay [9], LIM [10], LAMS [11], Hot Potatoes [12] y Jclic [3].
Dicha lista fue seleccionada mediante una recopilación de herramientas de actividades
de aprendizaje y para cada una de ellas se investigaron sus especificaciones generales
para determinar su nivel de compatibilidad respecto a los requerimientos del proyecto.
Seguidamente se define la tabla de filtros de primer nivel, en donde se agrega una
lista con las herramientas encontradas. La tabla incluye una ponderación de escala
numérica, utilizada para describir el nivel de cumplimiento del filtro que se indica por
columna: Muy aceptable = 2, Aceptable = 1 o No Aceptable = 0. Además, se agrega
una columna de comentarios para incluir características relevantes por herramienta.
Tabla 2. Tabla de filtros de primer nivel
Herramienta
Código de filtro
Comentarios
F01
F02
F03
F04
F05
F06
Total
Xerte
2
1
2
2
0
2
9
eXeLearning
0
2
2
2
2
2
10
Microsoft
LCDS
1
1
2
2
1
0
7
Gran cantidad de actividades
Las actividades se ejecutan en
Flash Player
Es una aplicación de escritorio
Permite exportar a HMTL,
SCORM e IMS CP
Es código abierto
Verificado por SCORM 1.2
Código cerrado
A partir de la tabla anterior, se selecciona el conjunto de aplicaciones más apto
según la ponderación total de los filtros evaluados y así se logra reducir el número de
posibles candidatos y optimizar el uso de QSOS para las aplicaciones que se adaptan
mejor a los requerimientos del proyecto. Para el caso de GAAP, las tres principales
herramientas resultaron ser Xerte con 9 puntos, eXeLearning con 10 puntos y
Microsoft LCDS con 7 puntos. Estas tres herramientas fueron escogidas para la matriz
de comparación QSOS que ofrece los puntajes definitivos para cada herramienta (ver
sección 4: Matriz de comparación).
3.4 Definir criterios específicos para hoja de evaluación
QSOS [1] define cuatro pasos para la evaluación de herramientas Open Source:
Definición: se establecen los elementos de la tipología del software libre (familias
de software, tipos de licencia y tipos de comunidad).
Evaluación: se realiza la recolección de información y métricas que servirán para
construir dos herramientas: la tarjeta de identidad del software y la hoja de
evaluación (cubre los criterios de evaluación específicos en términos de
funcionalidad requerida, riesgos para el usuario y riesgos para el proveedor),
Calificación: se utiliza la hoja de la evaluación para ponderar cada herramienta.
Selección: se identifica el software más apropiado para el contexto del usuario.
QSOS define en una hoja de evaluación con una gran cantidad de criterios específicos
para evaluar OSS (Open Source Software). Para este cuarto paso, la hoja se modificó
con el propósito de evaluar las herramientas para actividades de aprendizaje en elearning mediante los criterios expuestos en la tabla 3: criterios específicos para las
herramientas de actividades de aprendizaje y juegos en e-learning. Estos criterios se
definieron mediante una combinación de requerimientos esperados y características
esenciales para proyectos de software implementados en ambientes educativos,
además del criterio experto en temas de diseño y usabilidad.
Tabla 3. Tabla de criterios específicos para herramientas de actividades de
aprendizaje y juegos en e-learning.
Significado para una
Criterios
calificación de 0
Despliegue de Actividades
Despliegue correcto en No se despliega
navegadores
correctamente
Independencia de
Requiere un
tecnologías de terceros complemento
específico
Tiempo de carga
Más de 6 segundos
promedio de gráfico
Tecnologías específicas
Implementación de
No utiliza
Jquery o HTML5
Código Open Source
Cerrado
.LRN: integración y/o
No es posible su
compatibilidad
integración
Diseño
Consistencia visual,
No utiliza ningún
cromática y estándares estándar
Distribución de la
Información mal
información
distribuida
Significado para
Significado para una
una calificación de 1 calificación de 2
Claridad de las
instrucciones a seguir
Lógica de navegación
Las instrucciones son
fácilmente
comprensibles
Lógica de navegación La navegación es
aceptable
muy intuitiva
Permite personalizar Es altamente
ciertas características personalizable
Permite la
personalización
Previene errores
Visibilidad de
instrucciones de uso
4
Optimizado para un
navegador específico
Utiliza un
complemento pero no
depende de éste
Entre 2 y 6 segundos
Despliegue correcto
multinavegador
No necesita ningún
complemento
Utiliza pero
pobremente
Parcialmente cerrado
Integración posible
pero compleja
Utiliza fuertemente
Utiliza buenos
estándares
Información muy
bien distribuida
Las instrucciones son
muy complejas
Pocos estándares
utilizados
Información
distribuida de manera
aceptable
Las instrucciones son
aceptables
No existe lógica de
navegación
No permite
personalización en
ningún nivel
No previene ningún
tipo de error
No es visible ni
localizable
Previene algunos
errores
Localizable pero no
visible
Previene todo tipo de
errores
Muy visible
Menos de 2 segundos
Totalmente abierto
Integración fácil y
rápida
Matriz de comparación
La utilidad de QSOS es permitir que por medio de una hoja de evaluación se cree
una ponderación acertada de las herramientas. La hoja de evaluación está dividida en
categorías como: Estrategia, Durabilidad Intrínseca, Adaptabilidad Técnica y
Solución Industrializada. Cada uno de estos aspectos está dividido en secciones, que a
su vez se componen de un conjunto de criterios que finalmente serán evaluados en
una escala de 0 a 2. El conjunto de criterios de una sección se promediará para dar un
valor entre 0 y 2, y a su vez el conjunto de secciones se promediará para dar un valor
entre 0 y 2 a una herramienta evaluada por completo. La herramienta que más puntaje
obtenga será la más apta para los requerimientos definidos para el proyecto. Para esta
investigación, se ha añadido una sección adicional a la hoja de evaluación llamada
“criterios específicos para herramientas de actividades de aprendizaje y juegos en elearning”, la cual de igual manera tiene subsecciones y criterios (ver Tabla 3).
Dado que la matriz de comparación es un documento extenso, esta se ha resumido
mediante un gráfico radial también provisto por QSOS (ver Figura 1). Dicho gráfico
muestra, para cada categoría de evaluación, el puntaje ponderado de cada
herramienta, de modo que se contraste fácilmente las categorías fuertes y débiles de
cada herramienta. Idealmente, la herramienta que presente el polígono más expandido
y con la forma más regular, será la que haya obtenido mayor puntaje.
Fig. 1. Gráfico radial de puntajes por secciones evaluadas para cada herramienta
En la figura 1 se visualiza que el software eXeLearning presentó las mejores
características: tiene un soporte que ha sido debidamente documentado, permitiendo
tener una calificación perfecta (2 puntos) en la sección estratégica y adaptabilidad
técnica, dos aspectos fundamentales para poder implementarlo dentro del sistema de
la organización. También contempla el mayor número de características específicas
para el proyecto, obteniendo más de 1,8 puntos en esta categoría.
Ocurre una disparidad importante del software Microsoft LCDS respecto a los
otros dos, ya que pierde muchos puntos en la categoría de estrategia al ser una
aplicación de código cerrado, mientras que Xerte se consolida en el segundo lugar,
manteniéndose a una distancia proporcional respecto a eXeLearning.
5
Conclusiones
Con base en los resultados mostrados en la comparación mediante el método QSOS,
se concluye lo siguiente:
La herramienta QSOS es de gran ayuda en los procesos de evaluación de
software en general.
La adaptación hecha a QSOS permitió reducir el tiempo de investigación de
herramientas en gran medida.
Los resultados generados por la metodología permiten documentar de manera
muy sólida las decisiones tomadas en el proyecto.
Como trabajo futuro, se aplicará la herramienta de comparación en varios
proyectos con diferentes requerimientos, de modo que se vayan identificando y
documentando grupos comunes de filtros de primer nivel dentro del TEC Digital y
reutilizarlos para futuros proyectos, conduciendo a una retroalimentación para la
misma herramienta y su adecuación a la tecnología y necesidades de los clientes de la
época.
Referencias
1. QSOS core team: QSOS: Method for Qualification and Selection of Open Source software
(QSOS) version 1.6. Atos Origin. (2006).
2. Chacón Rivas, M.: LMS-QM un modelo de calidad para la evaluación de aplicaciones
LMS en entornos universitarios. (2010).
3. DURSI, Generalitat de Cataluña: Jclic. zonaClic. http://clic.xtec.cat/es/jclic/index.htm.
Accedido el 26 de marzo de 2013.
4. OpenBRR.org: Business Readiness Rating for Open Source; A Proposed Open Standard to
Facilitate Assessment and Adoption of Open Source Software. (2005).
5. Learning Technology: The Xerte Project. The University of Nottingham.
http://www.nottingham.ac.uk/xerte/index.aspx. Accedido el 26 de marzo de 2013.
6. Junta de Comunidades de Castilla-La Mancha: Territorio Cuadernia. Portal de Educación
de la Junta de Comunidades de Castilla - La Mancha. http://www.educa.jccm.es/educajccm/cm/temas/cuadernia. Accedido el 20 de marzo de 2013.
7. The Squeak Community: Squeak Smalltalk. Squeak. http://squeak.org. Accedido el 20 de
marzo de 2013.
8. European Commission: Quality in Open Source Software. QualOSS.eu.
http://www.qualoss.eu. Accedido el 6 de febrero de 2013.
9. ADRFormacion: Portal de Actividades Educativas multimedia. Educaplay.
http://www.educaplay.com. Accedido el 20 de marzo de 2013.
10. Educalim: Bienvenido Bienvenida a LIM. Libros Interactivos Multimedia.
http://www.educalim.org/cinicio.htm. Accedido el 26 de marzo de 2013.
11. LAMS Foundation: Home. LAMS Foundation. http://www.lamsfoundation.org. Accedido
el 10 de marzo de 2013.
12. Half-Baked Software: Hot Potatoes Home Page. Hot Potatoes. http://hotpot.uvic.ca.
Accedido el 26 de marzo de 2013.
13. eXeLearning.net: Inicio. eXeLearning.net El nuevo eXeLearning…. http://exelearning.net.
Accedido el 4 de abril de 2013.
14. Centro Virtual Cervantes: Pasatiempos de Rayuela. Centro Virtual Cervantes Pasatiempos. http://cvc.cervantes.es/aula/pasatiempos. Accedido el 13 de marzo de 2013.
15. Bouzán Matanza, J.M.: Ardora 6 creación de contenidos escolares para la web.
webArdora.net. http://webardora.net/index_cas.htm. Accedido el 10 de marzo de 2013.
16. Taibi, D.; Lavazza, L.; Morasca, S.: OpenBQR: a framework for the assessment of OSS.
IFIP International Federation for Information Processing, pp. 234. (2007).
17. Microsoft: Create online courses and Silverlight Learning Snacks with LCDS. Learning.
http://www.microsoft.com/learning/en/us/lcds-tool.aspx. Accedido el 26 de marzo de 2013.
Descargar