IEEE-RITA Vol. 6, Núm. 4, Nov. 2011 155 Una Experiencia en el Desarrollo Masivo de Objetos de Aprendizaje Empleando Parámetros de Calidad y un Proceso de Gestión Bien Definido César Eduardo Velázquez Amador, Francisco Javier Álvarez Rodríguez, Laura Garza González, Miguel Ángel Sicilia, José Manuel Mora Tavarez, Jaime Muñoz Arteaga Title— An experience in the massive development of learning objects using quality parameters and a well-defined management process. Abstract— There are few documented experiences on the massive development of learning objects using well-defined quality standards, this article presents a case of study for the development of 184 learning objects produced to support 13 undergraduate courses, each of the learning objects has in its development well defined quality parameters and was created in the context of a quality management process. This paper presents and analyzes the results of the quality evaluation of the learning objects, shows both, the process of quality management as an instrument used to determine the quality of learning objects and presents the theoretical principles that served as the basis to define them. Index Terms—Learning Object Management Process, Quality Metrics. Quality, Quality I. INTRODUCCIÓN N O existe una definición completamente aceptada del término de objeto de aprendizaje (OA), una definición es: “Una entidad digital o no digital, la cual puede ser usada, reusada o referenciada durante el aprendizaje soportado por la tecnología” [1]. Los objetos de aprendizaje son elementos de un nuevo tipo de instrucción basada en computadoras, pertenecientes al paradigma orientado a objetos de la ciencia computacional. La orientación a objetos favorece los valores de la creación de componentes (llamados “objetos”) que pueden ser reutilizados en múltiples contextos [2]. Otra definición para OA puede ser la de una forma de transmitir el conocimiento utilizando el computador que tienen por finalidad la construcción de pequeños componentes que César Velázquez, Franciso Álvarez, Laura Garza, José Manuel Mora y Jaime Muñoz son profesores titulares en la Universidad Autónoma de Aguascalientes en el Centro de Ciencias Básicas. Av. Universidad No. 940, Col. Universidad, Aguascalientes, Aguascalientes, México (email: [email protected], {fjalvar, lg, mmora, jmunozar}@correo.uaa.mx). M. Sicilia es Catedrático en la Universidad de Alcalá. Escuela Técnica Superior de Ingeniería Informática, Campus Universitario, Ctra. Barcelona Km 33.6, 28871, Alcalá de Henares, Madrid, España. ([email protected]). DOI (Digital Object Identifier) Pendiente puedan ser reutilizados y ensamblados en diferentes contextos de aprendizaje [3]. Para la presente investigación se define un objeto de aprendizaje como un recurso digital e instruccional hecho con la finalidad de favorecer el proceso de enseñanza aprendizaje, el cual se encuentra realizado considerando un objetivo pedagógico, actividades didácticas, de evaluación, colaboración y relación. Cuenta con un metadato y se trabaja por medio de un Sistema de Gestión del Aprendizaje (LMS). Se encuentra diseñado de tal forma que permite una reutilización con la finalidad de conjuntarse con otros objetos de aprendizaje y así crear nuevos recursos instruccionales, que pueden ser temas, unidades de materias o cursos completos. Los Objetos de Aprendizaje tienen como característica fundamental fomentar la interoperabilidad y la reusabilidad de los recursos entre sistemas de aprendizaje heterogéneos. Para tal fin, los estándares de catalogación y empaquetado son fundamentales en el proceso de ensamblaje y distribución de recursos instruccionales existentes [3]. Un metadato permite describir un OA. Existen esfuerzos de organismos internacionales para obtener una descripción común de OAs a través de metadatos [4]. Un metadato estandarizado es central para la interoperabilidad; su principal valor es ser una herramienta muy poderosa que permite al usuario descubrir y seleccionar material relevante de una manera rápida y sencilla [5]. La necesidad de reutilizar los materiales en distintas plataformas y tipos de estudiantes ha provocado la creación de estándares que permitan la documentación, búsqueda y distribución de los contenidos educativos que se generan. Entre los estándares más importantes se encuentran el IMS desarrollado por el Global Learning Consortium y a partir de este, el ADL-SCORM [6] desarrollado por Advanced Distributed Learning Initiative y el IEEE-LOM [7] del Institute of Electrical and Electronics Engineers. En el presente artículo se exponen primeramente las implicaciones de un desarrollo masivo de OAs, se presenta una propuesta para la determinación de la calidad en objetos de aprendizaje y la gestión de la calidad en los mismos, se presenta el caso de aplicación, se muestra tanto el instrumento de medición como el proceso usado en la investigación y finalmente se exponen y analizan los resultados obtenidos en la fase de implementación del ISSN 1932-8540 © IEEE 156 IEEE-RITA Vol. 6, Núm. 4, Nov. 2011 proceso de gestión de calidad. Resulta importante señalar que en la propuesta presentada, más que el uso de herramientas que permitan una evaluación automatizada, es la gestión del equipo de desarrollo lo que permite hacer un desarrollo masivo de OAs. trabajos al compararlos con piezas de Lego [8], debido a esto, las organizaciones e investigadores continuarán trabajando en la mejora de los mismos aún con las complicaciones mencionadas. III. LA CALIDAD EN OBJETOS DE APRENDIZAJE II. IMPLICACIONES DE UN DESARROLLO MASIVO DE OBJETOS DE APRENDIZAJE Un desarrollo masivo de objetos de aprendizaje implica la creación de una gran cantidad de estos recursos instruccionales con un tiempo límite, por lo general con la finalidad de dar soporte a uno o varios cursos de educación a distancia. Con relación a un desarrollo masivo de objetos de aprendizaje se pueden hacer reflexiones sobre los motivos por los cuales no se da esto tan comúnmente, las razones por las que no proliferan los grandes repositorios de OAs disponibles de una forma abierta dentro de la comunidad académica investigadora, el por qué no se usan los esquemas de metadatos y el por qué, dentro de los círculos académicos está tomando fuerza el concepto de recursos digitales sobre el de OAs. Las razones por las cuales no es frecuente un desarrollo masivo de OAs son en primer lugar la dificultad que implica el desarrollo de estos recursos instruccionales, recordando que nos encontramos frente a un recurso informático con una complejidad especial al depender de aspectos pedagógicos y la falta de procesos de desarrollo de OAs bien definidos y de experiencias documentadas como la que aquí se presenta. Dentro de los motivos por los que no proliferan los grandes repositorios de OAs disponibles de una forma abierta dentro de la comunidad académica investigadora se pueden mencionar la falta de políticas institucionales que fomenten el compartir los desarrollos propios con otras instituciones, las dificultades técnicas para comunicar, localizar y reutilizar los recursos educativos, en algunos casos el no respetar los derechos de autor y el egoísmo de algunos propietarios de OAs. Con relación a las razones por las que no se usan los esquemas de metadatos se tienen la falta de una cultura informática sobre los beneficios de emplearlos, la carencia de estándares organizacionales que definan que metadato usar y qué elementos del mismo van a ser obligatorios, el esfuerzo que le implica a un desarrollador llenar un metadato y la complejidad de hacer esto de manera automatizada. Los motivos por los cuales dentro de los círculos académicos está tomando fuerza el concepto de recurso digital sobre el de OA son la complejidad en el desarrollo de OAs y la falta de consenso en aspectos como la granularidad (tamaño del objeto), qué metadato se va a emplear y qué campos del mismo deben ser obligatorios. Sin embargo y aún con las dificultades existentes, se tiene en los objetos de aprendizaje un medio viable para cumplir con la promesa de la generación de materiales instruccionales a la medida del estudiante y que proporcionen un aprendizaje significativo por medio de sus actividades de evaluación, ejemplos y en algunos casos simulaciones; como lo manifestó Wiley en sus primeros Los investigadores del campo de los OAs no son ajenos a la preocupación por estudiar la calidad en los mismos, basta mencionar a Barton, Currier y Hey [5], Nesbit [9][10], Morales [11], Duval [12] y Ochoa [13]. En el trabajo de Barton, Currier y Hey [5] se presenta un análisis de los problemas en calidad que se generan con un mal manejo del metadato de un OA. Nesbit [9][10] hace una exposición del LORI, el cual es uno de los instrumentos para evaluar OAs más usados actualmente; LORI cuenta con nueve categorías sobre las cuales se realiza la evaluación. Con relación a los trabajos de Erik Duval [12] y Xavier Ochoa [13] se enfocan a una evaluación automatizada de los OAs considerando para esto información almacenada en el metadato y desarrollando el concepto de Learnrank, el cual relaciona la calidad con el número de accesos que recibe el recurso. Por su parte Erla Morales [11] presenta una propuesta de evaluación de OAs, la cual considera las categorías psicopedagógica, didáctico curricular, técnico-estética y funcional; de las propuestas presentadas, esta es la que más se asemeja a la expuesta en el presente trabajo, mostrando sus principales diferencias en las categorías definidas y en los elementos considerados en cada una, haciéndose más notorio esto en la categoría de contenido que existe en la presente investigación. Aún cuando las investigaciones anteriormente referidas presentan un tratamiento distinto al problema de la calidad que la propuesta que se expone en este trabajo, todas demuestran la preocupación y la necesidad de ir mejorando cada vez más los procesos e instrumentos para determinar la calidad en los objetos de aprendizaje. Una vez revisados los diversos trabajos relacionados al estudio de la calidad en objetos de aprendizaje, es importante abordar las distintas normas que se manejan para asegurar la calidad en el e-learning. A. Normas para Asegurar la Calidad en E-learning Existen normas para asegurar la calidad en los desarrollos de e-learning, tal es el caso del UNE 66181:2008 y del ISO/IEC 19796. Con relación a UNE 66181:2008, se encarga de especificar las directrices para la identificación de las características que definen la calidad de la formación virtual con relación a los clientes potenciales o compradores. Aunque este estándar está orientado para su aplicación en la enseñanza virtual no reglada, por su generalidad puede extenderse su uso a otros sistemas educativos, incluyendo al universitario [14] [15]. La familia de estándares internacionales ISO/IEC 19796 [16][17], proporciona un enfoque armonizado y un lenguaje común para administrar, asegurar o evaluar la calidad de una organización [15][18]. Este estándar, está desarrollándose en el grupo de trabajo 5, del subcomité 36 de ISO, actualmente sólo se encuentran disponibles las partes 1 y 3 [15]. ISSN 1932-8540 © IEEE VELÁZQUEZ AMADOR et al.: UNA EXPERIENCIA EN EL DESARROLLO MASIVO DE OBJETOS DE ... El estándar ISO/IEC 19796 consta de las siguientes partes [15]: 1) Enfoque general (ISO/IEC 19796-1:2005) [16], 2) Modelo de calidad armonizado, que describirá la calidad para organizaciones y para productos, servicios y soluciones (ISO/IEC 19796-2), 3) Métodos de referencia y métricas (ISO/IEC 19796-3:2009) [17], 4) Guía de buenas prácticas, basada en el trabajo de la Guía de Buenas Prácticas Europea (ISO/IEC 19796-4), 5) Descripción de cómo usar el ISO/IEC 19796-1 (ISO/IEC 19796-5). Sin embargo, hay que considerar que la armonización en la ISO/IEC 19796 se ha hecho en un nivel abstracto, sin recomendaciones o directrices específicas para dar un criterio de gestión de la calidad y, por tanto, no proporciona mecanismos de apoyo para su implementación [15][18]. En consecuencia, la ISO/IEC 19796 puede proporcionar un modelo de calidad armonizado que tiene que adaptarse a cada contexto específico, con procesos adecuados y medidas concretas para establecer una cultura de calidad en una organización [15][18]. En base a lo anterior, resulta necesaria la exposición de propuestas concretas y probadas exitosamente, como la presentada en este artículo, en donde se haga una descripción detallada del proceso, instrumentos de evaluación de la calidad y se expongan resultados. B. Elementos que Determinan la Calidad en Objetos de Aprendizaje Cuando se busca determinar la calidad de un OA es necesario considerar que este es un producto informático y educacional de manera simultánea, por lo que su calidad debe contemplar los distintos aspectos de un desarrollo de software que emplea el paradigma de objetos y deben existir consideraciones relacionadas a un producto de tipo educativo. En base a lo anterior y con la finalidad de facilitar el estudio de la calidad de un OA, se distingue la existencia de aspectos técnicos, pedagógicos, de contenido y estéticos y ergonómicos, como se muestra en la Figura 1 [19]. Dentro de los elementos tecnológicos se encuentran aquellos que permiten que un OA pueda proporcionar las ventajas que se atribuyen a los productos realizados bajo el paradigma del desarrollo orientado a objetos como son por ejemplo la reutilización y la adaptabilidad [20]; también se deben considerar las propiedades de cualquier software de calidad como es un funcionamiento sin errores. Dentro de los elementos pedagógicos se encuentran todos aquellos que facilitan el proceso enseñanza aprendizaje como son los ejemplos usados y la posibilidad de experimentación y evaluación, por mencionar algunos [20]. El objetivo pedagógico puede expresarse empleando la taxonomía de Bloom [21]. La relación entre el número y tipo de medios usados y la calidad pedagógica del OA dependerá del estilo de aprendizaje del usuario del mismo. Lo anterior debido a que para cada estilo de aprendizaje se recomienda el uso de ciertos medios para comunicar la información, de tal forma que un estudiante predominantemente auditivo se verá beneficiado con texto hablado y en el caso de un estudiante predominantemente visual se podrá beneficiar de videos, animaciones e imágenes, lo anterior solo por mencionar dos ejemplos. En el caso que se presenta (Sección IV) todos los 157 Elementos Tecnológicos Elementos Pedagógicos Calidad de un Objeto de Aprendizaje Elementos de Contenido Elementos Estéticos y Ergonómicos Fig. 1. Elementos de evaluación de un OA [19]. OAs deben contar con medios auditivos, visuales y kinestésicos para poder adaptarse a todos los estilos de aprendizaje. En los elementos de contenido se tienen aquellos que dan información sobre la complejidad del tema y el nivel de detalle con que se aborda el contenido [20]. Un elemento de contenido es la confiabilidad de la fuente, la cual se puede verificar por distintos medios como pueden ser códigos de control, firmas electrónicas y algoritmos de verificación que permitan autentificar que el OA proviene de una fuente certificada o de una entidad reconocida [19]. Es recomendable que todo OA que tenga una granularidad de tema en adelante, maneje las referencias bibliográficas y los derechos de autor respectivos [19]. La obsolescencia del contenido dependerá del ámbito de la información, esto debido a que dependiendo de la disciplina a la que pertenezca el contenido, se tendrán avances más acelerados en la generación de nuevos conocimientos; un ejemplo son los conceptos matemáticos, los cuales se mantienen relativamente estables a lo largo del tiempo (tienen un mayor tiempo para ser obsoletos) en contraste con el tratamiento de nuevas enfermedades infecciosas del área de la medicina (tienen un menor tiempo para ser obsoletos) [19]. La complejidad del tema depende del nivel educativo óptimo y puede ser moderada, media o alta. La determinación de este nivel de complejidad puede tener una mayor aplicación en la búsqueda de contenidos educativos que cumplan con un grado de complejidad especificado por el usuario [19]. El nivel de detalle de la información puede manejarse como incompleta, superficial, suficiente, detallada y muy detallada. Este parámetro se puede usar para determinar entre varios OA del mismo tema cual es el indicado para estudiantes de distintos contextos, de tal forma que se puede manejar un nivel de detalle en las categorías de suficiente o detallado para un estudiante de bachillerato, mientras que se puede manejar un nivel en las categorías de detallado o muy detallado para estudiantes de nivel profesional y posgrado. Se espera que las herramientas de selección de OA tengan la opción de ajustar el nivel de detalle a gusto del usuario, de ISSN 1932-8540 © IEEE 158 IEEE-RITA Vol. 6, Núm. 4, Nov. 2011 tal forma que si así lo desea un estudiante de bachillerato pueda incrementar el nivel de detalle de los OAs a una categoría de muy detallado. Un OA con nivel de detalle incompleto se considerará con pobre calidad de contenido [19]. Los objetos de aprendizaje comparten varias características comunes con otras aplicaciones informáticas como es el caso de las Aplicaciones Web. Una parte innegable de la apariencia de una Aplicación Web es su presentación y la disposición de los elementos. Cuando una aplicación se diseña para comercializar o vender productos o ideas, la estética puede tener tanto que ver con el éxito como el diseño técnico [22]. Los aspectos estéticos y ergonómicos de un OA se refieren a la presentación de la información (fuentes, colores, tamaño, en sí todos los elementos de formato) y la disposición de la misma (acomodo simétrico o asimétrico, uso de espacios positivos y negativos, etc.) [19]. El uso adecuado de fuentes se refiere a no usar una cantidad exagerada de las mismas. El uso adecuado de colores se relaciona a una selección de los mismos de tal forma que se facilite la lectura, la presentación de conceptos importantes resaltados en un color distinto, el uso de colores que favorezcan el estudio y no distraigan o perturben al alumno. La proporcionalidad adecuada de los elementos busca que cada elemento cuente con un tamaño acorde con el tipo de información que se maneja y no desentone en su conjunto. La disposición adecuada de los elementos busca que el acomodo de los elementos permita un acceso rápido y natural a los mismos (De izquierda a derecha y de arriba abajo). Con relación a la simetría de los elementos buscamos determinar si los elementos presentan un acomodo simétrico o asimétrico. Con la consistencia en el acomodo de los elementos buscamos que en cada pantalla del OA se tenga un acomodo semejante de los elementos [19]. Factores como la facilidad para navegar, proporcionalidad adecuada de los elementos (desde un punto de vista funcional), disposición adecuada de los elementos (desde un punto de vista funcional) y la consistencia en el acomodo de los elementos, que se encuentran considerados en los elementos estéticos y ergonómicos se relacionan a la usabilidad del OA. C. Gestión de la Calidad en Objetos de Aprendizaje La gestión de OAs implica un conjunto de actividades requeridas para controlar su ciclo de vida. Su finalidad es el desarrollo de objetos de calidad que puedan ser reutilizados en distintas aplicaciones de e-Learning [3]. La determinación de la calidad debe estar en el contexto de un proceso de gestión de la calidad. La gestión de la calidad se define como “el conjunto de tareas encaminadas a la producción de software con los más altos estándares de calidad posibles” [22]. La gestión de la calidad abarca 1) un proceso de garantía de la calidad del software (SQA, por sus siglas en ingles), 2) tareas específicas de aseguramiento y control de la calidad (que incluyen revisiones técnicas formales y una estrategia de pruebas de varios niveles), 3) prácticas efectivas de ingeniería de software (métodos y herramientas), 4) control de todos los productos de trabajo del software y los cambios que generan, 5) un procedimiento para garantizar la concordancia con los estándares de desarrollo del software (cuando sea aplicable) y 6) mecanismos de medición e informe [22]. La gestión de la calidad en OAs es un conjunto de tareas encaminadas a la producción de objetos de aprendizaje con los más altos estándares de calidad posibles. El anterior se torna en un problema aún más complejo que el desarrollo de software común, ya que en este caso se requiere considerar el elemento instruccional, el cual cuenta con sus propias complicaciones relacionadas con el tópico de la calidad [23]. La gestión de la calidad en OAs puede realizarse de una forma proactiva, reactiva o por medio de una combinación de ambas estrategias (estrategia mixta) [23]. Las distintas estrategias de gestión de la calidad en el desarrollo de OA se pueden observar en la Figura 2. IV. CASO ESPECÍFICO DE DESARROLLO MASIVO DE OBJETOS DE APRENDIZAJE El desarrollo masivo de objetos de aprendizaje tuvo como finalidad apoyar al proyecto “Modelo de vinculación empresa-academia-gobierno para el desarrollo en capacidades de capital humano en Tecnologías de la Información”, proyecto firmado entre El Banco Interamericano de Desarrollo y la Sociedad Academia Industria Gobierno en Tecnologías de Información (IMPULSA-TI), la cual es una instancia que profesionaliza el proceso de vinculación entre la academia, la industria y el gobierno con el propósito de formar el capital humano en cantidad y calidad conveniente que requiere la industria de Tecnologías de Información (TI) para su crecimiento y desarrollo [24]. De manera específica el desarrollo de los cursos pertenece al Componente 2 del proyecto, que busca el desarrollo de perfiles del modelo paracurricular y diseño de certificación en TI [24]. El modelo paracurricular se refiere a la capacitación que compete prioritariamente a las empresas y a organismos especializados, públicos o privados, que otorgan o comercializan este servicio, el modelo curricular corresponde a la educación oficial a cargo del Estado o múltiples instancias educativas del sector privado, tanto en los niveles de educación básica hasta los de educación superior [25]. En el proyecto se tienen definidos cuatro perfiles, cada uno de los cuales está integrado por un cierto número de contenidos (cursos), los perfiles son: Ingeniero de Software (trece contenidos), Herramientas no Automatizadas Estrategia Proactiva Estrategias de gestión de la calidad en OA Guía de mejores prácticas Guía automatizada de mejores prácticas Herramientas Automatizadas Herramientas CASE Patrones Estrategia Reactiva Fig. 2. Estrategias de Gestión de la Calidad en OAs [23]. ISSN 1932-8540 © IEEE 159 VELÁZQUEZ AMADOR et al.: UNA EXPERIENCIA EN EL DESARROLLO MASIVO DE OBJETOS DE ... Arquitecto de Software (once contenidos), Administrador de Proyectos y Procesos de Software (trece contenidos) y Emprendedor de Negocios de Software (trece contenidos), cada uno de estos cincuenta contenidos o cursos se encuentra soportado por objetos de aprendizaje [26]. La Universidad Autónoma de Aguascalientes, fue la encargada de definir los instrumentos de control y evaluación de los contenidos, así como de apoyar para la correcta conclusión de los perfiles. En este trabajo en la sección V, se muestra el instrumento desarrollado para la determinación de la calidad de los OAs, se detalla el proceso de gestión de la calidad usado y se exponen los resultados obtenidos del desarrollo del perfil de Administrador de Proyectos y Procesos de Software, el cual corrió a cargo de la Universidad Autónoma de Aguascalientes. V. IMPLEMENTACIÓN DEL PROCESO DE GESTIÓN DE CALIDAD La granularidad de los objetos de aprendizaje para el proyecto fue a nivel de tema, de tal manera que cada uno de los cursos desarrollados requiere de cuando menos un OA por cada uno de los temas desarrollados. Dentro del proyecto se definió que cada OA debía cumplir con las siguientes características: • Ser recursos digitales. • Especificar el objetivo pedagógico. • Contar con actividades de aprendizaje. • Contar con actividades de evaluación. • Contar con actividades de colaboración y relación. • Tener un metadato. Específicamente para el caso presentado se empleó el metadato SCORM. • Contar con la posibilidad de trabajarse con un LMS. Específicamente para el caso presentado se tomó como referencia el Moodle. El tener bien definidas las características que debía cumplir un OA permitió estandarizar el desarrollo y facilitar la evaluación de la calidad por medio de la creación de un instrumento de evaluación lo más compacto y eficiente posible. Al tenerse un instrumento de evaluación compacto y eficiente se evita generar retrasos en el proceso de evaluación. El Proceso de Gestión de Calidad para el proyecto constó de dos grandes etapas (Figura 3). La primera se realizó en el interior de cada universidad que desarrolló los cursos basados en objetos de aprendizaje, esta etapa comenzó desde las primeras etapas de desarrollo de los cursos hasta la liberación para la revisión del Grupo de Gestión de la Calidad. La segunda etapa fue realizada por el Grupo de Gestión de la Calidad de la Universidad Autónoma de Aguascalientes (UAA) y comenzó desde la recepción de los cursos para su verificación y validación hasta la liberación de los mismos. A continuación se detallan estas dos etapas. Primera Etapa de Gestión de la Calidad (Realizada por la universidad desarrolladora del curso).- Esta etapa (Figura 4) guía el desarrollo de los cursos basados en OAs cumpliendo desde un inicio con los estándares de calidad establecidos, para luego ser remitidos a la universidad verificadora. Consta de las siguientes fases: Primera Etapa de Gestión de la Calidad Segunda Etapa de Gestión de la Calidad Creación de los OAs considerando los requerimientos y aspectos de calidad. Verificación y validación de la calidad de los OAs. (Desarrollada por la Universidad Autónoma de Aguascalientes) (Desarrollada en el interior de cada Universidad) Fig. 3. Etapas del proceso de gestión de calidad. 1.- Designación de un Responsable de Perfil, el cual se hará cargo de los curso a desarrollar en cada Institución para cubrir ese Perfil, cumplirá el rol de Gestor de la Calidad dentro de su institución. Su función es llevar el control institucional de la calidad de los cursos y el turnarlos al Grupo de Gestión de Calidad de la UAA. 2.- Capacitación del Responsable de Perfil y de los desarrolladores con la finalidad de que conozcan a detalle tanto el proceso como los instrumentos de gestión de la calidad usados. 3.- Autoevaluación de los OAs por parte del desarrollador. Primeramente se evalúa el diseño de los cursos, después se evalúa cada uno de los OAs, y finalmente se evalúa el curso en su conjunto. Una vez cumplidos los estándares de calidad fijados se remite el curso al Responsable de Perfil de la Institución, el cual lo hace llegar al Grupo de Gestión de la Calidad de la Universidad Autónoma de Aguascalientes para su verificación y validación final. Segunda Etapa de Gestión de la Calidad (Realizada por la Universidad Autónoma de Aguascalientes).- En esta etapa (Figura 5), se verifica y valida que los cursos basados en OAs desarrollados por las universidades participantes cumplen con los estándares de calidad establecidos. Consta de las siguientes fases: 1.- Recepción y generación de un expediente para cada curso recibido. 2.- Asignación del curso a un evaluador del Grupo de Gestión de la Calidad de la Universidad Autónoma de Aguascalientes. Designación de un responsable de perfil. ISSN 1932-8540 © IEEE Conocimiento de los formatos. Fig. 4. Primera etapa de gestión de calidad. Autoevaluación de los OAs por parte del desarrollador . 160 IEEE-RITA Vol. 6, Núm. 4, Nov. 2011 TABLA I INSTRUMENTO DE EVALUACIÓN DE OBJETOS DE APRENDIZAJE Recepción de los OAs y generación de un expediente Asignación de los OAs a un evaluador Verificación y validación de los OAs Fig. 5. Segunda etapa de gestión de calidad. 3.- Verificación del curso, aplicando los instrumentos de evaluación. Al momento de cumplir los estándares de calidad fijados, se valida y se considera liberado el curso y listo para ser impartido. Al encontrase problemas en el curso y/o en sus objetos de aprendizaje, se regresa a la institución de procedencia para que se atiendan las observaciones generadas. Cada una de las revisiones se integra en el expediente del curso. El proceso de gestión de la calidad descrito, corresponde a una estrategia mixta [23], en la cual en la primera etapa (estrategia proactiva) se hizo una definición de una guía de mejores prácticas, requerimientos a cumplir y se llevó a cabo una capacitación de los desarrolladores y encargados de la gestión de la calidad. Durante la capacitación se profundiza en las preguntas del instrumento de evaluación dándose por ejemplo una explicación más profunda y ejemplos de cómo hacer la evaluación de los elementos estéticos y ergonómicos, para de esta forma evitar caer lo más posible en una evaluación subjetiva. En la segunda etapa (estrategia reactiva) se hizo una verificación y validación de los elementos desarrollados. El instrumento para la evaluación de OAs (Tabla I) se desarrolló en base a la teoría expuesta sobre calidad en OAs de los trabajos [19], [20], [23] y [27]. Con la finalidad de hacer una evaluación que mantuviera un equilibrio entre un proceso ágil, pero con la calidad suficiente, se agruparon algunos de los elementos expuestos en la teoría un solo factor, de tal forma que algunos de los elementos expresados no fueron considerados en el instrumento final. Este instrumento de evaluación se refinó de manera progresiva y fue validado empleando el método de panel de expertos, siendo sus foros más reconocidos El VI Encuentro Internacional de Ciencias de la Computación ENC de 2005 [20], El VII Encuentro Internacional de Ciencias de la Computación ENC 2006 [27], El VIII Encuentro Internacional Virtual Educa, Brasil 2007 [28] y La Tercera Conferencia Latinoamericana de Tecnologías de Objetos de Aprendizaje LACLO 2008 [23]. VI. RESULTADOS Se aplicó un análisis basado en estadística descriptiva a un total de 184 Objetos de Aprendizaje entregados para su evaluación inicial (esta evaluación inicial corresponde a la primera iteración de evaluaciones). El análisis se aplicó a la evaluación inicial debido al interés de obtener estadísticas Elemento a evaluar Estándar para el contexto Cumple con el estándar (SI / NO) CLASIFICACIÓN: ELEMENTOS TECNOLÓGICOS Metadato completo/Minimamente Requerido SI NO manejable Funcionalidad (Sin errores) Requerido SI NO CLASIFICACIÓN: ELEMENTOS DE CONTENIDO Nivel de detalle de la información (de Requerido SI NO suficiente a muy detallada ) Contiene la fecha de creación Requerido SI NO La información está completa Requerido SI NO Incluye bibliografía Requerido SI NO Incluye resumen temático Requerido SI NO Incluye ligas relacionadas con la Recomendado SI NO temática Incluye lecturas recomendadas Recomendado SI NO CLASIFICACIÓN: ELEMENTOS PEDAGÓGICOS Tiene definido el objetivo pedagógico Requerido SI NO Indicación del tiempo típico de Requerido SI NO aprendizaje Manejo de elementos texto e Requerido SI NO imágenes, audio o video Manejo de ejemplos (También pueden Requerido SI NO ser visuales o auditivos) Ejercicios de afirmación suficientes en Requerido SI NO número y frecuencia (al menos 1) Ejercicios expresados con Requerido SI NO instrucciones sencillas y precisas Ejercicios breves y concretos sobre el Requerido SI NO tema a evaluar Cada ejercicio cumple con los Requerido SI NO objetivos fijados Posee una evaluación o actividades de Requerido SI NO aprendizaje Proporciona retroalimentación al Requerido SI NO participante Evaluación o actividades de Requerido SI NO aprendizaje parcial con preguntas (aleatorias) CLASIFICACIÓN: ELEMENTOS ESTÉTICOS Y ERGONÓMICOS Facilidad para navegar Requerido SI NO Presenta simetría el acomodo de los Requerido SI NO elementos Uso adecuado de fuentes Requerido SI NO Uso adecuado de colores Requerido SI NO Proporcionalidad adecuada de los Requerido SI NO elementos (Punto de vista estético) Proporcionalidad adecuada de los Requerido SI NO elementos (Punto de vista funcional) Disposición adecuada de los Requerido SI NO elementos (Punto de vista estético) Disposición adecuada de los Requerido SI NO elementos (Punto de vista funcional) Consistencia en el acomodo de los Requerido SI NO elementos sobre las deficiencias más comunes que se presentan en los desarrollos de OAs. Los resultados se presentan en orden descendente en base a su porcentaje de cumplimiento con la finalidad de facilitar el análisis. Con relación a los elementos de contenido (Tabla II) se tienen altos porcentajes de cumplimiento en aspectos importantes como son el nivel de detalle de la información (99.38%) y si la información está completa (91.95%). Los resultados anteriores se pueden explicar en parte si consideramos que los desarrolladores de los OAs son expertos en el área. El hecho que solo el 68.97% de los OAs incluyan bibliografía es preocupante, debido a que es un ISSN 1932-8540 © IEEE VELÁZQUEZ AMADOR et al.: UNA EXPERIENCIA EN EL DESARROLLO MASIVO DE OBJETOS DE ... TABLA II RESULTADOS DE LA EVALUACIÓN DE LOS ELEMENTOS DE CONTENIDO CLASIFICACIÓN: ELEMENTOS DE CONTENIDO Nivel de detalle de la información (de suficiente a muy detallada ) La información está completa Contiene la fecha de creación Incluye resumen temático Incluye bibliografía Incluye ligas relacionadas con la temática Incluye lecturas recomendadas Porcentaje de Cumplimiento 99.38 91.95 86.96 75.29 68.97 56.90 43.10 aspecto formal que no debería tener problemas en cumplir el desarrollador. Es importante señalar que el incluir ligas (links o vínculos) relacionadas con la temática (56.90%) y el incluir lecturas recomendadas (43.10%) son aspectos considerados opcionales (Debido a esto aparecen sombreados en el instrumento de la Tabla I). En lo referente a los elementos pedagógicos (Tabla III), tenemos que los que tuvieron un cumplimiento más bajo fueron el tener ejercicios de afirmación suficientes en número y frecuencia (64.37%), el proporcionar retroalimentación al participante (63.22%) y evaluación o actividades de aprendizaje parcial con preguntas aleatorias (45.40%), este último tuvo el cumplimiento más bajo en la evaluación global, por lo que podemos darnos cuenta que a los desarrolladores en general se les dificulta el desarrollar OAs que manejen evaluaciones con preguntas aleatorias. En lo tocante a los elementos estéticos y ergonómicos (Tabla IV) se tuvieron los mejores porcentajes de cumplimiento, dejándose en claro que este no es uno de los puntos problemáticos para los desarrolladores de OAs. Con relación a los elementos tecnológicos, debido a que estos se convino evaluarlos hasta la última entrega, no pudieron ser analizados, pero con relación a la evaluación del metadato se puede puntualizar que al solicitarse completo/mínimamente manejable, se refiere a que deben haberse llenado todos los ítems marcados como obligatorios para el proyecto. De las nueve categorías del estándar SCORM, para el proyecto se definieron como obligatorias TABLA III RESULTADOS DE LA EVALUACIÓN DE LOS ELEMENTOS PEDAGÓGICOS CLASIFICACIÓN: ELEMENTOS PEDAGÓGICOS Manejo de elementos texto e imágenes o audio o video Indicación del tiempo típico de aprendizaje Manejo de ejemplos (También pueden ser visuales o auditivos) Tiene definido el objetivo pedagógico Posee una evaluación o actividades de aprendizaje Ejercicios breves y concretos sobre el tema a evaluar Cada ejercicio cumple con los objetivos fijados Ejercicios expresados con instrucciones sencillas y precisas Ejercicios de afirmación suficientes en número y frecuencia (al menos 1) Proporciona retroalimentación al participante Evaluación o actividades de aprendizaje parcial con preguntas (aleatorias) TABLA IV RESULTADOS DE LA EVALUACIÓN DE LOS ELEMENTOS ESTÉTICOS Y ERGONÓMICOS CLASIFICACIÓN: ELEMENTOS ESTÉTICOS Y ERGONÓMICOS Facilidad para navegar Presenta simetría el acomodo de los elementos Disposición adecuada de los elementos (Punto de vista estético) Disposición adecuada de los elementos (Punto de vista funcional) Consistencia en el acomodo de los elementos Proporcionalidad adecuada de los elementos (Punto de vista estético) Uso adecuado de fuentes Proporcionalidad adecuada de los elementos (Punto de vista funcional) Uso adecuado de colores 89.66 81.61 77.59 71.97 71.84 70.06 64.37 63.22 45.40 Porcentaje de Cumplimiento 100.00 100.00 100.00 100.00 100.00 98.85 94.83 93.10 91.95 las siguientes: General, Ciclo de vida, Educacional, Derechos y Relación. Se convino entre los desarrolladores emplear para el llenado del metadato y empaquetado del OA la herramienta eXeLearning [29]. Al entrevistar al responsable del perfil de la Universidad Autónoma de Aguascalientes se obtuvo la siguiente información referida al proceso: Con relación a las iteraciones necesarias para la corrección de errores originalmente se tuvieron previstas dos, pero finalmente fueron necesarias tres. En lo referente al tiempo necesario entre iteraciones, originalmente se establecieron 15 días para la corrección de errores, pero en la práctica se requirieron 30 días. En lo tocante al motivo de las desviaciones, se debieron a la falta de realismo al hacer la planeación, lo que originó que no se tuviera bien calibrado el tiempo, se manifestó que esto pudo deberse a que fue la primer experiencia de este tipo. Con relación a las quejas de los desarrolladores, las principales fueron la falta de claridad en las especificaciones y las fricciones en la interacción con los gestores de calidad. Lo anterior denota la relevancia de guardar registros de los proyectos desarrollados para la estimación de proyectos y la importancia que tiene el manejo adecuado de las relaciones interpersonales en un proceso de gestión de la calidad. Porcentaje de Cumplimiento 99.43 98.85 161 VII. CONCLUSIONES En el presente artículo se hizo la exposición de una propuesta concreta y probada exitosamente en el desarrollo masivo de OAs. Las contribuciones de este trabajo son la presentación de las experiencias y exposición detallada del proceso de gestión de la calidad y del instrumento para el aseguramiento de la calidad de los objetos de aprendizaje, el cual considera elementos de tipo tecnológico, de contenido, pedagógicos y estéticos y ergonómicos a diferencia de propuestas previas hechas por otros autores. Resulta importante señalar que existen pocas experiencias documentadas precisamente en el desarrollo masivo de OAs. Otra contribución importante es el análisis de las principales dificultades encontradas en el proceso de desarrollo y en los productos al hacer las primeras evaluaciones. Las propuestas de procesos e instrumentos, así como los resultados ISSN 1932-8540 © IEEE 162 IEEE-RITA Vol. 6, Núm. 4, Nov. 2011 presentados pueden ser muy valiosos tanto para organizaciones como para personas que desean desarrollar objetos de aprendizaje, ya sea en poca o gran escala. De los resultados obtenidos se puede destacar que en los elementos de contenido se cumple por lo general con aspectos importantes como son el nivel de detalle de la información y si esta se encuentra completa, pero se descuidan aspectos básicos como son el incluir bibliografía. Con relación a los elementos pedagógicos se encontraron deficiencias importantes relacionadas al número y frecuencia de ejercicios de afirmación, así como en el proporcionar retroalimentación al participante y el contar con evaluaciones con preguntas aleatorias; al no cumplirse con estas características tenemos que no se aprovechan adecuadamente la ventajas que proporcionan los medios electrónicos en la educación. Finalmente se encontró que los elementos estéticos y ergonómicos no resultan problemáticos para los desarrolladores de OAs. Como recomendaciones se tienen el impartir un curso de capacitación antes de comenzar con el desarrollo de OAs, en este curso se puede incluir una guía con las mejores prácticas en el desarrollo de objetos de aprendizaje y el conocimiento y análisis del instrumento de evaluación que se va a aplicar. Es conveniente que desde la capacitación no se pasen por alto aspectos básicos en el desarrollo de OAs como son el incluir bibliografía y otros aspectos más complejos, pero que pueden impactar positivamente en el aprendizaje, como son el contar con suficientes ejercicios de afirmación, el proporcionar retroalimentación al estudiante y el tener actividades de evaluación, de preferencia empleando preguntas aleatorias. Como trabajos futuros se tienen el comparar los resultados obtenidos al desarrollar el perfil de Administrador de Proyectos y Procesos de Software con los otros tres perfiles definidos [26] y el exponer el instrumento para la evaluación de cursos y analizar los resultados obtenidos. AGRADECIMIENTOS [3] [4] [5] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [20] [21] REFERENCIAS [2] [7] [19] De manera especial se quiere agradecer a la Universidad Autónoma de Aguascalientes por el apoyo brindado para poder realizar la presente investigación, así como al Dr. Miguel Meza de Luna por la información proporcionada para poder completar el artículo. [1] [6] IEEE, “IEEE LTSC”, Disponible en: http://ltsc.ieee.org/ (Último acceso: Diciembre de 2010). O. J. Dahl, K. Nygaard, “SIMULA - An algol based simulation language”, Communications of the ACM, 9 (9), 1966, pp. 671-678. V. Menéndez, M. Prieto, A. Zapata, “Sistemas de Gestión Integral de Objetos de Aprendizaje”, IEEE-RITA, Vol. 5, Núm. 2, Mayo 2010. J. Aguilar, J. Zechinelli, J. Muñoz, “Hacia la creación y administración de repositorios de objetos de aprendizaje”, IV Congreso Internacional de Ciencias de la Computación, ENC 2003. J. Barton, S. Currier, J. Hey, “Building Quality Assurance into Metadata Creation: an Analysis based on the Learning Objects and ePrints Communities of Practice”, DC-2003 Proceedings of the International DCMI Metadata Conference and Workshop, Seattle, Washington USA, pp. 39-48, Septiembre 28-Octubre 2 de 2003, Disponible: http://www.siderean.com/dc2003/201_paper60.pdf. (Último acceso: Diciembre de 2010). [22] [23] [24] [25] [26] ADL, “Sharable Content Object Reference Model. ADL SCORM Specification 2004”, Disponible: http://www.adlnet.gov/scorm/, 2004. (Último acceso: Diciembre de 2010). IEEE, “Standard for Learning Object Metadata. IEEE Standard”, Disponible: http://ltsc.ieee.org/wg12/, 2002. (Último acceso: Diciembre de 2010). D. A. Wiley, “Connecting Learning Objects to Instructional Design Theory: A Definition, a Metaphor, and a Taxonomy.” The Instructional Use of Learning Objects (Bloomington, IN: Agency for Instructional Technology), 2002. J. Nesbit, K. Belfer, T. Leacock, “Learning Object Review Instrument (LORI), User Manual”, E-Learning Research and Assessment Network, 2003. J. Nesbit, J. Li, “Web-based tools for learning object evaluation”, In Proceedings of the International Conference on Education and Information Systems: Technologies and Applications, Orlando, Julio de 2004. E. M. Morales, F. J. García, A. Barrón, “Knowledge management for elearning based on learning objects: A qualitative focus”, In Proceedings of the VI International Conference Information Technology based Higher Education and Training (ITHET’05). Santo Domingo, República Dominicana, 07-09 de Julio del 2005, Disponible: http://ithet2005.uprm.edu/index.html. (Último acceso: Diciembre de 2010). E. Duval, “LearnRank: Towards a real quality measure for learning”, Handbook on Quality And Standardisation in E-learning, SpringerVerlag New York Inc. ISBN: 13-978-354-032-787-5, pp. 457-464, 2006. X. Ochoa, E. Duval, “Relevance Ranking of Learning Objects based on Usage and Contextual Information”, 2ª Conferencia Latinoamericana de Tecnologías de Objetos de Aprendizaje LACLO 2007, Santiago de Chile, pp. 151-159, 2007. J. R. Hilera, “UNE 66181:2008, el primer estándar sobre calidad de la formación virtual”, RED: Revista de Educación a Distancia, no. 7, 2008. E. Campo-Montalvo, F. J. Ceballos-Sierra, “La calidad de la formación virtual en la enseñanza superior”, I Congreso Iberoamericano sobre Calidad de la Formación Virtual, Febrero de 2010, Alcalá de Henares, España, pp 151-158. ISO/IEC 19796-1:2005. “Information technology -- Learning, education and training -- Quality management, assurance and metrics -- Part 1: General approach”, 2005. ISO/IEC 19796-3:2009. “Information technology -- Learning, education and training -- Quality management, assurance and metrics -- Part 3: Reference methods and metrics.”, 2009. I. Plaza, F. Arcega, F. Ibañez, P. Garrido, M. Castro, “Quality and innovation in Higher Education: Code of Good Practices,”, Frontiers in Education Conference (FIE), 2010 IEEE , vol., no., pp. F4J-1-F4J6, 27 de 30 Octubre de 2010. C. Velázquez, J. Muñoz, L. Garza, Tecnología de Objetos de Aprendizaje, Capítulo VI: La Calidad en los Objetos de Aprendizaje, Editorial de la Universidad Autónoma de Aguascalientes y UDG Virtual, 2007, pp. 129-169. C. Velázquez, et al, “La Importancia de la Definición de la Calidad del Contenido de un Objeto de Aprendizaje”, Avances en la Ciencia de la Computación 2005, L. Villaseñor, A. Martínez (Eds.), 2005, pp. 329-333. B. Bloom, Taxonomy of Educational Objectives: Handbook I, Cognitive Domain, Davis New York McKAy, 1956. R. S. Pressman, Ingeniería de Software, 6ª Edición, Mc Graw Hill, Impreso en México, 2006. C. Velázquez, J. Muñoz, F. Álvarez, F. Pinales, L. Garza, “Estrategias de Gestión de la Calidad en el Desarrollo de Objetos de Aprendizaje”, Tercera Conferencia Latinoamericana de Tecnologías de Objetos de Aprendizaje LACLO 2008, Aguascalientes, México, 2008, pp. 185190. ANIEI, “Nota Técnica del Proyecto”, 2010, Disponible: http://aniei.org.mx/Archivos/Nota_Proyecto.pdf. (Último acceso: Diciembre de 2010). T. Miklos, “Siete estrategias de oro y un instrumento para construir la educación del futuro”, Prospectiva, Revista Digital del Proyecto Millenium, UNAM, Año1-Número 1-enero-marzo 2004, Disponible: http://ciid.politicas.unam.mx/semprospectiva/dinamicas/r_estudiosfut uro1/revista/numero%203/estpros/escenari/sietemi.htm. (Último acceso: Diciembre de 2010). ANIEI, “Perfiles del Modelo Paracurricular”, 2010, Disponible: http://aniei.org.mx/Archivos/Perfiles_Modelo.pdf. ISSN 1932-8540 © IEEE VELÁZQUEZ AMADOR et al.: UNA EXPERIENCIA EN EL DESARROLLO MASIVO DE OBJETOS DE ... [27] C. Velázquez, J. Muñoz, F. Álvarez, L. Garza, “La Determinación de la Calidad de Objetos de Aprendizaje”, Avances en la ciencia de la computación, VII Encuentro Internacional de Ciencias de la Computación ENC 2006, San Luis Potosí, México, 2006, pp. 346351. [28] C. Velázquez, J. Muñoz, F. Álvarez, “Aspectos de la Calidad de Objetos de Aprendizaje en el Metadato de LOM”, VIII Encuentro Internacional Virtual Educa, Brasil 2007, Del 18 al 22 de junio de 2007, São José dos Campos, São Pablo, Brasil, 2007, Disponible en: http://ihm.ccadet.unam.mx/virtualeduca2007/pdf/214-CVA.pdf. (Último acceso: Diciembre de 2010). [29] R. Avello, “El Software Libre en la educación a distancia. Selección de Herramientas”. Quaderns Digitals, 53, 2008. César Eduardo Velázquez Amador es Ingeniero en Sistemas Computacionales (1994) y posee la Maestría en Informática y Tecnologías Computacionales por parte de la Universidad Autónoma de Aguascalientes, México (2002). Actualmente se desempeña como profesor titular en el Departamento de Sistemas de Información en la Universidad Autónoma de Aguascalientes. Sus áreas de investigación son la adopción de tecnologías de información, la ingeniería de software y la calidad en objetos de aprendizaje. Francisco Javier Álvarez Rodríguez es profesor asociado de Ingeniería de Software y Decano del Centro de Ciencias Básicas de la Universidad Autónoma de Aguascalientes. Tiene una licenciatura en Informática (1994), una maestría (1997) de la Universidad Autónoma de Aguascalientes, un grado EdD del Instituto de Educación de Tamaulipas, México y es Ph(c) de la Universidad Nacional Autónoma de México. Ha publicado artículos de investigación en varias conferencias internacionales en los temas de e-Learning e Ingeniería de Software. Sus intereses de investigación son la Ingeniería de Software para el ciclo de vida de las pequeñas y medianas empresas y el proceso de Ingeniería de Software para e-Learning. Laura Garza González es Licenciada en Sistemas Computacionales Administrativos por el ITESM, Campus Monterrey y posee la Maestría y el Doctorado en Administración. Actualmente se desempeña como profesor titular en el Departamento de Sistemas de Información en la Universidad Autónoma de Aguascalientes. Sus áreas de investigación son la adopción de tecnologías de información y la teoría de servicios. 163 Miguel Ángel Sicilia es Ingeniero en Informática por la Universidad Pontificia de Salamanca y Doctor Ingeniero en Informática por la Universidad Carlos III de Madrid, así como Licenciado en Documentación por la Universidad de Alcalá. En 2003 obtiene una plaza de profesor titular de universidad interino en el departamento de Ciencias de la Computación de la Universidad de Alcalá, donde es Catedrático en la actualidad. El Dr. Sicilia ha desarrollado una intensa actividad investigadora, centrada en las tecnologías de Web Semántica. Ha sido director técnico del proyecto Europeo LUISA financiado por el FP6 y otros proyectos de financiación pública europea y de diversos programas nacionales. Fruto de su actividad son los más de 35 artículos en revistas de impacto y cerca de 100 contribuciones a otras revistas y conferencias internacionales. Es además editor en jefe de las revistas IJMSO y PROGRAM-Electronic Library and Informaction Systems y miembro del comité gestor de la Red TELSpain, así como presidente del comité de programa de diversas conferencias internacionales. Manuel Mora es Profesor-Investigador Titular “C” en el Depto. de Sistemas de Información, en la Universidad Autónoma de Aguascalientes, México. Es Doctor en Ingeniería por la UNAM (2003), Maestro en Ciencias Computacionales por el ITESM (1989), y tiene la carrera de Ing. en Sistemas Computacionales por el ITESM (1984). El Dr. Mora ha publicado alrededor de 50 trabajos científicos. Sus líneas de investigación actuales son: sistemas de servicios de TI, sistemas de soporte a decisiones, y métodos de investigación para Ingeniería de Sistemas. Jaime Muñoz Arteaga es Profesor investigador del Centro de Ciencias Básicas de la Universidad Autónoma de Aguascalientes. El Dr. Jaime cuenta con un doctorado en Ciencias de la Computación en el área de interacción humano-computadora, donde en la literatura tiene varios trabajos en revistas, capítulos de libros, conferencias y con supervisión de estudiantes tanto de maestría como de doctorado. Sus temas de investigación actuales son en Interacción hombre-computadora, Ingeniería Web y e-learning. ISSN 1932-8540 © IEEE