Alcances y Limitaciones de la Evaluación Abierta

Anuncio
VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
173
Alcances y Limitaciones de la Evaluación Abierta:
un Estudio de Caso basado en TIC
A. Chiappe, R. A. Pinto and V. M. Arias
Title— Scope and limitations of Open Assessment: an ICTbased Case Study.
Abstract— The article describes the results of a study that
presents Open Assessment as an innovative educational
practice, mediated by Information and Communications
Technologies (ICT). Also, it describes the implementation of an
experience of Open Assessment in higher education, as a study
case.
Results showed that Open Assessment are well accepted by
students due to the adaptability and flexibility of time and
space for testing, as it was also possible to demonstrate that the
responsibility and maturity of the student play an important
role to improve the learning process derived from this type of
evaluation, making it formative by nature.
Index Terms— Open educational practices, open assessment,
open educational resources, learning environment, e-learning.1
I.
INTRODUCCIÓN
L
A integración educativa de las Tecnologías de la
Información y la Comunicación (TIC) es un fenómeno
internacional creciente que ha tomado tal impulso que se
considera hoy un elemento estructural dentro de las políticas
y dinámicas institucionales en todos los niveles educativos
[1].
En ese sentido, la UNESCO insiste en el rol fundamental
que desempeñan las TIC en la educación, ya que ofrecen a
los educadores las herramientas necesarias para impactar de
manera creativa el proceso de enseñanza y de aprendizaje,
permitiéndoles superar los retos que demanda un ambiente
global, cambiante y disruptivo en una sociedad basada en el
conocimiento [2].
A partir de lo anterior, una de las tendencias educativas
actuales, emergentes y de mayor crecimiento en el marco de
la integración educativa de las TIC se conoce como
Movimiento Educativo Abierto. Dicho movimiento
promueve la reflexión y la crítica relacionadas con el uso de
Recursos Educativos Abiertos (REA) y de experiencias
formativas (o prácticas educativas) basadas en la aplicación
de atributos de “lo abierto”, como el libre acceso, la
reutilización, la remezcla, la colaboración/compartir, etc., lo
cual caracteriza de manera especial a dichos procesos,
haciéndolos adecuados a un contexto educativo en red, cada
vez más global, social y cambiante[3].
En ese orden de ideas, el desarrollo del Movimiento
Educativo Abierto se despliega entonces tanto sobre los
REA como sobre las Prácticas Educativas Abiertas (PEA),
1
A.Chiappe. Universidad de La Sabana, Centro de Tecnologías para la
Academia, Bogotá, Colombia. [email protected]
R. A. Pinto. Universidad Piloto de Colombia, Bogotá, Colombia,
[email protected].
V. M. Arias. Universidad de La Sabana, Centro de Tecnologías para la
Academia, [email protected].
las cuales, de forma articulada, terminan constituyendo el
ejercicio educativo en su conjunto.
Ehlers y Conole [4], consideran que las prácticas
educativas abiertas van más allá de la simple aplicación de
los REA, al decir que:
“...las prácticas que soportan el uso, reutilización y
producción de REA de alta calidad, a través de políticas
institucionales que promuevan modelos pedagógicos
innovadores, empoderan a los aprendices como
coproductores de su propia ruta de aprendizaje a lo largo de
la vida.” [4].
Por otra parte, una de las prácticas educativas sobre las
que más se ha debatido y sobre la cual recaen la mayoría de
las críticas desde distintos sectores y actores relacionados
con la educación es la evaluación. Lo anterior se debe a que
es un proceso que afecta no solo los aprendizajes de los
estudiantes (cuando la evaluación es formativa), sino los de
promoción y certificación.
En ese sentido, los estudiantes que se desarrollan en la
sociedad del conocimiento demandan que el aprendizaje
obtenido en el proceso educativo tenga significado y
aplicación[5]. Ahora bien, es preciso reconocer que los
sistemas de evaluación del aprendizaje que se emplean
“típicamente” en Educación Superior son tradicionales, de
tipo aditivo, que pocas veces utilizan recursos educativos
basados en TIC, y que no verifican el proceso continuo de
aprendizaje del estudiante más allá de una simple medición
de los temas abordados[6].
Teniendo lo anterior en consideración, se trazó un
proceso investigativo que se enfocó en la identificación de
los alcances y las limitaciones propias de esta práctica
educativa, cuando se diseña y despliega de manera abierta.
Esta investigación se trazó como un proceso eminentemente
cualitativo, a manera de un estudio de caso enmarcado en la
enseñanza de la Ingeniería de Telecomunicaciones en una
universidad privada en Colombia.
Para efectos de esta investigación la Evaluación Abierta
del Aprendizaje se considera como “el proceso de
verificación y realimentación de los aprendizajes que se
realiza de manera colaborativa, mediada por herramientas de
libre acceso, en la cual los profesores producen o adaptan
recursos evaluativos y los estudiantes adaptan y remezclan
dichos recursos para efectos de generar para sí mismos una
evaluación que responda a sus necesidades personales y de
contexto” [7].
A partir de las siguientes secciones se podrá observar el
planteamiento metodológico bajo el cual se condujo el
estudio, incluyendo sus fases, categorías y procedimientos
de análisis e instrumentos de recolección de información.
Igualmente, en la sección de resultados se describen los
principales hallazgos en función de las distintas categorías
de análisis propuestas, a partir del reconocimiento de los
alcances y limitaciones propias de los procesos de
evaluación abierta del aprendizaje.
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
174
VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
Finalmente, en la sección de conclusiones se plantean
posibles respuestas a la problemática de investigación que
dio origen a este proceso investigativo.
II.
ASPECTOS METODOLÓGICOS
Para efectos de la investigación se diseñó e implementó
una experiencia de evaluación abierta, en la cual participaron
30 estudiantes de Ingeniería de Telecomunicaciones de la
Universidad Piloto de Colombia (UPC), durante un periodo
de tiempo de 13 semanas.
Debido a la diversidad propia de los estudiantes
participantes se encontró que el tipo de muestra más
adecuada para esta estudio era una muestra intencional no
probabilística, con la cual era posible enriquecer la
información a partir de la participación de estudiantes con
características muy distintas que reflejaran tal diversidad en
su conjunto. El grupo participante se conformó por hombres
y mujeres con edades tanto superiores como inferiores al
promedio general del curso (23 años) y que correspondieran
a las siguientes opciones: no repitientes y no trabajadores,
repitientes y no trabajadores, repitientes y trabajadores y por
último, no repitientes y trabajadores. Cabe anotar que el
término “estudiantes no trabajadores” hace referencia a
aquellos con dedicación de tiempo completo a sus estudios.
Por otra parte, los atributos de lo abierto que se aplicaron
a los procesos e instrumentos evaluativos para esta
experiencia fueron: acceso libre, adaptación, remezcla y
colaboración.
Para lograr los propósitos del estudio de caso y asegurar
la calidad y objetividad en esta experiencia investigativa, se
tuvo en cuenta la visión que sobre el estudio de caso
presentan George y Bennett[8], quienes indican que este tipo
de estudio se puede desarrollar en tres fases:
• Fase preparatoria y diseño del estudio.
• Implementación del estudio y trabajo de campo.
• Análisis y conclusiones.
Figura 1: Diagrama de método
En la Figura 1 se muestra el diagrama del proceso seguido
en la investigación.
Las categorías de análisis que se usaron incluyeron los
atributos de lo abierto aplicados además de otras dos
categorías relacionadas con el proceso evaluativo: 1)
tipología de los actores que intervienen en el proceso de
evaluación (Estudiantes y docentes) y 2) variables externas
que inciden en la aplicación de la evaluación.
El tipo y cantidad de instrumentos aplicados atendieron la
necesidad de triangular la información documentada en el
diario de campo acerca de las observaciones, a fin de obtener
mayor concordancia y fiabilidad en los resultados de la
experiencia y minimizar el error de variabilidad entre
observadores. Según Cabrera [9], la triangulación es un
proceso de cruce y verificación de información que fortalece
la validez del proceso de análisis.
El primer instrumento aplicado fue una entrevista
semiestructurada con 20 preguntas, la cual se aplicó al 10%
de los estudiantes participantes. Se consideró igualmente
importante hacer entrevistas a algunos profesores ya que el
aprendizaje de los contenidos temáticos de los cursos que
ellos dictan afecta el desempeño de los estudiantes en el
curso. Para enriquecer la muestra se escogieron dos
profesores antiguos, con más de diez años de experiencia, y
dos profesores nuevos con menos de tres años de labor
continua. En la Figura 2 se muestra el resultado de una de las
preguntas realizadas en la encuesta con relación a la
concepción de los estudiantes acerca de la evaluación
abierta.
Un segundo instrumento de recopilación de información
fue el diario de campo a través del cual se documentó la
observación continua del proceso evaluativo abierto.
Una vez finalizada la experiencia de evaluación abierta se
aplicó una encuesta de 24 preguntas sobre tres temas
específicos: el ambiente de aprendizaje en general, la
experiencia de evaluación abierta y los aprendizajes
generados. También se hicieron tres preguntas
complementarias sobre docentes e institución educativa.
Para efectos de triangulación, se realizó una entrevista
colectiva (grupo focal) a los estudiantes participantes al
finalizar el periodo académico.
El proceso de análisis de información se condujo a través
del uso de ATLAS.ti, la cual es una aplicación de análisis
cualitativo de datos (QDA) utilizada ampliamente en
estudios de naturaleza educativa [10]. Dicho proceso partió
de la selección aleatoria y posterior análisis de ocho
documentos primarios (DP), de los cuales se seleccionaron
Figura 2: Resultados de la encuesta a la pregunta: ¿Qué es la
evaluación abierta?
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
CHIAPPE, PINTO Y ARIAS: ALCANCES Y LIMITACIONES DE LA EVALUACIÓN ABIERTA: UN ESTUDIO... 175
235 citas o segmentos de texto que tuvieran relevancia y
correspondencia con las categorías de análisis previstas. Las
citas se codificaron con palabras clave para identificarlos en
el análisis, obteniéndose 72 códigos, los cuales se filtraron y
jerarquizaron para obtener tres grandes supercódigos
correspondientes con las categorías de análisis relacionadas
con el proceso de evaluación.
En la Figura 3 se puede observar un extracto de la
distribución de los códigos de mayor densidad
(frecuencia/totalidad códigos) encontrados en el análisis con
AtlasTi, y que ayudaron en la clasificación de los
supercódigos y de las categorías de análisis emergentes.
Los datos recolectados en citas y segmentos textuales
mostraron aspectos comunes, concordancias, similitudes,
desacuerdos y situaciones antagónicas difíciles de codificar
que los protagonistas de la experiencia expresaron y que
necesariamente tuvieron que compararse mediante
triangulación.
La Figura 4 muestra una parte del listado de citas
clasificadas por frecuencias de los diferentes documentos
primarios.
Este proceso cualitativo, acompañado de un proceso
estadístico básico descriptivo y de correlación permitió
definir más claramente la intencionalidad y posiciones de
cada uno de los intervinientes y facilitar el análisis de los
resultados.
III.
RESULTADOS
Los hallazgos del estudio se describen a continuación en
función de cada una de las categorías de análisis, a saber:
A. Alcances y Limitaciones en cuanto al Acceso Libre.
Este atributo de la evaluación abierta se refiere a la
oportunidad que estudiantes y docentes tienen para acceder
(en cualquier momento y desde cualquier lugar) a los
diversos recursos usados en la evaluación.
El 100 % de los profesores participantes consideran que
el acceso libre a contenidos, instrumentos evaluativos y
plataformas; ayuda en la elaboración del componente
evaluativo de sus cursos, debido a la posibilidad de usar
recursos ya validados por experiencias previas de otros
docentes, lo cual enriquece su perspectiva de la evaluación.
Por otra parte, el 75 % de los profesores participantes
consideran la evaluación abierta como una oportunidad de
hacerse visibles ante la comunidad educativa mundial al
compartir esos recursos educativos abiertos desarrollados de
manera libre y pasar de ser un solo consumidor de
contenidos y herramientas creadas por otros, a ser un
productores de recursos educativos para la evaluación de
unos aprendizajes.
Además, se encontró concordancia entre lo expresado por
los docentes acerca del acceso libre y lo respondido por el 70
% de los estudiantes en la encuesta final, con relación a la
libertad y diversidad para aprender y reforzar temas de su
interés y oportunidad para evaluarse sin restricciones de
tiempo y lugar. En ese orden de ideas, el acceso libre como
atributo de “lo abierto” mostró una alta correlación (r=0,78)
como factor clave de éxito de este tipo de prácticas
evaluativas tanto en los profesores como en los estudiantes.
No obstante lo anterior y aunque la literatura los reconoce
como elementos asociados al acceso libre, no parece pasar lo
mismo (r=0,26; r=0,31) en función de la posibilidad de ser
participes en la producción de conocimiento y en materia de
flexibilidad espacio temporal.
B. Alcances y Limitaciones en cuanto a la Colaboración.
Figura 3: Lista de códigos y de supercódigos.
Figura 4: Listado de citas codificadas de acuerdo con su frecuencia
Este atributo de la evaluación abierta se refiere a la
evaluación como trabajo en equipo, en el que se consiguen
resultados comunes en la adquisición de conocimientos y la
convierten en un proceso más formativo.
El 50 % de los docentes indicaron que el trabajo
colaborativo en la evaluación sirvió para fortalecer la
formación del estudiante, complementar conocimientos y
aclarar vacíos sin importar las fuentes y las formas que el
estudiante usó para lograrlo.
Por otra parte, para el 50 % de los docentes, la evaluación
colaborativa debe complementarse con la evaluación
individual para evitar sesgos y desviaciones perjudiciales en
estudiantes poco comprometidos con su aprendizaje.
En ese sentido el profesor identificado como P3HB
indica: “Yo pensaría que sí. La evaluación podría ser
colaborativa pero no exclusivamente colaborativa y en
grupo. Yo pensaría que tiene que haber una parte de la
evaluación que tiene que ser personal, individual tal como
son las personas, individuales y diferentes.”
El 75 % de los docentes también mostraron cierta
aprehensión en la posibilidad que esta forma de evaluar sea
una forma velada de “copia y fraude” por parte de los
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
176
VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
estudiantes, tal como lo indica el profesor identificado como
P5GV:
“[…] el problema sería que como lo pueden hacer en
cualquier momento, en cualquier lugar que de pronto sea
otra persona la que haga la respuesta por él.”
Con respecto a lo anterior algunos estudiantes indicaron:
“Ayudó a que todos pudiéramos complementar nuestro
aprendizaje, a que tuviéramos una retroalimentación por
parte del docente y los compañeros, ya que fue una
evaluación de tipo grupal, donde todos podíamos opinar,
donde todos podíamos dar nuestro punto de vista respecto a
una respuesta.”
Por otra parte, la evaluación colaborativa o en equipo
produjo una sensación de aceptación y pertinencia
interesante en el 100% de los estudiantes, tal y como se
menciona en el siguiente extracto de la entrevista 7:
“Pero este tipo de evaluación compromete más el
aprendizaje del estudiante y que esté más en contacto con el
profesor, que pueda despejar las dudas y estar en constante
retroalimentación, poder siempre estar en contacto con el
profesor, que es importante para que uno aprenda sobre el
curso que uno va a ver.”
C. Alcances y Limitaciones en cuanto a la Remezcla.
Según Chiappe [7], hacer remezcla en la evaluación
desde la perspectiva del estudiante consiste en tomar los
recursos evaluativos desarrollados o adaptados por los
profesores o también de repositorios libres, para que el
estudiante genere para sí mismo “una evaluación que
responda a sus necesidades personales y de contexto”. En
ese sentido, el estudiante podría autónomamente adaptar y
escoger los medios, la estructura y los tiempos de su
evaluación a partir de la disponibilidad de instrumentos
evaluativos.
Para lograr ese cometido, es necesario que dichos
recursos se encuentren disponibles en línea mediante el uso
de las TIC. Para efectos de este estudio, se desarrollaron
algunos instrumentos (juegos)
y se adaptaron otros
(cuestionarios) para ponerlos a disposición de los estudiantes
en dos momentos diferentes, en los que el estudiante
libremente podía “escoger” entre varias alternativas para
conformar su evaluación, eso sí, dentro de unos parámetros
mínimos de número de instrumentos seleccionados, la
cantidad de veces en que podía cambiarlos y los tiempos
para la respuesta.
Cabe anotar que la aplicación de este atributo de lo
abierto a la evaluación generó resistencia por parte del25%
de los profesores, tal y como se evidencia en el siguiente
extracto de entrevista:
“Es decir que me parecería valioso, ¿no? Pero no todo lo
puede escoger el estudiante. Porque de lo contrario,
digamos, usted no podría o el estudiante responder por
algunos preceptos fundamentales del currículo. El currículo
podría volverse cualquier cosa.”
El 70% de los estudiantes en cambio, tuvieron una
opinión más favorable a esta forma de evaluación,
advirtiendo que es necesaria una buena oferta de
instrumentos evaluativos.
Las correlaciones encontradas para esta categoría
mostraron intereses contrarios en profesores y estudiantes.
De hecho, los coeficientes de correlación encontrados
aplicados a tres características de la remezcla (“escoger”,
“personalizar” y “decidir”) resultaron moderadamente
inversas (r=-0,65; r=-0,58; r=-0,51).
Un asunto interesante identificado a partir de los
instrumentos aplicados a los estudiantes es que, ante la
posibilidad de escogencia, el 75% de los estudiantes
prefieren los ejercicios o preguntas que más entienden o que
más saben, descartando de esta manera la posibilidad de
medirse a ciertos temas más complejos o más difíciles, no
obstante también se considera esto una oportunidad para
identificar vacíos en sus aprendizajes.
D. Alcances y Limitaciones en cuanto a la Adaptación.
Este atributo de la evaluación abierta se analizó desde la
oportunidad de uso que presentan los recursos y
herramientas evaluativas diseñadas para que puedan ser
modificadas y adaptadas libremente por otros usuarios
docentes y estudiantes. Para lograrlo, los profesores deben
estar dispuestos a desarrollar estos recursos de manera que
se permita su adaptación y a depositarlos en repositorios de
recursos educativos abiertos.
El 50% de los docentes consideraron que la adaptación de
recursos educativos para evaluación que encuentran en sitios
de acceso libre en la red es una buena opción para mejorar el
proceso evaluativo, siempre y cuando esos instrumentos
estén actualizados y sean fácilmente adaptables, es decir,
que no requieran de complicados procedimientos y
conocimientos técnicos para lograrlo.
No obstante el reconocimiento de aspectos positivos con
relación a la adaptación, el 100% de los docentes
participantes indican consistentemente que una gran
limitación consiste en la poca disponibilidad de tiempo para
desarrollar los recursos abiertos de manera que puedan ser
compartidos con otros profesores.
Un aspecto que llama la atención es que pese a que la
naturaleza abierta de la evaluación permite que el aprendiz
se empodere de su proceso de evaluación, todavía persiste la
concepción de conveniencia del dominio del proceso por
parte del profesor. Lo anterior se aprecia en un 60% de las
evidencias extraídas de las entrevistas de los estudiantes.
Comentarios como los siguientes ejemplifican esta
situación:
“Sí, siempre y cuando el profesor influya, en el sentido de
que genere dudas y haga salir a la luz las dudas que tiene el
estudiante”
“[…] puede que exista un banco o un directorio donde
estén cierto tipo de evaluaciones, pero depende del
contenido que él desarrolle. Puede que la evaluación
adaptada no corresponda con el contenido que él desarrolla y
no se profundice en lo que él especificó en su curso.”
E. Alcances y Limitaciones en cuanto a las
Características de los Actores que Intervienen en el Proceso
de Evaluación Abierta:
El análisis de algunas características de los estudiantes
participantes mostró que existe una correlación marcada en
cuanto a los resultados de la evaluación y dos factores
demográficos clave para este estudio: la edad y la dedicación
de tiempo al estudio (r=0,71; r=0,87). En ese sentido, pese a
las posibilidades y flexibilidad del proceso de evaluación
abierta, ésta no generó efectos positivos significativos en los
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
CHIAPPE, PINTO Y ARIAS: ALCANCES Y LIMITACIONES DE LA EVALUACIÓN ABIERTA: UN ESTUDIO... 177
estudiantes trabajadores, los cuales, históricamente presentan
porcentajes de pérdidas o cancelación de asignaturas hasta
del 80%. De acuerdo a los resultados, de 10 estudiantes
trabajadores participantes en el estudio, 5 de ellos
reprobaron el proceso de evaluación.
Estos estudiantes trabajadores tienen edades superiores al
promedio del curso(entre 25 y 28 años), y deciden inscribir
finalmente el curso cuando ya se encuentran en niveles
superiores de la carrera. Los estudiantes más jóvenes no
trabajan y en un 83% aprobaron el curso.
Aún así, tal como se muestra en la Figura 5, los
resultados en las entrevistas mostraron que el 70% de los
estudiantes aceptan de buen agrado la implantación de la
evaluación abierta. Los profesores en cambio tienen una
menor aceptación (60%) por cuanto son los docentes de
mayor edad y más experiencia los que no ven muchas
ayudas en ella para el aprendizaje.
F. Alcances y Limitaciones en cuanto a las Variables que
Inciden en la Implementación de la Evaluación Abierta.
Esta categoría de análisis emergió luego de una segunda
codificación de las evidencias encontradas a partir de la
aplicación de instrumentos. La alta frecuencia de aparición
de aspectos comunes en estas evidencias (139 evidencias
asociadas o dependientes de 40 códigos), indicaban asuntos
que los entrevistados consideraban importantes al aplicar los
atributos de lo abierto a la evaluación. Estos asuntos fueron
clasificados y organizados como supercódigos o
subcategorías, siendo las de mayor co-ocurrencia las
siguientes: las competencias educativas y tecnológicas tanto
de los estudiantes como de los docentes y el uso de los
recursos educativos abiertos. De manera general la
respuestas dadas en las entrevistas, evidenciaron que
aproximadamente el 50% de los docentes indican
dificultades en la implantación de la evaluación abierta en
sus cursos, mientras los estudiantes manifiestan una
aceptación cercana al 70%.
A continuación se resaltan los aspectos más relevantes
encontrados para cada una de estas dos subcategorías.
En cuanto a las competencias educativas y
tecnológicas…
Se identificaron y seleccionaron 32 evidencias en los
resultados de los distintos instrumentos aplicados en los
cuales los estudiantes consideraron varios aspectos
relevantes acerca de las competencias educativas y
tecnológicas de los docentes y de ellos mismos en el proceso
de aprendizaje. La primera que se identificó tuvo que ver
con el escaso número de cursos o experiencias de
aprendizaje del Programa en las que los profesores aplicaban
las TIC para potenciar su proceso de aprendizaje.
Un ejemplo de lo anterior se extrajo de la entrevista al
estudiante codificado como “S”:
“Uno espera de pronto manejar más estas herramientas,
sinceramente solo me he encontrado con estas herramientas
en lo que fue en segundo semestre... y hasta ahora cuando
estoy viendo este curso.”
En cuanto a los Recursos Educativos Abiertos (REA)…
Esta subcategoría se enfocó en la disponibilidad, facilidad
de uso y otras características de los recursos educativos
utilizados en el proceso de evaluación abierta, tanto desde la
mirada de estudiantes como desde la de los docentes. Se
seleccionaron 38 evidencias asociadas o dependientes de 14
códigos.
Desde la perspectiva de los estudiantes, las apreciaciones
relacionadas con esta variable se encontraron en 50 % de las
evidencias seleccionadas, en las cuales se reflejaron
consideraciones importantes respecto de los recursos y
herramientas TIC aplicadas en sus clases y que se sintetizan
sobre tres aspectos clave: la flexibilidad espacio temporal, la
autonomía y la variedad.
Por otra parte, se encontró que la evaluación abierta
conlleva la aplicación de un alto grado de responsabilidad,
disciplina y concentración en los estudiantes para lograr los
objetivos. Al respecto, el estudiante denominado como “AL”
mencionó en el mismo Foro:
“Las plataformas virtuales actuales de aprendizaje
demandan mucha disciplina y responsabilidad por parte del
estudiante, dependen mucho de la capacidad autodidacta.”
Finalmente, los estudiantes reconocen consistentemente
que con el uso de REA se agregan elementos de variedad al
proceso evaluativo, ya sea en el uso de distintos formatos o
en la aplicación de diversos métodos.
Ahora bien, la perspectiva de los docentes en cuanto al
uso de los REA en el proceso de evaluación del aprendizaje
gira alrededor de una tensión permanente entre la
potencialidad que conllevan los REA y la zona de confort
que representa para los profesores la presencialidad
(asociada a la tradición) como entorno para el desarrollo de
los procesos evaluativos.
Como se ha mencionado a anteriormente, los profesores,
en su mayoría, encuentran que las TIC ayudan en el proceso
educativo, siempre y cuando la presencialidad no
desaparezca, porque para ellos la figura del profesor es
indispensable en el proceso; resaltan la importancia que
tienen las TIC para implantar una evaluación del aprendizaje
de manera permanente.
IV.
Figura 5: Hallazgos del estudio en función de las categorías de análisis.
CONCLUSIONES
Una característica muy propia y generalizada en la
Educación de las Ingenierías ha sido un marcado apego por
los esquemas tradicionales de enseñanza y evaluación. La
evaluación tradicional que se ha venido aplicando a los
estudiantes de los cursos del programa Ingeniería de
Telecomunicaciones de la UPC dista de ser formativa y en
ese sentido ha mostrado falencias para lograr aprendizajes
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
178
VAEP-RITA Vol. 3, Núm. 4, Dic. 2015
significativos en los estudiantes. Dada esta circunstancia se
encontró pertinente explorar nuevas formas de evaluación
que subsanaran la rigidez propia de la evaluación tradicional
que brindara a los estudiantes un panorama fresco y flexible
en materia de evaluación de sus aprendizajes.
En ese orden de ideas, se reconocen los aportes de la
aplicación de atributos de lo abierto a la evaluación, sobre
todo el libre acceso a la información y la oportunidad de
hacer remezcla en la elaboración de instrumentos
evaluativos parte del estudiante, de cara a una
personalización del proceso de evaluación.
En ese sentido, se evidenció que la evaluación abierta,
desde su componente colaborativo aportó al fortalecimiento
del aprendizaje en los estudiantes, debido al afianzamiento
en la confianza mutua por el trabajo en grupo, a la
posibilidad de interactuar para abordar con serenidad las
dudas relacionadas con la comprensión de algunos temas
complejos.
Ahora bien, no obstante la evidencia del aporte que “lo
abierto” aplica al proceso de evaluación, es necesario
reconocer que buena parte de sus limitaciones se generan
debido a la interiorización profunda de elementos asociados
a los esquemas tradicionales de evaluación. En la mayoría de
los estudiantes se genera temor ya que el trabajo
colaborativo en materia de evaluación se asocia fuertemente
con la “copia” o la “trampa”.
Por otra parte, aunque tanto profesores como estudiantes
reconocen que el proceso de evaluación abierta generó
resultados positivos en sus aprendizajes, todavía subsiste el
inconveniente de traducir los resultados de la evaluación en
forma de calificaciones numéricas. La equivalencia actual de
la evaluación con la promoción de los estudiantes a grados
superiores genera una desviación en la intencionalidad
formativa que debería tener la evaluación, porque induce al
estudiante a buscar un resultado que no necesariamente
refleje sus aprendizajes pero que le permita avanzar en el
desarrollo de sus estudios.
Cabe mencionar que el efecto generado por la
colaboración como atributo de “lo abierto” sobre el proceso
evaluativo, concuerda con lo obtenido por López, Martínez y
Julián [13]en el sentido de que una evaluación más abierta y
compartida motiva a los estudiantes, genera responsabilidad
y autonomía, incrementa el rendimiento y desarrolla
actividades metacognitivas en los mismos.
Por otra parte, en cuanto al atributo de remezcla en la
evaluación abierta, es decir, brindar al estudiante la
oportunidad de componer su propia evaluación a partir de
una diversidad de recursos educativos disponibles, diseñados
o previstos por el docente, se destaca la aceptación por parte
de los estudiantes y el mejoramiento de sus calificaciones.
Además de poderlos diligenciar de manera flexible en
tiempo y espacio, la remezcla posibilitó la adecuación del
ejercicio de evaluación a los estilos de aprendizaje de los
estudiantes, lo cual generó un mejoramiento en las
condiciones de motivación y autoconfianza, los cuales son
factores clave para el desarrollo del aprendizaje en general.
Para finalizar, cabe anotar que aunque se presentó un
incremento en el promedio de las notas de los dos últimos
períodos en los estudiantes participantes del estudio que
aprobaron el curso, se hace necesario implementar otros
procesos complementarios de verificación de los
aprendizajes que permitan identificar y reducir sesgos, si es
que existen, a raíz de la aplicación de los diversos atributos
de “lo abierto” en el proceso evaluativo.
Para efectos de profundizar en la comprensión del alcance
de la evaluación abierta, se recomienda la aplicación de un
mayor número de evaluaciones abiertas con relación a la
cantidad tradicional y realizar un seguimiento continuo del
aprendizaje de los estudiantes en las diferentes
oportunidades cuando se realiza realimentación.
AGRADECIMIENTOS
Agradecemos a la Maestría en Informática Educativa del
Centro de Tecnologías para la Academia de la Universidad
de la Sabana y a la Universidad Piloto de Colombia por su
colaboración efectiva y aportes a la investigación.
REFERENCIAS
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
R. Carneiro, J. C. Toscano, y T. Díaz, Los desafíos de las TIC para
el cambio educativo, vol. 32. Fundación Santillana, 2011.
Unesco y Microsoft, Unesco ICT competency Framework for
teachers. Paris: United Nations Educational, Scientific and Cultural
Organization, 2011.
M. S. Ramírez Montoya y J. V. Burgos Aguilar, Movimiento
Educativo Abierto: Acceso, colaboración y movilización de
recursos educativos abiertos. México, D.F.: Lulu.com, 2012.
U.-D. Ehlers y G. Conole, «Open Educational Practices:
Unleashing the power of OER. ICDE», 2010.
M.-Á. Gómez-Ruiz, G. Rodríguez-Gómez, y M. S. Ibarra-Sáiz,
«Development of basic competences of students in Higher
Education through Learning Oriented e-Assessment», RELIEVE Rev. Electrónica Investig. Eval. Educ., vol. 19, n.o 1, jun. 2013.
B. Salinas Fernández, La evaluación de los estudiantes en la
Educación Superior, Servei de Formació Permanent. Universitat de
València, 2007.
A. Chiappe, «Prácticas Educativas Abiertas como factor de
innovación educativa con TIC», Bol. REDIPE, n.o 818, pp. 6-12,
2012.
A. L. George y A. Bennett, «Case Studies and Theory Developmen
in the Social Sciences.», Lond. BCSIA Stud. Int. Secur., 2004.
F. C. Cabrera, «Categorización y triangulación como procesos de
validación del conocimiento en investigación cualitativa», theoria,
vol. 14, n.o 1, pp. 61–71, 2005.
C. Varguillas, «El uso de atlas. ti y la creatividad del investigador
en el análisis cualitativo de contenido UPEL. Instituto Pedagógico
Rural El Mácaro», Laurus Rev. Educ., vol. 12, pp. 73–87, 2006.
V. M. López Pastor, L. F. Martínez, y J. A. Julián Clemente, «La
Red de Evaluación Formativa, Docencia Universitaria y Espacio
Europeo de Educación Superior (EEES). Presentación del proyecto,
grado de desarrollo y primeros resultados.», Rev. Docencia Univ.,
vol. 2, p. 19, 2007.
S. González, J. J. Brunner, y J. Salmi, «Comparación internacional
de remuneraciones académicas: un estudio exploratorio», Calid. En
Educ., n.o 39, pp. 21-42, dic. 2013.
D. Boud, «Assessment 2020. Propositions for assessment reform in
higher education», Aust. Learn. Teach. Counc., 2010.
Andres Chiappe es Especialista en Investigación y Docencia Universitaria
de la Universidad Autónoma de Manizales in 1997, Magíster en Tecnología
Educativa del ITESM de Monterrey in 2002 y Doctor en Ciencias de la
Educación de la Universidad de Caldas en 2012. Es actualmente Profesor
Asociado e investigador del grupo de investigación "Tecnologías para la
Academia – Proventus” del Centro de Tecnologías para la Academia de la
Universidad de La Sabana, en Colombia.
Ricardo Pinto es Ingeniero Electrónico de la Universidad Antonio Nariño
en Bogotá en 1994, Especialista en Gestión de Proyectos de Ingeniería de la
Universidad Santo Tomás en Bogotá in 2002, Especialista en Enseñanza
Universitaria de la Universidad Piloto de Colombia en 2010, Magíster en
Informática Educativa de la Universidad de La Sabana en 2015. Es
actualmente profesor e investigador en la Universidad Piloto de Colombia.
Vivian Arias es Ingeniera Biomédica de la Universidad Antonio Nariño en
Bogota en 2000, Magíster en Informática Educativa de la Universidad de La
Sabana en 2013. Es actualmente profesora del Centro de Tecnologías para
la Academia de la Universidad de La Sabana, en Colombia.
ISSN 2255-5706 © IEEE-ES (Capítulo Español)
Descargar