GRUPO DE HIPERMEDIA Y MULTIMEDIA, LSI, UPV/EHU F I LT R A D O D E U N BA N C O D E I T E M S ROSA ARRUABARRENA Arruabarrena, R. Filtrado De Un Banco De Ítems. San Sebastián, University Of The Basque Country. Technical Report. Upv/Ehu/Lsi/Tr 02-2005. P. 60 0 FILTRADO DE UN BANCO DE ITEMS INDICE INTRODUCCIÓN.................................................................................................................... 3 METODOLOGÍA DEL PROCESO DEL FILTRADO ........................................................ 3 EJECUCIÓN DE LA FASES .................................................................................................. 4 SUJETOS PARTICIPANTES ......................................................................................................... 4 DISEÑO Y PREPARACIÓN DEL MATERIAL EN CUESTIONARIOS .................................................. 5 Datos a recopilar sobre los ítems originales ..................................................................... 5 Estructura de los cuestionarios ......................................................................................... 6 CAPTACIÓN DE LOS SUJETOS PASIVOS ..................................................................................... 6 CRITERIOS DE HOMOGENIZACIÓN ........................................................................................... 6 CRITERIOS PARA LA CORRECCIÓN DE LOS ÍTEMS ..................................................................... 7 CONDUCCIÓN DE LA PRUEBA DE CAMPO ................................................................................. 7 ANÁLISIS DE LOS DATOS Y CONCLUSIONES ............................................................................. 9 AGRACEDIMIENTOS Y SUBVENCIONES ..................................................................... 14 REFERENCIAS ..................................................................................................................... 14 2 FILTRADO DE UN BANCO DE ITEMS ROSA ARRUABARRENA SANTOS I N T RO D U C C I Ó N El trabajo que a continuación se presenta está enmarcado en un proyecto de mayor envergadura [1], que consta de cinco procesos, y siendo éste un subproceso de la instanciación de uno de ellos. El objetivo global es determinar la validez de una calibración de ítems utilizando estimaciones de expertos frente a la calibración por medios estadísticos que propugna la TRI [2]. Durante la realización de la prueba de campo para calibrar un banco de ítems vía expertos, se detecta que el banco de ítems de partida contiene errores en algunos ítems. Debido a lo costoso que resulta efectuar un proceso de calibración, se hace necesario asegurar la corrección de los ítems de partida. Para conseguir este objetivo se define y ejecuta el proceso que describimos a continuación. El punto de partida de este proyecto es el banco de ítems que usa para determinar el nivel de conocimiento de euskara de alumnos de nuevo ingreso en un euskaltegi vizcaíno de considerable tamaño, Zornotzako Barnetegia. Son 252 ítem textuales con cuatro opciones de respuesta posibles. En el anexo 1 “Banco ítems original” están enumerados todos los ítems recogidos en la actualidad en una única base de datos. Como resultado de este subproceso se espera obtener el banco de ítems de partida filtrado y uniformizado manteniendo el espíritu inicial de los ítems (sin generar ítems totalmente nuevos) y a partir de las informaciones proporcionadas por los revisores expertos, es decir, todos los ítems deben ser correctos desde el punto de vista lingüístico cumpliendo las normas vigentes de la Academia de la Lengua Vasca, Euskaltzaindia, y deben estar almacenados con criterios homogéneos (con independencia del formato de presentación que posteriormente se les vaya a aplicar). En este informe a continuación se presenta la metodología del proceso del filtrado definida así como la ejecución de la misma hasta la consecución del banco de ítems de partida filtrado y uniformizado. M E TO D O L O G Í A D E L P RO C E S O D E L F I LT R A D O Como ya se ha comentado, para efectuar el filtrado se ha decidido recabar la información entrevistando revisores expertos [3][4] mediante encuestas [5][6] plasmadas en cuestionarios de papel. Esta herramienta aporta información altamente fiable, basada en su experiencia, y redunda en credibilidad de los resultados [7]. Este proceso se desarrollará en las siguientes fases: • Definición de los sujetos participantes en el proceso. Se trata de establecer los sujetos activos que se encargan de llevar el proceso adelante. Entre sus competencias está el poner en marcha las tareas descritas más adelante. Por otro lado, también se deben describir quiénes serán los sujetos pasivos, 3 aquellos con los que contactarán los sujetos activos para recabar información. • Diseño y preparación del material en cuestionarios. Como el volumen del banco es considerable (252 ítems), y puesto que la colaboración de los sujetos pasivos será voluntaria, se hace materialmente imposible que cada uno de ellos revise todos los ítems. Es por ello que seguramente habrá que fraccionar el banco en varios cuestionarios y decidir qué datos sobre los ítems hay que recoger a través de los cuestionarios. • Captación de participantes pasivos. Una vez conocido el perfil de los sujetos pasivos se plantea el método para localizar e involucrarlos. • Criterios de homogenización y criterios para la corrección de los ítems. Los primeros son criterios de estilo, a fin de que todos los ítems presenten un formato uniforme. Los segundos son los criterios por los se han de regir los sujetos activos para aceptar o no las aportaciones de uno, varios o todos los sujetos pasivos. • Conducción de las pruebas de campo. Se trata de distribuir los cuestionarios a sujetos pasivos y recopilarlos. • Análisis de los datos para generar el banco de ítems filtrado y uniformizado y conclusiones. A partir de las aportaciones de los sujetos pasivos y con criterios de establecidos por los sujetos activos, estos últimos filtrarán y homogeneizarán el banco de ítems original actualizándolo. E J E C U C I Ó N D E L A FA S E S A continuación se presenta el desarrollo de cada una de las fases descritas en la metodología de la prueba de campo. SUJETOS PARTICIPANTES En el proyecto están involucrados tanto sujetos activos como pasivos. Los sujetos activos del proceso son profesores de la Universidad del País Vasco, imparten clases en euskara estando acreditados para ello por la propia universidad y poseen el título de EGA. Concretamente son: • Rosa Arruabarrena Santos como coordinadora y ejecutora principal del proceso de filtrado y de la prueba de campo de calibración de los ítems mediante expertos. Entre sus competencias están: establecer los criterios para uniformizar el banco de ítems, establecer los criterios de actuación ante las valoraciones aportadas por los sujetos pasivos, planificar, conducir y ejecutar las pruebas de campo para obtener la información necesaria para efectuar el filtrado, cometer el peinado del banco con la ayuda puntual de Javier López Cuadrado y elaborar un informe para recoger las anomalías detectadas. 4 • Javier López Cuadrado, desarrollador principal del proceso de calibración estadística de los ítems [1]. Cooperará puntualmente con Rosa Arruabarrena en el análisis de los datos para generar el banco de ítems filtrado. El proyecto considera como sujetos pasivos a los revisores de los ítems del banco de ítems. La labor de los revisores consistirá en determinar si los ítems que se les muestran son o no correctos desde el punto de vista lingüístico, indicar cuál es el error que contienen y proponer una solución para corregir el mismo. DISEÑO Y PREPARACIÓN DEL MATERIAL EN CUESTIONARIOS Como el volumen del banco es considerable (252 ítems), y puesto que la colaboración del revisor es voluntaria, se hace materialmente imposible que cada uno de ellos revise todos los ítems. Ello hace que se divida en dos partes iguales el banco original. Seguidamente se detallan los datos que se recogerán mediante los cuestionarios así como la estructura concreta de los mismos. DATOS A RECOPILAR SOBRE LOS ÍTEMS ORIGINALES Por cada ítem se solicitará al revisor a lo sumo las siguientes tres informaciones: La valoración sobre la corrección o no del ítem desde el punto de vista lingüístico. Es decir, si la pregunta y sus opciones de respuesta están correctamente enunciadas cumpliendo las normas de Euskaltzaindia. En caso de que el ítem presente algún error, se le solicita la especificación numérica del tipo de error contenido en el ítem. Como propuesta de partida se proporcionará una lista enumerada de tipos de errores posibles, propuesta a ampliar si el error hallado no está incluido en la misma. Concretamente, se presenta la siguiente recopilación de descripciones de posibles errores: Código de error 0 1 2 3 4 5 6 7 8 9 10 11 12 Descripción del error Hueco de respuesta no homogéneo (9 caracteres “.”) La puntuación del final de la oración (enunciado) terminada en hueco de respuesta; ha de trasladarse a las opciones. Falta la puntuación al final de las opciones Falta la puntuación al final del enunciado El texto en castellano ha de ir entrecomillado No es un error propiamente, pero bien por mayor claridad bien por mejora del estilo, se redacta el ítem según propuesta. Ejemplo: EUROAK>EUROak, … El hueco de respuesta no se representa con subrayo. Trascripción errónea. Ejemplos: Atzso->Atzo; jaieta->jaietan,… La elipsis se representa por 3 caracteres “.” (para no confundirla con los huecos de las respuestas). Hay más de una opción como posible respuesta. El verbo ”Eutsi” requiere otra conjugación verbal gramaticalmente Tiene alguna opción de respuesta difícil de entender. Ítem ininteligible/incomprensible 5 Igualmente, en el caso de que el ítem sea erróneo se solicita al revisor una propuesta de corrección al mismo. ESTRUCTURA DE LOS CUESTIONARIOS A la hora de establecer la estructura de los cuestionarios, se recurre a la estructura y formato revisados de los cuestionarios del superproceso de calibración de un banco de ítems vía expertos [8], adaptándolo al subproceso de filtrado tal y como se describe a continuación. La estructura del cuestionario está formada por una introducción, por una recogida de datos personales, de detección de ítems erróneos y las aportaciones propias. La estructura y su formato se pueden observar en el anexo 2 “Cuestionarios para la detección de errores en el banco de ítems”, donde se encuentra un cuestionario proporcionado a los revisores del que se han eliminado la mayoría de los ítems del apartado detección de ítems erróneos, ya que éstos están disponibles en el anexo 1 “Banco de ítems original”. La introducción presenta el objetivo de trabajo y agradece la voluntaria participación en el mismo. A continuación, se presentan las instrucciones de cumplimentación del cuestionario. Contiene un listado, ampliable por el revisor, de posibles errores localizables en los ítems. La recogida de datos personales del participante pretender recoger datos estadísticos del sujeto que cumplimenta el cuestionario como su edad, sexo, titulación superior, titulación lingüística y experiencia laboral en el área. Estos datos sirven para agrupar los resultados y deducir resultados estadísticos. Posteriormente se presenta el apartado detección de ítems erróneos. Como se ha comentado antes, se trata un subconjunto del banco de ítems. Por cada uno de los ítems se le requiere comprobar su corrección lingüística. Y sólo en el caso de que sea incorrecto, además, se solicitan indique qué tipo (número) de error contiene y proponga alguna solución. Finalmente se solicitan aportaciones propias al participante. Se trata de una pregunta abierta para recoger comentarios y/o sugerencias. CAPTACIÓN DE LOS SUJETOS PASIVOS Se contacta directamente con los cinco revisores de las pruebas piloto del proceso de calibración del banco de ítems vía expertos. Para mayor información sobre los mismos se puede consultar el informe [8]. CRITERIOS DE HOMOGENIZACIÓN Los sujetos activos establecen los siguientes criterios de estilo para lograr un banco de ítems homogéneo que será el que se presente a los revisores. La guía de estilo es la siguiente: Los huecos de las respuestas tienen 9 caracteres “.” ortográfico. Cuando el hueco de la respuesta queda al final de la oración: Si la oración acaba en punto ortográfico, éste se recoge en al final de cada una de las opciones. Si tiene “!”, “?”, éste se recoge a final del propio enunciado a continuación del hueco de la respuesta. 6 Se utilizarán tres puntos ortográficos como sinónimo de etcétera o para denotar que parte de la oración se deja premeditadamente en elipsis, pudiendo aparecer ésta al inicio, fin o a mitad del enunciado. Las menciones en otros idiomas se recogen entrecomilladas. CRITERIOS PARA LA CORRECCIÓN DE LOS ÍTEMS Los sujetos activos definen el siguiente protocolo de actuación ante las aportaciones de los revisores sobre errores en cada uno de los ítems: Si no hay comentario alguno, el ítem es correcto. Si la aportación es sobre ortografía o violación de alguna regla de Euskaltzaindia, con independencia del número de revisores que comenten el error, se subsana. Si hubiera alguna duda, se comprueba la veracidad o bien del error o bien de la regla de corrección. Si se detecta un patrón de error (ej. la puntuación en las oraciones subordinadas), se subsana no sólo el ítem que lo contiene, sino que se revisa y actualiza todo el banco de ítems. Si un revisor afirma la existencia del error y aporta solución, se subsana. Si un revisor opina que pudiera existir un error y aporta solución, se comprueba en la bibliografía (reglas Euskaltzaindia, HABE, diccionarios actualizados,…), y se subsana, si procede. Si la duda no es aclarada, se consulta algún revisor más, hasta un total de cuatro revisores por ítem. Si un revisor de un ítem expresa sus dudas sobre la corrección de un ítem, es decir, no asegura que el ítem sea correcto, y los revisores posteriores no detectan ningún problema, se considera el ítem correcto. Si el ítem ha sido revisado por tres o cuatro revisores, y al menos dos opinan que hay dudas razonables sobre su corrección (normalmente, ítem ambiguo o con más de una respuesta posible) y han aportado una solución compatible o no contradictoria, se acepta; sino no. En aquellos casos en los que las propuestas de corrección son o bien contradictorias o no hay propuesta de corrección, no se modifica el ítem pero se registra el error. CONDUCCIÓN DE LA PRUEBA DE CAMPO Primeramente se revisan todos los ítems aplicando los criterios de estilo para uniformizar el banco de ítems. Más tarde, se elaboran dos cuestionarios distintos con 126 ítems distintos cada uno a partir del marco del cuestionario de la prueba piloto del proceso de calibración vía expertos. La conducción real de prueba se extiende entre noviembre de 2003 y enero de 2004. La prueba se realiza sobre cuatro revisores a fin de que cada ítem al menos sea comprobado por dos revisores distintos. Los revisores detectan 4 tipos de errores más, que se recogen en la siguiente tabla: 7 Código de error 13 14 15 16 Descripción del error Error ortográficos por nuevas decisiones de la academia de la lengua vasca, Euskaltzaindia Regla de Euskaltzaindia respecto puntuaciones en oraciones subordinadas (“, baina”≡ “…, mas …”, etc.) Ítem ambiguo. Mejorar el estilo o reescribir el enunciado para eliminar la ambigüedad Todas las opciones incorrectas A continuación se recogen los ítems erróneos organizados por tipo de error así como el número de veces que ha sucedido ese tipo de error en el banco: Tipo de error 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Ítems que lo contienen Núm. repeticiones. 10, 17, 20, 27, 28, 29, 30, 32, 33, 34, 35, 42, 43, 47, 49, 51, 53, 54, 55, 56, 57, 58, 60, 61, 62, 64, 67, 68, 70, 71, 74, 76, 77, 79, 80, 81, 82, 84, 85, 86, 87, 88, 90, 91, 92, 94, 95, 101, 103, 106, 108, 110, 114, 115, 119, 120, 121, 125, 130, 131, 134, 136, 137, 138, 139, 140, 141, 142, 143, 144, 145, 146, 147, 148, 149, 150, 151, 152, 159, 162, 164, 165, 166, 167, 169, 172, 173, 174, 176, 177, 178, 179, 180, 181, 182, 183, 184, 185, 186, 187, 188, 189, 191, 192, 193, 194, 195, 196, 197, 198, 199, 200, 201, 202, 203, 204, 206, 207, 208, 210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 222, 223, 224, 225, 226, 227, 228, 230, 231, 232, 233, 234, 237, 238, 241, 244, 247, 248, 249 191, 195, 196, 197, 199, 201, 202, 207, 211, 212, 214, 219, 227, 247 87, 88, 91, 111, 121, 122, 147, 164, 165, 168, 216 184 89, 96 136, 185, 235, 240, 242, 245, 249 59 61, 112, 181 109 29, 63, 77, 102, 127, 129, 140, 141, 148, 151, 152, 155, 162, 165, 166, 170, 186, 191, 212, 225, 227, 229, 237, 242, 245, 251 165 240 217 27, 44, 50, 64, 73, 145, 173 36, 53, 56, 73, 89, 95, 96, 108, 109, 114, 119, 124, 125, 126, 140 18, 49, 53, 56, 108, 109, 113, 123, 132, 134, 135,146, 168, 171, 177, 178, 187, 190, 193, 195, 198, 221, 249, 252 202 149 14 11 1 2 7 1 3 1 26 1 1 1 7 15 24 1 265 Con la prueba de campo se han revisado 536 ítems repartidos en cuatro cuestionarios con 126 ítems cada uno y 32 ítems más como consecuencia de dos consultas extras a dos revisores más para aclarar algunas aportaciones o la falta de las 8 mismas en algunos ítems. La relación de ítems para los cuales se ha solicitado alguna valoración extra es la siguiente: Nº revisores extras 1 2 Ítems consultados 56, 59, 61, 77 121, 123, 153, 157, 166, 170, 191, 202, 217, 227, 229, 237, 242, 245 Nº ítems consultados 4 14 Se entiende que los ítems 56, 59,… los han sido estudiados por 3 revisores finalmente para aclarar dudas planteadas sobre los mismos y que los ítem 121, 123,... han necesitado de 4 revisores. En resumen, se han detectado 265 errores individuales distribuidos en 184 ítems. ANÁLISIS DE LOS DATOS Y CONCLUSIONES Durante esta prueba se detectan 17 tipos de error de distinto calado. Los errores detectados inicialmente por los participantes son básicamente errores de tipo ortográfico, de estilo y nuevas reglas Euskaltzaindia aún no reflejadas. Durante esta prueba es cuando se han revisado todos los ítems al menos por dos revisores y se detectan errores de mayor calado. A fin de agrupar tipos de errores similares y determinar así el calado o grado de importancia del error contenido en el ítem, se realiza una metaclasificación de los 17 tipos de errores. Se consideran dos grados de meta-errores: grave o leve, y se transporta el mismo grado a todos los errores de la clase. Ello tiene consecuencia directa en la subsanación del ítem que contiene el error, ya que un ítem con error leve, necesita una modificación leve, mientras si tiene un error leve y otro grave o simplemente uno grave, la corrección exige un retoque considerable del ítem, circunstancia que se ha recogido también en la tabla siguiente. Meta-Error Estilo Error de trascripción Error gramatical (Nuevas reglas de Euskaltzaindia) Ambigüedad o bien en el propio enunciado o bien porque puede haber más de una respuesta posible Ítem incompresible/ininteligible o con todas las opciones incorrectas Tipos de errores que engloba 0, 1, 2, 3, 4, 8 5, 6, 7 10, 13, 14 Gravedad del meta-error Leve Leve Grave 11, 15, 9 Grave 12, 16 Grave Con respecto a la gravedad de los errores, indicar que los tipos de errores de grano fino numerados del 9 al 16 se han considerado graves, incluidos los errores gramaticales por nuevas reglas de Euskaltzaindia, ya el banco de ítems ha de integrarse en aplicaciones para la enseñanza del Euskara. La siguiente tabla recoge una descripción detallada de los errores detectados por ítem así como si se ha o no subsanado el error, dando lugar a una modificación leve (M) o bien considerable (R) del ítem, lo cual no significa que el ítem ya no sea erróneo. De esta forma, la modificación leve indica que, el error no era/es grave o crítico, y por ello, no 9 tiene importancia capital en que la base de datos original no llegue a registrarse la modificación. Sin embargo, la modificación grave, indica que empleándose el ítem en una aplicación de aprendizaje del Euskara, no es tolerable que contenga un error de tal índole, y debe necesariamente recogerse la modificación propuesta. N. Ítem Tipo de Modif. leve (M) error ó retoque importante (R) 10 0 M 17 0 M 18 15 R 20 0 M 27 0,13 R 28 0 M 29 0,9 R 30 0 M 32 0 M 33 0 M 34 0 M 35 0 M 36 14 R 42 0 M 43 0 M 44 13 R 47 0 M 49 0,15 R 50 13 R 51 0 M 53 0,14,15 R 54 0 M 55 0 M 56 0,14,15 R 57 0 M 58 0 M 59 6 M 60 0 M 61 0,7 M 62 0 M 63 9 R 64 0,13 R 67 0 M 68 0 M 70 0 M 71 0 M 73 13,14 R 74 0 M 76 0 M 77 0,9 R 79 0 M N. Ítem Tipo de Modif. leve (M) error ó retoque importante (R) 80 0 M 81 0 M 82 0 M 84 0 M 85 0 M 86 0 M 87 0,2 M 88 0,2 M 89 4,14 R 90 0 M 91 0,2 M 92 0 M 94 0 M 95 0,14 R 96 4,14 R 101 0 M 102 9 R 103 0 M 106 0 M 108 0,14,15 R 109 8,14,15 R 110 0 M 111 2 M 112 7 M 113 15 R 114 0,14 R 115 0 M 119 0,14 R 120 0 M 121 0,2 M 122 2 M 123 15 R 124 14 R 125 0,14 R 126 14 R 127 9 R 129 9 R 130 0 M 131 0 M 132 15 R 134 0,15 R 10 N. Ítem Tipo de Modif. leve (M) error ó retoque importante (R) 135 15 136 0,5 M 137 0 M 138 0 M 139 0 M 140 0,9,14 R 141 0,9 R 142 0 M 143 0 M 144 0 M 145 0,13 R 146 0,15 R 147 0,2 M 148 0,9 R 149 0 M 150 0 M 151 0,9 R 152 0,9 R 155 9 R 159 0 M 162 0,9 R 164 0,2 M 165 0,2,10,9 R 166 0,9 R 167 0 M 168 2,15 R 169 0 M 170 9 R 171 15 R 172 0 M 173 0,13 M 174 0 M 176 0 M 177 0,15 R 178 0,15 R 179 0 M 180 0 M 181 0,7 M 182 0 M 183 0 M 184 0,3 M 185 0,5 M 186 0,9 R 187 0,15 R 188 0 M 189 0 M 190 15 R 191 0,1,9 M N. Ítem Tipo de Modif. leve (M) error ó retoque importante (R) 192 0 M 193 0,15 R 194 0 M 195 0,1,15 R 196 0,1 M 197 0,1 M 198 0,15 R 199 0,1 M 200 0 M 201 0,1 M 202 0,1,16 R 203 0 M 204 0 M 206 0 M 207 0,1 M 208 0 M 210 0 M 211 0,1 M 212 0,1,9 R 213 0 M 214 0,1 M 215 0 M 216 0,2 M 217 0,12 R 218 0 M 219 0,1 M 220 0 M 221 15 R 222 0 M 223 0 M 224 0 M 225 0,9 M 226 0 M 227 0,1,9 R 228 0 M 229 9 R 230 0 M 231 0 M 232 0 M 233 0 M 234 0 M 235 5 M 237 0,9 R 238 0 M 240 5,11 M 241 0 M 242 5,9 M 244 0 M 11 N. Ítem Tipo de Modif. leve (M) error ó retoque importante (R) 245 5,9 R 247 0,1 M 248 0 M N. Ítem Tipo de Modif. leve (M) error ó retoque importante (R) 249 0,5,15 R 251 9 R 252 15 R Con respecto al peinado efectuado, cabe destacar que había una serie de errores, mayoritariamente del tipo 9 y 15, cuya corrección no era automática y que se han podido corregir gracias a las aportaciones de los revisores. Dichos ítems están recogidos en la siguiente tabla: Descripción de la situación del ítem tras el filtrado Error resuelto, notificado por uno (pero con solidez) o más revisores Total: Ítems en que sucede 18, 29, 49, 53, 56, 63, 74, 108, 109, 113, 123, 127, 129, 132, 134, 140, 141, 151, 155, 162, 165, 166, 168, 171, 177, 187, 190, 193, 195, 212, 217, 221, 227, 245, 251, 252 36 ítems Atendiendo a los criterios de corrección y tratamiento de errores a partir de las aportaciones de los revisores, hay unos ítems que siguen siendo potencialmente erróneos, tras el proceso de filtrado y corrección, y conviene quede constancia de ello. Esto puede deberse a que existen dudas de que la corrección aplicada a un ítem con tipo de error grave solvente el problema descubierto. Una segunda posibilidad es que no haya habido aportación para solventar el error detectado. La última causa es que se trate de un ítem sobre el que un único revisor haya indicado la posible existencia del error pero sin aportación solución alternativa, y por ello no se ha registrado como ítem erróneo. A continuación se hace una enumeración y descripción de los mismos: Descripción de la situación del ítem tras el filtrado Error sin solucionar, con o sin modificación del ítem Se ha intentado subsanar el error, pero hay dudas de haberlo logrado Contiene alguna duda notificada por un único revisor, no se ha considerado error Total: Ítems en que sucede 135, 191, 225, 240, 242 77, 102, 146, 148, 152, 170, 178, 186, 198, 202, 229, 237, 249 1, 13, 16, 59 22 ítems A modo de resumen, indicar que estando compuesto el banco por 252 ítems, en la prueba se han revisado 536 ítems y se han detectado un total de 265 errores en 184 ítems del banco, de los cuales 189 eran leves y 76 graves. De ese número de errores registrados, se han subsanado 247, es decir, el 93,2% de los errores detectados se han ciertamente subsanado. Destacar, que sin las aportaciones de los 5 revisores hubiera sido imposible subsanar 36 de los 76 errores graves, ya que la corrección de dichos errores no es automática aún tras su detección. Sin embargo, aún con las aportaciones e incluso habiendo realizado algunas modificaciones, persisten 18 ítems potencialmente peligrosos (de los 76 errores graves detectados). Concretamente, y en opinión de los revisores, 5 ítems siguen siendo erróneos y hay dudas sobre los otros 13. 12 Respecto a los restantes 211 errores (cifra obtenida de restar al numero total de errores, 265, los 36 ítems subsanados de forma no automática y los 18 ítems potencialmente erróneos), una vez detectados, no cabe duda que las modificaciones efectuadas han generado ítems correctos, ya que las modificaciones son sistemáticas. En esta recapitulación no queremos dejar de lado la existencia 4 ítems, que no habiéndolos registrado como erróneos, hay algún revisor que ha mostrado su recelo por la corrección de los mismos. No obstante, los revisores no han aportado modificación alguna para despejar sus dudas. Dicho inclusión aumentaría de 18 a 22 los ítems potencialmente erróneos por inclusión de 4 ítems más, cuya corrección algún revisor ha dudado, pero que no se ha registrado. Sin embargo, dicha inclusión tan sólo incrementa en un 0,7% el número de ítems dudosos. En consecuencia y tras el peinado del banco de ítems tenemos que aproximadamente el 8% de los ítems del banco actual son finalmente dudosos. La siguiente tabla sintetiza los resultados del trabajo realizado anteriormente expuestos: Detectados en el filtrado Número de ítems con algún tipo de error: Número de ítems con errores únicamente leves: Número de ítems que contienen al menos un error grave: 184 116 68 Núm. total de errores detectados (registrado): Núm. total de errores leves: Núm. total de errores de calado importante: 265 189 76 Datos tras la corrección Núm. de ítems modificados en total: 183 Núm. de ítems con modificación tipo leve: 120 Núm. de ítems con modificación cuyo registro es imprescindible 63 Núm. de errores subsanados en total: Núm. de ítems subsanados por aportaciones propias de los revisores (en calidad de expertos) y no subsanables de otra forma: Núm. de ítems que contienen algún error sin solucionar: Núm. de ítems que podrían aún ser erróneos: Núm. de ítems con propuesta de error no aceptado (no registrado): 247 36 5 13 4 El resultado final del proceso de homogeneización y filtrado del banco de ítems original se halla recogido en el anexo 3 bajo ese mismo nombre “Banco de ítems homogeneizado y filtrado”, pudiéndose apreciar en el mismo las diferencias entre la versión final del banco de ítems y la original. 13 A G R A C E D I M I E N TO S Y S U B V E N C I O N E S Se agradece a Fidel Altuna, Maria Jesús Aranzabe, Mikel Lersundi, Iñaki Picabea y Luis Mari Asurabarrena por su labor efectuada como revisores del banco de ítems. Se agradece a Javier López-Cuadrado por sus aportaciones en el análisis los datos a la hora de generar el filtrado de los ítems. Se agradece a Tomás A. Pérez por la supervisión y reorganización del trabajo aquí presentado. El desarrollo de este trabajo ha sido subvencionado por el proyecto “Desarrollar una competencia universitaria transfonteriza sobre el proceso de e-learning.”, Consejo Regional de Aquitania y Gobierno Vasco, convocatoria 2003-2004. REFERENCIAS [1] Arruabarrena, R., J. A. Vadillo, et al. (2003). Are Experts Difficulty Guessing And Statistical Results Comparable? ICTE2003. Conf. Internacional de Tecnológías de la Información y Comunicación en la Educación., Badajoz. [2] López-Cuadrado, J., T. A. Pérez, et al. (2002). Integrating Adaptive Testing in an Educational System. Educational Technology in Cultural Context: ETCC2002. First International Conference on, Joensuu, Finland, University of Joensuu. [3] Mark, M. A. and J. E. Greer (1993). "Evaluation Methodologies for Intelligent Tutoring Systems." International Journal of Artificial Intelligence in Education. Special Issue on Evaluation 4(2/3): 129-153. [4] Tessmer, M. (1993). Planning and Conducting: Formative Evaluations. London, Kogan Page Limited. [5] Dix, A., J. Finlay, et al. (1998). Human-Computer Interaction, 2nd edition, Pearson Education Limited. [6] Shneiderman, B. (1998). Designing the User Interface, 3rd edition, Addison Wesley Longmang, Inc. [7] Nielsen, J. and R. L. Mack (1994). Usability Inspection Methods, John Wiley &Sons, Inc. [8] Arruabarrena, R. Pérez, T.A. (2005). Pruebas de campo para calibrar un banco de ítems vía expertos. Technical Report San Sebastián, University of the Basque Country. Ref.: UPV/EHU/LSI/TR 03-2005. 14