PONTIFICIA UNIVERSIDAD CATOLICA DE CHILE ESCUELA DE INGENIERIA MODELO DE EVALUACIÓN Y DISEÑO DE TEST DE PENSAMIENTO CRÍTICO EN EL DOMINIO DE LENGUAJE Y COMUNICACIÓN PARA EDUCACIÓN PRIMARIA RODRIGO DEL RÍO JOGLAR Tesis para optar al grado de Magister en Ciencias de la Ingeniería Profesor Supervisor: MIGUEL NUSSBAUM Santiago de Chile, (Agosto, 2015) © 2015, Rodrigo del Río PONTIFICIA UNIVERSIDAD CATOLICA DE CHILE ESCUELA DE INGENIERIA MODELO DE EVALUACIÓN Y DISEÑO DE TEST DE PENSAMIENTO CRÍTICO EN EL DOMINIO DE LENGUAJE Y COMUNICACIÓN PARA EDUCACIÓN PRIMARIA RODRIGO DEL RÍO JOGLAR Tesis presentada a la Comisión integrada por los profesores: MIGUEL NUSSBAUM (SUPERVISOR) YADRÁN ETEROVIC (INTEGRANTE) PABLO CHIUMINATTO (INVITADO) DAVID PREISS (INVITADO) YADRÁN ETEROVIC (REPRESENTANTE POSGRADO) Para completar las exigencias del grado de Magíster en Ciencias de la Ingeniería Santiago de Chile, (Agosto, 2015) A mis padres, al futuro de estas tierras, a Nicole. ii AGRADECIMIENTOS Quisiera agradecer primero a la Pontificia Universidad Católica de Chile por abrir sus puertas a investigaciones interdisciplinarias y dotar a los académicos de un ambiente propicio para resolver los problemas más urgentes de nuestro país. Además, quisiera recalcar la fundamental labor que realiza el Departamento de Ciencias de la Computación de la Facultad de Ingeniería por expandir el horizonte de sus estudiantes y promover el diálogo crítico, siempre en una atmósfera de respeto y compañerismo. Especialmente, quisiera agradecer al profesor Pablo Chiuminatto, por su fe, su amistad y por invitarme a imaginar nuevos terrenos para el desarrollo intelectual. También a Miguel Nussbaum, por la confianza de recibirme en su grupo de investigación, invitarme a compartir su visión sobre el problema educacional chileno y guiar la presente tesis a buen puerto. No puedo dejar de agradecer a mis compañeros Damián Gelerstein y Martín Cáceres, con quienes trabajé codo a codo por develar el significado de nuestra investigación. Debo mencionar aquí también al profesor Cristián Opazo, quien me ha acompañado y aconsejado con sabiduría en el curso de mis estudios en esta universidad. Quisiera agradecer también a mis padres por su apoyo incondicional en mis derivas profesionales e intelectuales, además de su afecto y alegría para acompañarme siempre en nuevos desafíos. Finalmente, a Nicole; por su amor, por su paciencia, por enaltecer lo mejor en mí. Bajo su mirada atenta se gestó todo lo que hay de virtud en este trabajo. Los vicios, por supuesto, son absoluta responsabilidad mía. iii INDICE GENERAL AGRADECIMIENTOS ....................................................................................................... iii INDICE DE TABLAS ......................................................................................................... vi INDICE DE FIGURAS ....................................................................................................... vii RESUMEN ......................................................................................................................... viii ABSTRACT ......................................................................................................................... ix PRÓLOGO ............................................................................................................................ 1 1. MOTIVACIÓN: HACIA UN MODELO DE EVALUACIÓN DE PENSAMIENTO CRÍTICO ............................................................................................................................... 3 1.1 Habilidades del siglo XXI ..................................................................................................... 3 1.2 Nuevo paradigma de evaluación ............................................................................................... 6 1.3 Pensamiento crítico ................................................................................................................... 9 1.3.1 Importancia de pensamiento crítico en la educación contemporánea ............................... 9 1.3.2 Evaluación del pensamiento crítico ................................................................................. 13 1.4 Cultura .................................................................................................................................... 16 1.5 Modelo de evaluación de pensamiento crítico y cultura ......................................................... 20 1.5.1 Relación entre pensamiento crítico y cultura .................................................................. 20 1.5.2 Modelo de mediación ...................................................................................................... 23 2. TAREAS IMPLEMENTADAS. DISEÑO Y VALIDACIÓN DE TEST DE PENSAMIENTO CRÍTICO................................................................................................ 27 2.1 Test de pensamiento crítico. ............................................................................................... 27 2.1.1 Introducción ..................................................................................................................... 27 2.1.2 Metodología ..................................................................................................................... 31 2.1.2.1 Definición del test......................................................................................................... 31 2.1.2.2 Criterios de validación del instrumento. ....................................................................... 36 2.1.2.3 Trabajo Experimental ................................................................................................... 38 2.1.3 Resultados ............................................................................................................................ 39 2.1.3.1 Validez del constructo .................................................................................................. 39 iv 2.1.3.2 Validez del contenido ................................................................................................... 40 2.1.3.3 Validez de criterio y Pearson product-moment correlation .......................................... 40 2.1.3.4 Confiabilidad ................................................................................................................ 40 2.1.3.5 Análisis de ítems........................................................................................................... 41 2.1.3.4 Diferencias entre colegios ............................................................................................ 42 2.1.4 Conclusiones ........................................................................................................................ 44 CONCLUSIONES FINALES ............................................................................................. 47 BIBLIOGRAFIA................................................................................................................. 50 ANEXOS............................................................................................................................. 68 Anexo A. Tablas ........................................................................................................................... 69 Anexo B. Paper en ingles .............................................................................................................. 74 Anexo C. Recepción del Paper en Revista Académica............................................................... 107 v INDICE DE TABLAS Tabla 1: Participantes en el estudio según nivel socioeconómico y género ....................... 39 Tabla 2: Resumen discriminación y Dificultad por pregunta ............................................. 42 Tabla 3: Promedios por curso y tipo de colegio .................................................................. 43 Tabla 4: : Resumen puntajes y dimensiones ....................................................................... 69 Tabla 5: Valores promedio de Dificultad y Discriminación para el pre y post Análisis de Ítems. .. 74 vi INDICE DE FIGURAS Figura 1: Modelo de mediación .......................................................................................... 24 Figura 2: Modelo de mediación aplicado a las variables de pensamiento crítico y cultura................ 25 Figura 3: Método de testeo de un modelo de mediación. ................................................... 25 Figura 4: Ejemplo de pregunta ............................................................................................ 36 vii RESUMEN La actual tendencia en la investigación en educación escolar reconoce la necesidad de la integración de las llamadas “habilidades del siglo XXI” al currículum y a la instrucción escolar. Una de las habilidades centrales, en este sentido, es el pensamiento crítico, que es reconocido al interior del currículum nacional. La consecuencia de cambiar la orientación curricular hacia este nuevo paradigma implica una transformación de la evaluación de estas competencias. Sin embargo, hoy no se dispone de instrumentos específicos que cumplan este propósito para los niveles de educación primaria. Esta investigación plantea un modelo de evaluación y el diseño de un test de pensamiento crítico para estudiantes de tercer y cuarto grado. El test se diseñó específicamente en el dominio de lenguaje y comunicación mediante la utilización de una novela gráfica. El test fue validado por medio del análisis de: validez del constructo, del contenido, del criterio, además de un análisis de la confiabilidad y de ítems. El instrumento presenta un diseño adecuado a modelos multidimensionales de la habilidad evaluada, que entrega una imagen más detallada y completa del aprendizaje del estudiante. Una vez validado el instrumento, los datos permitieron examinar la diferencia en el nivel de pensamiento crítico de los estudiantes de acuerdo a su estrato socioeconómico. Se encontraron diferencias significativas en el nivel de pensamiento crítico entre los grupos. Estas diferencias deberían ser consideradas en futuras investigaciones dadas las posibles influencias del factor socioeconómico sobre la evaluación de pensamiento crítico en estudiantes de educación primaria. Esta tesis contó con el apoyo de CONICYT-FONDECYT 1150045 y del Proyecto Interdisciplinario de Investigación VRI Nº13/2014. Palabras Claves: pensamiento crítico, modelos de evaluación, habilidades del siglo XXI, cultura, narrativa gráfica y textual viii ABSTRACT The current trend in educational research recognizes the necessity to integrate the so called “21st century skills” into the school curriculum. One of the most important skills, in this sense, is critical thinking, which is recognized in the national curriculum. The consequence to change the curricular orientation to this new paradigm implies a transformation of the assessment of these competences. However, there are not available instruments that fit this purpose for primary education. This research is directed towards the cosntruction of an assessment model and the design of a test of critical thinking for students in 3rd and 4th grade. The test was specifically in the domain of language and communication by means of a graphic novel. The validity of the test was determined by analyzing the construct, content and criterion validity, as well as its reliability and performing an item analysis. The instrument shows an adequate design according to a multidimensional model of the assessed skill, which delivers a more detailed and complete picture of the student’s learning. Once it was validated, the collected data allowed us to examine differences in the level of critical thinking according to the student’s socioeconomic status. Significant differences were found between the groups. These differences should be considered in future research due to possible influences of the socioeconomic fator over the assessment of skills in primary education contexts. This thesis had the support of CONICYT-FONDECYT 1150045, and of the VRI Interdisciplina Research Project N° 13/2014. Keywords: Critical Thinking, Assessment models, 21st Century Skills, Culture, Graphic and Textual Narrative ix 1 PRÓLOGO La actual tendencia en la investigación en educación escolar reconoce la necesidad de la integración de las llamadas “habilidades del siglo XXI” al currículum y a la instrucción escolar. Una de las habilidades centrales, en este sentido, es el pensamiento crítico, que es reconocido al interior del currículum nacional. El Ministerio de Educación de nuestro país expresa en un reciente reporte que el pensamiento crítico ha cobrado “mayor importancia que nunca”, por la influencia de la gran cantidad de selección, lectura y evaluación de información provocada por los nuevos medios de comunicación digital (Mineduc, OCDE & SIMCE, 2011, p.21). Una instrucción adecuada de esta habilidad requiere que los profesores y los establecimientos tengan un panorama adecuado del nivel de pensamiento crítico de los estudiantes (Ennis, 1993). Sin embargo, los actuales modelos de evaluación entregan una imagen parcial o distorsionada del aprendizaje de los estudiantes, ya que utilizan métodos reduccionistas para evaluar competencias de carácter multidimensional (Conley, 2015). En este sentido, el objetivo de este trabajo es diseñar un test que evalúe pensamiento crítico para lograr a través de datos una imagen más acabada del aprendizaje de los estudiantes chilenos en educación primaria. Por lo tanto, es necesario revisar el modo en que se puede diseñar de manera apropiada un instrumento de evaluación de pensamiento crítico para luego implementarlo y probar su rendimiento en contextos educacionales reales. 2 El primer capítulo presenta el marco general de la evaluación de “habilidades del siglo XXI”, al que se ciñe este trabajo. Luego, se especifican los conceptos que guiarán la construcción de un modelo de evaluación integrado, en particular, los conceptos de pensamiento crítico y cultura. Finalmente, se describe un modelo estadístico de mediación mediante el cual es posible implementar un test que integre factores culturales en la evaluación del pensamiento crítico. El segundo capítulo es un paper que describe el diseño, validación e implementación de un test de pensamiento crítico basado en una novela gráfica para estudiantes de tercer y cuarto grado. Además, se analiza la posible influencia del estrato socioeconómico sobre el nivel de pensamiento crítico de los estudiantes. El tercer capítulo revisa las conclusiones generales del trabajo realizado en la construcción del modelo y diseño del test de pensamiento crítico. Finalmente, en los anexos, se encuentra la versión en inglés del paper enviado junto a la carta de recepción a la revista académica Thinking Skills and Creativity. 3 1. MOTIVACIÓN: HACIA UN MODELO DE EVALUACIÓN DE PENSAMIENTO CRÍTICO 1.1 Habilidades del siglo XXI Los últimos años han visto levantarse una enérgica demanda de la ciudadanía por una mejor educación para nuestro país. En general, el problema se ha centrado en el financiamiento de los establecimientos educacionales, cuya máxima expresión es una reforma en curso por parte del gobierno de Michelle Bachelet centrada en superar la segregación en los colegios. Sin embargo, este énfasis ha oscurecido en buena medida el debate sobre calidad en la educación. En este trabajo propongo revisar un aspecto de este espinoso problema y volver a cuestionarnos qué necesidades plantean nuestros tiempos a nuestros estudiantes. Un reciente reporte conjunto de la UNESCO y la UNICEF llama a los estudiantes del mundo a convertirse en ‘‘self-directed learners who can address their own wants and concerns and can advocate for their goals and aspirations’’ (Sayed, 2013). Este llamado responde a un reclamo general por una enseñanza más relevante y significativa para el nuevo contexto económico y social. En la actual sociedad del conocimiento, la división del trabajo gracias a la tecnología ha hecho que se le otorgue un menor énfasis al intercambio de la información y se privilegian las competencias que apuntan a la comprensión de la información (Levy & Murnane, 2012). 4 Para responder a este reclamo se han desarrollado diversos frameworks alrededor del movimiento llamado “habilidades del siglo XXI”, cuyo impacto en educación ha sido fundamental para volver a pensar las necesidades educacionales de nuestra sociedad. En contraposición a los requerimientos del currículum tradicional, basados fundamentalmente en alfabetización, matemáticas y ciencias, se propone integrar una serie de habilidades que traspasan las categorizaciones cerradas de las disciplinas. Por tanto, se construye desde esta posición la idea de habilidades transversales (que funcionen en más de un dominio del conocimiento), multidimensionales (que incluyan tanto la dimensión cognitiva como actitudinal) y asociadas a habilidades de orden superior (Voogt & Pareja, 2012). Si bien no existe consenso absoluto sobre qué habilidades o competencias se requieren para una educación significativa, se han identificado tendencias generales en los catálogos de los investigadores y agencias educacionales. Voogt & Pareja (2012) efectuaron un análisis comparativo de los distintos marcos disponibles de habilidades del siglo XXI. Se encontró una gran variedad entre los modos de categorización y agrupación de estas habilidades. No obstante, detrás de esta aparente dispersión, se logró identificar que la mayoría de los marcos consideraban centrales la habilidades en el área de comunicación, colaboración, TICs, consciencia social y cultural, así como las habilidades de creatividad, resolución de problemas y pensamiento crítico. Se puede notar que si bien el discurso de las habilidades del siglo XXI nace de la necesidad integrar la educación a los nuevos avances tecnológicos y culturales, el tipo de competencias que promueve es bastante más antiguo. 5 Silva (2009) reconoce que muchas de las mismas necesidades educacionales fueron exigidas por pensadores clásicos como Sócrates o, en su versión más contemporánea, John Dewey. Sin embargo, lo verdaderamente inédito es el énfasis que estas habilidades adquieren por las transformaciones en el trabajo y la economía contemporáneas. En este sentido, resulta sintomático un estudio del World Economic Forum y el Boston Consultancy Group (2015) en más de 91 países que señala que para la utilización exitosa de las herramientas tecnológicas por parte de los estudiantes se necesitan conocimientos más allá de los clásicos contenidos curriculares en lenguaje, matemáticas y ciencia, en particular, considera relevante las habilidades de pensamiento crítico, resolución de problemas, persistencia, colaboración y curiosidad. Sin embargo, indica el reporte, “All too often (...) students in many countries are not attaining these skills”(WEF & BCG, 2015, p.1). Esta situación está marcada, además, por la desigualdad. El mismo informe advierte que existen amplias diferencias en el desempeño promedio de tests para este tipo especial de habilidades entre países de la OECD de alto ingreso en contraposición con aquellos en vías de desarrollo (WEF & BCG, 2015). Esta diferencia ni siquiera pudo ser establecida respecto a los países de bajo ingreso, puesto que muy pocos participan en tests que permitan la comparación como la PISA. La situación se vuelve más urgente si se piensa en que los mayores esfuerzos por reducir la brecha educacional entre los países ricos y los pobres, como el caso de Education for All de la UNESCO, han sido incapaces de 6 mejorar los niveles de competencias mínimas en países de bajos ingresos (Filmer, et al., 2006). Ante este escenario conviene preguntarse dónde vale la pena dedicar trabajo para reducir la brecha e insertar de manera adecuada estas habilidades fundamentales en la enseñanza de los estudiantes. 1.2 Nuevo paradigma de evaluación Pensar nuevas habilidades junto a los contenidos tradicionales en el currículum implica un cambio de paradigma que aún no ha sido completamente recibido por las distintas comunidades. Explica Dede (2010) que una de las mayores complicaciones en la inserción de las habilidades del siglo XXI es el intento de que tanto los educadores y los estudiantes, así como los diseñadores de políticas públicas, dejen atrás cierto tipo de prejuicios pertenecientes al paradigma anterior, como la hora de clases de 45 minutos, o que las preguntas en una prueba deben tener una única pregunta. Este tipo de resistencia no solo ha llevado a distorsionar la actividad pedagógica diaria, sino que además se ha promovido una interpretación errónea de los resultados de pruebas como la PISA. En lugar de concluir en políticas de mejoras de habilidades del siglo XXI, se ha llegado al diagnóstico de que se necesita devolver la atención a habilidades de lectura y matemáticas básicas (Voogt & Pareja, 2012). Lo que se necesita es entender que cambiar la orientación del currículum hacia nuevos objetivos presupone cambiar la manera en que se implementa. 7 Probablemente, el caso más patente de la necesidad de esta reforma sea el de la evaluación. Según Dochy (2001) existen dos paradigmas sobre el que se construyen las políticas de evaluación. Primero, el paradigma tradicional, al que Dochy (2001) denomina la “cultura de la prueba” (testing culture). Según Dochy, en la “cultura de la prueba” el estudiante es imaginado como un recipiente pasivo que debe memorizar los contenidos de la clase narrados por el profesor. Tanto la enseñanza como el aprendizaje son pensados como procesos individuales. La evaluación sigue la misma lógica. Se sustenta principalmente en evaluar un supuesto conocimiento básico adquirido a través de tediosas prácticas y repeticiones de ejercicios. Por tanto, el centro está en evaluar el producto y no el proceso. De esta manera, la instrucción y la evaluación se comprenden como etapas separadas en la enseñanza del estudiante. El típico mecanismo de evaluación será, por tanto, la pregunta con respuesta única, con el fin de cuantificar fácilmente el nivel de aprendizaje del contenido por parte del estudiante. El segundo paradigma descrito por Dochy (2001) es aquel que denomina la “cultura de la evaluación” (assessment culture). A diferencia del paradigma anterior, sustentado en la memorización de los contenidos, la “cultura de la evaluación” busca que el estudiante adquiera habilidades cognitivas, metacognitivas y sociales específicas. Lo que retiene el estudiante no son los contenidos aislados, sino una red de conceptos y principios desde los que interpreta su realidad y opera con ella. El estudiante se torna un participante activo en el proceso de aprendizaje, tomando parte tanto en las actividades de 8 instrucción como de evaluación. El objetivo de esta perspectiva es evaluar tanto el producto como el proceso. Por lo tanto, el contexto se vuelve un elemento fundamental al construir las evaluaciones. Las tareas intentan ser interesantes, emanadas de situaciones concretas y significativas para el mundo del estudiante. La evaluación no tomará una forma canónica, sino que se evaluará de las maneras que las habilidades a enseñar lo exijan. Así, muchas veces se desarrollarán evaluaciones que contengan preguntas sin una única respuesta correcta, o más difíciles de estandarizar, lo que impacta en la complejidad de cuantificar sus resultados. La prevalencia actual del primer paradigma no solo se explica por la persistencia de ciertos prejuicios sobre el sistema educativo. La facilidad de cuantificar el desempeño de los estudiantes es una característica atractiva para los diseñadores de políticas públicas. Es frecuente la utilización de tests que aportan muy poca información, por ejemplo, tests de opción múltiple, ante la presión por mostrar resultados ante el foro público (Conley, 2015). De esta forma, la instrucción de los estudiantes se adapta a la evaluación de este tipo de pruebas. Los efectos negativos de esta política de evaluación no se han hecho esperar. Por ejemplo, en los Estados Unidos ha existido una baja sostenida entre el 2010 y el 2012 en la prueba PISA, que basa su evaluación en habilidades de nivel superior y transferencia (Darling-Hammond, 2014). Este panorama no es desconocido para Chile, cuyo sistema educacional cuenta con medidas estandarizadas para la medición de la calidad en la educación, en particular, la prueba SIMCE, que se aplica a la totalidad de los alumnos de un nivel desde 1987 (Basualdo, 2007). Si bien la prueba SIMCE ha sido 9 importante para el desarrollo de una institucionalidad e investigación en torno a la calidad de la educación chilena, su implementación ha acarreado algunos déficits (Ramírez, 2011). Similar al caso de los Estados Unidos, Chile ha sido incapaz de remontar en la prueba PISA, con el resultado de que los escolares chilenos están entre los puntajes más bajos entre los países de la OCDE (Moreno, 2014). Bajo este panorama, es razonable pensar en el diseño de nuevas evaluaciones que sirvan para adaptar nuestro sistema educativo a las necesidades de la época en que vivimos. Conley (2015) sugiere que en lugar de construir evaluaciones aisladas que se preocupen solo de un aspecto del aprendizaje se haga el intento de coordinar sistemas de evaluaciones que aporten con un panorama más amplio del conocimiento y aprendizaje de los estudiantes. Tal como afirma Silva (2009), un nuevo modelo de evaluación no solucionará todos los problemas de la educación, pero permite volver a preguntarse qué resultados importan realmente para nuestros estudiantes. 1.3 Pensamiento crítico 1.3.1 Importancia de pensamiento crítico en la educación contemporánea Muchas son las vías que la evaluación de las habilidades del siglo XXI ofrecen a los investigadores en educación. El asunto de la presente investigación es avanzar en la evaluación de la que, en opinión del autor, es la más urgente de desarrollar en el contexto de la educación chilena. Me refiero, por supuesto, al 10 pensamiento crítico. Esta preocupación se refleja, incluso, en el curículum nacional, tanto de Lenguaje y comunicación como de Matemática, que exige a los profesores el desarrollo de esta habilidad desde el tercer grado (Mineduc, 2013ª; Mineduc, 2013b). El interés por el pensamiento crítico tiene antiguos antecedentes en la Grecia clásica, especialmente en el modelo educativo atribuido a Sócrates (Colaiaco, 2013), quien promulgaba el ideal de que todos los valores debían ser examinados por cada ciudadano por su propio juicio racional. Con diferentes matices, este ideal se proyectó históricamente en occidente, cuyo punto cúlmine se encuentra en el ideal ilustrado que Immanuel Kant resumió diciendo “ ¡Ten el valor de servirte de tu propia razón! : he aquí el lema de la ilustración” (1994/1784). ¿Cuál es el valor específico de integrar el pensamiento crítico como habilidad fundamental en la educación contemporánea? La defensa más robusta y coherente ha sido establecida por Martha Nussbaum, quien en su libro Not for Profit (2012) arguye que cultivar la habilidad de pensar críticamente es crucial para mantener la vitalidad de las democracias multiculturales. Según la filósofa, las sociedades actuales están compuestas por una gran diversidad de personas con diferentes parámetros de evaluación. Explica Martha Nussbaum que la habilidad de pensar críticamente “about a wide range of cultures, groups, and nations in the context of a grasp of the global economy and of the history of many national and group interactions is crucial in order to enable democracies to deal responsibly with the problems we currently face as members of an interdependent world” (2012, p.10). 11 Si estas personas viven en una comunidad democrática, se considera que la opinión de cada una debe ser valorada por los mismos estándares de racionalidad. Por esta razón, la presuposición de que tienen la habilidad de pensar críticamente justifica que están capacitados para participar activa y responsablemente como ciudadanos en las decisiones de su comunidad. De esta manera, el pensamiento crítico permite un modelo de democracia que admite modos de participación inclusiva a través de la deliberación pública (Grossman, 2008). Además de su valor democrático, el pensamiento crítico provee numerosas ventajas en el contexto actual de aprendizaje. Por una parte, Paul (1992) explica que la integración de habilidades de pensamiento crítico en la sala de clases permite a los estudiantes comprender la lógica detrás de los contenidos curriculares y, por tanto, hacer más probable la adaptación y transferencia de lo aprendido a nuevos contextos. Por otra parte, Heyman (2008) declara que el pensamiento crítico es fundamental para los estudiantes a la hora de aprender de otros. Según la investigadora, el pensamiento crítico desde edades muy tempranas permite distinguir en qué situaciones se enfrentan a información poco precisa o poco confiable. También Weiler (2005) describe la importancia del pensamiento crítico a la hora de obtener y recuperar información. Esto es especialmente notorio al nivel universitario, donde, según Weiler (2005), los estudiantes presentan gran disparidad en su uso de buscar información, siendo un típico obstáculo para el pensamiento crítico el prejuicio que provoca el conocimiento desde la experiencia personal. Estas ventajas han probado su practicidad en el progreso futuro del estudiante, puesto que se ha mostrado que 12 el nivel de pensamiento crítico permite predecir el desempeño académico del estudiante (Jenkins, 1998; Williams, et al., 2003; Facione, 2007). Una vez explorado el valor del pensamiento crítico en la educación contemporánea, se necesita pensar la manera más adecuada de integrarlo al modelo educativo. En principio, el lugar más adecuado para esta intervención es el currículum. Tal como explica Presseissen (1987), cuando se intenta construir un modelo educacional basado en habilidades, es el currículum el espacio en el que se vinculan los procesos de cognición con los objetivos instruccionales del diseño institucional. En este sentido, es fundamental cuidarse de que esta implementación no sea una mera extensión inorgánica, sino que funcione como el núcleo sobre el que se construya el currículum (Presseissen, 1987). Esta misma recomendación está contenida en Facione (1990), en el que se sugiere una atención explícita en el desarrollo de habilidades de pensamiento crítico como un objetivo instruccional en todos los niveles del currículum de enseñanza escolar. Por sobre todo, la inclusión del pensamiento en el currículum escolar apunta a transformar intelectualmente a los estudiantes, en palabras de Maiorana (1992), rescatándolos de una aceptación pasiva de los contenidos para convertirlos en analistas activos de su realidad. Tal como lo adelantamos en la primera sección, adoptar habilidades, en este caso, el pensamiento crítico como objetivo instruccional del currículum, implica preguntarse seriamente por su implementación. Una de las barreras actuales más importantes es la posibilidad de evaluar adecuadamente el nivel 13 de pensamiento crítico de los estudiantes En la siguiente sección se darán lineamientos apropiados para la evaluación del pensamiento crítico. 1.3.2 Evaluación del pensamiento crítico La evaluación del pensamiento crítico en el currículum es un primer paso para superar la separación entre el estudiante y el conocimiento obtenido, tan propio de la que llamamos “cultura de la prueba”. Esta superación se obtiene al concentrar la evaluación no en los contenidos que adquiere el estudiante, sino en la calidad de su conocimiento, basada principalmente en actividades con propósito (Higgins, 2014). Para lograr esta interacción significativa con el conocimiento del estudiante se requiere que el modelo se mueva de sistemas unidimensionales de evaluación hacia evaluaciones que den una imagen más completa de lo que efectivamente sabe el estudiante (Conley, 2015). A continuación, se delinearán las características que hacen posible construir un test de pensamiento crítico bajo los principios de lo que hemos llamado “nueva evaluación” en la sección 1.2. Brown et al. (2014) explican que todo sistema de evaluación de pensamiento crítico consta tanto de la formulación de un constructo a evaluar elaborado en base a un modelo de cognición específico como de tareas que estén específicamente destinadas a elicitar conductas observables en el desempeño de los estudiantes. La formulación del constructo es una de las tareas más fundamentales y, al mismo tiempo, una de las más complejas en la evaluación de habilidades del 14 siglo 21. La tendencia histórica ha sido fijarse más en la confiabilidad del test que en su validación (Conley, 2015), lo que ha impactado en la construcción de una serie de tests que miden partes discretas de las habilidades en cuestión en lugar del pensamiento crítico como una habilidad compleja compuesta de diversas subdimensiones integradas (Ennis, 1993). Esta dispersión en la evaluación se asocia, en buena medida, a la gran diversidad de definiciones de pensamiento crítico disponibles en la literatura (Kennedy, Fisher & Ennis,1991; Pithers & Soden, 2000; Lai, 2011; Dwyer, 2014). En este sentido, es útil establecer una definición operativa desde un inicio. Una aproximación común al pensamiento crítico es definirlo en relación a las habilidades que lo componen. Van Gelder (2005) arguye que la idea que el pensamiento crítico es una habilidad de nivel superior implica que está compuesto de sub-habilidades más simples y fáciles de adquirir. El intento más serio de establecer un consenso respecto de las habilidades esenciales que componen el pensamiento crítico se encuentra en el Reporte Delphi (Facione, 1990) en el que se determina que las habilidades principales que debiese contener todo concepto de pensamiento crítico son: interpretación, inferencia, análisis, evaluación y explicación. Es importante señalar que gracias a las investigaciones en estas habilidades en particular se ha podido demostrar empíricamente que el pensamiento crítico puede ser evaluado y enseñado operativamente en salas de clases (Butler, et al., 2012; Niu, et al., 2013; Reid & Anderson, 2012). Además, la práctica pedagógica y evaluativa muestran que una comprensión adecuada del pensamiento crítico necesita destacar su aspecto metacognitivo 15 (Halpern, 1998; Ku & Ho, 2010). Se puede describir la metacognición como “the monitoring and control of thought” (Martínez, 2006). Kuhn (1999) explica que la evaluación del pensamiento de acuerdo a criterios presupone la metacognición, ya que en la metacognición el pensamiento se vuelve objeto de nuestro conocimiento. De esta manera, mediante la metacognición podemos monitorear nuestro pensamiento y decidir críticamente qué estrategias desplegar para cada problema concreto (Willingham, 2008). Por lo demás, se ha mostrado a través de análisis de factores que la inclusión de la metacognición en modelos de pensamiento crítico mejora el desempeño experimental de esos modelos (Magno, 2010). Por esta razón, la mejor definición disponible en la actualidad la aportan Dwyer, Hogan & Stewart (2014), quienes componen su concepto de pensamiento crítico en referencia a las habilidades que lo integran y su componente metacognitivo. De esta manera, escriben que el pensamiento crítico es “a metacognitive process, consisting of a number of sub-skills (e.g. analysis, evaluation and inference) that, when used appropriately, increases the chances of producing a logical conclusion to an argument or solution to a problem” (Dwyer, Hogan & Stewart, 2014, p.43) La decisión del tipo de tarea incurre en problemas similares. Uno de los aspectos más difíciles es sobre si las tareas deben desarrollarse en el contexto de un dominio específico o si las tareas deben ser construidas independiente del dominio. Una posición es pensar que el pensamiento crítico es una habilidad general y que, por tanto, su evaluación e instrucción puede practicarse independiente del dominio específico en el que se desarrolla. Este argumento es defendido principalmente por Ennis (1992), Paul (1992), Halpern 16 (1998) y Glaser (1984). La posición contraria se sustenta en que el pensamiento crítico no es tanto una habilidad general, sino una habilidad que se desarrolla en dominios específicos del conocimiento y es, por tanto, altamente dependiente del contexto. Esta idea ha sido expuesta fundamentalmente por McPeck (1981), Bailin (2002) y Willingham (2008). Ku et al. (2014) aclaran que el debate ha tendido a solucionarse mediante un consenso en el que tanto el conocimiento específico juega un rol en el pensamiento crítico, así como también ciertas habilidades transversales. En el caso de la evaluación, sin embargo, existe un menor desarrollo de evaluaciones basadas en dominios específicos (Ennis, 1993). Además, bajo los principios de la nueva evaluación antes mencionados, las evaluaciones deben centrarse en el proceso (Dochy, 2001) y, por tanto, en su construcción se requiere tomar en cuenta el contexto del dominio en el que se desenvuelven (Brown et al., 2014). Por último, se requiere que los evaluadores tengan marcos adecuados a su disposición que les permitan interpretar las respuestas de los estudiantes, es decir, rúbricas. Brown et al. (2014) sugieren que estas rúbricas que no estén construidas desde adjetivos que expresen sus apreciaciones subjetivas, sino que estén basados en características debidamente operacionalizadas del concepto en cuestión (Brown et al., 2014). 1.4 Cultura Los factores culturales condicionan las capacidades de desarrollo de las personas, tanto en su aspecto cognitivo como social (Nussbaum, 2011). La 17 cultura de una comunidad puede ser definida como los valores, reglas y actitudes que definen la particularidad de cada organización (Bordieu, 1993). Estudiar los factores culturales permite observar las maneras en las que las sociedades resuelven problemas y dilemas (Trompenaars & Hampden-Turner, 1998; Schein, 1993). Sin embargo, aunque hay una gran variedad de estudios sobre cultura (Munn, 1992), la particularidad de sus metodologías no los hace siempre apropiados para estudiar la masiva complejidad de las instituciones modernas (Hofstede 2001). Salili, et al. (2001) describen la gran cantidad de estudios empíricos que justifican la influencia de la cultura en el desempeño escolar de los estudiantes. Desde los estudios inaugurales de Pierre Bordieu (2011) se sabe que el capital económico puede ser transformado en capital cultural y ser transmitido por la familia a los estudiantes, lo que provoca muchas veces diferencias en el logro escolar de los estudiantes (Sullivan, 2001). Además, se ha probado que la cultura influye en la cognición más allá del estado neurofisiológico de la persona (Pérez-Arce, 1999). Rueda (2006) sugiere que la cultura da forma a las maneras en que los estudiantes realizan su aprendizaje cognitivo. Bajo esta premisa, Gruenert & Whitaker (2015) sugieren que establecer políticas que tomen en cuenta la cultura en la sala de clases puede mejorar los logros educacionales y enriquecer la vida de los estudiantes en la sala de clases. La investigación de factores culturales en la sala de clases ha sido en su mayor parte de carácter cualitativo (Hofstede, 1986; Deal, et al., 1999; Lieberman, 1988; Lipka & Ilutsik, 2014). La medición de factores culturales en la escuela a través de una metodología cuantitativa permitiría tener tanto información 18 agregada como particular de las dimensiones que constituyen el entramado cultural de cada colegio. Por lo anterior, se requiere crear un instrumento de medición adaptado al contexto escolar que permita su evaluación cuantitativa. El investigador Geert Hofstede ha creado un marco metodológico cuantitativo para poder medir los factores culturales a nivel nacional y organizacional. Hofstede catalogó distintas culturas bajo un número de dimensiones valóricas (Hofstede, 2001). El marco de Hofstede se sustenta en el principio que la cultura es la programación colectiva de la mente (Hofstede & Minkov, 2010). Esta programación ocurre durante toda nuestra vida (Hofstede, 2001). Las personas van adquiriendo poco a poco los valores que determinarán, así como, la manera en que se relacionan con el resto de la comunidad (Hofstede, 2001). Según Hofstede (2001), los valores de una cultura se pueden describir en cinco dimensiones medibles: (1) alta o baja distancia hacia el poder, (2) alta o baja evasión de la Incertidumbre, (3) individualismo o colectivismo, (4) orientación femenina o masculina, (5) orientación a largo o corto plazo (Hofstede & Minkov, 2010). A partir de estos indicadores, Hofstede confeccionó un test para medir estas dimensiones. Este marco teórico, así como el test derivado de dicho marco, sirve de referencia para investigaciones cuya finalidad sea la medición de factores culturales por diversas razones. En primer lugar, este modelo ha sido probado en más de 50 países, por lo que está validado a través de una gran variedad de culturas (Hofstede, 2001). En segundo lugar, tanto el modelo como los test basados en ese marco se encuentran en constante revisión por lo que se 19 mantiene relativamente actualizado (Hofstede, 2001). En tercer lugar, la investigación de Hofstede fue basada en un diseño riguroso y validado durante los años con una colección de datos coherentes (Jones, 2007). En cuarto lugar, Søndergaard (1994) declara que el test de Hofstede es bastante preciso al momento de medir las distintas dimensiones que lo integran. En quinto lugar, es el test de cultura más utilizado por investigadores actualmente a nivel internacional (Jones, 2007). La limitación, en este caso, del test de Hofstede es que, a pesar de la amplia repercusión que ha tenido, solo ha sido aplicado en adultos. No obstante, la edad escolar resulta especialmente interesante para el estudio de la cultura desde este marco, puesto que según explica Hofstede hay una división que ocurre aproximadamente a la edad de 10 años y que marcaría las diferencias de aprendizaje de elementos culturales, tanto en la forma como en el contenido (Hofstede, 2008; Hofstede & Minkov, 2010). Antes de los 10 años, se desarrolla un periodo en el que el aprendizaje cultural ocurre para los niños de forma “rápida y altamente inconsciente”, absorbiendo “la información necesaria del ambiente” (Hofstede & Minkov, 2010, p. 8). En este período, el colegio juega un rol crucial, ya que además de su familia cercana, es el otro espacio de socialización en el que los niños están expuestos a valores socialmente relevantes. Es decir, hasta los 10 años los niños estructuran el conjunto de valores que luego permitirán explicar su acción en sociedad. Al final de este período, el aprendizaje pasa a ser gradualmente consciente y su contenido pasa a estar enfocado principalmente en nuevas prácticas. Los valores, en cambio, serán una estructura relativamente estable (Hofstede, 20 2001; Hofstede, 2008). Es el propio Hofstede (1986) quien puntualizó que estas dimensiones podían ser estudiadas en organizaciones educativas (Hofstede, 1986). Dicho estudio se basó en la observación en colegios y encuestas a profesores de variadas regiones del mundo (Hofstede, 1986). Hofstede indagó en las diferencias que implica la cultura en la sala de clases y cómo ésta puede causar, entre otros problemas, grandes desigualdades entre los patrones esperados de interacción entre profesor/alumno y alumno/alumno; además de disparidades en la relevancia del currículum educativo (Hofstede, 1986). Por las razones previamente mencionadas, es razonable pensar que una adaptación del test de Hofstede al contexto escolar podría medir factores culturales en la sala de clases y permitir su integración a los modelos de evaluación de habilidades cognitivas. 1.5 Modelo de evaluación de pensamiento crítico y cultura 1.5.1 Relación entre pensamiento crítico y cultura Cuando se estudia pensamiento crítico y sus relaciones con otros factores, en general la investigación se ha centrado en sus efectos en aspectos académicos, de instrucción, plan de estudios, y diferentes campos disciplinarios (McMillan, 1987; Tsui, 1998; Tsui, 2000). Sin embargo, se le ha dado poco énfasis a temas como la relación del desarrollo cognitivo, el pensamiento crítico y las relaciones entre alumno/alumno y profesor alumno (Ennis, 1998; Tsui, 2000). Estas relaciones están directamente vinculadas con la cultura de la institución a la cual los estudiantes pertenecen (Hofstede, 2001). 21 Cole (1971) explica que el desarrollo cognitivo está influenciado por las demandas del ambiente en el que el alumno se desenvuelve. En buena medida, las habilidades cognitivas de los individuos se basan en los patrones totales de una sociedad, por lo tanto, de su cultura (Hofstede, 1986). Así, estudios han encontrado diferencias significativas en el grado en que personas de diferentes culturas procesan la información y complementan ésta con conjeturas determinadas por el propio entorno (Sckade et al., 1978; Bennett, 1997). Por tanto, muchas veces resulta problemático enseñar a un estudiante con un perfil de habilidades cognitivas distintas de aquella a las que el profesor está acostumbrado (Hofstede, 1986). Según Hofstede (1986), no hay otra solución para disminuir esta brecha cultural sino aumentar la conciencia sobre estas diferencias, en un esfuerzo sostenido por ambas partes, centrándose especialmente en las nuevas capacidades demandadas por los cambios sociales del momento. Así, vale la pena vincular el problema de la influencia de la cultura sobre el desarrollo de habilidades, para facilitar su implementación en el aula. En particular, con habilidades de pensamiento crítico que permitieran educar acerca de las brechas culturales antes mencionadas. Se reconoce que la educación — y en particular los tipos de habilidades y valores que se nutren de dicho entorno — tiene una influencia en el uso del pensamiento crítico de los estudiantes (Manalo et al., 2013). Pensar críticamente está profundamente entrelazado con los antecedentes culturales de un individuo y lo que tenemos que hacer frente a las diferencias culturales (Hill & Shadija, 2010). Sin embargo, si se sostiene que la cultura del alumno afecta directamente en su proceso de aprendizaje y su desarrollo cognitivo (Kuh, 22 1990; Tsui, 2000), entonces es necesario establecer el modo específico en que esta influencia opera. Esto se vuelve urgente si se toma en cuenta que la evaluación e instrucción de pensamiento crítico puede ser afectada por ciertos prejuicios culturales (Bailin, 1995). Urdan & Giancarlo (2000) sugieren que todavía no está claramente establecido el grado en que los factores culturales afectan el pensamiento crítico, aunque luego recopilan una serie de estudios incipientes en esta dirección. Un ejemplo más reciente se encuentra en Bates (2001) y Bates & Poole (2003) quienes describen la manera en que provenir de una cultura diferente a la del profesor y el resto de los compañeros puede afectar el nivel en que un estudiante utiliza sus habilidades de pensamiento crítico. Manalo et al. (2013) realizaron un experimento cuyos resultados sugieren que existe una influencia de la cultura en el pensamiento crítico, pero que, sin embargo, esta influencia no es directa ni está necesariamente vinculada al origen geográfico del estudiante. Kurtz (1990) en particular propone que la cultura funciona como un mediador tanto los procesos cognitivos como metacognitivos en los niños. Esta mediación, según Kurtz (1990), se despliega en factores motivacionales y ambientales, en particular aquellos que se desarrollan en la familia y la escuela. La idea de que la cultura media los procesos cognitivos de nivel superior está en plena concordancia con el paradigma de la sicología cognitiva y educacional de Vygotsky. Según esta tradición, el ser humano interactúa con su ambiente utilizando los signos y herramientas creados por su sociedad. Sin embargo, tal como la comunidad que los crea, estos mediadores cambian con el tiempo (Vygotsky, 1980). Esta mediación, en el caso de las funciones mentales 23 superiores, pasa necesariamente por las relaciones sociales que la persona tiene con el resto de la comunidad y está, por tanto, en constante relación con la cultura de la sociedad específica en la que emerge (Wertsch, 2009). De esta manera, la cultura se constituye en el principal mediador de las funciones cognitivas superiores, entre las que podemos contar, por supuesto, al pensamiento crítico. 1.5.2 Modelo de mediación La consecuencia metodológica de seguir esta línea teórica es, entonces, la construcción de un modelo que tome en cuenta el carácter mediador de la cultura en el pensamiento crítico. Tal como Mackinnon et al. (2007) lo consideran, gran parte de los modelos de investigación se centran en relaciones entre dos variables. Los modelos de mediación, en cambio, permiten explicar la influencia de una tercera variable sobre la relación entre las dos variables previas. Para comprender el análisis de mediación podemos recurrir a un ejemplo presente en Fairchild & McQuillin (2010). El ejemplo supone la implementación de un programa de mejora de la lectura en un colegio (variable independiente, X) para incrementar el rendimiento en un test de competencia lectora (variable dependiente, Y). Siguiendo este modelo, se podría medir el efecto de dicho programa (X) en la competencia lectora (Y) comparando la diferencia en el rendimiento de la competencia lectora antes y después de la aplicación del programa. Pero, quizás, este no es el panorama completo. En este caso, se podría complejizar el modelo al introducir como variable 24 mediadora la fluidez oral en la lectura del estudiante (variable mediadora, M). De esta manera, tendríamos acceso a la variable que, en realidad, está causando la mejoría en la competencia lectora. Un modelo de mediación consta, por lo tanto, de tres tipos de variables como se muestra en la figura 1. Una variable independiente, una variable dependiente y una variable mediadora. Figura 1: Modelo de mediación Al aplicar el modelo de mediación a las variables de nuestro interés se deriva la siguiente hipótesis de mediación: la cultura media la relación positiva entre pensamiento crítico y comprensión lectora. De esta manera, el pensamiento crítico actuará de variable independiente, el desempeño en un test de comprensión escrita actuará de variable dependiente y la cultura actuará de variable mediadora, tal como lo muestra la figura 2. 25 Figura 2: Modelo de mediación aplicado a las variables de pensamiento crítico y cultura Para probar la mediación que efectúa la cultura entre el pensamiento crítico y la comprensión resulta adecuado utilizar el método tradicional de testeo desarrollado por Baron & Kenny (1986). Este método consta de cuatro pasos, ilustrados en la figura 2 y explicados a continuación. Figura 3: Método de testeo de un modelo de mediación. Primero, se realiza una regresión (τ) para saber si la variable independiente (X) predice la variable dependiente (Y). 26 Segundo, se realiza una regresión (α) para saber si la variable independiente (X) predice la variable mediadora (M). Tercero, se realiza una regresión (β) para saber si la variable mediadora (M) predice la variable dependiente (Y). Cuarto, se realiza una regresión (τ’) para saber si la variable independiente (X) no predice la variable dependiente (Y), mientras se controla por la variable mediadora (M). Si todos los pasos tienen resultados significativos, entonces la mediación es total. Si, en cambio, en el paso cuarto la regresión entre la variable independiente (X) y la variable dependiente (Y) sigue siendo significativa, mientras se controla por la variable mediadora (M), entonces la mediación es parcial. 27 2. TAREAS IMPLEMENTADAS. DISEÑO Y VALIDACIÓN DE TEST DE PENSAMIENTO CRÍTICO Para implementar el modelo de mediación de pensamiento crítico y cultura es necesario la construcción y validación de instrumentos que midan los factores indicados. En lo que sigue se explicará cuál fue el proceso de construcción del test de pensamiento crítico y su posterior validación, es decir, un vértice del triángulo que constituye el modelo. El test de cultura aún está en proceso a la fecha de la escritura de esta tesis. 2.1 Test de pensamiento crítico. 2.1.1 Introducción La inclusión del pensamiento crítico en la educación escolar es uno de los aspectos centrales en la discusión sobre las principales habilidades identificadas como necesarias para el siglo XXI (Greenhill, 2009). Se ha dicho que el pensamiento crítico es un prerrequisito esencial para la actividad humana responsable (Marques, 2012), y fundamental para el desempeño social, laboral y ético de los ciudadanos (Griffin, McGaw & Care, 2012; Greenhill, 2009). El desarrollo de habilidades de pensamiento crítico provee a los individuos con las herramientas necesarias para tomar decisiones por sí mismos y no dejarse convencer por creencias que carezcan de evidencias sólidas (Halpern, 2003; Mulnix, 2012). Existe una amplia gama de definiciones de pensamiento crítico desde posturas más filosóficas vinculadas al pensamiento clásico y al desarrollo humano (Nussbaum, 2011) hasta perspectivas destinadas a su recepción y desarrollo en 28 las disciplinas educativas (Facione, 1990; Halpern, 2003; Bailin, 2002). No obstante las distintas tendencias, se puede identificar que uno de los componentes esenciales del pensamiento crítico está centrado en que se trata de un proceso metacognitivo. El pensamiento crítico involucra competencias que nos permiten no solo pensar sobre el mundo (habilidades de primer orden), sino pensar sobre el pensamiento (habilidades de segundo orden) (Kuhn, 1999; Halpern, 2003). El carácter metacognitivo tiene consecuencias instruccionales y está en directa relación con la percepción y comprensión del contexto (Halpern, 2003). Así, por ejemplo, se ha establecido que los procesos metacognitivos vinculados al pensamiento crítico son un componente fundamental en la transferencia del conocimiento obtenido (Nickerson, 1988). En este trabajo se utilizará una definición que haga explícito este vínculo con la metacognición definiendo el pensamiento crítico como "a metacognitive process, consisting of a number of sub-skills (e.g. analysis, evaluation and inference) that, when used appropriately, increases the chances of producing a logical conclusion to an argument or solution to a problem" (Dwyer, Hogan & Stewart, 2014, p.43). La importancia del pensamiento crítico en el ámbito educacional está justificada por décadas de desarrollo teórico y práctico (Lai, 2011). Su inclusión en los currículum escolares es ampliamente reconocida, al menos, a partir de la influencia de John Dewey en la primera mitad del siglo XX (Bean, 2011). Facione (1990) recomienda que el desarrollo del pensamiento crítico sea un objetivo en todos los niveles del currículum K-12. En este sentido, la instrucción del pensamiento crítico en la educación escolar debería incluir la instrucción de estas habilidades integradas a las actividades en el aula (Bailin, 29 et al. 1999). Es importante que la inclusión del pensamiento crítico sea a una edad temprana, puesto que se han revelado diferencias significativas entre los alumnos con educación temprana y los que no (Osakwe, 2009). Sin embargo, aunque la relevancia del pensamiento crítico se haya defendido sostenidamente en materias educacionales a nivel mundial, no hay un desarrollo suficiente de su medición por medio de actividades en la sala de clases. Según la UNESCO (2000), se necesita la medición de los resultados del aprendizaje de esta habilidad para mejorar la calidad de la educación. Yeh (2001) ha declarado que si se acepta que los test guían el currículum y la instrucción, una manera eficiente de mejorar la calidad de la educación en pensamiento crítico es construir mejores test. La literatura ha reconocido que para medir el pensamiento crítico de manera relevante se requiere conocimiento específico del dominio en el que se desenvuelve (Facione, 1990; Ennis 1989; McPeck 1981; Bailin, 2002; Willingham, 2008). Esto es especialmente relevante porque para evaluar a los niños en la sala de clase, tal como explica Whitcomb & Merrell (2013), la evaluación debe ser situada y tomar en cuenta el dominio específico. Esto se deriva del peso que los distintos dominios dan a diferentes evidencias o explicaciones según los objetivos de la tarea que se requiera realizar (Bailin, 1999). De esta manera, aunque se pueda conceder un cierto nivel de generalidad a las habilidades de pensamiento crítico, su utilidad depende de su conexión con un dominio específico de conocimiento (McPeck, 1981). Ennis (1989) recomienda que el mejor nivel para enseñar crítico es durante los primeros años de la enseñanza básica. Esta recomendación es coherente con 30 estudios que concluyen que los niños en edad temprana se benefician de su instrucción y evaluación (Kennedy et al, 1991). Sin embargo, los test disponibles no están diseñados para niños en edades tempranas ni tampoco para dominios específicos sino que solo miden el pensamiento crítico como una habilidad general (Ennis & Millman, 1985; Watson & Glaser, 1980; Facione, 1990; Ennis & Weir, 1985; Halpern, 2003). Por tanto, al enfrentar este problema, emerge la primera pregunta de investigación ¿Cómo diseñar y validar un test que distinga el nivel de pensamiento crítico en niños de educación primaria en un dominio específico? La relación entre el estrato socioeconómico y la adquisición de habilidades tiene su mejor representante en Bourdieu, quien indica que la acumulación de capital económico puede transferirse al interior de la sociedad en la forma de capital cultural acumulado en la forma de habilidades y competencias educacionales (Bourdieu, 2011). Se ha identificado que el estrato socioeconómico del estudiante influye substancialmente en sus logros educacionales (Breen & Goldthorpe, 1997); asi en tercer grado se ha visto que la pobreza y las habilidades lectoras impactan en el éxito de los estudiantes en niveles educacionales más avanzados (Hernández, 2011). Hay autores que plantean que existe una influencia plausible del estrato socioeconómico de proveniencia del estudiante respecto de su nivel de pensamiento crítico (Cheung et al., 2001). Así es como surge la segunda pregunta de investigación, ¿Qué diferencias existen en el nivel de pensamiento crítico, en estudiantes de tercer y cuarto grado, según su nivel socioeconómico? 31 2.1.2 Metodología 2.1.2.1 Definición del test. En una primera etapa se realizó un estudio bibliográfico en el que se determinó el modelo de pensamiento crítico. Este modelo tiene por objetivo generar un scaffolding adecuado de las habilidades que componen el pensamiento crítico. Se considera que un scaffolding apropiado es fundamental para promover el pensamiento crítico (Kim et al., 2013), ya que permite la enseñanza explícita de dichas habilidades en el contexto del aula (Halpern, 2003) y ayuda al profesor a monitorear la manera en que esas habilidades son aprendidas. Se considera que al enseñar habilidades de nivel superior, especialmente la construcción de explicaciones, necesita la guía de un scaffolding apropiado para su exitosa realización por niños en los últimos niveles de escuela primaria (Songer & Gotwals, 2012). Este modelo se basó en el Reporte Delphi (Facione, 1990), en el que un grupo de expertos definió que las habilidades principales de un pensador crítico son interpretación, análisis, inferencia, evaluación, explicación y auto-regulación. Además, el modelo integra los conceptos de transferencia y metacognición (Halpern, 2003). El modelo propuesto se sustenta en un scaffolding secuencial en el que los estudiantes se enfrentan a la elaboración de sus pensamientos (interpretación), evalúan soluciones (evaluación), exploran y clarifican inconsistencias o faltas de información (análisis e inferencia), y, finalmente, explican los resultados de su proceso mental (explicación). La secuencia integra habilidades de nivel superior (análisis, interpretación e inferencia) con procesos metacognitivos 32 (evaluación y explicación), producido por la formación explícita de argumentos sobre la narrativa propuesta. Se le otorga un peso especial a la explicación, puesto que las estrategias cognitivas que los estudiantes utilizan al explicar están fuertemente guiadas por la metacognición (McNamara & Magliano, 2009). Para rastrear los procesos explicativos, se integraron preguntas que exigen argumentación, pues según muestran Berland & Mcneill (2012) los procesos de explicación ocurren en conjunto con los procesos de argumentación. Operativizar el pensamiento crítico en términos de argumentación simplifica la implementación de la medición de esta habilidad (Yeh, 2001). La argumentación es relevante, especialmente, a la hora de medir pensamiento crítico, puesto que es una de las herramientas más efectivas para discriminar entre proposiciones sostenidas en evidencias y meras opiniones (JiménezAleixandre & Puig, 2012). En una segunda etapa se definió el dominio en el que se construiría el test. La posibilidad de integrar habilidades de pensamiento crítico tempranamente se justifica en experimentos que demuestran que los niños pueden realizar actividades que impliquen este tipo de habilidades con igual éxito que los adultos (Gelman & Markman, 1987; Willinghman, 2008). Bajo esta perspectiva, se estimó que la edad más temprana posible para ser efectivo el test es el tercer grado, porque entre 3 y 5 grado la mayoría de los estudiantes son capaces de decodificar y usar la mayoría de las palabras (Swaggerty, 2015). 33 El pensamiento crítico tiene un impacto importante en el aprendizaje de habilidades asociadas al ámbito del lenguaje. Por ejemplo, Nippold, et al. (2015) demostraron que las tareas basadas en pensamiento crítico elicitan oraciones de mayor complejidad sintáctica que tareas basadas en conversaciones. Chapman (2014) sugiere que el aprendizaje de habilidades de pensamiento crítico mejora el desempeño de estudiantes en el TOEIC (Test of English for International Communication). Además, O’Flahavan & Tierney (2013) sugieren que la lectura y la escritura son herramientas muy productivas para la promoción del pensamiento critico. Es por esto que el dominio estudiado fue lenguaje y comunicación. Así, se decidió elaborar una adaptación de la trama de una historia culturalmente conocida. Como criterios para la selección de la historia se tuvo en cuenta que entre los 8 y los 10 años el pensamiento de los estudiantes se vuelve más lógico, mejora su memoria y sus habilidades intelectuales y aprecia el humor (Das, 2013). En este sentido, se siguió la recomendación de Moore & Zigo (2005) de utilizar el género de la ciencia ficción, ya que fomenta la lectura crítica y creativa. Por esta razón, se utilizó la novela clásica de Julio Verne La vuelta al mundo en 80 días, adaptada para niños de tercer grado. Esta adaptación se utilizó de soporte para integrar las preguntas del test de pensamiento crítico. En una tercera etapa, se estimó necesario utilizar una narrativa gráfica y textual para favorecer la aplicación del test. Esta decisión se basa en el lugar privilegiado que tienen los formatos visuales en nuestra cultura (Emmison & Smith, 2000; Sturken & Cartwright, 2001), cuya consecuencia es que los 34 estudiantes, especialmente en los primeros años de formación, aprenden básicamente a través de recursos visuales (Downey, 2009). Frey & Fisher (2004) reconocen que el uso de narrativas gráficas y textuales puede estimular el interés de estudiantes desalentados por los formatos tradicionales de lectura. Además, se considera que este tipo de narrativa fomenta aspectos tradicionales del currículum de lenguaje y comunicación, como la alfabetización (Schwarz, 2006). Otro argumento por el que se consideró este formato se debe a que es el soporte adecuado para la inclusión de elementos de alfabetización visual asociado a los estándares de evaluación de pensamiento critico (Facione, 1990; Lazo & Smith, 2014). Hassett & Schleble (2007) sugieren que al leer narrativas gráficas y textuales los estudiantes no solo mejoran sus habilidades lectoras básicas, sino que encuentran nuevas formas de pensar en la articulación de la imagen y el texto. Luego, se definieron una serie de criterios de desempeño para cada habilidad establecida en el marco teórico (tabla 4 del anexo 1) (Facione, 1990). La evaluación de estos criterios, a través de la construcción de actividades de lecto-escritura, sirvieron para determinar el nivel de pensamiento crítico y, por tanto, la narrativa tiene que estar estructurada en torno a dichos criterios. Para cada uno de estos criterios de desempeño, se crearon preguntas de forma tal que cubrieran todas las habilidades (interpretación, análisis, inferencia, evaluación y explicación). Hubo una mayor concentración de preguntas en la habilidad de explicación. Esta decisión se justifica en que, las estrategias cognitivas que utilizan los estudiantes al explicar, están fuertemente guiadas por la metacognición (McNamara & Magliano, 2009). Este vínculo es 35 especialmente importante en la construcción de preguntas de pensamiento crítico, ya que al explicar el estudiante no solo elabora sobre los contenidos de la pregunta, sino que la explicación también puede derivar en consideraciones metacognitivas como analizar el tipo de tarea y distintas estrategias de solución (Flavell, 1979). Este énfasis en la metacognición se debe a que este proceso articula el pensamiento crítico (Dwyer, 2014). De esta manera, se estimó que utilizar actividades cortas de escritura basadas en preguntas era lo más provechoso, por ser una estrategia instruccional particularmente efectiva en la evaluación del pensamiento, ya que proveen una aproximación a los procesos mentales del estudiante a través de materializar su argumentación (Bean, 2011). Además, se decidió que las preguntas aparecerían en el transcurso de la historia, ya que se ha comprobado que el uso de esta estrategia es más efectiva que preguntar al final de la historia (Van Den Broek, et al., 2011). Por ejemplo, en la figura 4 se muestra una de las escenas de la narrativa gráfica y textual acompañada de una pregunta para el estudiante. En esta escena uno de los personajes (el Detective) intenta engañar a otro personaje (Martín) mediante el uso de un disfraz basado en un bigote falso. La interacción entre la acción de disfrazarse y su despliegue visual en el bigote permite medir los siguientes factores: primero, interpretación al determinar el papel de las imágenes visuales en una narración, ya que el estudiante tiene que ser capaz de entender cuál es la función del objeto como parte del disfraz y no una característica innata del personaje; segundo, evaluación, al determinar los beneficios y dificultades de una opción. En este caso, el estudiante evalúa si el bigote cuenta como un buen o un mal disfraz para el propósito de engañar. Tercero, 36 explicación, al explicitar los estándares utilizados para evaluar en la escritura, en el ejemplo, el estudiante no solo necesita decidir por una opción u otra sino además fundamentar cuál es la razón de su evaluación (Facione, 1990). Los correctores evaluarán si la respuesta cumplía o no con los criterios propuestos y asignarán un puntaje de 1 si consideraba que se cumplían y 0 en caso contrario. Las pautas de corrección se definieron con la asesoría de dos expertos en educación y lenguaje, con el fin de comprobar que los ejercicios concordaban con la habilidad que se pretendía medir. Figura 3: Ejemplo de pregunta 2.1.2.2 Criterios de validación del instrumento. Para validar el instrumento, se utilizaron los criterios de validez del constructo, validez del contenido y validez de criterio (Brown, 2000; Wolming, 1998), además de la medición de la confiabilidad mediante Alpha de Cronbach 37 (Cronbach, 1971). Estos análisis fueron acompañados con un análisis de ítems, cuyo propósito es obtener datos que señalen la necesidad de revisar, seleccionar y eliminar ítems muy difíciles, muy fáciles o que no discriminan (Nitko 1996). Como evidencia para la validez del constructo, se realizó un ANOVA bajo la hipótesis de que existirían diferencias significativas de pensamiento crítico entre el tercer y el cuarto grado (Brown, 2000). La presencia de esta diferencia valida el constructo, puesto que es coherente con las investigaciones que identifican que el nivel de pensamiento crítico vinculado a la metacognición aumenta con la edad (Veenman, Wilhelm, & Beishuizen, 2004). Esto se explicaría porque mientras que en tercer grado los estudiantes pueden realizar explicaciones causales, predicciones simples (Hapgood, et al., 2004) y analogías parcialmente correctas (May, et al., 2006), desde el cuarto grado en adelante ya son capaces de diseñar estrategias para resolver problemas, definir tareas y monitorear sus pensamientos (Hudgins, et al., 1989). Para demostrar la validez del contenido se utilizó un panel de expertos (Rubio et al., 2003), conformado por un experto en el área de educación y otro experto en el área de filosofía y lenguaje, de los cuales se obtuvo el grado de concordancia con el de los desarrolladores del instrumento (Dillashaw and Okey, 1980; Nitko. 1996). Además, se agregaron para la validez del contenido cuatro sesiones de think aloud con estudiantes de las edades en estudio (Ericsson & Simon, 1993; Flaherty, 1974), tal como se recomienda en Facione (1990). 38 Considerando que se han encontrado correlaciones entre tests de pensamiento crítico y las notas escolares de estudiantes secundarios chilenos (Santelices et al., 2011) se utilizó el Pearson product moment correlation entre los resultados del test y las notas en lenguaje con el fin de examinar la criterion validity. Se utilizó esta estrategia de muestreo por conveniencia debido a que, no estuvo la posibilidad de acceder al registro de notas de todos los estudiantes (Ary et al, 2013). Además, se condujo un análisis de la confiabilidad del test a través del Alpha de Cronbach, índice que mide la consistencia interna del test (Cronbach, 1971). Luego, se aplicó un análisis de ítems a los resultados con el fin de identificar a través de datos objetivos, en este caso, los índices de dificultad y discriminación de cada ítem, señales que indiquen la necesidad de revisar, eliminar o modificar ítems (Nitko, 1996). Estos índices por ítems fueron clasificados según la dimensión de pensamiento crítico que medían para luego observar qué área fue más y menos difícil para los estudiantes. 2.1.2.3 Trabajo Experimental Para estudiar la relación entre pensamiento crítico y nivel socioeconómico se eligió un muestreo estratificado de acuerdo a los tres tipos de establecimientos que se encuentran en el sistema educacional chileno (público, particular subvencionado y particular). Cada establecimiento corresponde a un nivel socioeconómico: bajo, medio y alto, respectivamente (Gallego, 2002). Por otro lado, para estudiar la validez de constructo se trabajó con dos grados, 3º y 4º. Los participantes de la muestra, Tabla 1, incluyeron 301 estudiantes de terceros y cuartos básicos de los tres tipos de colegios. Se decidió utilizar un diseño de 39 ANOVA para comprobar la existencia de diferencias significativas entre los distintos grupos. Tabla 1: Participantes en el estudio según nivel socioeconómico y género Tercer grado Género / Nivel socioeconómico Alto Medio Bajo Masculino 55 13 17 Femenino 47 17 14 Total 102 30 31 Género / Nivel socioeconómico Alto Medio Bajo Masculino 40 14 18 Femenino 42 14 10 Total 82 28 28 Fourth Grade 2.1.3 Resultados 2.1.3.1 Validez del constructo El test de Shapiro-Wilk indicó que no había normalidad en la distribución de los alumnos de tercer y cuarto grado, (valor de 3.246e-06 pata tercero y 1.613e-07 para cuarto). Por su parte, el test de Barlett indicó que las varianzas de los grupos en estudio eran homogéneas (valor de 0.3007). Aunque el supuesto de normalidad de las distribuciones no se cumplió, según Sheng (2008) el ANOVA es un test robusto, por tanto, es posible utilizarlo aunque algunos supuestos fueron violados. Para esto se utilizó el test de Kruskal- 40 Wallis como una alternativa no paramétrica ante la violación del supuesto de normalidad (Osborne, 2008). El test para identificar la validez del constructo del instrumento indicó que hay diferencias significativas entre los niveles de tercer y cuarto grado con un p<0.001. 2.1.3.2 Validez del contenido Un panel de expertos que examinó la correspondencia entre las preguntas y los objetivos planteados según el marco de pensamiento crítico tuvo más de 70% de acuerdo con el instrumento creado, lo que está dentro de los valores aceptados. Los Think Alouds sirvieron, además, para identificar incomprensiones y distorsiones en la redacción de las preguntas que fueron corregidas en la versión final aplicada a la muestra grande. 2.1.3.3 Validez de criterio y Pearson product-moment correlation La Pearson product-moment correlation entre los resultados del test y las notas de los estudiantes fueron 0.805 para el tercer grado y 0.732 para el cuarto grado, que Dancey & Reidy (2004) clasifican como una correlación fuerte (<0.7), lo que constituye una evidencia robusta para la validez de criterio. 2.1.3.4 Confiabilidad Se encontró un Alpha de Cronbach de 0.917 para el test antes del análisis de ítems. Luego de realizado el análisis, el Alpha de Cronbach final resultó en un valor de 0.909, lo que muestra que el test es confiable (George & Mallery, 2003). Este segundo valor corresponde al resultado después de analizar los 41 ítems de acuerdo a su nivel de dificultad y discriminación como se muestra en la sección siguiente. 2.1.3.5 Análisis de ítems. Los resultados del análisis de ítems se organizaron de acuerdo a la dimensión de pensamiento crítico medida, con respecto a su dificultad y discriminación tal como lo muestra la tabla 2. Para este estudio se seleccionó un rango entre 0.4 y 0.6, ya que, siguiendo a Womer (1968), este rango determina que una pregunta es apropiada para ser incluida como parte de un instrumento de medición. Además, Nitko (1996) explica que aquellos ítems con índice de dificultad menor a 0.2 y mayor a 0.8 deben ser rechazados por ser muy fáciles o muy difíciles, recomendación que seguimos en este instrumento. Por último, se decidió que los ítems con índice de dificultad entre 0.2 y 0.4, y aquellos con índice de dificultad entre 0.6 y 0.8 se integrarían siempre que aportaran con la coherencia de la narrativa sobre la que estaba construido el test y aportaran mayor información. Por otro lado, se consideró que un índice de discriminación era aceptable para un ítem si es mayor a 0.3, por tanto, aquellos ítems sobre 0.3 se consideraron buenos y aquellos con una discriminación bajo 0.3 se consideraron malos (Adkins, 1974; Hinkle, et al, 2003; Nitko, 1996). Un resumen de la distribución de todas las preguntas de acuerdo a su dificultad y su discriminación, indicando la dimensión y sub-dimensión a la que pertenecen se encuentra en tabla 4 en el Anexo. Al observar los resultados de la Tabla 5 (anexo) se aprecia que Análisis es la dimensión con mayor dificultad y menor discriminación con un índice de 42 dificultad promedio de 0.36 y un índice de discriminación promedio de 0.38. Por otro lado, la dimensión con menor dificultad fue Interpretación con un índice de dificultad promedio de 0.62. Se definió según los criterios de Womer (1968) de dificultad y discriminación de los ítems, aquellos que, en primera instancia, formarían parte del test (ítems 2a, 3, 4, 6a, 10, 14b, 22, 23b, 27a). Por otro lado, siguiendo los criterios de Nitko (1996), se determinó que se incluirían tambien los ítems (1a, 2b, 7, 8, 11, 12, 13, 14a, 16, 17a, 17,b, 18, 19a, 19b, 21, 26, 28a, 28b, 29a, 29b), con el fin de obtener mayor información, mientras preservaran la coherencia total del test. Por último, se eliminó un ítem(6b) que tenía correlación 1 con otro que apuntaban al mismo indicador de logro. De esta manera, como se muestra en la tabla 5 (anexo), se obtuvieron valores de dificultad y discriminación dentro de los rangos sugeridos arriba por Womer (1968) y Nitko (1996). Tabla 2: Resumen discriminación y Dificultad por pregunta Discriminación/ Difícil (<0.2) Dificultad (0.2-0.4) Apropiado (0.4-0.6) (0.6-0.8) Fácil (>0.8) Malos (<0.3) 2 ítems 2 ítems 0 ítems 0 ítems 2 ítems Buenos (>0.3) 1 ítem 5 ítems 10 ítems 18 ítems 2 ítems 2.1.3.4 Diferencias entre colegios Se realizó una comparación entre los grupos de los distintos establecimientos educacionales. Esto fue posible, ya que aunque la distribución de uno de los grupos no cumplía con el supuesto de normalidad para el test de Shapiro-Wilk 43 (alto: 3.208e-05, medio: 0.07288, bajo: 0.0207) y las varianzas no eran homogéneas con un test de Bartlett de 1.063e-07, el ANOVA es un test robusto y permite la violación de supuestos (Sheng, 2008). Por tanto, se utilizó el test de Kruskal-Wallis, una alternativa no paramétrica al test de ANOVA (Osborne, 2008). Se identificaron diferencias significativas entre los grupos de estratos socioeconómicos con un p<0.001. Luego, un test de Tukey post hoc mostró que las diferencias eran significativas at p >0.05 entre todos los grupos entre sí. Para analizar más detalladamente estas diferencias, en la Tabla 3 se muestran los puntajes promedio del test por establecimiento, además de la desviación estándar. Se ve claramente que en el colegio de estrato socioeconómico más alto, los puntajes son considerablemente más altos (22.15 para cuartos y 19.3 para terceros) que los colegios de estrato medio (14.75 para 4 y 10.73 para terceros) y bajo (10.61 para cuartos y 6.97 para terceros). Por otro lado, uno de los resultados relevantes en este aspecto es que la desviación estándar del colegio de estrato socioeconómico alto, baja considerablemente del tercero al cuarto básico un 28% (de 4.55 a 3.27 puntos), en el colegio de nivel medio, la desviación se mantiene prácticamente igual (6.95 comparado a 6.97 en estudiantes de tercer grado). Por último, el colegio de nivel bajo muestra un retroceso, demostrando un aumento en la desviación estándar de sus puntajes de 6.2 a 6.06 puntos. Esto, podría sugerir que en el colegio de sector socioeconómico alto se reduce la diferencia entre el rendimiento, mientras que en los otros colegios, esto no sucede. Tabla 3: Promedios por curso y tipo de colegio 44 Estrato socioeconómico Curso Promedio Alto Alto Medio Medio Bajo Bajo 22.15 19.3 14.75 10.73 10.61 6.97 4 3 4 3 4 3 Desviación estándar 3.27 4.55 6.95 6.97 6.20 6.06 2.1.4 Conclusiones El objetivo de este artículo fue responder las siguientes dos preguntas de investigación. Primero, ¿ Cómo diseñar y validar un test que distinga el nivel de pensamiento crítico en niños de educación primaria en un dominio específico? Para eso se efectuó el diseño y validación de un test de pensamiento crítico para el dominio de lenguaje y comunicación mediante el uso de una narrativa gráfica y textual. Se cumplió este desafío, validando el test para tercero y cuarto grado. Es interesante notar que no existen otros tests que hayan utilizado el formato de la narrativa gráfica con apoyo textual para medir el nivel de pensamiento crítico en estudiantes en los niveles de tercer y cuarto grado. El desarrollo de test que integren narrativas gráficas y textuales tiene ventajas instruccionales en términos de la motivación e interés de los estudiantes (Chase, et al., 2014), el desarrollo de habilidades de nivel superior (Pantaleo, 2014), su efectividad para la enseñanza de la alfabetización (Jennings, et al., 2014) y el soporte para lectores con dificultad de visualizar historias (Lyga, 2006). Queda como trabajo futuro validar instrumentos en otros dominios específicos, como en ciencias y matemáticas, La principal limitación del instrumento es el contexto cultural donde se desarrolló. Considerando que los factores culturales son especialmente 45 importantes en el desarrollo del pensamiento crítico en clases de lenguaje (Guo, 2013), por ejemplo, el registro de efectos significativos de la cultura en el pensamiento crítico de estudiantes de educación superior en actividades de escritura de blogs (Shahsavar, 2014) o la influencia de la cultura institucional sobre el pensamiento crítico de los estudiantes (Tsui, 2000). Es importante recalcar también que, como el marco conceptual se realizó dentro de un contexto cultural específico, un grupo de estudiantes podría estar en una desventaja respecto a otro grupo por la estructura del test y no por una diferencia en su nivel de pensamiento crítico (Howe, 1995; Childs, 1990). Es necesario como trabajo futuro estudiar cómo afecta la cultura local este marco conceptual de pensamiento crítico. Adicionalmente, es necesario estudiar cómo afecta la cultura local tanto la comprensión de imágenes como la estructura narrativa en el desempeño del instrumento. La cuantificación de factores culturales ha sido estudiada por Hofstede (2001) en adultos, pero es incipiente su medición en niños (Hofstede, 1986). El desarrollo de una herramienta en este sentido colaboraría con la robustez del desarrollo de un instrumento de pensamiento crítico para niños en distintas realidades culturales. Segundo, una vez validado el test, se resolvió indagar la pregunta sobre ¿Qué diferencias existen en el nivel de pensamiento crítico dependiendo del tipo de colegio al que asiste el alumno? En este sentido, se encontraron diferencias significativas entre los grupos socioeconómicos por establecimiento educacional. Esto sugiere que podría haber una relación entre el estrato socioeconómico y el desarrollo de la habilidad de pensamiento crítico. Esto es especialmente notorio al observar que mientras que en el colegio de estrato 46 socioeconómico alto la desviación estándar se reduce, aumentando la homogeneidad de los estudiantes, en los otros establecimientos la desviación estándar se mantiene. Aunque se necesitan más resultados en esta dirección, cabría preguntarse si es posible recuperar esta diferencia mediante la instrucción en las habilidades de pensamiento crítico que se miden en este instrumento. Este trabajo es un primer paso para que las instituciones educacionales en primaria cuenten con un instrumento que les permita conocer el estado del desarrollo del pensamiento crítico en sus estudiantes. Este test es una mejora en las evaluaciones disponibles al desplazarce de modelos unidimensionales de medición a modelos que entreguen una imagen más detallada y múltiple del aprendizaje del estudiante (Conley, 2015). Las limitaciones de este trabajo es tanto el rango escolar, el contexto cultural y el dominio estudiado. En un trabajo futuro es necesario trabajar las limitantes indicadas. 47 CONCLUSIONES FINALES El objetivo principal de este trabajo fue la construcción de un modelo de evaluación y el diseño de un test de pensamiento crítico para niños en educación primaria. El desarrollo del test siguió las indicaciones recomendadas por los nuevos paradigmas de evaluación educacional de habilidades del siglo XXI. De esta manera, se consiguió elaborar un instrumento de evaluación que presenta una imagen más completa del nivel de pensamiento crítico de los estudiantes. El uso de este instrumento puede beneficiar dos áreas del sector educacional a los que afecta directamente. Por una parte, el instrumento puede integrarse a nivel local en colegios chilenos para evaluar el nivel de pensamiento crítico en niños de tercer y cuarto grado. El formato de la narrativa gráfica utilizado hace más amigable su implementación en las salas de clases. De esta manera, los profesores adquieren una guía sobre el impacto que sus clases tienen en el desarrollo de pensamiento crítico en sus estudiantes. Por otra parte, este instrumento permite recolectar importante información sobre el estado del pensamiento crítico para los investigadores educacionales en Chile, tanto en el área de pensamiento crítico mismo como en su posible relación con la comprensión lectora y el desarrollo de la escritura. Además, el proceso de diseño de este test, así como el instrumento mismo, puede utilizarse para la creación de nuevos instrumentos de pensamiento crítico, tanto en el dominio de lenguaje y comunicación como en otras áreas relevantes para el currículum. 48 Un paso necesario en la continuación de esta línea de trabajo es el desarrollo de nuevas herramientas instruccionales coherentes con el tipo de habilidad evaluada por el instrumento diseñado en esta investigación. Tal como sugiere Dochy (2001), es conveniente que los instrumentos de evaluación y la instrucción sean diseñados coordinadamente para que el proceso de aprendizaje sea efectivo y relevante. Adicionalmente, la investigación da un primer paso al explorar la relación entre el pensamiento crítico y el estrato socioeconómico en estudiantes chilenos. Explorar este vínculo con mayor profundidad podría explicar cómo el aprendizaje de habilidades de nivel superior, exigidas cada vez más en el contexto laboral contemporáneo, sustenta lógicas de diferenciación social que, según Van Zanten (2005), impactan en la reproducción de privilegios de clase al interior de las comunidades. Queda pendiente aún la implementación del test de cultura con el que el modelo propuesto podría aplicarse íntegramente. Una vez validado este test, se podrá obtener información relevante sobre el impacto que tienen los factores culturales sobre la relación entre el pensamiento crítico y otras competencias educacionales. En particular, como se sugiere en esta investigación, sobre la competencia lectora. Una limitación adicional del test es el formato de libro de texto utilizado en su primera implementación. En el futuro, sería deseable considerar la integración de un argumentador digital, lo que permitiría utilizar los medios tecnológicos para mejorar la manipulación práctica del instrumento en cuestión y medir otros factores no disponibles en un formato análogo. 49 Si bien algunos aspectos de la investigación pueden ser perfeccionados, es presumible que, al menos, se han establecido bases sólidas para el desarrollo de los estudios de pensamiento crítico en la educación chilena. 50 BIBLIOGRAFIA Adkins, D. C. (1974). Test construction: Development and interpretation of achievement tests. Columbus, Ohio: Merrill Publishing Company. Alexander, P. A., & Judy, J. E. (1988). The interaction of domain-specific and strategic knowledge in academic performance. Review of Educational research,58(4), 375-404. Ary, D., Jacobs, L., Sorensen, C., & Walker, D. (2013). Introduction to research in education. Cengage Learning. Bailin, S. (1995). Is critical thinking biased? Clarifications and implications.Educational Theory, 45(2), 191-197. Bailin, S. (2002). Critical thinking and science education. Science & Education, 11(4), 361–375. Bailin, S., Case, R., Coombs, J. R., & Daniels, L. B. (1999). Conceptualizing critical thinking. Journal of Curriculum Studies, 31(3), 285–302. Baron, R. M., & Kenny, D. A. (1986). The moderator–mediator variable distinction in social psychological research: Conceptual, strategic, and statistical considerations. Journal of personality and social psychology, 51(6), 1173. Basualdo, C. (2007). La Evaluación del Sistema Educativo en Chile: Una aproximación contextual. Proyecto de Investigación, Universidad Nacional de Salta. Bates, T. (2001). International distance education: Cultural and ethical issues.Distance Education, 22(1), 122-136. Bates, A. W., & Poole, G. (2003). Effective Teaching with Technology in Higher Education: Foundations for Success. Jossey-Bass, An Imprint of Wiley. 10475 Crosspoint Blvd, Indianapolis, IN 46256. 51 Bean, J. C. (2011). Engaging ideas: The professor's guide to integrating writing, critical thinking, and active learning in the classroom. San Francisco: John Wiley & Sons. Bennett, M. J. (1997). How not to be a fluent fool: Understanding the cultural dimension of language. New ways in teaching culture, 16-21. Berland, L. K., & McNeill, K. L. (2012). For whom is argument and explanation a necessary distinction? A response to Osborne and Patterson. Science Education, 96(5), 808-813. Bourdieu, P. (1993). The field of cultural production: Essays on art and literature. New York: Columbia University Press. Bourdieu, P. (2011). The forms of capital. (1986). Cultural theory: An anthology, 8193. Breen, R., & Goldthorpe, J. H. (1997). Explaining educational differentials towards a formal rational action theory. Rationality and society, 9(3), 275-305. Brown, J. D. (2000). What is construct validity? JALT Testing and Evaluation SIG Newsletter, 4(2), 7-10. Brown, N. J., Afflerbach, P. P., & Croninger, R. G. (2014). Assessment of criticalanalytic thinking. Educational Psychology Review, 26(4), 543-560. Butler, H. A., Dwyer, C. P., Hogan, M. J., Franco, A., Rivas, S. F., Saiz, C., & Almeida, L. S. (2012). The Halpern Critical Thinking Assessment and real-world outcomes: cross-national applications. Thinking Skills and Creativity, 7(2), 112-121. Chapman, J. (2014). Critical Thinking and TOEIC: Advanced Skills for Teachers and Test-Takers. The 2013 PanSIG Proceedings, 102. 52 Chase, M., Son, E. H., & Steiner, S. (2014). Sequencing and Graphic Novels With Primary‐Grade Students. The Reading Teacher, 67(6), 435-443. Cheung, C. K., Rudowicz, E., Lang, G., Yue, X. D., & Kwan, A. S. (2001). Critical thinking among university students: does the family background matter? College Student Journal, 35(4), 577. Childs, R. (1990). Gender bias and fairness. Practical Assessment, Research & Evaluation, 2(3). Colaiaco, J. A. (2013). Socrates against Athens: philosophy on trial. New York: Routledge. Cole, M. (1971). The Cultural Context of Learning and Thinking: An Exploration in Experimental Anthropology. London: Methuen. Conley, D. (2015). A New Era for Educational Assessment. education policy analysis archives, 23, 8. Cronbach, L. J. (1971). Test validation. In R. L. Thorndike (Ed.). Educational Measurement (2nd Ed.). Washington, D. C.: American Council on Education. Dancey C., Reidy J. (2004). Statistics Without Maths for Psychology: Using SPSS for Windows. London: Prentice Hall Darling-Hammond, L., Wilhoit, G., & Pittenger, L. (2014). Accountability for college and career readiness: Developing a new paradigm. education policy analysis archives, 22(86), 1. Das, A. (2013). The Impact of Children’s Literature in the Teaching of English to Young Learners. International Journal of English: Literature, Language & Skills. Deal, T. E., & Peterson, K. D. (1999). Shaping school culture: The heart of leadership. San Francisco: Jossey-Bass Inc. 53 Dede, C. (2010). Comparing frameworks for 21st century skills. 21st century skills: Rethinking how students learn, 20, 51-76. Dillashaw, F.G. & Okey, J. R. (1980). Test of Integrated Science Process Skills for Secondary Students. Science Education, 64, 601-608. Dochy, F. (2001). A new assessment era: different needs, new challenges.Learning and Instruction, 10, 11-20. Downey, E. M. (2009). Graphic novels in curriculum and instruction collections.Reference & User Services Quarterly, 49(2), 181-188. Dwyer, C. P., Hogan, M. J., & Stewart, I. (2014). An integrated critical thinking framework for the 21st century. Thinking Skills and Creativity, 12, 43-52. Emmison, M., & Smith, P. (2000). Researching the Visual: Images, Objects, Contexts and Interactions in Social and Cultural Inquiry: Introducing Qualitative Methods. London: Sage. Ennis, R. H. (1989). Critical thinking and subject specificity: Clarification and needed research. Educational researcher, 18(3), 4-10. Ennis, R. (1992) Conflicting Views on Teaching Critical Reasoning, in: R. Talaska (ed.), Critical Reasoning in Contemporary Culture (Albany, SUNY Press). Ennis, R. H. (1993). Critical thinking assessment. Theory into practice, 32(3), 179186. Ennis, R. H. (1998). Is critical thinking culturally biased?. Teaching Philosophy,21(1), 15-33. Ennis, R.H. & Millman, J. (1985). Cornell Critical Thinking Test-Level X. Pacific Grove, CA: Midwest Publications. 54 Ennis, R.H. & Weir, E. (1985). The Ennis-Weir essay test: An instrument for testing and teaching. Midwest Publications: Pacific Grove, CA. Ericsson, K. A., & Simon, H. A. (1993). Protocol Analysis: Verbal reports on data. Cambridge, MA: MIT Press. Facione, P. A. (1990). Critical Thinking: A Statement of Expert Consensus for Purposes of Educational Assessment and Instruction. Research Findings and Recommendations. http://assessment.aas.duke.edu/documents/Delphi_Report.pdf, downloaded Feb 3, 2014. Facione, P. A. (2007). Critical thinking: What it is and why it counts. Insight Assessment, 2007, 1-23. Fairchild, A. J., & McQuillin, S. D. (2010). Evaluating mediation and moderation effects in school psychology: A presentation of methods and review of current practice. Journal of school psychology, 48(1), 53-84. Filmer, D., Hasan, A., & Pritchett, L. (2006). A millennium learning goal: Measuring real progress in education. Center for Global Development Working Paper, (97). Flaherty, E. G. (1974). The thinking aloud technique and problem-solving ability. Journal of Educational Research, 68, 223-225. Flavell, J. H. (1979). Metacognition and cognitive monitoring: A new area of cognitive–developmental inquiry. American psychologist, 34(10), 906. Frey, N., & Fisher, D. (2004). Using graphic novels, anime, and the Internet in an urban high school. English Journal, 19-25. Gallego, F. A. (2002). Competencia y resultados educativos: teoría y evidencia para Chile. cuadernos de economía, 39(118), 309-352. 55 Gelman, S. A., & Markman, E. M. (1987). Young children's inductions from natural kinds: The role of categories and appearances. Child development, 1532-1541. George, D and Mallery, P. (2003). SPSS for Windows step by step: a simple guide and reference. Boston, MA: Allyn and Bacon. Glaser, R. (1984). Education and thinking: The role of knowledge. American psychologist, 39(2), 93. Greenhill, V. (2009). P21 framework definitions document, Retrieved December 15, 2010, from, http://www.21stcenturyskills.org/documents/p21_framework_definitions_052909.pd f. Griffin, P., McGaw, B., & Care, E. (2012). Assessment and Teaching of 21st Century Skills. New York: Springer Grossman, D. L. (2008). Democracy, citizenship education and inclusion: a multidimensional approach. Prospects, 38(1), 35-46. Gruenert, S., & Whitaker, T. (2015). School Culture Rewired: How to Define, Assess, and Transform It. ASCD. Guo, M. (2013). Developing Critical Thinking in English Class: Culture-based Knowledge and Skills. Theory and Practice in Language Studies, 3(3), 503-507. Halpern, D. F. (1998). Teaching critical thinking for transfer across domains: Disposition, skills, structure training, and metacognitive monitoring. American Psychologist, 53(4), 449. Halpern, D. (2003). Thought and knowledge: An introduction to critical thinking (4th ed.). Mahwah, NJ: Lawrence Erlbaum Associates. 56 Hapgood, S., Magnusson, S. J., & Sullivan-Palincsar, A. (2004). Teacher, text, and experience: A case of young children's scientific inquiry. Journal of the Learning Sciences, 13(A), 455-505. Hassett, D. D., & Schleble, M. B. (2007). Finding Space and Time for the Visual in K-12 Literacy Instruction. English Journal, 97(1). Hernandez, D. J. (2011). Double Jeopardy: How Third-Grade Reading Skills and Poverty Influence High School Graduation. Annie E. Casey Foundation. Heyman, G. D. (2008). Children's critical thinking when learning from others. Current Directions in Psychological Science, 17(5), 344-347. Higgins, S. (2014). Critical thinking for 21st-century education: A cyber-tooth curriculum?. Prospects, 44(4), 559-574. Hill, R., & Shadija, D. (2010). Culture, Critical Thinking and Computing. Proceedings of the International Workshop CS-LTA 2010, 26 July 2010, Kuching, Malaysia, 21-26. Hinkle, D. E., Wiersma, W., & Jurs, S. G. (2003). Applied statistics for the behavioral sciences. Boston: Houghton Mifflin. Hofstede, G. (1986). Cultural differences in teaching and learning. International Journal of intercultural relations, 10(3), 301-320. Hofstede, G. (2001). Culture's consequences: Comparing values, behaviors, institutions and organizations across nations. Thousand Oaks, California: Sage. Hofstede, G. (2008, August). Cultural Differences in Teaching and Learning. Retrieved 12 11, 2013, from, fuhu.dk: http://fuhu.dk/filer/FBE/Arrangementer/Denmark%20Unlimited%20080508/FBE_ge ert_hofstede_teaching_learning.pdf 57 Hofstede, G., & Minkov, M. (2010). Cultures and Organizations: Software of the Mind. United States of America: McGraw-Hill. Hong-Nam, K., Leavell, A. G., & Maher, S. (2014). The Relationships among Reported Strategy Use, Metacognitive Awareness, and Reading Achievement of High School Students. Reading Psychology, 35(8), 762-790. Howe, K. (1995). Validity, Bias and Justice in Educational Testing: The Limits of Consequensialist Conception. In A. Neiman, Ed., Philosophy of education. Normal, ILL: Philosophy of Education Society, pp. 295-302. Hudgins, B. B., et al. (1989). Children's critical thinking: A model for its analysis and two examples. Journal of Educational Research, 82(6), 327-338. Jenkins, E. K. (1998). The significant role of critical thinking in predicting auditing students' performance. Journal of Education for Business, 73(5), 274-279. Jennings, K. A., Rule, A. C., & Zanden, S. M. V. (2014). Fifth Graders’ Enjoyment, Interest, and Comprehension of Graphic Novels Compared to Heavily-Illustrated and Traditional Novels. International Electronic Journal of Elementary Education, 6(2), 257. Jiménez-Aleixandre, M. P., & Puig, B. (2012). Argumentation, evidence evaluation and critical thinking. In Second international handbook of science education (pp. 1001-1015). Netherlands: Springer. Jones, M. L. (2007, June). Hofstede—cultural questionable? Paper presented at Oxford: Business and Economic Conference, Oxford, UK. Retrieved from http://ro.uow.edu.au/commpapers/370 Kant, I. (1994). ¿Qué es la ilustración? Revista colombiana de psicología, 3, 7-10. 58 Kennedy, M., Fisher, M. B., & Ennis, R. H. (1991). Critical thinking: Literature review and needed research. Educational values and cognitive instruction: Implications for reform, 2, 11-40. Kim, K., Sharma, P., Land, S. M., & Furlong, K. P. (2013). Effects of active learning on enhancing student critical thinking in an undergraduate general science course. Innovative Higher Education, 38(3), 223-235. Ku, K. Y., & Ho, I. T. (2010). Metacognitive strategies that enhance critical thinking. Metacognition and learning, 5(3), 251-267. Ku, K. Y., Ho, I. T., Hau, K. T., & Lai, E. C. (2014). Integrating direct and inquirybased instruction in the teaching of critical thinking: an intervention study. Instructional Science, 42(2), 251-269. Kuh, G. D. (1990). Assessing student culture. New Directions for Institutional Research, 1990(68), 47-60. Kuhn, D. (1999). A developmental model of critical thinking. Educational researcher, 28(2), 16-46. Kurtz, B. E. (1990). Cultural influences on children’s cognitive and metacognitive development. In Interactions among aptitudes, strategies, and knowledge in cognitive performance (pp. 177-199). Springer New York. Lai, E. R. (2011). Critical thinking: A literature review. Pearson's Research Reports, 6, 40-41. Lazo, V. G., & Smith, J. (2014). Developing thinking skills through the visual: An a/r/tographical journey. International Journal of Education through Art, 10(1), 99116. 59 Levy, F., & Murnane, R. J. (2012). The new division of labor: How computers are creating the next job market. Princeton University Press. Lieberman, A. (1988). Building a professional culture in schools. New York: Teachers College Press, Teachers College. Lipka, J., & Ilutsik, E. (2014). Transforming the Culture of Schools: Yupi’k Eskimo. New York: Routledge. Lyga, A. A. (2006). Graphic Novels for (Really) Young Readers: Owly, Buzzboy, Pinky and Stinky. Who Are These Guys? And Why Aren't They Ever on The Shelf?. School Library Journal, 52(3), 56. MacKinnon, D. P., Fairchild, A. J., & Fritz, M. S. (2007). Mediation analysis.Annual review of psychology, 58, 593. Magno, C. (2010). The role of metacognitive skills in developing critical thinking.Metacognition and learning, 5(2), 137-156. Maiorana, V. P. (1992). Critical Thinking across the Curriculum: Building the Analytical Classroom. ERIC Clearinghouse on Reading and Communication Skills, 2805 E. 10th St., Suite 150, Bloomington, IN 47408-2698. Manalo, E., Kusumi, T., Koyasu, M., Michita, Y., & Tanaka, Y. (2013). To what extent do culture-related factors influence university students’ critical thinking use?. Thinking Skills and Creativity, 10, 121-132. Marques, J.F., (2012), Moving from trance to think: why we need to polish our critical thinking skills, International Journal of Leadership Studies, Vol. 7 Iss. 1, 2012, 87-95 Martinez, M. E. (2006). What is metacognition? Phi Delta Kappan, 87(9), 696–699. 60 May, D. B., Hammer, D., & Roy, P. (2006). Children's analogical reasoning in a third grade science discussion. Science Education, 90(2), 316-330. McNamara, D. S., & Magliano, J. P. (2009). 5 Self-Explanation and Metacognition. Handbook of metacognition in education, 60. McMillan, J. (1987). Enhancing college students’ critical thinking: A review of studies. Research in Higher Education, 26 (1), 3-29. McPeck, J. (1981). Critical Thinking and Education. Oxford: Martin Robertson. Mineduc. (2013a). Matemática programa de estudio 3° Básico. Retrieved from http://www.curriculumenlineamineduc.cl/605/articles-18978_programa.pdf Mineduc. (2013b). Lenguaje y comunicación. Programa de estudio 3° Básico. Retrieved from http://www.curriculumenlineamineduc.cl/605/articles- 18962_programa.pdf Mineduc, OCDE & SIMCE. PISA Evaluación de las competencias lectoras para el siglo XXI. Marco de evaluación y preguntas de la prueba. http://www.agenciaeducacion.cl/wpcontent/files_mf/pisa_evaluacion_de_las_competencias_lectoras_para_el_siglo_xxi_ final.pdf Moore, M.& Zigo, D. (2005). Chicken Soup for the Science Fiction Soul: Breaking the Genre Lock in the High School Literacy Experience. Journal of Curriculum. 21(3), 29-45. Moreno, G. (2014, Abril 1). Prueba PISA: escolares chilenos están entre los más bajos de la OCDE en solución de problemas. La Tercera [en línea]. Consultado 22 de Abril, 2015. 61 Mulnix, J. W. (2012). Thinking critically about critical thinking. Educational Philosophy and Theory, 44(5), 464-479. Munn, N. D. (1992). The cultural anthropology of time: a critical essay. Annual Review of Anthropology, 93-123. Nickerson, R. (1988). On improving thinking through instruction. Review of Research in Education, 15(3), 3-57. Nippold, M. A., Frantz-Kaspar, M. W., Cramond, P. M., Kirk, C., HaywardMayhew, C., & MacKinnon, M. (2015). Critical Thinking about Fables: Examining Language Production and Comprehension in Adolescents. Journal of Speech, Language, and Hearing Research. Nitko, A. J. (1996). Educational Assessment of Students. 2nd ed. New Jersey: Prentice-Hall. Niu, L., Behar-Horenstein, L. S., & Garvan, C. W. (2013). Do instructional interventions influence college students’ critical thinking skills? A metaanalysis.Educational Research Review, 9, 114-128. Nussbaum, M. C. (2011). Creating capabilities. Boston: Harvard University Press. Nussbaum, M. C. (2012). Not for profit: Why democracy needs the humanities. NJ: Princeton University Press. O’Flahavan, J. & Tierney, R. (2013). Reading, Writing, and Critical Thinking. Educational Values and Cognitive Instruction: Implications for Reform, 41. Osakwe, R. N. (2009). The effect of early childhood education experience on the academic performances of primary school children. Stud Home Comm Sci,3(2), 143147. 62 Osborne, J. W. (Ed.). (2008). Best practices in quantitative methods. Thousands Oaks: Sage. Palincsar, A. S. (2005). Social constructivist perspectives on teaching and learning. An introduction to Vygotsky, 285. Pantaleo, S. (2014). Reading images in graphic novels: Taking students to a greater thinking level. English in Australia, 49(1), 38. Paul, R. (1992). Critical thinking: What, why, and how. New Directions for Community Colleges, 1992(77), 3-24. Pérez-Arce, P. (1999). The influence of culture on cognition. Archives of Clinical Neuropsychology, 14(7), 581-592. Pithers, R. T., & Soden, R. (2000). Critical thinking in education: A review.Educational Research, 42(3), 237-249. Presseisen, B. Z. (1987). Thinking and curriculum: Critical crossroads for educational change. In M. Heiman & J. Slomianko (Eds.). Thinking skills instruction: Concepts and techniques (pr. 31-39). Washington, DC: National Educational Association. Ramírez, M. J. (2011). El SIMCE en el contexto de la ley de aseguramiento de la calidad de la educación. Opciones para mejorar nuestro sistema de evaluación. Estudios públicos (Santiago), (123), 213-235. Reid, J., & Anderson, P. (2012). Critical thinking: The foundation of education in a technological world. Education in a technological world: Communicating current and emerging research and technological efforts, 1, 120-126. 63 Rubio, D. M., Berg-Weger, M., Tebb, S. S., Lee, E. S., & Rauch, S. (2003). Objectifying content validity: Conducting a content validity study in social work research. Social Work Research, 27(2), 94-104. Rueda, R. (2006). Motivational And Cognitive Aspects Of Culturally Accommodated Instruction. Effective schools, 6, 135. Salili, F., Chiu, C. Y., & Lai, S. (2001). The influence of culture and context on students’ motivational orientation and performance (pp. 221-247). Springer US. Santelices, M. V., Ugarte, J. J., Flotts, P., Radovic, D., & Kyllonen, P. (2011). Measurement of New Attributes for Chile's Admissions System to Higher Education. ETS Research Report Series, 2011(1), i-44. Sayed, Y. (2013). Making education a priority in the post-2015 development agenda: report of the Global Thematic Consultation on Education in the Post-2015 Development Agenda. Schein, E. H. (1993). How can organizations learn faster? The challenge of entering the green room. Sloan Management Review, 34(2), 85-92. Schkade, L. L., Roman S. & Uzawa, M. (1978). Human Information Processing and Environmental Complexity--An Experiment in Four Cultures: India, Japan, Mexico and the USA. Journal of Management (ACS, India), 8 (1), 56-63. Schwarz, G. (2006). Expanding literacies through graphic novels. English Journal, 58-64. Shahsavar, Z. (2014). The Impact Of Culture On Using Critical Thinking Skills Through The Blog. Media & Mass Communication, 3, 99-105. Sheng, Y. (2008). Testing the assumptions of analysis of variance, In Osborne, J.W. (Ed.) 64 Siegel, H. (1992). The generalizability of critical thinking skills, dispositions and epistemology. In S. Norris (Ed.), The generalizability of critical thinking (pp. 97108). New York: Teachers College Press. Silva, E. (2009). Measuring skills for 21st-century learning. Phi Delta Kappan, 630634. Søndergaard, M. (1994). Hofstede's consequences: A study of reviews, citations and replications. Organization Studies 15(3): 447. Songer, N. B., & Gotwals, A. W. (2012). Guiding explanation construction by children at the entry points of learning progressions. Journal of Research in Science Teaching, 49(2), 141-165. Sturken, M., Cartwright, L., & Sturken, M. (2001). Practices of looking: An introduction to visual culture. Oxford: Oxford University Press Sullivan, A. (2001). Cultural Capital and Educational Attainment. Sociology. 35(4) 893-912. Swaggerty, E. A. (2015). Selecting Engaging Texts for Upper Elementary Students Who Avoid Reading or Find Reading Difficult. Children's Literature in the Reading Program: Engaging Young Readers in the 21st Century, 150. Trompenaars, F., & Hampden-Turner, C. (1998). Riding the waves of culture. New York: McGraw-Hill. Tsui, L. (1998). A review of research on critical thinking. Paper presented at the annual meeting of the Association for the Study of Higher Education, Miami, FL Tsui, L. (2000). Effects of campus culture on students' critical thinking. The Review of Higher Education, 23(4), 421-441. 65 UNESCO. (2000). Dakar Framework for Action. Education for All: Meeting Our Collective Commitments. Adopted by the World Education Forum, Dakar, Senegal, April 26–28, 1999. Paris: UNESCO. http://unesdoc.unesco.org/images/0012/001211/121147e.pdf Urdan, T., & Giancarlo, C. (2000). A Comparison of Motivational and Critical Thinking Orientations Across Ethnic Groups. Research on Sociocultural Influences on Motivation and Learning, 1, 37. Van Den Broek, P., Kendeou, P., Lousberg, S., & Visser, G. (2011). Preparing for reading comprehension: Fostering text comprehension skills in preschool and early elementary school children. International Electronic Journal of Elementary Education, 4(1), 259-268. Van Gelder, T. (2005). Teaching critical thinking: Some lessons from cognitive science. College teaching, 53(1), 41-48. Van Zanten, A. (2005). New modes of reproducing social inequality in education: the changing role of parents, teachers, schools and educational policies. European Educational Research Journal, 4(3), 155-169. Veenman, M. V. J., Wilhelm, P., & Beishuizen, J. J. (2004). The relation between intellectual and metacognitive skills from a developmental perspective. Learning and Instruction, 14(1), 89-109. Voogt J. & Pareja N. (2012). A comparative analysis of international frameworks for 21st century competences: Implications for national curriculum policies, Journal of Curriculum Studies, 44:3, 299-321 Vygotsky, L. S. (1980). Mind in society: The development of higher psychological processes. Harvard university press. 66 Watson, G. B., & Glaser, E. M. (1980). WGCTA Watson-Glaser critical thinking appraisal manual: Forms A and B. San Antonio: The Psychological Corporation. WEF & BCG (2015). New Vision for Education Unlocking the Potential of Technology. Cologny / Geneva: World Economic Forum. Weiler, A. (2005). Information-seeking behavior in Generation Y students: Motivation, critical thinking, and learning theory. The Journal of Academic Librarianship, 31(1), 46-53. Wertsch, J. V. (2009). Voices of the Mind: Sociocultural Approach to Mediated Action. Harvard University Press. Whitcomb, S., & Merrell, K. W. (2013). Behavioral, social, and emotional assessment of children and adolescents. New York: Routledge. Williams, R. L., Oliver, R., Allin, J. L., Winn, B., & Booher, C. S. (2003). Psychological critical thinking as a course predictor and outcome variable. Teaching of Psychology, 30(3), 220-223. Willingham, D. T. (2008). Critical thinking: Why is it so hard to teach?. Arts Education Policy Review, 109(4), 21-32. Wolming , S. (1998). Validitet. Ett traditionellt begrepp i modern tillämpning [Validity: A modern approach to a traditional concept]. Pedagogisk Forskning i Sverige, 3(2): 81–103. Womer, F. B. (1968). Basic concepts in testing. Boston: Houghton Mifflin. Yeh, S. S. (2001). Tests worth teaching to: Constructing state-mandated tests that emphasize critical thinking. Educational Researcher, 30(9), 12-17. 67 68 ANEXOS 69 Anexo A. Tablas Tabla 4: : Resumen puntajes y dimensiones Habilidad Interpretación Definición Indicadores de logro Sub dimensiones Comprender y expresar el significado o importancia de una gran variedad de experiencias, situaciones, Categorización datos eventos, juicios, convenciones, creencias, reglas, procedimientos o criterios. Clasificar elementos según ciertas reglas, criterios o procedimientos 0,7 Identificar qué elementos son relevantes para resolver un problema Decodificar la relevancia Determinar el papel de las imágenes visuales en una narración (*) Aclarar significado Dificultad Discriminación Representar un resultado o una operación de diferentes formas Aclarar el uso de una 0,48 0,65 0,34 0,8 0,35 0,48 0,64 0,49 0,38 70 convención Aclarar una idea a través de un ejemplo. Examinar ideas Análisis Identificar las relaciones inferenciales convencionales y reales entre declaraciones, preguntas, conceptos, Detectar argumentos descripciones u otras formas de representación para expresar creencias, juicios, experiencias, razones, información u opiniones Analizar argumentos 0,39 0,37 0,72 0,51 0,21 0,33 0,35 0,42 0,35 0,42 0,46 0,42 Juzgar si una conclusión es correcta a partir de las premisas utilizadas. 0,28 0,28 Evaluar la fuerza lógica de una objeción dado un argumento. 0,63 0,37 Comparar conceptos o afirmaciones determinando similitudes y diferencias. Identificar si un argumento está a favor o en contra de una afirmación dada. Identificar el punto principal de un argumento. (*) Identificar las razones que apoyan un argumento. (*) Evaluación Evaluar la credibilidad de las declaraciones u otras representaciones que son cuentas o descripciones de la percepción, experiencia, situación, juicio, creencia u opinión de una persona; y para evaluar la lógica de las relaciones deductivas entre las declaraciones, descripciones, preguntas u otras formas de representación. Evaluar afirmaciones Evaluar argumentos Reconocer los factores relevantes para determinar el grado de credibilidad de una fuente de información u opinión. 71 Juzgar si un argumento es pertinente, aplicable o tiene implicancias para una situación. Evaluar alternativas Evaluar los beneficios y dificultades de diferentes alternativas. (*) Discriminar si una información es útil para construir un argumento Identificar si un inferencia viene desde la evidencia. Inferencia Identificar y ratificar elementos requeridos para deducir conclusiones Cuestionar evidencia razonables; elaborar conjeturas e hipótesis; considerar información pertinente y deducir consecuencias a partir de datos, afirmaciones, principios, evidencias, juicios, creencias, opiniones, conceptos, descripciones, cuestionamientos u otras formas de representación Proponer alternativas Identificar qué información adicional es necesaria para decidir entre dos opiniones contradictorias Aceptar o rechazar una hipótesis a partir de la evidencia empírica Dado un conjunto de prioridades con el cual se puede o no estar de acuerdo, visualizar los beneficios y las dificultades que resultarán de su aplicación al tomar 0,65 0,52 0,67 0,62 0,81 0,23 0,43 0,31 0,36 0,33 0,46 0,3 0,6 0,61 72 decisiones. (*) Usa distintas estrategias para resolver problemas. (*) Sacar conclusiones 0,81 0,55 0,69 0,52 0,67 0,68 0,46 0,45 0,82 0,35 0,75 0,64 0,18 0,41 Llegar a una conclusión válida a partir de las evidencias. Comunicar las conclusiones de un procedimiento. (*) Argumentación / Explicación Ordenar y comunicar a otros los resultados de nuestro razonamiento; justificar el Indicar resultados razonamiento y sus conclusiones en términos de evidencias, conceptos, metodologías, criterios y consideraciones del contexto y presentar el razonamiento en una forma clara, convincente y persuasiva. Justificar procedimientos Comunicar en forma gráfica las relaciones entre conceptos e ideas Elaborar una narración en la que se examine, en relación a un tema, el cambio a través del tiempo Explicitar los estándares utilizados para evaluar una obra literaria Describir la estrategia utilizada para tomar una 73 decisión en una forma razonable Presentar argumentos Argumenta a favor o en contra de un punto de vista 0,63 0,65 Explicar la comprensión de un concepto. (*) 0,35 0,14 Identificar y expresar evidencias y posibles contra evidencias como una contribución dialéctica a la forma en que piensan otras personas y para su propio pensamiento. 0,72 0,66 (*) Ítems basados en el Delphi Report. (**) Indicadores que se midieron en más de una ocasión. Tabla 5: Valores promedio de Dificultad y Discriminación para el pre y post Análisis de Ítems. Habilidad Interpretación Análisis Inferencia Evaluación Explicación Pre Análisis de Ítems Dificultad Discriminación Post Análisis de Ítems Dificultad Discriminación 0,62 0,43 0,6 0,45 0,36 0,38 0,47 0,45 0,58 0,41 0,57 0,44 0,47 0,4 0,6 0,48 0,41 0,47 0,59 0,57 Anexo B. Paper en ingles Designing and implementing a test for measuring critical thinking in primary school Abstract The importance of critical thinking in education is underpinned by decades of theoretical and practical work. Differences have been demonstrated between students who receive education in this area from an early age and those who do not. However, not enough work has been done to measure these skills in a classroom setting. Given that the best time to teach critical thinking is during the first years of primary education, we designed a test to determine the level of critical thinking among 3rd and 4th grade students in Language Arts using a graphic novel. We showed the legitimacy of the instrument through Construct Validity, Content Validity, Pearson product-moment correlation, Reliability and Item Analysis. Using the instrument we studied how critical thinking skills differ among 3rd grade students, according to their socioeconomic status (SES), studying schools with low, middle and high SES. We found significant differences between the schools, which suggest that there may be a relationship between socioeconomic status and the development of critical thinking skills. The test presented in this study is an improvement on existing assessment tools as it replaces unidimensional models with models that provide a more detailed and multidimensional picture of student learning. Keywords: Critical Thinking, Assessment models, 21st Century Skills, Culture, Graphic and Textual Narrative 1. - Introduction Teaching critical thinking in schools is one of the main topics in the discussion regarding so-called 21st Century skills (Greenhill, 2009). Critical thinking has been regarded as an essential requirement for responsible human activity (Marques, 2012). It is also considered fundamental if citizens are to perform their social, professional and ethical duties (Griffin, McGaw & Care, 2012; Greenhill, 2009). Critical thinking skills allow individuals to make autonomous decisions and to question beliefs when these are not based on solid evidence (Halpern, 2003; Mulnix, 2012). There is a wide range of definitions of critical thinking. Some of these definitions are more philosophical, relating to classical thought and human development (Nussbaum, 2011); others are more focused on how critical thinking is received and developed in education (Facione, 1990; Halpern, 2003; Bailin, 2002). Despite these divergent approaches, one essential element of critical thinking is that it is a metacognitive process. Critical thinking allows us to think not just about the world around us (firstorder skills), but also about the thought process itself (second-order skills) (Kuhn, 1999; Halpern, 2003). This element of metacognition has consequences in teaching, relating directly to how the context is perceived and understood (Halpern, 2003). For example, it has been established that metacognitive processes linked to critical thinking are fundamental to the transfer of acquired knowledge (Nickerson, 1988). This study will use a definition of critical thinking that explicitly states its link to metacognition. It is therefore defined as "a metacognitive process, consisting of a number of sub-skills (e.g. analysis, evaluation and inference) that, when used appropriately, increases the chances of producing a logical conclusion to an argument or solution to a problem" (Dwyer, Hogan & Stewart, 2014, p.43). The importance of critical thinking in education is underpinned by decades of theoretical and practical work (Lai, 2011). The inclusion of critical thinking in school curriculums has been widely reported since at least the first half of the 20th Century, influenced by John Dewey (Bean, 2011). Facione (1990) suggests that developing critical thinking skills should be an objective for every grade level in the K-12 curriculum. In this sense, teaching critical thinking in schools should be integrated into regular classroom activities (Bailin et al., 1999). It is also important to teach critical thinking from early childhood. This is because significant differences have been demonstrated between students who receive education in this area from an early age and those who do not (Osakwe, 2009). However, although the importance of critical thinking to global education has been defended repeatedly, not enough work has been done to measure these skills in a classroom setting. According to UNESCO (2000), measuring improvements in critical thinking skills is essential for improving the quality of education. If tests are understood to shape both the curriculum and teaching, then an efficient way to improve the quality of education in critical thinking is to develop better tests (Yeh, 2001). The literature reports that specific knowledge of the subject in which critical thinking skills are being taught is needed if these skills are to be measured properly (Facione, 1990; Ennis 1989; McPeck 1981; Bailin, 2002; Willingham, 2008). In order to assess children’s critical thinking skills in the classroom, the assessment must therefore be situated and take into account the specific subject in which these skills are being taught (Merrel, 2003). This is because of the influence that different subjects can have on the findings or conclusions of a study, depending on the objectives of the task (Bailin, 1999). Therefore, although a certain level of generality can be assigned to critical thinking skills, their use depends on their connection to a specific subject (McPeck, 1981). Ennis (1989) suggests that the best time to teach critical thinking is during the first years of primary education. This suggestion is coherent with other studies, which conclude that young children benefit from being taught and assessed on critical thinking (Kennedy et al., 1991). However, the critical thinking tests that are available are not designed for young children and do not focus on a specific subject. Instead, they only measure critical thinking as a general skill (Ennis & Millman, 1985; Watson & Glaser, 1980; Facione, 1990; Ennis & Weir, 1985; Halpern, 2003). Faced with this problem, our first research question asks: “How can we design and validate a test that determines the level of critical thinking among primary school children in a specific subject?” The relationship between socioeconomic status and the acquirement of skills is best expressed by Bourdieu (1986). In his study, the author shows that the accumulation of economic capital can be transferred to society as cultural capital, in the form of educational skills and abilities (Bourdieu, 1986). It has been revealed that a student’s socioeconomic status substantially influences their achievements in education (Breen & Goldthorpe, 1997). It has also been shown that levels of poverty and reading skills among third grade students have an impact on their performance in higher levels of education (Hernández, 2011). Some authors suggest that a student’s socioeconomic status could also plausibly influence their level of critical thinking (Cheung et al., 2001). Our second research question therefore asks: “How do critical thinking skills differ among 3rd grade students, according to their socioeconomic status?” 2.- Methodology 2.1. Designing the test A literature review was conducted during the first stage of this study in order to define a model of critical thinking. The aim of this model is to provide suitable scaffolding of the skills required by critical thinking. Suitable scaffolding is considered to be essential for promoting critical thinking (Kim et al., 2013), especially in order to successfully teach upper-elementary school students higher-order skills (Songer & Gotwals, 2012). This is because it allows the aforementioned skills to be taught explicitly in a classroom setting (Halpern, 2003) and helps the teacher monitor how the skills are learned . This is particularly true when teaching explanation construction. The proposed model was based on the Delphi Report (Facione, 1990), in which a group of experts defined the principal skills of a critical thinker. These skills include interpretation, analysis, evaluation, inference, explanation, and self-regulation. Furthermore, the proposed model also incorporates the concepts of transferability and metacognition (Halpern, 2003). The model proposed in this study is based on sequential scaffolding. During this sequence, the students address how their thoughts are formulated (interpretation), evaluate solutions (evaluation), explore and clarify inconsistencies or missing information (analysis and inference), and, finally, explain the results of their mental process (explanation). The sequence successively infuses higher-order thinking skills (analysis, interpretation and inference) with the metacognitive process (evaluation, explanation and self-regulation). This is done by explicitly forming arguments in response to a given narrative. Special weighting is given to the explanation as the cognitive strategies used by students when constructing an explanation are heavily influenced by metacognition (McNamara & Magliano, 2009). Questions requiring reasoning were included in the model so as to track the explanatory process. According to Berland & Mcneill (2012), the explanatory and reasoning processes occur simultaneously. Using reasoning to put critical thinking into operation makes measuring this skill much simpler (Yeh, 2001). Reasoning is particularly important when it comes to measuring critical thinking as it is one of the most effective tools for discriminating between ideas based on evidence and those that are merely opinions (Jiménez-Aleixandre & Puig, 2012). In a second phase of the design process, the subject matter for the test was defined. The potential for integrating critical thinking skills from an early age is demonstrated by studies which show that children can carry out activities involving such skills as successfully as adults (Gelman & Markman, 1986; Willinghman, 2008). In this sense, it was estimated that the earliest possible age for the test to be effective is 3rd grade. This is because between 3rd and 5th grade the majority of students are capable of decoding and using most words (Swaggerty, 2015). Critical thinking has a significant impact on the learning skills that are associated with language. For example, Nippold et al. (2015) show that tasks based on critical thinking require sentences with more complex syntax than tasks based on conversations. Chapman (2014) suggests that learning critical thinking skills improves student performance on the TOEIC (Test of English for International Communication). Furthermore, the literature reports that the use of critical thinking strategies is one of the most important factors in the development of reading skills (Hong-Nam et al., 2014. Additionally, O’Flahavan & Tierney (2013) suggest that reading and writing are both highly productive tools for promoting critical thinking. Given the above, Language Arts was chosen as the subject matter to be used in this study. In order to do so, an adaptation of the plot of a well-known story was developed. The selection criteria for choosing the story took into account that, between the ages of 8 and 10, students’ thinking becomes more logical, their memory and intellectual skills improve, and they appreciate humour (Das, 2013). In this sense, the recommendation by Moore & Zigo (2005) to use science fiction was followed. This is because, as a genre, science fiction encourages the use of critical and creative reading. For this reason, the classic novel by Jules Verne, Around the World in 80 Days, was selected and adapted for children from 3rd grade. This adapted novel was used as a means to introduce the questions from the critical thinking test. In a third phase of the design process, it was felt that a graphic novel, i.e., a narrative based on both text and images, was needed in order to help deliver the test. This decision was based on the privileged position enjoyed by visual media in our culture (Emmison & Smith, 2000; Sturken & Cartwright, 2009). The consequence of this is that students basically learn from visual resources, especially during their first years of school (Downey, 2009). Frey & Fisher (2004) acknowledge that the use of graphic novels can stimulate interest in reading among students who are unmotivated by more traditional formats. Furthermore, this type of narrative is considered to boost traditional elements of the Language Arts curriculum, such as literacy (Schwarz, 2006). Another argument in favour of choosing this format is that it allows for the inclusion of elements of visual literacy that are associated with critical thinking assessment standards (Facione, 1990; Lazo & Smith, 2014). Hassett & Schleble (2007) suggest that when reading graphic novels students do not only improve their basic reading skills; they also discover new ways to think about the interaction between the image and text. Following this, a series of performance criteria were defined for each of the skills included in the theoretical framework (Table 4 in Annex 1) (Facione, 1990). The assessment of these criteria, using reading-writing activities, allowed the level of critical thinking to be determined. The narrative therefore had to be structured around these criteria. Questions were developed for each of the performance criterion so as to cover all of the skills (interpretation, analysis, inference, evaluation and explanation). There was a higher percentage of questions related to the skill of constructing explanations. This decision is justified by the fact that the cognitive strategies used by students when constructing explanations are heavily influenced by metacognition (McNamara & Magliano, 2009). This link is particularly important when developing critical thinking questions. When constructing an explanation, the student’s answer is not only based on the contents of the question; their explanation may also come from metacognitive considerations, such as analysing the type of task at hand and different strategies for completing the task (Flavell, 1979). Such emphasis is placed on metacognition because it is this process that articulates critical thinking (Dwyer, 2014). Given the above, it was decided that using short written activities based on questions would be most beneficial. This is a particularly effective teaching strategy for assessing thinking as it provides an idea of the student’s mental process when developing an argument (Bean, 2011). It was also decided to have the questions appear throughout the story, as this has been proven to be a more effective strategy than asking the questions at the end of the story (Van Den Broek et al., 2011). An example of this can be seen in Figure 1, which shows one of the scenes from the graphic novel, together with a question for the student. In this scene one of the characters (the Detective) tries to fool another character (Martin) by using a disguise consisting of a fake moustache. The interaction between the act of wearing a disguise and the visual display of the moustache allows a series of factors to be measured. The first of these is interpretation, by determining the role of visual images in a narrative. Here, the student has to be capable of understanding the role of the object as part of the disguise and not as an innate characteristic of the character. The second factor that is measured is evaluation, by weighing up the pros and cons of a given alternative. In this case, the student assesses whether the moustache is a good or bad disguise with which to fool the other character. The third factor is explanation, as the students not only have to decide whether or not it is a good disguise, they also have to give their reasons (Facione, 1990). The criteria used to evaluate their written responses are also made explicit. The markers must therefore decide whether or not the student’s response meets these criteria. If it does they are awarded 1 point; if it does not they are awarded 0 points. The marking guidelines were developed with the guidance of two experts in education and Language Arts, with the aim of ensuring that the exercises were in line with the skill that was supposedly being measured. Figure 1. Example question. 2.2- Criteria used to validate the test Construct validity, content validity and criterion validity were all analysed in order to validate the test (Brown, 2000; Wolming, 1998). Cronbach’s alpha was also used for this purpose (Cronbach, 1971). These analyses were supplemented by an item analysis. The aim of this analysis was to gather data in order to highlight the need to review, select and remove any questions that were very difficult, very easy, or that failed to discriminate (Nitko 1996). An ANOVA was conducted to provide evidence of the construct validity. The hypothesis of the ANOVA is that there would be significant differences in critical thinking skills between students in 3rd and 4th grade (Brown, 2000). The presence of this difference validates the construct as it is coherent with the literature, which shows that the level of critical thinking linked to metacognition increases with age (Veenman, Wilhelm, & Beishuizen, 2004). This is explained by the fact that in 3rd grade students can give causal explanations, make simple predictions (Hapgood et al., 2004) and partially correct analogies (May et al., 2006). From 4th grade on, they are capable of developing problem solving strategies, defining tasks and monitoring their thoughts (Hudgins et al., 1989). A panel of experts was used to demonstrate content validity (Rubio et al., 2003). The panel included an expert in education, as well as an expert in philosophy and language arts. The panel’s opinions were then compared with the test developers’ opinions in order to judge the level of consistency between the two (Dillashaw & Okey, 1980; Nitko, 1996). Four think aloud sessions were also included in the study to analyse content validity (Ericsson & Simon, 1993; Flaherty, 1974). These sessions were conducted using students of a similar age to those used in the study, as suggested by Facione (1990). Correlations have been detected between critical thinking test scores and school grades among Chilean high school students (Santelices et al., 2011). Pearson’s product moment correlation was therefore used to detect correlations between the test scores and Language Arts grades so as to analyse criterion validity. This sample strategy was used as it was not possible to access the full report cards for all of the students (Ary et al., 2013). Furthermore, Cronbach’s alpha was also used to analyse the test’s reliability. This index is used to measure the internal consistency of the test (Cronbach, 1971). An item analysis was then conducted using the test results. The aim of this was to use objective data, i.e. difficulty and discrimination indices for each question, to identify the need to review, remove or modify any of the questions (Nitko, 1996). These indices were classified according to the area of critical thinking measured by each question so as then to observe which areas the students found the most and least difficult. 2.3.- Experimental work To study the relationship between critical thinking and socioeconomic status, a stratified sample was selected based on the three types of schools that are found in the Chilean education system (state, state-subsidized and private). Each type of establishment corresponds to a different socioeconomic status: low, middle and high, respectively (Gallego, 2002). Furthermore, to analyse construct validity, the study was conducted with students from two grade levels: 3rd and 4th. The participants in the sample, Table 1, included 301 students from 3rd and 4th grade from the three types of schools. It was decided to use an ANOVA in order to prove the existence of significant differences between the different groups. 3rd Grade Gender / Socioeconomic status High Middle Low Male 55 13 17 Female 47 17 14 Total 102 30 31 th 4 Grade Gender/ Socioeconomic status High Middle Low Male 40 14 18 Female 42 14 10 Total 82 28 28 Table 1. Participants in the study by socioeconomic status and gender. 3.- Results 3.1- Construct Validity The results of the Shapiro-Wilk test suggest that the students from 3rd and 4th grade were not normally distributed (3.246e-06 for 3rd grade and 1.613e-07 for 4th grade). Furthermore, the Bartlett test shows that variances within the study groups were homogeneous (a value of 0.3007). Although the normality assumption was not met, Sheng (2008) suggests that ANOVA is a robust test. It is therefore possible to use this analysis, even though some of the assumptions were violated. In order to do so, the Kruskal-Wallis test was used as a non-parametric alternative to address the violation of the normality assumption (Osborne, 2008). The test used to analyse the construct validity of the test suggests that there are significant differences between 3rd and 4th grade, at p<0.001. 3.2- Content Validity A panel of experts examined the relationship between the questions on the test and the objectives that were established for measuring critical thinking. This panel was more than 70% in agreement with the test that had been developed, which is an acceptable level. The think aloud sessions also allowed questions that were misunderstood or unclear to be corrected in the final version of the test. 3.3- Pearson product-moment correlation The Pearson product-moment correlation between the test scores and the students’ grades was 0.805 for 3rd grade and 0.723 for 4th grade. Dancey & Reidy (2004) classify strong correlation as being greater than 0.7. The results of this analysis therefore provide strong evidence of the criterion validity. 3.4- Reliability Before the item analysis, Cronbach’s alpha for the test was 0.917. Following the item analysis, Cronbach’s alpha was 0.909, which shows that the test is reliable (George & Mallery, 2003). The latter value is the result that was obtained having analysed the items according to their level of difficulty and discrimination, as detailed in the following section. 3.5- Item analysis The results from the item analysis were organized according to the area of critical thinking that was measured, and measured the level of difficulty and discrimination of each item (Table 2). A range of between 0.4 and 0.6 was chosen for this study as Womer (1968) suggests that this range can determine whether or not a question should be included on a test. Nitko (1996) also suggests that items with a difficulty index of less than 0.2 or 0.8 should also be rejected as they are too easy or too difficult. This recommendation was taken into account for the test used in this study. Finally, it was decided that questions with a difficulty index between 0.2 and 0.4 or between 0.6 and 0.8 would also be included, so long as they added to the coherence of the narrative and provided further information. Furthermore, a discrimination index greater than 0.3 was considered acceptable for any item on the test. Therefore, items with an index greater than 0.3 were considered good and items with an index less than 0.3 were considered bad (Adkins, 1974; Hinkle et al., 2003; Nitko, 1996). A summary of the distribution for all of the questions according to their level of difficulty and discrimination can be found in Table 4 in the Annex. This table also shows the skill and sub-skill to which each question belongs. The results in Table 5 reveal that Analysis was the area with the highest level of difficulty (0.36) and lowest level of discrimination (0.38). The area with the lowest level of difficulty was Interpretation, with an average of 0.62. By following Womer’s (1968) criteria regarding difficulty and discrimination, a selection was made of the items that would initially be included on the test (items 2a, 3, 4, 6a, 10, 14b, 22, 23b and 27a). Nitko’s (1996) criteria were then used to select additional items for the test (1a, 2b, 7, 8, 11, 12, 13, 14a, 16, 17a, 17,b, 18, 19a, 19b, 21, 26, 28a, 28b, 29a and 29b). The aim of this was to obtain more information, while preserving the overall coherence of the test. Finally, one item (6b) was removed from the test as it had a correlation of 1 with another item and both items targeted the same performance indicator. By doing so, the difficulty and discrimination levels for all of the items fell within the aforementioned ranges suggested by Womer (1968) and Nitko (1996) (Table 4, Annex). Discrimination/ Difficulty Difficult (<0.2) (0.2-0.4) Suitable (0.4-0.6) (0.6-0.8) Easy (>0.8) Good (<0.3) 2 items 2 items 0 items 0 items 2 items Bad (>0.3) 1 item 5 items 10 items 18 items 2 items Table 2. Summary of difficulty and discrimination levels per question. 3.6- Differences between schools A comparison was made between the groups from the different types of schools (state, state-subsidized and private). The distribution for one of the groups did not meet the normality assumption for the Shapiro-Wilk test (high: 3.208e-05, middle: 0.07288, low: 0.0207). The Bartlett test also revealed that the variances within the groups were not homogeneous (1.063e-07). However, this comparison was still possible as ANOVA is a robust test and allows assumptions to be violated (Sheng, 2008). The Kruskal-Wallis test was therefore used as a non-parametric alternative to the ANOVA test (Osborne, 2008). Significant differences were identified between socioeconomic statuses (SES), at p<0.001. Tukey’s test then revealed that the differences between the groups were significant at p >0.05. To analyse these differences in more detail, Table 3 shows the average test score for each school, as well as the standard deviation. The results clearly show that test scores in high SES schools (22.15 for 4th grade and 19.3 for 3rd grade) are considerably higher than in middle SES schools (14.75 for 4th grade and 10.73 for 3rd grade) and low SES schools (10.61 for 4th grade and 6.97 for 3rd grade). It is also important to highlight that the standard deviation between test scores in the high SES school decreases considerably (28%) from 3rd grade to 4th grade (from 4.55 to 3.27 points). In the middle SES school, the standard deviation remains practically the same (6.95 in 4th grade and 6.97 in 3rd grade), while in the low SES school there is an increase in the standard deviation (from 6.06 to 6.2). This suggests that differences in student performance are reduced over time in the high SES school, which is not the case in the other schools. School SES Grade Average Standard Score Deviation High 4 22.15 3.27 High 3 19.3 4.55 Middle 4 14.75 6.95 Middle 3 10.73 6.97 Low 4 10.61 6.20 Low 3 6.97 6.06 Table 3. Average scores by school and grade. 4.- Conclusions The aim of this study was to answer the two research questions stated above. The first question asked “How can we design and validate a test that determines the level of critical thinking among primary school children in a specific subject?” To answer this question, a critical thinking test was designed and validated within the context of Language Arts, using a graphic novel. The challenge highlighted in the research question was overcome as the test was validated for both 3rd and 4th grade students. It is interesting to note that no other test has used a graphic novel to measure the level of critical thinking among 3rd and 4th grade students. There are several benefits to designing a test using a graphic novel. These include the impact it has on student motivation and interest (Chase et al., 2014), the opportunity it provides for developing higher-order skills (Pantaleo, 2014), their effectiveness for teaching literacy (Jennings et al., 2014) and the support they provide to readers who have difficulty visualizing stories (Lyga, 2006). It remains as future work to validate tests in other areas of the curriculum, such as science and mathematics. The main limitation of the test that was used is the cultural context in which it was designed. Cultural factors are particularly important when developing critical thinking skills in Language Arts classes (Guo, 2013). Examples of this include the significant effect of culture on critical thinking among university students when writing blogs (Shahsavar, 2014) and the influence of institutional culture on critical thinking among students (Tsui, 2000). It is also important to highlight that, as the theoretical framework was developed within a specific cultural context, students may be at a disadvantage because of the structure of the test and not because of their level of critical thinking (Howe, 1995; Childs, 1990). Further study is required to analyse how local culture affects the theoretical framework for critical thinking described in this study. It is also necessary to study how local culture affects the performance of the test, in terms of both how the images are understood, as well as the structure of the narrative. Quantification of cultural factors has been studied among adults (Hofstede, 2001), but is only incipient among children (Hofstede, 1986). Developing a tool in this sense would help with the robustness of a critical thinking test for children from different cultural backgrounds. Once the test had been validated, it was decided to answer the second research question, which asked “How do critical thinking skills differ among 3rd grade students, according to their socioeconomic status?” In this sense, significant differences were found between the schools with different socioeconomic statuses. This suggests that there may be a relationship between socioeconomic status and the development of critical thinking skills. This is particularly evident when observing that the standard deviation among students in the high SES school decreases over time, increasing homogeneity among students, while the standard deviation remains the same in the other schools. Although further findings are needed in this area, it would be worth asking whether this difference can be reduced by teaching the critical thinking skills that are measured by this test. This study is a first step towards giving primary schools access to a test that allows them to measure the development of their students’ critical thinking skills. This test is an improvement on existing assessment tools as it replaces unidimensional models with models that provide a more detailed and multidimensional picture of student learning (Conley, 2015). The limitations of this study include the range of grade levels that were covered, the cultural context in which it took place, and the area of the curriculum for which the test was developed. Future work is required in order to overcome these limitations. Acknowledgements This research was funded by CONICYT-FONDECYT grant 1150045, and by the VRI Interdisciplina Research Project N° 13/2014. 5.- References Adkins, D. C. (1974). Test construction: Development and interpretation of achievement tests. Columbus, Ohio: Merrill Publishing Company. Ary, D., Jacobs, L., Sorensen, C., & Walker, D. (2013). Introduction to research in education. Cengage Learning. Bailin, S. (2002). Critical thinking and science education. Science & Education, 11(4), 361– 375. Bailin, S., Case, R., Coombs, J. R., & Daniels, L. B. (1999). Conceptualizing critical thinking. Journal of Curriculum Studies, 31(3), 285–302. Bean, J. C. (2011). Engaging ideas: The professor's guide to integrating writing, critical thinking, and active learning in the classroom. San Francisco: John Wiley & Sons. Berland, L. K., & McNeill, K. L. (2012). For whom is argument and explanation a necessary distinction? A response to Osborne and Patterson. Science Education, 96(5), 808-813. Breen, R., & Goldthorpe, J. H. (1997). Explaining educational differentials towards a formal rational action theory. Rationality and society, 9(3), 275-305. Bourdieu, P. (2011). The forms of capital.(1986). Cultural theory: An anthology, 81-93. Brown, J. D. (2000). What is construct validity. JALT Testing and Evaluation SIG Newsletter, 4(2), 7-10. Chase, M., Son, E. H., & Steiner, S. (2014). Sequencing and Graphic Novels With Primary‐ Grade Students. The Reading Teacher, 67(6), 435-443. Chapman, J. (2014). Critical Thinking and TOEIC: Advanced Skills for Teachers and TestTakers. The 2013 PanSIG Proceedings, 102. Cheung, C. K., Rudowicz, E., Lang, G., Yue, X. D., & Kwan, A. S. (2001). Critical thinking among university students: does the family background matter?. College Student Journal, 35(4), 577. Childs, R. (1990). Gender bias and fairness. Practical Assessment, Research & Evaluation, 2(3). Conley, D. (2015). A New Era for Educational Assessment. Education Policy Analysis Archives, 23, 8. Cronbach, L. J. (1971). Test validation. In R. L. Thorndike (Ed.). Educational Measurement (2nd Ed.). Washington, D. C.: American Council on Education. Dancey C., Reidy J. (2004). Statistics Without Maths for Psychology: Using SPSS for Windows. London: Prentice Hall Das, A. (2013). The Impact of Children’s Literature in the Teaching of English to Young Learners. International Journal of English: Literature, Language & Skills. Dillashaw, F.G. & Okey, J. R. (1980). Test of Integrated Science Process Skills for Secondary Students. Science Education, 64, 601-608. Downey, E. M. (2009). Graphic novels in curriculum and instruction collections.Reference & User Services Quarterly, 49(2), 181-188. Dwyer, C. P., Hogan, M. J., & Stewart, I. (2014). An integrated critical thinking framework for the 21st century. Thinking Skills and Creativity, 12, 43-52. Emmison, M., & Smith, P. (2000). Researching the Visual: Images, Objects, Contexts and Interactions in Social and Cultural Inquiry: Introducing Qualitative Methods. Ennis, R. H. (1989). Critical thinking and subject specificity: Clarification and needed research. Educational researcher, 18(3), 4-10. Ennis, R.H. & Millman, J. (1985). Cornell Critical Thinking Test-Level X. Pacific Grove, CA: Midwest Publications. Ennis, R.H. & Weir, E. (1985). The Ennis-Weir essay test: An instrument for testing and teaching. Midwest Publications: Pacific Grove, CA. Ericsson, K. A., & Simon, H. A. (1993). Protocol Analysis: Verbal reports on data. Cambridge, MA: MIT Press. Facione, P. A. (1990). Critical Thinking: A Statement of Expert Consensus for Purposes of Educational Assessment and Instruction. Research Findings and Recommendations. http://assessment.aas.duke.edu/documents/Delphi_Report.pdf, downloaded Feb 3, 2014. Flavell, J. H. (1979). Metacognition and cognitive monitoring: A new area of cognitive– developmental inquiry. American psychologist, 34(10), 906. Flaherty, E. G. (1974). The thinking aloud technique and problem-solving ability. Journal of Educational Research, 68, 223-225. Frey, N., & Fisher, D. (2004). Using graphic novels, anime, and the Internet in an urban high school. English Journal, 19-25. Gallego, F. A. (2002). Competencia y resultados educativos: teoría y evidencia para Chile. cuadernos de economía, 39(118), 309-352. Gelman, S. A., & Markman, E. M. (1987). Young children's inductions from natural kinds: The role of categories and appearances. Child development, 1532-1541. George, D and Mallery, P. 2003. SPSS for Windows step by step: a simple guide and reference, Boston, MA: Allyn and Bacon. Greenhill, V. (2009). P21 framework definitions document, Retrieved December 15, 2010, from, http://www.21stcenturyskills.org/documents/p21_framework_definitions_052909.pdf. Griffin, P., McGaw, B., & Care, E. (2012). Assessment and Teaching of 21st Century Skills. New York: Springer Guo, M. (2013). Developing Critical Thinking in English Class: Culture-based Knowledge and Skills. Theory and Practice in Language Studies, 3(3), 503-507. Halpern, D. (2003). Thought and knowledge: An introduction to critical thinking (4th ed.). Mahwah, NJ: Lawrence Erlbaum Associates. Hapgood, S., Magnusson, S. J., & Sullivan-Palincsar, A. (2004). Teacher, text, and experience: A case of young children's scientific inquiry. Journal of the Learning Sciences, 13(A), 455-505. Hassett, D. D., & Schleble, M. B. (2007). Finding Space and Time for the Visual in K-12 Literacy Instruction. English Journal, 97(1). Hernandez, D. J. (2011). Double Jeopardy: How Third-Grade Reading Skills and Poverty Influence High School Graduation. Annie E. Casey Foundation. Hinkle, D. E., Wiersma, W., & Jurs, S. G. (2003). Applied statistics for the behavioral sciences. Boston: Houghton Mifflin. Hofstede, G. (1986). Cultural differences in teaching and learning. International Journal of intercultural relations, 10(3), 301-320. Hofstede, G. (2001). Culture's consequences: Comparing values, behaviors, institutions and organizations across nations. Geert Hofstede (Ed.). Thousand Oaks, California: Sage. Hong-Nam, K., Leavell, A. G., & Maher, S. (2014). The Relationships among Reported Strategy Use, Metacognitive Awareness, and Reading Achievement of High School Students. Reading Psychology, 35(8), 762-790. Howe, K. (1995). Validity, Bias and Justice in Educational Testing: The Limits of Consequensialist Conception. In A. Neiman, Ed., Philosophy of education 1995. Normal, ILL: Philosophy of Education Society, pp. 295-302. Hudgins, B. B., et al. (1989). Children's critical thinking: A model for its analysis and two examples. Journal of Educational Research, 82(6), 327-338. Jennings, K. A., Rule, A. C., & Zanden, S. M. V. (2014). Fifth Graders’ Enjoyment, Interest, and Comprehension of Graphic Novels Compared to Heavily-Illustrated and Traditional Novels. International Electronic Journal of Elementary Education, 6(2), 257. Jiménez-Aleixandre, M. P., & Puig, B. (2012). Argumentation, evidence evaluation and critical thinking. In Second international handbook of science education (pp. 1001-1015). Springer Netherlands. Kennedy, M., Fisher, M. B., & Ennis, R. H. (1991). Critical thinking: Literature review and needed research. Educational values and cognitive instruction: Implications for reform, 2, 11-40. Kim, K., Sharma, P., Land, S. M., & Furlong, K. P. (2013). Effects of active learning on enhancing student critical thinking in an undergraduate general science course. Innovative Higher Education, 38(3), 223-235. Kuhn, D. (1999). A developmental model of critical thinking. Educational Researcher, 28(2), 16–26. Lai, E. R. (2011). Critical thinking: A literature review. Pearson's Research Reports, 6, 4041. Lyga, A. A. (2006). Graphic Novels for (Really) Young Readers: Owly, Buzzboy, Pinky and Stinky. Who Are These Guys? And Why Aren't They Ever on The Shelf?. School Library Journal, 52(3), 56. Marques, J.F., (2012), Moving from trance to think: why we need to polish our critical thinking skills, International Journal of Leadership Studies, Vol. 7 Iss. 1, 2012, 87-95 May, D. B., Hammer, D., & Roy, P. (2006). Children's analogical reasoning in a third grade science discussion. Science Education, 90(2), 316-330. McNamara, D. S., & Magliano, J. P. (2009). 5 Self-Explanation and Metacognition. Handbook of metacognition in education, 60. McPeck, J. (1981). Critical Thinking and Education. Oxford: Martin Robertson. Moore, M.& Zigo, D. (2005). Chicken Soup for the Science Fiction Soul: Breaking the Genre Lock in the High School Literacy Experience. Journal of Curriculum. 21(3), 29-45. Mulnix, J. W. (2012). Thinking critically about critical thinking. Educational Philosophy and Theory, 44(5), 464-479. Nickerson, R. (1988). On improving thinking through instruction. Review of Research in Education, 15(3), 3-57. Nippold, M. A., Frantz-Kaspar, M. W., Cramond, P. M., Kirk, C., Hayward-Mayhew, C., & MacKinnon, M. (2015). Critical Thinking about Fables: Examining Language Production and Comprehension in Adolescents. Journal of Speech, Language, and Hearing Research. Nitko, A. J. (1996). Educational Assessment of Students. 2nd ed. New Jersey: Prentice-Hall. Nussbaum, M. C. (2011). Creating capabilities. Harvard University Press. O’Flahavan, J. & Tierney, R. (2013). Reading, Writing, and Critical Thinking. Educational Values and Cognitive Instruction: Implications for Reform, 41. Osakwe, R. N. (2009). The effect of early childhood education experience on the academic performances of primary school children. Stud Home Comm Sci,3(2), 143-147. Osborne, J. W. (Ed.). (2008). Best practices in quantitative methods. Thousands Oaks: Sage. Pantaleo, S. (2014). Reading images in graphic novels: Taking students to a'greater thinking level'. English in Australia, 49(1), 38. Rubio, D. M., Berg-Weger, M., Tebb, S. S., Lee, E. S., & Rauch, S. (2003). Objectifying content validity: Conducting a content validity study in social work research. Social Work Research, 27(2), 94-104 Santelices, M. V., Ugarte, J. J., Flotts, P., Radovic, D., & Kyllonen, P. (2011). Measurement of New Attributes for Chile's Admissions System to Higher Education. ETS Research Report Series, 2011(1), 1-44. Schwarz, G. (2006). Expanding literacies through graphic novels. English Journal, 58-64. Shahsavar, Z. (2014). The Impact Of Culture On Using Critical Thinking Skills Through The Blog. Media & Mass Communication, 3, 99-105. Sheng, Y. (2008). Testing the assumptions of analysis of variance, In Osborne, J.W. (Ed.) Best Practices in Quantitative Methods. California: Sage. Songer, N. B., & Gotwals, A. W. (2012). Guiding explanation construction by children at the entry points of learning progressions. Journal of Research in Science Teaching, 49(2), 141165. Sturken, M., Cartwright, L., & Sturken, M. (2001). Practices of looking: An introduction to visual culture (p. 385). Oxford: Oxford University Press Swaggerty, E. A. (2015). Selecting Engaging Texts for Upper Elementary Students Who Avoid Reading or Find Reading Difficult. Children's Literature in the Reading Program: Engaging Young Readers in the 21st Century, 150. Tsui, L. (2000). Effects of campus culture on students' critical thinking. The Review of Higher Education, 23(4), 421-441. UNESCO. (2000). Dakar Framework for Action. Education for All: Meeting Our Collective Commitments. Adopted by the World Education Forum, Dakar, Senegal, April 26–28, 1999. Paris: UNESCO. http://unesdoc.unesco.org/images/0012/001211/121147e.pdf Van Den Broek, P., Kendeou, P., Lousberg, S., & Visser, G. (2011). Preparing for reading comprehension: Fostering text comprehension skills in preschool and early elementary school children. International Electronic Journal of Elementary Education, 4(1), 259-268. Veenman, M. V. J., Wilhelm, P., & Beishuizen, J. J. (2004). The relation between intellectual and metacognitive skills from a developmental perspective. Learning and Instruction, 14(1), 89-109. Watson, G. B., & Glaser, E. M. (1980). WGCTA Watson-Glaser critical thinking appraisal manual: Forms A and B. San Antonio: The Psychological Corporation. Willingham, D. T. (2008). Critical thinking: Why is it so hard to teach?. Arts Education Policy Review, 109(4), 21-32. Wolming , S. (1998). Validitet. Ett traditionellt begrepp i modern tillämpning [Validity: A modern approach to a traditional concept]. Pedagogisk Forskning i Sverige, 3(2): 81–103. Womer, F. B. (1968). Basic concepts in testing. Boston: Houghton Mifflin. Yeh, S. S. (2001). Tests worth teaching to: Constructing state-mandated tests that emphasize critical thinking. Educational Researcher, 30(9), 12-17. ANNEX Skill Definition1 Sub-­‐Skill Categorize Interpretation Understanding and expressing the meaning or Decode significance importance of a wide variety of experiences, situations, data, events, judgements, conventions, beliefs, rules, procedures or criteria. Performance Indicators Classifying elements according to certain rules, criteria or procedures. Identifying which elements are important for solving a problem. Clarify meaning Clarifying the use of a convention. Clarifying an idea by The definitions of the skills are taken from the Delphi Report (Facione, 1990) 0.7 0.48 0.65 0.34 0.8 0.35 0.48 0.49 0.64 0.39 0.38 0.37 Determining the role of images in a narrative. (**) Representing a result or operation in different ways. 1 Difficulty Discrimination giving an example. Examine ideas Analysis Evaluation Identifying the intended and actual inferential relationships among statements, questions, Identify arguments concepts, descriptions, or other forms of representation intended to express belief, judgment, experiences, reasons, information, or opinions. Analyse arguments Assessing the credibility of statements or other representations that are Assess claims accounts or descriptions of a person's perception, experience, situation, judgment, belief, or opinion; also assessing the logical strength of the actual or intended inferential relationships among Assess arguments statements, descriptions, questions, or other forms of representation. Comparing concepts or statements by determining similarities and differences. 0.72 0.51 0.21 0.33 0.35 0.42 0.35 0.42 0.46 0.42 Judging whether a conclusion is correct based on the premises adopted. 0.28 0.28 Assessing the strength of the logic of an objection to an argument. 0.63 0.37 Identifying whether an argument is in favour of or against a given statement. Identifying the main point of an argument. (**) Identifying the reasons that support an argument. (**) Recognizing the important factors for determining the degree of credibility of a source of information or opinion. Judging whether an argument is relevant, applicable or has any implication on a situation. Assess alternatives Inference Identifying and securing elements needed to draw reasonable conclusions; forming conjectures and Query evidence hypotheses, considering relevant information and reducing the consequences flowing from data, statements, principles, evidence, judgments, beliefs, opinions, concepts, descriptions, questions, or other forms of representation. Propose alternatives 0.65 0.52 0.67 0.62 Determining whether information is useful for building an argument. 0.81 0.23 Identifying whether an inference comes from evidence. 0.43 0.31 0.36 0.33 0.46 0.3 0.6 0.61 Assessing the advantages and disadvantages of different alternatives. (**) Identifying what additional information is needed to decide between two contradicting opinions. Accepting or rejecting a hypothesis based on empirical evidence. Given a set of priorities with which one may or may not agree, seeing the advantages and disadvantages that will come from implementing a decision once it has been made. (**) Using different strategies to solve problems. (**) Draw conclusions Reasoning / Explanation Stating and justifying reasoning in terms of the evidential, conceptual, methodological, criteriological, and State results contextual considerations upon which one's results were based; also presenting one's reasoning in the form of cogent arguments. 0.81 0.55 0.69 0.52 0.67 0.68 0.46 0.45 0.82 0.35 Arriving at a valid conclusion based on evidence. Communicating the conclusions reached by following a procedure. (**) Graphically communicating the relationship between concepts and ideas. Developing a narrative which examines the changes in a topic over time. Stating the standards used to assess a literary work. Justify procedures Describing the strategy used to make a reasonable decision. Arguing in favour of or against a point of view. Present arguments Explaining the comprehension of a concept. (**) Identifying and expressing evidence as part of reasoning for and against other people’s and one’s own way of thinking. Table 4. Summary of scores and skills. (*) Items based on the Delphi Report. (**) Indicators that were measured on more than one occasion. 0.75 0.64 0.18 0.41 0.63 0.65 0.35 0.14 0.72 0.66 Skill Pre-­‐Item Analysis Difficulty Discrimination Interpretation Analysis Inference Evaluation Explanation Post-­‐Item Analysis Difficulty Discrimination 0.62 0.43 0.6 0.45 0.36 0.38 0.47 0.45 0.58 0.41 0.57 0.44 0.47 0.4 0.6 0.48 0.41 0.47 0.59 0.57 Table 5. Average scores for Difficulty and Discrimination, before and after the Item Analysis. Anexo C. Recepción del Paper en Revista Académica Dear Dr. Rodrigo Del Rio, You have been listed as a Co-Author of the following submission: Journal: Thinking Skills and Creativity Corresponding Author: Damian Gelerstein Co-Authors: Rodrigo Del Rio; Miguel Nussbaum, Ph.D; Pablo Chiuminatto, Ph.D Title: Designing and implementing a test for measuring critical thinking in primary school If you did not co-author this submission, please contact the Corresponding Author of this submission [email protected];[email protected]; do not follow the link below. An Open Researcher and Contributor ID (ORCID) is a unique digital identifier to which you can link your published articles and other professional activities, providing a single record of all your research. We would like to invite you to link your ORCID ID to this submission. If the submission is accepted, your ORCID ID will be linked to the final published article and transferred to CrossRef. Your ORCID account will also be updated. To do this, visit our dedicated page in EES. There you can link to an existing ORCID ID or register for one and link the submission to it: http://ees.elsevier.com/tsc/l.asp?i=7055&l=UUAIE5G1 More information on ORCID can be found on the ORCID website, http://www.ORCID.org, or on our help page: http://help.elsevier.com/app/answers/detail/a_id/2210/p/7923 Like other Publishers, Elsevier supports ORCID - an open, non-profit, community based effort - and has adapted its submission system to enable authors and co-authors to connect their submissions to their unique ORCID IDs. Thank you, Thinking Skills and Creativity