RESUMEN En este artículo el autor analiza las dificultades de compatibilizar los conceptos de Calidad educativa con la Medición de la misma, criticando la práctica ambigua que hacen los instrumentos de Medición de calidad. Sostiene que la forma en que se mide calidad en las pruebas estandarizadas aplicadas a alumnos chilenos no son mediciones de calidad de la educación y que tampoco ello puede ser legislado en el parlamento. El artículo muestra la incoherencia conceptual de calidad de la educación al medirla con pruebas tales como la PSU o el SIMCE chilenos. Específicamente, muestra como los puntajes estandarizados de ambas no miden calidad. Además, usa el caso de la manuscritura para mostrar que no hay contenidos de calidad ligados a la misma y se pregunta ¿qué se considera una buena pedagogía para enseñar manuscritura o aritmética? En suma, el autor se plantea el problema de la medición de la calidad de la educación y la operacionalización de la misma, mostrando que son muchos los factores que inciden en la calidad y que habría que medir. Palabras claves: Calidad educativa. Medición de la calidad. Operacionalización de la calidad. Factores de la calidad. Crítica a pruebas estandarizadas. PSU y SIMCE. ABSTRACT In this article the author analyses the main difficulties of compatibilizing the Concepts of quality and its measurement in education, criticizing the ambiguous practices involved in the main instruments to measure educational quality. He contend that the way quality is measured when using standardized tests applied to Chilean pupils does not inform about quality, neither this problem can be solved in the parliament. The article shows a conceptual incoherence between quality and measurement in education when using Chilean standardized tests such as PSU or SIMCE. More specifically, it shows how standardized results of tests do not measure quality. In addition, he takes the case of teaching and learning of hand writing to shows that quality contents linked to it are inexistent. Then he ask What is considered to be a proper pedagogy to teach hand writing or arithmetic? In sum, the author put forward the operational problem of measuring quality in education and argues that there are plenty of variables explaining quality which is necessary to measure. Key words: Education quality. Quality measurement. tests of quality. Factors explaining quality. Critique of standardized tests. PSU and SIMCE. 35 Revista Electrónica de Desarrollo de Competencias (REDEC) - Nº 3 - Vol. 1 - 2009 - Universidad de Talca De lo abstracto a lo concreto en los debates sobre la calidad educativa Andrés Gacitúa Stemann Pp. 35 a 55 DE LO ABSTRACTO A LO CONCRETO EN LOS DEBATES SOBRE LA CALIDAD EDUCATIVA Andrés Gacitúa Stemann 1 INTRODUCCIÓN En las cinco últimas décadas y quizás más, hemos estado permanentemente innovando nuestros discursos educativos, y a la vez, visto que reiteradamente los volvemos a cambiar, se hace evidente que ninguna de las mejoras realizadas nos dejó satisfechos. Peor aún, podríamos sospechar que, salvo en algunos aspectos bien específicos como cobertura y matrícula, y como financiamientos aportados a la educación por el Estado, las innovaciones han abundado en el nivel de los discursos abstractos pero han escaseado en el de las prácticas concretas. En el ejemplo más básico imaginable, tras varias series de discursos sobre distintas clases de “reformas”, en nuestras escuelas se sigue enseñando a escribir, a leer y a multiplicar, con las mismas metodologías pedagógicas que en la década de 1950. Es decir, la “innovación y la reforma” son mayoritariamente discursos abstractos, porque no logran materializarse en práctica alguna en las aulas. En la década del 60 ocurrieron las grandes reformas universitarias; en el 66 ya había aparecido la Prueba de Aptitud Académica en reemplazo del anterior Bachillerato. En el 67, un año antes del mayo francés, Miguel Ángel Solar se toma la Universidad Católica, es destituido el Rector Pontificio, y el inolvidable “El Mercurio Miente” escandaliza a Chile desde la mismísima Alameda, como declarando que por primera vez los universitarios se querían desligar manifiestamente del poder económico; el 68, un año después que en la Católica, parte la Reforma en la U. de Chile. Al principio de los años 70 se intentó la Escuela Nacional Unificada (ENU) de la Unidad Popular; a fines de los años 70 y en casi todos los 80, Pinochet mantuvo su sistema municipalizado y el “apagón cultural” en las universidades con los “rectores militares delegados”; destacó en ese entonces el Estatuto de 1981 para las universidades, con el que se abrió el boom de la educación superior privada y, culminó sus “aportes” con una Ley Orgánica Constitucional de Educación (LOCE) que dejó amarrado un statu quo inmodificable durante los siguientes 20 años; en la década de los años 90 la Concertación nos brindó la “Comisión Brunner” con esas recetas que obviamente no aportaron nada sólido, y en la primera década del tercer milenio la “revolución de los pingüinos” hace caer la Ley Orgánica Constitucional de Educación (LOCE), y se vuelve a requerir innovaciones sustantivas. La Ley General de Andrés Gacitúa Stemann es Psicólogo y Magíster en Ciencias con mención en Políticas y Planificación de la Comunicación Social. Enseña en las Universidades de Talca y de Valparaíso. Su principal dedicación actual está en la temática de la pedagogía por competencias, la que practica desde hace tres años en el Programa de Formación Fundamental de la Universidad de Talca como docente y como Coordinador del Área de Formación Instrumental hasta Julio de 2008. Desde la década de 1980 es especialista en DISGRAFIA, lo que le ha permitido conocer en profundidad la problemática escolar en materia de manuscritura. En los primeros años de la década del 90 realizó programas de alfabetización funcional en Centros de Rehabilitación Conductual (Graneros) y en Centros de Observación y Diagnóstico (Santiago y Pudahuel). Es profesor universitario desde 1974. 1 36 Andrés Gacitúa Stemann Educación ha sido cuestionada desde antes que el Parlamento la apruebe; es difícil que sobreviva apenas unos pocos años, si es que la Presidenta llega a promulgarla. No es que no haya habido cambios. Los evidentes hasta hoy pueden resumirse en: a) se amplió la cobertura poblacional de los servicios educativos; b) se municipalizó la antigua escuela estatal-fiscal; c) se produjo una enorme expansión de la educación superior comercializada que, en pocos años, multiplicó varias veces la cantidad de universidades existentes en el país, al igual que la matrícula universitaria disponible a escala nacional. Hubo aspectos adicionales tales como que la inversión pública del Estado en educación creció significativamente, no sólo en términos del porcentaje del PIB, sino también en las mejoras sustantivas de los sueldos de sus docentes, y en la forma abundante en que se ha llevado computadores a las aulas. Con todo, estos cambios tienen mucho más que ver con lo económico-administrativo, con infraestructura y equipamiento, que con lo propiamente docente o con la calidad de los aprendizajes que logra el alumnado. Cambio no es sinónimo obligado de mejoramiento en la calidad. Por otra parte, hay un cambio del que rara vez se toma conciencia: el cambio en la velocidad del desarrollo del conocimiento y las tecnologías, la aceleración del ritmo con que cambian los mundos laborales y la urgencia cada vez mayor por reciclar permanentemente los conocimientos y las competencias laborales de cada individuo. Podríamos convenir en que a pesar de que los juzgamos mínimos y de poca relevancia, los cambios educativos existen; el problema es que se desarrollan a un ritmo mucho menor que las demandas que ejercen sobre la educación los avances del mundo tecnológico y laboral. Un ejemplo privilegiado en esta materia es el de la alfabetización: se ha hecho enormes esfuerzos de cobertura para asegurar la alfabetización de todo niño; hay logros en cobertura y leyes que obligan a que los escolares aprueben el 8º Básico, y después el 4º Medio; ¿Gran éxito…? No, porque en el intertanto, los desarrollos informáticos generaron el fenómeno del “analfabetismo digital” que amenaza con ser aún más grave que el literario en términos de marginar de los mercados laborales a quienes incurran en semejante falencia. En una perspectiva distinta, se ha discutido si la educación frontal u otra participativa; si favorecer la transmisión de conocimientos o la adquisición de competencias; si enfatizar la instrucción técnico laboral con miras a garantizar la empleabilidad adulta del educando, o si enfatizar el “ser” y el “convivir” por sobre el mero “tener” capacidades de inserción en el mercado. Se diría que entre Tecnificación y Humanización, prevalece últimamente la primera, aunque se la intenta camuflar bajo una fraseología que pretende semejarse más a la segunda. Cada gobierno de las últimas 4 ó 5 décadas ha ofrecido mejorar la calidad de la educación y ha realizado al respecto unos cuantos maquillajes más o menos intrascendentes. Con todo, nadie fue tan bajo como la dictadura cuando sacó de las universidades a las carreras de pedagogía e inventó el sistema de los “profesores-taxi”, ni tan ineficiente como la Concertación que, multiplicando varias veces los presupuestos educacionales, no logró mejoras sustantivas pese a su declarada intención de hacer una verdadera revolución en la calidad educativa. Los principales lemas de la propaganda política, desde Aylwin a Bachelet, han declarado que se pretende llevar la educación hacia niveles de calidad, hacia valores de justicia y equidad social (este es el discurso humanista) pero los cambios reales se han registrado en otras 37 De lo abstracto a lo concreto en los debates sobre la calidad educativa dimensiones: comercialización y cobertura, especialmente en la educación superior. Como a la carabina de Ambrosio, al país parece que en cuestiones de Educación “le sale el tiro por la culata”: se busca una cosa y se provoca otra. Con todo, es preciso reconocer que la Concertación, a lo largo de sus cuatro gobiernos, logró algo impensado anteriormente. Docenas de especialistas han comentado los datos oficiales respecto a que cerca de un 40% de nuestros jóvenes están llegando a la universidad, en alto grado gracias a una importante disponibilidad de becas y créditos fiscales y también respecto a que de cada 10 universitarios de estos días, 7 provienen de hogares en los que nunca antes había ido otro miembro a la universidad. (Abundan quienes reiteran estas dos ideas en cuanto panel o entrevista televisiva se realiza; las fuentes originales, obviamente, son estadísticas nacionales publicadas por el INE, la PSU, el DEMRE, el CSE, y el Mineduc, especialmente a través de su División de Planificación.) Esta significativa democratización del espacio universitario, siendo un gigantesco logro, muy probablemente es también una de las causas principales de la decadencia en la calidad de la formación universitaria. Parecería que las universidades, “invadidas por una masa media” que antes no llegaba a ellas, ahora no logran manejarse en sus antiguos estándares de pedagogía elitesca, y tampoco tienen las intenciones ni los conocimientos que pudieran permitirles convertirse en algo así como una buena universidad para sectores medios de la población. Surge así la paradoja consistente en que un innegable logro de democratización social de las universidades, pudiera ser también, en esta hipótesis, la peor causa de la pérdida de calidad por la formación universitaria. Ciertamente, sería un absurdo pretender que una buena universidad para las élites, siguiese siendo igualmente buena para los sectores medios, sin que medie un cambio de modelo a lo largo del proceso. Al ampliarse los sujetos sociales, se tiene que cambiar a la institución que los forma. Pero esto no ha ocurrido, al menos no en la medida suficiente. Resulta paradojal que las antiguas élites tuvieran un acceso casi gratuito a la universidad, mientras que las actuales masas de niveles medios deben pagar por acceder a ella fuertes matrículas y aranceles. Visto así, cabría decir que el proceso fundamental no es uno de democratización sino de comercialización; este último se acentúa en la medida en que integra cada vez a mayores sectores de consumidores de la formación universitaria. El consumismo logrado, ha implicado inevitablemente una “chatarrización” de lo que antes fue una cultura universitaria elitesca. Habría infinitas posibilidades de interpretar todo lo ocurrido con la educación chilena. Quizás si lo más realista, a esta altura, sea decir que nunca ha habido una verdadera voluntad política para llevar a cabo las radicales mejoras declaradas en la intencionalidad. Si no fuera así, tendríamos que reconocer una ancestral ineptitud para realizar lo que queremos, o de lo contrario, una severa incapacidad para imaginar lo que más necesitamos. Estas dudas sobre la voluntad política, la incapacidad planificadora y la ineptitud ejecutiva para llevar a cabo los cambios, ponen en jaque al concepto mismo de CALIDAD EDUCATIVA que circula en dicho contexto. Realmente, ¿qué se ha querido decir con semejante expresión durante los últimos años?, ¿qué entendemos hoy por “calidad educativa”?. ¿Por qué fracasaron tantas “mejoras” intentadas? La respuesta no puede provenir de una cúspide política ni de algún intelectual mesiánico; ya está visto que las fraseologías oficiales solo han sabido confundirlo todo cuando opinan sobre una “educación” cuyas concreciones son incapaces de manejar, y por ello, cabe suponer que no las conocen. El hecho de que todos tengamos un cuerpo físico, no nos convierte en expertos en medicina, ni el hecho de que tengamos algunos grados de conciencia nos convierte en psicólogos, ni el vivir en un departamento nos hace expertos en 38 Andrés Gacitúa Stemann arquitectura. Pero los políticos parecen no entender esto, y actúan como si creyeran que por el sólo hecho de “haber pasado” por algunos sistemas educativos, ya son expertos que pueden dictarle leyes al resto de la población en la materia; los resultados están a la vista. Décadas de innovaciones fracasadas, presupuestos malbaratados, y cada vez que nuestros alumnos son sometidos a evaluaciones internacionales del tipo TIMS o PISA, quedamos invariablemente clasificados en los últimos lugares del planeta, pese a que nuestros intentos por ingresar a la globalización requerirían a gritos que nos fuera bien en estas evaluaciones. Asumiendo como introducción y contexto este dilatado proceso de cambios y reformas que no llegan a culminar con éxito, este trabajo discutirá y propondrá criterios para entender lo que hoy pudiéramos llamar “calidad educativa”, revisando algunos “vicios formales” que se evidencian en nuestras mediciones tradicionales y en las maneras de elaborar los resultados de nuestras mediciones más consolidadas, y por otro lado, haciendo ver algunos vacíos que no estamos cubriendo con nuestros conceptos de “calidad educativa” ni en un sentido específico-concreto, ni tampoco en el sentido de la amplísima extensión que dicho concepto tiene, inevitablemente. Así, desarrollaremos cuatro argumentos específicos que tendrán que ver con que: 1. Lo que hemos estado midiendo, no es calidad educativa, es rendimiento estudiantil en pruebas de conocimiento. 2. Los puntajes normalizados y estandarizados ( PAA, SIMCE, PSU,…) no indican calidad educativa; están hechos para facilitar la selección de alumnos por las universidades. 3. La calidad educativa suele usarse como concepto abstracto, que prácticamente nadie sabe hacer aterrizar en las más elementales concreciones pedagógicas: veremos el caso de la manuscritura, como una concreción que denuncia el vicio abstracto. 4. La calidad de la educación tampoco es la “calidad del docente”: el problema de la extensión mínima del concepto no ha sido asumido. 1. Lo que hemos estado midiendo. Cuando un concepto –calidad educativa- se usa en forma ambigua y confusa y todos los análisis se vuelven inútiles porque no nos conducen a parte alguna, se puede intentar un análisis por la vía de aproximaciones “operacionales” al asunto de fondo. En este caso, podríamos no atender al escurridizo concepto de calidad educativa, sino a lo que hemos hecho con el sistema de educación chileno; o podríamos preguntarnos qué medimos cuando decimos que estamos midiendo “calidad educativa”. Es decir, pongamos las sospechas sobre una conceptualización que pudiera haber caído en discursos equivocados, y reflexionemos apoyados en nuestras demás prácticas, que si bien pueden no haber sido satisfactorias, tienen al menos la ventaja de corresponder a la realidad, tal como la hemos venido operando en los hechos. Desde la PAA y la PSU, a la “importación” de la TIMS, y la PISA, y sin excluir al SIMCE, el esfuerzo absolutamente mayoritario en Chile ha estado orientado a medir “conocimientos estudiantiles”, por lo general, en términos de rendimiento en pruebas de lápiz y papel, y esto, con el propósito de facilitar la discriminación selectiva de alumnos, ya sea por las universidades o por otras instancias. La PAA tuvo y la PSU (Prueba de Selección Universitaria) tiene el propósito específico y declarado de servir para la selección de los alumnos por las 39 De lo abstracto a lo concreto en los debates sobre la calidad educativa universidades. El SIMCE (sistema de medición de la calidad de la educación) en cambio, reclama desde su propio nombre que mide “calidad de la educación”, pero no lo hace, porque en realidad mide el “rendimiento” del alumno en pruebas de conocimientos. La retórica es fácil y siempre se podrá sostener que el rendimiento del alumno en materia de conocimientos es algo “muy próximo” a la calidad de la educación. Una buena educación sería aquella que es capaz de producir buenos rendimientos en conocimientos medidos en pruebas masivas de lápiz y papel, etc. La demagogia puede seguir interminablemente. El punto es que si estamos dispuestos a trabajar con esta enorme laxitud de conceptos, no hay para qué hablar de “calidad de la educación”; bien podríamos seguir hablando de “aptitudes académicas” como hizo durante 37 años la PAA, o de “tener los conocimientos mínimos para aprobar”, como piensa probablemente la mayor parte de los docentes cada vez que otorgan una calificación superior a 3,9. Cuando hablamos de “calidad de la educación” pero medimos “rendimiento en pruebas de conocimientos” –como hace el SIMCE-, tenemos que hacernos cargo de lo muy diferentes que son estos dos conceptos, y de que no es posible hacer sinónimos a uno del otro. El rendimiento en conocimientos que exhibe el alumno, puede provenir de fuentes distintas al sistema educativo, como lo son el nivel de conocimientos que existe entre los adultos con quienes vive el escolar, la disponibilidad de libros y otros recursos de acceso a información de buen nivel (revistas serias) que pueda tener el escolar en su hogar, o como puede serlo su posesión de computadores de calidad permanentemente conectados a Internet. A la inversa, el rendimiento del alumno en pruebas de conocimiento puede asociarse a algunas variables de la calidad de la educación, como “años de experiencia profesional de sus docentes”, o como “años de experiencia de todo el personal del establecimiento”, pero sabemos que el anquilosamiento existe, y que liceos “a la antigua” con docentes “ancianos” pueden ser también una combinación desfavorable que afecte negativamente al rendimiento en conocimientos del alumno en una prueba del tipo SIMCE. Poco importa que una Escuela tenga escasos ejemplares de libros en su biblioteca, si éstos son abundantes en el hogar del alumno. Poco importa que el docente del alumno no sepa nada de computación e informática, si el padre del alumno es un ingeniero y tiene tres computadores en la casa. Es decir, el rendimiento del alumno puede beneficiarse de oportunidades y factores distintos a los del sistema educacional (los que aportan el hogar e Internet, en especial), lo que permite decir categóricamente que un “buen rendimiento” del escolar no equivale directamente a “buena calidad educativa” de su establecimiento. Los factores que determinan a ambos pertenecen a distintos conjuntos que solo comparten unos pocos de los factores relevantes. Podemos hacer dos propuestas en torno a nuestras mediciones del rendimiento-calidad educativa, que parecen dignas de considerar, ya que mejorarían nuestras posibilidades de evaluar con precisión la calidad educativa que exhiben las sucesivas cohortes de alumnos. Transparentar la dificultad de las pruebas. En primer término, proponemos que se publique toda la información “bruta” disponible sobre cada una de las pruebas PAA, PSU, SIMCE, y si no hay problemas internacionales, también sobre las PISA Y TIMS. Esto apuntaría a conocer con precisión la dificultad propia de cada prueba en cada año. De poco nos sirve tener “promedios forzados” = 250, o 500, (como es el caso actual) en las grandes evaluaciones nacionales, si ignoramos la dificultad propia de cada prueba a causa de las estandarizaciones que nos dejan, aparentemente, ante una eterna estabilidad de los instrumentos que marcarán obedientemente, el promedio inducido de los 500 o de los 250 puntos. Exactamente lo mismo 40 Andrés Gacitúa Stemann puede argumentarse en torno al puntaje final. Más que una cantidad global como producto de la prueba-PSU, importaría saber, pregunta a pregunta, en qué le va bien a quiénes, y en qué le va mal a quiénes. Habrá resistencias a esto. Se dirá que los bancos de ítemes deben ser secretos; se dirá que publicarlos pone en jaque a la evaluación misma…(de estos argumentos sobre la necesidad del secreto del ítem, surge la posibilidad de sospechar si lo que en verdad miden estas pruebas no será algo así como la capacidad del alumno para enfrentarse a un ítem sorpresa, más que para evidenciar un nivel de conocimientos o de competencias básicas y consolidadas). Los grandes cambios son lentos. A los efectos de ganar tiempo, se podría elaborar una prueba especial, para que la respondiera solo una muestra de quienes rinden la SIMCE o la PSU, y mantenerla inmodificada en el tiempo; de ese modo, podríamos comparar a las distintas cohortes que la rindan en sus rendimientos ante un mismo instrumento. Aún en las limitaciones de una evaluación de rendimiento cognitivo con lápiz y papel, se ganaría bastante con la comparación de distintas cohortes. Esta publicación amplia de datos debería incluir a los puntajes BRUTOS obtenidos por los alumnos, para poder eliminar de los análisis el factor de “distorsión” que introduce en los puntajes brutos la “normalización-estandarización”. Ítemes de dificultad “objetiva” como segunda propuesta. En el contexto de este trabajo, puede sonar extraña esta expresión sobre una “dificultad objetiva”. Sin embargo, tal cosa existe en algunos casos y se la podría usar cada vez que fuera posible. Si se analiza la tarea del “salto alto”, y se conviene en subir la vara un centímetro a la vez, se puede decir que cada centímetro subido es un grado más de dificultad objetiva de la tarea. No se trata de “intervalos iguales” porque si bien siempre se sube un centímetro, el alza de 210 a 211 centímetros seguramente se entenderá como de más dificultad agregada que cuando se sube de 140 a 141 centímetros. Si se trata de medir habilidad o competencias de cálculo básico en multiplicaciones, divisiones y porcentajes, se puede elaborar instrumentos con grandes cantidades de ítemes (100 multiplicaciones de 3 x 3 dígitos, aleatorizando los tres dígitos en todos los ítemes), y aunque nominalmente no sepamos cómo definir cualitativamente el grado de dificultad inherente a hacer 50 de estas multiplicaciones en 20 minutos, … sí es razonable decir que cada sucesiva multiplicación realizada agrega un grado más en la dificultad “objetiva” del desempeño que cada quien pueda alcanzar en esta medición. Si se trata de medir vocabulario u ortografía, se puede cuantificarlos con cierta facilidad. No pretendo que esta cuantificación de las dificultades propias de un cierto desempeño sea siempre posible ni deseable; pero sí sostengo que existen muchos casos en los que se puede hacer evaluaciones de esta índole, las que permitirían comparar a distintas cohortes aún cambiando los ítemes. (Insisto en que es preferible no cambiar los ítemes para ofrecer garantías plenas de que se mide a las distintas cohortes con un mismo instrumento, y por ende, con idéntico nivel de dificultad. Pero en ejemplos similares al del “salto alto” simplemente no se puede cambiar ítemes, (un centímetro solo podríamos cambiarlo por otro centímetro), y en ejemplos como el de las “cien multiplicaciones de 3 x 3 dígitos aleatorizados” daría lo mismo cualquier conjunto de cien multiplicaciones a responder: mantener los mismos ítemes se volvería irrelevante). La propuesta consiste en que, en todos aquellos casos en los que las capacidades y aprendizajes del alumno puedan ser medidos con ítemes de dificultad “objetiva”, se practique y se informe públicamente los resultados de tales evaluaciones; son formas evaluativas que nos permitirán hablar de “calidad educativa” sabiendo a qué nos referimos en cada caso, sin caer en el vicio de la entelequia formal, hoy tan apabulladora y dominante. 41 De lo abstracto a lo concreto en los debates sobre la calidad educativa 2. Los puntajes normalizados y estandarizados. Otra cuestión elemental en esto de la “calidad de la educación”, pero que muy pocas personas conocen, es la forma en que se llega a los puntajes finales del SIMCE y de la PSU. Entender esto es importante, ya que es usual que se fundamente aseveraciones sobre la calidad educativa de los establecimientos, invocando los promedios obtenidos en los puntajes PSU o SIMCE. Los enredosos procedimientos que se aplica a los puntajes de las grandes pruebas, tienen el triste mérito de poner a la mayor parte de la gente en situación de NO SABER qué es un puntaje de 500 en la PSU, en términos de calidad educativa. No voy a hacer aquí una descripción rigurosa de las metodologías que, a manera de procedimientos intermedios, transforman los resultados brutos iniciales, los procesan y finalmente llegan a esos resultados mágicos de la PAA y el SIMCE (la PSU va por el mismo camino). Intentaré sugerir el sentido básico de estos manejos sin entrar en complejidades estadísticas. La PAA tuvo durante casi cuatro décadas un promedio de 500 puntos y una desviación estándar de 100 puntos. El SIMCE ha tenido también por décadas, un puntaje promedio de 250 puntos y 50 puntos de desviación estándar; es decir, es el mismo sistema para PAA y SIMCE, sólo que con una escala “dividida por dos en sus valores específicos”. La magia surge como hipótesis, porque hay dos factores que nos garantizan que es imposible que esos puntajes medios se mantengan tan rigurosamente estables a lo largo de los años. El primer factor, consiste en que las cohortes educativas cambian con el tiempo: la PAA de 1966 fue rendida por una cohorte de alumnos que, en muchos aspectos, era harto distinta de la cohorte que rindió la última edición de esta prueba. En el intermedio de casi cuarenta años, obviamente hubo cohortes que mejoraban en lenguaje, otras que mejoraban en matemáticas, otras cuyo rendimiento caía en las dos pruebas principales. Si tuviéramos que apostar, diríamos que es absolutamente improbable que dos cohortes se igualaran perfectamente en sus rendimientos brutos ante estas pruebas; de donde resulta absurdamente inverosímil la reiteración sistemática del promedio de 500 puntos. Una contundente demostración de lo que este primer factor implica apareció publicada en LA TERCERA el 23 de Diciembre de 2008, páginas 1, 35, 36 y 37. Un anónimo analista de La Tercera tomó datos oficiales de las 5 pruebas PSU y logró sintetizar algunas cuestiones importantes: a) Los establecimientos privados promediaron 605 puntos en la PSU 2009 mientras los municipalizados solo promediaron 451,5. Estos 148,5 puntos más de los privados constituyen un importante incremento respecto de la ventaja que tuvieron en 2005, que solo fue de 118 puntos. Esta diferencia es comprensible en virtud de que “La composición de los estudiantes que rinden la prueba ha cambiado fuertemente. Por eso es fundamental controlar por los aspectos socioeconómicos” (Con comillas, La Tercera cita a David Bravo, del Centro de Microdatos de la U. de Chile). b) En el 2004 los estudiantes de escasos recursos que rindieron la prueba fueron 65 mil; en el 2009 son 98 mil. “…este mayor número de estudiantes de menores recursos y peor preparados arrastra a la baja el promedio de los municipales, sin que ello signifique que los liceos públicos sean de peor calidad que hace cinco años”. (Comillas: análisis de La Tercera). 42 Andrés Gacitúa Stemann c) “Por otro lado, el aumento en la ventaja de los estudiantes de colegios particulares se explicaría porque éstos concentran cada vez más a un alumnado de mayores ingresos. Según estadísticas de la UDP en estos cinco años el 20% de los colegios pagados se transformó en subvencionados.” (Cita al análisis de La Tercera) Y se trata de colegios de sectores de ingresos medios que buscan el complemento financiero del aporte estatal, porque les cuesta subsistir sólo con sus propios recursos. Tenemos así que, en apenas cinco años, se ha producido un mayúsculo cambio en la composición socioeconómica de quienes rinden la PSU llegando a ella desde colegios particulares o desde municipalizados: mientras los colegios particulares reducen su alumnado y se concentran cada vez más en los sectores de más altos ingresos, los establecimientos municipalizados hacen todo lo contrario: aumentan su matrícula ingresando a miles de nuevos alumnos de sectores de escasos recursos. Si esta clase de modificaciones pueden ser registradas en apenas cinco años, imagínese de qué calibres podrían ser los cambios si se los analizara desde la primera PAA en 1966. El segundo factor, está dado por los ítemes que integraron las respectivas pruebas a lo largo de las décadas. Como es obvio suponer y como de hecho consta en los facsímiles respectivos, los ítemes, preguntas o problemas de la PAA, cambiaban todos los años. Se repetían, solo muy de tarde en tarde algunas preguntas de lenguaje y algunos problemas de matemáticas: de un año al siguiente, quizás nunca hubo más de un 5% de ítemes repetidos. Tenemos así pruebas integradas por distintos conjuntos de ítemes, y aunque se las intentaba hacer de dificultades comparables, y aunque se extremaban las astucias para medir y clasificar la dificultad intrínseca de cada ítem, lo concreto es que eran ítemes diferentes con una dificultad diferente, por pequeñas que estas diferencias fuesen. ¿Empezamos a entender la magia? Durante los casi 40 años en que se aplicó la PAA, cohortes diferentes entre sí, rindieron pruebas con ítemes diferentes unas de otras,… pero todas ellas tuvieron en definitiva un promedio de 500 puntos con una desviación estándar de 100 puntos. Para facilitar una mejor comprensión de lo anterior, ofreceré analogías simplificadoras de lo que se hace para construir los puntajes de PAA, PSU, SIMCE. A) En primer lugar, hecha la corrección de las respuestas en cada prueba, se tiene un puntaje BRUTO de cada alumno. En muchas PAA –no sé si todas fueron iguales en esto- eran 60 ítemes o problemas en Matemáticas y 90 preguntas o ítemes en Lenguaje. Eran pruebas lo suficientemente difíciles como para que nadie pudiera responder todas las preguntas-problemas en los minutos usualmente concedidos. Digamos que lo habitual pudo ser que, en promedios hipotéticos, los alumnos respondieran unas 40 preguntas de lenguaje y resolvieran unos 25 problemas en matemáticas. En cada edición de cada prueba, había unos pocos alumnos que alcanzaban “puntajes máximos” o “puntajes nacionales”: esas personas eran quienes habían respondido, por ejemplo, 50 problemas correctamente, y habían tenido solo dos respuestas incorrectas en la prueba de matemáticas. Por lo general, en las respuestas malas se descontaba el 20 o el 25% del valor de la respuesta buena; a causa de ello, aparecían los decimales y nuestros puntajes nacionales en matemáticas habrían tenido 49,6 puntos brutos. Por su parte, los puntajes máximos o “nacionales” en Lenguaje, pertenecían a aquellas personas que, de los 90 ítemes, tenían 82 respuestas correctas con solo 5 incorrectas (suman 87) y habían dejado tres ítemes sin responder. O sea, su puntaje bruto era de (82 - (0.2x5))= 81 puntos brutos. 43 De lo abstracto a lo concreto en los debates sobre la calidad educativa Estos eran los mejores puntajes nacionales: 49,6 en matemáticas y 81 en lenguaje. B) Lo anterior nos deja ante un mínimo de tres escalas diferentes de puntajes. La de Lenguaje es distinta a la de Matemáticas, porque la primera opera con 90 puntos brutos como máximo posible, mientras la última lo hace con 60 puntos brutos como máximo posible. Se vuelven a diferenciar porque sus puntajes brutos máximos reales en un hipotético año, son 49,6 y 81. Es decir, los resultados variaron, tuvieron dispersiones y rangos diferentes. Y estas dos escalas son obviamente distintas a la “oficial” que aparecía en la prensa. En esta última escala (200 a 800 puntos), los 800 puntos y algo más, era la zona privilegiada de la distribución donde quedaban tanto los 49,6 como los 81 puntos brutos. Tener 500 puntos en esta tercera escala, no era tan malo, pero definitivamente, 500 puntos no permitían ingresar a las mejores carreras; y los 350 puntos… obligaban a su titular a rendir de nuevo la prueba, porque con 350 puntos no entraba a nada. Para llegar desde los 49,6 puntos brutos en matemáticas a un puntaje final-oficial en la prensa que hipotéticamente pudo ser de 814 puntos, había que hacer dos procesos estadísticos de normalización-estandarización. C) Hay que ordenar los puntajes brutos de mejor a peor y, esa distribución de puntajes que resulta, hay que “comprimirla”, “expandirla”,…ajustarla y reajustarla, hasta que se parezca lo más posible a una curva normal. La ventaja de “normalizar” las distribuciones de los puntajes brutos de la PAA radica en que, para la distribución normal, se conoce la forma en que se comportan los promedios y las desviaciones estándar, y en que se ha desarrollado con ellas los llamados “puntajes Z” o puntajes estandarizados. La escala de puntajes Z tiene valores que van, aproximadamente, desde -3 hasta +3 unidades de desviación estándar respecto del promedio. Ciertamente, puede haber “genios” que saquen importantes ventajas al restante 99% y así es como se producen esos “puntajes nacionales” de 850 puntos que se han registrado en la edición de la prueba con que se ingresará a la universidad en marzo de 2009. Esta viene siendo la cuarta escala que hasta aquí no estaba mencionada, y que es la más “rica” en potencialidades y, por lo mismo, la más interesante de todas. Para cada valor “z” se conoce el “percentil” que le corresponde (y los percentiles podrían ser la quinta escala…). En los puntajes de estas escalas “z” y en sus equivalentes percentiles, se basa la conversión y la expresión de cualquier distribución de puntajes brutos en términos de una escala normalizada que, en el caso de la PAA se eligió que fuera de promedio 500 y desviación estándar de 100. Esta es la “magia”. No es que las distintas cohortes, al responder distintos grupos de preguntas y problemas, mágicamente, se saquen siempre 500 puntos de promedio. Lo que ocurre es que el conjunto de los procesos de conversión de escalas que llevan desde los puntajes brutos iniciales a los puntajes Z, y desde éstos a los percentiles y a la escala 200-800 de la PAA, están hechos para que siempre ocurra eso, y en el caso del SIMCE, para que siempre resulte un promedio de 250 y una D.S. de 50. Mientras se redactaba este texto, apareció en los noticieros televisivos un comentario a una publicación en PUBLIMETRO (periódico del metro de Santiago) según la cual, algunos rectores universitarios, incluido el ex Rector Riveros de la U de Chile, destacaban como lamentable el hecho de que, si se convirtieran a notas los puntajes PSU, el promedio sería de 3,9. Aparentemente, están en un error: si se normaliza hasta la perfección la distribución de los puntajes PSU, el promedio final tiene que ser 500, y esto tiene que ser equivalente a 4,0: entre 3,9 y 4,0, el error de cifras es mínimo y, probablemente se debe a aproximaciones de centésimas y decimales, o a que los ajustes normalizadores no fueron forzados hasta la 44 Andrés Gacitúa Stemann perfección misma. Lo insólito es que un grupo de Rectores se escandalice ante esto: su alarma indica que no conocen a cabalidad el sistema de equivalencias y transformaciones de los puntajes en cuestión. Resumen grueso de las equivalencias de escalas, incluyendo Puntajes Finales SIMCE Y PSU PUNTAJE BRUTO MATEMÁTICAS (variable) Instrumento tiene 60 ítemes en total. PUNTAJE BRUTO LENGUAJE (variable) Instrumento completo tiene 90 ítemes. Escala “Z” Escala oficial de Notas en Chile * Escala 100400 del SIMCE. Escala 200-800 de PAA y PSU. Ptje máximo real= 48 problemas resueltos Ptje máximo real= 70 ítemes bien respondidos. +3 7 400 800 +2 6 350 700 +1 5 300 600 0= PROMEDIO 4 250 500 -1 3 200 400 -2 2 150 300 -3 1 100 200 36 puntos brutos. (ficticio) Ptje Mínimo real= 0 problemas resueltos 57 puntos brutos. (ficticio) Ptje Mínimo real= 8 ítemes bien respondidos. * Dado que con menos de 4,0 se reprueba y repite, no existen los egresados de educación media con calificaciones 3, 2 y 1. Sin embargo, en un sentido conceptual, el 3,0 es aproximadamente equivalente a 400 puntos PSU. Una consecuencia de todo lo anterior, es que cuando se compara los puntajes SIMCE de un mismo establecimiento educacional entre los años 2006 (promedio 245 puntos) y 2007 (promedio 240 puntos), no es correcto decir que el colegio “bajó” su rendimiento en cinco puntos. Es incluso posible que ese establecimiento haya tenido en 2007 mejores puntajes brutos que en 2006 (o sea, mejoró en esta perspectiva), y también es posible que esos mejores puntajes brutos los haya obtenido respondiendo bien ante problemas e ítemes algo más difíciles que los de la prueba 2006; es decir, nuevamente, pudiéramos tener que afirmar que el establecimiento ha “mejorado” en 2007 desde las dos perspectivas planteadas. Así, el hecho de que en 2007 aparezca con cinco puntos menos que en 2006, es algo que obedece directamente a los procedimientos de ajustes de distribuciones con fines de normalizaciónestandarización, y no a la “calidad” de los exámenes rendidos por las dos cohortes en cuestión. ¿Qué sentido tiene introducir todos estos procedimientos estadísticos que terminan alterando 45 De lo abstracto a lo concreto en los debates sobre la calidad educativa el verdadero valor de las respuestas de los estudiantes?. El sentido es uno sólo y muy claro: se trata de tener un sistema final de puntajes, que permita a las universidades discriminar óptimamente entre un alumno y otro al momento de seleccionarlos entre los postulantes. El sistema PAA, al igual que el PSU y el SIMCE, no están diseñados para facilitar la comparación de un mismo establecimiento a lo largo de los años, y por eso, las manipulaciones a que se somete los puntajes brutos no cuidan este aspecto al elaborar los puntajes finales. Es decir, estas pruebas garantizan la mejor discriminación posible entre alumnos de una misma cohorte, al costo de empobrecer y hasta de introducir leves tergiversaciones (son en verdad pequeñas) en análisis distintos al de la comparación intra-cohorte de alumnos. Este largo rodeo en torno la normalización-estandarización de puntajes, viene en apoyo de nuestro argumento central sobre el concepto de “calidad educativa”: la medición SIMCE pese a llamarse SISTEMA DE MEDICION DE LA CALIDAD EDUCATIVA, no mide a ésta propiamente tal, y la prueba es que con márgenes pequeños, puede manipular los puntajes de las verdaderas calidades hasta tergiversarlos. En los puntajes de un establecimiento: 2006= 245 y 2007= 240, es posible que tras los 240 puntos, haya respuestas y soluciones de problemas de mejor calidad que aquellas que obtuvieron 245 puntos. Obviamente, tras este comentario subsiste el problema de que el SIMCE en realidad mide rendimiento-conocimientos estudiantiles, y no mide calidad educativa del establecimiento. Me permitiré una especulación y una propuesta a partir de este último punto. La especulación se relaciona con los cambios en las “aptitudes” de las cohortes desde 1966 a 2009. Aunque ya vimos esos cambios socioeconómicos registrados en las cohortes que han rendido la PSU, no hay datos duros para avalar este tipo de fenómenos en sus verdaderas dimensiones a lo largo de los 42 años que empezaron con la primera PAA , y que llegan hasta hoy. Con apoyos sólo secundarios y tangenciales, muchos expertos han sugerido que en los últimos 40 años se ha producido un importante deterioro en el lenguaje de los jóvenes. Presuntamente a causa de la TV, de la menor lectura y del “chateo”, se habría empobrecido el vocabulario y se habrían deteriorado los usos de la ortografía y la gramática. Como contrapartida, y a causa de la TV y de Internet, la juventud habría mejorado su comprensión de los lenguajes icónicos-visuales. A mitad de camino quedarían los lenguajes de las matemáticas; me atrevo a suponer que éstos han mejorado desde 1966, quizás no tanto como los visuales, pero gracias a Internet –que distribuye para miles de alumnos facsímiles similares a los de las pruebas oficiales, y a la obsesión por “preparar la prueba” en academias y preuniversitarios, yo asumiría que quienes rinden la PSU hoy llegan bastante mejor en matemáticas que sus antecesores de la PAA en 1966. Por jugarme una hipótesis plausible, yo diría que si en Lenguaje los alumnos de hoy pueden estar unos 100 puntos PSU por debajo de los de 1966. A la inversa, creo posible que en Matemáticas estén unos 100 puntos PSU por encima de los de 1966. Cuando fijo en “cien puntos más” y en “cien puntos menos” las diferencias, estoy siendo absolutamente arbitrario : las cosas pudieran haber empeorado mucho más, o quizás pudieran haber mejorado mucho más, y no tenemos cómo saberlo. Mis anteriores hipótesis serían un delirio… si no hubiera como contrastarlas; pero hay una forma bastante razonable para hacerlo: se puede hacer una “muestra” de mil sujetos que hayan obtenido 500 puntos (digamos, entre 490 y 510…) en la PSU 2009 de Lenguaje, y otros mil sujetos con 500 puntos (490 a 510) en la PSU de Matemáticas. A estos grupos se les pagaría una modesta suma para que respondan la misma prueba PAA que rindieron quienes 46 Andrés Gacitúa Stemann ingresaron a la universidad en 1966. Podrían darse varias alternativas; menciono las de mayor interés: a) Si quienes rinden Lenguaje sacaran cerca de 400 puntos y quienes rinden Matemáticas se acercaran a los 600 puntos en promedio, mis hipótesis quedarían básicamente probadas. b) Si ambos grupos se sacaran cerca de 500 puntos en promedio, se demostraría dos cosas importantes: (i) mis hipótesis serían erróneas, y (ii) nada sustantivo habría cambiado desde 1966, en el sentido de que los alumnos obtendrían cerca de 500 puntos de cualquier forma, con cualquiera de las pruebas. c) Tengo una hipótesis mejor que las anteriores. Creo que de hacerse lo propuesto, es posible que quienes rinden Lenguaje obtengan cerca de 600 puntos, y quienes rinden Matemáticas obtengan cerca de 700 puntos. En este caso, yo tendría razón en la ventaja de matemáticas sobre lenguaje, pero quedaría refutada la idea del “empobrecimiento” del lenguaje. Al Ministerio de Educación le encantaría demostrar que hoy, los alumnos egresan de 4º Medio sabiendo bastante más que en 1966,… por lo que podemos ilusionarnos con que se interese en llevar a cabo esta propuesta. Por supuesto, si hace el estudio propuesto corre el riesgo de demostrar lo contrario: … que hoy los alumnos salen de 4º Medio sabiendo MENOS que en 1966. d) Obviamente, toda esta propuesta tiene sentido, únicamente si se comparan datos del 2009 contra datos normalizados con el mismo sistema que se usó en 1966. Es decir, suponiendo un caso de una persona del 2009 que obtiene 40 puntos brutos en matemáticas rindiendo la PAA 1966, habría que rastrear a aquellas personas que en 1966 obtuvieron los mismos 40 puntos brutos, y ver qué puntaje se les asignó producto de la normalización-estandarización. Si se aplicara ajustes, normalizaciones y estandarizaciones, cuantos más sean estos procedimientos, más probable se vuelve que todo el mundo termine teniendo los 500 puntos obligados desde siempre por el sistema de normalización. Existe todavía una forma más para ilustrar cómo se manipula los puntajes en estas grandes pruebas nacionales. Se trata de comparar la dispersión de los puntajes brutos versus la distribución de los puntajes finales. Si lo que hemos venido sosteniendo es cierto, TENDRIA QUE OCURRIR lo siguiente: algunas personas que tienen iguales puntajes brutos, terminarían teniendo distintos puntajes finales; de no ser así, no habría existido efecto alguno de “normalización” de la distribución bruta en cuestión. Pongo un ejemplo extremadamente simplificado, pero que espero ilustre claramente el asunto. Supongamos que un cierto colegio, en virtud de “pitutos” de alto nivel, logra obtener los datos relativos a qué puntajes brutos obtuvo cada uno de sus 20 alumnos que rindieron la PSU de matemáticas en 2009, y se encuentra con lo siguiente: 47 De lo abstracto a lo concreto en los debates sobre la calidad educativa Tabla Nº 1: Datos ficticios para ilustrar la dispersión de puntajes que opera la PSU. Alumno Nº Puntaje final normalizado 1 Puntaje Bruto Ítemes con respuestas correctas 25 2 23 640 3 22 22 619 21 21 21 592 4 5 6 690 618 591 7 590 8 20 570 9 18 18 18 18 548 10 11 547 546 12 545 13 15 518 14 14 14 505 16 13 480 17 12 12 12 465 15 18 503 464 19 20 463 10 448 Observando la columna central con la “cantidad de respuestas buenas” o “cantidad de problemas bien resueltos”, tenemos que los 20 alumnos se distribuyen en 11 CATEGORIAS diferentes de puntajes brutos, las que corresponden unívocamente a los problemas matemáticos bien resueltos en sus pruebas. Si no hubiera “normalización” de estos puntajes, estos 20 alumnos tendrían 48 Andrés Gacitúa Stemann que tener solo 11 puntajes finales PSU, pero no es así: terminan teniendo 20 DIFERENTES puntajes PSU. El paso desde las 11 categorías de respuestas buenas a 20 puntajes finales diferentes, solo puede conseguirse operando una distribución más diferenciadora: allí donde en principio hay 4 alumnos con un mismo puntaje bruto de 18 respuestas correctas, termina habiendo 4 distintos puntajes finales. Similar cosa ocurre en otros “empates” en cantidad de respuestas buenas. La pregunta obvia es a quiénes se favorece y a quiénes se perjudica. No conozco los detalles, pero imagino que se trata de un proceso aleatorio: sería una injusticia flagrante si operaran criterios intencionados. La aleatoriedad no es justa; es simplemente injusticia aleatoria. La ilustración anterior apenas es una caricatura: 20 individuos en 11 categorías de puntajes, no están ni cerca de dimensionar lo que realmente ocurre. En circunstancias reales, cerca de 200 mil jóvenes rinden una prueba de Matemáticas que tiene 60 ítemes o problemas. Desde quienes responden “cero respuesta correcta”, a quienes obtienen “puntajes nacionales” de 50 respuestas correctas, tenemos un total de 51 categorías diferentes de PUNTAJES BRUTOS (prescindo aquí de los descuentos por respuestas malas). Los 200 mil jóvenes que en principio quedan distribuidos en estas 51 categorías tendrán que ser reclasificados, estandarizados y normalizados, hasta distribuirlos dispersándolos en unas 700 categorías de puntajes oficiales finales: las que van desde un puntaje final de 150 puntos como “mínimo nacional” hasta un puntaje final “máximo nacional” del orden de los 850 puntos. Para pasar de las 51 categorías iniciales a 700 finales, es inevitable cometer esa “injusticia” de asignar distintos puntajes finales a personas que tienen las mismas respuestas correctas como puntajes brutos. Con todo lo que pueda molestar este asunto, no se crea que el problema ha logrado quedar resuelto. Si ordenamos a 200 mil jóvenes en 700 categorías diferentes, nos quedarían unos 286 jóvenes en cada uno de los puntajes finales. Esto no es realmente así, ya que, cuanto más nos alejemos del promedio, habrá menos sujetos por categoría, y cuanto más cerca estemos del promedio, la cantidad puede multiplicar varias veces a esos 286 jóvenes del cálculo inicial. ¿Cuántas personas se sacaron exactamente 500 puntos en Matemáticas en la PSU con que postularán a las universidades en el 2009? No dispongo del dato exacto pero no me extrañaría si fueran más de tres mil personas. Y de estas 3000 personas: ¿cuántas postularán a una misma carrera? A pesar de los severos procedimientos usados para discriminar selectivamente a los sujetos, subsiste el problema de que hay muchos sujetos a quienes “no hay cómo discriminarlos por sus puntajes” en los procesos de selección universitaria; en estos casos operan el orden de inscripción, el haber inscrito esa carrera como la única, y finalmente, hasta el orden alfabético de los apellidos y el azar, o el estar presente y despierto en el momento en que “corre la lista” de los llamados en cada carrera. Todos los años hay miles de jóvenes que no lograron entrar a carreras a las que ingresaron otros postulantes que tenían la misma cantidad que ellos de “respuestas buenas” en las distintas pruebas de la PSU. El problema anterior no tiene remedio: si exigiéramos una PSU con mejor capacidad discriminativa, pondríamos en esta instancia la mayor cuota de “injusticias”; y si no hacemos tal exigencia, las injusticias se trasladan al proceso de selección de alumnos por cada escuela universitaria. La solución de justicia perfecta es imposible, porque para lograrla tendríamos que diseñar pruebas que tuvieran unas 500 mil categorías de puntajes diferentes… : sería la única forma en que 200 mil alumnos queden perfectamente distribuidos de modo que no se repitan demasiado en determinadas categorías. Aún así, en las categorías centrales próximas a los 500 puntos la acumulación de varios sujetos en una misma categoría sería inevitable. 49 De lo abstracto a lo concreto en los debates sobre la calidad educativa Cabe imaginar como solución más radical, la de sustituir el proceso de “pruebas” de selección por otro en el cual, TODO el que quiera ingrese a la carrera deseada, para hacer un primer trimestre de nivelación: si a estas nivelaciones ingresan 200 alumnos por carrera, está claro que al segundo trimestre pasarían solo los 80 mejores, esta vez, medidos y seleccionados por sus rendimientos en notas en la carrera elegida. Cada carrera tendría que esmerarse en generar los sistemas más justos posibles, no sólo para no perjudicar innecesariamente a muchos alumnos, sino también para asegurarse de que se queda realmente con los mejores alumnos para seguir formándolos a lo largo de toda la malla curricular. Por desgracia, cabe sospechar que las Escuelas seleccionarían a los individuos de mejores sectores socioeconómicos, buscando quedarse con aquellos alumnos que no les fallarán en el pago de aranceles. La PSU tiene OTROS defectos, pero al menos no sesga su asignación de puntajes con un criterio que favorezca a los “buenos pagadores”. 3. Calidad de la Educación: aterrizaje de lo abstracto en lo concreto. Todo el mundo pareciera saber lo que es la calidad de la educación en abstracto; pero si se les pregunta por los niveles concretos, es decir, ¿qué es calidad de la educación en manuscritura?, ¿qué es calidad de la educación en geometría?, ¿…en química?,… se quedan sorprendidos de no tener nada que decir al respecto. Prácticamente todo puede ser medido y evaluado, y con esto me refiero a que las metodologías cuantitativas y psicométricas, por así llamarlas, pueden hacer maravillas “midiendo” calidad de la educación, y de similar manera, las metodologías cualitativas también han desarrollado criterios y procedimientos sistemáticos que les permiten evaluar con gran rigor fenómenos cualitativos difícilmente cuantificables. Pero el punto que quiero desarrollar en esta parte final de este trabajo, no se inscribe en las diferencias entre las metodologías cuantitativas y cualitativas, sino más bien en la naturaleza y la extensión del concepto de calidad de la educación, cuando no lo usamos como una entelequia abstracta, sino cuando lo referimos a “objetos”, asuntos o sectores concretos específicos. Planteo el problema: ¿ CUÁL ES UNA BUENA EDUCACIÓN Y CUÁL UNA MALA, SI SE TRATA DE EDUCAR LA MANUSCRITURA del alumno en el Primer Ciclo Básico? La pregunta debe entenderse como dirigida a dos cuestiones claramente diferentes; la primera es relativa al contenido o a la naturaleza de la competencia enseñada, la manuscritura; podríamos reformular la pregunta diciendo ¿cuál es esa “buena manuscritura” que debemos enseñar, y cuáles son las “malas manuscrituras” que debemos erradicar de las aulas? Y la segunda cuestión es la de índole didáctica o de metodología de la enseñanza: ¿QUÉ DIDÁCTICA ES BUENA Y CUÁL ES MALA para enseñar esa buena manuscritura definida antes? Un docente puede ser amable y cálido, nada autoritario y acogedor de la participación, etc., pero ni el más nutrido conjunto de estos buenos atributos pedagógicos genéricos le va a permitir hacer buena docencia si no sabe LO QUE tiene que enseñar. Para el docente, es obligado tener dominios tanto de los contenidos como de las formas. Yo podría dominar muchos recursos pedagógicos adecuados para enseñar a cantar, pero si yo mismo no conozco La Marsellesa, seré incapaz de enseñarle a otro a que la cante. Mis buenos recursos pedagógicos serían insuficientes, si ignoro el contenido. Lo inverso también es cierto: no sirve de mucho saber el contenido a enseñar, si no se tiene los recursos pedagógicos formales más elementales; eso es lo que suele ocurrirle a los maridos que intentan enseñarle a manejar el auto a la señora. Aunque estos maridos sepan como manejar muy bien, despliegan por así decirlo, una 50 Andrés Gacitúa Stemann pedagogía tan negativa en estos casos, que los intentos terminan en crisis conyugal a poco andar y en cero aprendizaje. Saber enseñar manuscritura requiere saber los contenidos, es decir CUÁL manuscritura es la “buena” que se debe enseñar, y exige saber también CÓMO hacer pedagogía especialmente buena, de ESA manuscritura. Partiré por la cuestión principal del contenido: ¿CUÁL ES la buena manuscritura que hay que enseñar en Básica? a) Hay que enseñar la manuscritura: ¿Con letras script o con cursivas? (¿“De imprenta” o cursiva”?) (Sobre esto se debatió durante décadas sin que se llegara a conclusiones claras). b) Hay que enseñar una manuscritura: ¿En el formato reticular que nos ofrece el cuaderno de caligrafía vertical, … o en otro formato distinto? (Favor recuérdese que en Chile llevamos más de cien años usando generalizadamente este cuaderno en la educación básica). Si la respuesta fuera contraria al cuaderno de caligrafía vertical: ¿Qué alternativa se propondría? Si la respuesta fuera favorable al cuaderno de caligrafía vertical: ¿Porqué?...¿cuál es ese buen fundamento pedagógico que nos ofrece este cuaderno? c) Dado que diestros y zurdos difieren orgánicamente en la “lateralidad” de sus manuscrituras: ¿Debiéramos tener UNA SOLA e idéntica pedagogía de la manuscritura para ambos tipos de escolares?,....¿quisiera alguien insistir en la “derechización” o en la “zurdera contrariada”?, o quizás: ¿Debiéramos usar buenas pedagogías zurdas con los zurdos,… y buenas pedagogías diestras con los diestros?... ¿Cuáles serían y en qué consistirían estas buenas pedagogías diferenciadas para diestros y zurdos?. ¿En qué se diferenciarían? Prácticamente nadie tiene respuestas claras para los tres cuestionamientos anteriores; es decir, se ignora casi todo sobre los contenidos a enseñar, lo que equivale a que no se sabe cuáles son los contenidos de esta buena calidad educativa por la que estoy preguntando. Asumamos que alguien ya sabe todo lo anterior, que domina los contenidos. Habría que preguntarle: ¿Cuál es entonces la buena forma pedagógica que debemos usar para enseñar esa buena manuscritura? Profesionales que “en el discurso abstracto” opinan con soltura en torno a la “calidad educativa” como problema nacional, no tienen idea de qué métodos pedagógicos alternativos existen en materia de la simple SUMA, y tampoco tienen idea alguna que ofrecer en un eventual debate en torno al fundamento metodológico de la didáctica del cuaderno de caligrafía vertical, ni tampoco pueden marcar diferencias pertinentes y adecuadas entre las pedagogías de las manuscrituras diestras y zurdas. O sea, tan pronto se les requiere que aterricen en lo real, aunque se trate de cuestiones aparentemente tan simples como la suma o la manuscritura, los pseudo-expertos del mundo de la abstracción educativa fracasan lastimosamente. Este fue el problema de la “Comisión Brunner” y opino que ésta es la principal clave para entender lo que ha estado pasando en los últimos 50 años con las políticas educativas en Chile. Los políticos y los legisladores no saben cuáles son las “buenas calidades” educativas en lo concreto, pero no han querido reconocerlo y se empeñan en legislarle al país, normas y disposiciones absurdas. (La ministra Mariana Aylwin se quejaba de que “la Reforma no había entrado en las aulas” durante su ministerio; habría en esto dos lecturas posibles: los profesores trancaban las 51 De lo abstracto a lo concreto en los debates sobre la calidad educativa puertas de las aulas para eludir lo que la Reforma les sugería-exigía, o bien, los Reformadores tenían un discurso abstracto que aunque invadiera las aulas a raudales, jamás tocaría a las prácticas de enseñanza-aprendizaje porque estaba enunciado en otro nivel de lenguaje.) En muchos casos, hasta sesudos especialistas en pedagogía pasarían bochornos tratando de aplicar sus abstracciones a las problemáticas concretas de la educación: 1. ¿Cómo sería una pedagogía humanizada de la manuscritura y cómo sería otra nohumanizada? 2. ¿Cómo podría practicarse una buena pedagogía de la manuscritura “centrada en el alumno”?,….¿Existen algunas “malas pedagogías” de la manuscritura que no se centren en el alumno?....., me cuesta imaginar que exista alguna forma de enseñar la manuscritura como no sea centrándose en el alumno... 3. La manuscritura: ¿Debe enseñarse con un enfoque de “competencias” o podría enseñarse a la antigua, por objetivos y más bien frontalmente?; ¿Conoce el lector estudios que hayan evaluado los rendimientos pedagógicos comparados de estas dos didácticas posibles de la manuscritura? 4. Cuando en Chile se derechiza a un zurdo, como se sigue practicando hasta hoy: ¿Eso es Pedagogía por Objetivos?... ¿Pedagogía Frontal..? , ¿Pedagogía por Competencias?, ¿ centrada en el Alumno?,… ¿ o se tratará tal vez de simple tortura neurológica practicada por un sistema que, aunque no lo sabe, está provocando el 90% de las disgrafias de nuestros escolares a causa de sus malas metodologías de enseñanza de la manuscritura? Y en cualquier caso: ¿Qué habría que cambiarle a la manuscritura que estamos enseñando?, ¿Cómo se hace una mejor pedagogía … de esa mejor manuscritura? Para el lector con experiencia en estas materias debería ser obvio que lo que estoy diciendo ES LO QUE OCURRE en la práctica pedagógica, donde los docentes de aula reciben discursos abstractos sobre la calidad educativa, de parte de unas autoridades que no saben como orientarlos hacia una práctica de calidad porque lo ignoran todo sobre una mejor pedagogía de la manuscritura, de la suma, de la comprensión lectora, del sistema métrico, o de los porcentajes, etc. 4. Cientos de factores inciden en una buena calidad educativa. A propósito de la evaluación de los docentes, se ha dado a entender que ellos serían el componente fundamental de toda calidad educativa. Esto es un error precisamente contrario al anterior. Si arriba hablábamos de abstracciones que no sabían aterrizar en lo concreto, ahora estamos ante una concreción tan exacerbada, que no admite más que esa dimensión como la única existente. La pregunta crítica aquí sería: ¿Cuáles son los principales factores que determinan la calidad educativa disponible para el alumno en una cierta aula de un establecimiento? En el sentido geográfico más extremo, quienes viven en el Hemisferio Norte tienen acceso a sistemas educativos de “mejor calidad” que quienes viven en el Hemisferio Sur; y en el sentido emocional más extremo, las personas que han vivido situaciones emocionales traumáticas, están en peores condiciones para aprovechar los procesos educativos, que quienes no han vivido estas situaciones traumáticas. Sin embargo, cuando intentamos aclarar los conceptos que tenemos en torno a la “calidad educativa” no nos preguntamos en qué hemisferio vivimos ni tampoco pensamos que sea indispensable levantar un historial emocional de cada alumno. 52 Andrés Gacitúa Stemann Podríamos convenir en que es razonable prescindir de aquellos factores determinantes de la calidad educativa que, por uno u otro motivo, nos resultan muy extraños o lejanos; sin embargo, no es fácil consensuar los límites, esas fronteras específicas a partir de las cuales nos importa considerar a todos los factores que se combinan para determinar como macro-producto suyo, a la “calidad educativa” a la que tiene acceso un determinado escolar. A efectos de la argumentación, imaginemos apenas unas pocas fuentes o factores que inciden sobre la calidad final de la educación disponible para un alumno, aún cuando tengamos claro que hay muchas más: a) Planes, Programas y Contenidos Mínimos Obligatorios del Ministerio de Educación; b) Proyectos Educativos que son responsabilidad de cada Establecimiento; c) Calidad del trabajo de la Unidad Técnico-Pedagógica del Establecimiento; y d) Calidad Pedagógica del Docente. Estos cuatro “macro-componentes” de la calidad educativa que pudiera estar a disposición del alumnado de un cierto curso-establecimiento, pueden complementarse armónicamente entre sí, para terminar configurando una oferta de gran calidad para el alumnado, o pueden estorbarse y anularse unos a otros generando contradicciones y sinsentidos que resultarían en una pésima calidad educativa como combinatoria final. Puede ocurrir que un docente de alta calidad se vea literalmente anulado por las disposiciones coactivas de una Unidad Técnico Pedagógica (UTP) más bien confusa e inepta, que no logra articular una práctica pedagógica en la que el Proyecto Educativo del establecimiento se potencie adecuadamente con los Planes, Programas, y Contenidos Mínimos Obligatorios del Mineduc. También puede ocurrir lo contrario: una excelente UTP puede obtener desempeños bastante buenos incluso de sus peores docentes, si acaso ha logrado armonizar adecuadamente las prácticas pedagógicas que requiere de su profesorado con el Proyecto Educativo del establecimiento y con las disposiciones del Mineduc. Ante todo, es obligado reconocer que muchas decisiones sustantivas en torno a lo que pueda llegar a ser una oferta de calidad educativa, no son tomadas por los docentes mismos sino por instancias tanto de autoridad nacional (Mineduc) como de carácter técnico (las UTP) que operan por sobre los docentes. Por supuesto, esto no suele analizarse cuando se habla de evaluar a los docentes; se da por supuesto que la calidad del desempeño pedagógico del docente en el aula es una responsabilidad exclusiva y propia de cada docente, y en estos días se predica que la calidad del profesor es el componente fundamental de la calidad educativa; cuestión cuya falsedad se evidencia tan solo con mencionar los casos de aquellos docentes que trabajan simultáneamente en establecimientos particulares pagados de altos puntajes PSU y en establecimientos municipalizados de bajos puntajes PSU. Si el gran factor causal fuera el docente, sería inexplicable que el mismo docente obtenga resultados tan disímiles. Su calidad potencial como docente es la misma, solo que ella se asocia a OTROS factores que la elevan o la inhiben cuando trabaja en distintos establecimientos. El problema no consiste en que los docentes se crean intocables e inevaluables: el problema es que TODOS LOS SUJETOS que participan en el proceso educativo lo hacen. La Comisión Brunner nos dejó instalados muchos lineamientos,…pero no acepta ni responde a críticas. El Mineduc no acepta que se evalúe la calidad de sus planes y programas ni sus contenidos mínimos obligatorios (CMO); el Establecimiento Educativo no admite que se evalúe su Proyecto Educativo Institucional, y… salvo algún llamado de atención desde la Dirección misma, la UTP tampoco acepta ser evaluada. Ni pensemos en que se pudiera evaluar a Padres y Apoderados, 53 De lo abstracto a lo concreto en los debates sobre la calidad educativa al Alcalde, a los Concejales, etc., en lo que le aportan o le restan a la calidad educativa de los establecimientos con que se relacionan. En suma, puede haber excelentes docentes con buenos alumnos, que tengan bajos rendimientos en las pruebas de conocimientos tipo SIMCE a causa de una mala planificación por la UTP, o a causa de que el Proyecto Educativo es francamente incompatible con las disposiciones del Ministerio de Educación. Como se ve, nos podemos meter en líos fácilmente si tan sólo atendemos a cuatro de los componentes más obvios de la calidad de los contenidos y procedimientos educativos que llegan al aula; y no son cuatro sino cientos de factores los que componen la “calidad educativa disponible para un determinado alumno”. En cualquier caso, la “calidad educativa” es una etiqueta “monstruo” que nos sirve para aludir a un enorme conjunto de procesos,… cada uno de los cuales aporta grados más o grados menos de la calidad educativa final que está a disposición del alumno. Agreguemos, que la calidad de un proceso solo existe cuando el proceso mismo tiene lugar. Es decir, no hay “calidad de la educación”, hasta que el proceso educativo ocurre, y cuando esto pasa, entran en juego los procesos vinculados al aprendizaje que es capaz de aportar cada alumno. Evidentemente, un proceso educativo obtendrá mejores resultados, en la medida en que cuente con mejores procesos de aprendizaje aportados por el alumno. Por supuesto, un instrumento como el SIMCE no mide nada de lo anterior; se salta olímpicamente toda alusión a la calidad de los Planes y de los CMO del Ministerio, se salta el Proyecto Educativo del Establecimiento, y se salta la calidad de la planificación y la gestión pedagógica de la UTP. Se salta la calidad del docente, y no contempla nada de los buenos aportes que a nivel de procesos de aprendizaje haga o no haga el alumno. Hasta ahora, muchos docentes se resisten a ser evaluados, y los entendemos: lo justo sería evaluar a todos los componentes del sistema y no sólo a uno de ellos; por su parte, el SIMCE termina midiendo “calidad de la educación” como si este constructo fuera lo mismo que “rendimiento del alumno en pruebas de conocimiento”. Esto no es sino una total inconsistencia conceptual. Mientras no exista una sana voluntad política de arreglar estos entuertos, nada de lo que se haga podrá conducirnos a una solución de importancia. Conclusiones Este texto no intentó sino criticar la práctica ambigua que se está haciendo en el manejo del concepto de “calidad de la educación”. Mientras usemos este concepto como si fuera una entelequia abstracta, seguirá siendo imposible hacer una buena reforma en la materia. Se requiere que desde el concepto se mire a las prácticas, o mejor aún, que el concepto surja desde las prácticas. Las formas en que medimos calidad educativa, especialmente con el SIMCE, no son mediciones de calidad de la educación. Y cuando se analiza la docencia de la manuscritura, vuelve a hacerse evidente que el concepto-entelequia de la “calidad-educativa” todavía no sabe hablar en el lenguaje de las prácticas pedagógicas concretas correspondientes. El saber de los legisladores en la materia, no es capaz de responder por zurdos y diestros, ni por el cuaderno de caligrafía vertical, ni por letras scripts ni por cursivas. No se discute en el Parlamento cuáles son las buenas y cuáles las malas prácticas médicas; ni el Senado ni la Cámara de Diputados pueden normarle a los ingenieros cuáles son las estrategias matemáticas para hacer buenos cálculos y cuáles las que terminan con cálculos malos. Ya es hora de que los cambios en la calidad de la educación los propongan e implementen quienes sepan algo de esto. Ya es hora de que los políticos admitan que mientras no sepan nada sobre las “concreciones” de la calidad educativa, usar el concepto a nivel puramente abstracto, solo asegura que todo lo que 54 Andrés Gacitúa Stemann hagan seguirá siendo apenas un juego muy caro y absurdo en torno o una entelequia cuyos procesos reales no comprenden. REFERENCIAS Comisión Brunner: Los desafíos de la educación chilena frente al siglo XXI. Editorial Universitaria, Santiago, Chile, 1995. (Circuló en fotocopias durante 1994; la edición en formato de libro es de 1995). Gacitúa, Andrés: (1994). ¿Qué será lo que quiere el Estado…? Revista de Psicología, editada por el Colegio de Psicólogos de Chile, Santiago. Volumen 15, Nº 2, pp 51 – 63. En torno a las estadísticas nacionales en educación y a las pruebas PAA, SIMCE y PSU, se sugiere revisar las numerosas páginas web oficiales en la materia. En el caso del Mineduc, es de especial interés la Dirección de Planificación y Presupuesto. Ver como apoyos: www.simce.cl www.psu.cl www.demre.cl www.mineduc.cl www.ine.cl www.cse.cl www.cruch.cl (Sistema de Medición de la Calidad de la Educación). (Prueba de Selección Universitaria). (Departamento de Evaluación, Medición y Registro Educacional.) (Ministerio de Educación) (Instituto Nacional de Estadísticas) (Consejo Superior de Educación) (Consejo de Rectores de las Universidades Chilenas. Ver anuarios estadísticos). LA TERCERA. Tabloide de edición diaria, en Santiago de Chile. Se comenta textos sobre los resultados de la PSU 2009. Ver la edición del 23 de Diciembre 2008, páginas 1, 35, 36 y 37. A su vez, La Tercera cita y comenta a David Bravo, investigador del Centro de Microdatos de la U. de Chile y a Gregory Elacqua, investigador del Centro de Políticas Comparadas de Educación de la Universidad Diego Portales. A nivel internacional puede consultarse las páginas web de CEPAL, UNESCO, TIMS, PISA, etc. 55