evaluación en la gestión pública: caso del sistema nacional

Anuncio
INSTITUTO NACIONAL DE LA ADMINISTRACIÓN PÚBLICA
EVALUACIÓN EN LA GESTIÓN PÚBLICA:
CASO DEL SISTEMA NACIONAL DE EVALUACIÓN EDUCATIVA
COORDINADOR DEL PROYECTO: DR. HUGO H. CHUMBITA
SERIE I. DESARROLLO INSTITUCIONAL Y REFORMA DEL ESTADO
DIRECCIÓN NACIONAL DE ESTUDIOS Y DOCUMENTACIÓN
DIRECIÓN DE ESTUDIOS E INVESTIGACIÓN
BUENOS AIRES 1997
CONTENIDO
I PARTE: EVALUACION EN LA GESTION PUBLICA
INTRODUCCION
3
1. ANALISIS EVALUATIVO Y CONCEPTOS BASICOS
1. 1. El análisis evaluativo
1. 2. Monitoreo, control, auditoría y otros enfoques
1. 3. Técnicas de medición de resultados
1. 4. Eficacia, efectividad y metas
1. 5. Eficiencia gerencial y económica
1. 6. Productividad
5
2. TIPOS, METODOLOGIA Y USOS DE LA EVALUACION
2. 1. Tipos de evaluación
2. 2. Criterios, modelos y métodos
2. 3. Acerca del uso de los resultados de la evaluación
15
3. INFLUENCIA DEL NUEVO PARADIGMA DE GERENCIAMIENTO PUBLICO
3. 1. Gestión de calidad y orientación al cliente
3. 2. La motivación profesional
3. 3. Evaluación de la calidad
3. 4. Tendencias y aportes críticos
21
4.
27
ALGUNAS CONCLUSIONES SOBRE TECNOLOGIAS DE EVALUACION
II PARTE: CASO DEL SISTEMA NACIONAL DE EVALUACION EDUCATIVA
28
1. ANTECEDENTES
1. 1. Experiencias internacionales
1. 2. Tipos de evaluación educativa
1. 3. El concepto de calidad en la educación
28
2. CASO DEL SINEC
2. 1. Definiciones de la Ley Federal de Educación
2. 2. La organización del SINEC
34
Página 1de 50
2. 3. La instrumentación descentralizada
2. 4. Operativos de evaluación
2. 5. Indicadores y análisis evaluativo
2. 6. Utilización de los resultados
2. 7. Modalidad de gestión y costos
3.
CONCLUSIONES SOBRE LA EVALUACION EDUCATIVA
Referencias bibliográficas
44
46
Página 2de 50
I PARTE: EVALUACION EN LA GESTION PUBLICA
INTRODUCCION
La lógica democrática del funcionamiento del Estado, el ejercicio de las
responsabilidades políticas de los gobernantes, las demandas y propuestas de los
ciudadanos y cualquier iniciativa de reforma o de mejora en el funcionamiento de la
Administración, requieren un conocimiento fundado del desempeño de los
organismos públicos y de su repercusión en el ámbito social al que se dirigen y en el
que actúan. Este es el sentido de la evaluación. Las elaboraciones teórico-prácticas
al respecto pretenden contribuir a que las decisiones de los actores no se basen en
meras opiniones, sino en datos y estudios sistemáticos sobre los procesos, los
productos, los resultados y el impacto de la acción de los poderes públicos.
La evaluación de políticas, programas y servicios públicos se desarrolló como
técnica de análisis utilizando la metodología de las ciencias sociales para indagar
diversos aspectos de la gestión pública y suministrar información a los decisores e
interesados en la misma. Sus aplicaciones se potenciaron a partir de la década de
1960 en Estados Unidos y otros países junto con la expansión de los “programas
sociales” y la ayuda internacional, así como también con la introducción de reformas
“racionalizadoras” en los sistemas presupuestarios nacionales.
La evaluación se convirtió así en un campo de estudio interdisciplinario y una
especialidad profesional. En Estados Unidos, Canadá y los países europeos se han
institucionalizado sistemas de evaluación de la gestión pública y, sobre la base de un
importante caudal de conocimientos y experiencias, los organismos internacionales
promueven hoy la difusión y transferencia de las tecnologías recomendables.
La necesidad de evaluar políticas, programas y servicios respondiendo a
distintas demandas y propósitos, ha dado lugar a una variedad de tipos, modelos y
metodologías que caracterizamos brevemente en este estudio. A partir de las
técnicas de medición de resultados de enfoque económico, el campo de la
evaluación ha ido ampliándose para abarcar también la formulación de las políticas
y los procesos de gestión, con un carácter interdisciplinario.
Además, la evaluación es considerada hoy un elemento primordial dentro de
la renovación inspirada por el paradigma de una administración gerencial, orientada
a atender al ciudadano-cliente y a movilizar los recursos humanos en función de las
exigencias de calidad, flexibilidad y creatividad.
Aunque la preocupación por evaluar la acción pública ha estado presente en
nuestro país de diversas maneras, sus logros son aún incipientes. Existen
precedentes de ensayos para medir la eficiencia y la productividad de la
Página 3de 50
Administración, a lo cual se ha agregado recientemente el enfoque de la calidad de
los servicios.
En el último lustro se emprendieron varias innovaciones institucionales que
han contribuido a introducir la problemática de la evaluación en la gestión del
Estado. A partir de la Ley de Administración Financiera y Sistemas de Control de
1992 se aplica un nuevo modelo de elaboración y ejecución presupuestaria y se
pusieron en marcha la Auditoría General de la Nación, la Sindicatura General de la
Nación y las unidades de auditoría interna en la APN, que tienen algunas funciones
de evaluación (Lerner, 1996).
El Premio Nacional a la Calidad del sector público que se otorga desde 1994
se basa en la realización de procedimientos evaluativos en los organismos
postulantes (Chumbita, 1996). Otra experiencia que ha tenido gran repercusión en la
opinión pública fue la puesta en marcha del Sistema Nacional de Evaluación de la
Calidad previsto por la Ley Federal de Educación.
Los requerimientos de numerosos programas emprendidos con cooperación o
financiamiento internacional impulsaron la incorporación de metodologías de
evaluación en diversos organismos nacionales, provinciales y municipales (Zapata,
1993). Actualmente la Secretaría de Desarrollo Social está organizando el Sistema
de Evaluación y Monitoreo de Programas Sociales para el seguimiento de
actividades apoyadas por el gobierno nacional que se ejecutan en todo el país a
través de agencias oficiales y entidades no gubernamentales.
En la Primera Parte de este trabajo sintetizamos un panorama conceptual del
tema, de los problemas que presenta y de sus nuevas perspectivas relacionadas con
el cambio de paradigma en la Administración, sobre la base de la literatura sobre la
materia y como marco para el estudio de experiencias en nuestro país. Fue elaborado
teniendo en cuenta diversos antecedentes aportados al INAP, en consulta con otros
investigadores y en particular con la valiosa colaboración del Lic. José Luis Tesoro.
En la Segunda Parte consideramos el caso del Sistema Nacional de
Evaluación Educativa, implementado por el Ministerio de Educación en
coordinación con las jurisdicciones de todas las provincias y la Ciudad de Buenos
Aires, que ha realizado una de las experiencias más completas y trascendentes en
cuanto a la evaluación de políticas públicas en nuestro país.
Página 4de 50
1. ANALISIS EVALUATIVO Y CONCEPTOS BASICOS
La pluralidad de usos habituales del término, e incluso las nuevas
connotaciones o reformulaciones que refleja la bibliografía, requieren delinear los
alcances del concepto de evaluación como tecnología analítica y delimitar su relación
con otros enfoques de la actividad administrativa.
1. 1. El análisis evaluativo
La evaluación, situada en el marco teórico de las ciencias de la administración
como una especialidad del análisis de políticas públicas, aplica los métodos de
investigación de las ciencias sociales con el propósito de valorar un programa o
actividad pública, buscando determinar sus resultados, conocer sus procesos y explicar
sus efectos.
Se puede definir como una técnica tendiente a producir información de
utilidad para mejorar diversos aspectos de la gestión pública: 1) las decisiones y la
planificación, 2) el funcionamiento operativo y 3) los resultados finales en relación
con los recursos invertidos (Ballart, 1992).
En principio, entonces, su campo abarca la definición y formulación de
políticas y programas, la implementación, los procesos, productos, resultados e
impacto, considerando la eficacia, la efectividad y la eficiencia. Tiene en cuenta el
contexto en el cual se desarrollan las acciones, y apunta incluso a explicar las causas y
factores de los logros o fracasos en alcanzar los objetivos expresados o deseables.
Un sistema de evaluación sería un conjunto racional y coherente de principios y
pautas de procedimiento conducentes a los fines de la misma. Las finalidades de la
evaluación pueden ser variadas (tornar más transparente la gestión, reducir los costos,
replantear un programa, corregir su aplicación, etc.), pero siempre se trata de extraer
conclusiones útiles sobre el significado de lo que se mide.
Se pueden evaluar políticas, programas, servicios permanentes, proyectos y
cualquier acción específica. La evaluación puede ser anterior, para considerar su
factibilidad, oportunidad, razonabilidad, etc.; posterior, en cuyo caso comprende el
análisis de resultados, o concomitante, en cualquier momento durante la realización de
un programa, para retroalimentar su gestión.
Evaluar los resultados se distingue de evaluar los procesos, es decir los
mecanismos internos, las reglas, los medios, que no constituyen fines en sí mismos.
Cabe hacer la salvedad de que ciertos aspectos del “cómo se hace” pueden ser
considerados un objetivo, y por lo tanto un resultado: por ejemplo, trabajar en un
ambiente saludable para los empleados.
Página 5de 50
Un problema central del análisis evaluativo es la selección de los criterios a
aplicar. Por ejemplo, el evaluador puede adoptar un criterio económico de
eficiencia/rendimiento, focalizando la relación entre los resultados obtenidos y los
recursos utilizados, o un criterio de significación política, observando los resultados
aportados por el programa con respecto a las necesidades públicas consideradas
prioritarias; puede optar por una combinación de los dos criterios anteriores, u otros
criterios de tipo social, administrativo, etc. El problema subsiguiente consiste en la
operacionalización de los criterios escogidos, de modo que éstos se traduzcan en
formulaciones inequívocas y expresadas en magnitudes empíricamente mensurables y
verificables (Tesoro, 1979).
La evaluación se basa así en indicadores que reflejan ciertos hechos. Cada
programa o actividad que se enfoca requiere escoger los indicadores apropiados (por
ejemplo, para apreciar los resultados de una campaña sanitaria contra el cólera, la
cantidad de nuevos casos de enfermedad, el número de víctimas fatales, etc.).
Por supuesto, no todo es susceptible de medirse con la misma precisión. Hay
factores y efectos más fácilmente determinables que otros. Existen diferentes
opiniones sobre lo que es relevante, y criterios diversos acerca de qué y cómo medir.
Hay resultados que en un momento o para ciertos fines son importantes, y por razones
de economía de esfuerzos siempre se seleccionan aquéllos que se consideran más
significativos.
Analizando los procesos evaluativos se puede identificar la valuación como
resultante de los juicios críticos de valor de los cuales dependen las conclusiones del
estudio. En efecto, se requieren juicios de ese tipo para establecer los principios de
evaluación y traducirlos en criterios operativos, para determinar las mediciones de
efecto correspondientes a cada criterio que se toma como significativo, para establecer
qué datos cualitativos se consideran como evidencia de satisfacción de los criterios
con que se trabaja, etc. En este sentido, la valuación define el "qué" de la evaluación, y
el diseño de investigación (incluyendo el plan de recolección y análisis de datos) sería
el "cómo".
La evaluación comprende entonces la medición (incluyendo también la
experimentación) y la valuación, consideradas como componentes complementarios,
esenciales el uno al otro. En la perspectiva de la evaluación como disciplina científica,
se puede considerar el concepto de valuación como núcleo central en torno al cual se
genera su área específica de investigación (Crane, 1988).
Valuar en sentido lato es una operación intelectual que consiste en asignar un
grado de valor, lo cual implica referir algo a una escala de valores predeterminada. En
el sentido que nos interesa aquí, la valuación, si bien no puede ser éticamente neutral,
aspira a la objetividad. Por supuesto, los evaluadores no deben basarse en sus valores
personales. Pero los valores no sólo son personales, sino ante todo sociales. La
Página 6de 50
evaluación de políticas es un ejercicio de aplicación de valores sociales. Las
valuaciones no deben representar la visión de una sola persona, sino la de un grupo o
conjunto cuya visión se considera válida por razones objetivas.
Los diversos juicios de valor que requieren los procesos de evaluación en
cualquiera de sus fases o enfoques (para decidir qué criterios de medición emplear,
para plantear un estudio acerca de sí se justifica o no el costo de un programa, etc.)
pueden ser objetivados: por ejemplo, recurriendo al análisis de costo-beneficio o de
costo-efectividad de un programa determinado, o a través de una operación de
medición social que consulte la opinión de una muestra del conjunto de personas
beneficiarias o directamente interesadas o afectadas.
La evaluación puede ser realizada por el mismo organismo, en cuyo caso cabe
llamarle autoevaluación. Acotemos que la evaluación individual de desempeño de los
agentes administrativos, aunque no es ajena al tema, es una técnica diferente a la
evaluación de la gestión en sentido global.
1. 2. Monitoreo, control, auditoría y otras funciones
A fin de deslindar otras funciones de control que enfocan la gestión pública y
se relacionan con la evaluación, sintetizamos la siguiente conceptualización conforme
a las aproximaciones usuales en la literatura de economía y administración.
El monitoreo o seguimiento consiste en la obtención periódica de información
relevante para observar y describir la marcha de determinadas actividades,
comparando de manera sistemática los desarrollos efectivos y los resultados
alcanzados con las previsiones; para ello es necesario disponer de un plan como
referente, en el que se definan las variables objeto del seguimiento y las magnitudes de
las mismas que constituyen las metas a alcanzar. El monitoreo o el seguimiento
pueden ser procesos autónomos o proveer datos como parte de un sistema más amplio
de control o de evaluación.
La supervisión es la función tradicional de control directo del personal o de
unidades laborales por los superiores jerárquicos, ejercida por funcionarios u
organismos que tienen capacidad legal para coordinar tareas y dar instrucciones a
otros. La evaluación puede en principio realizarse por un órgano supervisor, aunque lo
usual es que sea encomendada a un equipo externo como insumo para la supervisión.
El control de gestión, según la concepción amplia hoy difundida, consiste en
medir y evaluar lo actuado con relación al plan, las normas y/o los objetivos fijados,
para observar los desvíos, corregirlos y/o sancionarlos, incluso con fines de
retroalimentación para la propia dirección o el planeamiento del organismo. El control
adquiere particular importancia al separarse la propiedad de la gestión. La noción de
propiedad proviene de la empresa privada, pero es extensible al sector público, donde
Página 7de 50
corresponde a los ciudadanos y/o a sus representantes políticos conforme al sistema
jurídico constitucional.
El control puede ser ejercido por la conducción de un organismo o conjunto
administrativo, puede ser de carácter externo, o interno a cargo de unidades
especializadas, en cuyos casos tiene diversas particularidades y alcances. Debe basarse
en un sistema de información, y reclama unidad de criterio de los diversos niveles
jerárquicos concurrentes.
El control de gestión abarca algunas dimensiones de evaluación. En nuestro
país, la nueva legislación de control (Ley 24.156, artículo 103) contempla la
evaluación de proyectos, programas y operaciones, excluyendo la evaluación de
políticas. Las evaluaciones que realizan normalmente los órganos de control son
selectivas o por encargo y según los casos pueden ser más o menos exhaustivas.
Se llama control de gestión integrado al enfoque totalizador que considera la
interrelación de diversas variables para apreciar en conjunto la gestión, por oposición
a las visiones segmentadas o focalizadas en el cumplimiento de las normas legales y
contables. En su concepción más avanzada puede decirse que asume algunos criterios
de la evaluación de resultados.
La auditoría es una forma de control de la razonabilidad de los
procedimientos, la utilización de recursos y los resultados. Más estrictamente se
denomina así al examen o revisión formal de las operaciones de una unidad
administrativa, utilizando mediciones y evaluaciones que acentúan el enfoque
normativo y de verificación, realizado por un organismo independiente. Puede haber
diversas auditorías especializadas por disciplina o materia (auditoría contable, legal,
técnica, etc.).
Las nuevas concepciones de auditoría operativa o de gestión apuntan a un
examen más integral del funcionamiento de la organización, que debería contribuir a
mejorar las condiciones y el rendimiento del trabajo. La tarea puede ser efectuada por
auditores externos o por unidades de auditoría interna, desde una posición también
imparcial aunque ligada a la conducción del organismo, colaborando y asesorando de
manera constante sobre el manejo administrativo. Esta modalidad incluye la
evaluación de resultados, y así lo establece en nuestro país el nuevo régimen de
control (Ley 24.156, art. 102).
El rol de los departamentos de control y auditoría, sin perjuicio de la función
primordial de fiscalización para prevenir fraudes, tiende a incorporar pautas más
amplias de evaluación y se plantea actualmente como un servicio de apoyo a los
organismos, para organizar el aprendizaje, asesorar en la búsqueda de mejoras, ayudar
a los gerentes públicos a enunciar los resultados esperados y diseñar indicadores
apropiados, asistirlos con un criterio de prevención y sugerir alternativas de acción
(Quesnel, 1993).
Página 8de 50
Si bien el control y la auditoría en una concepción amplia incluyen prácticas de
evaluación, se diferencian del análisis evaluativo por el enfoque del objeto de estudio
y la metodología. El control requiere indagaciones periódicas sistemáticas, basadas
principalmente en fuentes de información internas a la organización, en tanto el
análisis evaluativo es una investigación puntual que por lo general se apoya en fuentes
más diversificadas. Según la conclusión de un experto (Masoni, 1993), un sistema
completo de evaluación se distingue del control por dos dimensiones básicas: a) el
examen crítico de todos los objetivos, y b) su propósito “formativo”, tratando de
extraer lecciones de experiencia para formular futuros programas e identificar
aspectos de la organización que requieren mejoras.
1. 3. Técnicas de medición de resultados
La medición de los resultados o del desempeño (performance) se basa en
algunas nociones elementales provenientes del modelo de organización empresaria y
extensibles a los organismos públicos.
Resultados finales o rendimientos, en sentido general, serían los efectos que
realmente producen los organismos con los medios puestos a su disposición. Dentro
de ello quedarían comprendidos diversos elementos: 1) los productos concretos,
medibles físicamente, logrados a partir de los insumos o recursos; 2) los resultados en
sentido estricto, definidos con relación a los objetivos perseguidos; 3) el impacto en la
sociedad o el medio ambiente, comprendiendo la influencia sobre otras instituciones y
sobre los propios miembros del organismo.
Los métodos de medición usuales se basan en la función de producción, que
relaciona los productos y los insumos. Los productos o salidas (output) son las
unidades de bienes y servicios que provee una organización.
Los productos son entonces cosas o acciones tangibles, mensurables como
unidades físicas y/o susceptibles de tener un valor expresado en dinero (por ejemplo,
las recorridas de vigilancia policial o las vacunas aplicadas por un servicio sanitario).
Los resultados son los efectos positivos que tienen tales productos con relación
a los fines del servicio o programa de que se trata, lo cual exige comprobar si se
verifica la teoría o la relación causal implícita (en los ejemplos dados, que la
vigilancia policial sirve para controlar los delitos y que las vacunas previenen la
enfermedad).
Esta verificación se relaciona con la indagación del impacto o los efectos
sobrevinientes, que es posible percibir a través de indicadores adecuados (por
ejemplo, los índices de criminalidad en las zonas patrulladas y de salud en la
población donde se vacuna). Estos efectos pueden ser, además, consecuencias no
Página 9de 50
deseadas o inesperadas (aumento de criminalidad en otras zonas no vigiladas,
aparición de otras enfermedades, etc.).
Los insumos, entradas (input) o recursos son los bienes, durables o no,
materiales, financieros, humanos y de cualquier otro tipo, incluyendo el tiempo y
también medios como la planificación, el control, etc., que emplea la organización
para lograr el producto. Los insumos pueden asociarse con determinados costos
(precio y amortización de edificios, muebles y máquinas, salarios de los empleados,
etc.), cuya suma permite calcular un costo total del servicio.
Las técnicas de Presupuesto por Programas, Presupuesto por Objetivos o
Presupuesto por Resultados, al adoptar como criterio central de las previsiones del
financiamiento público una relación entre insumos y productos, sobre la base de
información precisa y periódica sobre las metas y los resultados, facilita asignar los
recursos al cumplimiento de objetivos concretos y evaluar lo realmente sustantivo, que
es la racionalidad en el empleo de los recursos. El sentido de presupuestar actividades
es ver “lo que el gobierno hace”, en lugar del sistema tradicional que sólo indica “lo
que se compra para hacer las cosas”. La utilización de esta técnica no garantiza por sí
misma mejorar el rendimiento de la organización, pero un sistema presupuestario
racional puede contribuir a ello y es el requisito insoslayable de una adecuada
planificación (Martner, 1972; Tesoro, 1979; Lerner, 1996).
Consideramos a continuación los conceptos de eficacia, efectividad, eficiencia
y productividad, que serían diversas maneras de entender, interpretar o medir la
relación entre productos e insumos.
1. 4. Eficacia, efectividad y metas
La eficacia, en la acepción más corriente, es el logro de los objetivos. Según
una definición usual, es la medida en la cual se han alcanzado los mismos.
En la literatura anglosajona se utiliza el término efectividad (effectiveness),
para indicar el logro oportuno de las metas previstas. El concepto de eficacia suele
emplearse en nuestro medio en el mismo sentido, y también puede tener un
significado más amplio, aproximado al de “impacto social”.
Tal como ha propuesto Angel Ginestar, sobre la base de los aportes de una
reunión latinoamericana de expertos realizada en 1985, la eficacia se refiere al
cumplimiento de un conjunto de “efectos sociales esperados y concientemente
buscados”, los cuales comprenden los productos en sentido amplio y también los
efectos de demandar ciertos insumos -por ejemplo, crear fuentes de empleo en una
población- e incluso de procesarlos de determinada manera -por ejemplo, aplicar una
tecnología particular. Por lo tanto, se puede considerar eficaz una actividad en la
medida en que responde en forma positiva a un cuadro general de expectativas
Página 10de 50
relacionadas con el contexto social.
Es importante la acotación de que para medir esta noción amplia de eficacia no
existen indicadores convenidos y la multiplicidad de objetivos a considerar la torna
difícil de expresar (Ginestar, 1990).
La efectividad, como ya señalamos, se refiere al logro de objetivos previstos.
Es una medida de proporción que relaciona el producto (output) real observado (Ot)
con el producto planeado o deseado (ot) en un período de tiempo (t). Dividiendo Ot
por ot y multiplicando por 100 se determina el porcentaje de efectividad. Por ejemplo,
si una operación municipal planeó barrer 1.500 kilómetros de calles en el segundo
trimestre y realizó el barrido de sólo 1.350 kilómetros, sería sólo un 90 % efectiva. Si
se planeó limpiar 1.500 kilómetros y se limpiaron 3.000, la operación sería un 200 %
efectiva. Adviértase que una organización efectiva no necesariamente es eficiente. La
operación de limpieza de 3.500 kilómetros con 200 % de efectividad puede ser hecha
también con un costo por kilómetro que triplique el de otras operaciones comparables.
La utilidad de medir la efectividad depende directamente de una apropiada
planificación de las metas físicas. Si éstas constituyen un objetivo significativo que
plantea exigencias razonables al organismo, la medición de la efectividad puede ser
una herramienta gerencial útil.
El problema que se plantea respecto a las metas de los organismos
gubernamentales es quién debe establecerlas. Puede considerarse que corresponde que
lo hagan los ciudadanos o contribuyentes (aunque éstos a menudo no están
organizados y carecen de elementos de juicio acerca del servicio público), los sectores
de interés organizados, los empleados (aunque éstos podrían tender a reducir los
niveles para disminuir su carga de trabajo), los funcionarios políticos, analistas
externos sobre la base de cálculos económicos de beneficios y costos, o todos o
algunos de ellos en conjunto.
Los desacuerdos sobre las metas y por lo tanto acerca de los resultados
deseados, y sobre lo que constituye la efectividad, son endémicos en la experiencia
norteamericana. Normalmente se presentan considerables divergencias acerca del
nivel aceptable de los diversos rendimientos gubernamentales, las visiones
contrapuestas son difíciles de conciliar, y la cuestión de efectividad se resuelve a
menudo mediante simplificaciones arbitrarias, por lo cual los expertos advierten que
esta forma de medición resulta por lo menos problemática (Downs y Larkey, 1986).
1. 5. Eficiencia gerencial y económica
La eficiencia es la relación entre productos e insumos. Usualmente se considera
eficiente una actividad si se logran los resultados con el mínimo óptimo de los
Página 11de 50
recursos necesarios. Obrar con alta eficiencia reclama elegir las mejores relaciones
posibles entre productos e insumos, dadas las posibilidades.
Siguiendo a Downs y Larkey (1986), podemos distinguir dos conceptos de
eficiencia, en sentido gerencial o ingenieril y en sentido económico. La primera es la
acepción más corriente, que relaciona los productos con los insumos utilizando como
medida el costo por unidad de producto. Por ejemplo, una operación municipal de
limpieza de calles emplea los insumos de personal, vehículos, gasolina, servicios de
mantenimiento, varios materiales y provisiones, y espacio edificado (oficina, depósito,
etc.). El producto podría ser la cantidad de kilómetros de calzada barridos. La base
para medir la eficiencia sería pues el costo por kilómetro limpiado.
Aplicada con fines prácticos, se trata de una medida relativa, basada en los
niveles de rendimiento previos del mismo organismo o los de otros organismos
comparables. Si el costo del kilómetro de calles limpiadas decrece de un año para otro,
se supone que el servicio es más eficiente. La mejora podría deberse a un programa de
entrenamiento de los barrenderos, a la disminución de “tiempos muertos”, a la
aplicación de una ordenanza que prohibe estacionar automóviles en las calles, etc.
Claro que la mejora puede ser sólo aparente, por ejemplo si resulta de registros
falseados, o de un nuevo equipamiento de automotores cuyo costo se refleja en la
cuenta de capital pero no en la medida de eficiencia.
De manera análoga, si barrer un kilómetro de calles en el mismo período cuesta
en un municipio más que en otro, puede tratarse realmente de una diferencia en la
eficiencia relativa o puede ser atribuible a un conjunto de otros factores tales como
disparidades físicas entre las ciudades, diferencias en el mercado de trabajo, en la
calidad del servicio o en las prácticas contables. Un sistema de producción es más
eficiente que otro si tiene un costo menor por unidad de producto o un más alto
producto por unidad de costo y los sistemas son idénticos en todos los demás aspectos
relevantes.
En abstracto es posible especular acerca de la eficiencia absoluta, pretendiendo
conocer todo acerca de los medios para alcanzar los resultados y el costo de cada uno
de ellos. Podría entonces compararse el modo actual de operar con todas las otras
alternativas, para elegir la de mínimo costo, o sea la más eficiente. Sin embargo, es
difícil que exista alguna situación real, no trivial, donde realmente se conozcan todas
las alternativas y sus respectivos costos. Las que se utilizan son siempre medidas de
eficiencia relativas.
La eficiencia no cuestiona el beneficio que proporciona el producto. Un
organismo de sanidad puede empeñarse en la eficiencia de un sistema de vacunación
de niños en edad escolar, sin considerar si es más útil vacunar o prevenir la
enfermedad con mejor alimentación en la primera edad. El sistema de vacunación más
eficiente es simplemente el que aplica una cantidad de vacunas al menor costo o más
vacunas por un costo dado. La medida de eficiencia es insensible al valor último del
Página 12de 50
producto, aunque por supuesto siempre tiene implicaciones positivas: diseñar un
sistema nuevo que haga lo mismo que el anterior por menos dinero siempre dejará
recursos disponibles para otros programas.
La eficiencia económica es un concepto mucho más abstracto que la eficiencia
gerencial. Uno de los criterios de eficiencia preferidos por los economistas es el de
Pareto: un estado económico (un conjunto dado de dispositivos organizacionales, de
asignaciones y distribuciones) es económicamente eficiente si no es posible cambiarlo
para lograr alguna mejoría sin que nada empeore. Un problema práctico con este
criterio es que resulta extremadamente difícil que alguna nueva política no empeore
algo. Otro problema es concretar el concepto. Aplicar el criterio a cualquier
circunstancia real requiere pronósticos cuidadosos de todos los efectos relevantes de
un cambio propuesto, usualmente numerosos, complicados y a menudo también
inmanejables.
Otro criterio de eficiencia, utilizado a menudo en el análisis de costo-beneficio,
es el de Kaldor-Hicks: un estado es económicamente eficiente si no es posible
cambiarlo de modo que aquéllos que son beneficiados puedan compensar a quienes se
perjudican. Este criterio implica que son deseables los proyectos con beneficios netos
positivos (o una proporción de beneficios sobre costos mayores que 1). Ello no
requiere que se compense efectivamente a los que pierden, sino sólo que tal
compensación sea factible. Un ejemplo de tal compensación sería el subsidio
gubernamental a industrias afectadas por la reducción de tarifas aduaneras. Este
criterio de eficiencia económica presume que la distribución de beneficios y costos
antes del cambio es razonable, sino óptima.
El análisis de costo-beneficio apunta a establecer cuál es la relación entre el
valor actual de los beneficios y el de los costos asociados con uno o varios programas,
lo cual indicará la conveniencia de aquellas alternativas que permiten lograr una
mayor diferencia entre beneficios y costos. Este análisis presenta problemas de
conmensurabilidad, pero es útil como apoyo de las decisiones cuando se trata de
asignar recursos a determinados sectores (por ejemplo, dar prioridad a salud,
educación o vivienda) o áreas programáticas dentro de un sector (por ejemplo
atención médica, medicina preventiva o saneamiento ambiental).
Relacionado asimismo con la eficiencia, el análisis de costo-efectividad
(también llamado costo-eficacia) se aplica para establecer cuál es la alternativa o
combinación de alternativas entre ciertos programas que, con relación a un objetivo
determinado, alcanzan la mayor efectividad a un costo dado, o un nivel dado de
efectividad al menor costo. La clave de la factibilidad de este análisis es la definición
de los resultados en términos de metas físicas adecuadas (por ejemplo, para un
programa sanitario, cantidad de personas salvadas, años de vida ganados, etc.), con lo
cual el problema se reduce a identificar cuál de los medios alternativos para lograrlo
es el de menor costo (Tesoro, 1979).
Página 13de 50
1. 6. Productividad
Las mediciones de productividad también enfocan los productos y se
relacionan estrechamente con las mediciones de eficiencia gerencial. La medición de
productividad más común relaciona un factor de insumo singular, el trabajo, con el
producto, estableciendo por ejemplo cuántas horas-persona (o meses, días, etc.)
insume fabricar una unidad o efectuar una tarea determinada. Se usa a menudo para
comparar los cambios de productividad a través del tiempo (por ejemplo, producir un
televisor insumió 20 horas-persona en 1980 e insume 15 horas-persona hoy) o entre
distintas localizaciones (por ejemplo, una inspección sanitaria en un municipio
requiere 5,7 horas de trabajo y en otro comparable utiliza 6,4 horas).
La productividad de un insumo se expresa en estos ejemplos como
productividad media. También se puede expresar como productividad marginal del
insumo, dividiendo el incremento de producción en cierto tiempo por el incremento
del insumo en ese lapso y suponiendo el resto constante, lo cual permite analizar, por
ejemplo, el efecto de un aumento en la cantidad de empleados o de horas de trabajo
(Prokopenko, 1989; Ginestar, 1990).
Tales mediciones son menos útiles de lo que puede parecer por las dificultades
en relacionar productos particulares con insumos particulares. Fuera del esquema
simple de la línea de montaje, el trabajo a menudo contribuye a múltiples productos, y
es difícil distribuir el costo entre ellos. Un ejemplo extremo de esta dificultad es el
problema de distribuir el valor del trabajo de un director general de un policlínico
entre los diversos servicios que presta. Muchas de sus actividades se refieren a más de
un producto, y para decidir qué proporción de su trabajo está asociado con cada uno
debe recurrirse a estimaciones arbitrarias.
Por otra parte, es evidente que los múltiples insumos determinan
conjuntamente los productos. Las comparaciones de un factor singular no tienen
sentido a menos que de algún modo se controlen los otros factores relevantes que
juegan un rol en determinada producción. Esta insuficiencia llevó a plantear
mediciones de productividad de factor total, relacionando el producto con todos los
insumos, o al menos con los más significativos. Actualmente es usual incluir como
factores, además del trabajo, el capital financiero y sus costos, el capital tangible
(instalaciones, equipos, etc.) e incluso las materias primas, el transporte y la energía.
En esta perspectiva “multifactorial” habría productividad marginal positiva cuando se
verifica que hay una diferencia entre el aumento del producto y el aumento en los
costos de los factores considerados (Kendrick y Vaccara, 1980).
Sin embargo, y especialmente al aplicar el cálculo de productividad a la
actividad administrativa, falta agregar aún un elemento “modificador de los factores”,
que sería la “organización de la producción” (el componente “empresarial” en la
empresa privada), es decir, el modo en que se combinan los factores, donde
Página 14de 50
intervienen variables complejas. Esto se manifiesta al observar que la función de
producción es mayor que la simple suma de factores. El problema que se presenta es
que, particularmente en la administración pública, los determinantes que concurren
sólo son definibles a priori con un alto nivel de abstracción: la “racionalidad del
proceso productivo” relacionada con las fuerzas económicas e institucionales, la
dimensión de la capacidad gerencial y tecnológico-organizativa, o los condicionantes
del comportamiento humano (Thiry-Cherques,1996).
Página 15de 50
2. TIPOS, METODOLOGIA Y USOS DE LA EVALUACION
Los métodos de evaluación utilizables y las opciones al respecto deben
adecuarse lógicamente a los criterios que se adopten, y éstos a su vez varían en
función de los tipos de evaluación de que se trate. En términos generales se pueden
efectuar al respecto las siguientes clasificaciones.
2. 1. Tipos de evaluación
Ante todo hay que tener en cuenta la diferencia entre evaluar una política, un
programa o proyecto, un servicio permanente, una acción o incluso una organización.
En principio, una política pública tiene un alcance más genérico y a menudo
más estable que un programa, y un proyecto abarca un conjunto de actividades más
acotadas que un programa; aunque conviene advertir que no siempre hay uniformidad
en el uso de esta terminología.
La evaluación organizacional o institucional considera la capacidad de una
entidad pública, o también privada, para cumplir con las funciones asumidas o con
nuevos planes de acción, y apunta a definir las cualidades estructurales y de
funcionamiento de la organización por comparación con un modelo deseable
previamente definido. Puede tener aplicaciones muy amplias y diversas, y tiene
elementos en común con los estudios de diagnóstico organizacional. Es asimismo un
enfoque habitual respecto a entidades convocadas a actuar en la gestión de programas
sociales; en estos casos se vincula con la necesidad de apoyar el fortalecimiento de sus
recursos que le permitan cumplir los objetivos mediatos e inmediatos de manera
sustentable.
Asimismo hay que deslindar la autoevaluación de un organismo, la evaluación
del “propietario” o de un órgano supervisor y la evaluación externa, que puede ser un
encargo originado en diversas fuentes.
Según la relación de tiempo con el programa o actividad, como ya advertimos,
la evaluación puede ser anterior (ex ante), posterior (ex post) o concomitante .
Como también señalamos antes, la evaluación de procesos (o formativa) se
diferencia de la evaluación de resultados (o conclusiva).
La evaluación puede ser comprensiva de toda una política, programa o servicio
para valorar sus resultados, relacionándolos con su concepción inicial, su
administración y sus costos, o puede tener una perspectiva más limitada.
Puede tener la finalidad general de tornar más transparente la gestión pública y
acumular experiencia para futuras decisiones políticas, o un propósito más acotado,
Página 16de 50
como apoyar la gestión de un programa durante su implementación o proporcionar
elementos de juicio para decidir sobre la continuidad o no de una política.
Se distingue incluso entre evaluación descriptiva y analítica, según la
naturaleza del estudio y la profundidad del análisis.
En cuanto a los alcances del enfoque, se pueden enumerar los siguientes tipos
de evaluación:
1)
Evaluación de los efectos netos de la intervención pública,
considerando “efectos netos” aquéllos que no se hubieran producido sin el
programa o acción de que se trata, en lo cual quedan comprendidos los
resultados en sentido amplio. Se trata de saber si se alcanzaron los objetivos
y si ello no se debió a otras causas.
2)
Evaluación de la implementación de programas y servicios,
focalizando el grado de cobertura de una población o un área, cómo se
utilizan los recursos y cómo se distribuyen los servicios.
3)
Evaluación de la concepción y diseño de los programas y servicios,
que se cuestiona si los mismos se han diseñado de acuerdo con los objetivos
iniciales y si ello resulta razonable en función de una relación de causalidad
que tenga adecuado fundamento teórico.
4)
Evaluación económica, según los análisis de costo-efectividad y
costo-beneficio, para establecer si el programa o servicio implica un uso
eficiente de los recursos en comparación con otras alternativas factibles.
La metaevaluación o “evaluación de las evaluaciones”, por último, sería la
confrontación de los resultados de varias evaluaciones provenientes de diversas
fuentes, apuntando a una comprensión de síntesis. También se denomina así a la
evaluación de los resultados de cada una de tales evaluaciones con relación a sus
costos.
2. 2. Criterios, modelos y métodos
En perspectiva histórica se puede observar que la metodología de evaluación
ha ido evolucionando a partir de los criterios formales y legalistas de los sistemas
tradicionales de auditoría hacia concepciones cada vez más abarcadoras en cuanto a
los aspectos a considerar y a los sujetos involucrados o participantes de la misma.
El mérito o el valor de las actividades de un programa o servicio puede
juzgarse de acuerdo a diferentes criterios: según la medida en que se alcanzaron los
objetivos expresos, según los logros en relación a objetivos generales de producción o
Página 17de 50
distribución de recursos, según la opinión de los gestores del programa o de los grupos
beneficiados, perjudicados o en general afectados por el mismo, etc.
Conforme al criterio elegido, la metodología de evaluación se definirá en una
gama de variantes, que van desde un enfoque racional centrado en los objetivos
declarados hasta las aproximaciones basadas en los puntos de vista de una pluralidad
de actores o interesados. El modelo clásico de evaluación por objetivos se atiene a los
fines específicos prefijados, otros modelos introducen métodos para reflejar el grado
de concreción de otros efectos deseables, y el modelo “focalizado en la utilización” o
“pluralista” que postulan algunos autores (Patton, 1986; Ballart, 1992) recurre a un
proceso evaluador en varias etapas, de carácter dinámico e interactivo, que produzca
información útil para los diversos actores involucrados reconociendo la multiplicidad
de perspectivas posibles. En el marco de tales opciones, el diseño de la investigación
admite una gran variedad de técnicas que deben adecuarse en cada caso al propósito
de la evaluación.
En los modelos más corrientes adquiere importancia primordial la selección de
las variables a considerar como indicadores del cumplimiento de objetivos (por
ejemplo, en un programa educativo, los conocimientos o habilidades adquiridos por
una población determinada; en un programa de cambio institucional, los aspectos en
que se modificó el servicio o la relación entre empleados y usuarios, etc.). Las
variables-indicadores deben reunir requisitos suficientes de validez, en cuanto a su
relación con los objetivos, así como de fiabilidad, de modo que los datos no dependan
de los instrumentos de recolección; deben abarcar el conjunto de objetivos relevantes
y ser pertinentes en el sentido que la variable realmente dependa de la intervención de
la agencia a evaluar y no de otros factores que escapan a su control; además habrá que
considerar la economía, es decir que los costos de obtención de la información sean
razonables.
En cuanto a las fuentes de datos y los métodos de obtención, la evaluación
utiliza los instrumentos tradicionales de las ciencias sociales: entrevistas y
cuestionarios, tests de conocimientos, actitudes, preferencias, etc., registros, archivos y
ficheros administrativos, otros documentos producidos por el programa o acción en
cuestión, estadísticas oficiales, observaciones (directas o indirectas, abiertas o
encubiertas), evaluaciones de expertos, etc.
Para la medición de impacto existen importantes experiencias de aplicación de
diseños experimentales o cuasiexperimentales, basados en la comparación de grupos
destinatarios del programa y grupos de control. La observación de un grupo-objetivo
afectado por un programa y otro grupo-testigo no afectado permite obtener
información válida sobre las relaciones causales entre la intervención pública y los
impactos, a condición de que los grupos construidos sean equiparables y no sufran
alteraciones significativas en el tiempo necesario para desarrollar el estudio (Meny y
Thoenig, 1989; Ballart, 1992).
Como elemento auxiliar para estructurar la información en el proceso de
Página 18de 50
evaluación, pueden elaborarse modelos -en un sentido diferente al de los modelos de
evaluación antes referidos- como representaciones del funcionamiento del sistema
considerado, en los aspectos que son relevantes para el programa en cuestión. Tales
modelos reflejarán distintas “teorías” sobre el comportamiento del sistema, según las
percepciones o experiencias que existan al respecto (por ejemplo, en una oficina de
atención al público, cuáles son los períodos y las secciones en los que aumenta la
demanda de recurrentes, de lo cual resultarán diversos modelos). Ello permite ensayar
sobre tales modelos, por analogía con el método experimental, determinadas
alternativas programáticas (por ejemplo, asignar dotaciones de personal y terminales
de computación, las cuales se definirán como alternativas a1, a2, a3, etc.). Si alguna
de las alternativas resultara ser la mejor en todos los modelos, sería sin duda la
preferible; en caso de existir discordancias entre las mejores alternativas según los
modelos, habría que elaborar otros criterios para arribar a una conclusión (Tesoro,
1979).
2. 3. Acerca del uso de los resultados de la evaluación
Aún en los países altamente desarrollados donde la evaluación ha sido puesta
en práctica con mayor rigor metodológico, tanto los evaluadores como la propia
tecnología han sido blanco de críticas, que según Sulbrandt (1993) se pueden resumir
centradas en los siguientes puntos: a) sus conclusiones no resultan definitivas,
suficientemente convincentes o incontrovertibles; b) no se producen a tiempo para
apoyar la toma de decisiones; c) son de escasa relevancia o utilidad para muchos de
los interesados.
El debate generado en torno a tales falencias o debilidades del trabajo de los
evaluadores contribuyó a los replanteos de la investigación evaluativa. Las críticas que
cuestionaban la aplicabilidad, la utilización o el destino de las evaluaciones obligaron
a reconsiderar los problemas técnicos o específicos de la evaluación en el marco de la
problemática general del funcionamiento de la administración.
Hay que tener en cuenta que la formulación e implementación de las políticas
públicas en general resultan de un complejo proceso de conflicto-cooperación entre
demandas y apoyos de distintos grupos con determinados intereses y valores,
mediatizados por diversas organizaciones, todo lo cual se plasma en decisiones a
través de un conjunto de órganos y mecanismos (los poderes legislativo y ejecutivo,
sus respectivas burocracias, etc.). Como observa Oszlak (1978), difícilmente puede
captarse tal complejidad mediante la “intelección” de una racionalidad técnica,
presuponiendo un sistema ideal de relaciones donde la acción se subordina a la razón
y los comportamientos se dirigen hacia ciertos fines escogiendo los medios más
racionales. En cambio, en un modelo de “interacción”, partiendo de la premisa de que
la acción es más bien producto de transacciones entre partes y la prosecución del
interés de cada una realiza el fin colectivo que las vincula, puede interpretarse que el
Estado -en el cual conviven numerosas fuerzas con intereses divergentes- es una
Página 19de 50
especie de “arena” donde se enfrentan los actores sociales y donde las políticas no
surgen de un diseño racional previo, sino como resultado de presiones, luchas,
compromisos, negociaciones y transacciones durante su formulación e
implementación.
Según señalan otros analistas, lo que sucede en general es que, a través de una
serie de acomodamientos se van perfilando ciertas líneas de acción pública, que sólo
retrospectivamente pueden ser visualizadas como “políticas” o “decisiones”. A veces
las mismas surgen como efectos colaterales de cuestiones ajenas, mientras que otras
están determinadas por los precedentes o por el azar de la improvisación.
Considerada en este marco, la evaluación tiene una dimensión conflictiva
inmanente. Sus actividades, productos y resultados pueden percibirse como un
componente de la pugna entre distintos grupos para orientar la estructura y la
asignación de recursos en el Estado. Esos actores interesados determinan en definitiva
qué alcance tendrá una evaluación y qué se hará con sus conclusiones, en un proceso
determinado a su vez por los valores, intereses, suspicacias, temores, recelos y
aspiraciones de quienes tienen algún grado de poder sobre las políticas o programas
sometidos a evaluación. Existe toda una constelación de interesados que se hallan
cómodos con el mantenimiento del statu quo y no están predispuestos a que se
“mueva el tablero” con información evaluativa. Por lo tanto, ninguna evaluación
podría sustraerse a condicionamientos e interferencias en su gestación, en su
desarrollo, en la obtención e interpretación de sus resultados y en la utilización de los
mismos. Incluso los evaluadores externos con mayor independencia de criterio se
verían involucrados en el juego de presiones y contradicciones manifiestas y
subyacentes.
Frente a esta apreciación del cuadro, se puede distinguir una corriente de
autores en la que se sitúa Carol Weiss (1972), que advierten las restricciones que
implica para la evaluación tal diversidad de intereses y problemas. Puede resumirse su
posición al respecto en la afirmación de que existen mayores probabilidades de que la
información evaluativa influya en las decisiones políticas cuando provenga de: a) una
investigación de calidad satisfactoria, b) sobre aspectos específicos y claramente
delimitados, c) realizada por expertos acreditados, d) presentada oportunamente y en
forma adecuada, y e) que no implique alteraciones sustanciales de las creencias,
preferencias y predisposiciones de los actores clave.
Weiss postula que los resultados de una evaluación tendrán mayor probabilidad
de atraer la atención de los “usuarios” si se encuadran en las siguientes “situaciones de
uso” de la información: a) advertir sobre problemas críticos, con señales claras de que
las cosas no andan bien y debe hacerse algo al respecto; b) orientar para el cambio,
con elementos de juicio comparativos sobre opciones viables, sus condiciones y
posibles resultados; c) reconceptualizar cuestiones clave, proporcionando marcos de
referencia más eficaces para examinarlas; d) plantear la movilización de apoyos, con
propuestas dirigidas a reforzar las posibilidades de éxito en el plano político.
Página 20de 50
Otra corriente, cuyo exponente principal es Patton (1986), sostiene que el uso
de los resultados de la evaluación depende fundamentalmente de los evaluadores,
planteando que para ello es necesario establecer claros compromisos iniciales con los
responsables de las políticas y programas sometidos a evaluación. En este sentido,
para que una evaluación sea utilizable y evaluable, deberían cumplirse las siguientes
condiciones: a) que los evaluadores estén auténticamente convencidos de las virtudes
de su producto evaluativo para mejorar la gestión; b) que sean capaces de escuchar y
responder a dudas, prejuicios y manifestaciones de frustración de los potenciales
usuarios, y de sintetizarlas para obtener consenso sobre la necesidad de la evaluación;
c) que puedan asegurar impactos controlables y evaluables de la evaluación,
sometiendo también su propio desempeño a evaluación; d) que acuerden como
contrapartida con los usuarios una visión común y claros compromisos sobre el uso de
los resultados para mejorar la gestión, predisponiéndolos a aceptar tales resultados y a
cambiar en función de ellos los planes, metas, estructuras, procesos o técnicas; e) que,
a partir de tales compromisos recíprocos, atiendan a las necesidades e inquietudes de
los usuarios, trabajando con ellos para facilitar la utilización de los productos de la
evaluación.
De esta manera, en lugar de dejar libradas a su suerte las conclusiones de la
evaluación, que podrían extraviarse en la incertidumbre, la inercia burocrática o el
azar de las interpretaciones interesadas, se propone un fuerte compromiso y una
adecuada compenetración del trabajo de evaluadores y usuarios para que los
resultados realmente contribuyan al cambio y el mejoramiento de la gestión pública.
Página 21de 50
3. INFLUENCIA DEL NUEVO DE PARADIGMA DE GERENCIAMIENTO
PUBLICO
La revolución tecnológica que se opera en nuestros días a escala universal
conlleva nuevos problemas para las organizaciones y nuevas formas de percibirlos y
actuar sobre ellos. Estos cambios contextuales afectan a la cuestión de la evaluación.
Con esa perspectiva abordamos aquí en forma sintética las proyecciones de la gestión
de calidad en la administración y la cuestión de los recursos humanos, considerando la
problemática específica de la evaluación de la calidad en el sector público, así como
otras observaciones y aportes recientes en esta materia.
3. 1. Gestión de calidad y orientación al cliente
El concepto de calidad, que se contrapone al de mera cantidad, corresponde a la fase
actual de desarrollo económico-social en la que va quedando atrás la era de la
producción industrial en gran escala y del consumo de masas estandarizado. En la
industria, en la economía y en general en el “mundo de los servicios”, incluidos los de
la administración pública, aparece como valor importante, incluso más que el precio,
la diferenciación y la adaptación del producto o servicio a múltiples necesidades
específicas de los usuarios. La agudización de la competencia, resultante del
desarrollo de la capacidad productiva y acentuada a escala internacional por la
globalización, confiere al cliente nuevas opciones. Las preferencias particulares de los
usuarios o clientes y su propio conocimiento de la funcionalidad de los productos o
servicios constituyen elementos de gran relevancia para concebir y planear la
producción.
En los países occidentales, la percepción de esta transformación impulsó una
corriente de ideas en torno a los temas de la excelencia, el management moderno y el
modelo japonés, replanteando la concepción del proceso de trabajo y llamando la
atención sobre los factores de la cultura organizacional. La difusión de los círculos de
calidad y las técnicas de flexibilización, descentralización y participación en la
industria produjeron notables avances en la calidad y productividad, originando un
modelo aplicable también a los servicios. Partiendo de la aplicación de los métodos de
control de calidad, y entendiendo que ésta es resultante del conjunto de las actividades
de la organización, Deming, Juran y otros difundieron un modelo integral de gestión
de la calidad en las organizaciones (Total Quality Management), que se corresponde
con la noción del Management participativo caracterizado por algunos analistas
europeos.
Tal como señalamos en un estudio anterior sobre el tema (Chumbita, 1992), los
dos postulados clave de esta corriente son: a) "incorporar al cliente" como recurso y
orientar hacia él los procesos productivos, ya que el destinatario del producto o
servicio es el que aprecia y define la calidad; 2) potenciar al empleado
(empowerment), ya que nadie conoce mejor que él su propio trabajo y las variables
Página 22de 50
para mejorarlo, en base al compromiso con los resultados.
Así como la mayor competencia en los mercados crecientemente globalizados
confiere al cliente o consumidor un nuevo “poder”, también el ciudadano “cliente” de
los servicios estatales está ejerciendo su capacidad de demanda y muchos organismos
públicos se están reorientando a satisfacerla .
Paralelamente a los fenómenos del cambio organizacional, se advierte que ha
decrecido la necesidad y el prestigio de las funciones coercitivas de la autoridad
estatal, y la legitimación del Estado se apoya cada vez más en los bienes y servicios
que provee a los ciudadanos. En gran medida ciertas prestaciones públicas compiten o
concurren hoy con las de determinadas empresas u otras organizaciones, y se plantean
nuevas modalidades de articulación de la acción estatal y los actores particulares.
Se trata de lo que los analistas definen como un cambio de paradigma en la
administración pública, un nuevo paradigma “post-burocrático” (Barzelay, 1992), que
se traduce en la “orientación hacia el ciudadano-cliente” (Richards, 1994; Löfler,
1996), que se plantea como “reinvención del gobierno” (Osborne y Gaebler, 1994) o
también una “cultura del gerenciamiento público” basada en la innovación (Crozier,
1996).
La nueva administración gerencial que se postula para superar el modelo
burocrático, no sólo implica mejorar la “atención al público” en las oficinas,
simplificar trámites y garantizar los derechos de los recurrentes mediante adecuada
información y normas de transparencia, sino también rediseñar los productos en
función de las necesidades y medir constantemente la satisfacción del usuario como
criterio para orientar la planificación, procurar su participación activa a través de
diversas modalidades de consulta y cooperación, brindarle posibilidades de elegir
entre diversas ofertas de servicio, e incluso facilitar los medios y posibilitar que las
entidades representativas de los intereses involucrados resuelvan por sí mismas sus
problemas.
3. 2. La motivación profesional
En el panorama de las relaciones laborales internas, la tendencia a potenciar y
comprometer al personal con los fines o resultados de la organización continúa el
proceso histórico de evolución que podemos caracterizar partiendo de las enseñanzas
de una obra clásica de Amitai Etzioni (1965).
Los medios de control social aplicados a las organizaciones han sido
universalmente de tres tipos: físicos, materiales o simbólicos. El control coercitivo
mediante la amenaza física corporal (ejemplo actual: las cárceles), el control utilitario
empleando las recompensas en cosas, servicios o dinero (empresas), y el control
normativo que busca la adhesión a un credo o a ciertos ideales (iglesias y otras
Página 23de 50
organizaciones voluntarias). Hay entre estos tipos una gradación en la severidad del
control, en la apelación a la razón o convicción, y en el ahorro de costos humanos y
económicos. El progreso socioeconómico impulsa y a la vez requiere menores
componentes coercitivos y cada vez mayores incentivos materiales y abstractos.
Frente a la revolución científico-tecnológica y los nuevos procesos de trabajo,
la empresa privada, basada tradicionalmente en sistemas de recompensa, busca
crecientemente lograr la adhesión, la lealtad o el compromiso del trabajador. Este es el
significado evidente de las corrientes de innovación luego de los éxitos del “modelo
japonés” y el Management participativo en la industria europea y norteamericana.
Es un dato comprobado que las recompensas económicas tienen un techo o
encuentran cierto límite. No sólo no pueden ser incrementadas indefinidamente, sino
que más allá de cierto nivel pierden progresivamente su efecto estimulante. La
administración pública, donde los incentivos de recompensa son menos practicables,
por la rigidez de los estatutos salariales y/o por las restricciones que impone el manejo
presupuestario, requeriría con mayor razón avanzar en el sentido de la motivación de
tipo “normativo” o simbólica de sus agentes.
Como señala Crozier (1997), la complejidad creciente de las actividades de la
administración y la calificación profesional de los agentes conlleva hoy nuevas
oportunidades y demandas de libertad de los servidores públicos. Éstas son
incompatibles con las pautas de obediencia del antiguo paradigma burocrático, a la
vez que constituyen el potencial de las actitudes innovadoras que se han tornado
necesarias.
Las comprobaciones acerca de la eficacia relativa de los controles y la
concepción de que todos los niveles de empleados deben involucrarse para cooperar
en la mejora de la organización, conducen a promover en el seno de las unidades
administrativas el interés por la aplicación de sus propias mediciones de evaluación.
La idea base es que una apropiada circulación de la información y del conocimiento
puede promover el compromiso de los agentes públicos con los fines de la
organización y el deseo de ser eficientes más allá de sus meras obligaciones.
3. 3. Evaluación de la calidad
La evaluación de la calidad supone una nueva forma de valoración del
producto o resultado, pero también, conforme a la concepción del TQM, una
evaluación del conjunto de la organización, desde la planificación y el gerenciamiento
-en términos de liderazgo-, pasando por los procesos y la gestión de recursos humanos
hasta el impacto ambiental.
Como estándares de calidad existen normas internacionales, en particular las
ISO 9000-9004, a los que se atienen los correspondientes sistemas nacionales de
Página 24de 50
acreditación. Se aplican al sector privado, aunque también hay ensayos de aplicación
al sector público. Por otra parte, los numerosos premios a la calidad que existen en
Japón, Estados Unidos y otros países europeos y americanos -e incluso en la
Argentina desde 1992- tanto para empresas como para organismos públicos, han
generado criterios bastante uniformes y diversas metodologías de evaluación de los
mismos, pautadas según las reglas del concurso e instrumentadas por jurados y
evaluadores (Löfler, 1996).
La incorporación del análisis de calidad suscita problemas, especialmente al
trasladarse los enfoques del TQM originados en la empresa a los organismos públicos.
El concepto mismo de calidad posee cierta ambigüedad y reclama una adecuada
interpretación. Hay diversas formas de definir la calidad, de manera objetiva (como
“la conformidad con las especificaciones”), subjetiva (según la satisfacción del
cliente) o combinando ambos enfoques.
La gestión de calidad trasciende la noción elemental de calidad como atributo
del producto, y según las definiciones más amplias abarca la eficiencia económica, la
satisfacción de los empleados, el funcionamiento gerencial, la cultura organizacional,
la proyección hacia el futuro, etc.
Al evaluar la calidad, la empiria presenta habitualmente ciertas dificultades.
Por ejemplo, la aproximación que distingue las dimensiones de cantidad y calidad
debe ser matizada: el incremento en la cantidad (por ejemplo de conocimientos
adquiridos por un estudiante) puede constituir un cambio cualitativo. En las
mediciones de productividad, es evidente que un producto de mayor calidad sería un
resultado más valioso, pero ello plantea otro dilema de interpretación: el cálculo puede
conducir a una falacia si el cambio es tal que puede considerarse que se trata de otro
producto (Thiry-Cherques, 1996).
Al reconocer al ciudadano-cliente un papel central, se asigna gran importancia
a la satisfacción del mismo como criterio para evaluar el resultado de políticas,
programas y servicios públicos, y de hecho las encuestas de satisfacción se han
difundido como método usual de control. Sin embargo, el Estado tiene la obligación
de equilibrar intereses divergentes entre distintos grupos de “clientes” y entre los
beneficiarios directos de los servicios y la generalidad de los contribuyentes. A
diferencia de la empresa privada, la administración pública debe considerar como
cliente al conjunto de los ciudadanos, y la cantidad y la calidad de los bienes públicos
suministrados debe ser determinada en última instancia por ellos.
Además, definir la calidad en términos puramente subjetivos según la
apreciación del cliente puede ser válido para la empresa privada pero no en el sector
público, donde la presumible progresión de las expectativas conduciría a un aumento
de las exigencias de los usuarios imposible de satisfacer. De ello se deduce ante todo
que el resultado calidad no debe concebirse sólo en términos subjetivos para el sector
público, e incluso que los organismos públicos con recursos limitados deberían
Página 25de 50
“administrar las expectativas”, aclarando a los ciudadanos qué es factible y qué no lo
es (Löfler, 1996).
3. 4. Tendencias y aportes críticos
El influjo de las nuevas concepciones sobre la administración se advierte en
algunas innovaciones para hacer participar como actores de los procesos y sistemas de
evaluación a los usuarios o ciudadanos interesados o afectados directamente por las
políticas y programas. En esta dirección, la instrumentación de los controles
constitucionales del régimen democrático tiende a articularse con las propuestas de
gestión participativa.
Asimismo, la tendencia a la descentralización que señalan algunas recientes
reformas administrativas, siguiendo la lógica de reducir el gigantismo burocrático y
acercar la gestión a los usuarios locales de los servicios, requieren de los órganos
superiores de gobierno un mayor esfuerzo para evaluar resultados, abarcando a
menudo un universo muy amplio de organismos responsables.
La observación verificada por los estudios de Desarrollo Organizacional acerca
de la problemática de los controles y la necesidad de que los empleados se involucren
en la mejora del rendimiento ha conducido a impulsar la internalización de las
técnicas de evaluación, lo cual constituye una línea de innovación en la administración
norteamericana (Empowerment Evaluation).
Una proposición que aparece de diversas maneras en la literatura especializada
sobre el tema es la importancia de cuestionar el sentido o la oportunidad de cualquier
programa o acción gubernamental. Esto se relaciona con el tema del “costo de
oportunidad” manejado habitualmente por los economistas. Desde el punto de vista
del “propietario”, es un criterio básico de evaluación “cuestionar la propia existencia
del programa” (Masoni, 1993). Osborne y Gaebler (1994) hacen un señalamiento
coincidente al referirse a la necesidad de medir los resultados políticos, lo cual
implica considerar cuestiones más amplias que el resultado inmediato de la acción de
un organismo. Por ejemplo, la efectividad de un programa de barrido de calles urbanas
se mide consultando la satisfacción de los ciudadanos con el grado de limpieza de la
calle, pero medir la efectividad política requiere consultarles si están de acuerdo en
que los fondos públicos se gasten en tal programa o en otras alternativas para lograr el
mismo resultado.
Osborne y Gaebler recomiendan la evaluación de resultados, sin negar la
importancia de medir los procesos internos, pero evitando que ello conduzca a
acumular datos insustanciales. Por ejemplo, medir la cantidad de egresados de un
instituto sería insuficiente sino se mide también cuántos de ellos obtienen trabajo en el
campo en que han sido formados, su grado de satisfacción y la de quienes los
Página 26de 50
emplean, etc. Observan también que la preocupación excluyente por la eficiencia, por
reducir lo que cuesta cada unidad de resultado, puede ser alienante para los
funcionarios, olvidando la necesidad y la finalidad de un servicio.
Entre sus recomendaciones sobre el tema podemos destacar las de interés más
general: a) combinar las medidas cuantitativas con valoración cualitativa; b) hacer
participar a proveedores y empleados para desarrollar las medidas adecuadas,
previniendo así posibles resistencias y dando oportunidad de discutirlas a quienes se
opongan ; c) someter las mediciones a revisión y modificación anual, ya que siempre
se trata de aproximaciones imperfectas que requieren ajustes; d) no utilizar
demasiadas formas de medición, dado que los gestores podrían llegar a abrumarse de
datos y papeleo, ni demasiado pocas, de modo que no se reflejarían todas las metas del
organismo.
Michel Crozier (1997) afirma que la evaluación es una de las mejores
herramientas para influir en los miembros de la burocracia administrativa en el sentido
de una nueva cultura del gerenciamiento público, haciéndolos conscientes de para qué
son útiles. Organizando y publicando cuidadosamente las evaluaciones, puede
lograrse un mecanismo de comparación (Benchmarking). En cualquier caso, la
evaluación será decisiva para progresar hacia un cuerpo de servidores públicos con
mayor conocimiento y comprensión, capaces de escuchar y diagnosticar los problemas
a tiempo, y contribuirá a que los programas y aún las leyes se elaboren tomando en
cuenta los resultados anteriores.
Lo más importante no sería el impacto inmediato de los cambios de
procedimiento, sino el impacto cultural sobre los sistemas de toma de decisiones. Los
evaluadores deberían ser entrenados más en la nueva filosofía de los servicios que en
las técnicas sofisticadas, que pueden llevarlos a construir sólo un nuevo sistema
sofocante de control. La introducción de la evaluación debe apuntar a cambiar la
cultura administrativa, y será técnicamente exitosa sólo si es culturalmente exitosa, lo
cual insumirá tiempo y constancia.
Crozier subraya que la evaluación requiere profesionales capacitados,
diferentes del clásico burócrata y aún de los auditores convencionales, que deberían
dedicar sólo una parte de su carrera a ser evaluadores a fin de evitar que se constituya
una burocracia de expertos. Para el entrenamiento de jóvenes profesionales -que
podría incluir su formación parcial en otros países, apuntando a ampliar el horizonte
de sus métodos y filosofía- propone crear institutos dedicados a la capacitación y a la
vez a la investigación y a la acción, donde los practicantes pudieran acudir
regularmente para recibir apoyo intelectual.
Página 27de 50
4. ALGUNAS CONCLUSIONES SOBRE TECNOLOGIAS DE EVALUACION
La adecuada utilización de la evaluación aparece como un instrumento
primordial para mejorar la conducción y orientación de la Administración por los
responsables políticos, para aumentar la transparencia de la actividad estatal ante la
ciudadanía, para complementar el cumplimiento de las funciones legales de control
por los órganos competentes y para los propios fines específicos de las reparticiones
y del desempeño del personal administrativo.
Los conceptos tradicionales para la medición económica de resultados
(eficiencia, efectividad, eficacia, productividad) aportan herramientas básicas para
evaluar la actividad administrativa, que se integran en el conjunto de la tecnología de
evaluación.
No obstante, la realidad se presenta por lo general de manera más confusa y
compleja que en los análisis académicos, por lo cual hay distancias entre las
definiciones teóricas y la posibilidad de aplicarlas a las situaciones concretas, que
deberían ser salvadas por la inteligencia y la percepción experimentada de los gestores
y evaluadores.
Un aspecto crucial es el uso de sus resultados de la evaluación, que pueden
perderse por falta de oportunidad, de precisión, etc. o tropezar con intereses
refractarios a la información evaluativa. Dentro de las diversas propuestas para
prevenir estas frustraciones sobresale la idea de que los evaluadores partan de un
firme compromiso con los usuarios para asegurar el impacto de la evaluación,
trabajando con ellos para facilitar la aplicación de los productos de la misma a
ulteriores cambios y mejoras en la gestión.
Los nuevos sistemas de administración presupuestaria y las funciones de
control y auditoría en su concepción más actualizada, inducen la aplicación y
extensión de las técnicas de evaluación, aunque se trata sin duda de enfoques y
actividades diferentes a la del análisis evaluativo.
Una de las iniciativas más promisorias en esta materia parece ser la promoción
de la autoevaluación de los organismos públicos, que no implicaría grandes costos ni
encontraría las resistencias con que tropieza habitualmente cualquier tipo de control
externo. En el caso de recurrir a consultores externos para la evaluación, la modalidad
más aconsejable sería el trabajo integrado con los gestores del organismo para contar
con plena y certera información y producir conclusiones realmente útiles.
Los cambios en el paradigma de la gestión han influido en los sistemas de
evaluación introduciendo nuevos criterios para evaluar. Se ha ido produciendo un
desplazamiento del foco desde los criterios de cumplimiento de normas hacia la
valoración de la creatividad y la respuesta a las demandas de los ciudadanos. Dentro
de lo que se caracteriza como “orientación hacia el cliente”, se asigna creciente
Página 28de 50
importancia a la medición de la satisfacción del usuario o destinatario directo del
servicio, pues la definición subjetiva de la calidad de los servicios se refiere a la
conformidad del usuario. No obstante, dado que el Estado debe equilibrar intereses
divergentes entre distintos sectores, y entre los beneficiarios directos de los servicios y
la generalidad de los contribuyentes, la administración pública tiene que considerar
como “cliente” al conjunto de los ciudadanos.
Según surge de la experiencia universal contemporánea, la implantación de la
evaluación choca con la cultura burocrática tradicional centrada en el cumplimiento de
las reglas y procedimientos antes que en los objetivos y resultados de la gestión. En la
generalidad de los países latinoamericanos existen probablemente mayores
restricciones derivadas del contexto histórico cultural de la sociedad, donde en general
los éxitos personales y organizacionales se perciben sólo secundariamente asociados
con los logros de eficiencia, y en particular en la administración existen fuertes
resistencias a difundir o proporcionar información objetiva sobre los procesos y
resultados. Tales serían algunos de los obstáculos con que puede tropezar la absorción
de la tecnología de evaluación en la gestión pública.
Las innovaciones en esta materia postulan y requieren un cambio cultural. Los
organismos administrativos afrontan el desafío de incorporar una “cultura de
evaluación”, que puede considerarse como una parte primordial de la nueva “cultura
del gerenciamiento público”. Es evidente que las disposiciones legislativas y la
elaboración de metodologías son insuficientes si no se modifica la conciencia
profesional de los gestores, funcionarios y empleados, lo cual reclama un esfuerzo
persistente en el tiempo y una acción sistemática en tal sentido.
Página 29de 50
II PARTE: CASO DEL SISTEMA NACIONAL DE EVALUACION
EDUCATIVA
1. ANTECEDENTES
La evaluación de los niveles básico y medio de enseñanza en la Argentina es
un caso de evaluación global de políticas públicas en un campo muy significativo de
las responsabilidades del Estado. Lo encaramos como parte de una investigación
cuyo primer avance caracterizó las aplicaciones y modalidades de la evaluación en
la gestión pública, considerando asimismo las perspectivas que abren recientes
aportes críticos en torno al nuevo paradigma de gerenciamiento público. El informe,
editado como material de apoyo a la capacitación del INAP (Chumbita, 1997),
resume el marco teórico y conceptual del presente estudio de caso en cuanto a la
tecnología del análisis evaluativo.
De acuerdo con la misión propia del INAP, el sentido de nuestra indagación
es aportar al conocimiento y la mejora de las tareas de la administración pública,
presentando de manera objetiva una realización precursora que ilustra sobre las
posibilidades de desarrollo de la evaluación en las prácticas de gestión estatal. A tal
efecto, sobre la base de la consulta de los materiales y registros disponibles, con la
colaboración de los funcionarios responsables de la gestión -principalmente la
Directora Nacional de Evaluación Educativa, Lic. María Lucrecia Tulic, que nos
brindó su testimonio y nos orientó en la búsqueda de otras fuentes-, describimos los
principales fundamentos y criterios, las modalidades operativas, así como los límites
y logros de esta importante experiencia.
1. 1. Experiencias internacionales
En los años 60, en Estados Unidos, una enmienda a la legislación de
educación primaria y secundaria (Primary and Secondary Act, 1965) contempló la
evaluación de los programas de aplicación de la ley, a partir de lo cual se produjo
una información sustancial que generó debates y favoreció la asignación de recursos
considerables a la evaluación del sistema educativo.
El Informe Coleman, “Equality of Educational Opportunity” (1966),
realizado por encargo del Congreso y patrocinado por la Oficina de Educación del
gobierno federal, alcanzó gran credibilidad y fue pionero de los nuevos enfoques de
evaluación. A diferencia de estudios anteriores centrados en los procesos escolares y
en datos cuantitativos, el equipo de Coleman se aplicó a determinar los efectos de
sistema en cuanto al aprendizaje de los alumnos, llegando a establecer que los
resultados dependían más de los antecedentes individuales de los estudiantes y de
los del conjunto de sus compañeros. Según las conclusiones de la investigación, “los
efectos parecen derivar no tanto de factores que el sistema educativo controla, sino
Página 30de 50
de factores externos al medio escolar”.
En el Reino Unido, Francia y otros países desarrollados se hicieron
experiencias en el mismo sentido y los gobiernos promovieron la evaluación
continua de los sistemas educativos con diversos alcances y variantes. Los
organismos internacionales contribuyeron a apoyar esos trabajos. La OCDE
(Organización para la Cooperación y el Desarrollo Económico) avanzó en la
elaboración de un conjunto de Indicadores Internacionales de la Educación
(Proyecto INES). La UNESCO y otras entidades como la Asociación Internacional
para la Evaluación de Resultados Educativos han auspiciado estas iniciativas.
En Francia, donde se efectuaban regularmente evaluaciones masivas al final
de los ciclos de enseñanza elemental y media, se experimentaron diversos “cortes”
en los mismos, y desde 1989 se realizan en forma sistemática cada dos años. En
1992 se produjo un amplio informe sobre el “Estado de la Escuela”, describiendo en
términos de indicadores globales el conjunto de costos, procesos y resultados del
sistema educativo.
En algunos estados asiáticos como Malasia, Singapur y Corea, la
implantación de los procedimientos evaluativos, como parte de políticas orientadas
decididamente a aumentar la eficiencia de la gestión y mejorar la calidad de la
educación, permitieron verificar notables progresos en sus respectivos sistemas.
Estos países se sitúan en altos estándares en las comparaciones internacionales
(alrededor de 650 puntos sobre un máximo de 800).
En América Latina, Chile y Costa Rica emprendieron iniciativas precursoras
en la materia, y los gobiernos de casi todos los países comenzaron a organizar sus
propios sistemas nacionales de evaluación. La OEI (Organización de Estados
Iberoamericanos para la Educación, la Ciencia y la Cultura) impulsó en 1995 el
Programa de Cooperación y Asistencia Técnica para el Desarrollo de Sistemas
Nacionales de Evaluación de la Calidad Educativa. La OREALC, entidad regional
de la UNESCO, promovió el Laboratorio Latinoamericano para la Evaluación de la
Calidad de la Educación, con el propósito de proveer apoyo técnico a tales
esfuerzos.
En el marco de una tendencia actual a la fragmentación del poder en los
regímenes democráticos y la creciente complejidad de las decisiones públicas que
involucran a diversos actores sociales, la información generada por los sistemas
evaluativos ha contribuido a proporcionar fundamento objetivo a los debates sobre
las políticas educativas.
1. 2. Tipos de evaluación educativa
Una particularidad del tema en el área de la educación es que la evaluación,
referida a los educandos, es parte constitutiva del proceso de aprendizaje y de la
Página 31de 50
pedagogía. Sin embargo, la noción a la que nos referimos aquí es mucho más
amplia, comprendiendo un conjunto de aspectos y problemas que se relacionan con
la finalidad de conducir el sistema educativo.
La evaluación concebida con ese propósito principal de conducción puede
enfocarse de diversas maneras. Usualmente se distingue la evaluación de alumnos,
la evaluación de la administración educativa y la de los centros escolares (Casanova,
1992). Siguiendo una exposición de Albert Michel (1996) y las recomendaciones
que formula, podemos caracterizar los siguientes tipos de evaluación, que implican
objetivos y métodos diferentes:
a) Evaluación de conocimientos y aptitudes adquiridos por los alumnos, que puede
efectuarse mediante evaluaciones “de masa” o sobre muestras representativas.
La primera modalidad se orienta esencialmente a ayudar a los docentes para
adaptar sus técnicas pedagógicas a la heterogeneidad de los alumnos y
acompañar las innovaciones; mientras que la segunda, menos costosa, es
suficiente para evaluar el rendimiento académico a escala nacional o a efectos de
comparación internacional, permitiendo además hacer comparaciones en el
transcurso del tiempo. Para que sean más eficaces como instrumentos de
conducción del sistema, estas evaluaciones deberían centrase progresivamente en
los elementos “no cognitivos” o “curriculum oculto”, es decir las competencias,
aptitudes y valores que conforman las demandas de los mercados de trabajo.
b) Evaluación de los centros escolares, que según los criterios escogidos enfatizará
en los procesos y actores, en la eficiencia o en la eficacia. Resulta de gran
importancia para la conducción de los propios centros, y también para una
política global que tienda a corregir las disparidades excesivas entre instituciones
comparables. En esta modalidad resulta conveniente complementar el
autodiagnóstico y la evaluación externa. Cada institución debería tener cierta
autonomía para elegir los instrumentos, en particular para evaluar elementos de
su proyecto específico, pero debe haber un tronco común de indicadores que
permitan las comparaciones.
c) Evaluación global del sistema, que permite a la conducción nacional rendir
cuentas de la utilización del presupuesto público, medir los avances en una
orientación dada y efectuar comparaciones internacionales. Ello requiere
construir un conjunto de indicadores (para lo cual existen propuestas de los
organismos internacionales) que den una medida sintética de los costos, la
actividad y los resultados del sistema educativo, proporcionando información
decisiva para el debate y la obtención de consenso social en las políticas
nacionales sobre la materia. Es importante que los indicadores permitan
conceptualizar los problemas de la equidad y la igualdad de oportunidades
educativas y la cuestión de las disparidades geográficas.
d) Evaluación de las innovaciones y de políticas específicas, que apuntan a
Página 32de 50
retroalimentar la dirección de determinados procesos de cambio. Toda
innovación debería incluir, desde su origen, dispositivos de evaluación para
seguir su aplicación, constatar sus resultados, analizar dificultades y efectos no
previstos y a partir de ello reexaminar los objetivos y la economía del proyecto.
También es posible y deseable incorporar la evaluación de experimentos a
escalas significativas, antes de decidir su generalización.
1. 3. El concepto de calidad en la educación
El concepto de calidad en la educación tiene ante todo el sentido de superar
anteriores enfoques de medición cuantitativa, basados por ejemplo en datos sobre
las cantidades o proporciones de alumnos, egresados o docentes, cantidad de tiempo
o de recursos invertidos, etc. El foco en la calidad apunta, además de lo anterior, a
saber qué aprenden realmente los estudiantes y cómo, e incluso si los conocimientos
y capacidades adquiridos son los que ellos y la sociedad necesitan.
Las nuevas preocupaciones cuestionan ciertos presupuestos tradicionales,
como que los alumnos aprenden yendo a la escuela, que ésta les proporciona la
calificación que necesitan y que más años de escolaridad equivalen a una mejor
preparación. Desde la visión tradicional, partiendo de la responsabilidad del Estado
en esta materia, lo importante era que la población accediera y permaneciera en el
sistema. Desde el punto de vista de la calidad, ello es necesario pero no suficiente,
pues además el Estado debe asegurar los resultados del proceso educativo,
dotándolo con los medios y agentes idóneos para lograr que satisfaga las demandas
sociales.
En las formulaciones de especialistas comprometidos con el tema
encontramos tres aproximaciones complementarias como “dimensiones del
concepto de la calidad” (Tulic, 1996; Toranzos, 1996). Resumiendo, una sería la
eficacia o efectividad del sistema, en el sentido que los alumnos realmente aprendan
lo que está establecido en los planes y programas curriculares. Una segunda
dimensión sería la relevancia de lo aprendido para que el educando se desarrolle
como persona y se desempeñe en los diversos ámbitos de la sociedad. La tercera se
refiere a la aptitud de los procesos y medios que se ofrecen, es decir un cuerpo
docente calificado, contexto físico, métodos y materiales adecuados, etc.
Se trata entonces de una manera de considerar los procesos educativos con la
cual se desplaza el énfasis y se incorporan nuevos problemas. Para evaluar el
sistema no basta con los indicadores tradicionales, como los de cobertura y
deserción, sino que deben diseñarse otros para indagar el rendimiento escolar, la
incidencia en el mismo de diversos factores y su relación con el medio social.
Para ello se requiere un “modelo evaluativo” que, considerando al sistema en
el marco social y clarificando sus objetivos, capte los indicadores más significativos
Página 33de 50
y tenga en cuenta todos los subsistemas implicados en el proceso. Aparecen así,
como aspectos clave de la calidad, el desempeño, la capacitación, la estabilidad y las
perspectivas de desarrollo de los equipos docentes y de los directivos
institucionales, la optimización de la organización curricular, la distribución y el
aprovechamiento del tiempo de aprendizaje, las relaciones entre las familias y la
escuela, el clima de convivencia, la armonía de la “comunidad educativa”, etc.
(Teijido de Suñer, 1995).
Parece claro que las postulaciones sobre la calidad de la educación surgieron
contemporáneamente con diversas manifestaciones de preocupación respecto al
deterioro absoluto o relativo de los niveles de la enseñanza, que se relacionan con
problemas de masificación, sobredemanda e ineficiencia de las instituciones
escolares. Ello llevó al primer plano de la opinión pública la idea de una “crisis
educativa” prácticamente universal, pero hay diversas maneras de verla y afrontarla.
La cuestión de la calidad puede ser interpretada desde varios ángulos ideológicos
con diferentes propósitos.
En Argentina, según observa un especialista (Filmus, 1995), la crisis del
sistema educacional se precipitó por un conjunto de factores, particularmente las
políticas autoritarias, la desinversión en el sector y las profundas y crecientes
desigualdades sociales. Frente a la situación actual de general disconformidad agrega- se manifiestan diversos diagnósticos y opiniones contrapuestas que pueden
desvirtuar el concepto de calidad.
Siguiendo su caracterización, habría una óptica “tecnocrática” que vincula la
baja calidad del servicio educativo con la escasa eficiencia del sistema, planteando
que es necesario mejorar la productividad de actores e instituciones a través de
determinadas acciones técnico-pedagógicas. Otra concepción enfoca la calidad
como un problema de mercado, proponiendo generar escenarios de competencia y
facilitar al demandante o cliente elegir escuelas y por lo tanto niveles de calidad a
los que aspira. Dejando de lado los otros factores del contexto, ambos enfoques
tienden a culpabilizar el comportamiento de los actores y en la práctica estarían
propiciando la calidad para pocos.
Frente al sesgo elitista de tales discursos, en algunos sectores docentes que
defienden una posición democratizadora han surgido actitudes que niegan o
relativizan la problemática de la calidad, y caen a veces en el reduccionismo de
cifrar toda la crisis educativa en la cuestión del financiamiento. Sin embargo, los
reclamos para aumentar el presupuesto corren el riesgo de aislarse como consignas
“corporativas” si no se sustentan en esfuerzos dirigidos a mejorar el aprendizaje de
los alumnos. La comunidad educativa debería tomar conciencia de que una mayor y
mejor inversión es una condición necesaria pero no suficiente para salir de la crisis.
Lo que sugiere el autor citado es afrontar la necesidad de una estrategia integral,
apuntando a elevar la calidad de educación para todos, que sería la reformulación
actual de la tradicional exigencia de igualdad de oportunidades.
Página 34de 50
Página 35de 50
2. EL CASO DEL SINEC
En la Argentina se han comenzado a poner en práctica formas sistemáticas de
evaluación global en todos los niveles de la educación, pública y privada. La Ley
Federal de Educación de 1993 estableció una norma general al respecto, que tuvo
aplicación inmediata en la enseñanza básica y media. Posteriormente, la Ley de
Educación Superior de 1996 contempló en particular la evaluación de la enseñanza
universitaria y de posgrado, asignando funciones para dictaminar en relación a
diversos requerimientos a una entidad ad-hoc, la Comisión Nacional de
Acreditación y Evaluación Universitaria, que inició un vasto plan de tareas
abarcando en forma progresiva distintos sectores institucionales.
En este trabajo focalizamos el Sistema Nacional de Evaluación de la Calidad
(SINEC), implantado desde 1993 para el nivel básico y medio por el Ministerio de
Cultura y Educación de la Nación, en cuyo ámbito se creó a tal efecto una
Subsecretaría y una Dirección Nacional con atribuciones específicas.
2. 1. Definiciones de la Ley Federal de Educación
La puesta en marcha del SINEC en 1993 se basó en las previsiones sobre
evaluación de la Ley 24.295 promulgada el mismo año. Cabe señalar que el ministro
que adoptó la resolución de aplicarla había impulsado antes la sanción de aquella
normativa como presidente de la Comisión de Educación de la Cámara de
Diputados.
Hay que tener en cuenta que, descentralizados los anteriores servicios
educativos nacionales de nivel básico, medio y terciario, la gestión de los
establecimientos quedó en manos de las jurisdicciones provinciales y municipales y
del sector privado. Al Ministerio nacional corresponde la conducción estratégica, y
la coordinación de políticas educativas se realiza en el seno del Consejo Federal de
Cultura y Educación integrado por todos los estados provinciales y la Ciudad de
Buenos Aires.
La Ley Federal de Educación sanciona en el artículo 15 la obligación del
Estado de “garantizar igualdad en la calidad y logro de aprendizajes”, poniendo de
esa manera de relieve la cuestión de la calidad de la enseñanza.
El título IX de la Ley está dedicado al tema de la calidad y su evaluación,
prescribiendo que el Ministerio nacional, los estados provinciales y el de la ciudad
de Buenos Aires realicen la evaluación permanente o periódica del sistema
educativo. El artículo 48 define la evaluación como medio para “garantizar la
calidad de la formación impartida en los distintos ciclos, niveles y regímenes
especiales” controlando su adecuación a la ley, a las necesidades de la comunidad y
a las políticas educativas federales y de cada jurisdicción. Con esta finalidad se
Página 36de 50
prevé convocar “a especialistas de reconocida idoneidad e independencia de criterio
para desarrollar las investigaciones pertinentes por medio de técnicas objetivas
aceptadas y actualizadas”. Los resultados de evaluación deben integrar el informe
anual del Ministerio a las comisiones competentes del Congreso sobre la aplicación
de la ley.
El artículo 49 dispone que la evaluación de la calidad “verificará la
adecuación de los contenidos curriculares (...) a las necesidades sociales y a los
requerimientos educativos de la comunidad, así como el nivel de aprendizaje de los
alumnos y la calidad de la formación docente”.
El artículo 50 aclara los alcances de la norma general puntualizando que las
autoridades educativas de las jurisdicciones subnacionales evaluarán la calidad y el
funcionamiento del sistema en su ámbito de competencia.
La cláusula del artículo 48 de la ley plantea exigencias de idoneidad,
independencia de criterio y rigor metodológico para asegurar la objetividad de los
procesos de evaluación. Si bien la formulación legal admite o sugiere la posibilidad
de externalizar estas operaciones, el sistema que se organizó adjudica la
responsabilidad central a una dirección nacional del Ministerio, estableciendo la
participación de las autoridades locales para acordar y definir sus alcances y
modalidades.
2. 2. La organización del SINEC
En materia de información educativa se partía de un notorio déficit. Los
funcionarios consultados manifiestan que desde 1968 había comenzado a producirse
un deterioro que se fue agravando posteriormente, hasta el punto que en la década
de 1980 el Ministerio nacional dejó de informar a los organismos internacionales.
Al crearse la Secretaría de Programación y Evaluación Educativa y la
Subsecretaría de Evaluación de la Calidad Educativa, la Red Federal de Información
Educativa quedó a cargo de una Dirección General, y se creó la Dirección Nacional
de Evaluación Educativa. La Red continuó atendiendo la obtención y
sistematización de datos sobre cobertura del sistema, efectividad interna (cuestiones
de deserción, ausentismo, etc.) y racionalidad de costos.
La Dirección Nacional de Evaluación Educativa -cuya titular poseía una
importante experiencia anterior en planificación y evaluación- se abocó a la
organización del SINEC. En su ámbito emplea actualmente a unas 40 personas en
total, un 70 % de las cuales son personal de planta permanente y el resto expertos
contratados.
En el diseño del sistema de evaluación se tuvieron en cuenta como
Página 37de 50
principales modelos los de Francia y Estados Unidos, resultando en definitiva una
adaptación, influida por la filosofía del sistema francés y por la tecnología del
norteamericano.
Se decidió dirigir las primeras experiencias a la evaluación de las
competencias adquiridas por los alumnos, mediante pruebas anuales,
complementadas con encuestas a los sectores de la comunidad educativa para
detectar las asociaciones de factores que contribuyen al aprendizaje. Se optó por la
técnica de muestreo, diseñando una muestra aleatoria probabilística, sin descartar la
posibilidad de abordar progresivamente evaluaciones de masa o censo completo.
Éstas se fueron efectuando con carácter experimental, a requerimiento de algunas
provincias donde existía interés de las autoridades y era más factible por las
dimensiones de la jurisdicción abarcar el total de establecimientos.
Las pruebas se concibieron para verificar en qué medida se lograba el
aprendizaje de conocimientos mínimos, no para medir niveles superiores de
excelencia. A tal efecto hubo que salvar la dificultad de que aún no estaban
aprobados los Contenidos Mínimos Curriculares, los cuales se sancionaron en 1994
a través del Consejo Federal de Cultura y Educación, en base a los estudios de otra
área del Ministerio nacional. A partir de entonces existe para todo el país un marco
bien definido de objetivos referentes a la adquisición de conocimientos y
habilidades.
Respecto del universo a investigar, se decidió tomar inicialmente los alumnos
de último grado de la enseñanza primaria común y del último año de enseñanza
media, que comprende bachillerato, comercial y técnica (industrial y agraria). Se
excluyó la enseñanza básica especial, educación para adultos y otras especialidades
del nivel medio.
La elaboración de las pruebas y de las encuestas se fue perfeccionando en
base a los modelos existentes, las consultas con especialistas y la reflexión sobre las
experiencias realizadas. Antes de cada uno de los operativos anuales, se efectuaron
previamente operativos piloto para validar los instrumentos.
Las tareas de la Dirección Nacional de Evaluación, en su organización actual,
articulan básicamente cuatro equipos de trabajo: uno encargado de la elaboración y
análisis de las pruebas; otro dedicado a la investigación sobre factores asociados al
rendimiento escolar; un tercer grupo responsable de las propuestas de programas de
mejora de la enseñanza, y otro dedicado a las acciones de capacitación.
2. 3. La instrumentación descentralizada
Una tarea inicial para asegurar los fines del SINEC fue la concertación con
los gobiernos locales a fin de asegurar la viabilidad política del sistema, así como su
Página 38de 50
viabilidad orgánico-institucional y técnica. El tema se trató en el Consejo Federal de
Educación y en contactos directos con las autoridades de cada jurisdicción, que
aceptaron colaborar en forma prácticamente unánime. En una sola provincia (Santa
Cruz) se presentaron problemas de carácter político que retrasaron su incorporación
al conjunto.
La Dirección Nacional de Evaluación se hizo cargo de coordinar el sistema
con las unidades ejecutoras que se organizaron en cada provincia y en la ciudad de
Buenos Aires. Estas unidades varían en cada jurisdicción, según las características
de la administración local y la importancia que se le ha conferido al sistema
evaluativo. En algunas provincias los ministros han encomendado la responsabilidad
a un equipo o a un funcionario determinado, y en varios casos se crearon direcciones
de evaluación específicamente encargadas de esta misión. El Ministerio nacional
colaboró a los efectos de dotar a las unidades ejecutoras de personal técnico
entrenado para las tareas a realizar. Todos los costos de los operativos son
financiados con fondos del presupuesto nacional.
El universo educativo de la Argentina, en los niveles medio y básico, público
y privado, comprende aproximadamente 9 millones de alumnos (el Censo Nacional
de 1994 registró 8.890.679), que se distribuyen en unos 43.000 establecimientos alrededor de 10.000 de ellos son escuelas rurales-, con alrededor de 700.000
docentes y 3.600 supervisores.
Tomando como unidad de análisis la sección o grado, desde la coordinación
nacional del sistema se proyecta el operativo en cada jurisdicción para cubrir la
muestra representativa correspondiente, sorteando las escuelas y secciones. Según
los resultados de cada año, en las muestras se ha aumentado el número de unidades
cuando se observaban mayores variaciones en los resultados. Las pruebas se toman
simultáneamente en todo el país y todos los establecimientos, fijando un día para la
prueba de cada materia.
Conforme a las pautas generales establecidas a escala nacional, en cada
jurisdicción se contrataron los equipos de coordinadores y “agentes de evaluación”
remunerados, responsables del cumplimiento regular de las pruebas en cada zona,
escuela o localidad. Estos agentes son en gran número docentes jubilados o que no
se hallan en servicio, a quienes previamente a cada operativo anual se imparten
cursos de instrucción. Ellos se encargan de llevar oportunamente los formularios de
las pruebas y encuestas, que se remiten en cajas selladas en vísperas del operativo y
deben quedar reservados hasta el momento de su distribución, verifican que se
cumplimenten por los grupos correspondientes y se ocupan de recogerlas para su
devolución a la oficina central que efectúa el procesamiento. La coordinación
nacional envía veedores para verificar la regularidad de estos pasos.
En base a una consulta con las jurisdicciones locales, se estableció como
fecha más adecuada para los operativos los meses de octubre y noviembre. Desde el
Página 39de 50
primer operativo, realizado en 1993, se han continuado efectuando en el mes de
noviembre.
En San Juan, en 1994, y en Tierra del Fuego en 1994 y 1995, se realizaron
con carácter experimental evaluaciones de tipo censal, abarcando la totalidad de las
unidades educativas. Posteriormente las provincias de Mendoza y Santa Cruz
solicitaron para 1996 la realización de un censo completo en sus respectivas
jurisdicciones.
2. 4. Operativos de evaluación
Inicialmente se resolvió tomar pruebas sobre Matemática y Lengua,
considerando que se trata de disciplinas fundamentales para acceder a las bases del
conocimiento y la comunicación social. Evaluar en estas dos materias permite en
cierto sentido equilibrar el resultado, teniendo en cuenta que los rendimientos en la
primera dependerían en un 40 % de factores extraescolares, familiares, etc., y en un
60 % de la escuela; mientras que por lo general en Lengua tales proporciones se
invierten, dependiendo en un 60 % de factores externos y un 40 % de la escuela (ver
apreciaciones coincidentes en estudios sobre varios países latinoamericanos de que
dan cuenta Horn, Wolff y Vélez, 1992).
En los operativos de 1994 y 1995 se incluyeron además Ciencias Naturales y
Ciencias Sociales, y se ha previsto ampliar las pruebas en lo sucesivo a otras áreas
disciplinarias.
La encuesta adicional a alumnos, docentes y directivos -que en 1993 abarcó
también a las familias- se dirigió a captar información sobre los factores escolares y
extraescolares que inciden en el aprendizaje: características de la comunidad, del
hogar de los alumnos, del director, de las escuelas, del maestro, actitudes de los
alumnos y de los maestros, sala de clases, oportunidades de aprendizaje, etc.
La encuesta de 1993 dirigida a las familias, mediante formularios que fueron
contestados por sus padres o tutores, se cumplió con una pérdida de sólo el 10 % de
encuestas no recibidas. Se consideró necesario reformularla y se prevé incluirla en
futuros operativos perfeccionando la instrumentación.
Aunque la evaluación de desempeño docente se pospuso, hallándose aún en
estudio, se efectuó una encuesta o prueba experimental de carácter voluntario. Los
gestores del sistema perciben cierta resistencia de los docentes, uno de cuyos
indicadores es el alto porcentaje de pruebas remitidas a los voluntarios que no
fueron respondidas.
En síntesis, las características de los operativos fueron las siguientes:
Página 40de 50
♦ 1993: Muestra de 20.000 alumnos, áreas Matemática y Lengua, en 7º grado
primario y 5º año secundario.
♦ 1994: 80.000 alumnos; Matemática, Lengua, Ciencias Sociales y Ciencias
Naturales en 7º grado y 5º año.
♦ 1995: 180.000 alumnos; Matemática y Lengua en 3º y 7º grado primario, 2º y 5º
año secundario; Ciencias Sociales y Ciencias Naturales en 7º grado.
♦ 1996: 229.700 alumnos; Matemática y Lengua en 3º, 6º y 7º grado, 2º y 5º año;
Ciencias Sociales y Ciencias Naturales en 6º y 7º grado.
En el operativo de 1997 la cantidad de alumnos ascenderá a 570.000, pues se
contempla una prueba censal en el último año de enseñanza media (Quinto ó Sexto,
según las modalidades), lo cual comprende a unos 340.000 estudiantes en todo el
país.
A comienzos de 1994 se obtuvieron y se publicaron los primeros resultados,
que provocaron una notable impresión en la opinión pública y avivaron el debate
sobre las políticas educativas. Desde entonces, la publicación de resultados se ha
realizado regularmente al finalizar el procesamiento de los sucesivos operativos
anuales
2. 5. Indicadores y análisis evaluativo
Los resultados de los sucesivos operativos anuales, hasta 1996, no arrojaron
grandes diferencias en el cuadro general, si bien permitieron ampliar el campo de
evaluación incluyendo las áreas de ciencias sociales y naturales. Los porcentajes de
rendimiento experimentaron variaciones que no alcanzan a tener significación
estadística.
En términos generales, el análisis de los resultados de las pruebas indica:
a) mejores resultados en las jurisdicciones de mayor desarrollo relativo, como
Capital Federal, provincias de Buenos Aires, Mendoza, Santa Fe, etc. y peores
resultados en las provincias “pobres” del norte del país;
b) los valores medios de rendimiento a nivel nacional en el último grado de
enseñanza básica oscilan entre un 52 y 63 %, y en el último año de enseñanza
media entre un 46 y 70 % del rendimiento mínimo correspondiente a los
programas de estudio de Lengua y Matemática;
Página 41de 50
c) en las cuatro áreas disciplinarias se observan diferencias de alrededor de un 10
% en los rendimientos de las pruebas según se trate de alumnos de escuelas
urbanas públicas o privadas, atribuibles principalmente a factores extraescolares
(el alumnado en general proviene de familias de mayor nivel socioeconómico).
d) en general se observan resultados levemente mejores en Lengua que en
Matemática, principalmente en la enseñanza media;
e) no se observan diferencias apreciables entre alumnos de bachilleratos y de
escuelas comerciales;
f) se evidencian diferencias notables entre los alumnados en los ámbitos urbano y
rural, con resultados inferiores de estos últimos.
En cuanto a los factores escolares que inciden en el rendimiento, las
encuestas realizadas permitieron identificar variables significativas que se asocian
con mejores resultados en las pruebas. Este aspecto del análisis evaluativo adquiere
especial interés porque confirma la existencia de un margen considerable para
mejorar la calidad del servicio a través de políticas específicamente educativas,
atendiendo a la administración escolar y los recursos humanos.
A ese fin son reveladores los datos sobre los recursos de la escuela y del aula,
sobre las características de directores y maestros, las prácticas de enseñanza,
aprendizaje y relaciones organizacionales, así como sobre las expectativas, creencias
y valores que conforman la cultura institucional. En muchos casos las conclusiones
son bastante obvias: por ejemplo, cuando hay más días de clase, cuando el edificio o
el ambiente físico escolar es bueno, o se dispone de más recursos didácticos, o
cuando el director y/o el maestro es titular del cargo que ocupa, aumenta la
probabilidad de que los alumnos rindan más. Pero el análisis permite observar,
además, en qué proporción unos u otros factores ayudarían a mejorar el aprendizaje,
cuáles son las variables más significativas y cuáles son las posibles combinaciones
más eficaces.
En otros puntos temáticos del análisis, las conclusiones que se pueden extraer
no son tan obvias, y han puesto de relieve aspectos de gran importancia que deben
seguir explorándose con los instrumentos de evaluación. Por ejemplo, los
rendimientos del alumnado aumentan cuando es mayor la edad del maestro y la del
director (también cuando es mayor la antigüedad docente, pero esta es otra variable).
Asimismo se observa una vinculación de los mejores puntajes con la
existencia de más participación del maestro en la toma de decisiones institucionales.
Es sugerente en tal sentido la verificación de un rango de casi 20 % de diferencia en
los resultados según exista muy alta o muy baja participación del docente en las
decisiones sobre temas del aula y de la escuela.
Página 42de 50
Entre las preguntas formuladas a directores y profesores, se apuntó, por
ejemplo, a conocer la incidencia de las condiciones de trabajo docente y el grado de
satisfacción profesional de los agentes de la educación. Se trata sin duda de factores
críticos, acerca de los cuales existen evidencias de malestar en varios sectores y
niveles del cuerpo docente, e incluso se da actualmente un contexto conflictivo por
reclamos gremiales que han tenido notable repercusión en la opinión pública. La
correlación entre los puntajes de las pruebas y las manifestaciones de satisfacción o
insatisfacción de los docentes con las condiciones laborales -de la profesión en
general y en su escuela en particular- refleja índices de alrededor del 10 % de
diferencia en el rendimiento de los alumnos.
El procesamiento e interpretación de esta clase de datos y su traducción en
informes para las autoridades educativas como insumo de las políticas públicas
constituye una de las tareas más trascendentes que cumple el SINEC.
2. 6. Utilización de los resultados
La información que se obtiene y sistematiza tiene como destino usos internos
y externos. Los primeros se relacionan con las políticas administrativas (gobierno y
conducción general, monitoreo y evaluación de programas nacionales) y la gestión
administrativa (diagnósticos, materiales dirigidos a diferentes actores internos). Los
usos externos, relacionados con una gran diversidad de interesados y entidades, se
facilitaron a través de textos de difusión dirigidos a la sociedad en conjunto a través
de los medios masivos de comunicación. En especial se han elaborado textos con
recomendaciones pedagógicas dirigidas a actores considerados estratégicos como
los profesores, directores y supervisores.
Cuando en 1994 se publicaron los primeros resultados, éstos pusieron de
manifiesto la situación de crisis del sistema educativo en los niveles básico y medio,
que como señalamos antes no cubre las expectativas de rendimiento mínimo. Las
opiniones que se manifestaron en los medios de prensa, apuntando principalmente al
debate de las políticas y el financiamiento de la educación, no han cuestionado la
necesidad ni la oportunidad de implementar el sistema, aunque han efectuado
observaciones críticas sobre el contexto en que se realiza la evaluación.
Algunos especialistas plantearon que la medición no capta en realidad los
resultados de calidad. Los funcionarios del Ministerio admiten que para la
evaluación de la calidad en sentido integral falta abordar la dimensión de la
relevancia de las capacidades adquiridas, lo cual constituye un desafío para futuros
desarrollos del sistema que se prevé realizar gradualmente.
Desde el enfoque de algunos gremialistas docentes se señala que, dada la
disconformidad generalizada de los educadores con sus actuales condiciones de
Página 43de 50
trabajo -no solamente en el aspecto salarial- y la persistencia de arraigados vicios
autoritarios en las administraciones locales del sistema escolar, se dan condiciones
adversas para esta tarea, con riesgos de distorsión o manipulación de los resultados.
La falta de disposición a cooperar de muchos profesores y maestros que perciben la
evaluación con desconfianza conspiraría contra las posibilidades de
aprovechamiento de la información y de las propuestas de mejora.
El análisis de resultados de los operativos de evaluación efectuado por los
equipos técnicos del SINEC indicó que, al margen de la incidencia de los factores
extraescolares, existía un campo para actuar en la mejora del aprendizaje con
medidas específicas de carácter pedagógico, por lo que se puso énfasis en la
devolución de la información sobre el desempeño de los alumnos a los
establecimientos, aportando orientaciones técnicas para que profesores, supervisores
y directivos pudieran mejorar su ejercicio profesional, alentándolos a ensayar
nuevas estrategias didácticas.
A ese efecto se diseñaron y elaboraron diversos materiales de
recomendaciones metodológicas para el mejoramiento de la enseñanza, teniendo en
cuenta las evaluaciones anuales, referidas a las áreas de matemáticas y lengua para
los niveles primario y medio en 1993/94 y 1994/95, agregando las áreas ciencias
sociales y ciencias naturales a partir de 1995/96.
En las Recomendaciones Metodológicas para la Enseñanza de las Ciencias
Sociales editadas en 1997, por ejemplo, se parte de una observación de las
dificultades que se presentaron en forma recurrente en los operativos de años
anteriores en la resoluciones de los temas de prueba, referidos a “Las sociedades a
través del tiempo” y a “Las actividades humanas y la organización social”. El texto
incluye: a) precisiones conceptuales acerca de los contenidos que presentaron
dificultades; b) el análisis de algunos ítems de las pruebas con una explicación de
los procesos que desarrollan los alumnos para resolverlos y los problemas que
pueden haber encontrado; c) propuestas de actividades pedagógicas para abordar los
contenidos con las dificultades identificadas. A ello se acompañan comentarios
sobre los objetivos de la enseñanza de las ciencias sociales, las características de
relativa abstracción y complejidad de los conceptos que se manejan, los obstáculos y
problemas de adquisición del conocimiento histórico y social por los alumnos,
sugerencias sobre las formas de intervención del docente e incluso algunas
especificaciones que sirven de base para la construcción de las pruebas.
Estos materiales fueron enviados desde Buenos Aires a la totalidad de las
escuelas del país. Conforme a las pautas fijadas por las autoridades locales, los
supervisores y los directores deben organizar su difusión y utilización por los
docentes. Sin embargo, existen dudas sobre el efectivo aprovechamiento de los
materiales, que en algunos casos no habrían llegado a destino o no serían difundidos
adecuadamente.
Página 44de 50
Los técnicos del SINEC elaboraron en 1995 módulos para la capacitación de
supervisores y directores en el uso y aplicación de la información evaluativa como
insumo para la mejora de la gestión escolar.
Cabe agregar que dirigentes de la organización sindical de los docentes
CTERA, no obstante sus críticas y reticencias al sistema, recientemente han
solicitado información sobre los operativos de evaluación y han utilizado
determinados datos con fines reivindicativos.
2. 7. Modalidad de gestión y costos
La gestión del SINEC se basa en equipos calificados de especialistas en
investigación social, pedagogía y estadística cuyo núcleo son profesionales de la
administración nacional, con la colaboración de consultores contratados
individualmente. Solamente se han externalizado o subcontratado tareas
secundarias, como la impresión de materiales.
La política de evaluación definida por el Ministerio contempló el objetivo de
fortalecer la capacidad evaluadora del Estado y asegurar la capacitación de los
recursos humanos propios. Por otra parte, los requisitos de imparcialidad se
consideran suficientemente cubiertos en tanto el núcleo crítico de la tarea de
evaluación es realizado por un órgano del gobierno nacional, y quienes prestan los
servicios educativos evaluados son las reparticiones provinciales y las entidades de
carácter privado.
Se ha recibido financiamiento parcial y apoyo técnico de organismos
internacionales como el Banco Mundial, y los técnicos del SINEC a su vez también
han colaborado o asistido en acciones de cooperación internacional para implantar o
fortalecer sistemas de evaluación en otros países latinoamericanos.
La Dirección Nacional de Evaluación Educativa colabora actualmente con
los planes de capacitación del INAP para transmitir sus experiencias y ha recibido
asimismo pedidos de cooperación desde otras dependencias del gobierno nacional,
por ejemplo del Ministerio de Economía y Obras y Servicios Públicos, para
contribuir al diseño de procedimientos evaluativos referentes a otro tipo de políticas
públicas.
El costo anual de los operativos del SINEC se calcula en 250 pesos por cada
sección, o 10 pesos por alumno evaluado. El presupuesto total de la Dirección
Nacional de Evaluación del Ministerio no ha sobrepasado en años anteriores los 3
millones de pesos, alcanzando en 1997 unos 3,5 millones (para costear un operativo
anual que comprende pruebas a 570.000 alumnos).
En Estados Unidos, el programa federal de evaluación educativa, previsto
para un plazo de doce años, está realizando evaluaciones a una muestra de
aproximadamente 200.000 alumnos mediante un sistema de contratación de
Página 45de 50
consultoras externas, e insume alrededor de 48 millones de dólares anuales.
En Brasil se ha optado por un sistema de contratación de los operativos y
análisis evaluativos con consultoras privadas -que adoptan la figura jurídica de
fundaciones- y puede estimarse que el costo se duplica en comparación con el
presupuesto destinado a ese fin en nuestro país.
3. CONCLUSIONES SOBRE LA EVALUACION EDUCATIVA
La evaluación del sistema educativo, que actualmente es una preocupación en
todo el mundo y ha generado un caudal importante de experiencia internacional, se
ha introducido en nuestro país como un principio fundamental de las políticas
públicas del sector y se ha afianzado como práctica permanente apoyada en el
ámbito de concertación del gobierno nacional con las jurisdicciones provinciales.
La implantación de la evaluación educativa contó con un respaldo legal
imperativo, que facilitó su aceptación. De ello se desprende la sugerencia de que
esta previsión de la ley tendría que extenderse a otras esferas de las políticas
públicas. En principio, cualquier materia de legislación, especialmente cuando se
trata de innovaciones sustanciales, podría y debería contemplar la evaluación de los
resultados de su aplicación.
La evaluación a escala nacional ha permitido confirmar la percepción de la
situación de crisis y relativa decadencia de la educación en nuestro país, aportando
parámetros objetivos categóricos. Esta es una amarga comprobación, pero es un
paso adelante poseer un diagnóstico cierto, como punto de partida para cualquier
iniciativa de superación.
Por otra parte, el análisis evaluativo proporciona un cúmulo de información
sustantiva que permite dimensionar lo que puede hacer la administración y los
agentes del sistema educativo con las herramientas específicas disponibles, más allá
de factores extraescolares desfavorables sobre los que no tienen control, como el
origen social y las condiciones socioeconómicas de los alumnos. Los estudios
realizados sobre esa base de datos muestran la existencia de posibilidades concretas
para tratar de compensar las disparidades mediante el mejoramiento de los servicios
educativos públicos en función de una política de equidad.
Aunque dado el carácter de nuestro estudio no ahondamos en la
consideración del instrumental metodológico ni en los resultados particulares de los
operativos evaluadores, las técnicas de medición utilizadas para indagar los factores
que se asocian con el rendimiento escolar aportan evidencia de que las condiciones
de trabajo y el grado de participación de los docentes en las decisiones relativas a su
ámbito laboral pueden ser palancas positivas para la mejora del servicio, lo cual
Página 46de 50
concuerda con otros estudios y propuestas sobre el gerenciamiento moderno
aplicables al sector público.
Dada la descentralización de los servicios educativos hacia las jurisdicciones
locales, la modalidad de gestión directa por el organismo administrativo nacional
que articula el sistema parece ser un modelo eficaz y mucho menos oneroso para el
presupuesto público que la contratación de consultoras privadas, facilitando además
la generación de una capacidad estatal de evaluación congruente con el nuevo rol
coordinador y planificador asignado al Ministerio de Educación en el nivel federal.
El conocimiento y la capacidad técnica que han desarrollado los equipos del
SINEC pueden servir directa o indirectamente al desarrollo de sistemas de
evaluación en otras esferas de la acción gubernamental donde ha comenzado a
percibirse su necesidad para lograr la conducción efectiva y eficiente de programas
y servicios.
Página 47de 50
Referencias bibliográficas
♦ AGUERRONDO Inés (1993) “La calidad de la educación: ejes para su definición y
evaluación”, en Revista Interamericana de Desarrollo Educativo La Educación, Año
XXXVII, Nº 116, III, OEA, Buenos Aires.
♦ AUDITORIA GENERAL DE LA NACION (1996), “Normas de Auditoría Externa”, en
Ley de Administración Financiera y Control de Gestión, Revista Argentina del Régimen
de la Administración Pública, Buenos Aires.
♦ BALLART, Xavier (1992), ¿Cómo evaluar programas y servicios públicos?
Aproximación sistemática y estudios de caso, Madrid, INAP.
♦ BARZELAY, Michael (1992), Breaking Through Bureaucracy. A New Vision for
Managing in Government, California Press.
♦ CASANOVA María Antonia (1992), La evaluación, garantía de calidad para el centro
educativo, Madrid, Edelvives.
♦ CHUMBITA, Hugo (1992), “Aplicación del modelo de gestión de calidad en el sector
público”, ponencia al IX Congreso Nacional de Administración Pública, INAP/Gobierno
de Mendoza/Universidad de Cuyo, noviembre.
♦ CHUMBITA, Hugo (1996), (coord.), “Nuevas tecnologías de gestión en la
Administración pública”, Buenos Aires, INAP, Dirección de Estudios e Investigaciones,
Serie I, Documento Nº 54.
♦ CRANE, John A. (1988), “Evaluation as scientific research”, en Evaluation Review, vol.
12, Nro. 5, October.
♦ CROZIER, Michel (1997), “La transición del paradigma burocrático a una cultura de
gestión pública”, en Revista del CLAD Reforma y Democracia, Nº 7, Caracas, enero.
♦ DOWNS, George W. y LARKEY, Patrick D. (1986), The Search for Government
Efficiency, New York, Random House.
♦ ENGBERG-PEDERSEN, Poul y BARTHEL HANSEN, Tom (1993), “Evaluación de los
aspectos institucionales de la cooperación internacional para el desarrollo”, documento
presentado al Seminario Regional sobre Seguimiento y Evaluación para un Desarrollo
Sostenido, Quito, noviembre.
♦ ETZIONI, Amitai (1965), Organizaciones modernas, México, UTEHA.
♦ FILMUS Daniel (1995), “Calidad de la educación: discurso elitista o demanda
democratizadora”, en FILMUS Daniel (comp.), Los condicionantes de la calidad
educativa, Buenos Aires, Novedades Educativas.
♦ GINESTAR, Angel (1985), “Una propuesta de identificación conceptual sobre
Página 48de 50
eficiencia”, CICAP/OEA-IDEA, Buenos Aires.
♦ GINESTAR, Angel (1990), “Una aproximación conceptual sobre productividad,
eficiencia, eficacia y efectividad”, en INAP / U.N. Cuyo / CICAP-OEA, Angel
GINESTAR y colaboradores, Costos educacionales para la gerencia universitaria,
Mendoza, EDIUNC.
♦ GINESTAR, Angel (1992), “Los cambios en la gestión pública”, documento del IX
Congreso Nacional de Administración Pública, INAP/Gobierno de Mendoza/Universidad
de Cuyo, noviembre.
♦ HAMMER, Michael y CHAMPY, James (1994), Reingeniería, Bogotá, Norma.
♦ HORN Robin, WOLFF Laurence y VELEZ Eduardo (1992), “Sistemas de evaluación
educacional en América Latina. Reseña temática y experiencias recientes”, en Boletín del
PPE, Nro. 27, UNESCO/OREALC, Santiago de Chile, abril.
♦ KENDRICK, John W. y VACCARA, Beatrice (1980), New Developments in
Productivity Measurement and Analysis, Chicago, University of Chicago Press.
♦ LERNER, Emilia Raquel (1996), “El rol de la Auditoría Nacional argentina en el control
de resultados de la Administración Pública Nacional”, documento al I Congreso
Latinoamericano del CLAD, Río de Janeiro, 7 al 9 de noviembre.
♦ LÖFFLER, Elke (1996), “La modernización del sector público desde una perspectiva
comparativa: conceptos y métodos para evaluar y premiar la calidad en el sector público
en los países de la OCDE”, Documentos INAP Nro. 8, Madrid, julio.
♦ MARTINEZ NOGUEIRA, Roberto (1981), “Modelos e instrumentos para la formulación
de diagnósticos de las administraciones públicas y para la programación, diseño y
evaluación de acciones de reforma administrativa”, estudio para el Consejo Federal de
Inversiones, Buenos Aires.
♦ MARTNER, Gonzalo (1972), Planificación y presupuesto por programas, México, Siglo
XXI.
♦ MARQUIS Carlos (comp.), Evaluación Universitaria en el Mercosur, Ministerio de
Cultura y Educación, 1994.
♦ MASONI, Vittorio (1993), “Algunas lecciones de experiencia sobre evaluación de
programas”, documento presentado al Seminario Regional sobre Seguimiento y
Evaluación para un Desarrollo Sostenido, Quito, noviembre.
♦ MENY, Yves y THOENIG, Jean-Claude (1991), Las políticas públicas, Barcelona, Ariel.
♦ MICHEL Alain (1996), “La conducción de un sistema complejo: la Educación
Nacional”, en Revista Iberoamericana de Educación, Nro. 10, Madrid, OEI, eneroabril.
Página 49de 50
♦ MINISTERIO DE CULTURA Y EDUCACION DE LA NACION, Secretaría de
Programación y Evaluación Educativa, informes sobre Operativos Nacionales de
Evaluación 1994, 1995 y 1996.
♦ MINISTERIO DE CULTURA Y EDUCACION DE LA NACION, Secretaría de
Programación y Evaluación Educativa (1996), “Censo Nacional de Docentes y
Establecimientos Educativos ‘94”.
♦ MINISTERIO DE CULTURA Y EDUCACIÓN, Dirección Nacional de Evaluación
(1994), “Sistema nacional de evaluación de la calidad: el caso argentino”, en Revisla
Latinoamericana de Innovaciones Educativas, OEA, Año IV, Nro. 17, setiembre.
♦ MINISTERIO DE CULTURA Y EDUCACIÓN, Dirección Nacional de Evaluación
(1996), “El Sistema Nacional de Evaluación de la Calidad en Argentina”, Buenos
Aires.
♦ MINISTERIO DE CULTURA Y EDUCACION DE LA NACION, Secretaría de
Programación y Evaluación Educativa (1997), “Recomendaciones metodológicas para
la Enseñanza” (serie).
♦ NARDELLI, Jorge R. (1973), Ensayo sobre auditoría operativa, Buenos Aires,
Ediciones de Contabilidad Moderna.
♦ OSBORNE, David y GAEBLER, Ted (1994), La reinvención del gobierno, Barcelona,
Paidós.
♦ OSZLAK, Oscar (1978), Formación histórica del Estado en América Latina: elementos
teórico-metodológicos para su estudio, Estudios CEDES, vol. 1, Nro. 3, Buenos Aires.
♦ PATTON, Michael Q. (1986), Utilization-Focused Evaluation, Beverly Hills, California,
Sage.
♦ PEREL, Vicente (1976), El control de gestión, Buenos Aires, Macchi.
♦ PIETRAGALLA, Cándido O. (1976), Introducción al estudio de las organizaciones y su
administración, Buenos Aires, Macchi.
♦ PROKOPENKO, Joseph (1989), La gestión de la productividad. Manual práctico,
Ginebra, OIT.
♦ OEI, ORGANIZACION DE ESTADOS IBEROAMERICANOS PARA LA
EDUCACION, LA CIENCIA Y LA CULTURA (1994), Evaluación de la calidad en la
educación, documento base, Buenos Aires.
♦ QUESNEL, Jean S.(1993), “Asistencia responsable. Las cambiantes relaciones entre
auditoría y evaluación: la experiencia canadiense”, documento al Seminario Regional
sobre Seguimiento y Evaluación para un Desarrollo Sostenido, Quito, noviembre.
Página 50de 50
♦ RAVELA Pedro (1994), “Bases conceptuales del sistema nacional de evaluación de la
calidad de la enseñanza básica y media”, Ministerio de Cultura y Educación, Buenos
Aires.
♦ RICHARDS, Sue (1994), "El paradigma del cliente en la gestión pública", en Gestión y
Análisis de Políticas Públicas, Nro. 1, Madrid, INAP, Setiembre/Diciembre.
♦ SULBRANDT, José (1989), “Evaluación de políticas y programas sociales masivos en el
sector público”, en Administración de Empresas, tomo 20, Nro. 233/234, Buenos Aires,
agosto-setiembre.
♦ SULBRANDT, José (1989), “Evaluación de políticas y programas sociales masivos en el
sector público”, en KLIKSBERG, Bernardo (comp.), ¿Cómo enfrentar la pobreza?,
Buenos Aires, Grupo Editor Latinoamericano.
♦ SULBRANDT, José (1993), “La evaluación de los programas sociales: una perspectiva
crítica de los modelos usuales”, en KLIKSBERG, Bernardo (comp.), Pobreza: un tema
impostergable, México, Fondo de Cultura Económica.
♦ TESORO, José Luis (1979), “Esquema sobre evaluación de programas públicos”, INAP,
Buenos Aires.
♦ TESORO, José L. y SAROKA, Raúl H. (1988), “El mercado de información
especializada en la Argentina”, en Administración de Empresas, Tomo 19, Nro. 218,
Buenos Aires, Mayo.
♦ THIRY-CHERQUES, Hermano Roberto (1996), “La guerra sin fin sobre la
productividad administrativa”, en Revista del CLAD Reforma y Democracia, Nro. 5,
Caracas, enero.
♦ TULIC, María Lucrecia (1996), “Una aproximación a la evaluación de las políticas
públicas: el caso del SINEC”, en Revista Iberoamericana de Educación, Nro. 10, Madrid,
OEI, enero-abril.
♦ WEISS, Carol H. (1972), Evaluation Research. Methods of Assessing Program
Effectiveness, Prentice Hall.
♦ WILDAVSKY, Aaron (1972), “The Self-Evaluating Organization”, en Public
Administration Review, septiembre-octubre.
♦ ZAPATA, Juan A. (1993), “Seguimiento y evaluación: Argentina”, documento al
Seminario Regional sobre Seguimiento y Evaluación para un Desarrollo Sostenido,
Quito, noviembre.
Página 51de 50
Descargar