Estrategias para el avance de la evaluación: la experiencia catalana

Anuncio
Presupuesto y Gasto Público 68/2012: 25-39
Secretaría de Estado de Presupuestos y Gastos
© 2012, Instituto de Estudios Fiscales
(VWUDWHJLDVSDUDHODYDQFHGHODHYDOXDFLyQ
la experiencia catalana a través de Ivàlua*
BLANCA LÁZARO
Instituto Catalán de Evaluación de Políticas Públicas (Ivàlua)
Recibido: Julio 2012
Aceptado: Septiembre 2012
Resumen
La evaluación de políticas públicas es una función indispensable del buen gobierno. Su implantación y desarrollo
dependerán de una correcta estrategia de introducción adaptada al contexto político-administrativo y dotada de un
repertorio de instrumentos orientados a una práctica efectiva y útil. Partiendo de esas premisas, este artículo pretende
RIUHFHUDOJXQDVUHÀH[LRQHVVREUHODGH¿QLFLyQ\HOJUDGRGHSURJUHVRGHXQDHVWUDWHJLDSDUDHOLPSXOVRGHODHYDOXDción en Cataluña. El análisis parte de un sucinto marco conceptual sobre los sistemas y las políticas de evaluación,
revisa experiencias internacionales y se centra posteriormente en la experiencia del consorcio público Ivàlua.
Palabras clave: evaluación, España, Cataluña, administración pública, evaluación, transparencia política, Ivàlua.
&ODVL¿FDFLyQ-(/'(+
Abstract
The evaluation of public policies is an essential function of good government. Its implementation and development
depend on an appropriate introduction strategy adapted to the political-administrative context and equipped with
D UDQJH RI LQVWUXPHQWV DLPHG DW HIIHFWLYH DQG XVHIXO SUDFWLFH 2Q WKH EDVLV RI WKHVH SUHPLVHV WKLV DUWLFOH VHHNV WR
SURYLGHDEDVLVIRUUHÀHFWLRQRQWKHGH¿QLWLRQDQGWKHGHJUHHRISURJUHVVRIDVWUDWHJ\WRSURPRWHHYDOXDWLRQLQ&DWDORQLD7KHDQDO\VLVVWDUWVZLWKDFRQFLVHFRQFHSWXDOIUDPHZRUNRIHYDOXDWLRQV\VWHPVDQGSROLFLHV,IWKHQUHYLHZV
international experiences and subsequently focuses on the experience of the Ivàlua public consortium.
Key words: evaluation, Spain, Catalonia, public administration, evaluation, transparency in government, Ivàlua.
-(/&ODVVL¿FDWLRQ'(+
Introducción
La buena salud de los sistemas políticos democráticos depende en gran medida de la
existencia de un debate público informado sobre el funcionamiento y efectividad de sus ins /D DXWRUD DJUDGHFH DO 'U -RVHS 0 9DOOqV \ DO 'U 'DYLG &DVDGR VXV FRPHQWDULRV \ DSRUWDFLRQHV DO WH[WR \ VH
declara única responsable de los contenidos y valoraciones en él incluidos. Éstos se realizan exclusivamente a título
SHUVRQDO\QRSUHWHQGHQUHÀHMDUODSRVLFLyQLQVWLWXFLRQDOGH,YjOXDVREUHODVFXHVWLRQHVWUDWDGDV
26
Blanca Lázaro
tituciones de gobierno. La evaluación de políticas públicas contribuye doblemente a ese objetivo, al producir conocimiento que permite la mejora de las intervenciones públicas, así como
informar y rendir cuentas a los ciudadanos. La evaluación debería, por tanto, ser reconocida
\SURWHJLGDFRPRIXQFLyQLQGLVSHQVDEOHGHOEXHQJRELHUQR1RREVWDQWHHVRQRHVVX¿FLHQte para garantizar un progreso adecuado, el cual dependerá principalmente de una correcta
estrategia de introducción, adaptada al contexto y dotada de instrumentos que impulsen una
práctica efectiva y útil. Partiendo de esas premisas, este artículo pretende ofrecer algunas
UHÀH[LRQHVUHVSHFWRDODGH¿QLFLyQ\HODYDQFHGHXQDHVWUDWHJLDSDUDHOLPSXOVRGHODHYDOXDción de políticas públicas en Cataluña, vinculando el análisis —aunque no de forma exclusiva— a la creación y primeros años de funcionamiento del Instituto Catalán de Evaluación
de Políticas Públicas (Ivàlua). El texto se estructura en un primer apartado donde revisamos
de forma sucinta la conceptualización de estrategias para el impulso de la evaluación; un
segundo apartado donde tratamos de sintetizar las principales lecciones aprendidas sobre la
aplicación de dichas estrategias en países avanzados; un tercer apartado donde describimos la
HYROXFLyQUHFLHQWHHQ&DWDOXxD\VXJHULPRVDOJXQDVOtQHDVGHHYROXFLyQIXWXUDSDUD¿QDOL]DU
con unas breves conclusiones.
0DUFRFRQFHSWXDOGHODVHVWUDWHJLDVSDUDHOLPSXOVR
de la evaluación
1.1. Una condición previa: preservar la esencia de la evaluación
y asumir sus límites
¿Qué características esenciales de la evaluación debe preservar una política que preWHQGD IRPHQWDUOD" &KHOLPLVN\ GHVSXpV GH XQD ODUJD HWDSD DO IUHQWH GH OD GLYLVLyQ
GH (YDOXDFLyQ GH OD 86 *HQHUDO$FFRXQWDELOLW\ 2I¿FH GHVWDFD WUHV (Q SULPHU OXJDU VX
independencia. La evaluación debe protegerse de presiones políticas, tanto en la fase inicial
de diseño como durante la implementación y —quizá donde pueden llegar a ser más explíFLWDV² HQ OD IDVH ¿QDO GH LQIRUPH \ GLIXVLyQ GH UHVXOWDGRV 3UHVHUYDU OD LQGHSHQGHQFLD GH
la evaluación, evitando al mismo tiempo rigideces innecesarias que impidan al evaluador
VHU ÀH[LEOH \ UHFHSWLYR D ODV QHFHVLGDGHV GH ORV XVXDULRV ¿QDOHV GHEH VHU YLVWR FRPR XQD
condición sine qua non para que los resultados sean relevantes y útiles. En segundo lugar,
debe prestarse atención a la credibilidad de la evaluación. La credibilidad viene determinada
SULQFLSDOPHQWHSRUODFDOLGDGWpFQLFDSHURWDPELpQSXHGHLQÀXLUGHIRUPDGHFLVLYDODDFRJLda subjetiva que otorguen a la evaluación quienes serán sus principales usuarios. Contextos
jurídico-administrativos que únicamente estén atentos al control de la legalidad y la sujeción
al procedimiento, o bien entornos gerenciales concentrados en el control de la gestión, pueden ser extraordinariamente refractarios a la evaluación y considerarla irrelevante. No son
H[WUDxRVHQHVRVFDVRVORVLQWHQWRVGHGHVDFUHGLWDUOD\GHGL¿FXOWDURLPSHGLUVXDYDQFH(Q
tercer lugar, la evaluación requiere un entorno profesional adecuado para desarrollarse: los
profesionales de la evaluación necesitan trabajar en ambientes donde se promueva la curiosidad intelectual, la búsqueda continua del conocimiento y su perpetuo cuestionamiento. Estos
requisitos no son habituales en nuestras administraciones, donde la innovación basada en la
generación sistemática de conocimiento disfruta todavía de escaso espacio en el quehacer
Estrategias para el avance de la evaluación: la experiencia catalana a través de Ivàlua
27
diario. Una evaluación de políticas públicas poco rigurosa, manipulada, oculta a la opinión
pública o desacreditada por los decisores políticos o por los profesionales del sector público
difícilmente podrá servir a la mejora de la acción de gobierno. En consecuencia, una estrateJLDGHLPSXOVRGHODHYDOXDFLyQGHEHUiVDEHUJHVWLRQDUHQXQJUDGRVX¿FLHQWHHVDVSUHVLRQHV
y esos factores poco propicios del contexto para evitar desnaturalizarla.
Asimismo, cualquier estrategia de fomento de la evaluación debería partir del reconoFLPLHQWRSUHYLRGHVXVOtPLWHV'HRWURPRGRSRGUtDQDWULEXtUVHOHFDSDFLGDGHVRDVLJQiUVHOH
funciones que en ningún caso podría ni debería asumir y que, de hacerlo, acabarían complicando su avance. En términos generales, el interés en impulsar la evaluación de políticas
públicas se basa en el supuesto de que podemos hacer que las políticas mejoren a través de
OD SURGXFFLyQ GH HYLGHQFLDV VREUH VX IXQFLRQDPLHQWR HIHFWLYLGDG \ H¿FLHQFLD TXH UHWURDOLmenten los procesos de toma de decisiones. Esa producción de evidencias es, sin embargo,
un proceso continuo donde cada informe de evaluación responde una serie de preguntas,
pero plantea al mismo tiempo otras nuevas; sugiere diseños o variantes del programa que, de
llevarse a la práctica, será necesario evaluar; propone mejoras en los sistemas de información
que permitirán llegar más lejos en futuros análisis. Nada más alejado de esa realidad que el
dictamen inapelable sobre la idoneidad de un programa que a veces se espera —o se teme—
de la evaluación. Por otro lado, las evidencias que produce la evaluación deben, sin duda,
HVWDUSUHVHQWHVHQODVPHVDVGRQGHVHWRPDQODVGHFLVLRQHVVREUHODFRQWLQXLGDGPRGL¿FDFLyQ
o supresión de los programas. No obstante, en palabras de Rist (2006), no deben aspirar a
ocupar el lugar de honor, sino conseguir tener al menos un asiento en ellas y ser de ese modo
tenidas en cuenta junto con criterios legítimos de carácter político.
Asumir esas características y esas limitaciones de la evaluación, y apostar por ella,
implica una transformación paulatina y profunda del modelo actual de administración burocrática, al tiempo que se desvanece el espejismo de una administración estrictamente tecnocrática, donde las decisiones se toman sobre la base de un conocimiento inapelable derivado
de la evaluación. Esa apuesta comporta aproximarse, en cambio, a otro tipo de organización
DKRUD LQH[LVWHQWHPiV UHÀH[LYD \PiV LQWHOLJHQWHPHQWH FRQVFLHQWH GH OD FRPSOHMLGDG GHOD
realidad social y de las propias limitaciones para hacerle frente. Y más proclive, por tanto, a
la promoción del conocimiento y del debate social bien informado sobre las posibles alternativas de intervención y sus resultados.
/DVHVWUDWHJLDVGHLPSXOVRGHODHYDOXDFLyQ
La necesidad de desarrollar sistemas de evaluación con vistas a la regularización
de su práctica y de su utilización en entornos gubernamentales empieza a ser objeto de
HVWXGLRD ¿QDOHVGHODGpFDGD GH ORV D WUDYpVGH WUDEDMRV FRPR ORV GH%R\OH /HPDLUH
y Rist (1999). Estos autores señalan que un «régimen de evaluación» es aquel interesado
HQODFRQ¿JXUDFLyQGHODFDSDFLGDGSDUDODHYDOXDFLyQHQODSUiFWLFDGHODHYDOXDFLyQ\HQ
aspectos organizativos e institucionales relacionados. Posteriormente, Furubo y Sandahl
(2002) estudian los rasgos comunes de sistemas de evaluación en 21 países y diversos
organismos internacionales, sobre la base de una serie de indicadores que posteriormente
completan Leeuw y Furubo (2008) y que pueden agruparse en cinco categorías: existencia
de una cultura favorable a la evaluación; grado de institucionalización, organización y
28
Blanca Lázaro
demanda de evaluación; oferta de evaluación; práctica evaluadora y grado de utilización y
GLIXVLyQGHODHYDOXDFLyQ3RURWUDSDUWH)XUXER\6DQGDKOLGHQWL¿FDQXQDVHULHGH
factores determinantes en el desarrollo de los sistemas de evaluación: en primer lugar, la
calidad democrática, y en particular el arraigo de prácticas de transparencia y participación
que favorezcan el debate social abierto sobre las actuaciones públicas. En segundo lugar,
OD WUDGLFLyQ FLHQWt¿FD WpFQLFD \ GH JHVWLyQ S~EOLFD TXH VL HV VyOLGD WHQGHUi D IDYRUHFHU
aproximaciones racionalistas a la toma de decisiones. La elevada inversión pública en determinados sectores propios del estado del bienestar —o, podríamos añadir en el contexto
actual, la necesidad perentoria de ajustes— favorece, asimismo, el uso de la evaluación en
la toma de decisiones. Finalmente, contribuye también la existencia de fuerzas exógenas
DO VLVWHPD \ IDYRUDEOHV D OD HYDOXDFLyQ (Q SDUWLFXODU OD LQÀXHQFLD GH RUJDQLVPRV LQWHUnacionales de cooperación al desarrollo y, en un ámbito más cercano, las obligaciones de
evaluación asociadas al acceso a fondos de la Unión Europea.
En lo que respecta a las políticas de impulso de la evaluación1, el reconocimiento de
su importancia y necesidad es reciente, encontrándose su conceptualización todavía en una
HWDSD LQLFLDO 0DUN 00 &RRNV\ /- 7URFKLP 0. 6X VXUJLPLHQWR GHULYD GH
la aproximación sistémica a la evaluación vista anteriormente y de la necesidad de concebir
procesos que hagan posible el tránsito desde una práctica puntual y aislada de la evaluación a
la emergencia y gobierno de dichos sistemas. Pero más allá de esa dimensión práctica, la imSRUWDQFLDGHODVSROtWLFDVGHHYDOXDFLyQREHGHFHIXQGDPHQWDOPHQWHDWUHVUD]RQHV&RRNV\
/-0DUN007URFKLP0.,&KHOLPVN\RWRUJDQYLVLELOLGDG\WUDQVSDUHQcia a la evaluación; la protegen, al menos formalmente, contra presiones del sistema político
y burocrático que puedan desnaturalizarla, y facilitan el aprendizaje sobre su desarrollo, formas de implantación y conexión con procesos de toma de decisiones y rendición de cuentas.
Coinciden los autores en la ausencia de una pauta única adecuada de formalización, aunque
aconsejan considerar con suma prudencia aproximaciones excesivamente normativas, que
impongan obligaciones poco adaptadas a organizaciones escasamente receptivas o en absoluto preparadas técnicamente para poderlas asumir, ya que conllevan un elevado riesgo de
burocratización de la evaluación. Por otra parte, observan, su impulso debe apoyarse en un
amplio abanico de actores, tanto gubernamentales como no gubernamentales, para garantizar
apropiación, objetividad y transparencia. Y está claro que debe ser un trabajo intencional
6WRFNGLOOet al., 2002), tendente a «crear y sostener de forma continua en el tiempo procesos
generales organizativos que permiten la realización y utilización de evaluaciones de calidad
de forma rutinaria». La intencionalidad apunta a la necesidad de voluntad política y técnica:
los sistemas de evaluación no surgen por generación espontánea, sino del convencimiento y
del empeño de individuos que tienen la competencia política y técnica necesarias para impulsarlos. La expresión de esa voluntad —o de esas voluntades, si reconocemos la complejidad
GHODVUHGHVGHDFWRUHVTXHSDUWLFLSDQHQODGH¿QLFLyQ\GHVSOLHJXHGHODVDJHQGDVS~EOLFDV
actuales—, así como las formas que pueden tomar los procesos, prácticas y uso concretos del
sistema son, según las referencias estudiadas, fuertemente idiosincrásicos y requieren altas
GRVLVGHÀH[LELOLGDG\DGDSWDFLyQ3DUHFHWUDWDUVHGHSURFHVRVPiVJXLDGRV ²HQHO VHQWLGR
de facilitarlos y apoyarlos, creando continuamente oportunidades para su progreso— que
gobernados —en el sentido de pretender un control completo—. Y siguen, como cualquier
SROtWLFDWUD\HFWRULDVDELHUWDVTXHQRGHEHQDFRPRGDUVHDXQDGH¿QLFLyQLQLFLDOVLQRFXHVWLRnarla, revisarla y mejorarla continuamente.
Estrategias para el avance de la evaluación: la experiencia catalana a través de Ivàlua
2.
29
Plasmación práctica de las políticas de evaluación en países avanzados
A lo largo de la primera década del presente siglo se han publicado análisis sobre el
desarrollo de la evaluación en diversos países desde una perspectiva sistémica. Seguramente
la publicación de referencia al respecto es el International Atlas of Evaluation (Furubo et
al., 2002), pero posteriormente han visto la luz algunas monografías y trabajos que amplían
y actualizan la información contenida en el Atlas 2. Hacer un repaso exhaustivo de estas experiencias queda fuera del alcance de este artículo. Sin embargo, puede resultar de interés
tratar de sintetizar las principales «lecciones aprendidas» que se desprenden de los análisis
citados —especialmente en el caso de los países que gozan de una trayectoria más larga en el
impulso de la evaluación— para contextualizar la estrategia desarrollada hasta el momento
en Cataluña.
En primer lugar, en relación a IyUPXODV GH LQVWLWXFLRQDOL]DFLyQ \ RUJDQL]DFLyQ de
la evaluación, en ninguno de los países estudiados hay una regulación prolija. Ésta suele
UHFRJHUVHHQQRUPDVFRQUDQJRGHOH\UHODWLYDVDODV¿QDQ]DVS~EOLFDV\SRVWHULRUPHQWHHV
objeto de directrices internas a través de órdenes, circulares u otros documentos que dictan la
política de evaluación. No se regulan tanto los detalles de la práctica evaluadora —que suele
ejercerse de forma descentralizada por los diferentes departamentos y agencias del gobierno—, sino sus objetivos, criterios y estándares de calidad, los recursos que se le asignan, el
uso que debe hacerse de sus resultados y aspectos relativos a su difusión pública. La combinación de instancias de impulso, coordinación y supervisión centralizada de la evaluación,
que actúan también como centro de recursos y apoyo metodológico, con una función evaluaGRUDGHVFHQWUDOL]DGDDGDSWDGDGHIRUPDPiVRPHQRVÀH[LEOHDFDGDFRQWH[WRRUJDQL]DWLYR
parece favorecer el avance de la evaluación. Por otra parte, se asume que el progreso de la
evaluación es irregular y asimétrico, fomentándose «focos» de evaluación de calidad allá
donde se da una combinación propicia de factores y procurando difundir posteriormente esas
experiencias punteras entre las organizaciones del sector público, a través de redes internas
o interadministrativas. Esas redes favorecen un «efecto contagio» positivo y un grado más
elevado de implicación y compromiso4. Además, en los países más avanzados, los propios
órganos de impulso de la evaluación en el ejecutivo o bien órganos superiores de control realizan un seguimiento periódico del progreso de la evaluación, los recursos que consume y su
incidencia en la mejora y en la transparencia de la acción de gobierno5. Esa «evaluación de la
evaluación» es fundamental para reajustar continuamente la estrategia. Por último, y no por
obvio menos importante, se muestra indispensable el convencimiento y liderazgo al máximo
nivel y un compromiso sostenido a lo largo de los años, no únicamente a corto plazo.
En segundo lugar, en lo que respecta a la demanda de evaluación, para activarla se considera esencial sensibilizar a los cargos políticos del gobierno y gestores públicos, así como
a los partidos políticos, los miembros del parlamento y los actores económicos y sociales
sobre qué es y para qué sirve la evaluación. Asimismo, es preciso dotar al personal técnico
de la administración que deba gestionar o utilizar la evaluación de las capacidades analíticas
necesarias. No se trata tanto de formar evaluadores expertos de alto nivel —éstos se encontrarán mayoritariamente fuera de la Administración—, sino gestores de la evaluación, que
sepan encargar y valorar estudios externos, así como asegurar su utilización posterior. En el
seno de las administraciones, la demanda de evaluación suele estimularse también con un sis-
Blanca Lázaro
WHPDDGHFXDGRGHLQFHQWLYRVSRVLWLYRV\QHJDWLYRVYLQFXODGRVWDQWRDOD¿QDQFLDFLyQGHODV
evaluaciones y de las actuaciones de capacitación técnica como a la asignación de recursos
presupuestarios a los programas en función de la evidencia existente6.
En cuanto a la práctica evaluadora. Los sistemas estudiados distinguen claramente
las funciones de monitoreo y de evaluación. La primera se genera normalmente de forma
interna, mientras que la evaluación a menudo —aunque no de forma exclusiva— se lleva a
cabo por evaluadores expertos externos, ya sean de centros de investigación o consultoras
privadas o bien, en determinados casos, por organismos públicos que tienen asignada esa
misión7. Esta distinción entre ambas funciones y la diferente forma de organizarlas se dan en
WRGRVORVSDtVHVFRQSUiFWLFDVDYDQ]DGDVGHHYDOXDFLyQ0DFND\/HHXZ0DUN
y Pfeiffer, 2011; Lahey, 2010). Al respecto, se detecta también un énfasis creciente en la realización de evaluaciones rigurosas de impacto, junto a un cierto cuestionamiento de sistemas
de monitoreo complejos (Van Thiel y Leew, 2002).
Se reconoce asimismo como indispensable la priorización, a efectos de evaluación, de
un determinado número de políticas y programas, siguiendo criterios explícitos de relevancia política, presupuesto y viabilidad técnica. Cada evaluación debe responder preguntas
FRQFUHWDV HVSHFt¿FDV SDUD FDGD RFDVLyQ HQ IXQFLyQ GHO SURSyVLWR \ GH ODV QHFHVLGDGHV GH
información de los usuarios, a los cuales se procura implicar en el proceso evaluador junto
a otros actores relevantes, con el objeto de garantizar en lo posible una mayor apropiación y
utilización de los resultados. Por otra parte, es fundamental para una evaluación de calidad su
DGRSFLyQ\SODQL¿FDFLyQGHVGHHOLQLFLRGHORVSURJUDPDVDHYDOXDUQRDO¿QDO&RQHVWH¿Q
es útil estimular la realización de planes plurianuales de evaluación de orientación práctica,
así como la adopción de enfoques de evaluación prospectiva en los diferentes proyectos (US
*$20DUN\3IHLIIHU/DKH\5$GHPiVHVWDPELpQQHFHVDULRDGRSWDU
mecanismos que permitan garantizar la neutralidad y calidad de las evaluaciones8. En esa
línea, las tareas de mejora de la calidad y accesibilidad de los datos disponibles para realizar
evaluaciones forman parte también de las agendas de impulso de la evaluación revisadas.
Para ello es imprescindible la colaboración de las instancias responsables de impulsar la evaOXDFLyQORVRUJDQLVPRVR¿FLDOHVGHHVWDGtVWLFD\ORVyUJDQRVJXEHUQDPHQWDOHVFRPSHWHQWHV
en gestión y sistemas de información administrativa. Estas iniciativas pueden incluso partir
GHHQWLGDGHV¿ODQWUySLFDVH[WHUQDVDOD$GPLQLVWUDFLyQLQWHUHVDGDVHQLPSXOVDUODLQYHVWLJDción social aplicada y la evaluación en un ámbito dado de intervención social.
(QORTXHVHUH¿HUHDOD utilización y difusión de la evaluación, se presta mucha atención a los formatos y canales de comunicación de resultados para maximizar su utilización,
y hacer públicos los informes de forma accesible y atractiva para los ciudadanos9. Por otra
parte, la aplicación de los resultados de la evaluación en los procesos decisionales, y especialmente en los relativos a asignación de recursos presupuestarios es compleja y no está del todo
resuelta en ninguno de los escenarios contemplados10. Un buen sistema de incentivos que estimule la evaluación voluntaria de políticas de gasto prioritarias, junto con la obligatoriedad
GH DSRUWDU HYLGHQFLDV VyOLGDV VREUH HIHFWLYLGDG \ H¿FLHQFLD HQ ORV SURFHVRV GH QHJRFLDFLyQ
presupuestaria de determinados programas es el esquema vigente en algunos de los países
estudiados. Por último, el volumen de evaluaciones y de recursos asignados a su elaboración
en los países más avanzados es muy notable en términos de actividad, recursos humanos y
presupuesto dedicado a esta función11.
Estrategias para el avance de la evaluación: la experiencia catalana a través de Ivàlua
En lo que respecta a (VSDxD, la práctica y el grado de institucionalización de la evaluaFLyQVHHQFXHQWUDQHQWUHORVPiVEDMRVGHOD2&'()XUXER\6DQGDKO9DURQHet al.
2005, Viñas, 2009), registrándose algunos avances en la segunda mitad de la pasada década.
Inducida fundamentalmente por las obligaciones asociadas a la recepción de fondos estructurales de la UE, la práctica de la evaluación se ha venido desarrollando a partir de los años 90,
aunque de forma fragmentada y poco sistemática (Viñas, 2009). En algunos sectores como
las políticas de salud y las políticas de cooperación para el desarrollo, la evaluación ha penetrado a un ritmo más rápido. Sin embargo, en muchos otros su práctica —especialmente si
nos referimos a evaluaciones rigurosas de impacto— es escasa o todavía inexistente. A partir
de 2005, diversos acontecimientos en el ámbito estatal y autonómico señalan la entrada de la
evaluación en las agendas políticas y la voluntad de avanzar en su institucionalización. Entre
ODVSULQFLSDOHVFDEHPHQFLRQDUSRURUGHQFURQROyJLFRODDSUREDFLyQD¿QDOHVGHGHOD
Ley foral de evaluación de las políticas públicas y de la calidad de los servicios públicos de
Navarra12. En segundo lugar, la creación de la Agencia Estatal de Evaluación de las Políticas
Públicas y la Calidad de los Servicios (AEVAL), a través de la disposición adicional primera de la Ley 28/2006, de 18 de julio, de agencias estatales para la mejora de los servicios
públicos. Un poco más tarde, en octubre de 2006, se constituye formalmente en Cataluña
el Centro para la Investigación y Evaluación de Políticas Públicas —actualmente Instituto
Catalán de Evaluación de Políticas Públicas (Ivàlua)—. El Instituto, sin embargo, no iniciará
actividades hasta 2008.
$ ¿QDOHV GH HQ HOPDUFR GH OD5HG ,QWHUDGPLQLVWUDWLYDGH&DOLGDG GH ORV6HUYLcios Públicos impulsada por AEVAL, se constituye un grupo de trabajo sobre evaluación de
políticas públicas14, cuya coordinación se encomienda a Ivàlua y el cual llevará a cabo, a lo
largo de 2010, un intercambio bastante intenso de información sobre diferentes aspectos de
la situación y el impulso de la evaluación en las comunidades autónomas participantes. PosWHULRUPHQWHHQHO*RELHUQR9DVFRHODERUDHO3ODQGH,QQRYDFLyQ3~EOLFDHO
cual incluye entre sus líneas estratégicas el fomento de la cultura de evaluación de políticas
públicas. Finalmente, en marzo de 2011 el Parlamento de las Islas Baleares aprueba la Ley
GHODEXHQDDGPLQLVWUDFLyQ\HOEXHQJRELHUQR/DQRUPDFUHDXQD2¿FLQDGH(YDOXDFLyQ 3~EOLFD DGVFULWD DO *RELHUQR D WUDYpV GHO 'HSDUWDPHQWR FRPSHWHQWH HQ FDOLGDG GH
ORVVHUYLFLRV/D2¿FLQD\ODSROtWLFDGHHYDOXDFLyQHQVXFRQMXQWRFRQWHPSODGDHQODQRUPD
están, sin embargo, pendientes de implantación. Ha habido, por tanto, en los últimos años,
una serie de avances institucionales en el ámbito de la evaluación en España, aunque sólo en
algunos casos han impulsado una práctica evaluadora efectiva.
6LWXDFLyQGHODHYDOXDFLyQGHSROtWLFDVS~EOLFDVHQ&DWDOXxD
&RQWH[WR\HVWUDWHJLDVGHDFWXDFLyQGH,YjOXDHQHOSHULRGR
En Cataluña el desarrollo de un sistema de evaluación se encuentra en una fase incial. El
Instituto Catalán de Evaluación de Políticas Públicas (Ivàlua) ha actuado como dinamizador
en el período 2008-2011, diseñando una estrategia basada en el análisis de las mejores prác-
Blanca Lázaro
ticas detectadas en el entorno internacional y el intento de adaptarlas a la realidad de las administraciones públicas catalanas. Se trata de un consorcio público, con personalidad jurídica
SURSLDTXHLQWHJUDGRVQLYHOHVGHDGPLQLVWUDFLyQ²OD*HQHUDOLWDWDWUDYpVGHO'HSDUWDPHQWR
GH(FRQRPtD\OD$GPLQLVWUDFLyQORFDODWUDYpVGHOD'LSXWDFLyQGH%DUFHORQD²HLQFRUSRra al mismo tiempo la presencia experta de las universidades públicas catalanas —mediante
la Universidad Pompeu Fabra y, posteriormente, el Consell Interuniversitari de Catalunya—,
una representación de intereses económicos y sociales, a través del Consejo de Trabajo Económico y Social de Cataluña (CTESC), y de entidades privadas sin ánimo de lucro activas
HQHOiPELWRGHODLQYHVWLJDFLyQVRFLDODWUDYpVGHOD)XQGDFLyQ-DXPH%R¿OOTXHMXQWRDODV
administraciones y la UPF es entidad fundadora de Ivàlua.
Esa composición constituye un claro punto fuerte de un organismo cuya misión no es
tanto evaluar las políticas del gobierno, sino contribuir a generar un sistema de evaluación
donde ésta sea una práctica ordinaria y continuada, plenamente interiorizada por las propias
administraciones como instrumento de mejora interna, pero también de rendición de cuentas.
Su naturaleza de entidad pública facilita una buena acogida de sus actuaciones de promoción,
formación y evaluación por parte de las administraciones, que en general ven en Ivàlua un
partenaire GLVSXHVWR D D\XGDUOHV HQ VXV LQWHQWRV GH IRPHQWDU OD HYDOXDFLyQ FRQ XQ SHU¿O
netamente distinto de un proveedor de servicios o de una instancia externa de control. En
contrapartida, y junto con la ausencia de una política explícita de evaluación en Cataluña, el
consorcio presenta un anclaje institucional algo débil que, aunque le otorga una cierta independencia —más formal que real, ya que el grueso del presupuesto del Instituto proviene de
ODVDGPLQLVWUDFLRQHV²SXHGHFRPSRUWDUXQGp¿FLWGHDXWRULGDG(O,QVWLWXWRKDLGRFDSHDQGR
HVH LQFRQYHQLHQWH D OR ODUJR GH VXV SULPHURV FXDWUR DxRV GH H[LVWHQFLD D¿DQ]iQGRVH FRPR
referente de la evaluación de políticas públicas en Cataluña sobre la base de la calidad y del
reconocimiento que hasta ahora han merecido sus actuaciones por parte de los organismos
evaluados y de expertos independientes.
El contexto en el que actúa Ivàlua se caracteriza por la ausencia de una política explíFLWDGHLPSXOVRGHODHYDOXDFLyQWDOFRPRODYHPRVGH¿QLGDHQSDtVHVDYDQ]DGRV(VLQQHgable que disponemos ya de un corpus en absoluto despreciable de normas que contemplan
la obligación de evaluar15. Sin embargo, esas obligaciones normativas están pendientes de
traducción práctica en la mayor parte de casos. Por otra parte, en términos generales, la
demanda de evaluación en el sector público catalán se materializa hoy en día fundamentalmente a través de peticiones puntuales y aisladas entre sí. No deriva de un concepto o
principios comunes sobre evaluación de políticas públicas y se confunde a menudo con
DFWLYLGDGHVGHSODQL¿FDFLyQPRQLWRUHRRDXGLWRUtDHFRQyPLFDRGHJHVWLyQ7DPSRFRH[LVten pautas sistemáticas para el seguimiento de la utilización de las evaluaciones realizadas
en procesos de toma de decisiones, ni sobre su incidencia en la eventual mejora de los
programas.
En cuanto a la organización de la práctica evaluadora, si bien existe una multiplicidad
de unidades administrativas que tienen asignadas funciones de evaluación, tanto en el ámbito
autonómico como en el local16, el rango de funciones asignadas varía notablemente y no existe
un hilo conductor común en sus objetivos. Condiciona asimismo la práctica de la evaluación
en Cataluña la situación de las bases de datos y otras fuentes de información administrativa.
Estas presentan todavía algunas carencias —ausencia de registros sistemáticos, problemas
Estrategias para el avance de la evaluación: la experiencia catalana a través de Ivàlua
de calidad de los datos que contienen, falta de rutinas de extracción e integración de bases de
GDWRVDGDSWDGDVDODVQHFHVLGDGHVGHODHYDOXDFLyQ«²DODVTXHVHVXPDQODVGL¿FXOWDGHV
administrativas para cruzar datos de diferentes registros, especialmente si los titulares son
distintos órganos de la Administración. A este panorama hay que añadir obstáculos para el
tratamiento de datos de carácter personal contenidos en los registros administrativos a efectos
de evaluación. Aunque la normativa autoriza claramente ese tratamiento para el ejercicio de
las funciones propias de las administraciones públicas en el ámbito de sus competencias —y
la evaluación debe, sin duda, formar parte de ellas—, el desconocimiento de la evaluación
lleva todavía a interpretaciones restrictivas en algunas ocasiones.
En ese marco, Ivàlua ha seguido en el periodo 2008-2011 cinco grandes líneas de trabajo17. En primer lugar, la sensibilización de actores clave. Esta línea consiste en actuaciones de
formación introductoria, jornadas, seminarios e información, dirigidos a directivos, técnicos,
DJHQWHVVRFLDOHV\FLXGDGDQtDFRQHO¿QGHFODUL¿FDUTXpHVODHYDOXDFLyQ\SDUDTXpVLUYH\
generar una predisposición favorable a su práctica. En segundo lugar, el desarrollo de capacidad técnica para la evaluación. Las actuaciones llevadas a cabo en esta línea incluyen cursos
de formación técnica de evaluadores y de gestores de la evaluación; creación y difusión de
recursos sobre métodos, técnicas y gestión de la evaluación, así como la puesta en marcha
de redes administrativas, profesionales y mixtas para compartir información y fomentar el
compromiso con la evaluación.
En tercer lugar, Ivàlua realiza directamente evaluaciones que respondan a prioridades
de las administraciones. La intervención de Ivàlua como organismo evaluador en estos casos
busca ir más allá del proyecto concreto para lograr un efecto pedagógico, de sensibilización
\GHFDSDFLWDFLyQWpFQLFDHQHOiPELWRGHOSURJUDPDHYDOXDGR&RQHVWD¿QDOLGDG,YjOXDKD
SURFXUDGRVHOHFFLRQDUFXLGDGRVDPHQWHVXVSUR\HFWRV\DFWXDUFRPRVRFLRLPSXOVRUFR¿QDQciador y copropietario de la evaluación, asumiendo la dirección y ejecución técnicas y arbitrando una implicación continuada de directivos, técnicos y actores clave de los programas
evaluados a través de la creación de grupos de dirección y de seguimiento técnico. Si bien la
mayor parte de evaluaciones realizadas entre 2009 y 2011 han tenido carácter retrospectivo,
en 2011 se han iniciado evaluaciones prospectivas, asociadas a programas de nueva creación.
Esas evaluaciones prospectivas se diseñan en el arranque de los programas y los acompañan
en su despliegue, poniendo en marcha los dispositivos de recogida de datos e información
que permiten el monitoreo y análisis de la implementación y que posteriormente harán posible evaluar el impacto. También, por otra parte, se ha iniciado la confección de agendas o
planes de evaluación plurianuales en algunos ámbitos de intervención sectorial. Si bien en
2009 y 2010 el conjunto de actuaciones de evaluación incidió fundamentalmente en programas autonómicos, a partir de 2011 ese alcance se ha ampliado a programas de ámbito local
y también del tercer sector.
$VLPLVPRHQWRGRVORVFDVRVVHKDQLGHQWL¿FDGRPiUJHQHVGHPHMRUDHQODVFRQGLFLRnes técnicas de evaluabilidad de los programas, y en particular de las fuentes de información
disponibles, proponiéndose recomendaciones al respecto. Han quedado esbozadas y pendientes de concreción e impulso en años sucesivos actuaciones transversales de colaboración
con organismos competentes para potenciar el aprovechamiento de registros administrativos
existentes a efectos estadísticos y de evaluación.
Blanca Lázaro
Otra línea de trabajo de Ivàlua tiene que ver con la comunicación y utilización de los
resultados de las evaluaciones. Como se ha mencionado anteriormente, el Instituto ha procurado la implicación de directivos, responsables técnicos y otras partes interesadas en las
actuaciones de evaluación desde su inicio, asegurando su conocimiento y acuerdo sobre los
objetivos de las actuaciones, así como el compromiso de tomar los resultados en consideración en decisiones futuras sobre los programas. Se ha prestado mucha atención a la comunicación de los informes, manejando diferentes formatos en función de las circunstancias y
destinatarios —notas breves, resúmenes ejecutivos, presentaciones e informes completos—.
Esos materiales se han difundido también públicamente con la intención de fomentar su conocimiento y el debate de las conclusiones y recomendaciones que contienen. La difusión se
ha realizado tanto a través del web de Ivàlua —y también en algunos casos a través de webs
de la Administración—, como mediante seminarios presenciales, dirigidos a personal de las
administraciones, entidades externas colaboradoras en los programas, académicos y agentes sociales. No se ha hecho, sin embargo, un seguimiento sistemático de posibles mejoras
derivadas de las evaluaciones, ni de la conexión con el proceso presupuestario. Finalmente,
se intenta llevar a cabo un contraste permanente de la estrategia de Ivàlua con la práctica internacional y con la opinión de expertos externos, para lo cual se ha constituido un grupo de
expertos académicos y profesionales que, convocados por la Presidencia de Ivàlua, se reúne
dos o tres veces al año. Es preciso, no obstante, realizar un seguimiento más sistemático del
progreso de la evaluación en Cataluña que sirva también para orientar actuaciones futuras.
En resumen, las actividades desarrolladas hasta ahora por el Instituto han tratado de
incidir en las principales líneas de impulso de la evaluación detectadas en el entorno internacional, y han sido bien recibidas por profesionales del sector público y del tercer sector
social, los cuales han mostrado un elevado interés y motivación hacia la evaluación. Hay
que reconocer, sin embargo, que la cobertura alcanzada en acciones de sensibilización, capacitación y evaluación, así como el seguimiento posterior, son todavía limitados y deberán
mejorar substancialmente en los próximos años. Para ello, entre otros aspectos, el Instituto
debe reforzar la colaboración con ámbitos de investigación académica y práctica profesional
evaluadora, y así como facilitar y fomentar la interacción entre éstos y la administración.
3.2. ¿Cómo avanzar a partir de ahora?
Proponemos en este penúltimo apartado recordar rápidamente los riesgos más notables
para el avance de la evaluación detectados a la luz de la experiencia internacional, e insistir
en la conveniencia de evitarlos a la vez que se sugieren formas de proceder en los próximos
años.
Una seria amenaza para el impulso de la evaluación consiste, en primer término, en confundir el liderazgo del proceso con la simple imposición de nuevas obligaciones burocráticas
a unas organizaciones ahora mismo infradotadas para la evaluación. Veíamos en apartados
previos las particularidades de las políticas de evaluación, su condición de procesos más
guiados que gobernados, fuertemente idiosincrásicos, con una clara querencia por modelos
RUJDQL]DWLYRVGHVFHQWUDOL]DGRVGRWDGRVGHDPSOLRVPiUJHQHVGHÀH[LELOLGDGSHURDOPLVPR
tiempo, necesitados de orientación, apoyo y supervisión continuados. Ciertamente, diseñar y
dirigir ese tipo de sistemas es bastante más complejo que conformarse con una simple aproxi-
Estrategias para el avance de la evaluación: la experiencia catalana a través de Ivàlua
mación normativa. Como hemos visto en otros países, buena parte del éxito radica en asumir
el reto de la complejidad desde el inicio.
Otro riesgo consiste en confundir la necesaria orientación práctica de la evaluación
con la exigencia de rebajar su rigor técnico o, lo que viene a ser lo mismo, continuar acordándose de la evaluación sólo cuando está próximo el momento de tomar decisiones. Tal
como hemos visto en otros países, es necesario asociar agendas de evaluación a las agendas
políticas sectoriales o transversales y abordar la evaluación, siempre que sea posible, de
forma prospectiva. En relación a ello, hay que tener en cuenta que la capacidad evaluadora
no es fácil de improvisar. Transformar rápidamente funcionarios de la administración con
SHU¿OHVDMHQRVDODLQYHVWLJDFLyQHQHYDOXDGRUHVH[SHUWRVQRSDUHFHIDFWLEOHVLWHQHPRVHQ
cuenta la sólida formación que éstos deben tener en métodos y técnicas de investigación
social. Vista la experiencia de los que nos preceden, parece deseable concentrar la capaciWDFLyQLQWHUQDHQSHU¿OHVGHLPSXOVRUHV\JHVWRUHVGHODHYDOXDFLyQFDSDFHVGHWUDQVIRUPDU
las necesidades de conocimiento en preguntas abordables desde la evaluación, de actuar
como clientes inteligentes de encargos externos, de hacer el seguimiento de la utilización
de los informes y, si cabe, más importante, de elaborar planes de evaluación, velar por la
consecución de óptimas condiciones internas de evaluabilidad y cultivar una cultura interna
favorable. Por otra parte, el recurso a evaluadores externos expertos no es sólo una cuestión de presupuesto, ya que esa expertise, dispersa en diferentes disciplinas académicas,
DGROHFH DFWXDOPHQWH GH LQVX¿FLHQWHV LQFHQWLYRV \ FDQDOHV SDUD VX WUDQVIHUHQFLD DO VHFWRU
público. Además, hay que fomentar la investigación evaluativa más allá de los proyectos
puntuales, procurando el avance del conocimiento de las problemáticas sociales, así como
la generación de modelos de análisis e instrumentos para su evaluación. Es, pues, necesario
estimular, organizar y dotar económicamente esas líneas de investigación y transferencia de
know how al sector público.
Asimismo, impulsar la capacidad para la evaluación implica comprometerse seriamente
con la mejora de las condiciones actuales de evaluabilidad de las políticas, y en particular
con la disponibilidad y calidad de los datos contenidos en los registros administrativos, con
su aprovechamiento estadístico, y con la facilidad de acceso por parte de los profesionales de
la evaluación. Las debilidades actuales en ese terreno plantean ahora retos a menudo insalYDEOHVSDUDODUHDOL]DFLyQGHHYDOXDFLRQHVUHWURVSHFWLYDV3ODQL¿FDUGHDQWHPDQRODVHYDOXDciones y abordarlas siempre que sea posible de forma prospectiva, junto con una actuación
FRRUGLQDGDHQWUHFHQWURVJHVWRUHVGHORVSURJUDPDVyUJDQRVDFDUJRGHODHVWDGtVWLFDR¿FLDO
autoridad de protección de datos de carácter personal y órganos promotores de la evaluación,
comportaría sin duda mejoras ostensibles a medio plazo. Sería también altamente deseable
que la evaluación prospectiva de proyectos piloto, previa a su posible universalización, se incorporara cuanto antes a las administraciones públicas y fuera desplazando la práctica actual
—difícilmente sostenible desde un punto de vista estrictamente económico, pero también
social— de dar por buenas a priori, sobre la base de un conocimiento a menudo intuitivo,
intervenciones que comportan un gasto de varios millones de euros.
En cuanto a los resultados y utilidad de las evaluaciones, hemos visto que no conviene
confundir los primeros con dictámenes necesariamente taxativos sobre la idoneidad de los
programas, sino valorarlos como hitos en un proceso continuo de producción de conocimiento. Por otro lado, apresurarse a conectar la evaluación con el proceso de asignación presu-
Blanca Lázaro
puestaria, a través de una densa y compleja trama de indicadores que cubra simultáneamente
todas las políticas del gobierno, no parece factible. Concentrarse de forma sucesiva en áreas
\SURJUDPDVSULRULWDULRV\SURIXQGL]DUHQHOORVODHYDOXDFLyQGHVXHIHFWLYLGDG\H¿FLHQFLD
parece arrojar mejores resultados. Finalmente, existe el riesgo de anular una de las dos caras
de la evaluación y hurtar sus resultados a un debate público y social que la enriquezca y que
fortalezca la legitimidad de las instituciones de gobierno. La experiencia internacional en
este ámbito apuesta claramente por la difusión pública de la evaluación, una vez cotejados
ORV HYHQWXDOHV EHQH¿FLRV GH VX RFXOWDFLyQ D OD RSLQLyQ S~EOLFD FRQ OD SpUGLGD GH FDOLGDG
democrática que implican esas prácticas. Es deseable que los avances normativos que se
vislumbran en España en materia de transparencia y acceso a información del sector público
permitan progresar hacia una difusión más generalizada.
4.
Conclusiones
En Cataluña, el recurso a la evaluación de políticas públicas como instrumento de buen
gobierno está pasando lentamente de ser poco más que una declaración de buenas intenciones
presente en organigramas, normas de diverso rango y planes de actuación, a dotarse de contenido y de ciertos instrumentos que permiten albergar esperanzas de arraigo a medio y largo
plazo. Se trata, no obstante, de una travesía que deberá abordar retos importantes, por lo que
es interesante tener en cuenta los errores cometidos y las soluciones aplicadas por quienes
nos han precedido en esta tarea. El éxito de la empresa radicará en trabajar con una perspectiva a medio y largo plazo, y en sumar esfuerzos entre los diferentes actores implicados. Los
gobiernos y las administraciones, en primera instancia, como responsables directos de liderar
el proceso. Ivàlua, como centro de referencia y de recursos sobre evaluación, trabajando en
UHGFRQODVSURSLDVDGPLQLVWUDFLRQHV\FRQHYDOXDGRUHVH[SHUWRV(QWLGDGHV¿ODQWUySLFDVTXH
asuman con recursos propios un papel de pilotaje y evaluación de formas innovadoras de intervención social que, de mostrarse exitosas, puedan ser generalizables. Ciudadanía, agentes
sociales, partidos políticos, que exijan conocer más y mejor el funcionamiento y resultados
de la acción de gobierno, y se comprometan a participar en un debate político y social bastante más abierto y mejor informado sobre las alternativas de intervención ante las complejas
problemáticas sociales.
+HPRV KDEODGR GH ULHVJRV SHUR WDPELpQ HV MXVWR SDUD ¿QDOL]DU VXEUD\DU GRV SXQtos fuertes importantes. Por un lado, el compromiso político que parece irse fraguando en
los últimos años al más alto nivel con el desarrollo de la evaluación en Cataluña. Por otro,
el gran interés que suscita la evaluación entre los profesionales del sector público catalán,
manifestado a través de la elevada participación en las actividades de formación y difusión
organizadas por Ivàlua en los últimos años. Habrá que administrar con prudencia ese valioso
FDSLWDOGHPRGRTXHVLUYDDOD¿QDOLGDGGHLPSXOVDUODHYDOXDFLyQGHVGHODEDVHPiVVyOLGD
posible: el convencimiento personal sobre su utilidad para una mejora ineludible de la acción
de gobierno.
Estrategias para el avance de la evaluación: la experiencia catalana a través de Ivàlua
Notas
1.
Por razones de espacio, no nos extendemos sobre el concepto de «Evaluation Capacity Building», ampliamente tratado en la literatura (ver por ejemplo Labin et al. 2012). En este artículo preferimos emplear el
término «política de evaluación» para referinos al desarrollo de ésta como sistema en un contexto social y
político determinado. Utilizamos, en cambio, el concepto de «capacitación» cuando aludimos al desarrollo
GHFRQRFLPLHQWRV\KDELOLGDGHVVREUHHYDOXDFLyQHQORVQLYHOHVRUJDQL]DWLYRHLQGLYLGXDO3UHVNLOO\%R\OH
2008).
(VHOFDVRVLQSUHWHQVLyQGHH[KDXVWLYLGDGGH(VWDGRV8QLGRV0DUN.\3IHLIIHU-&DQDGi/DKH\
5 0F'DYLG- \+XVH ,$XVWUDOLD0FND\OD8QLyQ(XURSHD6WHUQ (
HQWUHRWURVHO5HLQR8QLGR'DYLHV3,UODQGD%R\OH+RODQGD/HHXZ)/%pOJLFD
9DURQH)-DFRE6\'H:LQWHU/R(VSDxD)HLQVWHLQ2\=DSLFR*RxL(9LxDV9
Además, en los últimos años ha habido una eclosión de webs y publicaciones institucionales relativas a las
políticas de evaluación, tanto en organismos nacionales como supranacionales, por lo que la información disponible para el análisis está aumentando rápidamente.
(VWDHVODIyUPXODYLJHQWHDFWXDOPHQWHHQ&DQDGi²7UHDVXU\%RDUG6HFUHWDULDW7%6\&HQWHURI([FHOOHQFH
IRU (YDOXDWLRQ &((² /DKH\ (VWDGRV 8QLGRV ²2I¿FH RI 0DQDJHPHQW DQG %XGJHW 20% GHO
JRELHUQRIHGHUDO²0DUN\3IHLIIHU\$XVWUDOLD0DFND\DXQTXHHQDOJXQRVFDVRVSXHGHOOHYDU
a un cierto solapamiento de funciones entre múltiples instancias con funciones evaluadoras o relacionadas
(Leeuw, 2009).
4.
Constituyen algunos ejemplos de esas redes el Performance Improvement Council (PIC), puesto en marcha
SRU HO SUHVLGHQWH *HRUJH: %XVK FRPR yUJDQR LQWHUGHSDUWDPHQWDO EDMR HO FXDO VH FUHD HQ \D EDMR OD
nueva administración Obama, el Inter-agency Evaluation Working Group. También, las redes de evaluación
interdepartamentales impulsadas por el Center of Excellence for Evaluation en la Administración Federal de
Canadá, o mixtas, como el Camberra Evaluation Forum impulsado por el Ministerio de Economía del Gobierno australiano a mediados de los 90 y todavía activo.
9HUSRUHMHPSOR86*RYHUQPHQW$FFRXQWDELOLW\2I¿FHGovernment Performance. Lessons Learned for the
Next Administration on Using Performance Information to Improve Results. 2008, y 2I¿FHRIWKH$XGLWRU*Hneral of Canada. Report of the Auditor General of Canada to the House of Commons. Chapter 1. Evaluating
the Effectiveness of Programs. Fall 2009.
6.
La Voluntary Evaluation Initiative, un fondo dotado con 100 millones de dólares en los presupuestos de 2011
y de 2012 del Gobierno Federal de los Estados Unidos constituye un buen ejemplo al respecto.
7.
Por ejemplo, el Congressional Research Service o la propia US GAO, en el caso de Estados Unidos, o el CEE,
en el caso de Canadá.
8.
Por ejemplo, en el caso de Canadá el CEE asume una función de supervisión interna general del funcionamiento del sistema de evaluación, así como de los planes de evaluación departamentales y de los informes
individuales. Puede ser interesante, asimismo, aprovechar una estructura política descentralizada del estado
como «laboratorio» para la experimentación territorial y la evaluación comparada de programas (Varone, F.,
-DFRE6\'H:LQWHU/
(Q HO FDVR GH (VWDGRV 8QLGRV SRU HMHPSOR VH KDQ KHFKR HVIXHU]RV PX\ VLJQL¿FDWLYRV GH GLIXVLyQ S~EOLFD
HQ IRUPDWRV DFFHVLEOHV SDUD HO JUDQ S~EOLFR WDQWREDMR OD$GPLQLVWUDFLyQ GH *HRUJH: %XVK 3URJUDP$Vsessment Rating Tool —PART— y publicación de resultados en el portal www.ExpectMore.gov) como bajo el
mandato actual del presidente Obama (www.performance.gov).
10. Un país donde esa integración parece haber tenido éxito es Australia, en una primera etapa de expansión de la
HYDOXDFLyQHQWUH\TXHVHKDUHWRPDGRUHFLHQWHPHQWH0DFND\
3RUFLWDUDOJXQDVFLIUDVHQHOFDVRGH((88¿MiQGRQRVWDQVyORHQODDFWLYLGDGHYDOXDGRUDGHOD86*$2
pVWD VXSHUD ORV LQIRUPHV DQXDOHV FRQ XQD SODQWLOOD WRWDO GH SHUVRQDV 0DUN \ 3IHLIIHU \
un presupuesto anual superior a los 550 millones de dólares en 2010 (US GAO, marzo 2011). En Canadá, la
cobertura de las actividades de evaluación en 2009-2010 se calculaba en un 15% de los programas de gasto
GHOJRELHUQRIHGHUDO²HYDOXDFLRQHVDODxR²\HOREMHWLYRGHODQXHYDSROtWLFDGHHYDOXDFLyQDSUREDGDHQ
Blanca Lázaro
2009 es llegar al 20%. La traducción presupuestaria de esta esfuerzo evaluador fue de 78 millones de dólares
canadienses en 2009-2010, y la plantilla de evaluadores en departamentos y agencias gubernamentales se
calculaba hacia mediados de la pasada década en 500 personas (TBS, 2011).
12. Es la primera ley que institucionaliza en España la evaluación de las políticas públicas como función transYHUVDOGHOJRELHUQR\FUHDXQyUJDQRHVSHFt¿FRFRQHVD¿QDOLGDGOD&RPLVLyQ)RUDOSDUDOD(YDOXDFLyQGHODV
Políticas y la Calidad de los Servicios.
/D$JHQFLDVHFRQVWLWX\HDSDUWLUGHOD'LUHFFLyQ*HQHUDOGH,QVSHFFLyQ(YDOXDFLyQ\&DOLGDGGHORV6HUYLFLRV
GHO0$3LQWHJUDQGRODPD\RUSDUWHGHVXSHUVRQDO6X¿QDOLGDGHVODSURPRFLyQ\UHDOL]DFLyQGHHYDOXDFLRQHV
de políticas cuya gestión corresponde a la Administración General del Estado, aunque puede evaluar también
otras de ámbito autonómico a través del establecimiento de convenios de colaboración con las comunidades
autónomas.
14. Integrado por representantes de las CCAA de Castilla y León, Cataluña, Extremadura, Islas Baleares, Navarra,
País Vasco, Valencia, además de AEVAL y la FEMP.
15. Es el caso, por ejemplo, de la Ley 26/2010, de régimen jurídico y de procedimiento de las administraciones
públicas catalanas, que establece la obligación de realizar memorias de evaluación de impacto económico y
social. También, sin ánimo de exhaustividad, las leyes 12/2007, de servicios sociales de Catalunya, 10/1997,
de la RMI, 14/2010, de los derechos y oportunidades en la infancia y en la adolescencia, o 12/2009, de Educación, incluyen obligaciones al respecto. Además, son frecuentes las previsiones sobre evaluación contenidas
en diversos planes, convocatorias, etc.
16. En un repaso rápido de los organigramas vigentes, tan sólo en el ámbito de la Administración de la Generalitat
FRQWDPRV SRU ORPHQRV VLQ LQFOXLUODV DJHQFLDV \RUJDQLVPRV HVSHFt¿FRV GH ORViPELWRV GH (GXFDFLyQ \
6DOXG(VGHHVSHUDUTXHODFUHDFLyQHQDEULOGHGHOD'LUHFFLyQ*HQHUDOGH6HJXLPLHQWR\(YDOXDFLyQGH
Políticas de Estabilidad y Crecimiento, dependiente de la Secretaría de Economía y Finanzas de la Generalitat,
permita avanzar hacia una mayor coordinación en este ámbito.
17. El portal de recursos para la evaluación www.ivalua.cat contiene información detallada sobre las actividades llevadas a cabo por el instituto en el periodo 2008-2011. Pueden consultarse también en el web las
memorias anuales, así como el balance sintético Promover la evaluación de políticas públicas en Catalunya
2008-2011.
%LEOLRJUDItD
%R\OH5/HPDLUH'\5LVW5©,QWURGXFWLRQEXLOGLQJHYDOXDWLRQFDSDFLW\ª Building Effective Evaluation Capacity: Lessons from Practice7UDQVDFWLRQ3XEOLVKHUV1HZ%UXQVZLFN
&KHOLPVN\ ( ©$ &ODVK RI &XOWXUHV ,PSURYLQJ WKH ³¿W´ %HWZHHQ (YDOXDWLYH ,QGHSHQGHQFH
DQG WKH 3ROLWLFDO 5HTXLUHPHQWV RI D 'HPRFUDWLF 6RFLHW\ª American Journal of Evaluation, núm.
29, p. 400-415.
&KHOLPVN\ ( ©,QWHJUDWLQJ (YDOXDWLRQ 8QLWV ,QWR WKH 3ROLWLFDO (QYLURQPHQW RI *RYHUQPHQW
The Role of Evaluation Policy, New Directions for EvaluationQ~PS
&RRNV\/-0DUN00\7URFKLP0.©(YDOXDWLRQSROLF\DQGHYDOXDWLRQSUDFWLFHZKHUH
do we go from here», New Directions for EvaluationQ~PSS
Feinstein, O. y Zapico-Goñi, E. (2010): «Evaluation of Government Performance and Public Policies in
6SDLQª(&'Working Paper SeriesQ~P0D\,(*7KH:RUOG%DQN*URXS
)XUXER-\6DQGDKO5©$'LIIXVLRQ3HUVSHFWLYHRQ*OREDO'HYHORSPHQWVLQ(YDOXDWLRQªHQ
Furubo, J.; Rist, R. y Sandahl, R. (eds), International Atlas of Evaluation. Transaction Publishers.
Estrategias para el avance de la evaluación: la experiencia catalana a través de Ivàlua
Labin, S. [et al.] (2012): «A Research Synthesis of the Evaluation Capacity Building Literature». American Journal of Evaluation. January 2012 [version RQOLQH¿UVW; publicación prevista para mayo de
2012].
/DKH\ 5 ©7KH &DQDGLDQ 0( 6\VWHP /HVVRQV /HDUQHG IURP <HDUV RI 'HYHORSPHQWª
ECD Working Paper Series.Q~P1RYHPEHU,(*7KH:RUOG%DQN*URXS
/HHXZ )/ \ )XUXER - ©(YDOXDWLRQ 6\VWHPV :KDW DUH 7KH\ DQG :K\ 6WXG\ 7KHP"ª HQ
Evaluation. Vol 14(2), pp. 157-170.
Leeuw, F. L. (2009): «Evaluation Policy in the Netherlands», New Directions for EvaluationQ~P
pp. 87-102.
0FGDYLG-\+XVH,©:LOO(YDOXDWLRQ3URVSHULQWKH)XWXUH"ªThe Canadian Journal of Program Evaluation,9ROQ~PSS
0DFND\ . ©7KH$XVWUDOLDQ *RYHUQPHQW¶V 3HUIRUPDQFH )UDPHZRUNª ECD Working Paper
Series1R$SULO,(*:RUOG%DQN*URXS
0DUN 00 &RRNV\ /- \ 7URFKLP 0. ©(YDOXDWLRQ 3ROLF\$Q ,QWURGXFWLRQ DQG 2YHUveiw», New Directions for EvaluationQ~PSS
0DUN . \ 3IHLIIHU - 5 ©0RQLWRULQJ DQG (YDOXDWLRQ LQ WKH 8QLWHG 6WDWHV *RYHUQPHQW$Q
Overview». ECD Working Paper SeriesQ~P2FWREHU,(*7KH:RUOG%DQN*URXS
3UHVNLOO+\%R\OH6©$0XOWLGLVFLSOLQDU\0RGHORI(YDOXDWLRQ&DSDFLW\%XLOGLQJªAmerican Journal of Evaluation9RO'HFHPEHUSS
5LVW 5 ©7KH ³(´ LQ 0RQLWRULQJ DQG (YDOXDWLRQ8VLQJ (YDOXDWLYH .QRZOHGJH WR 6XSSRUW D
Results-Based Management System», From Studies to Streams.Transaction Publishers. New BrunVZLFN
6WRFNGLOO6%DL]HUPDQ0\&RPSWRQ'HGV©7RZDUGD'H¿QLWLRQRIWKH(&%3URFHVV$
Conversation with the ECB Literature», New Directions for EvaluationQ~PSS
Treasury Board of Canada Secretariat (2011): 2010 Annual Report on the Health of the Evaluation
Function.
7URFKLP:0.©(YDOXDWLRQ3ROLF\DQG(YDOXDWLRQ3UDFWLFHªNew Directions for Evaluation,
Q~PSS
86*RYHUQPHQW$FFRXQWDELOLW\2I¿FHProgram Evaluation. Experienced Agencies Follow a
Similar Model for Prioritizing Research.
Van Thiel, S. y Leew F. L. (2002): «The Performance Paradox». Public Performance Review, Vol. 25
Q~PSS
9DURQH)-DFRE6\'H:LQWHU/©3ROLW\3ROLWLFVDQG3ROLF\(YDOXDWLRQLQ%HOJLXPªEvaluation9ROSS
9LxDV9©7KH(XURSHDQ8QLRQ¶V'ULYH7RZDUGV3XEOLF3ROLF\(YDOXDWLRQ7KH&DVHRI6SDLQª
Evaluation, Vol. 15(4), pp. 459-472.
Descargar