SciELO - Scientific Electronic Library Online

 
vol.17 número48Un viaje al interior de la SociologíaLa Red Observatorios Locales de Barcelona, España: Un estudio de casos para diseñar una propuesta nacional índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Bookmark

Fermentum

versión impresa ISSN 0798-3069

Rev. Vzlana. de Soc. y Ant. v.17 n.48 Mérida abr. 2007

 

Evaluación de impacto y Misiones Sociales: una aproximación general

Carlos Aponte Blank1

1 Sociólogo, Master en Planificación del Desarrollo y Docente de postgrado en la UCAB y el CENDES Venezuela. Este artículo es una síntesis del informe entregado en septiembre de 2005 al Instituto Nacional de Estadística (INE), organismo que contrató este estudio. Las opiniones expresadas en este trabajo son de la exclusiva responsabilidad del autor.

Resumen

Este trabajo combina la revisión conceptual sobre la evaluación de impacto con una reflexión sobre las potencialidades de aplicación de ese tipo de evaluación para el estudio de las Misiones Sociales, conjunto programático prioritario para la actual gestión gubernamental. También se examinan otras posibles alternativas de análisis, seguimiento y evaluación de esas Misiones que contribuyen a visualizar los requerimientos que implica el desarrollo exitoso de las evaluaciones de impacto. Se sostiene que, aunque pueden adelantarse unas aproximaciones a los efectos de algunas de las Misiones, serán poco concluyentes si existen bases de información endebles sobre esos programas y sus características. La consolidación de esas bases informativas y la realización de algunos tipos de seguimiento y evaluación menos complejos que la evaluación de impacto, pueden ser pasos razonables que precedan a la ejecución de ese modelo evaluativo.

Palabras clave: política social, programa social, evaluación, impacto, Venezuela

Impact evaluation and social missions: a general approach

Abstract

This paper focuses on the combination of two complementary perspectives: one, on the impact assessment, and two on its possible application to evaluate the social Missions, a priority for the current Venezuelan Administration. There are also other perspectives of analysis and monitoring the Missions in order to improve the impact assessment itself. All the attempts to evaluate such a social programs depend upon the availability and reliability of the data bases that hold up the analysis. However, less complex approaches than impact assessment could be a more convenient way to initiate a more accurate evaluative model.

Key words: social policy, social programs, evaluation, impact assessment, Venezuela

1. Introducción

Este artículo está estructurado en dos partes. En la primera se realiza una aproximación conceptual a la evaluación de impacto, para aclarar el significado y características básicas de ese tipo de evaluación antes de explorar las posibilidades y limitaciones que tiene su aplicación en el caso de las Misiones.

La segunda parte trata, de un modo genérico, el vínculo que puede establecerse entre ese tipo de evaluación y las Misiones Sociales, conjunto programático instrumentado por el gobierno venezolano desde el 2003. La reflexión alrededor de algunas de esas Misiones (Barrio Adentro 1; Robinson 1 y 2; Ribas; Sucre; y Mercal) tiene, en el marco de este informe, un propósito exploratorio. Se pretende ofrecer una primera idea sobre la pertinencia de evaluar el impacto de las Misiones; los tipos de evaluación de impacto que sería factible instrumentar; los requerimientos previos y generales que tendría esa actividad evaluativa para desarrollarse exitosamente; y, algunos indicadores que pueden asociarse con el estudio del impacto de las Misiones, que en este caso por razones de espacio centraremos en Barrio Adentro 1.2

La condición exploratoria de esta aproximación se explica también porque el diseño de una evaluación de impacto debe adecuarse a las características y posibilidades que brinde cada proyecto o programa social (en este caso cada Misión) cuyos efectos netos pretendan examinarse, requisito que se subraya en este trabajo y que trasciende los límites previstos.

2. Evaluación de impacto: una aproximación conceptual

2.1. El impacto y su evaluación: definiciones generales

En las pasadas décadas y sobre todo desde los años noventa, se ha hecho común la preocupación en círculos académicos, institucionales y políticos acerca del impacto de las políticas y programas públicos, sean estos económicos, ambientales, institucionales o sociales. En este último caso, la problematización ha sido particularmente acentuada y se ha referido, tanto al impacto social de políticas o programas públicos, como al impacto de programas o políticas sociales. Es sobre estos tipos de impacto, y en especial sobre el último de los mencionados, en los que se concentrará el abordaje conceptual que exponemos a continuación.

La definición más frecuente y aceptada de impacto social y/o de impacto de los programas y políticas sociales, está relacionada con los efectos netos que tiene una intervención social en una población determinada. En el caso de los proyectos y programas sociales específicos (como las Misiones) se valora, especialmente, el efecto neto que tienen en la población beneficiaria, usuaria o participante (véanse Cohen y Franco, 1988; Castro y Cháves, 1994; Cohen et al., 1998; SIEMPRO, 1999; BM, 2000).

Con la determinación de los efectos netos se pretende identificar y «aislar» los cambios (favorables o no, esperados e inesperados, directos e indirectos) en las condiciones de vida de una población, que son específicamente atribuibles a un programa o política determinados. Ello los distingue de los efectos «brutos» en esas condiciones de vida, producidos por una multiplicidad de factores, además y aparte del programa o política social que se examina.

Por evaluación de impacto se entiende en sentido estricto el estudio exhaustivo, sistemático y riguroso de esos efectos netos. Esta evaluación, al determinar estos efectos propios de un programa o política permite saber, también, qué habría ocurrido en las condiciones de vida de la población en ausencia de dicho programa. Por ello se dice que este tipo de evaluación es un estudio eminentemente contrafactual (BM, 2000).

En medio de variaciones menores, distintas definiciones sobre la evaluación de impacto apuntan en el sentido antes indicado, como puede verse en los ejemplos siguientes:

«(…) entendemos por evaluación de impacto de un proyecto social al proceso de identificación, análisis y explicación de los cambios o modificaciones que, en función de un problema social, se hayan producido en las condiciones sociales de la población-objetivo y en su contexto, como consecuencia de la aplicación del proyecto que se evalúa» (Castro y Cháves, 1994:13).

«La evaluación de impacto mide los cambios en el bienestar de los individuos que pueden ser atribuidos a un programa o política específica y sus objetivos son proveer información y ayudar a mejorar su eficacia» (Sandoval y Paz, 2003:7).

«(…) la evaluación del impacto tiene el objeto de determinar (…) si el programa produjo los efectos deseados en las personas, hogares e instituciones y si esos efectos son atribuibles a la intervención del programa. Las evaluaciones de impacto permiten examinar las consecuencias no previstas en los beneficiarios, ya sean positivas o negativas» (BM, 2000:1).

La relevancia que se atribuye a la evaluación de impacto se debe a que permite reflexionar sistemática y fundamentadamente acerca de si un programa social está cumpliendo con los propósitos esenciales para los que fue creado, propósitos que normalmente están referidos a determinadas mejoras en las condiciones de vida de la población a la que está destinado. Es por ello que algunos autores la consideran vital para determinar simplemente si un programa social sirve o no (Cohen et al., 2001).

La práctica de la evaluación de impacto ha sido mucho menos común en los países latinoamericanos y en Venezuela de lo que sería de esperar de acuerdo a la elevada valoración discursiva que se le asigna. La complejidad técnica e informativa que la caracteriza, las resistencias por parte de los programas a ser evaluados, y el tiempo y recursos financieros que implica su realización, son parte de los factores que han creado esa disociada combinación entre, una frecuente preocupación por el impacto, y una escasa instrumentación de evaluaciones rigurosas para examinarlo.

2.2. La evaluación de impacto, en sentido estricto: características básicas

Tradicionalmente, la evaluación de impacto exhaustiva de programas sociales, es decir, la evaluación de impacto en sentido estricto, ha sido realizada a través de tres modalidades básicas (sobre lo expuesto véanse: SIEMPRO, 1999; Cohen y Franco, 1988 y, complementariamente, BM, 2000):

• Experimental clásica.

• Cuasi-experimental.

• No experimental.

Existen algunas características comunes entre estos 3 modelos:

• Para todos estos modelos la determinación de los efectos netos constituye el propósito central de la evaluación y todos ellos la conciben como un proceso sumamente complejo, si se pretende obtener resultados concluyentes.

• Todos esos modelos suponen la identificación de una «línea-base», que está referida a las principales características de la población-objetivo «sin o antes» de instrumentarse

el programa, en relación con las variables e indicadores del problema que el programa aspira cambiar. Esa línea de base servirá para la comparación con la situación de la población «con o después» de haberse instrumentado el programa.

Pero, por otro lado, hay varias diferenciaciones fundamentales entre esos 3 modelos (SIEMPRO, 1999:88-89; BM, 2000):

• El modelo experimental requiere contar con la información de la línea-base antes de la ejecución del programa. El cuasi-experimental y el «no-experimental» pueden reconstruirla después de iniciada la implementación. Esta reconstrucción es técnicamente complicada, pero es fundamental si se quieren brindar resultados confiables acerca del impacto del programa.

• Los modelos experimental y cuasi-experimental deben contar con un grupo control para las comparaciones con el grupo beneficiario/participante en el programa. Esa comparación permite determinar los efectos propios atribuibles al programa. En el caso del modelo experimental ese grupo se escoge «aleatoriamente» antes de iniciarse el programa, con miras a que la única diferencia observable o no observable de los grupos a comparar, sea la de su acceso al programa que se evalúa, antes y después de su ejecución. En cuanto al «cuasi-experimental» se construye un grupo de comparación con las mayores similitudes posibles con respecto a las características observables de la población beneficiaria, mediante complejas técnicas metodológicas, estadísticas y/o econométricas. El modelo «no experimental» puede trabajar solamente con la población-objetivo del programa, intentando reconstruir sus características antes de la ejecución o a partir de determinado momento de la instrumentación del programa; pero la carencia del grupo de contraste puede relativizar la consistencia de sus hallazgos.

• Los 2 primeros modelos brindan resultados más concluyentes acerca del impacto del programa, pero son menos viables que el no experimental. Este último se presta a distintos sesgos, como el «proyectivo», puesto que la condición de la población se proyecta a partir de antecedentes o según escenarios no fácticos que son particularmente debatibles ante la ausencia de un grupo de control para la comparación.

Existe una diversidad de características complementarias y más puntuales que pueden plantearse acerca de estos modelos de evaluación de impacto que son tratadas con detalle en una variada literatura, como la que se incluye como fuente de información de este trabajo.

Pero las mismas pueden tener una relevancia menor al referirnos a la posible evaluación de impacto de las Misiones Sociales. De acuerdo con la información a la que hemos accedido, en ninguna de ellas se planteó una evaluación exante sobre su impacto por lo que, en función de lo antes establecido, la posibilidad de desarrollar una evaluación exhaustiva se referiría, básicamente, a sus modalidades cuasi-experimental y no experimentales.3Luego, las complejidades de la evaluación cuasi-experimental y la probable escasez de recursos profesionales y técnicos especializados en la instrumentación de esta modalidad evaluativa, pueden dificultar su realización.4 La pertinencia de adelantar ese modelo o el «no experimental» dependerá, en todo caso, de los diseños específicos que se prevean para la evaluación de cada programa o proyecto.

Al respecto es importante destacar la relevancia que tiene un buen diseño de la evaluación de impacto de cada programa, como precondición para su rigurosidad y para su éxito, independientemente de la modalidad de la que se trate. «(…) El diseño de cada evaluación de impacto será único y dependerá de factores como el tipo de datos disponibles, la capacidad local y aspectos presupuestarios y de secuencia cronológica. (…)» BM, 2000 estableciéndose la selección de metodologías adecuadas para cada caso (Ibíd.:9).

Por la complejidad que se le atribuye a la evaluación estricta del impacto, lo primero que se recomienda cuando se plantea la posibilidad de emprenderla es que se sea muy selectivo y que se reflexione sistemáticamente acerca de si debe efectuarse (BM, 2000:17; BM, 2003). Al respecto Sandoval y Paz (2003) plantean que: «Las evaluaciones de impacto requieren una gran cantidad de información, tiempo y recursos. Por esta razón, es importante seleccionar las acciones públicas que se evaluarán» (p. 7). Pero también, ante la complejidad de las evaluaciones exhaustivas, se han ido abriendo definiciones y alternativas más flexibles y variadas alrededor de la evaluación de impacto de los programas sociales, a las que aludiremos en el siguiente punto.5

2.3. La evaluación de impacto como proceso y sus prerrequisitos

La dificultad de evaluar los efectos netos de un programa no sólo ha conducido a plantear modelos aproximativos como el no-experimental, también a llevado a considerar a la evaluación exhaustiva como una de las alternativas en el proceso de estudio sobre los efectos de los programas, proceso que puede visualizarse como «incremental» y «adaptativo.» Muchos programas nacen sin evaluación exante (requisito del modelo experimental) y sin información sobre la línea-base (lo que representa un problema aún para un modelo no experimental). Ante este tipo de hechos, la evaluación de impacto ha intentado concebirse con una mayor flexibilidad y amplitud para crear alternativas «válidas» y más viables, en el corto plazo:

• El BID (1997:74) abre un poco el panorama, al asociar el impacto con el propósito y fin de un programa o política, aunque sigue destacando la complejidad de su evaluación.

• Cohen, et al. (1998), así como Castro y Cháves (1994), vinculan la evaluación de impacto con la identificación de objetivos e indicadores de impacto, planteando alternativas prácticas para su construcción o reconstrucción, que incluyen la participación de los «involucrados» y beneficiarios de los programas.

• En particular estos últimos autores y SIEMPRO (1999) proponen herramientas prácticas (como los árboles de problemas y los modelos causa-efecto) como recursos para orientar la exploración de los impactos o de los «efectos razonadamente atribuibles» a un programa (Aponte, 2000), alternativa que se aproxima a la variante no experimental de evaluación de impacto.

• El Banco Mundial (2003) valora crecientemente las evaluaciones de impacto «intermedias», durante la ejecución, asociables también con las variantes no experimentales y con la evaluación de aquellos resultados (cumplimiento de objetivos básicos) del programa que inciden en su población-objetivo (SIEMPRO, 1999).

Como adelantamos previamente, el Banco Mundial (2003) subraya que no siempre la evaluación de impacto es la mejor alternativa de evaluación de un programa o política y que, en ocasiones, ella puede concluir en fracasos si no se cumplen algunos prerrequisitos fundamentales.6 Por ello ese organismo enfatiza que, antes de adelantar una evaluación exhaustiva de impacto, se debe considerar:

• Si el programa es viable y sostenible.

• El tiempo disponible, en función de la urgencia y del apoyo real de los decisores hacia este tipo de evaluación.

• Si existe capacidad institucional y técnica para desarrollarla, dada la elevada experticia que supone.

• Si existe la información mínima disponible para emprenderla.7

• A ello puede agregarse (Aponte, 1999) que debe considerarse: si el programa es homogéneo o heterogéneo en sus prestaciones/productos (lo segundo es más complejo, por ejemplo, la Misión Vuelvan Caras); si sus beneficiarios son o no institucionalizados (lo segundo puede ser más complejo, por ejemplo, la Misión MERCAL); si la información, la trayectoria de (sub-)planificación, la cultura institucional y el equipamiento tecnológico del programa favorecen su evaluación y la obtención de información; si los decisores están efectivamente dispuestos a participar, a asumir los costos financieros, y a esperar la maduración de resultados del programa que puede requerirse, en algunos casos, para examinar válidamente su impacto (dada la primacía que comúnmente se asigna al análisis «expost» o, al menos, al cumplimiento de una trayectoria mínima de ejecución para obtener evaluaciones de impacto concluyentes).

En suma, no debe sobredimensionarse la «gravedad» de realizar no una evaluación de impacto porque ella «(…) es una tarea intensiva en términos de datos y del tiempo, en relación con otras formas de evaluación y a menudo solamente puede realizarse (...)» después de que la política o programa tengan una trayectoria de aplicación (BM, 2003:37). La urgencia y exclusividad que a veces se le atribuye a ese tipo de evaluación puede ser, entonces, un inapropiado prejuicio.

El interés de las opiniones del Banco Mundial, debido a su prolongada experiencia con las evaluaciones de impacto, merece que nos detengamos en sus consideraciones con respecto a esa experiencia (BM, 2003):

• Si el tiempo, disponibilidad de datos y «capacidad» institucional, entre otras razones, escasean: «(…) es posible que el análisis deba utilizar instrumentos y métodos más sencillos a corto plazo. En estos casos, es necesario establecer un plan de acción que solidifique los datos y la capacidad para que el análisis sea más robusto en el futuro» (p. 22).

• La evaluación o análisis de impacto es un «(...) proceso dinámico para formular y ajustar la política basado en un incremento de los conocimientos. (...Por ello es…) importante establecer una estrategia para reunir los datos necesarios que mejoren las bases de análisis más profundos y futuros (exante y expost) de la pobreza y de los impactos de la política» (p. 20).

• Se puede adaptar el enfoque del análisis «a los datos disponibles», realizando un análisis «expeditivo», sobre todo si la acción política es urgente y el tiempo para completar datos es muy limitado (p. 19)

• En fin, es fundamental considerar el tipo de análisis que es viable ante determinadas limitaciones (p. 46), y es primordial mantener la flexibilidad acerca de los instrumentos y métodos que puedan usarse.

Uno de los requerimientos básicos en este proceso de análisis «abierto», es fortalecer las bases informativas sobre los programas. No es malo «empezar por el comienzo», en relación con asuntos tan fundamentales como: la cobertura; las características de los beneficiarios; y los registros sobre los productos entregados por los programas que se quieren analizar. En Venezuela frecuentemente estas bases informativas son endebles (Aponte, 1999).

La preocupación por el impacto que es por demás una preocupación relevante y válida no va a producir evaluaciones exhaustivas por milagro. La visión de la evaluación o del estudio de los efectos de un programa como un proceso flexible, abierto y adaptativo, permite concebir productos graduales que puedan generar, en el futuro, evaluaciones exhaustivas exitosas sobre el impacto de determinados programas.

Asumir esa visión no implica la inacción sino que la acción se oriente adecuadamente, fijando productos prioritarios por etapas. Existe una rica gama de metodologías e indicadores cuantitativos y cualitativos disponibles por sectores para esos estudios por etapas (BM, 2003; SIEMPRO, 1999; BID, 1997), y también diversos tipos de estudio y evaluación que pueden irse adelantando con respecto a cada programa y que pueden representar bases para un proceso de construcción gradual de conocimientos que aproxime hacia la evaluación de impacto en un futuro que puede ser más o menos próximo, según el caso. Estos avances pueden resultar, en sí mismos, de sumo valor para mejorar el desempeño y funcionamiento de esos programas sociales.

2.4. Metodologías cuantitativas y cualitativas en la evaluación de impacto

La importancia que le asigna la tradición de la evaluación de impacto a las metodologías cuantitativas (cuyos instrumentos más típicos son las encuestas y otros recursos estadísticos), puede haber generado la idea de que esa evaluación se contrapone al uso de metodologías cualitativas.

Sin duda, la relevancia que se atribuye a la posibilidad de establecer un «cálculo» sobre los efectos netos de los programas, hace que las metodologías cuantitativas se consideren generalmente como un componente necesario de las evaluaciones de impacto.

Pero, tal y como ha venido ocurriendo en el conjunto de las ciencias sociales en los últimos lustros (Corbetta, 2003; Martínez, 2004), la combinación de esas metodologías con las cualitativas y la consideración de sus resultados (no siempre compatibles) como parte de la evaluación de impacto ha adquirido un uso y una legitimidad cada vez mayores. Nuevamente en este caso las referencias que plantea el Banco Mundial tienen mucho interés por la trayectoria de ese organismo con respecto a este enfoque evaluativo. Esa organización plantea lo siguiente (BM, 2000):

• «(…) Puesto que medir el escenario contrafactual (...lo que habría ocurrido en la población-objetivo sin el programa que se examina… n. de r.) es esencial para las técnicas de análisis de efectos, los diseños cualitativos se han usado en conjunto con otras técnicas de evaluación» (p. 8) como las cuantitativas.

• La combinación «(…) de las evaluaciones cuantitativas y cualitativas con frecuencia puede ser el mejor vehículo para satisfacer las necesidades de un proyecto. Al combinar los dos enfoques, los métodos cualitativos se pueden usar para informar las preguntas clave sobre la evaluación de impacto, examinar el cuestionario o la estratificación de la muestra cuantitativa y analizar el marco social, económico y político dentro del cual se lleva a cabo un proyecto» (p. 9).

• Los métodos y las técnicas cualitativas y participativas «(…) con frecuencia proporcionan información decisiva sobre las perspectivas de los beneficiarios, el valor que los programas revisten para éstos, los procesos que pueden haber afectado los resultados y una interpretación más profunda de los resultados observados en el análisis cuantitativo» (p. 2)

• «(…) Los métodos cualitativos y, en particular, la observación de los participantes, pueden proporcionar información decisiva sobre las formas en que los hogares y las comunidades locales perciben un proyecto y cómo se ven afectados por éste» (p. 8).

• «(…) Los informes de encuestas a menudo incluyen referencias a aparentes incoherencias en los resultados o a diferencias interesantes entre las comunidades o grupos que no se pueden explicar con los datos. (…) La mayor flexibilidad de la investigación cualitativa significa que a menudo es posible regresar al terreno a reunir datos adicionales» (pp. 9-10) oportunidad que no brindan las encuestas con tanta facilidad.

Ese tipo de consideraciones hace que la evaluación de impacto use crecientemente, junto con las herramientas «cuantitativas» como las encuestas y los registros y sistemas estadísticos tradicionales, las herramientas «cualitativas» como las entrevistas semi-estructuradas o abiertas, diversas modalidades de observación participante, los registros obtenidos de grupos focales y hasta variantes de las «historias de vida». Este hecho, importante en sí mismo, lo es también a la hora de apreciar el tipo de indicadores que pueden valorarse como parte del sistema de información de un programa que sea objeto de evaluaciones de impacto, asunto al que nos referiremos en la segunda parte de este artículo.

3. La evaluación de impacto y las misiones sociales: una visión global

3.1. La evaluación de las Misiones y su evaluación de impacto

Las Misiones Sociales son susceptibles de evaluaciones de impacto exploratorias o «intermedias» (durante la ejecución) y hasta de evaluaciones exhaustivas aunque, en principio, en función de las definiciones antes expuestas, estas se corresponderían con sus variantes «cuasi-experimentales» o «no experimentales», dependiendo del caso.

Con la posible excepción de la Misión Mercal8 y de la Misión Vuelvan Caras9, en los casos de otras Misiones, como Barrio Adentro 1 o como las Misiones Educativas (Robinson 1 y 2, Ribas y Sucre), la decisión de emprender evaluaciones de impacto para programas tan relevantes como las Misiones es, a todas luces, una opción razonable.

Pero, es importante subrayar que se requiere de diseños particulares para la evaluación de cada uno de esos programas y que el tiempo de su instrumentación es una de las materias que debe definirse como parte de esos diseños. Y también debe reiterarse y destacarse que existen requerimientos previos a una evaluación de impacto que es conveniente, cuando no imprescindible, cubrir antes de ejecutar ese tipo de investigación. Insistimos en 2.3., en que existen diversos medios para ir generando análisis y evaluaciones que se aproximen a los efectos razonadamente atribuibles a cada programa. También apuntamos que la evaluación de impacto es sólo uno de los tipos evaluativos que se pueden generar, tratándose, de hecho, de una de las alternativas más exigentes, en información, recursos y tiempo.

Como sugerimos, la evaluación de un programa puede ser vista como un proceso que, en ausencia de su instrumentación explícita desde la fase de planificación (SIEMPRO, 1999) como ha ocurrido con las

Misiones, puede ser sin embargo incorporada durante el proceso de ejecución para distintos propósitos, como los siguientes:

• Reexaminar y reconstruir conceptualmente la propia planificación de un programa.

• Instrumentar su seguimiento o monitoreo, creando las bases de sus indicadores de desempeño.

• Proceder a evaluaciones diagnósticas, entendiéndolas como aquellas que permiten detectar problemas relevantes en la gestión de un programa.

• Generar evaluaciones desde la perspectiva de los beneficiarios que permitan explorar la percepción y potencialidades que estos le atribuyen a determinado programa.

• Producir estudios de costo-efectividad o costo-impacto de ciertos programas, en los casos en los que ello pueda estar planteado y en los que una información presupuestaria consistente y confiable esté disponible.

• Y, como parte de ese conjunto de iniciativas, puede contemplarse la evaluación de impacto propiamente dicha, como una de las alternativas de investigación programática.

La combinación de esos tipos de seguimiento y evaluación que destaca especialmente SIEMPRO (1999) está incluida entre los medios que identifica el Banco Mundial (2003) al referirse a la evaluación global de programas y políticas, evaluación que debe irse instrumentado gradualmente en el caso de cada programa, de acuerdo con sus características y con las posibilidades que ofrezcan los avances de su estudio.

Generalmente, se espera que la evaluación de impacto se nutra con algunos de los productos de seguimiento y evaluación antes identificados y que, frecuentemente, le preceden en el tiempo a menos que su diseño se haya correspondido con el modelo experimental, lo que no ocurre con ninguna de las Misiones antes mencionadas. Y esa interrelación de la evaluación de impacto con esas otras alternativas de estudio es comprensible por varias razones:

• Una evaluación de impacto requiere para su propio diseño que la caracterización e información sobre la ejecución física de un programa (en dimensiones tan básicas como la cobertura y los productos brindados) sea satisfactoria, sin lo cual ese diseño carecería de unos fundamentos que son primordiales. En varias de las Misiones esta información parece presentar limitaciones.

• La propia revisión de la planificación como la adelantada por la FEGS (2005) con algunas Misiones resulta un paso inicial de sumo valor para poder orientarse en lo que son los principales objetivos de impacto atribuibles a cada programa. Por la urgencia con la que se instrumentaron varias de las Misiones es comprensible que hayan mostrado carencias en esa programación.

• Si hay programas en los que se advierten problemas de funcionamiento significativos y más o menos evidentes, puede ser mejor comenzar por evaluaciones diagnósticas que precisen las características de tales problemas y que sugieran medidas de solución10, y/o por una combinación de aquellas con evaluaciones desde la perspectiva de los beneficiarios, antes que plantearse evaluaciones de impacto cuyos resultados se verían necesariamente afectados por esas posibles deficiencias.

Es importante insistir en esto último. El impacto de cualquier programa puede verse afectado, de manera más o menos severa, por:

• Deficiencias en dimensiones de su diseño que, sin tener que poner en cuestión su orientación central o su razón de ser, sí pueden afectar su funcionamiento.

• Y/o por deficiencias organizacionales (en cuanto a recursos gerenciales, humanos, técnicos, institucionales o en los procesos y modalidades de gestión) que afectan el desempeño del programa.

Una evaluación de impacto podría verse negativamente interferida por ese tipo de carencias que, en principio, si son remediadas, podrían ofrecer resultados más concluyentes sobre el impacto potencial de dicho programa. En suma, hay diversos tipos de acciones investigativas y estadísticas preparatorias que podrían representar aportes fundamentales para una puesta a punto de la información programática que permita diseñar evaluaciones de impacto exhaustivas y exitosas para varias de las Misiones Sociales.

3.2. Los indicadores y la evaluación de impacto de las Misiones

Lo primero que debemos apuntar cuando abordamos este punto, es que sólo tendencialmente podemos identificar indicadores de impacto que sean independientes de la evaluación de impacto misma. Ello se debe a que puede esperarse que, generalmente, los valores que adquieran los indicadores que se consideren estratégicos para estimar el impacto de un programa, sean influidos por factores distintos a los proyectos/programas que se evalúan. Puede pre-estimarse, después de haberse realizado una primera evaluación de impacto, el grado en que un programa haya incidido en los cambios del valor de un indicador que se asocie con sus efectos en un momento determinado; pero, esa incidencia podría variar de un modo más o menos sustancial en circunstancias distintas. Es por ello que aunque por claridad expositiva hablaremos de indicadores «de impacto», en sentido estricto se trata de indicadores estratégicos para estimar el impacto. Para identificar de modo preliminar ese tipo de indicador podemos, acudiendo a Cohen et al. (1998) y a Castro y Cháves (1994), relacionar el impacto principal de un programa con los más importantes cambios esperados en la situación de su población-objetivo como efecto de su instrumentación. Según estos autores, la reflexión sistemática sobre el  problema central en que busca afrontar un programa, problema que afecta a una población determinada, y la construcción del árbol causal que la produce, puede brindar buenas bases para la identificación de su objetivo central en términos de la modificación de dicho problema, objetivo que, así planteado, puede relacionarse con determinados indicadores básicos en términos de impacto.

No pretendemos trabajar esa perspectiva de manera exhaustiva en este artículo, lo que desbordaría claramente sus alcances. Pero sí podemos plantearnos una aproximación general y preliminar a lo que podrían definirse como los objetivos centrales de impacto de algunas de las Misiones y lo que podrían ser algunos indicadores estratégicos para pre-estimar su impacto.

Varios de los indicadores, antes expuestos, cumplen el papel de señales potenciales de logro o alerta sobre los rumbos de un programa en materia de impacto, aunque su posibilidad de desempeñar efectivamente ese papel dependerá de las características de la cobertura del programa y de las características de la información disponible sobre el indicador. Abordar algunos ejemplos puede ser de interés para comprender estas ideas.

La Misión Barrio Adentro es un programa al que puede asignarse un papel fundamental en la mejora de la Atención Primaria en Salud y, como parte de ello, en la promoción de mecanismos comunitarios de prevención en salud. Barrio Adentro se ha propuesto cubrir, que de acuerdo con los Registros Administrativos en buena medida lo ha hecho, la totalidad de las zonas en las que habita la población de recursos socioeconómicos más escasos que es, también, la población con mayores afecciones de salud por causas prevenibles. Dada esa cobertura es de esperar que un impacto central de la Misión sea la mejora de las condiciones «primarias» de salud de esa población y, en particular, la disminución de la incidencia de enfermedades y muertes por causas prevenibles, especialmente entre los niños de menos de 1 y/o de menos de 5 años.

Las tasas de mortalidad y morbilidad de la población, especialmente las infantiles, podrían dar entonces importantes indicios sobre los efectos del programa. Si estas tasas no muestran mejorías, especialmente a partir del 2005, podría estarse ante una señal de alerta sobre la posible ineficacia del programa para lograr su impacto. Sin embargo, una diversidad de razones (como por ejemplo, desastres naturales extendidos, la reactivación de la crisis económica o desmejoras en medidas sanitarias, entre otras) podrían tener una influencia más o menos decisiva en esa desmejora.

En contraste, si el valor de esas tasas se reduce, ello podría ser una señal potencial de los efectos positivos de la Misión. Sin embargo, estos efectos también podrían responder, en mayor o menor medida, a la incidencia favorable de otros factores extra-programáticos, como las mejoras en el nivel educativo de las madres o en los sistemas de saneamiento y acceso al agua potable, a los que algunos investigadores le atribuyen tanta o más relevancia que a la propia mejora de los sistemas de atención en salud en la disminución del valor de esas tasas.

Por ello, como decíamos al comienzo de este punto, ese indicador potencial de impacto debería ser objeto de estudios complementarios para poder determinar los efectos netos atribuibles al programa.

En el caso de la Misión Robinson I es evidente que debe esperarse, como uno de sus impactos básicos, la reducción de la tasa de analfabetismo. Pero esta tasa no es un indicador plenamente confiable en sus mediciones tradicionales, como las que reporta la Encuesta de Hogares por Muestreo, puesto que se basa en la simple consulta a la población sobre su nivel educativo y sobre su condición en materia de alfabetismo. Por distintas razones las respuestas de los encuestados pueden estar sesgadas.

La realización de pruebas de escritura, podía brindar una información más sistemática sobre el analfabetismo y sus variantes. Pero, los hallazgos no resultarán concluyentes en materia de impacto si no logran determinarse o reconstruirse las características de la línea-base, antes de instrumentarse esta Misión que alcanzó una cobertura poblacional significativa.

En todo caso, la Misión fue ajustando durante su proceso de ejecución, algunos de sus objetivos, algunas de sus metas y evidenció las características diferenciadas de la población que atendía. De la erradicación total del analfabetismo pasó a identificar su meta con el logro de una tasa de alfabetización de más del 96% de la población venezolana, en consonancia con los criterios técnicos de organismos internacionales como la UNESCO a ese respecto, criterios que atienden especialmente a las fuertes reticencias formativas de una parte de la población de mayor edad.

La incorporación de una población con carencias funcionales en materia de alfabetismo, pero que no era plenamente analfabeta11 es una característica de esta Misión que debe ser valo

rada, especialmente si esta incorporación permite avances en otras dimensiones educativas o participativas y si incide en la autoestima. Aunque posiblemente esta población no se previó como una parte tan significativa de la población-objetivo de esta Misión, el desarrollo de su ejecución pudo tener un efecto inesperado que permite redefinir su objetivo central relacionándolo con la población educativamente excluida y no sólo con la analfabeta «pura», tal y como se plantea en el Cuadro anterior.

En el caso de MERCAL, consideramos especialmente útil la desagregación de su objetivo central de impacto social.12 Y, además, intentamos diferenciar el tipo de evaluación que puede ser pertinente según algunos de los diferenciados medios de distribución de bienes que instrumenta, según subtipos de población-objetivo.13 Para el Mercal general y para el Mercal-Protección, el objetivo de impacto de la Misión podría definirse en función de la mejora del poder de compra de la población especialmente en materia alimentaria que podría investigarse

combinando una encuesta de consumo bien estructurada, con un reprocesamiento de fuentes de información preexistentes sobre el consumo de determinados bienes por estrato socioeconómico. Esto podría brindar una muy buena aproximación a los efectos del programa y a lo que habría ocurrido en ausencia de esa Misión. Sin recurrir a un estudio fáctico exhaustivo, podría establecerse una aproximación al impacto nutricional, partiendo de estimaciones que relacionen ese poder de compra con los aportes nutricionales potenciales derivados.

Pero, podría discutirse si el aumento del poder de compra es el impacto significativo que puede atribuirse a esta Misión o si, en cambio, ese impacto debe asociarse con la mejora de la condición nutricional de la población y verificarse mediante un estudio directo de ella. Este estudio supondría complejos procesos de reconstrucción de la línea-base y difíciles estimaciones sobre el peso particular que podría asignarse al Mercal en esa mejora, puesto que una gran diversidad de factores (evolución del empleo y del ingreso; aporte de otros programas o Misiones, etc.) podría incidir en la evolución de esa condición nutricional.

Tal vez si se pretendiera cubrir la evaluación del Mercal no sólo en relación con los efectos de la red general de abastecimiento y venta (Superpercales, Módulos tipo 1 y 2, Mercalitos y Mercalitos móviles) sino también con respecto a sub-programas de entrega gratuita de alimentos, como el Mercal-máxima Protección y, sobre todo, las Casas de Alimentación Comunitaria, debería plantearse una evaluación de dos tipos: en cuanto a la compra de productos en Mercal, el impacto podría ser explorado en relación con el poder de compra, en tanto que con respecto al suministro gratuito de alimentos (coordinado por el PROAL), muy probablemente se requeriría de estudios nutricionales directos, aunque esto debería ser muy bien pensado antes de dar inicio a un tipo de evaluación que podría resultar muy compleja y ser, tal vez, poco concluyente. En un caso como el del Mercal podría resultar de sumo interés

la realización de un análisis de costo-impacto o costo-efectividad, aunque tratándose de un programa comunicacional y políticamente exitoso, es posible que los decisores no tengan demasiado interés en examinar alternativas de intervención que podrían resultar de más bajo costo aunque de similar o superior impacto. El sólo interés técnico en ese análisis no sería una base suficiente para adentrarse en este tipo de estudio desde un punto de vista institucional.

En el caso de varias de las Misiones que ejemplificamos (Barrio Adentro 1, Robinson 1 y 2, y Ribas) incluimos unos indicadores «poco tradicionales» como los referidos a dimensiones participativas (los Comités de Salud) o los referidos a la autoestima de los participantes en el programa. La inclusión de estos indicadores es particularmente pertinente para aludir al papel de los indicadores «cualitativos» y, también sirve para dejar en claro que los objetivos de impacto no se reducen al sólo objetivo central de un programa sino que pueden estar vinculados con todos aquellos objetivos a los que se pueda atribuir una incidencia significativa en las condiciones de vida de la población. Pero acerca de este tipo de indicadores nos detendremos en el punto 3.4. del escrito.

En suma, con base en ejemplos como los comentados, podemos decir que no deben precipitarse conclusiones sobre el impacto de las Misiones con base en indicadores como los expuestos porque, más allá de la importante repercusión positiva que muchas de ellas han tenido en los respaldos políticos hacia la gestión gubernamental, los balances de impacto sean estos favorables o no podrían ser poco concluyentes y poco creíbles, desde el punto de vista técnico. Como este punto de vista es vital cuando se plantea una evaluación de impacto, es fundamental que exista la posibilidad de desarrollarla adecuadamente, avanzando en la investigación de las Misiones por etapas.

3.3. Los indicadores «de impacto» y los indicadores de gestión programática

La relación entre los indicadores de impacto y los demás indicadores de gestión programática, está estrechamente asociada con la relación que puede establecerse entre la evaluación de impacto y otros tipos de evaluación de un programa, tal y como la planteamos en 3.1.

Difícilmente los indicadores de impacto de un programa puedan aislarse con respecto a otros asociados con su gestión y desempeño. La cobertura poblacional de un programa, el grado de correspondencia de la población efectivamente atendida con la población-objetivo prevista o el presupuesto efectivamente disponible, por sólo citar algunos de los casos más obvios, son parte de los registros de gestión programática que necesariamente condicionan los alcances y características del impacto de un programa. Con respecto a esos indicadores de gestión programática existe una gran variedad de clasificaciones posibles, como las que se exponen en el Cuadro 2.

Cuadro No. 2

Clasificaciones de los indicadores  de gestión de programas sociales

 

El Banco Mundial (2000:188-192) distingue entre indicadores: de impacto general; de impacto intermedio; de intervención; y contextuales (indicadores de factores que afectan los resultados).

El BID (1997) relaciona los indicadores con la construcción o reconslrucción del marco lógico del programa. modelo de planificación que permite diferenciar entre: indicadores de impacto general. asociados con el fin del programa; indicadores de impacto final. relacionados con su propósito; indicadores de los componentes; e indicadores de las actividades.

Sandoval y Paz (2003) ampl1an el marco de las clasificaciones al contemplar las distinciones de los tipos de indicadores según: el tipo de áreas de intervención: educativos. de salud; etc .. ; la condición objetiva o subjetiva del indicador; su definición positiva o negativa (alfabetismo o analfabetismo. por ejemplo); su condición absoluta (% de analfabetas) o relativa (como eIIOH. Indice de comparación y posicionamiento entre naciones); su condición simple (como el registro del No. total de beneficiarios) o combinada (como el grado o porcentaje de cumplimiento de delerminado objetivo, que supone combinar lo ejecutado con lo programado).

SIEMPRO (1999) diferencia entre indicadores de proceso (fuertemente asociados con el cumplimiento de actividades y el seguimiento de la ejecución presupuestaria); de produc1o (principalmente relacionados con las prestaciones. bienes y servicios brindados por el programa); de resultado (principalmente relacionados con el cumplimiento de los objetivos y metas intermedias relacionadas con la población-objetivo); y de impacto.

elES (1998) propone una clasificación que prioriza la relevancia de contar con indicadores básicos de ejecución flsicolprogramática y de ejecución financiera como parte de un proceso de construcción de sistemas de seguimiento y evaluación confiables.

Inspirados en esa última orientación estimamos que. más allá de los méritos de clasificaciones como las expuestas. existe una primera tarea que remite al establecimiento de prioridades en la construcción de indicadores básicos. hacia la que apunta el trabajo adelantado por la FEGS, y que implica desarrollar la identificación de indicadores de gestión en materia de ejecución programálica y de fuentes de información confiables y pertinentes para cubrirlos.

Esta es una tarea prioritaria que debe ser coordinada en el marco del seguimiento y evaluación de las Misiones y que. más allá de la calidad de la información disponible. supone que se cuente con indicadores básicos de ejecución programática sobre:

·Los beneficiarios y sus caracterlsticas y los resultados del programa asociados con ellos.

·Los principales productos. beneficios o prestaciones que ofrece el programa, tanto ell cantidad como en calidad.

·Los recursos no financieros (infraestructurales. humanos. de equ'pamiento).

·Los recursos financieros con los que cuenta.

Esos indicadores básicos o mlnimos. nutridos por una información confiable y cuya calidad pueda ser objeto de validación, son el punto de partida para avanzar hacia sistemas de información, seguimiento y evaluación más complejos sobre las Misiones. Sin contar con sólidas bases en materias tan fundamentales. cualquier combinación de los indicadores de ejecución con otros. como los de planificación, puede ser discutible. Por ejemplo. en determinado momento se planteó que la meta de la Misión Robinson 1 era alfabetizar a 1.500.000 venezolanos para mediados del 2004. Se cubrió una población cercana a esa meta. pero no era sólo de analfabetas ·puros·. Si se hubiera supuesto que todo participante en la Misión debia ser iletrado absoluto, se habrla manejado una información inadecuada para alimentar el indicador de cumplimiento de esa meta de la Misión. Entre otras cosas lo que debla era revisarse la formulación de la meta y de la población-objetlvo antes de elaborar un indicador complejo. Esto no implica que no se pueda avanzar en varios frentes simultáneamente. sino que antes de mezclar Indicadores de ejecución e indicadores de programación (sobre objetivos y metas) debe privilegiarse la consolidación de la información relativa a los indicadores simples que nutren esa combinación. Hacia esto apunta el ejercicio preliminar que realizaremos con los indicadores de la Misión Barrio Adentro 1 en el Cuadro 3. Complementariamente. se incluyen en ese Cuadro los indicadores potenciales de impacto y los de valoración subjetiva del programa por parte de los usuarios.  

Los indicadores de gestión programática pueden formar parte del seguimiento regular de un programa y pueden generarse con una periodicidad variable (mensual, trimestral, semestral o anualmente). Los indicadores estratégicos asociables con el impacto, tal y como los hemos definido antes, también pueden ser generados con una periodicidad variable, aunque generalmente tienden a producirse más espaciadamente (semestral o anualmente).

Pero, como hemos señalado, su construcción como indicadores de impacto del programa en sentido estricto, requiere de un trabajo de diferenciación de los factores que intervienen o interfieren en sus valores. Ello puede plantear lapsos más prolongados que los de otros indicadores para el reexamen de sus datos. El importante papel de alerta que puede atribuirse a los indicadores «de impacto» no implica resultados concluyentes e inmediatos sino que puede apuntar a la necesidad de estudios más exhaustivos.

Los indicadores «de impacto» pueden estar estrechamente vinculados con indicadores de resultado de un programa y/o con indicadores «contextuales» en los que el mismo pueda incidir, en lo que se refiere a las modificaciones de la situación de la población. En la medida en que esos indicadores contextuales (por ejemplo, en materia de ingresos de la población o de cambios en la morbimortalidad, etc.) puedan referirse y acotarse, directa y específicamente, a la población participante en un programa pueden pasar a formar parte de un sistema regular de indicadores propios de ese programa. Y una vez detectada su relevancia en una evaluación de impacto inicial puede contarse con un medio para apreciar mejor la relación potencial que guarda con la evolución de la situación de la población participante en un programa.

Es fundamental en todo caso que subrayemos que cualquier sistema de evaluación que se estructure tendrá unos requerimientos básicos en lo que se refiere a los indicadores de cobertura y al registro adecuado de los productos que brinda. Hay en ello un requisito casi imprescindible para plantearse cualquier tipo de evaluación programática con un mínimo de rigor.

Luego, la estimación de la eficiencia de un programa reclama también que se cuente con indicadores presupuestarios que permitan apreciar la distribución de los costos de un programa, la suficiencia de los recursos financieros de los que dispone y el costo estimado por usuario o participante. Sin contar con esto la evaluación puede implicar carencias importantes en cuanto a las perspectivas de ampliación y/o con relación a la sostenibilidad del programa en el futuro.

En ocasiones el análisis de costo-impacto puede resultar pertinente para examinar programas que presenten problemas de funcionamiento o que puedan estimarse como excesivamente costosos. La exploración de otras alternativas de intervención en áreas determinadas sería una posibilidad abierta para lograr mejores y mayores impactos de una manera más eficiente.

La construcción de los indicadores pertinentes para el seguimiento y evaluación de un programa determinado tienden a asociarse con su planificación y frecuentemente se relacionan con el cumplimiento de determinados objetivos y metas programáticos. En ese sentido en muchos casos se trata de indicadores complejos que combinan y contrastan lo programado y lo ejecutado.

En el caso de este artículo, a modo de ejemplificación, registraremos en el Cuadro 3 un conjunto de indicadores de gestión programática con respecto a la Misión Barrio Adentro 1, en el que privilegiaremos los indicadores simples referidos a la ejecución programática. Este ejercicio tiene el propósito de ilustrar acerca de la necesaria conexión entre estos indicadores y los de impacto, pero también pretende advertir sobre la necesidad de priorizar la normalización y el control de calidad de la información que proporcionan las Misiones acerca de muchos de estos indicadores, que ya forman parte de sus Registros Administrativos regulares. Esas son tareas fundamentales en la fase inicial de diseño de un sistema coordinado de seguimiento y evaluación de las Misiones que pretenda producir una información consistente y confiable.

En ocasiones estos controles de calidad pueden suponer la activación de mecanismos para contrastar la información que validen de manera aproximativa la información de esos registros (por ejemplo, la relacionada con la cobertura de los programas) o que la complementen (por ejemplo, en materia de caracterización socioeconómica de los participantes/beneficiarios). En otros casos, como los relativos a la valoración subjetiva del programa por los participantes/beneficiarios o a la estimación del impacto de los programas, las fuentes de información serán frecuentemente extra-programáticas (encuestas o sistemas estadísticos externos). Es fundamental que, para potenciar la confiabilidad de este tipo de información, ésta cumpla requisitos técnicos rigurosos y que, en principio, se instrumente bajo la coordinación de organizaciones que no estén directamente involucradas con la gestión de los programas (véanse algunos complementos en la Nota del Cuadro 3).

Cuadro No. 3

Misión Barrio Adentro 1: Indicadores básicos de ejecución programática

 

Indlcadores estratégicos para estimar el Impacto

 > Tasa de mortalidad infantil   anual (MSDS).

> No. de muertes infantiles acumuladas en el año en comparación con las de años anteriores (Boletin epldemiol6gico semanal del MSDS).

> % de las muertes infantiles por causas prevenibles.

> Tasa de morbilidad infantil, por tipo de causas.

> % de enfermedades infantiles por causas prevenibles.

> No. de participantes en Comités de Salud, por tipo de participante.

Indlcadores de ejecución programátlca

> Relativos a los particlpantes/beneficiarioslusuarios:

·No. de pacientes totales atendidos (por edad, sexo, zona geográfica y estrato).

·No. de pacientes atendidos por principales motivos de consulta.

·No. de pacientes atendidos por enfermedades prevenibles.

·  No. de pacientes referidos a otros servicios sociales por tipo (Adulto Mayor, Deportivos, Culturales, Misiones educativas. etc.).

·No. de familiaslviviendas visitadas (consolidado semestral por médico) y frecuencia de las visitas.

> Re/alivos a los produclos/bieneslpreslaciones:

·No. de casos totales atendidos (por edad, sexo. zona geográfica y estrato socioeconómico).

·No. de casos atendidos por principales motivos de consulta.

·No. de casos atendidos por enfermedades prevenibles.

·No. de casos referidos a otros servicios de salud por tipo (Ambulatorio. COI. SRI, CAT, Hospital,

Cllruca Popular, etc.).

·No. y tipo de vacunaciones realizadas.

·No. y tipo de medicinas entregadas por tipo (sobre de rehldratación oral, antigripales, etc.).

·No. de Comités de Salud creados.

·  No. de actividades de educación en salud por tipo (Reuniones del Comité de Salud; Talleres Comunitarios; ete.).

> Relativos a la va/oreción subjetiva del programa:

·Nivel de satisfacción de los beneficiariosl participantes con la Misión (de acuerdo a escala).

·Motivos de satisfacción con la Misión (principales motivos; consulta semi-cerrada).

> Re/ativos a los recursos humanos, ffsicos y técnicos:

·Establecimientos: No. de Consultorios Populares por tipo (Comunitario o en casas de familia).

·Recursos humanos: No. de médicos; odontólogos; enfermeras; promotores deportivos; culturales

y Otros (por nacionalidad y zona geogréfica).

·Calidad de la infraestructura (según escala: alta, mediana o baja, de acuerdo a parámetros).

·Calidad del equipamiento (según escala: alta, mediana o baja, de acuerdo a parámetros.

·Disponibilidad de medicinas y vacunas (según escala y de acuerdo a regularidad y suministros previstos).

• Disponibilidad de instrumentos médicos esenciales (según escala e instrumentos previstos).

 > Relativos a los recursos financieros:

· Presupuesto total asignado (anual).

· % del presupuesto efectivamente disponible.

· % del presupuesto ejecutado.

· Costo promedio por paciente.

· Costo promedio por caso.

Indicadores contextua/es o extra-programáticos

 >No. de casos atendidos en otros servicios de salud por motivos de consulta (por zona geográfica).

> % de casos alendidos en otros servicios de salud, referidos por la Misión.

>% de la pobiación con acceso a servicios de saneamiento ambiental.

>% de la población analfabeta (por edad, sexo y zona geográfica).

>% de la población que no ha completado las dos primeras etapas de educación básica (por edad, sexo y zona geográfica).

>% de la población en pobreza y pobreza de ingresos (por edad, sexo y zona geográfica).

> % de niños en hogares en pobreza y pobreza extrema (por edad, sexo y zona geográfica)> % de menores de 1 año en hogares en pobreza y pobreza extrema (por zona  geográfIca) .

Fuentes: www.msds.gov.ve; D'Elía, 2004; Vielma y Diaz, 2005; MSDS, 2005; BM, 2000; Y CIES, 1998.

Nota: Muchos de los indicadores expuestos pueden ser traducidos en términos de programación (No. de pacientes previstos; No. de consultorios programados; etc.) Ello puede dar lugar, como expresamos en el Cuadro 2, a indicadores combinados que permitan explorar el grado de cumplimiento de objetivos o metas en función del contraste entre lo programado y lo ejecutado. Sin embargo, para fines de claridad expositiva, optamos por exponer los indicadores en términos de indicadores simples y de ejecución, lo que facilita su visualización y la posterior revisión de la calidad de la información con la que se cuenta, acerca de los mismos indicadores, asl como la identificación de las fuentes de información (administrativas o extra-programáticas) que pueden nutrirlos consistente y confiablemente. La desagregación de los indicadores por caracteristicas sociodemográficas o geográficas. sólo se explicitó en los casos que pueden ser más relevantes; pero es probable que la misma deba incluirse también en varios otros de los indicadores expuestos, sobre todo pensando en niveles de reporte interno de la organización que coordina la ejecución de cada Misión. La exposición de indicadores de impaclo y contextuales es preliminar y tiene un propósito principalmente ilustrativo.

Hemos seleccionado, de manera preliminar, algunos indicadores de ejecución programática que consideramos prioritarios para aquel tipo de sistema interinstitucional y, especialmente, para la diseminación de información hacia los máximos niveles de decisión gubernamental (como el Gabinete Social y la Presidencia de la República). Pero dicha selección preliminar, que está sujeta a trabajos mucho más exhaustivos y graduales de jerarquización, sólo apunta a identificar una parte de los requerimientos que se plantearían hacia sistemas de seguimiento y evaluación mucho más desagregados que debe estructurar cada Misión, de acuerdo con las diferenciadas necesidades de sus distintos niveles de decisión organizacional.

3.4. Uso de técnicas e indicadores de impacto cualitativos

Ya decíamos, en 2.4., que las evaluaciones de impacto incorporan metodologías cualitativas de manera creciente. Debe entenderse que el uso de estas metodologías no implica necesariamente su traducción en indicadores puesto que puede ser más propio de los resultados de los estudios cualitativos el que se presenten en un formato «narrativo.»14

Pero, al igual que se plantea en el campo de las metodologías para la evaluación de impacto, no puede desconocerse la posibilidad de integrar variables cualitativas en sistemas de indicadores regulares sobre un programa. Las variables cualitativas no son siempre fáciles de definir en abstracto, pero pueden identificarse por la combinación de algunas de las siguientes características:

• Son difíciles de medir o son cuantificables sólo en ciertas dimensiones.

• Pueden ser menos precisas que las típicamente cuantitativas.

• Pueden estar frecuentemente referidas a dimensiones y juicios subjetivos sobre experiencias personales, juicios que pueden resultar más susceptibles a cambios que ciertas dimensiones «objetivas.»

• Pueden tener una mayor carga subjetiva en su cálculo o estimación que los indicadores cuantitativos.

• Su inclusión es «poco frecuente» en los sistemas de indicadores programáticos tradicionales.

La posibilidad de convertir ciertas dimensiones cualitativas en indicadores puede resolverse a menudo, aunque esta traducción no siempre permita dar cuenta de la totalidad de la experiencia que busca conocerse y transmitirse al abordarlas.

En el caso de las Misiones hay algunas dimensiones poco tradicionales que han sido planteadas particularmente como parte de las innovaciones involucradas en su realización y entre las que destacan las que referimos en 3.1.:

• Por un lado, se encuentra lo relativo al empoderamiento, al desarrollo del capital social o al desarrollo de la capacidad participativa de los involucrados en las Misiones. En este tipo de campos hay diversos indicadores que se han ido generando en años recientes, de acuerdo con conceptualizaciones diferenciadas.

• Otro aspecto importante es el relativo a la autoestima que pueden generar algunas de las Misiones en la población, en términos de una mayor confianza en sus capacidades de desarrollo propio y en la percepción de su estima como ciudadanos con derechos sociales.

Características como las mencionadas no han sido valoradas tradicionalmente por parte de los sistemas de indicadores programáticos. Su inclusión regular en ellos puede requerir de afinamientos progresivos para evitar una saturación inconveniente de esos sistemas. Pero también resulta claro que ese tipo de fenómenos pueden aludir a dimensiones primordiales de los programas y de sus efectos propios, hayan sido o no previstos en su planificación inicial. Un impacto no siempre está expresado como objetivos del programa y, en muchos casos, puede tener que ver con ese tipo de variables cualitativas.

Pero, una vez que hemos identificado ese tipo de variables y que hemos destacado su importancia, se presenta uno de los problemas mayores para su operacionalización en materia de impacto. ¿En qué medida una mayor autoestima, una mayor capacidad organizativa o participativa o una mayor conciencia de los derechos sociales por parte de un grupo poblacional pueden vincularse exclusivamente con una Misión determinada? ¿Qué parte de esas vivencias y dimensiones puede ser estimulada por varias de esas Misiones o por procesos distintos a ese conjunto programático? Es posible que la respuesta a este tipo de interrogantes no pueda brindarse con precisión, precisión que es un propósito frecuente de los indicadores que se incorporan en los sistemas de información programáticos. Reconocer esa dificultad no implica que se omitan esas variables cualitativas en los análisis y evaluaciones de un programa, aunque sí puede explicar que ellas impliquen un trabajo complementario para integrarlas adecuadamente en un sistema regular de indicadores. Su valor e importancia, en todo caso, no tiene que depender de esta inclusión.

Uno de los aportes que han activado más usualmente las «evaluaciones desde la perspectiva de los beneficiarios» ha sido la indagación sobre los niveles y motivos principales de satisfacción de la población beneficiaria-usuaria o participante en los programas sociales.

Esta puede ser una de las vetas más provechosas para tratar sobre la apreciación de los participantes o usuarios de y acerca de los efectos «subjetivos» de un programa. Ese tipo de indagación «subjetiva-cualitativa», que hemos incluido entre los indicadores del Cuadro 3, puede tener potencialidades especiales para integrarse progresivamente en un sistema de indicadores programático regular.

Recurrir a ese tipo de recursos operacionales no resulta un medio que sintetice toda la vivencia subjetiva de los participantes sobre un programa. Pero es que en definitiva, como dijimos antes, un sistema de indicadores no agota la caracterización ni la evaluación de un programa, aunque deba contener elementos estratégicos. Ese sistema debe ser complementado, con frecuencia, por los aportes que surgen de mecanismos cualitativos de evaluación que pueden ser más narrativos y más imprecisos, pero que pueden dar cuenta a pesar de ello de dimensiones analíticas que no caben en mecanismos estandarizados de información.

No sólo los sistemas de indicadores sino también toda evaluación tienen límites y limitaciones, lo que no debe conducir a la relativización extrema de los resultados de cualquier evaluación. Hay balances evaluativos que, incorporen o no la dimensión cualitativa, pueden ser suficientemente concluyentes para orientar sobre el tipo de mejoras que pueden plantearse en un programa y para apreciar el tipo de logros e impactos que están brindando.

4. Consideraciones finales

Es importante que abordemos en estas consideraciones finales lo relativo a la relación entre la evaluación de impacto y los sistemas estadísticos, como una reflexión que complementa y refuerza algunos de los planteamientos que hemos realizado anteriormente, y que atañe, además, a las perspectivas de construir unos mecanismos de seguimiento y evaluación de las Misiones Sociales.

Los procesos de planificación de programas y políticas deben fundarse en sistemas de información que tienen en sus componentes estadísticos y en sus sistemas de indicadores unos núcleos regulares y

vitales. La evaluación se mueve desde la planificación hasta los indicadores y a la inversa. Esto explica, gráficamente, por qué ninguna evaluación se vierte plenamente en un sistema estadístico.

Los sistemas estadísticos y las evaluaciones de programas pueden retroalimentarse pero tienen una naturaleza distinta: esos sistemas brindan resultados eminentemente descriptivos y las evaluaciones pretenden brindar resultados interpretativos, contando con el uso de aquellas y de otras fuentes de información.

La evaluación puede ser definida como un componente más o menos permanente de un sistema de información o de planificación. Por su lado, el componente estadístico asociado en particular con los sistemas de indicadores puede nutrir la evaluación, servir como alerta sobre la necesidad de activarla y también puede ir procesando la información que ésta genere para mejorar o complementar sus indicadores regulares.

Una evaluación (sea o no de impacto) podría ser activada directamente por un sistema de información o planificación y/o podría depender fundamentalmente de otros decisores. La definición con respecto a esa activación corresponderá al tipo de diseño que se haga con respecto a esos sistemas y a las competencias que se le atribuyan a sus componentes, entre los que pueden plantearse muy variados grados de autonomía y distintos tipos de interrelación.

En todo caso, como hemos visto en este informe, existe un conjunto de requerimientos que se plantean para el desarrollo de unas evaluaciones de impacto exitosas. Pueden adelantarse en relación con las Misiones un conjunto de aproximaciones a los efectos de esos programas, pero las mismas serán poco concluyentes si existen bases de información endebles sobre los programas y sus características. Para aproximarse a las evaluaciones exhaustivas de impacto de las Misiones, hay entonces un trabajo previo que debe adelantarse sistemáticamente.

Bibliografía

1. APONTE, C. (2000). Formulación de proyectos sociales y decisiones públicas: Exploración sobre sus relaciones. Mimeo. CENDES-UCV, Caracas.         [ Links ]

2. (1999). Programas de protección social: Propuestas para la determinación de sus beneficios y beneficiarios efectivos. PDS-mimeo. PNUD-Min. Familia, Caracas.         [ Links ]

3. BID (1997). Evaluación: Una herramienta de gestión para mejorar el desempeño de los proyectos. Banco Interamericano de Desarrollo, Washington.         [ Links ]

4. BM (2003). Guía del usuario para el análisis del impacto social y en la pobreza. Banco Mundial, Washington. Disponible en: www.worldbank.org         [ Links ]

5. BM (2000). Evaluación del impacto de los proyectos de desarrollo en la pobreza: Manual para profesionales. Disponible en: www.worldbank.org. Banco Mundial, Washington.         [ Links ]

6. CASTRO, G. y CHÁVES, P. (1994). Metodología de evaluación de impacto de proyectos sociales. UNESCO-URSHSLAC. Caracas.         [ Links ]

7. CIES (1998). Sistema de seguimiento y evaluación de problemas, políticas y programas sociales en áreas prioritarias para el desarrollo social. 8 tomos, mimeo. PNUD-Min. Familia. Caracas.         [ Links ]

8. COHEN, E. y FRANCO, R. (1988). Evaluación de Proyectos Sociales. Siglo XXI, México.         [ Links ]

9. COHEN, E. et al. (2001). Los desafíos de la reforma del Estado en América Latina. CEPAL, Santiago: Disponible en: www.eclac.cl).         [ Links ]

10. COHEN, E. et al. (1998). Gestión de Programas Sociales. 2 Vol. CEPAL, Santiago. Disponible en: www.ecl         [ Links ]

11. CORBETTA, P. (2003). Metodología y técnicas de investigación social. McGraw-Hill, Madrid.         [ Links ]

12. D'ELÍA, Y. (2004). El derecho a la salud en el proyecto bolivariano: Informe Especial. En: PROVEA. Situación de los Derechos Humanos en Venezuela. Informe anual: Octubre 2003 / Septiembre 2004. PROVEA, Caracas.         [ Links ]

13. FEGS (2004). Informe preliminar sobre la Misión MERCAL. Noviembre, mimeo. FEGS, Caracas.         [ Links ]

14. FEGS (2005). Informe sobre las Misiones Sociales. Mimeo, FEGS, Caracas.         [ Links ]

15. INE (2004). SIEMPROVE: Sistema de evaluación y monitoreo de los programas sociales venezolanos. Lineamientos generales para su diseño. Mimeo, INE, Caracas.         [ Links ]

16. MARTÍNEZ, M. (2004). Ciencia y arte en la metodología cualitativa. Trillas, México.         [ Links ]

17. MED (2005a). Misión Robinson. 2 tomos. MED, Caracas. Disponible en: www.med.gob.ve.         [ Links ]

18. MED (2005b). Misión Ribas. 3 tomos. MED, Caracas. Disponible en: www.med.gob.ve.         [ Links ]

19. MED (2005c). Misión Sucre. 2 tomos. MED, Caracas. Disponible en: www.med.gob.ve.         [ Links ]

20. MOTA, G. (2004). Programas Sociales Nacionales (Fichas descriptivas). En: FEGS. Cuadernos Técnicos. No. 19, FEGS, Caracas.         [ Links ]

21. MSDS (2005). Boletines epidemiológicos semanales del año 2005. Disponible en: www.msds.gov.ve.         [ Links ]

22. RBV: República Bolivariana de Venezuela (2005). Siete Planes gubernamentales: 1. Misión Robinson. En: Revista Educere, No. 28, Enero-Marzo 2005. Universidad de Los Andes, Mérida, pp. 9-21.         [ Links ]

23. SANDOVAL, J. y PAZ, M. (2003). Los indicadores en la evaluación del impacto de programas. SIID, México.         [ Links ]

24. SIEMPRO (1999). Gestión Integral de Programas Sociales orientada a resultados. FCE, Buenos Aires.         [ Links ]

25. VIELMA, L. y DÍAZ, A. (2005). Análisis de un programa social: Misión Barrio Adentro. Mimeo, UCAB, Caracas.         [ Links ]

Páginas Web

www.misionmercal.gov.ve

www.misionrobinson.gov.ve

www.misionribas.gov.ve

www.mes.gov.ve

www.med.gob.ve

www.msds.gov.ve

www.minci.gov.ve

Notas

2 En el estudio original se desarrolló un ejercicio de identificación de indicadores que cubre también a las otras Misiones antes mencionadas, que fueron seleccionadas como las prioritarias por el INE.

3 Existen programas de cobertura nacional, como podría ser el caso de Barrio Adentro 1, que dificultan en extremo la aplicación de un modelo experimental, puesto que por su alcance poblacional y velocidad de implantación, no podrían seleccionarse grupos de control de manera aleatoria.

4 Al tratar sobre los diseños cuasi-experimentales el Banco Mundial (2000) destaca que, en este caso, la construcción de los grupos de control comparativo implica «(...) el uso de metodologías econométricas que incluyen métodos de pareo, métodos de doble diferencia, métodos de variantes instrumentales y comparaciones reflexivas (…). Se deben aplicar controles estadísticos para abordar las diferencias entre los grupos de tratamiento y de comparación y emplear técnicas de pareo sofisticadas para crear un grupo de comparación que sea lo más similar posible (…a la población-objetivo del programa... n. de r.). Al generar un grupo de comparación en lugar de asignarlo aleatoriamente, hay muchos factores que pueden afectar la confiabilidad de los resultados. La complejidad estadística requiere conocimientos (…) considerables en el diseño de la evaluación y el análisis e interpretación de resultados» (pp. 3-4). Una selección o conformación inadecuada de los grupos de comparación puede dar lugar a sesgos que invaliden la pertinencia de los resultados de la evaluación (BM, 2000:4).

5 Entre las varias razones, para pensar en alternativas, debe considerarse que el costo de una evaluación exhaustiva de cada programa, en la experiencia reciente de Banco Mundial, promedia unos 466.000 dólares que equivalen aproximadamente a Bs. 1.000 millones (BM, 2000:75).

6 Al respecto (BM, 2000) ejemplifica estos fracasos con evaluaciones fallidas en Perú y en Venezuela.

7 También el BM incluye la consideración acerca de si los impactos son directos o indirectos (lo segundo es más complejo). Pero esto aplica más a la evaluación del impacto social de programas o medidas no sociales, puesto que en el caso de los programas sociales los impactos pueden suponerse generalmente como directos.

8 Para el MERCAL (en su componente general, más que en sus componentes de protección, asociados con el PROAL) podrían plantearse alternativas evaluativas menos «exigentes», aunque parecidas a las de impacto, que sean plenamente válidas desde el punto de vista técnico, y que permitan identificar su incidencia en la mejora del poder de compra de distintos estratos sociales, especialmente en cuanto al acceso de estos a bienes alimentarios y otros de primera necesidad. La pertinencia de estas alternativas depende, en buena medida, del modo en que se definan los objetivos del MERCAL y de los alcances que se le atribuya a su evaluación. Véase al respecto el punto 3.3. de este informe.

9 En el caso de Vuelvan Caras las redefiniciones que ha sufrido el programa durante su ejecución y, sobre todo, algunas de sus características en materia de impacto, que dependen de la consolidación de los mecanismos cooperativos de producción que se han iniciado recientemente, hacen que sea prudente posponer la evaluación del impacto para una fase de maduración mayor de los resultados de la Misión. Por las características heterogéneas de sus prestaciones o productos esta Misión tendría, además, algunas complejidades particularmente acentuadas para el estudio de impacto, que posiblemente debería ser un estudio múltiple y diferenciado, según las distintas actividades productivas en las que intervenga.

10 «La evaluación diagnóstica debe realizarse durante la ejecución del programa cuando se detecten problemas relacionados con la planificación, la ejecución y el logro de los resultados esperados» (SIEMPRO, 1999:94). En algunas de las Misiones, por ejemplo en la Robinson, se han instrumentado este tipo de evaluaciones diagnósticas (MED, 2005a; Tomo I, p.75 y ss., y p. 59 y ss.).

11 Al respecto se han desarrollado otras clasificaciones de los participantes de la Misión, como la que distingue entre iletrados puros; semi-iletrados e iletrados especiales (véase RBV:2005; 17).

12 Un trabajo más detenido con los objetivos de impacto de la Misión Mercal debe intentar identificar también los posibles impactos asociados con la generación de empleos directos y sobre todo indirectos que produzca, en especial los generados mediante el sistema de compras a productores nacionales y regionales de distinto tipo: grandes, medianos, pequeños empresarios y cooperativas, sobre todo del medio agrícola (véase al respecto, para más detalle, FEGS:2004 y 2005). No obstante esto remite no sólo al impacto social sino también al impacto económico de la Misión y a la estimación combinada de los empleos propiciados por la misión y de los empleos perdidos por efecto de la adquisición y distribución subsidiada de productos importados. Es interesante apuntar que los objetivos de la Misión Mercal han tendido a definirse más en términos económicos que en términos sociales: «Nuestro objetivo fundamental (...) es la comercialización y el mercadeo de productos alimenticios y otros de primera necesidad para ser colocados al mayor o al detal, en centros de venta fijos o móviles, previa captación de puntos de comercio individuales, colectivos o familiares» (www.mercal.gov.ve).

13 Pueden distinguirse cuatro sub-programas básicos del Mercal: 1) el Mercal general, destinado al conjunto de los compradores que acuden a los distintos puntos de venta de la Misión; 2) el Mercal-Protección destinado a compradores de determinados alimentos básicos, pertenecientes a población en situación de pobreza (de ingresos) extrema, que reciben un descuento-subsidio mayor al general en esas compras, aunque sólo opera en los Módulos del Mercal tipo 1; 3) el Mercal-máxima Protección o Suplemento Alimentario que se destina al suministro gratuito de determinados rubros alimentarios a población sin ingresos; y 4) las Casas de la Alimentación destinadas a brindar gratuitamente almuerzo y merienda durante 6 días de la semana a población socialmente excluida y particularmente vulne-rable, como: adultos mayores; niños de la calle; e indigentes; entre otros. Los tres últimos sub-programas son ejecutados por el PROAL (FEGS, 2005).

14 Corbetta (2003, 56) dice, metafóricamente, que las metodologías cuantitativas tienden a traducir sus resultados en «tablas» mientras que las cualitativas lo hacen en «narraciones».