NEIROTTI Elementos Conceptuales y Metodológicos PDF
NEIROTTI Elementos Conceptuales y Metodológicos PDF
NEIROTTI Elementos Conceptuales y Metodológicos PDF
Nerio Neirotti
1. Introducción
2. ¿Qué es evaluación?
Definición de evaluación
Requisitos de una buena evaluación
Relación de la evaluación con otras actividades emparentadas
Aspectos políticos y técnicos de la evaluación
Niveles de aplicación de la evaluación
3. Tipos y criterios de evaluación
Según el momento, el objeto y el alcance de la evaluación
Según quién evalúa
Según la perspectiva de los involucrados
Criterios de evaluación
4. Perspectivas teóricas y metodológicas de la evaluación
El debate metodológico
Modelos de comparación
5. Pasos para llevar a cabo una evaluación
5.1. Planteamiento de la evaluación y toma de decisiones
5.2. Diseño de la evaluación
Objetivos y preguntas clave
Marco teórico e hipótesis
Dimensiones, variables, indicadores y unidades de análisis
Fuentes, técnicas e instrumentos
Matriz de evaluación
5.3. Recolección de información y procesamiento
Programación de actividades
Selección y entrenamiento del equipo
Recolección de información y manejo de instrumentos
Procesamiento de la información
5.4. Análisis de la información
5.5. Comunicación y diseminación
6. Conclusiones
1. INTRODUCCIÓN
Las innovaciones educativas son procesos complejos que podrían ser concebidos
como configuraciones novedosas de recursos, prácticas y representaciones en las
propuestas educativas de un sistema, subsistema y/ o institución educativa,
orientados a producir mejoras2.
Para desarrollar innovaciones educativas no basta con contar con más o nuevos
recursos, sino que es preciso incorporar nuevas acciones y traslucir las
innovaciones en la prácticas educativas. Es decir, es necesario que los actores
involucrados den forma a un nuevo estilo de gestión y produzcan una
transformación de las prácticas institucionales cotidianas.
Además de los recursos y las prácticas, una tercer dimensión es necesaria para
definir las innovaciones educativas: las representaciones, creencias y valores que
subyacen en los puntos anteriores, es decir, los supuestos que existen por detrás
de las prácticas y los recursos empleados, el grado de internalización que existe y
el nivel de compromiso.
2. ¿QUÉ ES EVALUACIÓN?
5 Citado por Stufílebeam, Daniel L. y Anthony J. Shinkñeld, Evaluación sistem ática. Guía teórica
y práctica, Barcelona, Paidos / M.E.C., 1995, p. 19.
SIEMPRO (Sistema de Información, Monitoreo y Evaluación de Programas
Sociales), con la inquietud de fortalecer la institucionalidad social y con el
propósito de desarrollar conocimientos y capacidades sobre planificación y
evaluación en el ámbito estatal y de la sociedad civil, produjo un manual que
contiene la siguiente definición:
Un gran número de condiciones han sido señaladas como necesarias para que la
evaluación resulte adecuada. En algunos casos se han llegado a elaborar check
lists que deberían ser seguidas como instrumentos de verificación. Como ejemplo,
se incluyen los Estándares Para la Evaluación de Proyectos del Joint Committee
on Standards for Educational Evaluation que presenta en su libro Rocío
Fernández-Ballesteros8. Estos estándares fueron diseñados con el objetivo de
asegurar la concreción de evaluaciones útiles, factibles, éticas y adecuadas y
contienen 30 normas:
' •••
Estándar
• '
Criterio • ' ■. ■ ;•••• ■ .
.■ ; l...
•"
< .
.
,
•
■ .
• ■ . . . . ... .... í V , -• ■ - - .. •> • •
' .
1. Iden tificación de im plicados (de tal forma cjug sus ncccsidadcs
competentes)
. . • - •••-■■ •;
' ' : ' ' ■ ■ 3 . Á m b ito de la in form ación y selección (debe ser sensible a las
'' . .
7. Im pacto de la evalu ación (las evaluaciones deberían estimular el
■ ’ ■ • V,5 ■• seguimiento continuado por los involucrados)
1. P rocedim ien tos prácticos (los procedimientos evaluativos deben
ser prácticos para minimizar los trastornos que puedan producirse en
FACTIBILIDAD la recogida de información)
2. V ia b ilid ad po lítica (debe anticipar las diferentes posiciones de los
•
■
• . ■' ■
. ■■■
- '.-'y - y , ■
’■ grupos implicados para conseguir su particpación)
■■
. ., - ■ ". . ' • ’ . ■■ ■ 2. A n álisis del con texto (debe ser examinado con suficiente detalle
' .
. •
.
■ . i -.
■
6. In form ación viable (los procedimientos de recogida de
. * ' '■ ‘ •
■ ' ’ - - • . ' . • '
información deben asegurar que información es fiable)
sistemáticamente analizada)
La auditoría es una función que tiene por objeto garantizar el buen uso de los
recursos del Estado y de la empresa en cuanto a la adquisición de insumos,
buscando evitar acciones negligentes o delictivas. El control de gestión va más
allá, en el sentido que atiende a los procesos de conversión de los insumos en
productos, es decir, a las actividades y los resultados esperados de la misma, en
cantidad y calidad. Por su parte, la supervisión se orienta a observar que los
procesos se desarrollen según lo previsto, incorporando actividades de apoyo o
asesoramiento. Como se podrá observar, si bien todas estas funciones se apoyan
en el propósito de garantizar las mejores condiciones de la gestión, no brindan
insumos sistemáticos de conocimiento que permitan arrojar luz para llevar a
cabo procesos transformadores.
Pero hay otras actividades que brindan estos insumos y que también se
diferencian de la evaluación. Las experiencias que llevan a cabo las
organizaciones de la sociedad civilrequieren, por su carácter singular e
innovador, llevar a cabo procesos de sistematización. Del mismo modo, sus
exploraciones suelen ser objeto de atención de los investigadores. En tal sentido,
resulta conveniente distinguir y delimitar los procesos de sistematización,
investigación y evaluación.
Los programas adquieren un nivel de mayor especificidad que los planes (no
necesariamente tienen que depender de un plan). Están a su vez conformados
por componentes (puede ser también por proyectos), que constituyen partes
relacionadas entre sí funcionalmente, es decir, los componentes o proyectos
cumplen funciones que coadyuvan al alcance de los objetivos del programa y
tienen entre sí una relación de tipo sistémico. Los programas suelen ser
continuados o tener períodos de duración no claramente delimitados puesto que
finalizan cuando dejan de subsistir los problemas que les dieron origen.
A su vez, los proyectos tienen un nivel de especificidad mayor que los programas
y pueden ser parte de estos (al igual que la relación entre programa y plan, la
relación entre proyecto y programa es de inclusión y parte). Cabe la misma
aclaración que se hizo en referencia a los programas: los proyectos no
necesariamente deben estar incluidos en un programa, puesto que es muy
común encontrar proyectos que existen de modo independiente. Los proyectos
tienen un período y un fin claramente delimitados y sus productos son obras, o
bienes y servicios que generan un efecto multiplicador.
Las actividades de evaluación son diferentes según el nivel de gestión del que se
trate. Los proyectos son más sencillos de reconstruir y resultan en principio más
inteligibles, puesto que incluyen objetivos, productos y procesos de intervención
acotados. En muchos casos contienen unas pocas líneas de acción y los
involucrados, además de no ser muy numerosos, se reúnen con expectativas
claras y funciones bastante delimitadas.
Los programas tienen un nivel mayor de complejidad, puesto que contienen más
líneas de acción y suelen incluir varios componentes o proyectos. En su caso
resulta más difícil delimitar las responsabilidades propias del grupo operativo de
aquéllas que tienen que ver con el medio institucional o social en el que se
implementan los programas. Los involucrados son más numerosos y las
relaciones entre los mismos son más complejas, a la vez que la normas y las
reglas del juego en el marco de las cuales se desarrollan son más imbricadas. Al
ascender del nivel del proyecto al de programa se hace más difícil hacer una
evaluación comprehensiva, razón por la cual hay que acotar el objeto a evaluar,
es decir, hay que definir algunas dimensiones en detrimento de otras.
satisfacción
Existe correlación entre los primeros tres criterios, dado que según el tiempo,
corresponden distintos objetos o aspectos a evaluar y el alcance también es
correlativo, tal como se explica a continuación.
Como se podrá observar, todos estos tipos de evaluación están relacionados con
la toma de decisión previa a la iniciación de un programa que responde a la
siguiente pregunta: ¿Existen las condiciones para ponerlo en marcha? Según
cuál sea la respuesta se hará la opción. Por esta razón, con base en el criterio
del alcance se ubica la evaluación ex-ante como evaluación “de decisión” .
Se podría decir que el monitoreo ofrece una visión del movimiento del programa,
aunque superficial. Mientras que la evaluación de gestión se detiene a analizar
diferentes funciones de la misma en profundidad. El monitoreo se asocia a una
película y la evaluación de gestión a una fotografía con detalles más rigurosos.
Las funciones que pueden ser abordadas en una evaluación de gestión son
variadas y se eligen según la necesidad: a) organización del programa,
incluyendo la división del trabajo, responsabilidades y jerarquías; b) secuencia de
actividades, relación entre las mismas y ubicación en el tiempo; c) asignaciones
presupuestarias y cronograma de erogaciones; d) organización de recursos; e)
dirección y coordinación; f) comunicación interna y externa; g) reclutamiento,
organización, capacitación e incentivos de recursos humanos; h) el clima de
trabajo; i) los productos y los efectos inmediatos; j) aspectos institucionales; k) la
planificación y el monitoreo mismos.
Por evaluación de efectos se entiende aquélla que indaga sobre los cambios en la
realidad producidos por el programa, es decir, nuevos estados o condiciones en
las personas, en las cosas o en las instituciones que son producto de la
intervención del programa, ya sea que respondan o no a los objetivos planteados.
Algunos programas tienen objetivos o propósitos que se limitan a la construcción
de infraestructura o equipamiento, y en este caso sólo se evalúan sus productos,
pero en general, los efectos son consecuencia de los bienes o servicios prestados
por el programa.
La evaluación de impactos busca analizar los cambios producidos por el
programa en un período mayor de tiempo (mediano y largo plazo) conjuntamente
con otros factores intervinientes.
Con la evaluación mixta se busca reunir las ventajas de ambos tipos, a través de
la conformación de equipos que reúnen agentes internos y externos. Existen
diferentes grados de asociación (mayor proporción de agentes externos o internos)
dependiendo de la medida en que cada parte coopera en el proceso de evaluación.
En algunos casos se opta por reunir evaluadores externos e internos en número
similar, en otros se opta por un equipo externo que cuenta con apoyos internos, y
en otros se prefiere organizar equipos internos con la inclusión de especialistas
externos. Desde esta última perspectiva, el evaluador externo aparece en la
bibliografía especializada bajo la figura del “agente provocador” o “amigo crítico”,
términos que dejan claramente planteada la idea de una interlocución crítica y
reflexiva que puede potenciar aún más las ventajas de la auto evaluación,
otorgando al agente externo independencia pero posibilidad de estar inmerso en
el proyecto.
Por último, queda por señalar que existen distintos tipos de evaluación según la
perspectivas de los involucrados, sean éstos los beneficiarios, los financiadores, el
poder político y las autoridades, el equipo de gestión, otros o combinaciones de
los mencionados.
Criterios de evaluación
Por último, dado que no hay método que no presente problemas, dificultades o
inconvenientes, la tercera ventaja que ofrece la articulación de ambos enfoques es
11 Cohén, Ernesto y Franco, Rolando Evaluación de proyectos sociales Buenos Aires, 1988 p. 134
La aplicación de este modelo requiere la selección aleatoria de los integrantes de
los dos grupos. Esta exigencia implica que la muestra debe ser sustancialmente
mayor y , por lo mismo más caro. Pero además el modelo ha sido cuestionado por
otras dos razones fundamentales: a) una razón ética: por el hecho de que
experimentar con personas interfiere en la vida personal y social de las mismas;
b) una razón política: este modelo implica excluir a un grupo de personas de los
posibles y eventuales beneficios que genera un programa o política
Se cuente o no con un sistema de evaluación, cada vez que hay que “crear” esta
obra de arte que es la evaluación es menester seguir los siguientes pasos:
• Diseño de la evaluación.
• Recolección de información y procesamiento.
• Análisis de la información.
• ¿Quiénes son los actores involucrados? En este caso hay que distinguir
los actores directos (tienen injerencia en el “proceso de conversión” de
insumos en productos, ya sea como responsables, agentes intervienientes
en el programa, como proveedores o como beneficiarios) de los actores
indirectos (aquéllos que son concernidos por el programa pero que no
participan en su proceso de conversión). ¿Cuáles son sus intereses, sus
fortalezas, sus debilidades, sus recursos?
El análisis de actores no sólo nos permitirá conocer qué visión tienen de los
problemas que emergen en el diagnóstico sino que también contribuirá a avizorar
quién estará a favor y quién en contra de un conjunto de decisiones, cómo se
opondrán o apoyarán, cuánto y hasta qué punto estarán dispuestos a hacerlo.
Sinónimos de actores involucrados podrían ser afectados (beneficiados o
perjudicados), interesados, implicados o concernidos.
El siguiente cuadro refleja los principales puntos a tener en cuenta para analizar
los actores sociales involucrados. En primer lugar es conveniente establecer un
patrón de clasificación y agruparlos (públicos, privados, sociedad civil / técnicos,
políticos, administradores/ por regiones / por tipo de institución/ etc.) En la
primera columna enunciamos los grupos que intervienen, luego cuáles son los
intereses de cada uno de ellos, sus fortalezas y debilidades, los recursos que
aportan y, por último, cuales son los potenciales conflictos que pueden ocasionar.
Por otra parte es necesario considerar la limitación que tiene que ver con los
recursos: dinero, tiempo, si se cuenta con el marco institucional y el marco
político adecuado. En otras palabras, no existe la evaluación ideal, toda
evaluación es diseñada a medida y en función de circunstancias y de un
escenario en la que juegan todos estos factores técnicos y políticos.
Este encuadre teórico o conceptual no es inmóvil, sino que cambia conforme van
emergiendo evidencias a partir de la intervención. Estas obligan a modificar las
perspectivas desde las que se observa e interpreta la realidad. Por esta razón, se
habla de la necesidad de poner al día el marco teórico, haciendo un análisis
crítico de las suposiciones que dieron sustento a la acción en el pasado.
Dado que todo programa supone una hipótesis de intervención (“si se llevan a
cabo tales actividades, de las que surgen tales prestaciones, se lograrán tales
objetivos”), en gran parte de las evaluaciones, con la hipótesis de evaluación se
propone corroborar el grado en que se cumplió la hipótesis de intervención.
Luego, al preguntarse “por qué”, pueden aparecer varias razones (causas) o
correlaciones (hechos relacionados sin que se pueda considerar que uno da
origen al otro). Hay hipótesis que tienen relación con la totalidad de las
dimensiones y otras sólo interpretan lo que ocurre en relación a una sola
dimensión.
Indicadores: Signos que permiten percibir los movimientos de las variables. Una
variable es captada o descripta por medio de uno o más indicadores. Siguiendo
los ejemplos anteriores de variables propias de la dimensión educativa, podemos
seleccionar la variable “eficiencia interna de los centros educativos”, para la cual
los indicadores podrían ser “tasa de permanencia” (o su opuesta: deserción), “tasa
de prom oción” (o su opuesta: repetición) y “tasa de asistencia” (o su opuesta:
inasistencia).
• su pertinencia;
• su precisión y comparabilidad;
• su fiabilidad.
6) Economía de preguntas.
8) Diseño de la muestra.
> Grupo focal: También llamado “grupo de discusión”, tiene por objeto encontrar
el sentido de la acción del grupo, las diferencias o matices de opinión,
percepción, valoración e intereses entre sus integrantes como así también las
relaciones entre ellos y sus posiciones relativas.
Matriz de evaluación
¿Qué ocurre?
¿Con qué?
Unidades de análisis
Unidades
Dimensiones Variables indicadores J ■. Técnicas Fuentes Instrumentos
orientadoras de analisis
Es decir, deberán identificarse todas las veces que se ha hecho mención al mismo
tipo de instrumento para recolectar información de diferentes tipos de unidades
de análisis e indicadores, para construir y aplicar una misma herramienta que
permita obtener todos los datos buscados. Toda vez que se haga referencia a
encuesta, por ejemplo, deberá tabularse, de modo que cuando esa encuesta sea
elaborada recoja todos los indicadores a los cuáles se hizo referencia y recoja
información de todas las unidades de análisis a las cuáles remite.
A través de un
Instrumento
Dimensiones
Variables
Indicadores
Programación de actividades
Por otra parte, es importante que cuando el equipo de campo esté realizando sus
tareas de recolección, pueda contactarse con miembros del equipo evaluador en
caso que le surgiera alguna duda o inconveniente.
También es importante que si el trabajo de campo fue diseñado con una amplia
duración en el tiempo, existan entregas intermedias del material recogido. De esta
manera, a través de la edición de ese material, se puede sugerir al equipo de
campo que realice ciertas modificaciones en las próximas salidas a campo, que
enfatice ciertos aspectos, o que continúen en la línea en que venía
desarrollándose. Estas entregas intermedias, además, aceleran los tiempos de
procesamiento, puesto que pueden realizarse cargas parciales aún no habiendo
finalizado todo el trabajo de campo.
Además es necesario que cada uno de los instrumentos aplicados pueda ser
identificado con la persona que lo aplicó. De esta manera, cuando, durante las
etapas de edición y codificación, surgieran dudas, pueda contactarse fácilmente a
la persona y evacuar las dudas.
Procesamiento de la información
En cuanto a la diseminación, es una condición para que otros que estén llevando
a cabo experiencias parecidas o estén interesados en seguir caminos similares
puedan apropiarse del conocimiento producido. No se trata de replicar
experiencias mecánicamente, sino de transferir capacidades para la
transformación, especialmente la de aprender a innovar. De allí la importancia
de acercar los resultados de las evaluaciones a congresos, seminarios, ámbitos
académicos, medios de comunicación, ámbitos de decisión política, agencias de
cooperación, sindicatos, fundaciones empresariales, organizaciones no
gubernamentales, redes, etc.
Entre las recomendaciones de las evaluaciones figuran aquéllas que tienen que
ver con el programa mismo (continuar, suspender, modificar, ampliar el respaldo,
generar mayor participación de los involucrados, etc.), con decisiones de política,
con necesidades de llevar a cabo nuevas experiencias o de profundizar el
conocimiento a través de ciertas líneas de investigación.
6. CONCLUSIONES
sobre la práctica.
Por último, la evaluación es una actividad que requiere pasión. En primer lugar
por las actividades que los programas desarrollan, por los beneficios que se
proponen brindar a la población, y en segundo lugar por la verdad, por el
esclarecimiento de situaciones que requieren ser iluminadas.
BIBLIOGRAFIA SUGERIDA PARA SU LECTURA
• MEASURE Evaluation
• Resources for Methods in Evaluation and Social Research