Evaluar los resultados de los programas y de las políticas que llevan a cabo las organizaciones no es algo fácil de resolver y exige una formación metodológica específica. Este manual pretende divulgar cuáles son esos problmas y diferentes maneras de abordarlos. Está dirigido a estudiantes de carreras orientadas a la intervención social, y también a profesionales en activo y a directivos de organizaciones interesados en conocer el impacto que tienen los programas en los que están implicados. Con este libro aprenderás sobre: técnicas de evaluación; contrafáctico; impacto; resultados sesgados; endogeneidad; grupo de control; grupo de comparación; evaluación experimental; evaluación cuasiexperimental; validez de una evaluación; revisión de evaluaciones; metaanálisis
- Cover
- Title page
- Copyright page
- Índice
- Introducción
- Capítulo I. Los retos principales de una evaluación de impacto
- 1. ¿Qué significa evaluar el impacto de un programa? Teoría, causalidad e hipótesis
- 2. Definir el contrafáctico
- 3. Utilizar la comparación con otro grupo como contrafáctico
- 4. Método reflexivo para construir un contrafáctico
- 5. Sesgo de endogeneidad y efecto selección
- 6. Interferencia de factores externos
- 7. Validez de la evaluación
- Bibliografía
- Capítulo II. Metodologías de evaluación de los resultados de programas
- Introducción
- 1. Método experimental
- 2. Pareamiento a partir del índice de similitud (propensity score matching)
- 3. Método de la doble diferencia
- 3.1. Alternativas complementarias al método de la doble diferencia
- 4. Diseños de regresión en discontinuidad
- 5. Método de la variable instrumental
- 5.1. Caso de endogeneidad debida a una relación causal recíproca
- 5.2. Caso de endogeneidad debida a la omisión de una variable, de la que la participación en el programa es un mecanismo mediador
- 5.3. Construcción artificial ex ante de una variable instrumental
- Bibliografía
- Capítulo III. Evaluación ex ante: la importancia de un estudio base
- Introducción
- 1. Estudio base: el análisis del problema
- 1.1. Estimar el alcance y la relevancia del problema
- 1.2. Análisis de las causas del problema
- 1.3. Valorar las evidencias empíricas disponibles sobre la eficacia que tienen programas similares al que se quiere poner en marcha
- 2. La revisión sistemática de los estudios publicados
- 2.1. Definir de forma concisa la pregunta
- 2.2. Buscar el máximo número posible de estudios que den respuesta a las preguntas formuladas
- 2.3. Filtrar y seleccionar los estudios que sean relevantes
- 2.4. Valorar la calidad de los estudios seleccionados
- 2.5. Analizar y comparar los resultados que ha obtenido cada evaluación
- 3. El metaanálisis
- 3.1. Resultados medidos como diferencias de medias entre el grupo participante y el grupo de comparación ode control
- Bibliografía
- Capítulo IV. El diseño de la evaluación y la presentación de los resultados. Algunas notas introductorias al análisis coste-beneficio
- 1. Cómo se diseña la evaluación de un programa
- 2. Los grupos y su actividad
- 2.1. La asignación aleatoria a los grupos en el método experimental
- 3. La medida del tiempo
- 3.1. El tiempo histórico
- 3.2. Comparar siempre la misma fase del curso vital
- 3.3. Medidas pretest y postest
- 4. La presentación del informe de resultados
- 4.1. Características del programa que se evalúa
- 4.2. Características del estudio de impacto
- 4.3. Resultados del estudio
- 4.4. Conclusiones del estudio
- 5. Introducción a la evaluación económica de un programa: la evaluación coste-beneficio
- 5.1. Fijación de un horizonte temporal
- 5.2. Cálculo de los costes del programa
- 5.3. Cálculo de los beneficios del programa
- 5.4. Actualizar los costes y los beneficios
- 5.5. La relación coste-beneficio
- Bibliografía