Evaluar los resultados de los programas y de las políticas que llevan a cabo  las organizaciones no es algo fácil de resolver y exige una formación metodológica específica. Este manual pretende divulgar cuáles son esos problmas y diferentes maneras de abordarlos. Está dirigido a estudiantes de carreras orientadas  a la intervención social, y también a profesionales en activo y a directivos  de organizaciones interesados en conocer el impacto que tienen los programas  en los que están implicados.   Con este libro aprenderás sobre: técnicas de evaluación;  contrafáctico;  impacto;  resultados sesgados;  endogeneidad;  grupo de control;  grupo de comparación;  evaluación experimental;  evaluación cuasiexperimental;  validez de una evaluación;  revisión de evaluaciones;  metaanálisis
                                                    
                                                        - Cover
 - Title page
 - Copyright page
 - Índice
 - Introducción 
 - Capítulo I. Los retos principales de una evaluación de impacto 
- 1. ¿Qué significa evaluar el impacto de un programa? Teoría, causalidad e hipótesis 
 - 2. Definir el contrafáctico 
 - 3. Utilizar la comparación con otro grupo como contrafáctico 
 - 4. Método reflexivo para construir un contrafáctico 
 - 5. Sesgo de endogeneidad y efecto selección 
 - 6. Interferencia de factores externos 
 - 7. Validez de la evaluación 
 - Bibliografía 
 
 - Capítulo II. Metodologías de evaluación de los resultados de programas 
- Introducción 
 - 1. Método experimental 
 - 2. Pareamiento a partir del índice de similitud (propensity score matching) 
 - 3. Método de la doble diferencia 
- 3.1. Alternativas complementarias al método de la doble diferencia 
 
 - 4. Diseños de regresión en discontinuidad 
 - 5. Método de la variable instrumental 
- 5.1. Caso de endogeneidad debida a una relación causal recíproca 
 - 5.2. Caso de endogeneidad debida a la omisión de una variable, de la que la participación en el programa es un mecanismo mediador 
 - 5.3. Construcción artificial ex ante de una variable instrumental 
 
 - Bibliografía 
 
 - Capítulo III. Evaluación ex ante: la importancia de un estudio base 
- Introducción 
 - 1. Estudio base: el análisis del problema 
- 1.1. Estimar el alcance y la relevancia del problema 
 - 1.2. Análisis de las causas del problema 
 - 1.3. Valorar las evidencias empíricas disponibles sobre la eficacia que tienen programas similares al que se quiere poner en marcha 
 
 - 2. La revisión sistemática de los estudios publicados 
- 2.1. Definir de forma concisa la pregunta 
 - 2.2. Buscar el máximo número posible de estudios que den respuesta a las preguntas formuladas 
 - 2.3. Filtrar y seleccionar los estudios que sean relevantes 
 - 2.4. Valorar la calidad de los estudios seleccionados 
 - 2.5. Analizar y comparar los resultados que ha obtenido cada evaluación 
 
 - 3. El metaanálisis 
- 3.1. Resultados medidos como diferencias de medias entre el grupo participante y el grupo de comparación ode control 
 
 - Bibliografía 
 
 - Capítulo IV. El diseño de la evaluación y la presentación de los resultados. Algunas notas introductorias al análisis coste-beneficio 
- 1. Cómo se diseña la evaluación de un programa 
 - 2. Los grupos y su actividad 
- 2.1. La asignación aleatoria a los grupos en el método experimental 
 
 - 3. La medida del tiempo 
- 3.1. El tiempo histórico 
 - 3.2. Comparar siempre la misma fase del curso vital 
 - 3.3. Medidas pretest y postest 
 
 - 4. La presentación del informe de resultados 
- 4.1. Características del programa que se evalúa 
 - 4.2. Características del estudio de impacto 
 - 4.3. Resultados del estudio 
 - 4.4. Conclusiones del estudio 
 
 - 5. Introducción a la evaluación económica de un programa: la evaluación coste-beneficio 
- 5.1. Fijación de un horizonte temporal 
 - 5.2. Cálculo de los costes del programa 
 - 5.3. Cálculo de los beneficios del programa 
 - 5.4. Actualizar los costes y los beneficios 
 - 5.5. La relación coste-beneficio 
 
 - Bibliografía