-
Inteligencia Colectiva en la toma de decisiones y la Evaluación
inUn referente temprano del concepto de inteligencia colectiva (IC) es el libro del Apoyo Mutuo de Krotpokin (1902), al utilizar el concepto para mostrar las ventajas que poseen los pequeños grupos de personas y los animales e insectos sociales. Otro precursor del concepto de inteligencia colectiva es el entomólogo William Morton Wheeler (1910) que estudió el comportamiento de las hormigas. William observó que trabajaban tan coordinadas que llegaban a parecer un solo organismo. Las hormigas eran comparables a las células de un animal generando también una mente colectiva. A esta gran criatura la llamó superorganismo. Según Pierre Levy (1997), escritor, filósofo y profesor tunecino que desarrolló la noción de inteligencia colectiva, la definió como una inteligencia repartida en todas partes, valorizada constantemente, coordinada en tiempo real, que conduce a una movilización efectiva de las competencias. Las nuevas tecnologías están generando una gran revolución en este concepto. Es imposible que todos seamos sabios de todo, pero sí podemos ser expertos en un área específica y a través de las nuevas tecnologías podemos juntar todos esos microsaberes creando un enfoque común. La inteligencia colectiva tiene la ventaja superar sesgos cognitivos individuales logrando lo que lo que Howard Bloom (1995) llamó el cociente Intelectual grupal.
Actualmente es un término generalizado de la cibercultura o la sociedad del conocimiento, vinculado a la toma de decisiones consensuada aplicable en bacterias, animales, seres humanos y computadoras. La inteligencia colectiva se destaca notablemente dentro de la Sociología, de las ciencias de la computación y del comportamiento de masas. Peter Russell en su libro Global Brain en 1983 explica como Internet está uniendo a la humanidad en una sola comunidad mundial, en un «cerebro global». Tom Atlee (1993) trabajo en la co-inteligencia, una forma de inteligencia compartida e integrada que encontramos dentro y alrededor de nosotros que aparece al unir nuestras inteligencias personales para producir resultados más perspicaces y poderosos que la suma de nuestras perspectivas individuales. En este sentido, la tecnología facilita la interacción de los actores sociales de un grupo aunándolos bajo un denominador socio-cultural de saberes y conocimientos que permiten generar un vínculo cognitivo entre los mismos.
La inteligencia colectiva en la Evaluación
La participación de los implicados es un pilar fundamental en las evaluaciones de proyectos. Esta realidad refuerza la idea de utilizar la inteligencia colectiva como otra pata más de la participación o quizá, como la pata central de la participación. El hecho de poder contar con un mayor número de opiniones sobre las necesidades, los resultados o los impactos de un proyecto, permitirá al evaluador tener una idea más global de la visión de la población sobre el proyecto. Con la Web 2.0 aparecen nuevas formas de relacionarse, en las que los consumidores pasan a ser también creadores, acuñándose el término prosumidores, con espacios dedicados exclusivamente a la creación de contenidos a través de una inteligencia colectiva, como por ejemplo, la creación de software colaborativo de la plataforma Arduino, de fuente abierta y hardware abierto así como un proyecto y comunidad internacional que diseña y manufactura placas de desarrollo de hardware iniciada en 2005. Sin embargo, también existen también controversias en este campo. Hugo Pardo Kuklinski, Doctor en Comunicación por la Universidad de Barcelona, expone el peligro de la aparición de «imprecisiones intelectuales» en los medios al aportar nuevos contenidos o modificarlos. Hugo compara la IC con la comida rápida. Bajo este concepto, se situarían en el mismo nivel a expertos amateurs y expertos profesionales«. Pierre Lévy plantea que la opinión promedio puede perder racionalidad, porque se basa en tendencias, lo que hace que la objetividad se desdibuje.
Aplicaciones de la IC
Se pueden realizar estudios que recopilan datos proporcionados por usuarios de la web, redefiniendo el conocimiento y con una actualización constante. Mediante el análisis de las redes sociales se puede estudiar las preferencias de consumo de los usuarios para efectuarles diversas sugerencias. El beneficio de la inteligencia colectiva en la web, reside en que se obtiene una diversidad de opiniones proveniente de distintas personas, pertenecientes a distintas culturas, residentes en otras partes del mundo. Es entonces como la diversidad de los aportes permite obtener una idea o un dato más cercano a la realidad, abriendo un espacio hacia distintas cuestiones de manera global.
Un ejemplo de inteligencia colectiva que está llevando a cabo el Ayuntamiento de Madrid con su plataforma Decide Madrid para la toma de decisiones de una parte de sus presupuestos. Es lo que se denominan presupuestos participativos en los que toda la población censada puede participar con su voto para elegir en que se invertirán determinadas partidas del presupuesto. Otra iniciativa interesante de esta ciudad son los laboratorios ciudadanos como el Media Lab Prado un laboratorio ciudadano que funciona como lugar de encuentro para la producción de proyectos culturales abiertos. La ventaja de estos lugares es que cualquier persona, aunque carezcan de formación sobre una de formación técnica específica puede hacer propuestas o sumarse a otras y llevarlas a cabo de manera colaborativa. La actividad se estructura en grupos de trabajo, convocatorias abiertas para la producción de proyectos, investigación colaborativa y comunidades de aprendizaje en torno a temas muy diversos. Este tipo de espacios permite crear organismos sociales de trabajo con diferentes perspectivas tanto de ciudadanos de a pie como de personas expertas. Se unen aquí los experimentados y los expertos creando un ambiente a mitad de camino entre la IC y la participación.
-
Evaluación de Proyectos con Big Data
inBig data es un término cuya definición se dio por primera vez en 2001, por el analista Doug Laney de Gartner: “El conjunto de técnicas y tecnologías para el tratamiento de datos, en entornos de gran volumen, variedad de orígenes y en los que la velocidad de respuesta es crítica”. Aunque los datos han sido siempre útiles en la toma de decisiones, no está tan claro cuando es interesante aplicar una solución basada en datos de tipo Big Data. Para reconocer si hay que trabajar con estos macrodatos hay que valorar si es interesante analizar un gran volumen de datos de alta velocidad de generación y con mucha variabilidad, pero no es necesario que se cumplan las tres condiciones. Esta condición que poseen los Big Data, se denomina Regla de las “3 V”: volumen, variabilidad y velocidad. Con volumen, se refieren a grandes cantidades de información y conocimiento que se maneja. Con variabilidad, a la estructura de la composición que tiene ese gran volumen de datos. Y con velocidad, a la rapidez con que ese volumen de datos es transportado y analizado. Algunos expertos, como IBM incluyen la Veracidad como una cuarta V pero no hay unanimidad al respecto por parte de todos los expertos.
Existen dos antecedentes principales del Big Data: por un lado, el Business Intelligence, que utiliza los datos para la realización de análisis y consecuentemente una serie de previsiones; por otro lado, está la Minería de Datos, basada en dos métodos que permiten el análisis y la utilización de los datos: la Inteligencia Artificial; y la estadística, mediante la cual realiza estimaciones.
La cantidad de datos que existe en la actualidad es inmensa y los análisis se complejizan bastante. Estos datos se encuentran en internet y en las relaciones que las nuevas tecnologías de la información ofrecen, el internet de las cosas a través de grabaciones de sonido y video, drones, robots, satélites, smartphones, etc. Hay que tener en cuenta el incremento de complejidad y coste respecto a un análisis tradicional. Los macro datos hay que buscarlos, clasificarlos, organizarlos y analizarlos para que logren tener una utilidad y calidad adecuada a lo que se quiere analizar. Los avances tecnológicos recientes han reducido exponencialmente el coste del gestión y almacenamiento de datos, siendo cada vez más fácil y más barato. En la práctica existen técnicas como minería de datos, cálculo lingüístico, aprendizaje automático, creación de algoritmos para trabajar en la búsqueda y clasificación de la información (Janssen, Vander, & Huayudi, 2016, pág. 5). Es también muy importante la veracidad de los datos, que se refiere a cuánto puede confiar en ellos. Además de los pasos anteriores, el valor del Big Data radica sobre todo en plantearse las preguntas correctas para identificar patrones que puedan predecir comportamientos. Bizer, Boncz, Brodie y Erling (2012) han identificado 6 fases en el Big Data:
Recolección
Para determinar si nos encontramos en el camino correcto, debemos preguntarnos en qué medida el Big Data respalda y habilita las necesidades del proyecto o la evaluación. Se deberá alinear la necesidad de trabajar con Big Data con los objetivos específicos del proyecto o la evaluación. Algunas actividades previas incluyen entender cómo filtrar los registros web para comprender el comportamiento del comercio electrónico, extraer el sentimiento de las redes sociales, de las interacciones de atención al cliente, así como entender los métodos de correlación estadística.
Gestión y Almacenamiento
Lo primero que se debe hacer es almacenar los datos. Su solución de almacenamiento puede residir en la nube, on premise o ambas. La nube es la forma que más está aumentando.
Análisis: Manipulación, limpieza, transformación de datos
Una vez localizados y clasificados existen técnicas y programas específicos que ayudan a organizarlos y analizarlos, ya que los datos poseen un valor intrínseco que no tendrá utilidad hasta que dicho valor se descubra. Los modelos y procesos analíticos de Big Data pueden ser tanto humanos como automáticos. Las capacidades de análisis de Big Data incluyen estadísticas, análisis especiales, semántica, detección interactiva y visualización. Mediante el uso de modelos analíticos, puede relacionar distintos tipos y fuentes de datos para realizar asociaciones y hallazgos significativos.
Utilidad real en Evaluación y limitaciones del Big Data
El análisis de grandes datos es muy útil para las organizaciones en la calidad de su toma de decisiones y, por tanto, también son útiles en la evaluación. El cambio de paradigma está arrastrando los modelos tradicionales de análisis de datos hacia el Big Data de manera rápida y se podría decir que descontrolada. En primer lugar, se crea un nuevo software que tenga la capacidad de sustentar esa cantidad de información, se establecen nuevos modelos de análisis de la misma y se avanza considerablemente en el análisis semántico. Se fomenta el uso de aplicaciones como Hadoop, Apache Hadoop, Apache Spark semejante a Excel pero que permite utilizar miles de nodos distribuidos y con pentabytes de información. Hay que tener en cuenta que el crecimiento de las “3 V” en menos de 10 años pasó de contabilizar la información en Megabytes y Gigabytes a hacerlo en una serie de unidades de medida de un valor considerablemente más alto. Aparece el Pentabyte (1015 bytes), Exabyte (1018 bytes) y el Zettabyte (1021 bytes). También la velocidad del tratamiento de datos aumentó de manera exponencial.
Campos de aplicación
El modelo Big Data es aplicable a casi cualquier campo moderno en el que se precise un análisis de un volumen de datos elevado, a tiempo real, y con la posterior de generación de correlaciones, esto es, casi cualquier ámbito público-privado. En el esquema inferior se destacan las principales áreas en las que se utiliza este modelo.
Más concretamente, en el ámbito público se ha generado un nuevo concepto de, las denominadas Smart Cities (o ciudades inteligentes); que, basadas en el uso de software de análisis de Big Data, monitorizan todos los procesos llevados a cabo en las grandes ciudades con el fin de llevar a cabo medidas con mayor eficacia, eficiencia y sostenibilidad.
Bibliografía:
Brown, B., Chui, M., & Manyika, J. (2011). Are you ready for the era of ‘big data’. McKinsey Quarterly
Chen, Y. -C., & Hsieh, T. -C. (2014). Big data for digital government: Opportunities, challenges, and strategies. International Journal of Public Administration in the Digital Age
Coble, K., Griffin, T., Ahear, M., Ferrel, S., Mcfadden, J., Sonka, S., & Fulton, J. (2016). Avance de la competitividad agrícola de los Estados Unidos Con grandes datos y la economía agrícola Información de mercado, análisis e investigación. Obtenido de www.cfare.org: www.cfare.org
Janssen, M., Vander, H., & Huayudi, A. (8 de 2016). Factores que influyen en la calidad de los datos. Obtenido de journal on buisness research-ELSEVIER: www.sciencedirect.org
Joyanes, L. (2013). Análisis de grandes volúmenes de datos en organizaciones
Raghunathan, S. (1999). Impact of information quality and decision-maker quality on decision quality: A theoretical model and simulation analysis. Decision Support Systems
Zhou, Z. H., Chawla, N. V., Jin, Y., & Williams, G. J. (2014). Big data opportunities and challenges: Discussions from data analytics perspectives. IEEE Computational Intelligence Magazine
-
Aprovechando el Internet de las Cosas en Evaluación
inEl término Internet de las cosas fue propuesto por Kevin Ashton, un pionero británico en tecnologías, en 1999. Kevin defendía la idea de que las etiquetas RFID (Radio-frequency identification) asociadas a objetos físicos les conferían una identidad bajo la cual podían generar datos sobre ellos mismos o sobre lo que percibían y publicarlos en internet. En sus palabras:
“And that’s a big deal. We’re physical, and so is our environment. Our economy, society and survival aren’t based on ideas or information—they’re based on things. You can’t eat bits, burn them to stay warm or put them in your gas tank. Ideas and information are important, but things matter much more. Yet today’s information technology is so dependent on data originated by people that our computers know more about ideas than things” (Ashton, 2009)
Los avances tecnológicos han permitido que los objetos cotidianos como los vehículos, máquinas, electrodomésticos, etc. estén provistos de sensores y APIs para conectarse e intercambiar datos por internet. La digitalización del mundo físico puede ayudar a mejorar la vida cotidiana de las personas a través de las ciudades y hogares inteligentes. Algunos ejemplos curiosos son el cepillo de dientes que detectará caries; un despertador que accionara la cafetera; un retrete que realizar análisis de sangre; un frigorífico que detecte productos en mal estado, etc.
https://www.youtube.com/watch?v=uY-6PcO96Bw
Para poder trabajar con la información de los objetos es necesario que las aplicaciones suban la información a la nube para después poder interpretar y transmitir los datos que nos aportan los sensores ¿Cómo puede ayudar el Iot en los proyectos y a la hora de realizar sus evaluaciones? El IoT, consiste en conectar a internet cualquier objeto cotidiano basándose en tres pilares: captura de datos (telemetría, geoposicionamiento…), tratamiento del datos (Business Intelligence, Machine Learning…) y transformación de datos para utilizarlos en el proyecto y su evaluación. Esta información puede ser muy relevante y en el pasado era algo imposible de aprovechar, analizar y finalmente actuar, permitiendo tener un mayor control sobre los procesos, mayor eficiencia, reducción de costes, etc, aportando un extra de información más específica y detallada. En el caso de las evaluaciones, que requieren datos de seguimiento de la actividad a evaluar. puede ser interesante tener objetos conectados a internet que permitan recopilar información sobre el mismo de forma automática y en tiempo real.
Una oportunidad para la Evaluación: Los Vestibles ( Wearables) y las Ciudades Inteligentes ( Smart Cities)
Este concepto se refiere a llevar la tecnología literalmente puesta. La tecnología vestible consiste consiste en llevar en la ropa o en los complementos todas estas opciones que ya nos brindan diferentes aparatos. Estos dispositivos además de ofrecernos información sobre nuestra actividad, también interactúan con nosotros. Si por ejemplo realizamos ejercicio, además de mostrarnos nuestras pulsaciones, nos avisará si nuestro ritmo es demasiado alto. Otro buen ejemplo es cuando utilizamos nuestros dispositivos móviles como GPS, pues gracias a los wearables no hará falta mirar el mapa que muestra la pantalla, sino que ligeras vibraciones nos informará hacia dónde tenemos que girar.
Las ciudades Inteligentes pueden ser también un repositorio de conocimiento, donde los objetos físicos que la habitan, como el mobiliario urbano, sensores de polución, semáforos, camiones de recogida de residuos o sistemas de riego de jardines podrían recoger información sobre los cambios que perciben a lo largo del tiempo. Por ejemplo, el nivel de polución diaria sería actualizada constantemente por los sensores de polución por hora, día y zona, el control de tráfico se apoyaría en la correlación entre un aumento de los niveles de polución de una zona y la información meteorológica relevante, permitiendo tomar decisiones de planificación de tráfico que mejoren la calidad de vida de los ciudadanos. Ya existen ejemplos de metrópolis de este tipo como Smart Santander (España), Amsterdam Smart City (Países Bajos) y Songdo IBD (Corea del Sur). Todo los que se puede medir se puede gestionar. Cuando contamos con cifras, con datos, con todo tipo de información respecto a un fenómeno, y disponemos de los conocimientos y las técnicas para interpretarlos correctamente, podemos ser capaces de identificar los factores que afectan a dicha experiencia y adaptarlos para obtener los resultados deseados.
Las empresas aplican esta tecnología desde hace años, ahora les toca a las personas individuales. La utilidad de recoger continuamente datos de nuestras actividades cotidianas permitirá efectuar análisis de nuestros hábitos. E sta tendencia, se denomina «yo cuantificado» (quantified self) y permitirá hacer visible la información invisible, revelar datos que siempre han estado ahí, pero nunca se han medido.
Un reto importante para estas tecnologías es la autonomía energética para su funcionamiento. No se puede complicar nuestro estilo de vida multiplicando el número de aparatos que debemos monitorizar diariamente. Sin embargo, la telecomunicación y la inteligencia electrónica tienen un coste energético en los dispositivos. La investigación tecnológica en baterías con mayor capacidad por unidad de volumen, microprocesadores con menor consumo, y módulos de comunicaciones inalámbricas con mayor eficiencia energética se incluyen dentro del concepto de energy harvesting (recolección de energía) que se refiere a la capacidad de algunos de los productos inteligentes, especialmente los vestibles o los sensores situados al aire libre, de obtener energía del medio en el que se encuentran, de manera natural y en cantidades suficientes para ser autónomos por largos periodos de tiempo. Algunos ejemplos son la alimentación cone energía solar de sensores, el calzado o equipamiento deportivo capaces de obtener energía acumulada por el movimiento o la flexión que se da durante su uso.
El lado negativo de Iot es que se hace urgente y necesario extremar las medidas de seguridad y desarrollar rápidamente las leyes necesarias para proteger la privacidad de las personas y otorgarles el pleno derecho a ser los decisores del destino de dicha información.
Referencias
Chui, M., M. Löffler y R. Roberts. «The Internet of Things», McKinsey Quarterly, marzo 2010.
Evans, D. «The Internet of Things: How the next evolution of the Internet of Things is changing everything», Cisco, abril de 2011.
Gruman, G., S. Bauer y V. Baya. «Using technology to help customers achieve their goals», PWC Technology Forecast, 1: «Internet of Things: Evolving transactions into relationships», 2013.
Harbor Research. «Shared Destinies: How The Internet of Things, Social Networks & Creative Colaboration Will Shape Future Market Structure», 2009.
Nold, C. y R. van Kranenburg. «The Internet of People for a Post-Oil World», Situated Technologies Pamphlets 8. Nueva York: The Architectural League, 2011.
Smith, I. (ed.). «The Internet of Things 2012. New Horizons», IERC – Internet of Things European Research Cluster, 2012.
Swan, M. «Sensor mania! The Internet of Things, wearable computing, objective metrics, and the Quantified Self 2.0», Journal of Sensor and Actuator Networks, 1, 3 (2012): 217-253.
Van Kranenburg, R. «The Internet of Things. A critique of ambient technology and the all-seeing network of RFID», Network Notebooks 02, Institute of Network Cultures, Ámsterdam, 2007.
Vázquez, J. I., «Horizontes y desafíos de Internet de las cosas», en C@mbio: 19 ensayos clave sobre cómo internet está cambiando nuestras vidas, Madrid, BBVA, 2013.
-
Análisis DAFO
inFase evaluación: Estructuración
Tipo evaluación: Global
Técnica participativa: No
Grado de Complejidad: Medio
Otros Nombres: FODA, SWOT
Bibliografía Recomendada
Descripción
Se realiza previamente a la evaluación para la validación de objetivos que se esperan alcanzar y elección de la estrategia de intervención más apropiada, aunque también puede usarse para evaluar una estrategia que ha sido ya establecida o ejecutada. Se crea una matriz (DAFO, Debilidades- Amenazas-Fortalezas-Oportunidades) donde se representan y analizan las debilidades internas y las amenazas externas, que son los aspectos desfavorables, y por otro lado las fortalezas internas y las oportunidades externas que son los aspectos favorables del proyecto. Permite realizar una evaluación “ex-ante” de las principales alternativas priorizadas, para tratar de comparar ventajas e inconvenientes, prever
Pasos a seguir
- Crear la matriz DAFO: Recopilando las Debilidades, Amenazas, Fortalezas y Oportunidades.
- Crear la matriz de Estrategias: Se procede a crear las estrategias que harán frente a todos los problemas detectados,
- Estrategias de Supervivencia (debilidades + amenazas):
- Estrategias Adaptativas (debilidades + oportunidades):
- Estrategias Defensivas (fortalezas + amenazas):
- Estrategias Ofensivas (fortalezas + oportunidades):
-
Marco lógico
inFase evaluación: Estructuración
Tipo evaluación: Específica:
Evaluación participativa: Sí
Grado complejidad: Medio
Otros Nombres: Logical Framework
Bibliografía Recomendada
Descripción
Sirve para estructurar la lógica de una intervención a través de relaciones de causalidad (graduación de objetivos, condiciones y riesgos para el éxito, recursos, productos-resultados-impactos y objetivos…). Se basa en una presentación matriz de la intervención.
Con su lógica vertical (3 niveles internos y un cuarto (aim) que lo liga a un programa o política más amplio fuera de la esfera de gestión): recursos (inputs) – productos (outputs) – objetivos o impactos específicos (goals) – objetivos o impactos globales (aim); y con su lógica horizontal que identifica y describe lo que se produce a cada nivel: indicadores de éxito verificables y fuentes de verificación.
Se emplea a menudo en desarrollo. Se adapta mal a la evaluación de programas complejos por su excesiva simplificación. Es muy útil para la evaluación ex-ante de intervenciones sencillas o como complemento a otras herramientas en otro tipo de evaluaciones. Permite: Clarificar el propósito y la justificación de un proyecto; Identificar las necesidades de información; Definir claramente los elementos clave de un proyecto; Analizar el entorno del proyecto desde el inicio;Facilitar la comunicación entre las partes implicadas;Identificar cómo habría que medir el éxito o el fracaso del proyecto.
La técnica debe ser usada con la participación de la gente implicada en la intervención (fases intermedias de reflexión colectiva).
Pasos a seguir
1.Análisis del contexto (los problemas a resolver)
El punto de partida de la determinación de objetivos es la identificación y priorización de problemas.
2.Análisis de objetivos
Un proyecto se define en función de un fin u objetivo superior, el cual se puede lograr mediante la combinación de propósitos u objetivos específicos.
Determinación del objetivo superior. Lógicamente, es la respuesta a lo que se identificó como problema central.
Determinación de los objetivos específicos. Pueden ser una respuesta a las causas principales de nuestro problema central
3.Análisis de la lógica de intervención
Cada objetivo específico se cumple a través de una serie de productos o resultados. Para lograr cada resultado, necesitamos cumplir ciertas acciones y/o obtener ciertos insumos.
- Determinación de los resultados. Estos son a su turno, los logros necesarios y suficientes para asegurar que se cumpla cada uno de los objetivos específicos (ver ilustración).
- Determinación de las actividades e insumos. Aquí debemos listar, todo lo que el proyecto deberá hacer para asegurar los resultados (ver ilustración).
La base del marco lógico es la coherencia: es fundamental, asegurarse que no hay ningún fallo lógico, en el sentido de que la realización de lo que pusimos a cada nivel asegura el logro del nivel superior.
La matriz de marco lógico normalmente incluye los indicadores verificables y los medios para verificarlos y los supuestos: son los elementos fuera del control del proyecto, que son necesarios para lograr los objetivos. Si existen supuestos imposibles de lograr, toda la lógica debe ser revisada.
-
Estudio de caso
inFase evaluación: Observación
Tipo evaluación: Global/ Específica
Evaluación participativa: No
Grado complejidad: Alto
Otros Nombres:
Bibliografía Recomendada
Descripción
Estudio en profundidad de los datos de un caso específico (i.e. individuos, organizaciones, programas, procesos de toma de decisiones…).
Única herramienta de observación directa en campo para evaluación general de una intervención compleja. Apropiada para el análisis inductivo de impactos y sobre todo para las intervenciones innovadoras para las que no existen una teoría explicativa de impactos, o intervenciones que requieren estudio de campo por no haber información disponible.
Añade realismo a una evaluación si es representativo del programa completo o ilustra un punto concreto. Se concluye con un monográfico presentado en forma de narrativa (como una historia, dando sensación de autenticidad).
Pueden realizarse una serie de estudios de caso de manera simultánea, acumulativa o iterativa. Esto último consiste en realizar varias series de estudios de caso, cuidadosamente seleccionados para comprobar un supuesto. Da idea de procesos o complejidades que son imposibles de ver de otro modo.
Pasos a seguir
Es una de las herramientas menos estandarizadas dependiendo de muchos factores.
- Selección de caso de estudio: Criterios de conveniencia, acceso, propósito (el mejor o peor caso, el caso típico o particular), representatividad.
- Recogida de datos: Toda la información disponible (informes, entrevistas, observaciones en campo, encuestas…).
- Elaboración del informe: Organización temática o cronológica de la información.
- Inclusión en la evaluación: descripción detallada, y luego uso para comparación o contraste.
-
Entrevista individual
inFase evaluación: Observación
Tipo evaluación: Global/Específica
Evaluación participativa Sí
Grado complejidad: Alto
Otros Nombres:
Bibliografía Recomendada
Descripción
Para recoger datos cualitativos y las opiniones de las personas afectadas o posiblemente afectadas por la intervención, su contexto, su implantación y sus efectos. Existen diversos tipos de entrevista individual, incluidos la conversación informal, entrevistas semi-estructuradas y entrevistas estructuradas. Esta última constituye la fórmula más rígida y se asemeja a un cuestionario. La entrevista semi-estructurada consiste en obtener las reacciones de una persona a elementos predeterminados, sin limitar su libertad para interpretar y reformular dichos elementos.
Se usa en un contexto exploratorio, cuando uno no tiene un conocimiento adecuado de la intervención para hacer un cuestionario. O cuando la población de estudio es muy pequeña.
Muy útil para obtener la visión de actores clave de la intervención (gestores, principales protagonistas…).
Pasos a seguir
- Selección de las personas a entrevistar.
- Planificación de la entrevista: guía de la entrevista (checklist para asegurar que tratamos todos los temas esenciales) que se puede mandar previamente. Asegurar confidencialidad.
- Selección y formación de entrevistadores: Profesionalización (comunicación, escuchar, toma de notas…). Asegurar proximidad social. Cuanto menos estructurada la entrevista, se necesita más profesionalización y más conocimientos del tema.
- Entrevista: Respeto. La grabación puede suponer menor franqueza. Comprobar la transcripción o resumen con el entrevistado. Carta de agradecimiento.
- Análisis de resultados: Por entrevista o análisis temático transversal. Comparar la información dada por los distintos entrevistados
-
Encuesta
inFase evaluación: Observación
Tipo evaluación: Global/ Específica
Evaluación participativa: No
Grado complejidad: Alto
Otros Nombres:
Bibliografía Recomendada
Descripción
Un conjunto de preguntas estructuradas destinadas a una muestra de personas o de manera exhaustiva cubriendo toda la población, para recoger opiniones. Las preguntas pueden ser abiertas (el entrevistado es libre de formular sus respuestas como quiera, más complejas de analizar) cuando no tienes muy claro lo que quieres observar, cerradas (tiene que elegir entre enunciados predefinidos o descriptores), semiabiertas (cerrada con la opción otros…) Si la mayoría son cerradas puede utilizarse para recoger datos cuantitativos y para alimentar indicadores. Puede realizarse por correo, teléfono, correo electrónico o en una entrevista personal. Su ventaja es que produce resultados aplicables a toda la población directamente si es exhaustiva o por extrapolación de la muestra.
Pasos a seguir
- Diseño de cuestionarios: claridad (no hay entrevistador enfrente), coherencia, formulación neutral de preguntas, triangulación (cuestiones similares para definir los límites de una respuesta con riesgo de sesgo).
- Diseño de la muestra: Constituye un modelo de toda la población (dividir por grupos y coger de todos). El tamaño (al menos 400) dependerá de la precisión (para doblar la precisión hay que multiplicar el nº de cuestionarios por cuatro) y la heterogeneidad de las respuestas.
- Pre-test: Antes de lanzar la versión final.
- Administración del cuestionario: Porcentaje de respuesta varía con el medio usado.
- Codificación de respuestas: Con ayuda de la informática.
- Interpretación y diseminación de resultados: Resultados, limitaciones…
-
SIG (GIS)
inFase evaluación: Análisis
Tipo evaluación:
Evaluación participativa: NO
Grado complejidad: Alto
Otros Nombres: SIG, GIS
Descripción
Los sistemas de información geográfica (SIG) fueron desarrollados inicialmente en los años setenta para almacenar y procesar información relacionada con el medio físico. Recientemente, el interés de estas herramientas se ha extendido a la información socioeconómica de modo que se han convertido en medios para juntar todo tipo de datos que puedan ser referidos directa o indirectamente a una localización geográfica. Son usadas ahora en planificación territorial para recoger, juntar, acumular, analizar, exponer y actualizar toda información referenciable territorialmente. Los avances en el desarrollo de los ordenadores, especialmente en el campo de la cartografía asistida por ordenador, ha permitido un gran desarrollo de estos sistemas. Ha permitido tratar más eficientemente la complejidad del mundo real. Gracias al SIG, esta complejidad puede ser descrita y analizada mediante la combinación de diferentes dimensiones de información: temática, espacial y temporal. En evaluación permite comparar datos considerando su localización. Los mapas producidos son comparaciones visuales muy informativas. Facultad didáctica para la explotación de los datos, fácil de ver los resultados.
Pasos a seguir
- Recogida de datos.
- Almacenamiento y gestión de la base de datos geográfica.
- Explotación y análisis de los datos.