
Blog

Idan Cabello - Ingeniero de Higiene y Seguridad Industrial, Maestría en Gestión de Riesgos en Francia
¿Estás pensando en darte un regalo?
Entonces, te recomiendo adquirir el Libro: "How Not to Be Wrong: The Power of Mathematical Thinking del profesor Jordan Ellenberg, quién se refiere a las matemáticas como "la ciencia de no estar equivocado" o "la continuación del sentido común por otros medios".
Desde la primera página comprobarás que las matemáticas se soportan en el "sentido común", y las aplicamos más de lo que pensamos.
¿Qué datos tenemos? y ¿qué datos no tenemos?
A veces, la imagen completa está oculta porque los datos que disponemos, son los que han "sobrevivido" a algún filtro o selección. Veamos una interesante lección de historia tomada del libro de Jordan Ellenberg (páginas 3 a la 9).
Durante la 2da Guerra Mundial, la fuerza aérea se propuso mejorar la tasa de retorno de sus aviones. Las mejoras a implementar deberían evitar sobrecargar los aviones, de manera de mantener su capacidad de carga de bombas. Es por esto que se analizaron los agujeros de bala de los aviones (número y ubicación), llegando a la conclusión preliminar que:
- Habían agujeros de bala en todas partes, excepto en el motor y en la cabina.
- Tenían que reforzar las de más partes; es decir, las alas y la parte trasera del fuselaje, para protegerlas de la artillería alemana.
Después de un corto período de observación, los primeros resultados fueron nada alentadores: pues la tasa de retorno (o supervivencia) de los aviones no aumentó, sino que incluso disminuyó ligeramente. ¡Cada vez retornaban a la base menos aviones que antes!.
Esta problemática llevó a convocar a un grupo de expertos de la SRG (Statistical Research Group), los "más más" del momento, "la crème de la crème" ... con la misión de determinar el mejor lugar para reforzar los aviones de guerra.
- ANÁLISIS
La aplicación estadística aplicada hasta esta parte tuvo un sesgo, específicamente en el proceso de recopilación de dato. La muestra utilizada para tomar la decisión de refuerzo de la armadura no fue la correcta debido a que no incluía al "grupo de interés" que son los aviones que no regresaban a la base. Esta observación fue realizada por Abraham Wald, especialista en Teoría de la Decisión Estadística del SRG, quien explicó que si los aviones con agujeros de bala en las alas y en el fuselaje tienen mayor probabilidad de retorno, es porque estas son zonas menos críticas y capaces de soportar el daño.
Dicho de otra forma, los aviones que no retornan son aquellos que han sido alcanzados en otros lugares: en los tanques (pues explotan), en la cabina (pues contiene al piloto¡¡) o en los motores (pues hacen posible el vuelo).
- SOLUCIÓN ENCONTRADA
Se llegó a la conclusión que las probabilidades de que cualquier parte del avión fuera impactada por artillería enemiga eran similares. La razón por la cual regresaban menos aviones con daños en el motor y la cabina, era simplemente por que estos estos aviones no sobrevivían frente a la artillería enemiga.
Por lo tanto, lo que había que hacer es reforzar las partes de los aviones supervivientes que tenían menor cantidad de agujeros.
¿Cómo evitar el sesgo de supervivencia en la gestión de la seguridad?
Primero, tenemos que ver la imagen completa y saber que datos estamos tomando y que datos no.
En la gestión de la seguridad, nos basamos - algunas veces en extremo - de los indicadores de seguridad, o mejor dicho de "inseguridad", pues procesamos el número de eventos donde los sistemas fallan (accidentes, enfermedades) antes que el número de eventos donde los sistemas funcionan correctamente (los casos de éxito, las buenas prácticas, etc.).
El año pasado en un congreso en Italia, pude conocer al Profesor Erik Hollnagel, quién en una de sus ponencias mencionó que la gestión de la seguridad suele ser REACTIVA pues da mayor peso al enfocarse en "prevenir que las cosas salgan mal" antes que asegurar que los resultados aceptables sean "tan altos como sean posibles".
En esa línea, propone que la gestión sea también PROACTIVA, donde el objetivo sea garantizar que todo salga bien, en el sentido de que cada actividad diaria logre sus objetivos. Esto quiere decir, una gestión de la seguridad que también se soporte en los logros (lo que sale bien) en lugar de considerar solo a las fallas, como lo hace el análisis de riesgos tradicional.
Finalmente, al tomar una decisión debemos asegurarnos de considerar si los datos que estamos analizando han "sobrevivido" a algún filtro o sesgo cognitivo, y si hay algún dato potencialmente obviado que debería considerarse en la "ecuación".
Líneas abajo, tomado de: https://dilbert.com/ , que ilustra muy bien el concepto del Sesgo del Superviviente.

