El riesgo de “lo suficientemente bueno” - Circuito Cinco

Anuncio
El riesgo de “lo suficientemente bueno”
Denise Norberg-Johnson, Electrical Contractor Magazine, Julio 2010
Traducido y adaptado por Ing. Horacio Fabres P.
Un desastre a la escala del derrame de petróleo en el golfo de México es improbable en una empresa
pequeña o mediana, por lo que no existen razones para el análisis de catástrofes. Hasta los expertos
reconocen que los modelos existentes son imperfectos. Después de todo, ¿cómo se puede predecir lo
impredecible?
Incluso los expertos en análisis de riesgo admiten que es imposible validar plenamente un modelo o
simulación, ya que los sistemas complejos deben ser simplificados. En el caso de los fenómenos
naturales, como los huracanes, los estadísticos reúnen datos históricos y buscan patrones para predecir
condiciones que puedan favorecer la formación de huracanes en el futuro. Siempre se hacen
suposiciones, y hay factores desconocidos que afectan la exactitud del modelo.
Catástrofes recientes como la de las torres gemelas, el huracán Katrina y el derrame de BP en el golfo
de México, han elevado el interés en la predicción del riesgo. Organizaciones como el Centro de
Gestión de Riesgos de la Universidad de California en Berkeley, intentan analizar las causas de los
desastres, así como su costo potencial a la sociedad. Esto es similar a los procesos que usan los
actuarios de las compañías de seguros y financieras para establecer las primas de las pólizas y las
tarifas de los servicios. Debido a que los efectos de una catástrofe pueden ser tan abrumadores en
pérdidas de vidas, costo material y tiempo de recuperación, la meta primordial es la prevención de
eventualidades futuras.
Al intentar analizar el riesgo en una empresa, puede ser que no se use un modelo matemático
sofisticado, pero lo que se espera es evaluar el costo de una inversión para prevenir pérdidas contra el
costo real de tal pérdida y la probabilidad de que ocurra. En otras palabras, se juega con el azar. Si no
se gasta el tiempo ni el dinero para crear un sistema “a prueba de fallas”, se toma el riesgo de un
impacto negativo más adelante. Frecuentemente los análisis de costo-beneficio los hacen los
departamentos financieros o se les dejan a los profesionales en seguros y en instrumentos financieros.
Para la mayoría de las empresas, el estándar final es alguna versión de “lo suficientemente bueno”, se
gastan los recursos suficientes para proteger a las personas y a los activos contra las eventualidades
más probables. Para las raras ocurrencias se toma el riesgo debido a que es imposible tener un sistema
a prueba de fallas.
El ingeniero Kenneth Brill, fundador del Uptime Institute (podría traducirse como “Instituto del
Tiempo Completo”) estaría en desacuerdo, ya que su organización ayuda a los centros de cómputo a
aumentar su tiempo de operación previniendo las fallas. En un reciente comentario en línea a la revista
Forbes.com (“La causa real del derrame de BP”, 26 de mayo de 2010), Brill afirma que los ingenieros
están entrenados para diseñar cosas que “generalmente estén funcionando”, lo cual implica una
tolerancia a la falla. Buscar un balance entre el riesgo de falla y el costo adicional de la confiabilidad
perfecta (cero fallas) conduce a un estándar de “lo suficientemente bueno”. Sin embargo, cuando
ocurre una catástrofe, cambia el enfoque. Esa tolerancia al riesgo de falla puede afectar no sólo las
utilidades, sino el mismo futuro de la empresa. En su opinión, algunas fallas son intolerables.
1
¿Es esta opinión realista? La posibilidad de falla parece estar pre-programada en el ser humano: un
estudiante de medicina puede sacar un 10 en un examen final sin haber contestado en forma
absolutamente correcta todas las preguntas. Las empresas le dan prioridad a la seguridad, pero esperan
alguno que otro accidente. Esperamos también ver errores tipográficos en la documentación o errores
de cálculo al elaborar presupuestos.
El perfeccionismo nos parece arrogante y hasta neurótico. Debido a que “sólo Dios es perfecto”, los
tejedores de tapices judíos dejaban un error deliberado en todo producto terminado. “Nadie es
perfecto” es una excusa general para un pobre rendimiento .Los accionistas y juntas directivas se
resisten a gastos extremos para recursos redundantes “innecesarios”. A los clientes no les gusta el
efecto de los estándares a prueba de fallas sobre los costos y presionan a los contratistas a hacer
recortes. Lo peor de todo es tal vez que la presión sobre los empleados a realizar más trabajo en menos
tiempo conduce a la percepción de que la seguridad y la calidad son menos importantes que la
rentabilidad.
Algunas empresas incluso valoran los errores como una herramienta de aprendizaje, como el caso de
un empleado de una línea aérea que le hizo perder a su compañía más de un millón de dólares al perder
el perro fino de un pasajero. De manera que el costo de los errores no es más que uno de los costos del
negocio, y cada empresa establece su propio estándar de “lo suficientemente bueno” midiendo costo
contra riesgo.
Consideremos ahora el estándar de “lo suficientemente bueno” desde el punto de vista del cliente.
¿Piensa un paciente quirúrgico que una probabilidad de supervivencia del 90% es “suficientemente
buena”, aún cuando signifique una nota 10 para el cirujano? ¿Desea un cliente comercial que un
contrato redactado por su abogado tenga un 80% de exactitud? ¿Espera usted que su TV funcione el
70% del tiempo, aunque esa nota sea suficiente para “pasar”?
Lo mismo es verdad para el trabajo en sitio de un contratista. ¿Cuál es el costo real para su empresa o
la empresa donde usted trabaja, de un porcentaje de error del 10%, y cuánto cuesta reducir ese
porcentaje? A menos que su empresa haya sobrevivido una crisis real causada por el estándar “nadie es
perfecto”, puede ser que por ahora no se desee alterar la fórmula “riesgo versus utilidades” si eso va a
afectar su rentabilidad.
Aunque parezca que abogar por un estándar “cero fallas” pueda ser innecesariamente caro, el derrame
de BP nos recuerda trágicamente que la tolerancia a fallas, aún pequeñas, puede conducir al desastre.
Rober Bea, un profesor de ingeniería de la Universidad de California en Berkeley, y miembro de un
equipo científico que investigó las fallas en los diques en Nueva Orleans durante el huracán Katrina en
2005, ha documentado eventos que condujeron a la explosión de la plataforma petrolera Deepwater
Horizon el 20 de abril de 2010. He aquí algunos de sus hallazgos:




Aunque las “patadas” de gas natural son comunes, varias habían parado el trabajo semanas antes, y
una patada intensa había causado una detención total por el miedo a una explosión.
Poco antes de la explosión, y después de un debate entre los ingenieros, se decidió sustituir el barro
de relleno pesado que hacía de defensa contra las patadas con agua de mar más liviana.
Un año antes BP había etiquetado los problemas intermitentes con bolsas de gas natural que subían
forzadamente por las tuberías de perforación como “riesgo despreciable”, aunque el gobierno le
había advertido a la compañía a seguir con precaución, ya que era una “preocupación real”.
Los empleados en forma repetida advirtieron a la compañía de problemas subyacentes pero eran
ignorados por ejecutivos que trabajaban lejos de la plataforma.
2
Fue coincidencia que el día de la explosión ingenieros y administrativos estuvieran en la plataforma
celebrando siete años de funcionamiento bajo una perfecta seguridad, y algunos de ellos resultaran
heridos o muertos.
De la investigación de desastres surge un patrón. El propietario de la plataforma, Transocean, estuvo
involucrado en el proceso de decisiones, y el contratista, Halliburton, usó cemento de fraguado rápido
para las barreras creadas para mantener el gas fuera del pozo. Las válvulas de prevención de explosión
fallaron en el cierre del pozo. El Servicio de Administración de Minerales, la agencia gubernamental
encargada de la supervisión, aprobó los planes de perforación. Bea traza un paralelo entre los errores
de quienes tomaron las decisiones en los casos del derrame petrolero y del huracán Katrina, al
considerar “riesgos residuales”, definidos como las cosas que los planificadores no creen que vayan a
fallar. En ambos casos acusa a los ingenieros de considerar parcialmente el escenario de riesgos.
Esto se relaciona con las empresas medianas y pequeñas en que confirma el peligro inherente de
aceptar errores. Un secuencia de equivocaciones puede conducir a una catastrófica pérdida de vidas,
recursos, reputación, y posiblemente hasta el negocio. Las investigaciones de economistas del
comportamiento muestran que la gente, en forma primitiva, sobre- o sub-estima números o márgenes
de error al calcular riesgos, y los cientistas sociales han encontrado la misma tendencia en los expertos.
En su libro “Catástrofe: Riesgo y Respuesta”, Richard A. Posner argumenta que el cerebro humano
pone más atención a los eventos más recientes, y a las evidencias que parecieran confirmar la
probabilidad de una catástrofe. Nuestras limitaciones para entender el riesgo nos hace prepararnos
inadecuadamente para un desastre, por lo que podemos decidir tomar seguros insuficientes o
reconstruir nuestra casa en el mismo terreno sometido a inundaciones donde estaba antes.
Ponga atención a las cosas pequeñas. Por ejemplo, una serie de problemas menores pueden hacer que
su póliza de riesgos aumente más que si sólo tiene un incidente mayor. En otras palabras, una empresa
que tolera un patrón de accidentes a cualquier nivel es probable que sufra más adelante un problema
considerable. Las decisiones a menores niveles de supervisión causan la mayor parte de los desastres.
Se debe entrenar a los supervisores a estar más atentos a los riesgos potenciales, e insistirles en que
deben escuchar a los subalternos que plantean asuntos de seguridad. Evite la tentación de desestimar a
los empleados por problemas de costo.
Esté atento a las situaciones inusuales. Las catástrofes son el resultado de eventos improbables o
interacciones inesperadas que ocurren juntas. Observe las situaciones que lo inquieten, especialmente
si están fuera del control de su empresa. No se haga complaciente, especialmente al acercarse el final
de un proyecto. El exceso de confianza hundió al Titanic, recuerde que sólo se ve la punta del iceberg.
3
Descargar