El riesgo de “lo suficientemente bueno” Denise Norberg-Johnson, Electrical Contractor Magazine, Julio 2010 Traducido y adaptado por Ing. Horacio Fabres P. Un desastre a la escala del derrame de petróleo en el golfo de México es improbable en una empresa pequeña o mediana, por lo que no existen razones para el análisis de catástrofes. Hasta los expertos reconocen que los modelos existentes son imperfectos. Después de todo, ¿cómo se puede predecir lo impredecible? Incluso los expertos en análisis de riesgo admiten que es imposible validar plenamente un modelo o simulación, ya que los sistemas complejos deben ser simplificados. En el caso de los fenómenos naturales, como los huracanes, los estadísticos reúnen datos históricos y buscan patrones para predecir condiciones que puedan favorecer la formación de huracanes en el futuro. Siempre se hacen suposiciones, y hay factores desconocidos que afectan la exactitud del modelo. Catástrofes recientes como la de las torres gemelas, el huracán Katrina y el derrame de BP en el golfo de México, han elevado el interés en la predicción del riesgo. Organizaciones como el Centro de Gestión de Riesgos de la Universidad de California en Berkeley, intentan analizar las causas de los desastres, así como su costo potencial a la sociedad. Esto es similar a los procesos que usan los actuarios de las compañías de seguros y financieras para establecer las primas de las pólizas y las tarifas de los servicios. Debido a que los efectos de una catástrofe pueden ser tan abrumadores en pérdidas de vidas, costo material y tiempo de recuperación, la meta primordial es la prevención de eventualidades futuras. Al intentar analizar el riesgo en una empresa, puede ser que no se use un modelo matemático sofisticado, pero lo que se espera es evaluar el costo de una inversión para prevenir pérdidas contra el costo real de tal pérdida y la probabilidad de que ocurra. En otras palabras, se juega con el azar. Si no se gasta el tiempo ni el dinero para crear un sistema “a prueba de fallas”, se toma el riesgo de un impacto negativo más adelante. Frecuentemente los análisis de costo-beneficio los hacen los departamentos financieros o se les dejan a los profesionales en seguros y en instrumentos financieros. Para la mayoría de las empresas, el estándar final es alguna versión de “lo suficientemente bueno”, se gastan los recursos suficientes para proteger a las personas y a los activos contra las eventualidades más probables. Para las raras ocurrencias se toma el riesgo debido a que es imposible tener un sistema a prueba de fallas. El ingeniero Kenneth Brill, fundador del Uptime Institute (podría traducirse como “Instituto del Tiempo Completo”) estaría en desacuerdo, ya que su organización ayuda a los centros de cómputo a aumentar su tiempo de operación previniendo las fallas. En un reciente comentario en línea a la revista Forbes.com (“La causa real del derrame de BP”, 26 de mayo de 2010), Brill afirma que los ingenieros están entrenados para diseñar cosas que “generalmente estén funcionando”, lo cual implica una tolerancia a la falla. Buscar un balance entre el riesgo de falla y el costo adicional de la confiabilidad perfecta (cero fallas) conduce a un estándar de “lo suficientemente bueno”. Sin embargo, cuando ocurre una catástrofe, cambia el enfoque. Esa tolerancia al riesgo de falla puede afectar no sólo las utilidades, sino el mismo futuro de la empresa. En su opinión, algunas fallas son intolerables. 1 ¿Es esta opinión realista? La posibilidad de falla parece estar pre-programada en el ser humano: un estudiante de medicina puede sacar un 10 en un examen final sin haber contestado en forma absolutamente correcta todas las preguntas. Las empresas le dan prioridad a la seguridad, pero esperan alguno que otro accidente. Esperamos también ver errores tipográficos en la documentación o errores de cálculo al elaborar presupuestos. El perfeccionismo nos parece arrogante y hasta neurótico. Debido a que “sólo Dios es perfecto”, los tejedores de tapices judíos dejaban un error deliberado en todo producto terminado. “Nadie es perfecto” es una excusa general para un pobre rendimiento .Los accionistas y juntas directivas se resisten a gastos extremos para recursos redundantes “innecesarios”. A los clientes no les gusta el efecto de los estándares a prueba de fallas sobre los costos y presionan a los contratistas a hacer recortes. Lo peor de todo es tal vez que la presión sobre los empleados a realizar más trabajo en menos tiempo conduce a la percepción de que la seguridad y la calidad son menos importantes que la rentabilidad. Algunas empresas incluso valoran los errores como una herramienta de aprendizaje, como el caso de un empleado de una línea aérea que le hizo perder a su compañía más de un millón de dólares al perder el perro fino de un pasajero. De manera que el costo de los errores no es más que uno de los costos del negocio, y cada empresa establece su propio estándar de “lo suficientemente bueno” midiendo costo contra riesgo. Consideremos ahora el estándar de “lo suficientemente bueno” desde el punto de vista del cliente. ¿Piensa un paciente quirúrgico que una probabilidad de supervivencia del 90% es “suficientemente buena”, aún cuando signifique una nota 10 para el cirujano? ¿Desea un cliente comercial que un contrato redactado por su abogado tenga un 80% de exactitud? ¿Espera usted que su TV funcione el 70% del tiempo, aunque esa nota sea suficiente para “pasar”? Lo mismo es verdad para el trabajo en sitio de un contratista. ¿Cuál es el costo real para su empresa o la empresa donde usted trabaja, de un porcentaje de error del 10%, y cuánto cuesta reducir ese porcentaje? A menos que su empresa haya sobrevivido una crisis real causada por el estándar “nadie es perfecto”, puede ser que por ahora no se desee alterar la fórmula “riesgo versus utilidades” si eso va a afectar su rentabilidad. Aunque parezca que abogar por un estándar “cero fallas” pueda ser innecesariamente caro, el derrame de BP nos recuerda trágicamente que la tolerancia a fallas, aún pequeñas, puede conducir al desastre. Rober Bea, un profesor de ingeniería de la Universidad de California en Berkeley, y miembro de un equipo científico que investigó las fallas en los diques en Nueva Orleans durante el huracán Katrina en 2005, ha documentado eventos que condujeron a la explosión de la plataforma petrolera Deepwater Horizon el 20 de abril de 2010. He aquí algunos de sus hallazgos: Aunque las “patadas” de gas natural son comunes, varias habían parado el trabajo semanas antes, y una patada intensa había causado una detención total por el miedo a una explosión. Poco antes de la explosión, y después de un debate entre los ingenieros, se decidió sustituir el barro de relleno pesado que hacía de defensa contra las patadas con agua de mar más liviana. Un año antes BP había etiquetado los problemas intermitentes con bolsas de gas natural que subían forzadamente por las tuberías de perforación como “riesgo despreciable”, aunque el gobierno le había advertido a la compañía a seguir con precaución, ya que era una “preocupación real”. Los empleados en forma repetida advirtieron a la compañía de problemas subyacentes pero eran ignorados por ejecutivos que trabajaban lejos de la plataforma. 2 Fue coincidencia que el día de la explosión ingenieros y administrativos estuvieran en la plataforma celebrando siete años de funcionamiento bajo una perfecta seguridad, y algunos de ellos resultaran heridos o muertos. De la investigación de desastres surge un patrón. El propietario de la plataforma, Transocean, estuvo involucrado en el proceso de decisiones, y el contratista, Halliburton, usó cemento de fraguado rápido para las barreras creadas para mantener el gas fuera del pozo. Las válvulas de prevención de explosión fallaron en el cierre del pozo. El Servicio de Administración de Minerales, la agencia gubernamental encargada de la supervisión, aprobó los planes de perforación. Bea traza un paralelo entre los errores de quienes tomaron las decisiones en los casos del derrame petrolero y del huracán Katrina, al considerar “riesgos residuales”, definidos como las cosas que los planificadores no creen que vayan a fallar. En ambos casos acusa a los ingenieros de considerar parcialmente el escenario de riesgos. Esto se relaciona con las empresas medianas y pequeñas en que confirma el peligro inherente de aceptar errores. Un secuencia de equivocaciones puede conducir a una catastrófica pérdida de vidas, recursos, reputación, y posiblemente hasta el negocio. Las investigaciones de economistas del comportamiento muestran que la gente, en forma primitiva, sobre- o sub-estima números o márgenes de error al calcular riesgos, y los cientistas sociales han encontrado la misma tendencia en los expertos. En su libro “Catástrofe: Riesgo y Respuesta”, Richard A. Posner argumenta que el cerebro humano pone más atención a los eventos más recientes, y a las evidencias que parecieran confirmar la probabilidad de una catástrofe. Nuestras limitaciones para entender el riesgo nos hace prepararnos inadecuadamente para un desastre, por lo que podemos decidir tomar seguros insuficientes o reconstruir nuestra casa en el mismo terreno sometido a inundaciones donde estaba antes. Ponga atención a las cosas pequeñas. Por ejemplo, una serie de problemas menores pueden hacer que su póliza de riesgos aumente más que si sólo tiene un incidente mayor. En otras palabras, una empresa que tolera un patrón de accidentes a cualquier nivel es probable que sufra más adelante un problema considerable. Las decisiones a menores niveles de supervisión causan la mayor parte de los desastres. Se debe entrenar a los supervisores a estar más atentos a los riesgos potenciales, e insistirles en que deben escuchar a los subalternos que plantean asuntos de seguridad. Evite la tentación de desestimar a los empleados por problemas de costo. Esté atento a las situaciones inusuales. Las catástrofes son el resultado de eventos improbables o interacciones inesperadas que ocurren juntas. Observe las situaciones que lo inquieten, especialmente si están fuera del control de su empresa. No se haga complaciente, especialmente al acercarse el final de un proyecto. El exceso de confianza hundió al Titanic, recuerde que sólo se ve la punta del iceberg. 3