Empleados Un problema que controlar o una soluci n que aprovechar? Por Sidney Dekker

Anuncio
Gestión de la Seguridad
Revisado por pares
Empleados
¿Un problema que controlar o una solución que
aprovechar?
Por Sidney Dekker
EN RESUMEN
D
urante todo el siglo 20, han existido dos
mentalidades en cuanto al rol de los seres
humanos en la creación y violación de la
seguridad. Un punto de vista es que los humanos
son un problema que se debe controlar. Antes
de la Segunda Guerra Mundial, un psicólogo de
Oxford llamado Vernon estudió 50.000 incidentes de lesiones personales y concluyó que estas
“dependen generalmente de la despreocupación
y falta de atención de los trabajadores (Burnham,
2009, p. 53). En ese momento, se consideraba
que “el factor humano” era una característica
específica del individuo, los “defectos físicos,
mentales o morales” que predisponían a ciertas
personas a los accidentes (p. 61).
Los humanos eran considerados como
la causa del problema de seguridad. Estas
características negativas podrían identificarse
mediante pruebas o evaluaciones de los empleados. La psicología estaba dominada por el
conductismo en ese entonces (algo que en estos
días aún se ve en la seguridad conductual). El
conductismo pretende influir el comportamiento
humano para que así se adapte a la limitaciones y exigencias del sistema en el que trabajan
las personas. En realidad, no se le pregunta a las
personas porqué hacen lo que hacen, ya que no
cuenta con modelos mentales para explicarlo (de
hecho, se resiste activamente a tal introspección).
Sidney Dekker, Ph.D., es profesor de la Universidad Griffith en
Queensland, Australia, donde fundó el Safety Science Innovation
Lab, y es profesor honorario de factores humanos y seguridad de
pacientes en el Royal Children’s Hospital en Brisbane. Anteriormente,
fue profesor en la Universidad Lund en Suecia, donde fundó el Laboratorio Leonardo da Vinci para el Pensamiento Sistémico Complejo.
Ha sido asociado principal de la Universidad Tecnológica de Nanyang
de Singapur y profesor honorario del Departamento de Epidemiología
32 ProfessionalSafety
AUGUST 2014
www.asse.org
En vez de ello, la intervención conductista asume que con
los incentivos y sanciones adecuadas, las personas pueden
comprometerse con la seguridad.
La Segunda Guerra Mundial cambió esta situación. Los
avances tecnológicos eran tan rápidos y complejos que
ningún grado intervención que abordara al trabajador podía
por sí solo solucionar los problemas de seguridad. Prácticamente todos los pilotos de la Fuerza Aérea del Ejército de los
EE.UU., por ejemplo, sin importar su nivel de experiencia y
habilidades, reportaban errores en el manejo de los controles
(Chapanis, 1970; Fitts y Jones, 1947). En vez de intentar cambiar al humano para que los incidentes fuesen menos probables, los ingenieros se dieron cuenta de que podían, y debían,
cambiar las tecnologías y tareas para disminuir esas probabilidades de error y los incidentes. ”Debía ser posible eliminar
gran parte de los llamados accidentes por “error del piloto” al
diseñar equipos acordes a los requerimientos humanos” (Fitts
y Jones, 1947, p. 332). Los seres humanos dejaron de con-
y Medicina Preventiva de la Universidad Monash en Melbourne.
Su trabajo sobre el error humano y la seguridad ha sido reconocido
en todo el mundo, y recientemente expuso en Safety 2014. Dekker
estudió psicología en la Universidad de Nijmegen (ahora conocida
como Universidad de Radboud), obtuvo su maestría en Psicología
Experimental en la Universidad de Leiden, Países Bajos, y obtuvo un
Ph.D. en Ingeniería de Sistemas Cognitivos en la Universidad del
Estado de Ohio.
©ISTOCKPHOTO/ARTQU
•Las intervenciones de seguridad
pueden tener como objetivo
a los humanos o los entornos
tecnológicos u organizacionales.
La elección implica integrar a
las personas a sistemas fijos o
acondicionar estos últimos para
que se adapten a las personas.
•Actualmente, varios factores
parecen favorecer las intervenciones que consideran a las
personas como un problema
que controlar (mediante
procedimientos, cumplimiento
de normas, estandarización,
sanciones). La seguridad se mide
principalmente por la ausencia
de factores negativos.
•Los profesionales de la
seguridad deben ver a las
personas como una solución que
aprovechar, en vez de un
problema que controlar, y considerar la seguridad más como
una presencia de capacidades
positivas, y pasar de utilizar
un vocabulario de control,
restricción y carencia a uno de
empoderamiento, diversidad y
oportunidad humana.
siderarse como la causa del problema; eran los destinatarios
del problema, el cual podía, en cierta medida, diseñarse y organizarse de una forma distinta:
Lo que sucedió fue que en las últimas décadas del siglo
20, todos los expertos que trabajaban en la mecanización
de los diferentes entornos dejaron de centrarse en la
despreocupación o en la persona “maldita” que causaba
los accidentes. En cambio, ahora estaban concentrados
en inventar tecnologías que evitarían los daños sin importar cuán erradas fuesen las acciones de un individuo,
como un trabajador o un conductor (Burnham, 2009,
p. 5)
La psicología que instaba esto era diferente al conductismo. Era una psicología de la cognición, una ciencia que estaba interesada en comprender qué les hizo sentido a las
personas para hacer lo que hicieron. Para esto, fue necesario
desarrollar modelos mentales: de la atención, la percepción,
la toma de decisiones y el procesamiento de información. Es
así como las tecnologías y los entornos de trabajo pudieron
diseñarse en consideración de lo que se había aprendido sobre el desempeño del humano y sus limitaciones.
La ingeniería de la seguridad de hoy
¿Cómo nos relacionamos con las ideas de la ingeniería de la
seguridad el día de hoy? La inestabilidad entre ellas sigue siendo visible. Por un lado, hemos aprendido a través de numerosos eventos negativos de alta visibilidad que las personas son
recursos que se deben aprovechar, que lo que importa son los
conocimientos técnicos y la experiencia práctica. Después del
incidente del Columbia, por ejemplo, se le dijo a la NASA que
necesitaba “restablecer el respeto por los expertos técnicos,
empoderar a los ingenieros para que obtuvieran los recursos
que necesitaban y permitir que las preocupaciones por la seguridad se pudieran expresar libremente” (CAIB, 2003, p. 203).
Otro ejemplo: antes de la explosión de la refinería Texas City
en 2005, BP había eliminado varios miles de puestos de trabajo en EE.UU. y había externalizado el perfeccionamiento del
trabajo tecnológico. Muchos ingenieros experimentados se
fueron (Baker, 2007).
El respeto por los conocimientos técnicos significa
comprometerse con aquellos que tienen experiencia en
el reconocimiento de riesgos y anomalías en los procesos
operativos. Estas personas pueden ser trabajadores que están en contacto directo con los procesos críticos de la seguridad de la organización. Esto se ha convertido en un precepto
bien establecido en las investigaciones de organizaciones de
gran confiabilidad y resiliencia (Hollnagel, Woods y Leveson, 2006; Weick y Sutcliffe, 2007).
Dicho esto, los expertos tampoco acertamos siempre. Las
investigaciones han identificado los límites del conocimiento
privilegiado que tienen los expertos en cuanto a los procesos
críticos y márgenes de la seguridad (Dörner, 1989). Un éxito
operativo continuo, por ejemplo, puede ser percibido por los
expertos como evidencia de que se han desarrollado vías libres de riesgos (Barton y Sutcliffe, 2009; Starbuck y Milliken,
1988), y una competencia técnica excepcional por lo general
se asocia al hecho de asumir más riesgos (Amalberti, 2013).
¿Una mayor burocratización?
La cuestión es si la solución reside en una mayor burocratización y en ver a las personas como un problema que se debe
controlar. Primero, definamos el término burocratización. Este
se refiere al gobierno administrativo –el que no necesariamente es ejercido por miembros de la organización representativa– de la relación entre los medios que una organización
dedica a la seguridad y el fin que persigue. La burocratización
implica jerarquía, especialización, división del trabajo y reglas
oficiales. Entre los años 1974 y 2008, Townsend (2013) mostró
una duplicación del número de estatutos de la seguridad y un
aumento de 100 veces de los reglamentos que los interpretan y aplican, con una proliferación concomitante de las
“industrias de servicios” para las auditorías, investigaciones,
precalificaciones, cumplimiento de normas, reclutamientos, capacitaciones, acreditaciones y consultorías relacionadas con la seguridad (p. 51). En otro ejemplo, el número de
empresas certificadas que se dedican a la salud y seguridad
ocupacional en 116 países pasó a ser más del doble, desde
26.222 en 2006 a 56,251 en 2009 (Hasle y Zwetsloot, 2011).
Actualmente, existe una experiencia de “locura por la salud
y seguridad” (Townsend, 2013, p. 59) y de “poca burocracia”
(Hale, Borys y Adams, 2013). Estos son algunos ejemplos de
todo el mundo:
•Explotación petrolera: En 2008, 2 años después del estallido de los pozos de Macondo, BP advirtió que habían
“demasiados procesos de riesgo” que se habían vuelto “demasiado complicados y engorrosos como para ser manejados
de forma eficaz” (Elkind y Whitford, 2011, p. 9). Si bien se
pueden celebrar los éxitos mensurables de la seguridad, por
lo visto, la comprensión coherente de la organización sobre
el riesgo de ingeniería en una compleja red de contratistas se
ha quebrado.
•Viajes escolares: La Autoridad de Salud y Seguridad
del Reino Unido recientemente publicó una clarificación con
respecto a:
Los seres
humanos
dejaron
de considerarse
como la
causa del
problema;
eran los
destinatarios del
problema.
los malentendidos sobre la aplicación de la ley de salud
y seguridad que puede, en algunos casos, disuadir a las
escuelas y profesores de que organicen viajes [escolares]. Estos ... pueden incluir frustraciones relacionadas
con el papeleo, temores por posibles juicios si el viaje
sale mal [o] que un profesor sea demandado si un niño
resulta lesionado (HSE, 2011, p. 1).
•Aviación:
El ritmo de la generación de nuevas normas en la
aviación ha aumentado de forma significativa, aunque
que la seguridad aérea global ha estado estancado por
años en un nivel de 10-6 (más de 200 políticas/pautas/
normas nuevas al año). Puesto que nadie sabe
en realidad cuáles son las normas/pautas que efectivamente se vinculan con el nivel de seguridad final, el
sistema es solo una añadidura, y las normas y pautas antiguas nunca se han mejorado (Amalberti, 2001, p. 111).
•Estudios de la vida silvestre: Un profesional que realiza estudios de impacto medioambiental en Australia dijo:
Estoy obligado a llevar un casco (incluso en terrenos sin
árboles); prendas de alta visibilidad; camisa de manga
www.asse.org
AUGUST 2014
ProfessionalSafety 33
larga con botones en los puños; pantalones largos; botas
con puntas de acero; y lentes de seguridad. Es posible
que tenga que llevar un GPS, RLS, radio UHF, botiquín de
primeros auxilios, 5 kilogramos de agua, protector solar,
repelente contra insectos y, en ciertas ocasiones, un desfibrilador (Reis, 2014)
•Adquisiciones, que ahora por lo general requiere
“cuestionarios de salud y seguridad de los proveedores/
postulantes a licitación ... cuya complejidad es variable o
creciente y que requieren diferentes informaciones”, y el aumento en el uso de un “tercero para evaluar la idoneidad de
un proveedor para ser incluido en la lista de aprobados que
incluye un costo de evaluación y una cuota anual de membresía (Simmons, 2012, p. 20).
Por supuesto, el aumento de reglamentos y el tipo de estandarización y sistematización que viene con el aumento
de la burocratización de la seguridad en las últimas décadas
le debe mucho al compromiso moral de dejar de lastimar y
matar a las personas en el trabajo. Sin embargo, hay otros
factores que probablemente entran al juego también. La externalización del trabajo, por ejemplo (lo que incluye el trabajo crítico para la seguridad), es otra tendencia de las últimas
décadas. Gestionar, monitorear y controlar las operaciones en
una red de contratistas y subcontratistas tiende a ser mucho
más complejo, por lo que la organización burocrática se convierte en un medio plausible para hacer las cosas (Vaughan,
1996). Esto incluye autorregulación, donde las organizaciones
se necesitan a sí mismas para reunir, analizar y destilar los
datos solicitados por los reguladores y entre sí. La responsabilidad burocrática se está convirtiendo cada vez más en
un requisito de empresa a empresa, como ocurre cuando
se muestran tasas de incidentes con lesiones incapacitantes
o tasas de incidentes con tratamiento médico, o cuando se
demuestra la presencia de un sistema de gestión de salud y
seguridad (Collins, 2013; Hasle y Zwetsloot, 2011).
Además, las capacidades tecnológicas para la vigilancia y
la supervisión del comportamiento en los lugares de trabajo
se han ampliado en las últimas décadas. El compromiso con
una visión cero es necesaria y también ha sido posible por la
vigilancia y medición de los datos de lesiones e incidentes, lo
que a su vez requiere y genera procesos de responsabilidad
burocrática para su recolección, notificación, tabulación, almacenamiento y análisis (Hallowell y Gambatese, 2009; Zwetsloot, Aaltonen, Wybo, et al., 2013).
Efectos secundarios (negativos) de la seguridad burocratizada
Los beneficios que una mayor burocratización ofrece a la
seguridad, sin embargo, parecen estar disminuyendo o estancándose en muchas industrias (Townsend, 2013). Seguir
considerando a las personas como un problema que controlar a través de protocolos y cumplimiento de normas puede
tener como resultado más de lo mismo y no mucho progreso.
Además, la burocracia tiende a generar efectos
secundarios que en realidad van en contra de sus objetivos. Las investigaciones realizadas en las últimas décadas
muestran que tales efectos secundarios en la seguridad incluyen una incapacidad de predecir eventos inesperados, un
enfoque en la responsabilidad burocrática, la cuantificación
y juego de números, la creación ocasional de problemas de
seguridad que resultan de la aplicación de normas o sistemas
de seguridad y limitaciones a la libertad, diversidad y creativi-
34 ProfessionalSafety
AUGUST 2014
www.asse.org
dad de los trabajadores. A continuación presentamos algunos
hechos destacados.
•Un reciente análisis Delphi de las intervenciones de seguridad en la industria de la construcción demostró que se
considera que las intervenciones más asociadas con la burocracia no valen mucho la pena (Hallowell y Gambatese, 2009).
Esto incluye la escritura de planes y políticas de seguridad;
control de registros y análisis de incidentes; y planificación de
respuestas ante emergencias. Contar con esto no marca una
diferencia significativa en la seguridad. Mientras más políticas
y estructuras se desarrollen o impongan burocráticamente
por aquellos que están lejos de la operación, menos podrán
representar el riesgo y cómo se manejan en la práctica. La
planificación de respuestas ante emergencias ha sido criticada en este respecto, particularmente porque genera documentos de fantasía que poco tienen que ver con los requisitos
o condiciones reales. Estos documentos son probados con la
realidad solo en raras ocasiones y nacen de una perspectiva
irrealista e idealista de la organización y su entorno (Clarke y
Perrow, 1996).
•Un estudio del sector de la construcción y la manufactura
en Finlandia de 1977 a 1991 demostró una clara correlación
negativa entre la tasa de incidentes y las fatalidades (r = -.82,
p < .001). Es decir, mientras menos incidentes reportaba una
obra de construcción, más alta era su tasa de mortalidad
(Saloniemi y Oksanen, 1998). Las bajas tasas de notificación
de incidentes pueden indicar lugares de trabajo donde los
superiores no están abiertos a escuchar malas noticias, lo
cual puede explicar el porqué aquellos entornos donde se
reportan menos incidentes también presentan más incidentes mortales. La visión cero puede estar implicada a veces,
ya que puede favorecer la supresión, desmotivación (p. ej., a
través de pruebas de detección de drogas posteriores a una
lesión) o recategorización de datos de incidentes o lesiones
(Donaldson, 2013), y puede llevar a otros “juegos de números”
(Frederick y Lessin, 2000), como el uso inadecuado de tareas
modificadas o programas de reincorporación al trabajo (Collins, 2013; U.S. GAO, 2012).
•A pesar del punto sobre las bajas tasas de notificación
de incidentes, en las industrias con un rendimiento de la
seguridad cerca del 0% (p. ej., un pequeño residuo de fatalidades), el valor predictivo de los incidentes (para aquellas
muertes o incidentes con consecuencias mayores) ya no es
tan obvio (Amalberti, 2013). Los incidentes más grandes de
estas industrias parecen estar precedidos por las cosas que
son vistas como incidentes (o que jamás se informaron así),
pero por el trabajo normal. Los incidentes son precedidos
por una deriva gradual hacia la falla, generada por las presiones de producción y los continuos éxitos operativos (Dekker,
2011). Estos “reajustes hasta que algo se quiebra” (Starbuck
y Milliken, 1988) son difíciles de captar en la notificación de
incidentes, ya que los precursores son parte de los complejos detalles del trabajo normal, las soluciones y frustraciones
diarias que entran en juego cuando se hace el trabajo. Por
lo general, los sistemas burocráticos de tabulación y notificación no son sensibles a estas sutilezas.
•Las reglas, por supuesto, ofrecen ventajas similares al seguidor y a quien las impone. Estas ahorran tiempo y esfuerzo,
evitan volver sobre lo mismo, ofrecen claridad en cuanto a las
tareas y responsabilidades y generan mayor previsibilidad.
Las desventajas, sin embargo, incluyen demandas de supervisión para seguir el cumplimiento de normas y ceguera o
falta de preparación frente a las situaciones nuevas que no
encajan en las reglas (Hale y Swuste, 1998). También pueden
sentirse como una falta de libertad y una limitación para las
iniciativas, lo que dificultan la innovación: “El cumplimiento
de reglamentos detallados y descriptivos puede generar una
cultura de cumplimiento reactivo, que suprime la innovación
en el desarrollo de nuevos productos, procesos y medidas de
control riesgos” (Hale, et al., 2013, p. 2).
•Seguir reglas y cumplir procedimientos y protocolos burocráticos realmente puede ser perjudicial para la seguridad
en ciertas circunstancias (Dekker, 2001): “Accidentes grandes
como el de Mann Gulch y Piper Alpha han demostrado que
aquellos que violan las reglas son quienes sobreviven a tales
emergencias, mientras los que las obedecen son quienes
mueren” (Hale y Borys, 2013, p. 214). Esto, por supuesto, es
el resultado de la insensibilidad de las reglas y la presión por
cumplir para el contexto (Dekker, 2003; Woods y Shattuck,
2000). El caso del asesor de impacto medioambiental (p. 34)
presenta un ejemplo bastante obvio (y menos extremo): al
imponer el uso de varias capas de PPE, como el casco y las
mangas largas, el portador puede sufrir deshidratación e insolación de forma más rápida en el clima en el que suele trabajar.
Conclusión y propuestas
La burocratización de la seguridad se ha generado por una
complejidad de factores, como la legislación y la regulación,
cambios en los acuerdos de responsabilidad y seguros, un
movimiento generalizado para externalizar y contratar, y
un aumento de las capacidades tecnológicas para la vigilancia, seguimiento, almacenamiento y análisis de datos.
La burocratización tiende a ver a las personas como un
problema que controlar (p. ej., estandarizando y fijando
reglas, esperando el cumplimiento de normas) y genera efectos secundarios que van en contra de sus objetivos originales.
Estos efectos incluyen el emprendimiento burocrático, una
incapacidad de predecir eventos inesperados, un enfoque
en la responsabilidad burocrática, la cuantificación y juegos
de números, la creación ocasional de nuevos problemas de
seguridad y restricciones a la libertad personal, diversidad e
innovación de los miembros de la organización.
La solución más útil es encontrar un equilibrio entre la
seguridad burocráticamente controlada y la seguridad gestionada por el trabajador (Amalberti, 2013), o entre el respeto por el protocolo y los procedimientos por un lado, y la
experiencia práctica por el otro (Galison, 2000). Al enfrentarse a un problema de seguridad o a la propuesta de una
solución, pregunte lo siguiente:
•¿Quién o qué es lo que causó el problema de seguridad, o qué es responsable? Si pregunta quién es responsable, probablemente verá a las personas (o a una persona,
ciertas personas) como el problema que se debe controlar.
Estas personas pueden, sin embargo, ser el receptor de un
problema más profundo dentro de la organización (Dekker,
2006).
•¿Cuál es el equilibrio de la organización entre la intervención a nivel de conducta (lo que podría suponer que las
herramientas y las tareas son fijas, y que las personas deben
adaptarse a ellas) y la intervención con las condiciones de
trabajo y los equipos de las personas (lo que sugiere que el
entorno se puede transformar con el objetivo de que la gente
se adapte mejor)? Si las inversiones de capital se hicieron en
maquinaria que pueden durar unas cuantas décadas más, es
posible que no haya elección. Pero estas lecciones pueden
informar el diseño de la siguiente generación de los equipos.
•¿La seguridad se está midiendo en su mayor parte como
una ausencia de eventos negativos? o ¿el enfoque está en
buscar la presencia de capacidades positivas en las personas,
equipos, organización? Estas incluyen la capacidad de cuestionar el éxito continuo (y no verlo como una garantía de la
futura seguridad), la capacidad de decir no frente a las presiones relacionadas con la producción, y la capacidad de
traer perspectivas nuevas a un problema y escuchar la voz
de abajo.
•¿Están las políticas de seguridad organizadas principalmente en torno a limitar, restringir y controlar lo que hacen
las personas? o ¿las políticas realmente empoderan a las
personas, las animan a compartir o las invitan para que contribuyan a la innovación?
•Cuando se observa que un trabajador actúa de forma insegura, ¿sólo le dice que no debe hacerlo? ¿o trata de entender
porqué para él tiene sentido hacer eso? Las personas probablemente no vienen al trabajo a hacer las cosas mal. Si lo que
el trabajador hizo tiene sentido para él, es probable que tenga
sentido para otros también. Eso indica que las condiciones del
sistema se deben revisar.
•Cuando se observa un vacío entre cómo las personas
trabajan y qué les dicen las reglas que deben hacer, ¿eso se
considera una violación? Eso significa que ya se ha decidido
quién está en lo correcto y no se ha aprendido nada nuevo. Al
contrario, considere este mismo vacío como trabajadores que
terminan el diseño de un procedimiento o equipo porque tal
diseño no era perfecto como para comenzarlo. Vea el vacío
como una resiliencia, como trabajadores que reconocen y se
adaptan a situaciones que no se cubrieron en los diseños o
capacitaciones.
•¿Usted, tal como Corrie Pitzer galardonado por ASSE preguntaría, le dice a la gente que los llevará a la seguridad y que
está haciendo que sean a prueba de riesgos? ¿o es honesto
en cuanto a que los expondrá a riesgos cada día, y que lo que
desea es que sean expertos en riesgos? PS
www.asse.org
AUGUST 2014
La solución
más útil es
encontrar
un equilibrio entre
la seguridad
burocráticamente
controlada y
la seguridad
gestionada
por el trabajador.
ProfessionalSafety 35
Referencias
Amalberti, R. (2001). The paradoxes of almost totally safe
transportation systems. Safety Science, 37(2-3), 109-126.
Amalberti, R. (2013). Navigating safety: Necessary compromises and trade-offs—theory and practice. Heidelberg,
Alemania: Springer.
Baker, J.A. (2007). The report of the BP U.S. Refineries
Independent Safety Review Panel. Washington, DC: BP U.S.
Refineries Independent Safety Review Panel.
Barton, M.A. y Sutcliffe, K.M. (2009). Overcoming dysfunctional momentum: Organizational safety as a social achievement. Human Relations, 62(9), 1327-1356.
Burnham, J.C. (2009). Accident prone: A history of technology, psychology and misfits of the machine age. Chicago,
IL: University of Chicago Press.
Columbia Accident Investigation Board (CAIB).(2003).
Report Volume 1, August 2003. Washington, DC: Autor.
Chapanis, A. (1970). Human factors in systems engineering. In K.B. De Greene (Ed.), Systems psychology (pp. 51-78).
Nueva York, NY: McGraw-Hill.
Clarke, L. y Perrow, C. (1996). Prosaic organizational failure.
American Behavioral Scientist, 39(8), 1040-1057.
Collins, R. (2013, March). Losing faith in lost-time
injuries. Inside Safety, 4-5.
Dekker, S.W.A. (2001). Follow the procedure or survive.
Human Factors and Aerospace Safety, 1(4), 381-385.
Dekker, S.W.A. (2003). Failure to adapt or adaptations
that fail: Contrasting models on procedures and safety.
Applied Ergonomics, 34(3), 233-238. doi:10.1016/s00036870(03)00031-0
Dekker, S.W.A. (2006). The field guide to understanding
human error. Aldershot, Reino Unido: Ashgate Publishing Co.
Dekker, S.W.A. (2011). Drift into failure: From hunting
broken components to understanding complex systems.
Farnham, Reino Unido: Ashgate Publishing Co.
Donaldson, C. (Marzo de 2013). Zero harm: Infallible or
ineffectual? OHS Professional, 22-27.
Dörner, D. (1989). The logic of failure: Recognizing
and avoiding error in complex situations. Cambridge, MA:
Perseus Books.
Elkind, P. y Whitford, D. (24 de enero de 2011). BP: “An
accident waiting to happen.” Fortune, 1-14.
Fitts, P.M. y Jones, R.E. (1947). Analysis of factors contributing to 460 “pilot error” experiences in operating aircraft
controls. Dayton, OH: Aero Medical Laboratory, Air Material
Command, Wright-Patterson Air Force Base.
Frederick, J. y Lessin, N. (Nov. de 2000). The rise of
behavioral-based safety programs. Multinational Monitor,
21(11), 1-7.
Galison, P. (2000). An accident of history. In P. Galison y
A. Roland (Eds.), Atmospheric flight in the 20th century (pp.
3-44). Dordrecht, Países Bajos: Kluwer Academic.
Graham, B., Reilly, W.K., Beinecke, F., et al. (2011).
Deep water: The Gulf oil disaster and the future of offshore
drilling [Report to the President]. Washington, DC: National
Commission on the BP Deepwater Horizon Oil Spill and
Offshore Drilling.
Hale, A. y Borys, D. (Junio de 2013). Working to rule, or
working safely? Parte 1: A state-of-the-art review. Safety Science, 55, 207-221.
36 ProfessionalSafety
AUGUST 2014
www.asse.org
Hale, A., Borys, D. y Adams, M. (2013). Safety regulation:
The lessons of workplace safety rule management for
managing the regulatory burden. Safety Science. Extraído de
http://dx.doiorg/10.1016.j.ssci.2013.11.012
Hale, A. y Swuste, P. (1998). Safety rules: Procedural
freedom or action constraint? Safety Science, 29(3), 163-177.
Hallowell, M.R. y Gambatese, J.A. (2009). Construction
safety risk mitigation. Journal of Construction Engineering
and Management, 135(12), 1316-1323.
Hasle, P. y Zwetsloot, G.I.J.M. (Agosto de 2011). Editorial:
Occupational Health and Safety Management Systems: Issues
and challenges. Safety Science, 49(7), 961-963.
Hollnagel, E., Woods, D.D. y Leveson, N.G. (2006). Resilience engineering: Concepts and precepts. Aldershot, Reino
Unido: Ashgate Publishing Co.
Health and Safety Executive. (2011). School trips and outdoor learning activities: Tackling the health and safety myths.
Liverpool, Reino Unido: Autor.
Reis, T. (2014). How wearing a hard hat can threaten
wildlife. Sydney, Australia: Australian Broadcasting Corp.
Saloniemi, A. y Oksanen, H. (1998). Accidents and fatal accidents—Some paradoxes. Safety Science, 29(1), 59-66.
Simmons, R. (Mayo de 2012). The stranglehold of bureaucracy. The Safety & Health Practitioner, 30, 20.
Starbuck, W.H. y Milliken, F.J. (1988). Challenger: Finetuning the odds until something breaks. The Journal of Management Studies, 25(4), 319-341.
Townsend, A.S. (2013). Safety can’t be measured. Farnham,
Reino Unido: Gower Publishing.
U.S. Government Accountability Office (GAO). (9 de abril
de 2012). Workplace safety and health: Better OSHA guidance needed on safety incentive programs [Informe para los
solicitantes del Congreso] [No. GAO-12-329]. Washington,
DC: Autor.
Vaughan, D. (1996). The Challenger launch decision:
Risky technology, culture and deviance at NASA. Chicago, IL:
University of Chicago Press.
Weick, K.E. y Sutcliffe, K.M. (2007). Managing the unexpected: Resilient performance in an age of uncertainty (2°
edición). San Francisco, CA: Jossey-Bass.
Woods, D.D. y Shattuck, L.G. (2000). Distant supervision—
Local action given the potential for surprise. Cognition,
Technology & Work, 2(4), 242-245.
Zwetsloot, G.I.J.M., Aaltonen, M., Wybo, J.L., et al.
(2013). The case for research into the zero accident vision.
Safety Science, 58, 41-48.
Documentos relacionados
Descargar