Documentos de Académico
Documentos de Profesional
Documentos de Cultura
com
Prefacio
La primera se llama la vieja visión del error humano, mientras que la segunda, que
ya lleva 25 años en desarrollo, es la nueva visión del error humano.
La vieja visión del error humano La nueva visión del error humano
Los primeros seis capítulos de The Field Guide hablan sobre la visión antigua
del error humano: los problemas que encierra, las trampas que representa y
las tentaciones que pueden hacerte caer en ellas. Estos capítulos le ayudarán a
entender:
Linköping, Suecia
Verano 2000
IV GUÍA DE CAMPO DE ERRORES HUMANOS
Hay básicamente dos formas de ver el error humano. La primera visión podría llamarse "la
teoría de la manzana podrida". Sostiene que:
• Los sistemas complejos estarían bien, si no fuera por el comportamiento errático de algunas personas poco
confiables (manzanas podridas) en él;
• Los errores humanos causan accidentes: los humanos son los principales contribuyentes en más de
dos tercios de los percances;
• El error humano, por cualquier otro nombre (por ejemplo: pérdida de conocimiento de la situación,
complacencia, negligencia), explica las fallas del sistema;
• Los errores humanos vienen como sorpresas desagradables. Son inesperados y no
pertenecen al sistema. Los errores se introducen en el sistema solo a través de la falta de
confiabilidad inherente de las personas.
Este capítulo trata sobre el primer punto de vista, y los cinco siguientes tratan sobre los problemas y la
confusión que se encuentran en su raíz.
Un debate a nivel nacional sobre la pena de muerte se está librando una vez más en los
Estados Unidos. Los estudios han encontrado un sistema tan plagado de vulnerabilidades y
errores que algunos estados están deteniendo los procedimientos por completo, mientras que
otros se esfuerzan por invertir más en contramedidas contra las ejecuciones de inocentes.
El debate es una ventana a las creencias de la gente sobre las fuentes del error. Dice
un protagonista: "El sistema de protección de los derechos de los acusados es bueno.
Son las personas que lo administran las que necesitan mejorar: Los jueces que cometen
errores y no permiten que se presenten pruebas. También necesitamos mejorar los
abogados defensores. ."1El sistema es básicamente seguro, pero contiene manzanas
podridas. Las contramedidas contra los errores judiciales comienzan con ellos. Deshazte
de ellos, vuélvelos a entrenar, disciplínalos.
Pero, ¿cuál es la práctica de emplear a los defensores públicos menos experimentados,
menos capacitados y menos pagados en muchos casos de pena de muerte que no sean
sistémicos? ¿Cuáles son las reglas para el permiso de los jueces de evidencia que no sea
sistémica? ¿Cuál es la naturaleza ambigua de la evidencia que no sea inherente a un sistema
que a menudo se basa en relatos de testigos oculares para hacer o deshacer un caso?
Cada debate sobre el error revela dos posibilidades. El error es el resultado de una manzana podrida, donde
los resultados desastrosos podrían haberse evitado si alguien hubiera prestado un poco más de atención o
hubiera hecho un poco más de esfuerzo. Desde este punto de vista, nos preguntamos cómo podemos hacer
frente a la falta de fiabilidad del elemento humano en nuestros sistemas.
O los errores son el subproducto inevitable de las personas que hacen lo mejor que pueden en
sistemas que en sí mismos contienen múltiples vulnerabilidades sutiles. Estos sistemas en sí mismos
son contradicciones inherentes entre la eficiencia operativa por un lado y la seguridad (por ejemplo:
proteger los derechos del acusado) por el otro. Desde este punto de vista, los errores son síntomas de
problemas más profundos dentro de un sistema.
Al igual que los debates sobre el error humano, las investigaciones sobre los errores humanos
se enfrentan a la elección. La elección entre la teoría de la manzana podrida en una de sus múltiples
versiones, o lo que se ha dado en llamar la nueva visión del error humano.
El objetivo final de una investigación es aprender del fracaso. El camino hacia el aprendizaje, el
camino tomado por la mayoría de las investigaciones, está pavimentado con intenciones de seguir la
nueva visión. Los investigadores tienen la intención de encontrar las vulnerabilidades sistémicas
detrás de los errores individuales. Quieren abordar las condiciones que producen errores que, si se
dejan en su lugar, repetirán el mismo patrón básico de falla.
En la práctica, sin embargo, las investigaciones a menudo arrojan versiones disfrazadas de la
teoría de la manzana podrida, tanto en hallazgos como en recomendaciones. Clasifican los escombros
de un percance para:
Las investigaciones a menudo terminan concluyendo cómo los operadores de primera línea no
notaron ciertos datos o no se adhirieron a los procedimientos que parecían relevantes después del
hecho. Recomiendan la degradación o el reentrenamiento de individuos particulares; el
endurecimiento de los procedimientos o la supervisión. Las razones para la regresión a la teoría de la
manzana podrida son muchas. Por ejemplo:
• Restricciones de recursos en las investigaciones. Es posible que sea necesario producir hallazgos en
unos pocos meses y el dinero es limitado;
• Reacciones al fracaso, lo que hace que sea difícil no juzgar el desempeño
aparentemente deficiente;
• El sesgo retrospectivo, que confunde nuestra realidad con la que rodeaba a las
personas que investigamos;
• Disgusto político por investigar más a fondo las fuentes de fallas, lo que puede limitar de
facto el acceso a ciertos datos o desalentar ciertos tipos de recomendaciones;
VI GUÍA DE CAMPO DE ERRORES HUMANOS
• Conocimiento limitado de factores humanos por parte de los investigadores. Si bien desean sondear las
fuentes más profundas detrás de los errores humanos, es posible que los investigadores no sepan
realmente dónde o cómo buscar.
De una forma u otra, The Field Guide intentará hacer frente a estas razones. Pero es sobre
todo la falta de orientación metódica para reconstruir la contribución humana al fracaso lo que
permite que las investigaciones recaigan en la teoría de la manzana podrida, un vacío que The
Field Guide pretende llenar.
Este capítulo analiza la teoría de la manzana podrida del error humano. De esta manera ve el error humano
como una amenaza para los sistemas que son básicamente seguros. En esta visión del error humano, el
progreso en la seguridad está impulsado por una idea unificadora:
Se presentarán cargos contra los pilotos que volaron un jet VIP con un mal
funcionamiento en su sistema de control de cabeceo (que hace que el avión suba o baje).
Las severas oscilaciones durante el descenso mataron a siete de sus pasajeros sin
correas en la parte trasera. Significativo en la secuencia de eventos fue que los pilotos
"ignoraron" la luz de alerta relevante en la cabina como una falsa alarma, y que no
habían encendido la señal de abrocharse el cinturón desde la parte superior del
descenso, como recomiendan los procedimientos del avión. Los descuidos del piloto
fueron captados en video, filmado por uno de los pasajeros que
murió no mucho después. Los pilotos, con cinturones de seguridad, sobrevivieron al revés.1
Para proteger los sistemas seguros de los caprichos del comportamiento humano, las recomendaciones
suelen proponer lo siguiente:
• Reforzar procedimientos y cerrar brechas regulatorias. Esto reduce el ancho de banda en el que
operan las personas, dejando menos espacio para el error;
• Introducir más tecnología para monitorear o reemplazar el trabajo humano. Si las máquinas hacen el
trabajo, entonces los humanos ya no pueden cometer errores al hacerlo. Y si las máquinas monitorean
el trabajo humano, pueden eliminar cualquier comportamiento humano errático;
• Asegúrese de que los practicantes defectuosos (las manzanas podridas) no contribuyan al
colapso del sistema nuevamente. Póngalos en "licencia administrativa"; degradarlos a un
estado inferior; educarlos para que se comporten mejor la próxima vez; infundirles algo
de miedo a ellos y a sus compañeros llevándolos a juicio o reprendiéndolos.
En esta visión del error humano, las investigaciones pueden concluir con seguridad con la
etiqueta "error humano", cualquiera que sea el nombre (por ejemplo: ignorar una luz de
advertencia, violar un procedimiento). Tal conclusión y sus implicaciones supuestamente llegan
a las causas de la falla del sistema.
Las deficiencias de la teoría de la manzana podrida son graves y profundas. El progreso en seguridad basado
en este punto de vista es una ilusión.
Resultó que el jet VIP había estado volando durante mucho tiempo con un sistema
de sensación de cabeceo que funcionaba mal ("¿Oh, esa luz? Sí, ha estado
encendida durante cuatro meses"). Estos pilotos heredaron un problema sistémico
de la aerolínea que operaba el jet VIP y la organización encargada de su
mantenimiento.
¿Indicar el cinturón de seguridad desde la parte superior del descenso en un jet VIP? La
disposición del mobiliario en estas máquinas y la forma en que se desplazan sus pasajeros
VIII GUÍA DE CAMPO DEL ERROR HUMANO
Los nuevos procedimientos también pueden quedar enterrados en una gran cantidad de papeleo
regulatorio. Los desajustes entre los procedimientos y la práctica crecen no necesariamente por la
falta consciente de adherencia de las personas, sino por la cantidad y las restricciones cada vez más
estrictas de los procedimientos.
Barato y fácil
Entonces, ¿por qué alguien se adherirá a la teoría de la manzana podrida del error
humano? Hay muchas razones. Una es que es un enfoque relativamente sencillo para
tratar con la seguridad. Es simple de entender y simple y relativamente barato de
implementar.
salvando la cara
Después del fracaso, puede existir presión para salvar la imagen pública. Eliminar a los practicantes
defectuosos siempre es un buen comienzo para salvar las apariencias. Le dice a la gente que el
percance no es un problema sistémico, sino solo una falla local en una operación por lo demás sin
problemas.
Otra razón para adherirse a la teoría de la manzana podrida del error humano es que los
profesionales en áreas críticas para la seguridad suelen asumir una gran responsabilidad personal
por los resultados de sus acciones. Los practicantes reciben capacitación y se les paga para asumir
esta responsabilidad, y están orgullosos de ello.
Pero el otro lado de asumir esta responsabilidad es la suposición de que uno tiene
la autoridad, el poder, para igualarlo; para estar a la altura. La suposición es que las
personas pueden simplemente elegir entre cometer errores y no volverse
independientes del mundo que los rodea. Esto, sin embargo, es una ilusión de
omnipotencia. Es comúnmente entretenido por niños en su preadolescencia, y por el
capitán de la aerolínea que dijo, "Si no lo hice, no sucedió".
Los investigadores suelen ser ellos mismos practicantes o han sido
practicantes, lo que facilita sobrestimar la libertad de elección otorgada a los
compañeros practicantes.
El piloto de un avión comercial aceptó una pista diferente con una aproximación
más directa al aeropuerto. La tripulación se apresuró e hizo un aterrizaje
desordenado que resultó en algunos daños menores a la aeronave. Cuando se les
preguntó por qué aceptaron la pista, la tripulación citó una hora de llegada tardía y
muchos pasajeros de conexión a bordo. La respuesta del investigador fue que, por
supuesto, los pilotos reales son inmunes a ese tipo de presiones.
La realidad es que las personas no son inmunes a esas presiones, y las organizaciones
que las emplean no querrían que lo fueran. Las personas no operan en un vacío, donde
pueden decidir y actuar todopoderosamente. En cambio, su trabajo está sujeto y limitado
por factores más o menos fuera de su control. La responsabilidad individual no siempre
se corresponde con la autoridad individual. La autoridad está restringida por otras
personas o partes del sistema, por otras presiones, por otras deficiencias.
En el caso del jet VIP, se encontró que no había una lista de verificación que les dijera a los
pilotos qué hacer en caso de una luz indicadora de sensación de cabeceo. El procedimiento
para evitar las oscilaciones habría sido reducir la velocidad aerodinámica a menos de los 260
nudos indicados. Pero el procedimiento no estaba en ningún manual. Él
no estaba disponible en la cabina. Y no es el tipo de cosa que se te ocurre sobre la
marcha.
Algo no estaba bien con la imagen del jet VIP desde el principio. ¿Cómo,
realmente, podría alguien afirmar que los pilotos "ignoraron" una luz para la
cual no había ningún procedimiento disponible? No se puede "ignorar" algo si
no se sabe qué hacer con ello. Los factores del exterior restringieron
seriamente lo que los pilotos podrían haber hecho. Existían problemas con este
avión en particular. No se disponía de ningún procedimiento para hacer frente
a la luz de advertencia.
Cualquier imagen del error humano probablemente no sea correcta o no esté completa si contiene
una generosa dosis de negligencia o complacencia; una gran cantidad de personas no están
motivadas para esforzarse lo suficiente.
En 1995, Srebrenica, una ciudad musulmana en Bosnia, fue capturada por los
serbobosnios durante una de las guerras posteriores a Yugoslavia. La ciudad había
sido custodiada nominalmente por un contingente de unos pocos cientos de
pacificadores holandeses. Una vez caída la ciudad, el ejército serbobosnio masacró
impunemente a miles de musulmanes. A los medios de comunicación de la época
les gustaba retratar un estereotipo complaciente del ejército holandés de pelo
largo, barba y fumador de marihuana, como si esto explicara los acontecimientos
de Srebrenica.
La historia real detrás de este fracaso reveló deficiencias fundamentales
que impregnan toda la operación y organización de mantenimiento de la paz.
Los mandatos de las Naciones Unidas eran ambiguos y limitados, las líneas de
mando confusas por la distribución entre múltiples países y servicios, y los
suministros de material y mano de obra lamentablemente inadecuados,
dejando a los soldados sobre el terreno con las manos atadas a la espalda. Casi
una década después, el debate sobre los problemas y vulnerabilidades en el
mantenimiento de la paz todavía resuena en la sede de la ONU. Además, los
tiempos en Srebrenica habían sido difíciles. Las partes beligerantes no
mostraron voluntad de prestar atención a los tratados de la ONU: las fuerzas
de mantenimiento de la paz fueron bloqueadas, secuestradas, robadas y
asesinadas. Las luchas internas entre los señores de la guerra musulmanes
también habían desdibujado el tradicional "chico bueno-chico malo".
Cualquiera que sea la etiqueta que esté de moda (complacencia, negligencia, ignorancia), si una imagen de
error humano tiene sentido al depender de "manzanas podridas" que carecen de la motivación para
XII GUÍA DE CAMPO DE ERRORES HUMANOS
funciona mejor, es probable que se pierda la verdadera historia detrás del fracaso, o al menos gran parte de
ella.
Racionalidad local
El punto es que es muy probable que las personas en trabajos críticos para la seguridad
estén haciendo lo correcto dadas las circunstancias. Están haciendo cosas razonables
dado su punto de vista y foco de atención; su limitado conocimiento de la situación; sus
objetivos
Sí, quieren ser molestados. Quieren recoger e integrar los datos que son críticos.
Ellos quieren hacer las cosas de la manera correcta. Las personas en estos trabajos no se
esfuerzan por lastimar o matar a otras personas, o lastimarse o suicidarse.
Pero estas personas también están preocupadas por otros objetivos existentes en sus trabajos:
las presiones para producir; para no costar dinero innecesario a su organización; estar a tiempo; para
obtener resultados; para mantener contentos a los clientes. Su sensibilidad a estos factores y su
capacidad para hacer malabares con ellos en paralelo con las demandas de seguridad es una de las
razones por las que fueron elegidos para los trabajos y por qué se les permite conservarlos.
La suposición segura que se puede hacer es que las personas estaban haciendo cosas razonables
dadas las circunstancias. Estaban haciendo todo lo posible dadas las complejidades, los dilemas, las
compensaciones y la incertidumbre que los rodeaba. Comprender las características críticas de las
circunstancias en las que las personas trabajaron y trabajaron durante un tiempo lo ayudará a
comprender mucho mejor el comportamiento dentro de esas situaciones.
2. Reaccionar al fracaso
¿Alguna vez te has preguntado, "¿Cómo es posible que no se hayan dado cuenta?", o "¿Cómo es
posible que no se hayan dado cuenta?"? Entonces estabas reaccionando al fracaso.
Todos reaccionamos al fracaso. De hecho, nuestras reacciones ante el fracaso a menudo nos hacen ver el
error humano como la causa de un percance; promueven la teoría de la manzana podrida. El fracaso, o las
personas que hacen cosas con el potencial de fracasar, generalmente no es algo que esperamos ver. Nos
sorprende; no se ajusta a nuestras suposiciones sobre el sistema que usamos o la organización en la que
trabajamos. Va en contra de nuestras creencias y puntos de vista. Como resultado, tratamos de reducir esa
sorpresa: reaccionamos como un fracaso. Las reacciones comparten las siguientes características:
• Retrospectiva. Las reacciones surgen de nuestra capacidad de mirar hacia atrás en una secuencia de
eventos, de los cuales conocemos el resultado;
• Proximales. Se enfocan en aquellas personas que estuvieron más cerca en tiempo y espacio
de causar o potencialmente prevenir el percance;
• Contrafactual. Exponen en detalle lo que estas personas podrían haber hecho para
evitar el percance;
• Juicio. Dicen lo que la gente debería haber hecho, o dejado de hacer, para
evitar el percance.
Las reacciones al fracaso interfieren con nuestra comprensión del fracaso. Sin embargo, los hallazgos y las
conclusiones sobre el error humano a menudo son impulsados por reacciones al fracaso y están escritos en
su idioma.
RETROSPECTIVO
Un avión altamente automatizado se estrelló en un campo de golf cerca de la pista de un aeropuerto en India. Durante
la aproximación final, la automatización de la aeronave había estado en "modo de descenso abierto", que gestiona la
velocidad del aire inclinando el morro hacia arriba o hacia abajo, en lugar de mediante la potencia del motor. Cuando
terminaron demasiado bajo en la aproximación, la tripulación no pudo recuperarse a tiempo. En retrospectiva, el
fabricante de la aeronave comentó que "la tripulación debería haber sabido que estaban en modo de descenso
abierto". Una vez que los observadores externos aprendieron su importancia, la pregunta se convirtió en cómo la
tripulación pudo haber pasado por alto o no haber entendido una información tan crítica.
Una de las apuestas más seguras que puede hacer como investigador u observador
externo es que sabe más sobre el incidente o accidente que las personas involucradas,
gracias a la retrospectiva:
• Retrospectiva significa ser capaz de mirar hacia atrás, desde afuera, en una secuencia
de eventos que llevaron a un resultado que ya conoces;
• La retrospectiva le brinda acceso casi ilimitado a la verdadera naturaleza de la situación que rodeaba
a las personas en ese momento (por ejemplo: dónde estaban realmente en comparación con
dónde pensaban que estaban; en qué estado se encontraba su sistema en comparación con lo
que pensaban que estaba, etc.) .);
• La retrospectiva le permite identificar lo que la gente se perdió y no debería haberse perdido;
lo que no hicieron pero deberían haber hecho.
Mira la figura 2.1. Ves una secuencia de eventos en desarrollo allí. Tiene la forma de un
túnel que serpentea su camino hacia un resultado. La figura muestra dos perspectivas
diferentes en el camino hacia el fracaso:
Retrospectivo:
Adentro
Sidney Dekker
Figura 2.1: Diferentes perspectivas sobre una secuencia de eventos: Mirando desde el exterior y en retrospectiva, tiene
conocimiento del resultado y los peligros involucrados. Desde el interior, es posible que no tenga ninguno.
La retrospectiva está profundamente arraigada en el lenguaje de las historias de accidentes que nos
contamos unos a otros. Tome un problema común hoy en día: las personas pierden la noción de en
qué modo están operando sus sistemas automatizados. Esto sucede en cabinas, quirófanos,
XVI GUÍA DE CAMPO DE ERRORES HUMANOS
plantas de control de procesos y muchos otros lugares de trabajo. En retrospectiva, cuando sabes
cómo se desarrollaron y resultaron las cosas, este problema a menudo se denomina "perder la
conciencia del modo". O, más ampliamente, "pérdida de conciencia de la situación". ¿Qué estamos
diciendo realmente? Mira la figura 2.2. La pérdida de conciencia de la situación es la diferencia entre:
Mucho
Lo que tu
saber ahora
Su pérdida
de situación
conciencia"
Lo que ellos
aparentemente
sabía entonces
Un poco
Figura 2.2: La retrospectiva está en todas partes. Aquí, "pérdida de conciencia de la situación" como la diferencia entre su
conocimiento actual de qué aspectos de la situación eran críticos y lo que la gente aparentemente sabía entonces.
Es fácil demostrar que personas de otro tiempo y lugar no sabían lo que tú sabes hoy
("deberían haber sabido que estaban en modo de descenso abierto"). Pero no es una
explicación de su comportamiento.
Debe cuidarse de mezclar su realidad con la realidad de las personas que
está investigando. Esas personas no sabían que iba a haber un resultado
negativo (o habrían hecho otra cosa). Por lo tanto, les habría sido imposible
evaluar, de la forma en que se puede hacer hoy, qué datos o decisiones fueron
críticos a la luz de esto.
PROXIMAL
Las reacciones ante el fracaso se centran en primer lugar y predominantemente en aquellas personas
que estaban más cerca de producir y de evitar potencialmente el percance. Es fácil ver a estas
personas como el motor de la acción. Si no fuera por ellos, el problema no se habría producido.
Alguien me llamó por teléfono, exigiendo saber cómo era posible que los conductores de un tren
pasaran semáforos en rojo. Gran Bretaña acababa de sufrir uno de sus peores desastres ferroviarios,
esta vez en Ladbroke Grove, cerca de la estación de Paddington en Londres. Un tren de cercanías
había chocado de frente con un interurbano de alta velocidad que venía en la otra dirección. Muchos
viajeros murieron en el accidente y el incendio que siguió. La investigación arrojó un veredicto de
"error humano". El conductor del tren de cercanías había pasado justo debajo de la señal 109 en las
afueras de la estación, y la señal 109 estaba roja o "insegura". ¿Cómo podría habérselo perdido? Una
fotografía publicada por la misma época mostraba sensacionalmente cómo otro conductor leía un
periódico mientras conducía su tren.
Para comprender el error, debe examinar el sistema más amplio en el que trabajaban
estas personas. Puede dividir un sistema operativo en un extremo afilado y un extremo
romo:
• En el extremo afilado (por ejemplo, la cabina del tren, la cabina, la mesa de operaciones quirúrgicas),
las personas están en contacto directo con el proceso crítico para la seguridad;
• El extremo romo es la organización o conjunto de organizaciones que apoya, impulsa y da
forma a las actividades en el extremo afilado (por ejemplo, la línea aérea o el hospital, los
proveedores de equipos y los reguladores).
XVIII GUÍA DE CAMPO DEL ERROR HUMANO
proximal:
extremo romo
Distal
Organizativo
contexto
Shar p fin
proximal
foco de reacciones
al fracaso
Sidney Dekker
Figura 2.3: Las fallas solo pueden entenderse observando el sistema completo en el que tuvo lugar el comportamiento. Pero en
nuestras reacciones al fracaso, a menudo nos enfocamos en el extremo agudo, donde las personas estuvieron más cerca de causar o
prevenir potencialmente el percance.
sistema entero. Desafía puntos de vista anteriores. Tal vez las cosas no estén tan bien
organizadas o bien diseñadas como la gente esperaba. Tal vez esto podría haber sucedido en
cualquier momento. O peor aún, tal vez podría volver a suceder.
El veredicto de Ladbroke Grove de "error del conductor" perdió credibilidad muy pronto después de que salió
a la luz que la señal 109 era en realidad una causa célebre entre los conductores de trenes. La señal 109 y
todo el estante desordenado en el que estaba suspendida junto con muchas otras señales fueron infames.
Muchos conductores habían pasado una señal insegura 109 durante los años anteriores y el sindicato de
conductores se había quejado de su falta de visibilidad.
En trenes como el que se estrelló en Ladbroke Grove, no se habían instalado sistemas automáticos de
frenado de trenes (ATB) porque se habían considerado demasiado caros. Los operadores de trenes habían
accedido a regañadientes a instalar una versión "ligera" de ATB, que en cierto sentido dependía tanto de la
vigilancia del conductor como de la propia luz roja.
Parece común entre los pilotos de combate de todo el mundo destrozar la reputación de un
camarada que acaba de morir en un accidente. Los sociólogos han observado cómo sus compañeros
pilotos van al bar y beben por la desgracia del camarada caído, o más probablemente por su error, y
ponen las bebidas en la cuenta de su bar. Esta práctica tiene como objetivo resaltar o inventar
evidencia de por qué no fue tan buen piloto después de todo. La transformación de "uno de ellos
mismos" en "un mal piloto" protege psicológicamente a quienes hacen el mismo trabajo de la misma
vulnerabilidad al fracaso.
Las personas y las organizaciones a menudo quieren que la sorpresa del fracaso desaparezca y, con
ella, el desafío a sus puntos de vista y creencias. La forma más fácil de hacer esto es ver
XX GUÍA DE CAMPO DE ERRORES HUMANOS
el fracaso como algo local, como algo que es meramente el problema de unos pocos individuos
que se comportaron de manera poco característica, errática o no representativa (de hecho,
localmente "sorprendente").
El capitán de Oscar November fue llevado a los tribunales para ser juzgado por cargos penales de
"poner en peligro a sus pasajeros" (algo que hacen los pilotos cada vez que vuelan, bromeó un compañero
piloto). El caso se centró en las "malas" decisiones de la tripulación. ¿Por qué no se habían desviado para
recoger más combustible? ¿Por qué no habían desechado ese enfoque antes? ¿Por qué no se habían ido a
otro aeropuerto de llegada? Estas preguntas trivializaron u ocultaron los dilemas organizacionales y
operativos que enfrentan las tripulaciones todo el tiempo. El enfoque en el servicio al cliente y la imagen; la
renuncia a las calificaciones para las aproximaciones; poner más trabajo en tripulantes calificados; mucho
tráfico alrededor del aeropuerto de llegada y giros cerrados posteriores; compensaciones entre desvíos en
otros países o continuar con suficiente pero apenas suficiente combustible. Etcétera.
El vilipendiado capitán fue degradado a copiloto y se le ordenó pagar una multa. Se suicidó poco
después. Sin embargo, la aerolínea había salvado su imagen pública al centrarse en un solo individuo
que, según demostró el tribunal, se había comportado de manera errática y poco confiable.
En lugar de modificar nuestros puntos de vista a la luz del evento, remodelamos, volvemos a contar y
reinscribimos el evento hasta que se ajusta a la visión tradicional y no amenazante del sistema. En lo
que se refiere al aprendizaje organizacional, el percance bien podría no haber ocurrido. La naturaleza
próxima de nuestras reacciones ante el fracaso hace que las costosas lecciones organizacionales
puedan quedar completamente desaprendidas.
Los pilotos de un gran helicóptero militar que se estrelló en una colina en Escocia en 1994 fueron declarados
culpables de negligencia grave. Los pilotos no sobrevivieron, 29 personas murieron en total, por lo que nunca
se pudo escuchar su versión de la historia. La investigación oficial no tuvo problemas para "destruir la
reputación de dos buenos hombres", como dijo un compañero piloto. De hecho, muchos otros pilotos se
sintieron incómodos con la conclusión. Vulnerabilidades potencialmente fundamentales (como 160 casos
informados de movimiento de control de vuelo no comandado o UFCM en computador)
solo helicópteros desde 1994) no se examinaron seriamente.1
CONTRAFACTUAL
1
Sunday Times, 25 de junio de 2000.
XXII GUÍA DE CAMPO DEL ERROR HUMANO
Los informes de accidentes generalmente están llenos de contrafactuales que describen con gran detalle los caminos y
las opciones que las personas en cuestión no tomaron. Por ejemplo, "El avión podría haber superado el encuentro con
la cizalladura del viento si se hubiera mantenido la actitud de cabeceo de 15 grados con el morro hacia arriba, el
empuje se hubiera establecido en 1,93 EPR (relación de presión del motor) y el
Los contrafactuales prueban lo que podría haber sucedido si se hubieran cumplido ciertas
condiciones mínimas y, a menudo, utópicas. Por lo tanto, el razonamiento contrafactual puede
ser un ejercicio fructífero al recomendar contramedidas contra tales fallas en el futuro.
Pero cuando se trata de explicar el comportamiento, los contrafactuales contribuyen
poco. Destacar lo que no se hizo (pero si se hubiera hecho, el accidente no habría ocurrido) no
explica nada sobre lo que realmente sucedió o por qué. Los contrafactuales no son
oportunidades perdidas por las personas que está investigando. Los contrafactuales son
productos de su retrospectiva. La retrospectiva le permite transformar una secuencia incierta y
compleja de eventos en una serie simple y lineal de opciones obvias. Al establecer
contrafactuales, probablemente esté simplificando en exceso los problemas de decisión que
enfrentan las personas en ese momento.
Contrafactual:
Posible resultado 2
”¿Por qué no
¿hacen zag?
Posible resultado 1
Sidney Dekker
Figura 2.4: Contrafactuales: Al retroceder a través de una secuencia, uno se pregunta por qué la gente
perdió la oportunidad de desviar los eventos del resultado final. Esto, sin embargo, no explica el
fracaso.
1
Junta Nacional de Seguridad en el Transporte (1995).Informe de accidente de aeronave: Vuelo
contra el terreno durante una aproximación frustrada Vuelo 1016 de USAir, DC-9-31, N954VJ,
Charlotte Carolina del Norte, 2 de julio de 1994. Washington, DC: NTSB, página 119.
Prefacio XXIII
Las bifurcaciones en el camino se destacan claramente para ti, mirando hacia atrás. Pero en el interior
del túnel, al mirar hacia adelante y ser empujado por los acontecimientos que se desarrollaban, estas
bifurcaciones estaban envueltas en la incertidumbre y la complejidad de muchas opciones y
demandas posibles; estaban rodeados de limitaciones de tiempo y otras presiones.
JUZGADOR
Para explicar el fracaso, buscamos el fracaso. Para explicar por qué ocurrió una falla, buscamos
errores, acciones incorrectas, análisis defectuosos, percepciones inexactas. Cuando tiene que
explicar el fracaso, los juicios erróneos, las percepciones inexactas y las oportunidades
perdidas parecen ser un buen lugar para comenzar.
Sin embargo, estas decisiones, juicios, percepciones son malas o incorrectas o inexactas solo
en retrospectiva, desde su punto de vista como extraño retrospectivo. Cuando se ve desde el
interior de una situación, las decisiones, los juicios y las percepciones son solo eso: decisiones,
juicios y percepciones.
Mira la figura 2.5. El mismo uso de la palabra "falla" en las conclusiones de la
investigación (por ejemplo: "la tripulación no pudo reconocer un cambio de modo") indica que
todavía está en la línea superior, mirando hacia abajo. Representa un juicio desde fuera de la
situación, no una explicación desde el punto de vista de la gente interior.
La palabra fracaso implica un camino alternativo, uno que las personas en cuestión
no tomaron (por ejemplo, reconocer el cambio de modo). Presentar este camino es
contrafactual, como se explicó anteriormente.
XXIV GUÍA DE CAMPO DE ERRORES HUMANOS
Mucho
Lo que tu
saber ahora
Lo que ellos
aparentemente
sabía entonces
Un poco
Figura 2.5: Juicio: decir que otras personas no hicieron lo que deberían haber hecho (saber lo
que sabes hoy) no explica su comportamiento.
Pero al decir que las personas "fracasaron" en tomar este camino, en retrospectiva, el
correcto, usted juzga su comportamiento de acuerdo con un estándar que solo puede
imponer con su conocimiento más amplio del percance, su resultado y las circunstancias
que lo rodean. Aún no has explicado nada. No ha arrojado luz sobre cómo se veían las
cosas en el interior de la situación; por qué la gente hizo lo que hizo dado
su circunstancias.
La literatura sobre error médico describe cómo los casos de muerte por negligencia pueden ser el resultado
de una falla de juicio en el proceso diagnóstico o terapéutico. Los ejemplos incluyen un diagnóstico erróneo a
pesar de los datos adecuados, la falta de selección de las pruebas de diagnóstico apropiadas o
procedimientos terapéuticos, y retraso en el diagnóstico o tratamiento.1
Aunque parezcan explicaciones de error, en realidad son juicios que no conllevan
explicación alguna. Por ejemplo, el "diagnóstico erróneo a pesar de los datos adecuados" fue
una vez (antes de la retrospectiva) un diagnóstico razonable basado en los datos que parecían
críticos o relevantes; de lo contrario, no lo habría hecho el médico en cuestión. Llamarlo un
diagnóstico erróneo es un juicio retrospectivo no constructivo que pasa por alto las razones
detrás del diagnóstico real.
1
Bogner, M: S. (Ed.) (1994).error humano en medicina. Hillsdale, Nueva Jersey: Erlbaum.
Prefacio XXV
crítico:
"Ellos fallaron
hacer zag”
resultado real
"Ellos deberían
haber zigzagueado”
Sidney Dekker
Figura 2.6: Criticar: al afirmar que las personas deberían haber hecho algo que no hicieron, o que no hicieron
algo que deberían haber hecho, no explicas su comportamiento real.
Una de las razones por las que las personas se sienten obligadas a juzgar en lugar de explicar, por qué
buscan fallas para explicar las fallas, tiene que ver con la "equivalencia de causa-consecuencia".
Suponemos que las consecuencias realmente malas solo pueden ser el resultado de causas
realmente malas. Ante un resultado desastroso, o la posibilidad de uno, asumimos que los
actos que lo condujeron debieron ser igualmente monstruosos. Una vez que sabemos que un
resultado es malo, ya no podemos mirar objetivamente el proceso que condujo a él.
Pero esta respuesta automática es muy problemática en mundos complejos. Aquí, incluso los
malos procesos a menudo conducen a buenos resultados. Y los buenos procesos pueden conducir a
malos resultados. Los procesos pueden ser "malos" en el sentido retrospectivo de que se apartaron
de las rutinas que ahora sabe que eran aplicables. Pero esto no conduce necesariamente al fracaso.
Dada su variabilidad inherente a estos mundos, por lo general permiten un conjunto de opciones y
caminos hacia resultados seguros. Hay más de un camino hacia el éxito. Piense en una aproximación
apresurada en un avión que se estabiliza en el momento adecuado y conduce a un aterrizaje seguro.
También pasa lo contrario. Los buenos procesos (en el sentido de que no se apartan del simulacro),
donde las personas verifican dos veces, se comunican y se apegan a los procedimientos, pueden
conducir a resultados desastrosos.
GUÍA DE CAMPO XXVI ERROR HUMANO
resultados.
BUENOS RESULTADOS
Piense, por ejemplo, en un incendio en vuelo u otro mal funcionamiento grave en el que los pilotos negocian
entre aterrizar con sobrepeso o tirar combustible (dos cosas que simplemente no puede hacer al mismo
tiempo), mientras clasifican los procedimientos que apuntan a localizar la fuente del problema; en otros
palabras, haciendo lo que el libro y la formación y la disciplina profesional les dice que hagan. Si el incendio o
el mal funcionamiento alcanza a los pilotos mientras todavía están en el aire, puede decir que deberían haber
aterrizado en lugar de preocuparse por cualquier otra cosa. Pero es solo la retrospectiva lo que te permite
decir eso. Realmente no se puede juzgar que el proceso de verificación y negociación de los pilotos sea malo
según ningún otro estándar.
Lo sorprendente de muchos accidentes es que las personas estaban haciendo exactamente el tipo de
cosas que normalmente harían, las cosas que generalmente conducen al éxito y la seguridad. En la
secuencia de eventos que conducen a las fallas, no hay "maldad" en el comportamiento de nadie bajo
ninguna medida objetiva. Las personas están haciendo lo que tiene sentido dadas las indicaciones
situacionales, las presiones operativas y las normas organizacionales existentes en ese momento.
3. ¿Cuál es la causa?
¿Cuál fue la causa del percance? Después del fracaso, ninguna pregunta parece más
apremiante. Puede haber una presión significativa de todo tipo de direcciones para
identificar una causa:
LA CONSTRUCCIÓN DE LA CAUSA
Mira dos investigaciones oficiales sobre el mismo accidente. Uno fue realizado por
la aerolínea cuyo avión se estrelló en algún lugar de las montañas. El otro fue
realizado por la autoridad de aviación civil del país en el que ocurrió el accidente, y
que contrató al controlador de tránsito aéreo en cuyo espacio aéreo se produjo.
La autoridad dice que el controlador no contribuyó a la causa del accidente, sin embargo, la
aerolínea afirma que las autorizaciones del control de tránsito aéreo no estaban de acuerdo con los
estándares aplicables y que las habilidades lingüísticas inadecuadas y la falta de atención del
controlador fueron causales. La autoridad responde que el uso inadecuado de la automatización de la
cabina de vuelo por parte del piloto fue en realidad el culpable, por lo que la aerolínea apunta a una
base de datos de navegación inadecuada suministrada a sus computadoras de vuelo entre las causas.
La autoridad explica que el accidente se debió a la falta de conocimiento de la situación con respecto
al terreno y las ayudas a la navegación, mientras que la aerolínea culpa a la falta de cobertura de
radar en el área. La autoridad afirma que la tripulación no pudo volver a la navegación básica cuando
el uso de la automatización de la cabina de vuelo creó confusión y carga de trabajo. después de lo
cual, la aerolínea argumenta que los fabricantes y proveedores de automatización de cabinas de
vuelo exudaban un exceso de confianza en las capacidades de sus tecnologías y transmitieron esto a
los pilotos. La autoridad finalmente culpa a los esfuerzos continuos de la tripulación de vuelo para
acelerar su aproximación al aeropuerto a fin de evitar demoras, por lo que la aerolínea culpa al
controlador por repentinamente
GUÍA DE CAMPO XXVIII ERROR HUMANO
inundando a la tripulación de vuelo con una nueva ruta de llegada y una pista diferente para
aterrizar.1
El controlador de tráfico aéreo no jugó un papel Sin fraseología estándar, lenguaje inadecuado
y falta de atención por parte del Controlador
Uso inadecuado de la automatización por parte de los pilotos Base de datos de automatización inadecuada
Entonces, ¿quién tiene razón? La realidad detrás de la controversia, por supuesto, es que
ambas investigaciones tienen razón. Ambos tienen razón en que todos los factores
mencionados fueron en cierto sentido causales, o contribuyentes, o al menos necesarios.
Si cualquiera de estos factores desaparece, la secuencia de eventos probablemente
habría conducido a otra parte. Pero esto también significa que ambos conjuntos de
afirmaciones están equivocados. Ambos están equivocados porque se enfocan solo en
un subconjunto de factores contribuyentes y seleccionan y eligen cuáles son causales y
cuáles no. Esta elección puede ser impulsada más por presiones sociopolíticas y
organizativas que por la mera evidencia encontrada entre los escombros. La causa no es
algo que encuentres. La causa es algo que construyes. Cómo lo construyes y de qué
evidencia parece depender de dónde miras, qué buscas, con quién hablas,
¿Cómo es que hay tantas causas para elegir en cualquier percance? Esto tiene que ver
con el hecho de que los tipos de sistemas que son vulnerables al error humano son
1
Ver: Aeronáutica Civil (1996).Informe de accidente de aeronave: vuelo controlado contra
terreno vuelo 965 de American Airlines, Boeing 757-223, N851AA cerca de Cali, Colombia, 20 de
diciembre de 1995. Santafé de Bogotá, Colombia: Aeronáutica Civil Unidad Administrativa
Especial, y Presentación de American Airlines (1996) a la Investigación del Accidente de Cali.
Prefacio XXIX
tan bien protegido contra ella. El potencial de peligro en muchas industrias y sistemas ha
sido reconocido hace mucho tiempo. Y en consecuencia, se han realizado importantes
inversiones para protegerlos de las averías que sabemos o pensamos que pueden
ocurrir. Estas llamadas "defensas" contra el fracaso contienen elementos humanos, de
ingeniería y organizativos.
Volar a las velocidades de aproximación correctas para aterrizar mientras una aeronave pasa por sus configuraciones
posteriores (de flaps, slats y ruedas que salen) es fundamental para la seguridad. Como resultado, se ha convertido en
un proceso bien defendido de verificación doble y referencias cruzadas entre los miembros de la tripulación, los
folletos de velocidad, el peso de la aeronave, la configuración de los instrumentos, los recordatorios y las llamadas y,
en algunas aeronaves, incluso mediante enclavamientos diseñados.
Los accidentes en tales sistemas pueden ocurrir solo si múltiples factores logran erosionar o
pasar por alto todas estas capas de defensa. La ruptura de cualquiera de estas capas puede
denominarse "causal". Por ejemplo, la tripulación abrió el cuadernillo de velocidad en la página
incorrecta (es decir, el peso de aterrizaje de la aeronave incorrecto). Pero esto no explica todo el
colapso, porque otras capas de defensa también tuvieron que ser rotas o esquivadas. Y hay otra
pregunta. ¿Por qué la tripulación abrió el folleto en la página equivocada? En otras palabras, ¿cuál es
la causa de esa acción? ¿Fue su expectativa del peso de la aeronave en función del combustible
utilizado en ese viaje típico? ¿Fue una mala lectura de un instrumento? Y una vez señalado, ¿cuál es la
causa de esa causa? Etcétera.
Entonces, ¿cuál es la causa del accidente? Esta pregunta es tan extraña como preguntar
quéelcausa es de no tener un accidente. No hay una sola causa. Ni por el fracaso, ni por
el éxito. Para llevar un sistema bien defendido al límite (o hacer que funcione de manera
segura, para el caso), se necesita una gran cantidad de factores que contribuyen y solo
son suficientes en conjunto.
XXX GUÍA DE CAMPO DE ERRORES HUMANOS
En una ruptura con la tradición de identificar las "causas probables" en los accidentes de aviación, que
simplifican demasiado el camino largo y entrelazado hacia el fracaso, la investigación del juez
Moshansky sobre el accidente de Air Ontario en Dryden, Canadá en 1989, no produjo ninguna causa
probable.
El piloto en cuestión había tomado la decisión de despegar con hielo y nieve en las alas, pero,
como escribió la comisión de Moshanky, "esa decisión no se tomó de forma aislada. Se tomó en el
contexto de un sistema integrado de transporte aéreo que, si había estado funcionando
correctamente, debería haber impedido la decisión de despegar... hubo fallas significativas, la
mayoría de ellas fuera del control del capitán, que tuvieron un impacto operativo en los eventos en
Dryden... regulatorias, organizativas, físicas y de tripulación componentes...."
En lugar de forzar esta complejidad en una serie de causas probables, la Comisión generó
no menos de 191 recomendaciones que apuntaban a las muchas "causas" o fallas sistémicas
subyacentes al accidente sintomático de ese día de marzo de 1989. Las recomendaciones
variaron en temas desde la introducción de un nuevo tipo de aeronave a una flota, a la
selección y rotación de la gerencia en la aerolínea, a adquisiciones y fusiones corporativas en
la industria de la aviación.1
• Selectivo. Hay tantas cosas que puedes etiquetar como "causales" antes de que la
palabra "causal" pierda sentido.;
• Exclusivo. Dejan fuera factores que también fueron necesarios y sólo en conjunto
suficientes para "provocar" la falla;
• Simplificaciones excesivas. Destacan solo unos pocos puntos críticos a lo largo de un camino
causal largo, retorcido y altamente interconectado que comienza mucho antes y muy
lejos de donde ocurre la falla real.
Si el protocolo prescribe que se identifiquen las causas probables, la mejor forma de
abordarlas es generar, como "causa probable", el resumen más breve posible de las
1
Moshansky, vicepresidente (1992).Comisión de investigación sobre el accidente de Air Ontario en
Dryden, Ontario(Informe final, vol. 1-4). Ottawa, ON: Ministro de Abastecimiento y Servicios,
Canadá.
Prefacio XXXI
4. Error humano
Por cualquier otro nombre
"Un portavoz de la familia Kennedy se negó a comentar sobre los informes de que una
investigación federal concluyó que un error del piloto causó el accidente aéreo que mató
a John F. Kennedy Jr., su esposa y su cuñada. La Junta Nacional de Seguridad en el
Transporte Se espera que termine su informe sobre el accidente del año pasado y lo
publique en las próximas semanas. Sin embargo, en lugar de usar las palabras "error del
piloto", la junta de seguridad probablemente atribuirá la causa a que Kennedy se
"desorientó espacialmente", que es cuando un piloto pierde la pista de
la posición del avión en el cielo".1
ETIQUETAS SUBESPECIFICADAS
1
International Herald Tribune, 24 y 25 de junio de 2000.
Prefacio XXXIII
• La pérdida de CRM es un nombre para el error humano: la falta de inversión en un terreno común,
para coordinar datos importantes desde el punto de vista operativo entre los miembros de la
tripulación;
• La pérdida de conciencia de la situación es otro nombre para el error humano: no
darse cuenta de cosas que, en retrospectiva, resultaron ser críticas;
• La complacencia también es un nombre para el error humano: la incapacidad de
reconocer la gravedad de una situación o de seguir los procedimientos o estándares
de buenas prácticas.
Los factores humanos corren el riesgo de caer en la trampa de citar "error humano"
con cualquier otro nombre. Al igual que "error humano", otras etiquetas también
ocultan lo que realmente sucedió: intentan decir tanto que pueden terminar
diciendo muy poco. De hecho, estas etiquetas no deben confundirse con una visión
más profunda de los problemas de factores humanos. El riesgo ocurre cuando los
investigadores aplican estas etiquetas sin hacer conexiones explícitas entre:
”L
”LoossssooFFmimifFmifeCCtitvIVmimiCCre
reww
RRmimissootuturcrcmimiMETROMETROaanortenorteaagramogramomimimetrometromiminortenortet”t”
"causado"
el percance
Sidney Dekker
Figura 4.1: Las interesantes dinámicas mentales tienen lugarbajola gran etiqueta psicológica. La
etiqueta en sí misma no explica nada.
• Las formas en que las personas desvían la atención sobre la base de evaluaciones
anteriores de la situación o sobre la base de expectativas futuras;
• Las compensaciones que tienen que hacer entre varias metas operativas
u organizacionales;
• Cómo activan y aplican el conocimiento en contexto;
• Cómo reconocen patrones de datos sobre la base de la experiencia con
circunstancias similares;
• Cómo se coordinan con varias fuentes de experiencia dentro y fuera de
su situación;
• Cómo lidian con la torpeza y complejidad de la tecnología que les rodea.
Son estos procesos mentales e interpersonales los que impulsan una secuencia de
Prefacio XXXV
eventos en ciertas direcciones; son estos procesos, en todo caso, los que se
puede decir que son "causales" en el sentido de que ayudan a determinar el
resultado de una secuencia de eventos. Cuando penetre la evidencia de su
percance a un nivel en el que pueda comenzar a ver estos procesos en
funcionamiento, podrá conectarlos directamente con el resultado que siguió,
pasando por alto o al menos especificando la etiqueta grande que de otro
modo oscurecería todo el interesantes dinámicas cognitivas y vínculos
causales.
El uso de términos extensos en los hallazgos y explicaciones de la investigación
puede verse como el rito de iniciación a los fenómenos psicológicos. Es decir, para
que una investigación de factores humanos se tome en serio, debe contener su
dosis de conciencia de la situación, tensiones y cargas de trabajo. Pero esto es un
concepto erróneo, y el resto de este capítulo presenta una alternativa. Se debe
hacer un análisis más detallado detrás de las etiquetas. Esto produce conocimientos
más específicos y significativos sobre el comportamiento humano. Hará que su
investigación sea más accesible y verificable para otros también.
Situación
Conciencia
tiempo
Sidney Dekker
Figura 4.2: La noción tradicional de conocimiento de la situación: procesamos información del mundo
hasta que llegamos a la conciencia, o una imagen mental de lo que está sucediendo.
Estrés/Carga de trabajo
Procesando
Menos Aún
Procesando Menos
Procesando
Situación
"Pérdida de
Conciencia"
tiempo
Sidney Dekker
Figura 4.3: En la noción tradicional, se presume que se produce una pérdida de conciencia de la
situación por presiones y dificultades en el procesamiento de la información.
De hecho, la pregunta "¿qué está pasando ahora?" tiene tal idea detrás: la
gente tenía expectativas de lo que haría el sistema o proceso. Por
implicación, la gente tenía algún tipo de modelo mental sobre el cual
formar esas expectativas. El sistema o proceso no se comportó de acuerdo
a sus expectativas, por lo que suscitó la pregunta.
La realidad es que no podríamos vivir o sobrevivir sin construir,
mantener y modificar constantemente nuestra idea del mundo cambiante
que nos rodea, influenciar nuestra situación en base a ella y luego recibir
nueva información que actualice nuestra comprensión una vez más.
Situación
Comportamiento
Actual
Comprensión
Sidney Dekker
Figura 4.4: La nueva visión de la conciencia de la situación: hacemos evaluaciones sobre el mundo,
actualizando nuestra comprensión actual. Esto dirige nuestras acciones en el mundo, que
Prefacio XXXIX
cambiar el aspecto del mundo, lo que a su vez actualiza nuestra comprensión, y así
sucesivamente (la figura se basa en el ciclo de percepción de Ulrich Neisser).
El capítulo 7, junto con los capítulos que siguen, lo ayuda a aplicar ingeniería inversa a la idea
constantemente actualizada de las personas sobre cómo evolucionaban las cosas a su
alrededor.
Tome un vuelo simple de A a B: llegadas a tiempo, viajes tranquilos a través del clima,
presiones de asignación de franjas horarias, uso óptimo de combustible, disponibilidad de
alternativas, comodidad para los pasajeros: todos estos son objetivos que pueden influir en un
GUÍA DE CAMPO DE ERRORES HUMANOS XL
Dado que las personas en el mismo equipo operativo tienen diferentes roles, no todos en
un equipo pueden sentirse igualmente afectados o responsables de algunos de estos
objetivos. Esto puede conducir a desajustes entre lo que los individuos ven como su
búsqueda dominante, o la del equipo, en un momento dado.
Las divergencias pueden existir y crecer en la forma en que las personas con
diferentes antecedentes y roles pueden interpretar sus circunstancias. Diferentes
evaluaciones pueden llevar a que se persigan diferentes objetivos y se tomen
diferentes acciones.
Gary Klein cuenta una historia interesante de un avión de pasajeros con tres generadores, uno
en cada uno de sus motores. Uno de los generadores falló temprano en un vuelo. Esto no es
particularmente inseguro: dos generadores pueden proporcionar la energía eléctrica que
necesita la aeronave. Pero luego otro motor comenzó a perder aceite, casi forzando una
parada. Después de un poco de discusión, la tripulación decidió dejar que el motor averiado
funcionara al ralentí, de modo que se pudiera llamar a su generador si fuera necesario.
Cuando se le preguntó después de aterrizar cuántos generadores acababan de estar
disponibles, el copiloto (que volaba el avión en ese momento) dijo "dos". El capitán dijo "uno y
medio", es decir, un motor en buen estado y otro inactivo. Pero el ingeniero de vuelo dijo
"uno", ya que poner en marcha el motor inactivo donde alimenta el generador lleva un tiempo.
momento.1
1
Klein, G. (1998).Fuentes de poder: cómo las personas toman decisiones. Cambridge, MA:
MIT Press.
Prefacio XLI
la coordinación es una cuestión de personas que asumen que otros tienen una
comprensión similar de la situación. Al igual que el ingeniero de vuelo en el ejemplo
anterior, puede haber asumido que los dos pilotos sabían que solo había un
generador disponible durante al menos un momento. Por lo general, existen muy
buenas razones para estas suposiciones, ya que facilitan la coordinación del equipo
al no saturar la comunicación de la tripulación con recordatorios y sugerencias
redundantes.
Cuando encuentra diferencias entre los objetivos de las personas, entre las
interpretaciones de las personas y cuando encuentra comunicaciones faltantes
entre los escombros, es fácil considerarlas como fracasos o pérdidas. Fallos de
trabajo en equipo, por ejemplo. O fallas de liderazgo, o pérdida de gestión de
recursos de la tripulación. Pero mira detrás del fracaso. El silencio de un miembro
de la tripulación en realidad puede representar un buen trabajo en equipo, lo que
incluye saber cuándo no interrumpir.
Los aviones de pasajeros modernos están equipados con sistemas de gestión de vuelo
(FMS) que básicamente hacen volar el avión completo en la actualidad. Cada uno de los
pilotos de estos aviones tiene acceso individual al FMS a través de una interfaz separada:
su pequeño espacio de trabajo privado. Aquí pueden hacer cambios significativos en el
plan de vuelo sin que el otro piloto necesariamente vea, sepa o comprenda. El piloto solo
necesita presionar "ejecutar" y la computadora hará lo que ha programado.
Por supuesto, las aerolíneas han ideado procedimientos que requieren que los pilotos
verifiquen las entradas de las computadoras de los demás, pero en realidad hay muchas
circunstancias en las que esto no es práctico o es innecesario. El verdadero problema de coordinación
no es que los pilotos no sigan los procedimientos. Es una característica del diseño.
eso hace que la coordinación sea muy difícil, pero crítica para la seguridad.1
1
Dekker, SWA y Hollnagel, E. (Eds.) (1999).Hacer frente a las computadoras en la cabina.
Aldershot, Reino Unido: Ashgate.
GUÍA DE CAMPO DEL ERROR HUMANO XLII
COMPLACENCIA
La figura 4.5 muestra lo que realmente puede estar pasando aquí y por qué la
complacencia o la negligencia no son solo un juicio, sino también una etiqueta
incompleta.
Centrándose en un momento en el
tiempo, ve "negligencia" con respecto a
un estándar o norma anterior
norma antigua
Desviación
rm
Norma actualmente
Desde
adherido a
Tiempo
Sidney Dekker
Figura 4.5: En un momento particular en el tiempo, el comportamiento que no está a la altura de algún
estándar puede parecer complacencia o negligencia. Pero este enfoque ignora la historia, y por lo tanto
la explicación, detrás del comportamiento en cuestión. La desviación puede haberse convertido en la
nueva norma en toda una operación u organización.
Prefacio XLIII
Las desviaciones de algún estándar o rutina pueden parecer que ocurren en cualquier
momento porque las personas no están motivadas para hacer lo contrario; estas
personas son vistas como "complacientes" o "negligentes". Pero a menudo, la suya no es
la primera salida de la rutina. Las desviaciones de la rutina que se han convertido en
rutina pueden incluir cualquier cosa, desde la lectura superficial de la lista de verificación,
hasta tomar otros atajos para ahorrar tiempo, hasta firmar equipos o personas sin
cumplir con todos los criterios oficiales.
Lo más pertinente para las investigaciones de errores humanos es
averiguar qué historia organizativa o presiones existen detrás de estas
desviaciones rutinarias de la rutina. Tome salidas, llegadas o entregas a
tiempo, relevantes para cualquier organización que opere en un horario:
Préstamo de seguridad
En "La decisión del lanzamiento del Challenger", Diane Vaughan ha documentado cuidadosamente
cómo toda una organización comenzó a tomar prestado de la seguridad, reforzada por un
lanzamiento exitoso del transbordador espacial tras otro, incluso si las juntas tóricas en el
GUÍA DE CAMPO DEL ERROR HUMANO XLIV
Los propulsores de cohetes sólidos mostraron signos de daño por calor. La evidencia de este
"escape" de Oring se analizó críticamente cada vez, se evaluó según criterios conocidos y luego
se decidió como "aceptable". Vaughan ha llamado a este proceso repetido "la normalización de
la desviación": lo que antes era una desviación, ahora se convirtió en la nueva norma. Se pensó
que esto era seguro: después de todo, había dos juntas tóricas: el sistema era redundante. Y si
los lanzamientos anteriores fueran algo por lo que pasar (la evidencia más tangible del éxito),
la seguridad futura estaría garantizada. El transbordador espacial Challenger, lanzado en
temperaturas frías en enero de 1986, mostró cuánto había estado tomando prestado la NASA
de la seguridad: se rompió
y explotó después del despegue debido a la fuga de la junta tórica.1
1
Vaughan, D. (1996).La decisión de lanzamiento del Challenger. Chicago, IL: Prensa de la
Universidad de Chicago.
2
La cita sobre la ley de Murphy proviene en parte de Langewiesche, W. (1998).dentro del cielo.
Nueva York: Panteón.
Prefacio XLV
norma antigua
Nor
ma
actu
adh
Desviación
alm
erid ente
oa
De
amenaza de seguridad
Tiempo
Sidney Dekker
Figura 4.6: La ley de Murphy es incorrecta. Lo que puede salir mal por lo general sale bien, y con el tiempo
llegamos a pensar que una amenaza a la seguridad no existe o que no es tan mala. Sin embargo, mientras
ajustamos nuestro comportamiento para adaptarnos a otras presiones del sistema (p. ej., rendimiento a
norma
tiempo), las amenazas a la seguridad varían por debajo, lo que nos prepara para problemas en el futuro.
Desajuste demanda-recurso
Lo que puede hacer sobre la base de sus datos es hacer un inventario de las
demandas en una situación y los recursos que las personas tenían disponibles para
hacer frente a estas demandas. Esta es una forma de manejar más específicamente
la evidencia disponible. Si sospecha que el estrés o la alta carga de trabajo
GUÍA DE CAMPO DEL ERROR HUMANO XLVI
En estudios de estrés y carga de trabajo, algunos han informado que un desajuste entre
demandas y recursos puede significar cosas diferentes para diferentes tipos de
operadores. En un avión de patrulla marítima, por ejemplo, las personas en la parte de
atrás se preocupan por dejar caer sonoboyas (para detectar submarinos) desde el avión.
Cuantas más sonoboyas en un tiempo determinado, más carga de trabajo, más estrés.
En cambio, las personas en la parte delantera del avión estaban preocupadas por
cuestiones más estratégicas. Para ellos, la cantidad de cosas que hacer tenía poca
relación con su experiencia de estrés y carga de trabajo. Sin embargo, se sentirían
estresados si su modelo de la situación no coincidiera con la realidad, o si se hubiera
quedado atrás de las circunstancias reales.
Tunelización y regresión
Circunstancias muy dinámicas: las cosas Otras personas que contribuyen a evaluar-
cambiando rápidamente con el tiempo mentos de lo que está pasando
Incertidumbre sobre lo que está pasando o Conocimiento o formación para hacer frente a la
sobre los posibles resultados circunstancias
Interacciones con otras personas que Otras personas para descargar tareas o ayudar
generan más inversión que retorno resolver problemas
(en términos de descarga)
Prefacio XLVII
Tabla 4.1: Encontrar un desajuste entre las demandas de los problemas y los recursos de afrontamiento puede ayudarlo a
hacer que los argumentos sobre el estrés y la carga de trabajo sean más específicos.
5. Error humano—
En la cabeza
¿O en el mundo?
Para aplicar "ingeniería inversa" al error humano, el capítulo 9 lo alentará a reconstruir cómo se
desarrolló y cambió la forma de pensar de las personas con el tiempo. Uno pensaría que la
reconstrucción de la mentalidad en desarrollo de alguien comienza con la mente. La mente, después
de todo, es el lugar obvio para buscar la mentalidad que se desarrolló dentro de ella. ¿Hubo algún
problema al mantener las cosas en la memoria de trabajo? ¿Qué había en el almacén perceptivo de la
persona? ¿Hubo problemas para recuperar una parte del conocimiento de la memoria a largo plazo?
De hecho, estos son los tipos de preguntas que se hacen en una variedad de herramientas de análisis
de errores humanos y sistemas de informes de incidentes.
Se está desarrollando una herramienta para el análisis de errores humanos en el control del tráfico
aéreo. Para cada error observado, lleva al analista a través de una larga serie de preguntas que se
basan en un elaborado modelo de procesamiento de información del cerebro humano. Comienza con
los procesos perceptivos y señala al analista los posibles problemas o dificultades allí. Luego continúa
a lo largo de la vía del procesamiento, con la esperanza de guiar al analista a la fuente del problema
en una amplia gama de procesos o estructuras psicológicas: memoria a corto plazo, memoria a largo
plazo, toma de decisiones, selección de respuestas, ejecución de respuestas e incluso el control del
controlador. imagen de sí mismo. Por cada error observado, el viaje a través de las preguntas puede
ser largo y arduo y el destino final (la supuesta fuente del error) dudoso y difícil de verificar.
El error y su investigación permanecen encerrados en una práctica en la que cualquiera puede hacer
afirmaciones aparentemente justificables pero no verificables. Las investigaciones siguen siendo confusas,
inciertas y poco concluyentes, y tienen poca credibilidad.
Las cosas son diferentes cuando comienzas tu investigación con la situación en desarrollo en la
que se encontraban las personas. Los métodos que atribuyen el error humano a las
estructuras internas del cerebro ignoran fácilmente la situación en la que tuvo lugar el
comportamiento humano, o al menos subestiman su importancia. Sin embargo, tiene sentido
comenzar con la situación:
LA RECONSTRUCCIÓN DE LA MENTALIDAD
NO COMIENZA CON LA MENTE
FUERA DE CONTEXTO I:
SOSTENER FRAGMENTOS DE RENDIMIENTO CONTRA UN MUNDO QUE AHORA
SABES QUE ES VERDADERO
Una de las formas más populares en que los investigadores evalúan el comportamiento
es compararlo con un mundo que él o ellaahorasabe que es verdad. Hay varias formas
en que los mundos posteriores a los hechos pueden cobrar vida:
El problema es que estos mundos posteriores a los hechos tienen muy poco en
común con el mundo real que produjo el comportamiento bajo investigación.
Contrastan el comportamiento de las personas con la realidad del investigador, no
con la realidad que rodeaba el comportamiento en cuestión. Por lo tanto, la
microcoincidencia de fragmentos de comportamiento con estos diversos
estándares no explica nada, solo juzga.
GUÍA DE CAMPO DE ERRORES HUMANOS LIV
Procedimientos
Tome el avión de pasajeros automatizado que comenzó a girar hacia las montañas
debido a una anomalía en la base de datos de la computadora. El avión terminó
estrellándose contra las montañas. El parte del accidente explica que uno de los pilotos
ejecutó una entrada en la computadora sin haber verificado que era la selección
correcta, y sin haber obtenido primero la aprobación del otro piloto, contrariamente a la
1
procedimientos de la aerolínea. Otros comentaristas agregan cómo, en sus evaluaciones y
acciones, la tripulación de vuelo no cumplió con la Regulación Federal de Aviación FAR 91.123
(a).
1
El parte del accidente es: Aeronáutica Civil (1996).Informe de accidente de aeronave: vuelo
controlado contra terreno vuelo 965 de American Airlines, Boeing 757-223, N851AA cerca de
Cali, Colombia, 20 de diciembre de 1995. Santafé de Bogotá, Colombia: Aeronáutica Civil
Unidad Administrativa Especial.
Prefacio LV
Datos disponibles
Esta es una respuesta estándar después de los contratiempos: señalar los datos que
habrían revelado la verdadera naturaleza de la situación. Pero el conocimiento de
los datos "críticos" solo se obtiene con el privilegio de la retrospectiva. Si se puede
demostrar que tales datos críticos han estado físicamente disponibles, se asume
automáticamente que deberían haber sido recogidos por los operadores en la
situación.
El problema es que señalar que debió haberlo hecho no explica por qué tal
vez no lo fue, o por qué se interpretó de otra manera entonces. Existe una
diferencia entre la disponibilidad de datos y la observabilidad de los datos,
entre lo que se puede demostrar que estaba físicamente disponible y lo que se
habría podido observar dadas las múltiples tareas intercaladas, los objetivos, el
enfoque atencional, los intereses e incluso la cultura de la persona en cuestión.
1
Presentación de Boeing ante la Junta de Investigación de Accidentes del Vuelo 965 de American
Airlines (1996). Seattle, WA: Boeing.
GUÍA DE CAMPO DE ERRORES HUMANOS LVI
Otros estándares
Existe una segunda forma en la que los datos suelen sacarse de contexto;
en el que se les da sentido desde el exterior. Esta es la agrupación de
fragmentos individuales de comportamiento que representan alguna
condición común.
• Probablemente te pierdas todo tipo de detalles que son relevantes para explicar el
comportamiento en cuestión;
• Cada cereza, cada fragmento, no tiene sentido fuera del contexto que lo
produjo. Cada uno de los fragmentos que se juntan con otros
"similares" en realidad tiene su propia historia, su propio trasfondo, su
propio contexto y su propia razón de ser. Cuando se produjo, es
posible que no tuviera nada que ver con los otros fragmentos con los
que ahora se agrupa. La similitud está enteramente en el ojo del
espectador retrospectivo.
• Mucho desempeño, mucho comportamiento, tiene lugarentrelos fragmentos
que el investigador selecciona para construir su caso. Estos episodios
intermedios contienen cambios y evoluciones en las percepciones y
valoraciones que separan los fragmentos escindidos no sólo en el tiempo,
sino también en el sentido.
1
Aeronáutica Civil, op. cit., páginas 33-34.
Prefacio LIX
roba los datos de su significado original. Y a estos datos fuera de contexto se les da
simultáneamente un nuevo significado, impuesto desde el exterior y en
retrospectiva. Usted impone este nuevo significado cuando observa los datos en un
contexto queahorasaber que es verdad. O impone un significado al etiquetar una
etiqueta externa en una colección suelta de fragmentos aparentemente similares.
Pero para comprender el significado real que tenían los datos en el momento y
el lugar en que se produjeron, debe viajar al pasado usted mismo.
1
Tuchman, B. (1981).Practicando la historia: Ensayos seleccionados. Nueva York: Norton, página
75.
GUÍA DE CAMPO DE ERRORES HUMANOS LX
7. Error humano—
La nueva vista
La nueva visión sobre el error humano considera que los sistemas complejos y dinámicos
en los que trabajan las personas no son básicamente seguros en absoluto. De hecho,
estos sistemas en sí mismos son contradicciones inherentes entre la seguridad y todo
tipo de otras presiones. Hay presiones económicas; presiones que tienen que ver con
horarios, franjas horarias, competencia, atención al público, imagen pública.
Un piloto de línea aérea que fue despedido después de negarse a volar durante una
tormenta de hielo en 1996, recibió 10 millones de dólares por parte de un jurado. El
piloto, que había volado durante 10 años para la aerolínea, recibió el dinero en una
demanda alegando que había sido despedido por volcar su avión turbohélice en una
tormenta. El piloto dijo que había intentado volar de Dallas a Houston pero regresó al
aeropuerto porque pensó que las condiciones no eran seguras.1
Un héroe del jurado (probablemente pasajeros potenciales), este piloto podría haber
decidido seguir adelante. Pero si algo le hubiera sucedido a la aeronave como resultado de la
formación de hielo, la investigación probablemente habría arrojado el resultado de un "error
humano", diciendo que el piloto a sabiendas continuó en condiciones severas de formación de
hielo. Su compensación debe entenderse en el contexto de un accidente de turbohélice en su
empresa solo unos años antes; en ese caso se culpó a una formación de hielo severa.
Pruebas de niveles de antígeno prostático específico (PSA, por sus siglas en inglés) en todos los hombres mayores de 1 año
1
International Herald Tribune, 15 de enero de 2000.
Prefacio LXI
65 sería una muy buena idea; de hecho, probablemente ayudaría a revelar el cáncer de próstata en
etapas tempranas en muchos casos. El PSA es una prueba relativamente fácil, ya que se basa en una
muestra de sangre. Sin embargo, el cáncer de próstata es en realidad más frecuente que fatal en este
grupo de edad: las obducciones de hombres que murieron por otras causas a menudo muestran
cáncer de próstata en cierta medida.
Sin embargo, detectar los casos que podrían resultar fatales antes de que causen algún
daño tendría efectos positivos tanto en los pacientes como en quienes pagan por su atención
médica. Es fácil llamar a un caso no diagnosticado de cáncer de próstata "error humano", pero
la complejidad que subyace detrás de un caso no diagnosticado debe entenderse en términos
de esta compensación. ¿Hacemos pruebas? ¿No probamos? ¿Operamos? ¿No operamos? Las
presiones económicas intervienen en esta compensación, ya que las pruebas generales para
los niveles de PSA en todas las poblaciones no son baratas. Y luego está la incertidumbre
residual: un nivel alto de PSA indica un mayor riesgo de cáncer de próstata, pero en sí mismo
no es un diagnóstico.
• Las personas son vitales para crear seguridad. Son los únicos que pueden
negociar entre la seguridad y otras presiones en condiciones reales de
operación;
• Los errores humanos no surgen inesperadamente. Son el subproducto
inevitable de la experiencia humana: la capacidad humana para llevar a
cabo estas negociaciones mientras se enfrenta a pruebas inciertas y
resultados inciertos.
LXII GUIA DE CAMPO DEL ERROR HUMANO
• Las personas son las únicas que pueden mantener unido el mosaico de
tecnologías introducidas en sus mundos; los únicos que pueden hacer que
todo funcione en la práctica real;
• Nunca es sorprendente encontrar errores humanos en el corazón de la falla del sistema
porque las personas están en el corazón de hacer que estos sistemas funcionen en
primer lugar.
Las investigaciones no están interesadas en el error humano per se. son inter-
Prefacio LXIII
estimado en lo que apunta el error. ¿Cuáles son las fuentes de las dificultades de las
personas? Las investigaciones se enfocan en lo que está detrás del error: las
compensaciones organizacionales empujadas hacia las unidades operativas
individuales; los efectos de la nueva tecnología; la complejidad enterrada en las
circunstancias que rodean la actuación humana; la naturaleza del trabajo mental
que se realizaba en situaciones difíciles; la forma en que las personas se
coordinaron o se comunicaron para realizar su trabajo; la incertidumbre de la
evidencia que los rodea.
¿Por qué las investigaciones en la nueva perspectiva están interesadas en estas
cosas? Porque aquí es donde está la acción. Si las personas quieren aprender algo
de valor sobre los sistemas que operan, verán los errores humanos como:
• No confíe en procedimientos más estrictos porque los seres humanos necesitan discreción
para lidiar con circunstancias complejas y dinámicas para las cuales la orientación
especificada previamente no es adecuada;
• No se deje atrapar por promesas de nuevas tecnologías. Aunque puede eliminar
un potencial de error particular, la nueva tecnología probablemente abrirá
nuevas puertas a la falla del sistema;
• Trate de abordar el tipo de problema sistémico que tiene su origen en las decisiones
organizacionales, las condiciones del lugar de trabajo o las características
tecnológicas.
AVANCES EN SEGURIDAD
La nueva visión del error humano es la clave para el progreso de la seguridad. Las
investigaciones según el nuevo punto de vista conducen a dificultades subyacentes
en la forma y las circunstancias en las que trabaja la gente y en las herramientas
que utilizan. El error ya no es visto como una cosa en sí misma, como algo ajeno al
sistema. Los errores son síntomas de problemas más profundos en
LXIV GUIA DE CAMPO DEL ERROR HUMANO
la forma en que las personas hacen el trabajo que hacen todos los días: perseguir objetivos del
sistema como el horario, el servicio al cliente, la economía, mientras se negocia con la
seguridad.
Entonces, lo que ven las investigaciones en la nueva vista es comportamiento, no
error. Ven el comportamiento cotidiano de las personas. Y típicamente descubren cómo
este comportamiento era razonable dados los objetivos que perseguían las personas, la
evidencia y el conocimiento que tenían disponibles, las compensaciones que
enfrentaban, las estrategias que habían desarrollado, las presiones que existían a su
alrededor. Esto significa que:
8. Reconstruir la mentalidad en
desarrollo
Este capítulo y los dos siguientes lo guiarán a través de dicha reconstrucción. Presentan cinco
pasos hacia la reconstrucción de la mentalidad en desarrollo, lo ayudan a obtener los datos de
factores humanos que necesita y lo guían a través de los escombros para encontrar las
pruebas correctas.
¿Recuerdas el túnel del capítulo 2? La figura 8.1 muestra cómo se veía. Quieres
alcanzar la perspectiva de las personas dentro del túnel; las personas cuyas
evaluaciones y acciones está investigando ahora. Quiere ver el mundo en desarrollo
desde su punto de vista local.
El túnel hace dos puntos sobre la mentalidad de desarrollo del que está dentro de
él:
Adentro Afuera
Sidney Dekker
Figura 8.1: Ver el mundo que se desarrolla desde el punto de vista de las personas dentro de la situación, no desde el
exterior o en retrospectiva.
¿Cómo se llega al túnel terminado? Lo reconstruyes pasando por cinco pasos. Estos
pasos interactúan y se informan entre sí; sería imposible hacer pasar uno solo por ellos y
listo. Para reconstruir gradualmente un túnel cuyo interior se parece a la realidad de las
personas que se encontraban en él en ese momento, es posible que deba saltar de un
lado a otro entre estos pasos. Es posible que tenga que dar vueltas o repetir subpartes.
Estos son los cinco pasos:
Puede parecer un paso obvio para tomar en cualquier análisis: vincular el evento bajo investigación
marcando el comienzo y el final. Sin embargo, muchas investigaciones no dicen explícitamente dónde
comienza realmente su trabajo en una secuencia de eventos y dónde termina.
Prefacio LXVII
Por ejemplo, el comienzo de una grabación de la voz de la cabina de pilotaje puede ser el lugar donde
realmente comienzan las actividades de investigación y el final de la grabación donde terminan. O el
comienzo está contenido en las típicas historias de 72 o 24 horas de lo que un practicante en
particular hizo y no hizo (jugar al tenis, dormir bien, levantarse temprano, etc.) antes de embarcarse
en el viaje u operación fatal. Por supuesto, incluso estos marcadores son arbitrarios, y las razones
para ellos rara vez se aclaran.
¿Fue la aceptación por parte del piloto de un cambio de pista el desencadenante del problema? ¿O fue el
dilema del controlador de tránsito aéreo de tener demasiadas aeronaves convergiendo en el aeropuerto al
mismo tiempo, algo que requirió el cambio de pista?
Alguien siempre puede decir que otra decisión o acción precedió a la que marcó
como punto de partida. Este es un recordatorio de lo que hay que tener en cuenta a
la hora de analizar la decisión o acción que has marcado como inicio. ¿Qué pasó
antes de eso? Cualquiera que sea su elección de comienzo, hágalo explícito. A partir
de ahí, puede retroceder a la historia, o a las circunstancias circundantes, y
encontrar explicaciones para la decisión o acción que, según usted, estableció el
LXVIII GUIA DE CAMPO DEL ERROR HUMANO
secuencia de eventos en movimiento. Mira la figura 8.2. Esto es con lo que quiere
terminar: un comienzo y un final marcados para la secuencia de eventos que desea
investigar.
"MI
"MIXXpagpagmimidd
élimite CCliyometro
soybb””
Sidney Dekker
Figura 8.2: Marcar el comienzo y el final de una secuencia de eventos. Tenga en cuenta las diversas influencias causales
(que otras personas podrían ver como desencadenantes o comienzos) en lo que está marcado como comienzo aquí: la
solicitud de acelerar una escalada.
"MI
"MIXXpagpagmimidd "A
”L”Lmimit'ts'sgramo "ALLTT ”Wsombrero
”Wsombrero "I"Iddoonorte
élimite CCliyometro
soybb”” gramooo VVmimirtritC HHLLDD”” nortenono kknortenorteooww””
hhaapagpag--
icaayoyo SSpagpagmimimimidd””
pagpagmiminortenortemimidd??””
Sidney Dekker
Figura 8.3: Presentar la secuencia completa de eventos, incluidas las evaluaciones y acciones de las personas y los
cambios en el proceso mismo (aquí, por ejemplo, un cambio de modo de automatización a modo de retención de altitud).
Las coyunturas son lugares, o períodos de tiempo, donde las personas o los procesos que
administran contribuyen de manera crítica al resultado que siguió. Las coyunturas en una
secuencia de eventos son lugares donde las personas hicieron algo o pudieron haber hecho
algo para influir en la dirección de los eventos. Pero las coyunturas también son lugares en los
que el proceso hizo algo o podría haber hecho algo para influir en la dirección de los
acontecimientos, ya sea como resultado de aportes humanos o no.
Las coyunturas son puntos de partida para investigar los antecedentes, las razones y las
historias detrás de ellas. ¿De dónde vienen las decisiones? ¿Qué los empujó hacia un lado
y no hacia el otro? En otras palabras, estas coyunturas forman el hilo organizador, para
reconstruir la situación que rodeaba a las personas que estás investigando.
Como regla general, lo que hizo la gente y lo que hicieron sus procesos está estrechamente
interconectado; los dos rara vez se desarrollan independientemente uno del otro. Donde el proceso
hace sus contribuciones (por ejemplo, un cambio de modo de automatización), las personas pueden
obtener diferentes puntos de vista, llegar a diferentes conclusiones o avanzar hacia decisiones
particulares. Lo que a su vez puede influir en cómo se gestiona el proceso. Esto significa que
descubrir cambios en uno puede llevarlo a una coyuntura en el otro. Las coyunturas en una secuencia
de eventos que conducen al fracaso se pueden identificar examinando la decisión de las personas, los
reinicios cognitivos, los cambios en el comportamiento o la estrategia, las acciones para influir en el
proceso y los cambios en el proceso mismo. Más sobre estos sigue a continuación.
GUÍA DE CAMPO DE ERRORES HUMANOS LXX
Decisiones
Las decisiones pueden ser coyunturas obvias, particularmente cuando se toman abiertamente
y se habla de ellas. Por ejemplo, la decisión de aceptar un cambio de pista deja un rastro de
comunicación entre el control de tránsito aéreo y los pilotos, y probablemente entre los
propios pilotos, y va acompañada de cambios en el proceso (cambio de rumbo de la aeronave,
velocidad de descenso, etc.). La decisión de no aceptar un cambio de pista sigue siendo una
decisión y también puede servir como marcador en la secuencia de eventos hacia la avería.
Bajo ciertas circunstancias, estas percepciones pueden venir incluso desde el interior del túnel, y
estarán marcadas por un comportamiento repentinamente diferente o estrategias diferentes (ver el
siguiente punto). Si es así, tales coyunturas se pueden marcar como "reinicios cognitivos", puntos en
los que las personas se dieron cuenta de que la situación era diferente de lo que creían antes.
En lugar de cambios en el comportamiento o la estrategia que fueron el resultado de darse cuenta de que las cosas no
eran como las personas creían al principio, las acciones para influir en el proceso pueden provenir de las propias
intenciones de las personas. Por ejemplo, un piloto puede escribir un waypoint en particular
Prefacio LXXI
en su computadora de gestión de vuelo, para que la aeronave vuele de una u otra forma. Él o
ella puede cambiar de sistema, marcar la radio o comenzar un descenso.
Es posible que la evidencia de estas acciones no se origine en las acciones mismas, sino
en los cambios de proceso que se derivan de ellas. Es decir, es posible que no tenga ningún
registro de datos de los pilotos escribiendo, pero puede tener lecturas de lo que se le dijo al
piloto automático que hiciera en un momento determinado. Estas acciones pueden servir
como coyunturas importantes. No solo se refieren a sí mismos; también le dan una pista sólida
sobre la comprensión actual del ser humano de la situación: dónde pensaba el ser humano
que estaba; cómo él o ella quería proceder; en qué evidencia o en qué indicios probablemente
se basó.
Cambios en el proceso
Cualquier cambio significativo en el proceso que manejan las personas debe servir de coyuntura. No
todos los cambios en un proceso gestionado por personas en realidad provienen de personas. De
hecho, el aumento de la automatización en una variedad de lugares de trabajo ha llevado al potencial
de cambios de procesos autónomos en casi todas partes, por ejemplo:
Las decisiones, acciones y evaluaciones humanas también pueden ser menos obvias. Por
ejemplo, las personas parecen decidir, frente a la evidencia en contrario, no cambiar su curso
de acción; para continuar con su plan como está. En retrospectiva, puede ver que las personas
tuvieron la oportunidad de recuperarse de su malentendido de la situación, pero se perdieron
las señales o las malinterpretaron.
Estas "decisiones" para continuar, estas oportunidades para revisar, pueden
parecerle candidatos claros para coyunturas. Y estan. Pero son coyunturas sólo en
LXXII GUIA DE CAMPO DE ERRORES HUMANOS
Cuando las personas que estás investigando hicieron lo que hicieron, habitaban un mundo
determinado. Un mundo se desplegaba a su alrededor. Mostró indicaciones sobre el estado de sus
procesos. Los parámetros cambiaban con el tiempo, tanto como resultado de la influencia humana
como del proceso que avanzaba: presiones cambiantes, proporciones, configuraciones, altitudes,
cantidades, modos, velocidades. Los valores de estos parámetros probablemente estaban disponibles
para las personas en todo tipo de formas: diales, pantallas, perillas que apuntaban a ciertas
direcciones, sonidos, anuncios de modo, alarmas, advertencias.
Identificar las conexiones entre estos parámetros cambiantes, por un lado, y lo que
la gente pensó, decidió e hizo, por el otro, lo lleva a acoplar el comportamiento y la
situación, a devolver el comportamiento observado a la situación que lo produjo y lo
acompañó. El paso tres se trata de reconstruir este acoplamiento en su sentido más
directo, utilizando indicaciones que estaban directamente disponibles en el mundo que
habitaban las personas en ese momento. El paso tres se trata de tomar las coyunturas
del paso dos y relacionarlas con cómo sabes que el mundo se estaba desarrollando
alrededor de las personas en esos momentos.
Establecer cómo algunos de los parámetros críticos cambiaron con el tiempo no es nada nuevo
para las investigaciones. Muchos apéndices de informes de accidentes contienen lecturas de
registradores de datos, que muestran los gráficos de parámetros de proceso conocidos y relevantes.
Pero construir estas imágenes es a menudo donde las investigaciones se detienen hoy. A veces se
hacen referencias tentativas sobre las conexiones entre los parámetros conocidos y las evaluaciones y
acciones de las personas, pero nunca de manera sistemática o gráfica.
El objetivo del paso tres es casar todas las coyunturas que ha identificado anteriormente
con el proceso de desarrollo: comenzar a ver los dos en paralelo, como una relación causal
inextricable.bailar a dos. El punto del paso tres es construir una imagen que muestre estas
conexiones; para crear un terreno común para que usted y otros investigadores ingresen y
comiencen su investigación.
Muchos procesos complejos y dinámicos son ricos en datos. Pueden dejar una enorme
huella electrónica de parámetros atrás. Esto puede producir su propia sobrecarga de
datos. ¿Cómo es posible que todo sea relevante para su investigación? O, si tuviera que
elegir algunos, ¿cómo podría estar seguro de que no está dejando de lado las claves
críticas? El problema es decidir cuál, de todos los parámetros, contó como un estímulo
para el comportamiento bajo investigación y cuál no. ¿Cuáles de estas indicaciones o
parámetros, y cómo evolucionaron con el tiempo, fueron realmente fundamentales para
influir en el comportamiento de su secuencia de percance? La respuesta está en la
naturaleza de los eventos mismos.
Estos son algunos ejemplos del mundo más ricamente dotado de dispositivos para rastrear y registrar
parámetros de procesos: aviación comercial: si el resultado de la secuencia de eventos fue una advertencia de
entrada en pérdida, entonces la velocidad aerodinámica y lo que hizo con el tiempo se convierte en un
parámetro relevante. para incluir. Si el resultado implica una salida de la superficie dura de una pista,
entonces la presión de los frenos es un parámetro en el que hay que centrarse. Si el resultado fue una
sorpresa de automatización, entonces los diversos cambios de modo por los que pasó la automatización,
incluidos sus anuncios, son lo que desea obtener.
Por supuesto, no puede considerar ninguno de estos parámetros de forma aislada. Las personas
hacen más que rastrear la velocidad aerodinámica o el frenado o observar los cambios de modo, y es
probable que hayan estado observando otras cosas que pueden tener relevancia para su secuencia
de eventos. Tendrá que usar el conocimiento de las personas involucradas, o de personas como ellas,
o de usted mismo, para comprender qué más pudo haber sido relevante en este contexto.
¿Cuándo estás seguro de haber cubierto los parámetros que necesitas? Después de pasar por la
reconstrucción de la forma de pensar de las personas, es posible que quede con lagunas en su
explicación de las evaluaciones y acciones de las personas. Si es así, es hora de comenzar a buscar
algunos parámetros más que podrían haber servido como estímulos críticos para influir en la
comprensión y el comportamiento de las personas, parámetros que antes no parecían obvios.
Una vez que haya decidido qué parámetros de proceso rastrear en su viaje hacia el resultado,
la siguiente etapa es relativamente fácil. Construye una imagen. Cree una imagen de los
parámetros críticos en torno a las coyunturas que recuperó en el paso dos.
El tipo de representación realmente no importa, y lo que funcione mejor puede depender
del tipo de secuencia de eventos que esté investigando. Puede dibujar gráficos de parámetros
de proceso relevantes que suban, bajen y vuelvan a subir a medida que las personas deciden y
actúan para lograr el resultado. Puede dibujar representaciones de instrumentos como deben
haber sido vistos en las distintas coyunturas. Si es relevante, puede
LXXIV GUÍA DE CAMPO DEL ERROR HUMANO
Dibuje un mapa geográfico del área en la que sucedieron las cosas y registre en él las
posiciones, evaluaciones y acciones de las personas a lo largo del tiempo.
Cualquiera que sea la forma de representación, en ella debe dar cuenta de todos los puntos de
decisión, los reinicios cognitivos, las oportunidades perdidas (en retrospectiva) que ha
identificado previamente; en resumen, todas las coyunturas. Esto significa que también debe
insertar los cambios que emanaron del proceso: las reversiones de modo, las alarmas, los
reinicios automáticos.
Con esta imagen, pueden comenzar a surgir conexiones entre cómo se veía el
mundo y qué hacía la gente. Ha vinculado gráficamente los parámetros de proceso
relevantes a las evaluaciones y acciones humanas que evolucionaron en concierto con
ellos. Aquí es donde uno puede comenzar a explicar al otro, y viceversa. Consulte la
figura 8.4 para ver un ejemplo.
SSpagpagmimimimidd””
pagpagmiminortenortemimidd??””
Valores de
Proceso
Parámetros
t1 t2 t3 t4 t5 Tiempo
Sidney Dekker
Figura 8.4: Conectar los parámetros críticos del proceso con la secuencia de evaluaciones y acciones de las personas y
otras coyunturas.
El paso tres revela solo cómo los datos relevantes del proceso estaban físicamente disponibles. Esto
es relativamente fácil de mostrar, una vez que haya decidido qué seguimientos de datos seguir y
Prefacio LXXV
pueden recuperar cómo evolucionaron con el tiempo. Pero el paso tres, mostrar la
disponibilidad de datos, es solo un paso hacia una explicación completa del error humano.
¿Por qué la gente se perdió ciertas cosas que sabemos que estaban allí? ¿Por qué se enfocaron
en una indicación y no en la otra?
Estas preguntas no se responden simplemente mostrando que los datos estaban
físicamente disponibles y retractándose contrafactualmente de que las personas deberían
haberlos notado. Deben responderse con un paso adicional en la reconstrucción de la
mentalidad en desarrollo: el dibujo de un hilo de tareas y objetivos a través de las coyunturas y
la situación circundante.
Las personas no deambulan por las situaciones sin rumbo, simplemente recibiendo
información y produciendo resultados a medida que avanzan. Están ahí para hacer un
trabajo, cumplir tareas, perseguir objetivos. Si hay algo que determina dónde miran las
personas y cómo interpretan lo que ven, son los objetivos que tienen en ese momento y
las tareas que intentan realizar.
Encontrar en qué tareas estaba trabajando la gente no tiene por qué ser difícil. A menudo
se conecta directamente con la forma en que los parámetros del proceso se desarrollaban a su
alrededor. Configurar los sistemas de navegación para una aproximación al aeropuerto, por
ejemplo, es una tarea que se extiende tanto a lo que las personas decían y hacían como a lo
que sucedía con el proceso que administraban. Cambiar un plan de vuelo en la computadora
de gestión de vuelo es otra. Para identificar qué tareas estaban tratando de realizar las
personas en cualquier coyuntura, hágase las siguientes preguntas:
• ¿Qué sucedía en el proceso gestionado? A partir de su registro de parámetros del paso tres,
puede ver cómo se configuraron los sistemas o se realizaron las entradas. Estos cambios
obviamente se conectan con la tarea que la gente estaba realizando.
• ¿Qué estaban haciendo otras personas en el entorno operativo? Las personas que trabajan
juntas en objetivos comunes a menudo dividen las tareas necesarias entre ellos de
manera predecible o complementaria. Puede haber divisiones de roles estándar, por
ejemplo, entre piloto que vuela y piloto que no vuela, que especifican las tareas para cada
uno. Lo que estaba haciendo un piloto puede dar algunas pistas sobre lo que estaba
haciendo el otro piloto.
Si encuentra que las imágenes hablan más claramente que el texto, cree una representación gráfica
de las principales tareas a lo largo del tiempo y, si es necesario, de quién estaba realizando qué. Esta
imagen también puede darle una buena impresión inmediata del tipo de carga de trabajo asociada
con la secuencia de eventos. Consulte la figura 8.5 para ver un ejemplo.
GUÍA DE CAMPO LXXVI ERROR HUMANO
icaayoyo SSpagpagmimimimidd””
pagpagmiminortenortemimidd??””
Valores de
Proceso
Parámetros
t1 t2 t3 t4 t5 Tiempo
Tareas de
varios
gente
Sidney Dekker
Figura 8.5: Presentar las diversas tareas (superpuestas) que las personas estaban realizando durante la
secuencia de eventos
Puede colocar las tareas debajo de la imagen que surgió de los tres pasos anteriores.
Esta combinación indica en qué estaba ocupada la gente durante las coyunturas y los
cambios en los parámetros del proceso. Y una vez que tenga una idea de en qué estaba
ocupada la gente, puede comenzar a discernir lo que probablemente miraron, qué
parámetros les habrían parecido interesantes y cuáles habrían sido irrelevantes o
secundarios. También puede comenzar a tener una idea de cómo se interpretó la
evidencia sobre una situación en desarrollo en relación con la tarea que las personas
estaban realizando.
Puede ser más difícil identificar los objetivos más grandes que perseguían las personas. En la
aviación, espera que un objetivo tan primordial sea la "seguridad de vuelo". Pero, ¿cómo se traducen
estos objetivos en evaluaciones y acciones concretas? A veces, las decisiones y acciones locales
parecen contrarias a estos objetivos.
Por ejemplo, un piloto puede hacer todo lo posible para mantenerse visual con un aeropuerto donde acaba
de perder una aproximación. Esto puede ocasionar todo tipo de problemas, por ejemplo, acercarse al
terreno, ser forzado a descender por el desplazamiento de los techos de las nubes, entrar en conflicto con
otras aeronaves, perder la orientación, etc. Entonces, ¿por qué alguien lo haría? En el contexto en el que
operaba el piloto, en realidad puede ser una acción que se acerque más al objetivo de seguridad de vuelo.
¿En qué tipo de país estaba el aeropuerto? ¿Qué tan confiables eran las ayudas a la navegación a su
alrededor? ¿Qué tan buenos o comprensibles fueron los controladores? ¿Cuánto otro tráfico había alrededor?
Prefacio LXXVII
¿Qué tan familiarizado estaba el piloto con el área? ¿Había turbulencia severa en las nubes? Dado este
contexto, el objetivo de la seguridad de vuelo adquiere un significado diferente. Lograr la seguridad
de vuelo se traduce en diferentes evaluaciones y acciones en diferentes circunstancias, que al
principio pueden parecer contrarias a la intuición o al procedimiento.
Por lo tanto, comprender los objetivos que perseguían las personas y cómo se reflejaron en
evaluaciones y acciones concretas es otra forma de resituar el comportamiento en la situación
que lo rodeaba: el objetivo general de reconstruir la mentalidad en desarrollo. Las tareas y los
objetivos tiran hilos a través de múltiples coyunturas; conectan coyunturas de manera
significativa, coherente y razonable entre sí. Esta continuación significa que lo que la gente hizo
en cualquier momento, o en cualquier coyuntura, estuvo determinado no solo por lo que
vieron o pensaron en ese momento, sino también por:
Recuerde que el objetivo de reconstruir la mentalidad en desarrollo es descubrir por qué las
acciones y evaluaciones tenían sentido para las personas en ese momento. Si tiene suerte, este
es un problema parcialmente resuelto por ahora. Alrededor de cada una de las coyunturas en
la secuencia de eventos, ha reconstruido cómo fue el proceso. Ha estado haciendo lo que se
muestra en la figura 8.6: cubriendo el túnel con pedazos que encontró entre los escombros;
reconstruyendo el mundo tal como lo veían las personas en el interior. Has recuperado las
tareas que la gente estaba realizando; los objetivos que tenían. Todo esto puede haberlo
llevado a una mejor comprensión de por qué la gente hizo lo que hizo.
LXXVIII GUIA DE CAMPO DEL ERROR HUMANO
"MI "A
"ALLTT ”W
"MIXXpagpagmimidd ”L
”Lmimit'ts'sgramo
”Whhaatt "I"Iddoonorte
pagpagmiminortenortemimidd??””
SSpagpagmimimimidd””
Sidney Dekker
Figura 8.6: Tratando de reconstruir el túnel, la forma en que se veía por dentro: reconstruir la situación que
rodeaba las evaluaciones y acciones de las personas y otros cambios en el proceso.
Sin embargo, en muchos sentidos, estos pasos son solo eso: pasos en el camino hacia la reconstrucción de la
mentalidad en desarrollo. Es posible que aún quede con grandes lagunas en la explicación del
comportamiento. Una de las principales razones es que, hasta ahora, estos pasos vuelven a conectar el
comportamiento observado solo con factores directamente obvios y más fácilmente disponibles: los
parámetros que estaban físicamente disponibles en el entorno operativo de las personas que está
investigando.
Por supuesto, el comportamiento humano está determinado por muchos más factores que los
parámetros del proceso. Por regla general, sin embargo, otras influencias son menos visibles y más difíciles
de recuperar de los escombros. Tome las presiones organizacionales para elegir el cronograma sobre la
seguridad, por ejemplo. Tales presiones existen y ejercen una poderosa influencia en las muchas pequeñas
compensaciones locales que hace la gente. Sin embargo, especialmente después del fracaso, estos factores
se racionalizan fácilmente como irrelevantes o insignificantes. Como en: los verdaderos profesionales no
deberían ser susceptibles a ese tipo de presiones.
Tales reacciones, sin embargo, revelan una profunda deficiencia en la comprensión del
error humano. El siguiente capítulo se trata de reconstruir cómo la situación parecía más
alejada de las evaluaciones y acciones próximas de las personas. Se trata de encontrar las
conexiones menos obvias entre el comportamiento de las personas y las características de las
circunstancias en las que tuvo lugar.
Prefacio LXXIX
MIRA EN LA HISTORIA
Ensayos generales
En enero de 1992, un avión altamente automatizado se estrelló contra una montaña cerca del aeropuerto de
Estrasburgo, en el este de Francia. La confusión entre dos modos de automatización que podían gestionar el
descenso de la aeronave resultó ser central en el accidente. Los pilotos pretendían realizar una aproximación
automática con un ángulo de trayectoria de vuelo de 3,3 grados hacia la pista. Sin embargo, debido a una
conexión interna entre los modos de automatización horizontal y vertical en los sistemas informáticos de la
aeronave, la aeronave no estaba en el modo de ángulo de trayectoria de vuelo, sino que había pasado al
modo de velocidad vertical. Los pilotos tienen que usar la misma perilla en cualquier modo, por lo que marcar
3.3 resultó en una velocidad de descenso de 3300 pies por minuto, mucho más pronunciada que 3.3 grados.
Durante los años anteriores a este accidente, varias aerolíneas habían tenido secuencias de eventos similares:
los pilotos volaban en el modo Velocidad de descenso en lugar del modo Ángulo de trayectoria de vuelo. En estos
casos, se podrían realizar ida y vuelta. Una aerolínea incluso había desarrollado algunos ad-hoc específicos
GUÍA DE CAMPO DE ERRORES HUMANOS LXXX
entrenamiento preventivo para evitar este tipo de eventos, aunque comentó que los pilotos de
esta flota eran reacios a admitir que podría haber una deficiencia ergonómica en esta cabina.
Los ensayos generales le dicen que busque más contribuyentes sistémicos al comportamiento
en cuestión. ¿Cuáles son los puntos en común? ¿Cuál es la trampa en la que todo el mundo
parece caer? El contraste entre el ensayo general y el percance real también muestra lo que se
necesita para llevar un sistema al límite y lo que evitó un colapso completo antes.
Prueba de vestido:
"MI
"MIXXpagpagmimid ”L
"ALABAMA
"ALABAMATT
”W ”L”Looook
”Lmimit'ts'sddoo VVmimirtritCic ”Whhaat?t?”” k!”!”
HHLLDD””
délimite CCliyometro
soybb”” S
aayol Spagpagmimimimidd””
percance real:
"MI "A
"ALLTT ”W "Ino
"Iddno
"MIXXpagpagmimid ”L HHLLDD”” ”Whhaatt
délimite CCliyometro
soybb””
”Lmimit'ts'sgramogramooo VVmimirt
ritCicaayoyoSSpagpagmimimimidd””
h k
haapagpagpagpagmiminortenortemimidd??””knortenorteooww””
Sidney Dekker
Figura 9.1:Los ensayos generales para el percance real pueden ayudar a revelar condiciones más fundamentales que
contribuyen a este tipo de falla.
El accidente de Estrasburgo ocurrió de noche, en la nieve. Es probable que los ensayos generales se llevaran
a cabo en mejores condiciones, donde los pilotos tenían contacto visual con el suelo. Además, la aerolínea
que iba a Estrasburgo había optado por no instalar sistemas de advertencia de proximidad al suelo en su
avión debido a la alta tasa de falsas alarmas en los sistemas en ese momento y al hecho de que volaba
muchas misiones cortas en terreno montañoso, lo que exacerbaba la falsa alarma. problema. Un ensayo
general se salvó del desastre gracias a una advertencia de proximidad al suelo.
Que los ensayos generales puedan ocurrir localmente sin inversiones posteriores en
contramedidas serias también le da una pista sobre la percepción de riesgo y peligro de una
industria, y revela vulnerabilidades en su forma de compartir información crítica de seguridad
con otros operadores.
Casos de contraste
Prefacio LXXXI
Otros percances, ya sea en la misma organización o industria o no, pueden funcionar como casos de
contraste. Estas son situaciones que son en gran medida similares, pero donde las personas se
comportaron de manera ligeramente diferente, tomando otras evaluaciones o decisiones. Esta
diferencia es una pista poderosa de las razones del comportamiento incrustado en su situación.
El control de tráfico aéreo solicitó urgentemente a un avión comercial que utilizara una calle de rodaje de
salida rápida de la pista en la que acababa de aterrizar, debido al tráfico muy apretado detrás de él. El avión
no pudo hacer el giro final y momentáneamente se deslizó por completo fuera de la superficie dura. Volvió a
entrar en otra calle de rodaje y rodó hasta la puerta por sus propios medios. Aunque no existían
procedimientos en ese momento para decirles lo contrario, la aerolínea se preguntó por qué los pilotos
continuaron rodando, ya que la aeronave pudo haber sufrido daños desconocidos en las ruedas, las líneas de
freno, etc. (aunque resultó estar intacto).
No mucho antes, la aerolínea había tenido otro incidente en el que un avión similar había salido de la
superficie dura. Esto, sin embargo, ocurrió en un pequeño aeropuerto provincial, tarde en la noche, después
del último vuelo del día de la aeronave y los pilotos. El suyo era el único avión en el aeropuerto. Los pilotos
optaron por no rodar solos hasta la puerta de embarque, sino que desembarcaron a los pasajeros allí mismo
y remolcaron la aeronave. La torre de control estuvo involucrada en toda la operación.
Esto contrastó marcadamente con el otro caso, que ocurrió en el principal centro de operaciones de la
aerolínea. Muchos pasajeros tenían vuelos de conexión, al igual que los pilotos y sus aviones. Llovía mucho y
el viento soplaba con fuerza, lo que hacía que el desembarco en el campo fuera extremadamente indeseable.
Las personas en la torre de control parecían no haber notado el evento. Además, durante el tiempo que
habría llevado llevar los autobuses y una grúa al campo, la aeronave habría bloqueado una calle de rodaje
importante, casi obstruyendo los movimientos de las aeronaves que aterrizaban detrás de ella cada dos
minutos.
MIRA EN LA ORGANIZACIÓN
• La división de responsabilidades
• Cultura organizacional
• Mantenimiento
• Supervisión
• Reglas y procedimientos
• Comunicación del personal y/o departamental
LXXXII GUIA DE CAMPO DE ERRORES HUMANOS
• Contratistas
• Planificación
• Moral
• Hora del día y programación
• Presiones comerciales y de operación
• Formación y selección
• Falta de personal
Recursos y limitaciones
La capacidad de las personas en el extremo afilado para evaluar y decidir como mejor les parezca
dadas las circunstancias, en realidad está influenciada y restringida por los recursos y las presiones
que provienen del contexto organizacional en el que trabajan. En otras palabras, el extremo romo
tiene una influencia significativa en la capacidad de las personas para desempeñarse bien en el
extremo afilado:
Una mujer fue hospitalizada con complicaciones graves de una infección abdominal. Unos días antes,
había visto a un médico quejándose de dolores, pero la enviaron a casa con el mensaje de que
regresara en ocho días para hacerse una ecografía si el problema persistía. Mientras tanto, su
apéndice estalló, causando una infección y requiriendo una cirugía mayor. El médico de la mujer
había estado bajo la presión de su organización de atención administrada, con incentivos y
desincentivos financieros, para controlar los costos de la atención y evitar gastos innecesarios.
procedimientos.2El problema es que un médico puede no saber que un procedimiento es innecesario
antes de realizarlo, o al menos realizar una parte de él. La evidencia preoperatoria puede ser
demasiado ambigua. Los médicos terminan en un doble vínculo difícil, creado por las diversas
presiones organizacionales.
Conflictos de goles
Aunque la "seguridad" casi siempre se menciona como el objetivo primordial de una organización,
nunca es el único objetivo (y en la práctica ni siquiera es un objetivo primordial medible), o la
organización no tendría ninguna razón para existir. Las personas que trabajan en estos sistemas
1
Ver para una discusión más detallada: Reason, JT (1997).Gestión de los riesgos de accidentes
organizacionales. Aldershot, Reino Unido: Ashgate.
2
International Herald Tribune, 13 de junio de 2000.
Prefacio LXXXIII
tienen que perseguir múltiples objetivos al mismo tiempo, lo que a menudo resulta en conflictos de
objetivos. El equilibrio entre la seguridad y el horario se menciona a menudo como un buen ejemplo.
Pero los conflictos de objetivos también pueden surgir de la naturaleza del trabajo en sí:
El transbordador espacial Challenger se rompió y explotó poco después del despegue en 1986 porque los
gases calientes pasaron por alto las juntas tóricas de los cohetes impulsores. La falla a menudo se ha
atribuido a la decisión de que los cohetes impulsores deberían estar segmentados (lo que creó la necesidad
de anillos tóricos) en lugar de "tubos" sin costura. Los cohetes segmentados eran más baratos de producir,
un incentivo importante para una operación cada vez más escasa de efectivo.
La aparente compensación entre costo y seguridad oculta una realidad más compleja en la que un tipo
de seguridad tuvo que ser compensado por otro, sobre la base de evidencia incierta y tecnología no probada.
El diseño sin costuras, por ejemplo, probablemente no podría resistir los momentos de flexión previstos antes
del lanzamiento, o el impacto repetido del agua (que es donde terminarían los propulsores de cohetes
después de ser arrojados desde un transbordador ascendente). Además, los cohetes tendrían que ser
transportados (probablemente por tierra) desde el fabricante hasta el sitio de lanzamiento: los segmentos
individuales presentaban un riesgo significativamente menor en el camino que un cohete monolítico.
estructura llena de combustible para cohetes.2
Defensas violadas
1
Véase: Woods, DD, Johanssen, LJ, Cook, RI y Sarter, NB (1994). Detrás del error
humano: sistemas cognitivos, computadoras y retrospectiva. Dayton, OH: CSERIAC,
página 63.
2
Vaughan, D. (1996).La decisión de lanzamiento del Challenger.Chicago, IL: Prensa de la
Universidad de Chicago.
LXXXIV GUÍA DE CAMPO DEL ERROR HUMANO
Una forma cada vez más popular de pensar en los caminos hacia el fracaso es en forma de
ruptura o elusión de las defensas. Como se explicó en el capítulo 3, las organizaciones críticas
para la seguridad invierten mucho en múltiples capas de defensa contra trayectorias de falla
conocidas o posibles. Si ocurren fallas, entonces algo tiene que estar mal con estas capas de
defensa.
La historia de la fuga de grandes cantidades de isocianato de metilo (MIC) de la planta de pesticidas de Union
Carbide en Bhopal, India, en 1984 es una de las muchas defensas pasadas por alto, rotas, violadas o
inexistentes. Por ejemplo, la instrumentación en la sala de control de procesos era inadecuada: entre otras
cosas, su diseño no había tenido en cuenta las condiciones extremas: medidores fijos (saturados) a valores
muy por debajo de lo que realmente sucedía dentro del tanque MIC. Las defensas que podrían haber
detenido o mitigado la evolución posterior de los eventos se vieron comprometidas o simplemente no
estaban allí. Por ejemplo, ninguno de los operadores de la planta había recibido alguna capacitación sobre
procedimientos de emergencia. El sistema de refrigeración del tanque se había apagado y ahora no tenía
refrigerante líquido; el depurador de gases de ventilación se diseñó para neutralizar los gases MIC que se
escapan en cantidades 200 menos y a temperaturas más bajas que las que realmente se escapan; la torre de
antorcha (que quemaría el gas que se escapaba y estaba intacta) había sido desconectada de los tanques MIC
porque los trabajadores de mantenimiento habían retirado una tubería corroída y nunca la reemplazaron.
Finalmente, una cortina de agua para contener la nube de gas podría alcanzar solo 40 pies de altura en el
aire, mientras que el MIC se elevaba desde un agujero a más de 100 pies de altura.
Investigar qué capas de defensa se violaron o se eludieron revela más que solo las
razones de una falla en particular. La existencia de defensas (o los agujeros que
encuentre en ellas) aporta información valiosa sobre las creencias actuales de la
organización y la naturaleza de su comprensión de las vulnerabilidades que
amenazan la seguridad. Esto puede abrir oportunidades para contramedidas más
fundamentales (ver capítulo 11).
Contribuciones de los reguladores
La mayoría de las industrias críticas para la seguridad están reguladas de alguna manera. Con
los datos específicos de un accidente en la mano, siempre es fácil encontrar lagunas en las que
el regulador "falló" en su función de supervisión. Este no es un hallazgo muy significativo, sin
embargo. Identificar los descuidos regulatorios en retrospectiva no explica las razones de esas,
lo que ahora parecen, omisiones obvias. La carga de trabajo local, la necesidad de mantenerse
al día con las tecnologías y prácticas de trabajo en constante cambio y el hecho de que la
limitada experiencia técnica de muchos inspectores difícilmente puede prever los tipos de
secuencias complejas e interactivas que producen accidentes reales, todo conspira contra la
capacidad de un regulador para ejercer su papel. Si siente que debe dirigirse al regulador en su
investigación, no busque dónde se equivocó. Al igual que con la investigación de las
evaluaciones y acciones de los operadores, descubra cómo las compensaciones, percepciones
y juicios del regulador tenían sentido local en ese momento; por qué lo que estaban haciendo o
viendo era lo correcto dados sus objetivos, recursos y
Prefacio LXXXV
comprensión de la situación.
Otra queja que a menudo se presenta contra los reguladores es que se confabulan con
aquellos a quienes se supone que deben regular, pero esto es en gran medida una pista falsa
(y, curiosamente, casi todos no están de acuerdo con los regulados. Independientemente de
las afirmaciones de colusión, a menudo ven a los reguladores como atrasado, intrusivo y
amenazante). Para obtener la información que necesitan, los reguladores dependen en gran
medida de las organizaciones que regulan y probablemente incluso de las relaciones
personales con las personas de esas organizaciones. La elección, en realidad, es entre crear
una atmósfera de confrontación en la que será difícil acceder a las fuentes requeridas de
información relacionada con la seguridad, o una en la que se considere que una inversión
conjunta en seguridad es lo mejor para todos.
MIRA LA TECNOLOGÍA
El trabajo humano en dominios críticos para la seguridad casi sin excepción ha sido trabajo con
tecnología. Hoy en día, es cada vez más el trabajo con las computadoras. Esto significa que la
interacción humano-computadora es una fuente de error cada vez más dominante. La
tecnología informática ha dado forma e influido en la forma en que las personas cometen
errores. También ha afectado las oportunidades de las personas para detectar o recuperarse
de los errores que cometen y, por lo tanto, en algunos casos, aceleró sus viajes hacia el
colapso.
Como es el caso con las fuentes organizacionales de error, los errores humanos-computadores no son
aleatorios. También están sistemáticamente conectados a las características de las herramientas que
personas con las que trabajan y las tareas que tienen que realizar. Aquí hay una guía1, primero a algunos de
los "errores" que normalmente puede encontrar entre los escombros del percance del error humano. Luego,
una lista de las características de la computadora a partir de las cuales se originan estos errores, y luego una
lista de algunas de las consecuencias cognitivas de la computarización que se encuentran detrás de la
creación de esos errores. Este capítulo concluye con algunas observaciones sobre la conexión entre las
presiones organizacionales y las nuevas tecnologías.
Errores típicos
Si las personas estaban interactuando con computadoras en los eventos que llevaron al
percance, busque la posibilidad de los siguientes "errores":
1
Gran parte del material de esta sección proviene de Woods, DD, Johanssen, LJ, Cook, RI y
Sarter, NB (1994).Detrás del error humano: sistemas cognitivos, computadoras y retrospectiva
. Dayton, OH: CSERIAC y Dekker, SWA y Hollnagel, E. (Eds.) (1999).Hacer frente a las
computadoras en la cabina. Aldershot, Reino Unido: Ashgate.
GUÍA DE CAMPO DE ERRORES HUMANOS LXXXVI
lo correcto había sido en ese modo, sin embargo, la computadora estaba en realidad en otro
modo;
• Perderseen arquitecturas de visualización. Las computadoras a menudo tienen solo una o unas pocas
pantallas, pero una cantidad potencialmente ilimitada de cosas que puede ver en ellas. Por lo tanto,
puede ser difícil encontrar la página o el conjunto de datos correctos;
• No coordinar las entradas de la computadora. Cuando las personas trabajan juntas en un
proceso (automatizado), tienen que invertir en un terreno común diciéndose unos a otros
lo que le dicen a la computadora y verificando el trabajo de los demás. Bajo la presión de
las circunstancias o la constante repetición sin sentido, tal coordinación puede no ocurrir
de manera consistente.
• Sobrecarga. Se supone que las computadoras descargan a las personas en su trabajo. Pero a
menudo la demanda de interactuar con las computadoras se concentra exactamente en
esos momentos en los que ya hay mucho que hacer; cuando otras tareas o personas
también compiten por la atención del operador. Puede encontrar que las personas
estaban muy ocupadas programando computadoras cuando otras cosas merecían
igualmente su atención;
• Sobrecarga de datos. Las personas se vieron obligadas a clasificar una gran cantidad de
datos producidos por sus computadoras y no pudieron localizar las piezas que habrían
revelado la verdadera naturaleza de su situación. Las computadoras también pueden
generar todo tipo de advertencias automáticas (visuales y auditivas) que saturan un
espacio de trabajo y proliferan las distracciones.
• No notar cambios. A pesar de las enormes oportunidades de visualización que ofrece la
computadora, muchas pantallas todavía se basan en valores digitales sin procesar (para
mostrar tasas, cantidades, modos, proporciones, rangos, etc.). Es muy difícil observar
cambios, tendencias, eventos o actividades en el proceso subyacente a través de un valor
digital haciendo clic hacia arriba o hacia abajo. Tienes que mirarlo a menudo o
continuamente, e interpolar e inferir lo que está pasando;
• Sorpresas de automatizaciónson a menudo el resultado final: el sistema hizo algo que el usuario
no esperaba. Especialmente en escenarios de alto ritmo y alta carga de trabajo, donde los
modos cambian sin comandos directos del usuario y las actividades de la computadora son
difíciles de observar, las personas pueden sorprenderse por lo que hizo o no hizo la
automatización.
Características de la computadora
¿Cuáles son algunas de las características de la tecnología informática actual que contribuyen
sistemáticamente a los tipos de errores discutidos en la sección anterior?
• Las computadoras pueden hacer que las cosas sean "invisibles"; pueden ocultar cambios y
eventos interesantes, o anomalías del sistema. La presentación de valores digitales para
parámetros críticos del proceso contribuye a esta "invisibilidad". La práctica de mostrar
sólo el sistemaestado(en qué modo está?) en lugar decomportamiento(¿Qué está
haciendo realmente el sistema, hacia dónde va?) es otra razón. Las interfaces pueden
parecer simples, pero en realidad esconden mucha complejidad.
Prefacio LXXXVII
• Las computadoras, debido a que solo tienen una o unas pocas interfaces (esto se denomina el "problema
del ojo de la cerradura"), pueden obligar a las personas a explorar una serie de páginas de visualización
para buscar e integrar los datos que realmente se requieren para la tarea en paralelo. .
Muchas pantallas no son la respuesta a este problema, por supuesto, porque la navegación a
través de las pantallas se convierte en un problema. Más bien, cada página de la computadora
debe presentar ayudas para la navegación (¿Cómo llegué aquí? ¿Cómo regreso? ¿Cuál es la
página relacionada y cómo llego allí?). De lo contrario, las secuencias de entrada o recuperación
pueden parecer arbitrarias y la gente se perderá.
• Las computadoras pueden obligar a las personas a administrar la interfaz (¿Cómo llego a esa
página? ¿Cómo la ponemos en este modo?) en lugar de administrar el proceso crítico para la
seguridad (algo que se prometió que la computadora les ayudaría a hacer). Estas cargas de
administración de interfaz adicionales a menudo se combinan con períodos de gran carga de
trabajo;
• Las computadoras pueden cambiar de modo de forma autónoma o de otras maneras que no
son ordenadas por el usuario (estos cambios de modo pueden resultar, por ejemplo, de
una lógica preprogramada, entradas mucho más tempranas, entradas de otras personas
o partes del sistema, etc.).
• Las computadoras generalmente le piden a la gente de las formas más rudimentarias o
sintácticas que verifiquen sus entradas (¿Estás seguro de que quieres ir a X? Entonces
iremos a X) sin abordar el significado de su solicitud y si tiene sentido dada la situación. . Y
cuando las personas le dicen a las computadoras que continúen, puede ser difícil hacer
que se detengan. Todo esto limita la capacidad de las personas para detectar y
recuperarse de sus propios errores.
• Las computadoras son inteligentes, pero no tan inteligentes. Las computadoras y la automatización pueden hacer
mucho por las personas: pueden ejecutar de manera casi autónoma un proceso crítico para la seguridad.
Sin embargo, las computadoras generalmente saben poco sobre la situación cambiante que las
rodea. Las computadoras asumen un mundo mayormente estable donde pueden continuar con
sus rutinas preprogramadas incluso si son inapropiadas; ejecutan diligentemente comandos de
usuario que no tienen sentido dada la situación; pueden interrumpir otras actividades de las
personas sin saber que están molestando seriamente.
• Las computadoras aumentan la demanda de la memoria de las personas (¿Qué era este
modo? ¿Cómo llegamos a esa página?);
• Las computadoras le piden a la gente que agregue a su paquete de habilidades y
conocimientos para administrar sus procesos (Cómo programar, cómo monitorear, etc.).
La capacitación puede no estar a la altura de estos nuevos requisitos de habilidades y
conocimientos: gran parte del conocimiento adquirido en la capacitación formal puede
permanecer inerte (en la cabeza, no disponible en la práctica) cuando los operadores se
enfrentan a los tipos de situaciones complejas que requieren su aplicación;
LXXXVIII GUIA DE CAMPO DE ERRORES HUMANOS
• Las computadoras pueden complicar la evaluación de la situación (es posible que no muestren el
comportamiento del sistema y muchos valores digitales) y socavar la gestión de la atención de
las personas (cómo saber dónde mirar y cuándo);
• Mediante nuevas formas de representar datos, las computadoras pueden interrumpir los patrones de
escaneo robustos y eficientes tradicionales de las personas;
• A través de la visibilidad limitada de cambios y eventos, el desorden de alarmas e
indicaciones, tareas adicionales de administración de interfaz y nuevas cargas de
memoria, las computadoras aumentan el riesgo de que las personas se retrasen en
operaciones de alto ritmo;
• Las computadoras pueden aumentar la confiabilidad del sistema hasta el punto en que las fallas
mecánicas son raras (en comparación con las tecnologías más antiguas). Esto le da a la gente
poca oportunidad de practicar y mantener las habilidades para las que, después de todo,
todavía están en parte: gestión de anomalías del sistema;
• Las computadoras pueden socavar la formación de las personas de modelos mentales
precisos de cómo funciona el sistema y el proceso subyacente, porque trabajar el proceso
crítico de seguridad a través de computadoras solo los expone a una variedad superficial
y limitada de experiencias;
• Las computadoras pueden inducir a error a las personas haciéndoles creer que saben más sobre el
sistema de lo que realmente saben, precisamente porque casi nunca se les muestra la
funcionalidad completa (ya sea en la capacitación o en la práctica). Esto se llama el problema de
calibración del conocimiento;
• Las computadoras pueden obligar a las personas a idear estrategias ("trucos de
programación") que son necesarias para realizar la tarea. Estos trucos pueden funcionar
bien en circunstancias comunes, pero pueden introducir nuevas vulnerabilidades y
aperturas para fallas en el sistema en otros.
¿Las nuevas tecnologías y las presiones operativas están relacionadas entre sí? La
respuesta es sí. La introducción de nuevas tecnologías puede aumentar los requisitos
operativos y las expectativas que las organizaciones imponen a las personas. Las
organizaciones que invierten en nuevas tecnologías a menudo, sin saberlo, explotan los
avances al requerir que el personal operativo haga más, lo haga más rápido, lo haga de
manera más compleja, lo haga con menos recursos o lo haga en condiciones cada vez
menos favorables.
Larry Hirschorn habla de una ley de desarrollo de sistemas, que es que cada
sistema siempre opera a su capacidad. Las mejoras en forma de nueva tecnología
se estiran de alguna manera, empujando a los operadores al borde del sobre
operativo desde el cual se suponía que la innovación tecnológica los protegería.
En la operación Tormenta del Desierto, durante la Guerra del Golfo, gran parte del equipo empleado
estaba diseñado para aliviar la carga del operador, reducir la fatiga y simplificar las tareas.
Prefacio LXXXIX
involucrado en el combate. En cambio, estos avances se utilizaron para exigir más del operador. Casi
sin excepción, la tecnología no cumplió con el objetivo de liberar al personal militar que operaba el
equipo. Los sistemas de armas y de apoyo a menudo requerían experiencia, compromiso y resistencia
humanos excepcionales. La Guerra del Golfo muestra que existe una sinergia natural entre las
tácticas, la tecnología y los factores humanos: los líderes efectivos explotarán cada
nuevo avance hasta el límite.1
1
Cordesman, AH y Wagner, AR (1996). Las lecciones de la guerra moderna, vol. 4: La
guerra del Golfo. Boulder, Colorado: Westview Press.
GUÍA DE CAMPO DE ERRORES HUMANOS XC
Los datos sobre el desempeño de las personas y las razones detrás de él pueden
derivarse, por ejemplo, de:
En cambio, las deficiencias locales de los operadores individuales pueden utilizarse como
punto de partida para investigar más a fondo las condiciones sistémicas de las que sus
problemas son un síntoma. Aquí hay unos ejemplos:
• La memoria humana no funciona como una cinta de video que se puede rebobinar
y volver a reproducir;
• La memoria humana es una red de impresiones altamente compleja e
interconectada, para la cual rápidamente se vuelve imposible separar los
eventos reales y las señales que se observaron de las entradas posteriores;
• Una de las razones es que el cerebro humano tiene la propensión a ordenar y
estructurar eventos más de lo que eran en el mundo real; para hacer que los
eventos y las historias sean más plausibles.
Gary Klein ha dedicado muchos años a perfeccionar los métodos para informar a las
personas que se vieron atrapadas en incidentes críticos: bomberos, pilotos,
enfermeras, etc. Las ideas de estos métodos son valiosas para compartir con
investigadores de percances de errores humanos aquí1.
El objetivo de un debriefing
Las sesiones informativas de los participantes del percance tienen como objetivo principal ayudar a construir
1
Véase: Klein, G. (1998).Fuentes de poder: cómo las personas toman decisiones.
Cambridge, MA: MIT Press.
Prefacio XCIII
el túnel del capítulo 8; reconstruir la situación que rodeaba a las personas en ese
momento y obtener su punto de vista sobre esa situación. Algunas investigaciones
pueden tener acceso a una reproducción de cómo se veía el mundo (por ejemplo:
instrumentos de cabina, panel de control de procesos) durante la secuencia de
eventos, lo que puede parecer una herramienta maravillosa. Sin embargo, debe
usarse con precaución para evitar distorsiones de la memoria. Klein propone el
siguiente orden de información:
Aquí hay algunas preguntas que Gary Klein y sus investigadores suelen hacer para
averiguar cómo se ve la situación para las personas internas en cada una de las
coyunturas críticas:
Una cosa que casi nunca falta en las investigaciones de errores humanos son los
deseos de más datos registrados y las ideas y propuestas novedosas para capturar
más datos de rendimiento. Este es especialmente el caso cuando los participantes
del percance ya no están disponibles para el informe.
Los avances en el registro de lo que la gente hizo han sido enormes: ha
habido una sucesión de materiales y estrategias de registro, tecnologías de
transferencia de datos; todo hasta propuestas para montar permanentemente
cámaras de video en cabinas y otros lugares de trabajo críticos. En aviación, la
huella electrónica que deja un piloto profesional en cada vuelo es enorme a
través de los sistemas de monitoreo automatizados ahora
Prefacio XCV
Restricciones convencionales
contribuciones del hombre a la falla del sistema. Por ejemplo, los registradores de
datos de vuelo en muchos aviones automatizados no rastrean qué balizas de
navegación seleccionaron los pilotos, qué selecciones del panel de control del modo
de automatización sobre velocidad, rumbo, altitud y velocidad vertical se realizaron,
o qué se mostró en cualquiera de los pilotos. pantallas de mapa en movimiento.
Esto hace que sea difícil entender cómo y por qué se tomaron ciertas decisiones de
navegación lateral o vertical, algo que puede dificultar las investigaciones de
accidentes CFIT (Controlled Flight Into Terrain, una categoría importante de
percances de aeronaves).
Proponer recomendaciones de factores humanos puede ser una de las tareas más difíciles en una
investigación. A menudo, sólo los remedios más superficiales parecen estar al alcance de la mano.
Dígale a la gente que tenga un poco más de cuidado. Escriba otro procedimiento para reglamentar su
comportamiento. O simplemente deshacerse de los sinvergüenzas particulares por completo. Las
limitaciones de tales contramedidas son severas y profundas, y están bien documentadas:
• Las personas solo observarán con más cuidado durante un tiempo, a medida que desaparezca la
novedad y la advertencia del percance;
• Un nuevo procedimiento chocará en algún momento con las demandas operativas o
simplemente desaparecerá en masas de otros trámites regulatorios;
• Deshacerse de los sinvergüenzas no elimina el problema en el que se
metieron. Otros siempre parecen estar esperando para seguir sus pasos.
En última instancia, una investigación de errores humanos debe apuntar a cambios que
realmente eliminen el potencial de error de un sistema, algo que otorga una gran importancia
a las recomendaciones significativas.
Proponer recomendaciones significativas puede ser más fácil si piensa en ellas como
predicciones o como una especie de experimento. El error humano está sistemáticamente
relacionado con las características de las tareas y herramientas con las que trabajan las
personas y con las características del entorno en el que realizan su trabajo. Las
recomendaciones básicamente proponen cambiar algunas de estas características. Ya sea que
desee nuevos procedimientos, nuevas tecnologías, nueva capacitación, nuevos enclavamientos
de seguridad, nuevas reglamentaciones, más compromiso gerencial, sus recomendaciones
esencialmente proponen reequipar o remodelar partes del entorno operativo u organizacional
con la esperanza de alterar el comportamiento que continúa dentro de él.
En este sentido sus recomendaciones son una predicción, una hipótesis. Propones
modificar algo e implícitamente predices que tendrá un cierto efecto en el
comportamiento humano. La fuerza de su predicción, por supuesto, depende de la
credibilidad de la conexión que ha mostrado anteriormente en su investigación:
GUIA DE CAMPO DEL ERROR HUMANO XCVIII
entre los errores humanos observados y las características críticas de las tareas, las
herramientas y el entorno. Con esta predicción en la mano, desafía a los responsables de
implementar sus recomendaciones para que sigan su experimento, para ver si, con el
tiempo, los cambios propuestos realmente tienen el efecto deseado en el desempeño
humano.
Entonces, ¿qué pasa con esos cambios? ¿Qué tipos de cambios puede proponer que podrían
tener algún efecto en el desempeño humano? Una opción básica que tiene abierta es qué tan
arriba en la cadena causal desea que los cambios recomendados tengan un impacto.
Una de las reacciones típicas ante el fracaso es que la gente empieza muy abajo o río abajo. Las
recomendaciones se centran en quienes cometieron el error, o en otros operadores como ellos. Las
recomendaciones bajas en la cadena causal tienen como objetivo, por ejemplo, volver a capacitar a
las personas que demostraron ser deficientes, degradarlas o deshacerse de ellas de alguna otra
manera. Otras recomendaciones de gama baja pueden sugerir procedimientos más estrictos,
presumiblemente reglamentando o limitando el comportamiento de seres humanos erráticos y poco
confiables.
Alternativamente, las recomendaciones pueden apuntar alto, aguas arriba en la cadena
causal, a las decisiones estructurales con respecto a los recursos, las tecnologías y las
presiones que enfrentan las personas en el lugar de trabajo. Las recomendaciones de alto nivel
podrían, por ejemplo, sugerir reasignar recursos a departamentos o actividades operativas
particulares.
Esta elección, río arriba o río abajo, es más o menos suya como
investigador. Y esta elección influye directamente:
Alto
"Gama alta"
recomendaciones
recomendaciones
Bajo
Esfuerzo de implementación
Figura 11.1: El compromiso entre recomendaciones que serán más fáciles de implementar y
recomendaciones que realmente tendrán algún efecto duradero.
Una de las razones de la ilusión de que las recomendaciones de gama baja u otras recomendaciones
limitadas evitarán la recurrencia es la idea de que las secuencias de fallas siempre toman un camino
lineal: Tome cualquier paso en el camino fuera de la secuencia y la falla ya no ocurrirá (vea la figura
11.2). ).
En sistemas complejos y dinámicos, sin embargo, este casi nunca es el caso. El camino
hacia el fracaso rara vez es lineal, estrecho o simple. Los percances tienen patrones densos de
causas, con contribuciones de todos los rincones y partes del sistema, y generalmente
dependen de muchas interacciones sutiles. Poniendo una contramedida en su lugar
en algún lugar a lo largo de
C GUÍA DE CAMPO DE ERRORES HUMANOS
"MI
"MIXXpagpagmimid
délimite CCliyometro
soybb””
Sidney Dekker
Figura 11.2: Podemos creer que bloquear un camino conocido hacia la falla en algún lugar del camino evitará
todos los percances similares.
(lo que pensabas que era) una línea puede no ser suficiente. Al diseñar contramedidas,
es crucial comprender las vulnerabilidades a través de las cuales partes enteras de un
sistema (las herramientas, tareas, características operativas y organizacionales) pueden
contribuir a la falla del sistema bajo diferentes formas o condiciones (ver figura 11.3).
"MI "A
"ALLTT
"MIXXpagpagmimid ”W
”Whhaat?t?””
"MI
"MIhh...”.”
délimite CCliyometro HHLLDD””
soybb””
"MI
"MIXXpagpagmimidd
”L
élimite DDmimissCCmiminortenortet”t”
”Lmimit'ts'sgramogramooo VVmimi
rtritCicaayoyoSSpagpagmimimimidd””
Sidney Dekker
Figura 11.3: Sin comprender y abordar las vulnerabilidades más profundas y sutiles que conducen a los caminos
hacia el fracaso, dejamos abiertas las oportunidades para la recurrencia.
Cuanto más alto apunte en una cadena causal, más difícil será encontrar aceptación
para su recomendación. El cambio propuesto probablemente será sustancial,
estructural o general. Casi seguro que será más caro. Y puede preocupar a aquellos
que están tan alejados de los detalles operativos que fácilmente pueden afirmar
que no tienen ninguna responsabilidad en la causa de este evento o en ayudar a
prevenir el próximo. Aparte de decir que sería demasiado costoso, las
organizaciones son buenas para encontrar razones por las cuales las
recomendaciones estructurales no necesitan implementarse, por ejemplo:
Uno de esos casos fue el accidente de un avión DC-10 en el Monte Erebus en la Antártida. La causa
probable del Informe de Accidente de Aeronave fue la decisión del comandante de continuar el vuelo
a baja altura hacia una zona de poca definición de superficie y horizonte cuando la tripulación no
estaba segura de su posición. Los tipos de recomendaciones que se derivan de tal declaración de
causa probable no son difíciles de imaginar. Procedimientos más estrictos; exhorte a los capitanes a
tener más cuidado la próxima vez.
Una Comisión de Investigación posterior determinó que la causa principal fue el error de los
funcionarios de la línea aérea que programaron las computadoras de la aeronave, un error
directamente atribuible no tanto a las personas que lo cometieron, sino a los procedimientos
administrativos de la línea aérea que hicieron posible el error. Los tipos de recomendaciones que se
derivan de esta conclusión serían diferentes y apuntarían más al extremo superior. Revisar toda la
operación a la Antártida y la forma en que se prepara y gestiona. instituto doble
comprobación de la programación informática. Etcétera.1
El caso para incluir o enfatizar recomendaciones de alto nivel en una primera investigación es
sólido. En todo caso, es desalentador tener que investigar el mismo incidente o accidente
básico dos veces. Es más probable que los cambios estructurales tengan un efecto en la
operación en su conjunto, al eliminar o eliminar las trampas de error que
1
Véase: Vette, G. (1983).Impacto Erebus. Auckland, Nueva Zelanda: Hodder & Stoughton.
GUÍA DE CAMPO DE ERRORES HUMANOS DE CII
Recuerde del capítulo 4 que la investigación del juez Moshansky sobre el accidente de Air Ontario
generó 191 recomendaciones. La mayoría de estos eran de gama alta. Ellos se preocuparon por
ejemplo1:
Estas son solo algunas de las áreas donde se hicieron recomendaciones. Con una investigación
seria de errores humanos, muchos de estos tipos de condiciones probablemente puedan
descubrirse en cualquier sistema complejo. La capacidad de generar recomendaciones
estructurales que apunten alto en una cadena causal es un reflejo de la calidad y profundidad
de su comprensión del error humano.
1
Moshansky, vicepresidente (1992).Comisión de investigación sobre el accidente de Air Ontario en
Dryden, Ontario(Informe final, vol. 1-4). Ottawa, ON: Ministro de Abastecimiento y Servicios,
Canadá.
Prefacio CIII
el alivio de las restricciones que se imponen a las decisiones y compensaciones locales de los
operadores;
• Hacer explícitos los conflictos de metas y convertirlos en temas de discusión entre
los involucrados;
• Reinvertir en las defensas que resultaron frágiles, rotas o inexistentes;
• Hacer que el acceso regulatorio sea más significativo a través de un nuevo examen de la
naturaleza y profundidad de la relación entre el regulador y el operador.
Si es posible, puede ser fructífero desarrollar la lista anterior hablando con los propios
participantes. Estas son algunas de las preguntas que Gary Klein y sus investigadores
hacen a los participantes cuando buscan contramedidas contra la recurrencia del
percance:
Las respuestas a estas preguntas no solo pueden identificar contramedidas en las que quizás
aún no había pensado. También pueden servir como un control de la realidad. ¿Las
contramedidas que piensa proponer tendrán algún efecto sobre el tipo de situación que está
tratando de evitar? Preguntar a los propios participantes, quienes después de todo tienen un
conocimiento íntimo de la situación que está investigando, puede ser una buena idea.
GUÍA DE CAMPO DE ERRORES HUMANOS DE CIV
El objetivo de cualquier investigación es aprender del fracaso. Los percances, en este sentido,
son una ventana de oportunidad. Las consecuencias inmediatas de un percance suelen crear
una atmósfera en la que:
• Es posible que partes de una organización acepten el autoexamen más que antes;
• Las líneas tradicionales entre la gerencia y los operadores, entre los reguladores y los operadores,
pueden desdibujarse temporalmente en los esfuerzos conjuntos para averiguar qué salió mal y
por qué;
• Las personas y los sistemas en los que trabajan pueden estar abiertos al cambio, aunque sea por
poco tiempo;
• Es posible que haya recursos disponibles que de otro modo estarían dedicados únicamente a la
producción, algo que podría hacer que incluso las recomendaciones más difíciles para el cambio
sean realistas.
Por lo general, la seguridad pasa a primer plano solo en ciertos momentos: los momentos de
percances aterradores, sorprendentes y generalmente costosos. Pero no tiene por qué ser así.
Las señales sobre la seguridad (o la falta de ella) existen en una organización y operación en
cualquier momento y pueden identificarse. La clave mencionada con más frecuencia para esto
es una cultura de seguridad.
El problema difícil es decidir qué es una mala noticia. El Capítulo 4, que analiza la "complacencia"
como una etiqueta para el error humano, muestra que una operación u organización completa puede
cambiar su idea de lo que es normativo y, por lo tanto, cambiar lo que cuenta como malas noticias. El
desempeño a tiempo puede ser normativo, por ejemplo, incluso si significa que los operadores, sin
saberlo, toman prestado de la seguridad para lograrlo. En tales casos, la naturaleza apresurada de
una salida o llegada no es una mala noticia que valga la pena informar (o escuchar, para el caso). Es la
norma que todos intentan cumplir, ya que satisface otros objetivos importantes de la organización
(servicio al cliente, ganancias financieras) sin comprometer la seguridad de forma evidente.
Las auditorías externas son una forma de ayudar a una organización a romper con la
percepción de que su seguridad no está comprometida. En otras palabras, los observadores neutrales
pueden detectar mejor las "malas noticias" entre lo que son decisiones y acciones normales y
cotidianas para las personas internas.
La mayoría de las organizaciones tienen como objetivo aprender de las fallas, ya sea después de que hayan
ocurrido o antes de que ocurran. El camino para aprender del fracaso generalmente está pavimentado con
intenciones de adoptar la nueva visión del error humano; ver el error humano como un síntoma de un
problema sistémico más profundo. Pero muchos obstáculos se interponen en el camino, frustrando los
intentos de aprender, ya sea después de un fracaso grave o en el camino hacia uno. Aquí hay algunos signos
de personas que no aprenden: todas son formas en que las organizaciones intentan limitar la necesidad de
un cambio fundamental:
"Errar es humano"
Aunque es una postura indulgente, las organizaciones que sugieren que "errar es simplemente
humano" pueden normalizar el error hasta el punto en que ya no se interpreta como un signo de un
problema más profundo.
GUÍA DE CAMPO DE ERRORES HUMANOS CVI
"Hay un lugar donde los médicos pueden hablar con franqueza sobre sus errores. Se llama
Conferencia de Morbilidad y Mortalidad, o más simplemente, M. & M. Surgeons, en particular, toman
M. & M. en serio. Aquí pueden reunirse detrás puertas cerradas para revisar los errores, las
complicaciones y las muertes que ocurrieron durante su mandato, determinar la responsabilidad y
decidir qué hacer diferente la próxima vez".
Siendo un instrumento sofisticado para tratar de aprender de los fracasos, M. & M. supone que todos los
médicos pueden cometer errores, pero que ningún médico debería hacerlo; evitar errores es en gran medida una
cuestión de voluntad. Esto puede truncar la búsqueda de condiciones más profundas que produzcan errores. De
hecho, "el M&M no tiene en cuenta nada de esto. Por esa razón, muchos expertos lo ven como un enfoque bastante
deficiente para analizar el error y mejorar el desempeño en medicina. No es suficiente preguntar qué podría o qué
podría hacer un médico". debería haber hecho de manera diferente para que él y los demás puedan aprender para la
próxima vez. El médico a menudo es solo el actor final en una cadena de eventos que lo llevan al fracaso. Los expertos
en errores, por lo tanto, creen que es el proceso, no el
"Ejemplos de configuración"
Las organizaciones que creen que tienen que "dar ejemplo" castigando o reprendiendo a los
operadores individuales no están aprendiendo del fracaso. La ilusión está ahí, por supuesto: si
el error tiene repercusiones para los individuos, entonces otros también aprenderán a ser más
cuidadosos.
El problema es que en lugar de hacer que las personas eviten los errores, una
organización hará que las personas eviten informar los errores o informar las condiciones que
pueden producir tales errores.
En una organización, no es inusual que los nuevos operadores violen los procedimientos operativos como
una especie de "rito de iniciación" cuando se califican para trabajar en una nueva máquina. De este modo,
muestran a los operadores veteranos que pueden manejar la nueva máquina igual de bien. Sin duda, no
todos los nuevos operadores participan, pero muchos sí. De hecho, es difícil estar seguro de cuántos
participan. Sin embargo, ocasionalmente, las noticias de las violaciones llegan a la gerencia. Responden
castigando a los infractores individuales (típicamente degradándolos), y así "dar ejemplo".
El problema es que en lugar de mitigar la arriesgada práctica de iniciación, estas respuestas
organizacionales la afianzan. La presión sobre los nuevos operadores ahora no es solo para violar las reglas,
sino también para asegurarse de que no los atrapen haciéndolo, lo que hace que el rito de iniciación sea aún
más emocionante para todos. El mensaje para los operadores es: no se dejen atrapar violando las reglas. Y si
te atrapan, mereces que te castiguen, no porque hayas violado las reglas, sino porque fuiste lo
suficientemente tonto como para que te atraparan.
Se lanzó una propuesta para convertir a algunos operadores, que fueron atrapados violando las
reglas aún más de lo habitual, en maestros para nuevos operadores. Estos maestros podrían
1
Gawande, A. (1999). Cuando los médicos cometen errores.El neoyorquino, 1 de febrero,
páginas 40-55.
Prefacio CVII
contar desde su propia experiencia sobre las presiones y riesgos de la práctica y obtener la
calificación. Sin embargo, la gerencia rechazó la propuesta porque todos los operadores esperaban el
castigo de los perpetradores. Se pensaba que "promoverlos" a maestros enviaba un mensaje
completamente equivocado: mostraría que la gerencia toleraba la práctica.
compartimentación
Una forma de manejar la información que amenaza las creencias y suposiciones básicas
sobre la seguridad del sistema es compartimentarla; para contenerlo.
En la organización descrita anteriormente, el "rito de iniciación" tiene lugar cuando los nuevos operadores
califican para trabajar en una nueva máquina. Entonces, nominalmente, sucede bajo los auspicios del
departamento de capacitación. Cuando otros departamentos se enteran de la práctica, todo lo que hacen es
voltear la cabeza y declarar que es un "problema de capacitación". Un problema, en otras palabras, del que
no tienen parte y del que no tienen nada que aprender.
Es posible que podamos reconocer los signos de las organizaciones que no aprenden del fracaso.
Pero ¿por qué no lo hacen? Aparte de las razones ya mencionadas en el capítulo uno (restricciones de
recursos, reacciones al fracaso, sesgo retrospectivo, factores humanos limitados
GUÍA DE CAMPO DEL ERROR HUMANO CVIII
Lo que caracteriza a muchas organizaciones críticas para la seguridad es que los gerentes
senior a menudo eran operadores ellos mismos, o todavía lo son (a tiempo parcial). Por
ejemplo, en los hospitales, los médicos dirigen los departamentos, en las líneas aéreas, los
pilotos. Por un lado, esto proporciona una oportunidad. Los gerentes pueden identificarse con
los operadores en términos de las presiones y dilemas que existen en sus trabajos, lo que les
facilita el acceso a las fuentes subyacentes de error.
Pero también puede resultar contraproducente. El hecho de que los gerentes alguna vez fueron
ellos mismos operadores puede restarles credibilidad a la hora de proponer cambios fundamentales
que afectan a todos.
La organización de los ejemplos anteriores es una en la que la alta dirección está formada por
operadores o exoperadores. ¿Qué pasaría si la gerencia quisiera reducir los riesgos asociados con la
práctica de iniciación o eliminarla por completo? Ellos mismos alguna vez fueron nuevos operadores y
muy probablemente hicieron lo mismo cuando se calificaron. Es difícil para ellos lograr credibilidad en
cualquier propuesta para frenar la práctica.
Una cosa que crean los sistemas de notificación de incidentes es la ilusión de racionalidad
estadística. En todas las industrias, los casos de error humano se cuentan y tabulan,
categorizan y juntan. La suposición es que todo comportamiento humano "errático"
Prefacio CIX
es del mismo género o del mismo origen. La idea es que los errores humanos sean homogéneos. La
afirmación de que al menos el 70% de los percances se deben a errores humanos es particularmente estable
y consistente en todas las industrias. Da las malas noticias sobre la seguridad del sistema, tanto una fuente
concreta como un número. El "problema del error humano" persistentemente documentado patrocina la idea
falsa de que la amenaza de seguridad dominante en la actualidad es la falta de confiabilidad humana en
sistemas básicamente seguros.
La tabulación de errores puede haber funcionado alguna vez, cuando se establecieron estudios
de laboratorio estrictamente controlados para investigar el desempeño humano. En estos estudios de
laboratorio, las tareas humanas y las oportunidades de cometer errores se redujeron al mínimo, y los
errores singulares y medibles podían contarse como una unidad básica del desempeño humano. Este
tipo de experimentación dejó al científico con resultados espartanos pero cuantificables. Sin
embargo, cuando se trata del error humano "en la naturaleza", del error humano tal como ocurre en
entornos naturales complejos, tales tabulaciones y porcentajes oscurecen muchas cosas y
amortiguan el aprendizaje del fracaso:
• Ignoran el hecho de que las interacciones complejas entre las contribuciones humanas y
otras diversas suelen ser necesarias para hacer que un sistema se derrumbe hoy en día.
Este 70% de errores humanos no ocurren como deslices erráticos o meteduras de pata en
el vacío de un mundo perfectamente diseñado u organizado racionalmente. En los relatos
reales de fracaso, las acciones y valoraciones que llamamos "errores" se entremezclan
con averías de muchos otros tipos: mecánicas, organizativas. La mala noticia no radica en
el 70 % de los errores humanos, sino en las interacciones entre el comportamiento
humano y las características y vulnerabilidades de sus mundos operativos.
Litigio
Se está volviendo cada vez más normal, y muy preocupante para grandes segmentos de la
comunidad de seguridad, que los operadores involucrados en percances sean demandados o
acusados de delitos (penales).
El vuelo 592 de Valuejet se estrelló después de despegar del aeropuerto de Miami porque los generadores de
oxígeno en su bodega de carga se incendiaron. Los generadores habían sido cargados en el avión por
empleados de un contratista de mantenimiento, que posteriormente fueron procesados. El editor de Aviation
Week and Space Technology "creía firmemente que el hecho de que los empleados de SabreTech no taparan
los generadores de oxígeno constituía una negligencia deliberada que condujo a la muerte de 110
GUÍA DE CAMPO DE ERRORES HUMANOS DE CX
pasajeros y tripulación. Los fiscales hicieron bien en presentar cargos. Tiene que haber cierto temor de que no hacer el
"Esto es lo que realmente sucedió. Casi 600 personas registraron tiempo de trabajo contra los tres
aviones Valujet en el hangar de SabreTech en Miami; de ellos, 72 trabajadores registraron 910 horas a
lo largo de varias semanas contra el trabajo de reemplazar los generadores de oxígeno "caducados",
aquellos al final de sus vidas aprobadas. De acuerdo con la tarjeta de trabajo Valujet 0069
suministrada, el segundo paso del proceso de siete pasos fue: 'Si el generador no se ha gastado,
instale la tapa de transporte en el percutor.'
Esto requirió un grupo de mecánicos en apuros para establecer una distinción entre los
botes que estaban 'caducados', es decir, los que estaban retirando, y los botes que no estaban
'gastados', es decir, los mismos, cargados y listos para disparar, en los que no se esperaba que
pusieran tapones inexistentes. También intervinieron botes caducados y gastados, y otros no
gastados pero sí gastados. Y luego, por supuesto, estaba la cosa más simple: un juego de botes
nuevos de reemplazo, que eran ambos inexplicables.
pendientes y vigentes".2
Estas eran condiciones que existían mucho antes del accidente de Valuejet y que existen en muchos
lugares hoy. El miedo al enjuiciamiento sofoca el flujo de información sobre tales condiciones. Y la
información es el principal activo que hace que una cultura de seguridad funcione. De hecho, un flujo
de información anterior podría haber comunicado las malas noticias. Podría haber revelado estas
características de las tareas y herramientas de las personas; estas vulnerabilidades de larga data que
forman la materia de la que están hechos los accidentes. Habría mostrado cómo el error humano está
inextricablemente conectado con la forma en que se realiza el trabajo, con qué recursos y bajo qué
circunstancias y presiones.
1
Norte, DM (2000). Deje que el sistema judicial siga su curso en casos de accidentes.Semana de la Aviación y la
Tecnología Espacial, 15 de mayo, página 66.
2
Langwiesche, W. (1998).dentro del cielo. Nueva York: Random House, página 228.