Está en la página 1de 112

Traducido del inglés al español - www.onlinedoctranslator.

com
Prefacio

Se enfrenta a un incidente o accidente que tiene una importante contribución


humana. ¿A qué te dedicas? ¿Cómo le das sentido a las evaluaciones y acciones
controvertidas y desconcertantes de las personas? Básicamente, tiene dos
opciones, y su elección determina el enfoque, las preguntas, las respuestas y,
en última instancia, el éxito de su sondeo, así como el potencial de progreso en
materia de seguridad:

• Puede ver el error humano como la causa del problema;


• Puede ver el error humano como el síntoma de un problema más profundo.

La primera se llama la vieja visión del error humano, mientras que la segunda, que
ya lleva 25 años en desarrollo, es la nueva visión del error humano.

La vieja visión del error humano La nueva visión del error humano

El error humano es causa de accidentes El error humano es un síntoma de problemas


más profundo dentro de un sistema

Para explicar el fracaso, Para explicar el fracaso,


debes buscar el fracaso. no trate de encontrar
dónde la gente se equivocó.
Debe encontrar las personas:
evaluaciones inexactas, En su lugar, encuentre cómo las evaluaciones
decisiones equivocadas, y acciones de las personas tienen sentido.
malos juicios. en ese momento, dadas las circunstancias
que los rodeaba.

Tabla 0.1: Dos puntos de vista sobre el error humano

Esta guía de campo lo ayuda a reconstruir la contribución humana a la falla del


sistema de acuerdo con la nueva vista. En la Parte II, presenta un método sobre
cómo "ingeniería inversa" la mentalidad en evolución de las personas que se vieron
atrapadas en una situación compleja y en desarrollo. La Guía de campo también
quiere hacerle consciente de los sesgos y las dificultades para comprender
II GUÍA DE CAMPO DEL ERROR HUMANO

superar el comportamiento desconcertante, que es de lo que trata la Parte I.


PARTE I DE LA GUÍA DE CAMPO

Los primeros seis capítulos de The Field Guide hablan sobre la visión antigua
del error humano: los problemas que encierra, las trampas que representa y
las tentaciones que pueden hacerte caer en ellas. Estos capítulos le ayudarán a
entender:

• La teoría de la manzana podrida: por qué tirar algunas manzanas podridas no


elimina el problema subyacente del error humano;
• Reacciones al fracaso: por qué la naturaleza sorprendente del fracaso te hace volver
fácilmente a la teoría de la manzana podrida;
• Que no existe tal cosa como una causa raíz o primaria: los accidentes son el
resultado de múltiples factores, cada uno necesario y solo suficiente en
conjunto;
• Que las grandes etiquetas psicológicas pueden dar la ilusión de
comprender el error humano pero ocultan más de lo que explican;
• Por qué no se puede explicar el error humano entrando en el cerebro: hay
que comprender la situación en la que tuvo lugar la conducta;
• Por qué es necesario dejar los datos de factores humanos en el contexto del que
provienen: la selección selectiva y la microcoincidencia roban a los datos su
significado original.

PARTE II DE LA GUÍA DE CAMPO

Los últimos seis capítulos le muestran que el error humano no es


necesariamente algo resbaladizo o difícil de precisar. Le muestran cómo
aplicar "ingeniería inversa" concreta al error humano, al igual que
cualquier otro componente que debe volver a armarse en una
investigación de percance. Muestra cómo reconstruir conexiones
sistemáticas entre el comportamiento humano y las características de las
tareas y herramientas con las que trabajaban las personas, y del entorno
operativo y organizacional en el que realizaban su trabajo. La Guía de
campo lo alentará a construir una imagen de:

• cómo se desarrolló un proceso y otras circunstancias en torno a las personas;


• cómo evolucionaron las evaluaciones y acciones de las personas en paralelo con su
situación cambiante;
• cómo las características de las herramientas y tareas de las personas y el entorno
organizacional y operativo influyeron en sus evaluaciones y acciones.
Prefacio III

La premisa es que si realmente comprende la evolución de la situación en la que


tuvo lugar el comportamiento de las personas, comprenderá el comportamiento
que tuvo lugar dentro de ella. Esto es de lo que hablan los últimos seis capítulos:

• El error humano como síntoma de un problema más profundo: conectar el


comportamiento de las personas con las circunstancias que los rodean muestra las
fuentes del problema y explica el comportamiento;
• Un método para la reconstrucción de la mentalidad en desarrollo de las
personas: esta es la parte central en torno a la cual gira el resto de The
Field Guide;
• Dónde buscar en la evidencia pistas más profundas sobre el comportamiento
de las personas: verificar el historial operativo, el entorno organizacional y
las características de la tecnología con la que trabajaron;
• Cómo y dónde obtener datos de factores humanos: de fuentes históricas,
entrevistas e informes, y grabaciones de procesos;
• Escribir recomendaciones significativas sobre factores humanos;
• Aprender del fracaso como objetivo final de una investigación: los fracasos representan
oportunidades para el aprendizaje, oportunidades que pueden quedarse en el
camino por una variedad de razones.

La Guía de Campo nació a través de la participación en varias investigaciones


de incidentes y accidentes. Quiero agradecer a quienes me alertaron sobre la
necesidad de este libro y me inspiraron a escribirlo, en particular al
investigador de seguridad aérea Maurice Peters y al capitán Örjan Goteman.
Fue escrito con el apoyo de la Dirección de Seguridad de Vuelo de Suecia y Arne
Axelsson, su director.
Estoy en deuda con las siguientes personas por "la nueva visión" del
error humano: David Woods, Erik Hollnagel, Edwin Hutchins, James
Reason, John Flach, Gary Klein, Judith Orasanu, Diane Vaughan y Gene
Rochlin. Las ideas de The Field Guide están inspiradas en ellos y sus ideas,
aunque cualquier tergiversación o sesgo en este libro es, por supuesto, mi
responsabilidad.

Dakota del Sur

Linköping, Suecia
Verano 2000
IV GUÍA DE CAMPO DE ERRORES HUMANOS

1 La teoría de la manzana podrida

Hay básicamente dos formas de ver el error humano. La primera visión podría llamarse "la
teoría de la manzana podrida". Sostiene que:

• Los sistemas complejos estarían bien, si no fuera por el comportamiento errático de algunas personas poco
confiables (manzanas podridas) en él;
• Los errores humanos causan accidentes: los humanos son los principales contribuyentes en más de
dos tercios de los percances;
• El error humano, por cualquier otro nombre (por ejemplo: pérdida de conocimiento de la situación,
complacencia, negligencia), explica las fallas del sistema;
• Los errores humanos vienen como sorpresas desagradables. Son inesperados y no
pertenecen al sistema. Los errores se introducen en el sistema solo a través de la falta de
confiabilidad inherente de las personas.

Este capítulo trata sobre el primer punto de vista, y los cinco siguientes tratan sobre los problemas y la
confusión que se encuentran en su raíz.

Un debate a nivel nacional sobre la pena de muerte se está librando una vez más en los
Estados Unidos. Los estudios han encontrado un sistema tan plagado de vulnerabilidades y
errores que algunos estados están deteniendo los procedimientos por completo, mientras que
otros se esfuerzan por invertir más en contramedidas contra las ejecuciones de inocentes.

El debate es una ventana a las creencias de la gente sobre las fuentes del error. Dice
un protagonista: "El sistema de protección de los derechos de los acusados es bueno.
Son las personas que lo administran las que necesitan mejorar: Los jueces que cometen
errores y no permiten que se presenten pruebas. También necesitamos mejorar los
abogados defensores. ."1El sistema es básicamente seguro, pero contiene manzanas
podridas. Las contramedidas contra los errores judiciales comienzan con ellos. Deshazte
de ellos, vuélvelos a entrenar, disciplínalos.
Pero, ¿cuál es la práctica de emplear a los defensores públicos menos experimentados,
menos capacitados y menos pagados en muchos casos de pena de muerte que no sean
sistémicos? ¿Cuáles son las reglas para el permiso de los jueces de evidencia que no sea
sistémica? ¿Cuál es la naturaleza ambigua de la evidencia que no sea inherente a un sistema
que a menudo se basa en relatos de testigos oculares para hacer o deshacer un caso?

1 International Herald Tribune, 13 de junio de 2000.


Prefacio V

Cada debate sobre el error revela dos posibilidades. El error es el resultado de una manzana podrida, donde
los resultados desastrosos podrían haberse evitado si alguien hubiera prestado un poco más de atención o
hubiera hecho un poco más de esfuerzo. Desde este punto de vista, nos preguntamos cómo podemos hacer
frente a la falta de fiabilidad del elemento humano en nuestros sistemas.
O los errores son el subproducto inevitable de las personas que hacen lo mejor que pueden en
sistemas que en sí mismos contienen múltiples vulnerabilidades sutiles. Estos sistemas en sí mismos
son contradicciones inherentes entre la eficiencia operativa por un lado y la seguridad (por ejemplo:
proteger los derechos del acusado) por el otro. Desde este punto de vista, los errores son síntomas de
problemas más profundos dentro de un sistema.
Al igual que los debates sobre el error humano, las investigaciones sobre los errores humanos
se enfrentan a la elección. La elección entre la teoría de la manzana podrida en una de sus múltiples
versiones, o lo que se ha dado en llamar la nueva visión del error humano.

Aprendiendo del fracaso

El objetivo final de una investigación es aprender del fracaso. El camino hacia el aprendizaje, el
camino tomado por la mayoría de las investigaciones, está pavimentado con intenciones de seguir la
nueva visión. Los investigadores tienen la intención de encontrar las vulnerabilidades sistémicas
detrás de los errores individuales. Quieren abordar las condiciones que producen errores que, si se
dejan en su lugar, repetirán el mismo patrón básico de falla.
En la práctica, sin embargo, las investigaciones a menudo arrojan versiones disfrazadas de la
teoría de la manzana podrida, tanto en hallazgos como en recomendaciones. Clasifican los escombros
de un percance para:

• Encontrar evidencia de comportamiento errático, incorrecto o inapropiado;


• Sacar a la luz las malas decisiones de las personas, las evaluaciones inexactas, las desviaciones de la
guía escrita;
• Destacar a los profesionales que se desempeñan particularmente mal.

Las investigaciones a menudo terminan concluyendo cómo los operadores de primera línea no
notaron ciertos datos o no se adhirieron a los procedimientos que parecían relevantes después del
hecho. Recomiendan la degradación o el reentrenamiento de individuos particulares; el
endurecimiento de los procedimientos o la supervisión. Las razones para la regresión a la teoría de la
manzana podrida son muchas. Por ejemplo:

• Restricciones de recursos en las investigaciones. Es posible que sea necesario producir hallazgos en
unos pocos meses y el dinero es limitado;
• Reacciones al fracaso, lo que hace que sea difícil no juzgar el desempeño
aparentemente deficiente;
• El sesgo retrospectivo, que confunde nuestra realidad con la que rodeaba a las
personas que investigamos;
• Disgusto político por investigar más a fondo las fuentes de fallas, lo que puede limitar de
facto el acceso a ciertos datos o desalentar ciertos tipos de recomendaciones;
VI GUÍA DE CAMPO DE ERRORES HUMANOS

• Conocimiento limitado de factores humanos por parte de los investigadores. Si bien desean sondear las
fuentes más profundas detrás de los errores humanos, es posible que los investigadores no sepan
realmente dónde o cómo buscar.

De una forma u otra, The Field Guide intentará hacer frente a estas razones. Pero es sobre
todo la falta de orientación metódica para reconstruir la contribución humana al fracaso lo que
permite que las investigaciones recaigan en la teoría de la manzana podrida, un vacío que The
Field Guide pretende llenar.

PERSONAS NO CONFIABLES EN SISTEMAS BÁSICAMENTE SEGUROS

Este capítulo analiza la teoría de la manzana podrida del error humano. De esta manera ve el error humano
como una amenaza para los sistemas que son básicamente seguros. En esta visión del error humano, el
progreso en la seguridad está impulsado por una idea unificadora:

LOS SISTEMAS COMPLEJOS SON BÁSICAMENTE


SEGUROS

NECESITAN ESTAR PROTEGIDOS DE


PERSONAS NO CONFIABLES

Se presentarán cargos contra los pilotos que volaron un jet VIP con un mal
funcionamiento en su sistema de control de cabeceo (que hace que el avión suba o baje).
Las severas oscilaciones durante el descenso mataron a siete de sus pasajeros sin
correas en la parte trasera. Significativo en la secuencia de eventos fue que los pilotos
"ignoraron" la luz de alerta relevante en la cabina como una falsa alarma, y que no
habían encendido la señal de abrocharse el cinturón desde la parte superior del
descenso, como recomiendan los procedimientos del avión. Los descuidos del piloto
fueron captados en video, filmado por uno de los pasajeros que
murió no mucho después. Los pilotos, con cinturones de seguridad, sobrevivieron al revés.1

Para proteger los sistemas seguros de los caprichos del comportamiento humano, las recomendaciones
suelen proponer lo siguiente:

• Reforzar procedimientos y cerrar brechas regulatorias. Esto reduce el ancho de banda en el que
operan las personas, dejando menos espacio para el error;

1 VUELO Internacional, 6-12 de junio de 2000.


Prefacio VII

• Introducir más tecnología para monitorear o reemplazar el trabajo humano. Si las máquinas hacen el
trabajo, entonces los humanos ya no pueden cometer errores al hacerlo. Y si las máquinas monitorean
el trabajo humano, pueden eliminar cualquier comportamiento humano errático;
• Asegúrese de que los practicantes defectuosos (las manzanas podridas) no contribuyan al
colapso del sistema nuevamente. Póngalos en "licencia administrativa"; degradarlos a un
estado inferior; educarlos para que se comporten mejor la próxima vez; infundirles algo
de miedo a ellos y a sus compañeros llevándolos a juicio o reprendiéndolos.

En esta visión del error humano, las investigaciones pueden concluir con seguridad con la
etiqueta "error humano", cualquiera que sea el nombre (por ejemplo: ignorar una luz de
advertencia, violar un procedimiento). Tal conclusión y sus implicaciones supuestamente llegan
a las causas de la falla del sistema.

UNA ILUSIÓN DE PROGRESO EN SEGURIDAD

Las deficiencias de la teoría de la manzana podrida son graves y profundas. El progreso en seguridad basado
en este punto de vista es una ilusión.

Tirar las manzanas podridas

Por ejemplo, centrarse en las fallas individuales no elimina el problema subyacente.


Eliminar a los practicantes "defectuosos" no elimina el potencial de los errores que
cometieron.

Resultó que el jet VIP había estado volando durante mucho tiempo con un sistema
de sensación de cabeceo que funcionaba mal ("¿Oh, esa luz? Sí, ha estado
encendida durante cuatro meses"). Estos pilotos heredaron un problema sistémico
de la aerolínea que operaba el jet VIP y la organización encargada de su
mantenimiento.

Agregar más procedimientos

Agregar o hacer cumplir los procedimientos no garantiza el cumplimiento:

¿Indicar el cinturón de seguridad desde la parte superior del descenso en un jet VIP? La
disposición del mobiliario en estas máquinas y la forma en que se desplazan sus pasajeros
VIII GUÍA DE CAMPO DEL ERROR HUMANO

presionado para hacer un buen uso de su tiempo reuniéndose, planificando,


trabajando, discutiendo, hace todo lo posible para disuadir a las personas de
atar antes de lo estrictamente necesario. Los pilotos pueden hacer parpadear
la luz todo lo que quieran, puedes entender que con el tiempo puede volverse
inútil encenderla desde 41,000 pies hacia abajo.
¿Y quién suele emplear al piloto de un jet VIP? La persona de atrás. Así que
adivina quién puede decirle a quién qué hacer. ¿Y por qué tener la luz encendida
solo desde la parte superior de la bajada? Esto es hipócrita: solo en el caso del jet
VIP discutido aquí fue tan relevante porque se produjo una pérdida de control
durante el descenso. Pero otros incidentes con muertes en vuelo han ocurrido
durante el crucero. Los procedimientos son insensibles a este tipo de variabilidad
natural.

Los nuevos procedimientos también pueden quedar enterrados en una gran cantidad de papeleo
regulatorio. Los desajustes entre los procedimientos y la práctica crecen no necesariamente por la
falta consciente de adherencia de las personas, sino por la cantidad y las restricciones cada vez más
estrictas de los procedimientos.

El vicepresidente de una gran aerolínea comentó recientemente cómo había


visto jubilarse a varios de sus colegas senior en los últimos años. Casi todos le
habían dicho cómo se habían cansado de actualizar los manuales de operación
de sus aeronaves con nuevos procedimientos que surgían, uno tras otro, a
menudo sin otra razón que cerrar la siguiente brecha que había sido revelada
en el último pequeño incidente. Frente a una creciente pila de papel en sus
buzones, simplemente no se habían molestado. Sin embargo, todos estos
capitanes se retiraron vivos y probablemente volaron muy seguros durante sus
últimos años.

Agregando un poco más de tecnología

Más tecnología no elimina el potencial de error humano, sino que lo reubica o lo


cambia.

Una luz de advertencia no resuelve un problema de error humano, crea otros


nuevos. ¿Para qué es esta luz? ¿Cómo respondemos a ello? ¿Qué hacemos para
que desaparezca? Se iluminó ayer y no significó nada. ¿Por qué escucharlo hoy?
Prefacio IX

¿POR QUÉ ES POPULAR LA TEORÍA DE LA MANZANA MANZANA?

Barato y fácil

Entonces, ¿por qué alguien se adherirá a la teoría de la manzana podrida del error
humano? Hay muchas razones. Una es que es un enfoque relativamente sencillo para
tratar con la seguridad. Es simple de entender y simple y relativamente barato de
implementar.

salvando la cara

Después del fracaso, puede existir presión para salvar la imagen pública. Eliminar a los practicantes
defectuosos siempre es un buen comienzo para salvar las apariencias. Le dice a la gente que el
percance no es un problema sistémico, sino solo una falla local en una operación por lo demás sin
problemas.

Dos discos duros con información clasificada desaparecieron del laboratorio


nuclear de Los Álamos, solo para reaparecer en circunstancias sospechosas detrás
de una fotocopiadora unos meses después. Presionado para garantizar que la
instalación fuera segura y que tales lapsos fueran extremadamente poco comunes,
el Secretario de Energía atribuyó el incidente a un "error humano, un error". Los
discos duros probablemente se extraviaron por negligencia o falta de atención a los
procedimientos de seguridad, dijeron las autoridades. El subsecretario de Energía
agregó que "la gran mayoría está haciendo bien su trabajo en la instalación, pero
probablemente albergaba "algunas manzanas podridas" que habían comprometido
la seguridad por negligencia.1

La responsabilidad personal y la ilusión de omnipotencia

Otra razón para adherirse a la teoría de la manzana podrida del error humano es que los
profesionales en áreas críticas para la seguridad suelen asumir una gran responsabilidad personal
por los resultados de sus acciones. Los practicantes reciben capacitación y se les paga para asumir
esta responsabilidad, y están orgullosos de ello.

1 International Herald Tribune, 19 de junio de 2000.


X GUÍA DE CAMPO DE ERRORES HUMANOS

Pero el otro lado de asumir esta responsabilidad es la suposición de que uno tiene
la autoridad, el poder, para igualarlo; para estar a la altura. La suposición es que las
personas pueden simplemente elegir entre cometer errores y no volverse
independientes del mundo que los rodea. Esto, sin embargo, es una ilusión de
omnipotencia. Es comúnmente entretenido por niños en su preadolescencia, y por el
capitán de la aerolínea que dijo, "Si no lo hice, no sucedió".
Los investigadores suelen ser ellos mismos practicantes o han sido
practicantes, lo que facilita sobrestimar la libertad de elección otorgada a los
compañeros practicantes.

El piloto de un avión comercial aceptó una pista diferente con una aproximación
más directa al aeropuerto. La tripulación se apresuró e hizo un aterrizaje
desordenado que resultó en algunos daños menores a la aeronave. Cuando se les
preguntó por qué aceptaron la pista, la tripulación citó una hora de llegada tardía y
muchos pasajeros de conexión a bordo. La respuesta del investigador fue que, por
supuesto, los pilotos reales son inmunes a ese tipo de presiones.

La realidad es que las personas no son inmunes a esas presiones, y las organizaciones
que las emplean no querrían que lo fueran. Las personas no operan en un vacío, donde
pueden decidir y actuar todopoderosamente. En cambio, su trabajo está sujeto y limitado
por factores más o menos fuera de su control. La responsabilidad individual no siempre
se corresponde con la autoridad individual. La autoridad está restringida por otras
personas o partes del sistema, por otras presiones, por otras deficiencias.

En el caso del jet VIP, se encontró que no había una lista de verificación que les dijera a los
pilotos qué hacer en caso de una luz indicadora de sensación de cabeceo. El procedimiento
para evitar las oscilaciones habría sido reducir la velocidad aerodinámica a menos de los 260
nudos indicados. Pero el procedimiento no estaba en ningún manual. Él
no estaba disponible en la cabina. Y no es el tipo de cosa que se te ocurre sobre la
marcha.

¿QUÉ NO ESTÁ BIEN CON ESTA IMAGEN?


Prefacio XI

Algo no estaba bien con la imagen del jet VIP desde el principio. ¿Cómo,
realmente, podría alguien afirmar que los pilotos "ignoraron" una luz para la
cual no había ningún procedimiento disponible? No se puede "ignorar" algo si
no se sabe qué hacer con ello. Los factores del exterior restringieron
seriamente lo que los pilotos podrían haber hecho. Existían problemas con este
avión en particular. No se disponía de ningún procedimiento para hacer frente
a la luz de advertencia.

Cualquier imagen del error humano probablemente no sea correcta o no esté completa si contiene
una generosa dosis de negligencia o complacencia; una gran cantidad de personas no están
motivadas para esforzarse lo suficiente.

En 1995, Srebrenica, una ciudad musulmana en Bosnia, fue capturada por los
serbobosnios durante una de las guerras posteriores a Yugoslavia. La ciudad había
sido custodiada nominalmente por un contingente de unos pocos cientos de
pacificadores holandeses. Una vez caída la ciudad, el ejército serbobosnio masacró
impunemente a miles de musulmanes. A los medios de comunicación de la época
les gustaba retratar un estereotipo complaciente del ejército holandés de pelo
largo, barba y fumador de marihuana, como si esto explicara los acontecimientos
de Srebrenica.
La historia real detrás de este fracaso reveló deficiencias fundamentales
que impregnan toda la operación y organización de mantenimiento de la paz.
Los mandatos de las Naciones Unidas eran ambiguos y limitados, las líneas de
mando confusas por la distribución entre múltiples países y servicios, y los
suministros de material y mano de obra lamentablemente inadecuados,
dejando a los soldados sobre el terreno con las manos atadas a la espalda. Casi
una década después, el debate sobre los problemas y vulnerabilidades en el
mantenimiento de la paz todavía resuena en la sede de la ONU. Además, los
tiempos en Srebrenica habían sido difíciles. Las partes beligerantes no
mostraron voluntad de prestar atención a los tratados de la ONU: las fuerzas
de mantenimiento de la paz fueron bloqueadas, secuestradas, robadas y
asesinadas. Las luchas internas entre los señores de la guerra musulmanes
también habían desdibujado el tradicional "chico bueno-chico malo".

Cualquiera que sea la etiqueta que esté de moda (complacencia, negligencia, ignorancia), si una imagen de
error humano tiene sentido al depender de "manzanas podridas" que carecen de la motivación para
XII GUÍA DE CAMPO DE ERRORES HUMANOS

funciona mejor, es probable que se pierda la verdadera historia detrás del fracaso, o al menos gran parte de
ella.
Racionalidad local

El punto es que es muy probable que las personas en trabajos críticos para la seguridad
estén haciendo lo correcto dadas las circunstancias. Están haciendo cosas razonables
dado su punto de vista y foco de atención; su limitado conocimiento de la situación; sus
objetivos
Sí, quieren ser molestados. Quieren recoger e integrar los datos que son críticos.
Ellos quieren hacer las cosas de la manera correcta. Las personas en estos trabajos no se
esfuerzan por lastimar o matar a otras personas, o lastimarse o suicidarse.
Pero estas personas también están preocupadas por otros objetivos existentes en sus trabajos:
las presiones para producir; para no costar dinero innecesario a su organización; estar a tiempo; para
obtener resultados; para mantener contentos a los clientes. Su sensibilidad a estos factores y su
capacidad para hacer malabares con ellos en paralelo con las demandas de seguridad es una de las
razones por las que fueron elegidos para los trabajos y por qué se les permite conservarlos.

En la instalación de investigación nuclear de Los Álamos, la complacencia ya no era


una característica de algunas personas, si es que alguna vez lo había sido. Bajo la
presión de realizar el trabajo diario en un contexto muy engorroso de verificación,
doble verificación y registro del uso de materiales sensibles, la "complacencia" (si
todavía se puede llamar así) se había convertido en una característica de todo el
laboratorio. Los científicos movían rutinariamente material clasificado sin testigos ni
registros de firmas. Hacerlo no era una señal de malicia.
La práctica había crecido con el tiempo, cediendo a las presiones de producción a
las que el laboratorio debía su existencia.1

La suposición segura que se puede hacer es que las personas estaban haciendo cosas razonables
dadas las circunstancias. Estaban haciendo todo lo posible dadas las complejidades, los dilemas, las
compensaciones y la incertidumbre que los rodeaba. Comprender las características críticas de las
circunstancias en las que las personas trabajaron y trabajaron durante un tiempo lo ayudará a
comprender mucho mejor el comportamiento dentro de esas situaciones.

1 International Herald Tribune, 20 de junio de 2000.


Prefacio XIII

2. Reaccionar al fracaso

¿Alguna vez te has preguntado, "¿Cómo es posible que no se hayan dado cuenta?", o "¿Cómo es
posible que no se hayan dado cuenta?"? Entonces estabas reaccionando al fracaso.

PARA ENTENDER EL FRACASO, PRIMERO DEBEMOS


ENTENDER NUESTRAS REACCIONES ANTE EL FRACASO

Todos reaccionamos al fracaso. De hecho, nuestras reacciones ante el fracaso a menudo nos hacen ver el
error humano como la causa de un percance; promueven la teoría de la manzana podrida. El fracaso, o las
personas que hacen cosas con el potencial de fracasar, generalmente no es algo que esperamos ver. Nos
sorprende; no se ajusta a nuestras suposiciones sobre el sistema que usamos o la organización en la que
trabajamos. Va en contra de nuestras creencias y puntos de vista. Como resultado, tratamos de reducir esa
sorpresa: reaccionamos como un fracaso. Las reacciones comparten las siguientes características:

• Retrospectiva. Las reacciones surgen de nuestra capacidad de mirar hacia atrás en una secuencia de
eventos, de los cuales conocemos el resultado;
• Proximales. Se enfocan en aquellas personas que estuvieron más cerca en tiempo y espacio
de causar o potencialmente prevenir el percance;
• Contrafactual. Exponen en detalle lo que estas personas podrían haber hecho para
evitar el percance;
• Juicio. Dicen lo que la gente debería haber hecho, o dejado de hacer, para
evitar el percance.

Las reacciones al fracaso interfieren con nuestra comprensión del fracaso. Sin embargo, los hallazgos y las
conclusiones sobre el error humano a menudo son impulsados por reacciones al fracaso y están escritos en
su idioma.

RETROSPECTIVO

Mirando hacia atrás en una secuencia de eventos, sabiendo el resultado


XIV GUÍA DE CAMPO DE ERRORES HUMANOS

LAS INVESTIGACIONES PRETENDEN EXPLICAR UNA


PARTE DEL PASADO

SIN EMBARGO SE REALIZAN EN EL PRESENTE Y, POR LO


TANTO, INEVITABLEMENTE INFLUENCIADOS POR ÉL

Como investigador, es probable que sepa:

• El resultado de una secuencia de eventos que está investigando;


• ¿Qué pistas e indicaciones fueron críticas a la luz del resultado? ¿Cuáles fueron las
señales de peligro?
• Qué evaluaciones y acciones habrían impedido el resultado.

Un avión altamente automatizado se estrelló en un campo de golf cerca de la pista de un aeropuerto en India. Durante
la aproximación final, la automatización de la aeronave había estado en "modo de descenso abierto", que gestiona la
velocidad del aire inclinando el morro hacia arriba o hacia abajo, en lugar de mediante la potencia del motor. Cuando
terminaron demasiado bajo en la aproximación, la tripulación no pudo recuperarse a tiempo. En retrospectiva, el
fabricante de la aeronave comentó que "la tripulación debería haber sabido que estaban en modo de descenso
abierto". Una vez que los observadores externos aprendieron su importancia, la pregunta se convirtió en cómo la
tripulación pudo haber pasado por alto o no haber entendido una información tan crítica.

Una de las apuestas más seguras que puede hacer como investigador u observador
externo es que sabe más sobre el incidente o accidente que las personas involucradas,
gracias a la retrospectiva:

• Retrospectiva significa ser capaz de mirar hacia atrás, desde afuera, en una secuencia
de eventos que llevaron a un resultado que ya conoces;
• La retrospectiva le brinda acceso casi ilimitado a la verdadera naturaleza de la situación que rodeaba
a las personas en ese momento (por ejemplo: dónde estaban realmente en comparación con
dónde pensaban que estaban; en qué estado se encontraba su sistema en comparación con lo
que pensaban que estaba, etc.) .);
• La retrospectiva le permite identificar lo que la gente se perdió y no debería haberse perdido;
lo que no hicieron pero deberían haber hecho.

La retrospectiva sesga su investigación hacia elementos que ustedahorasaber eran


importantes ("modo de descenso abierto"). Como resultado, puede evaluar las decisiones y
acciones de las personas principalmente a la luz de su incapacidad para recoger este dato
crítico. Limita artificialmente su examen de la evidencia y potencialmente pierde explicaciones
alternativas o más amplias del comportamiento de las personas.
Prefacio XV

dentro del tunel

Mira la figura 2.1. Ves una secuencia de eventos en desarrollo allí. Tiene la forma de un
túnel que serpentea su camino hacia un resultado. La figura muestra dos perspectivas
diferentes en el camino hacia el fracaso:

• La perspectiva desde el exterior y la retrospectiva.(típicamente su perspectiva).


Desde aquí puede supervisar toda la secuencia de eventos: las condiciones
desencadenantes, sus diversos giros y vueltas, el resultado y la verdadera
naturaleza de las circunstancias que rodearon la ruta hacia los problemas.
• La otra perspectiva solo ve el interior del túnel.. Este es el punto de vista de
la persona en la situación que se desarrolla. Para ese alguien, el resultado no
se conocía. Que alguien cambió la dirección de la secuencia de eventos sobre la
base de lo que vio en eladentrode la situación que se desarrolla. Para
comprender el error humano, es necesario alcanzar esta perspectiva.

Retrospectivo:

Afuera Comprensión retrospectiva

Adentro

Sidney Dekker

Figura 2.1: Diferentes perspectivas sobre una secuencia de eventos: Mirando desde el exterior y en retrospectiva, tiene
conocimiento del resultado y los peligros involucrados. Desde el interior, es posible que no tenga ninguno.

La Guía de Campo te invita a adentrarte en el túnel de la figura 2.1. Le ayudará a comprender


la evolución de la situación desde el punto de vista de las personas que están dentro de ella y a
tratar de ver por qué sus evaluaciones y acciones habrían sido razonables y parecían correctas
en ese momento.

La retrospectiva está en todas partes

La retrospectiva está profundamente arraigada en el lenguaje de las historias de accidentes que nos
contamos unos a otros. Tome un problema común hoy en día: las personas pierden la noción de en
qué modo están operando sus sistemas automatizados. Esto sucede en cabinas, quirófanos,
XVI GUÍA DE CAMPO DE ERRORES HUMANOS

plantas de control de procesos y muchos otros lugares de trabajo. En retrospectiva, cuando sabes
cómo se desarrollaron y resultaron las cosas, este problema a menudo se denomina "perder la
conciencia del modo". O, más ampliamente, "pérdida de conciencia de la situación". ¿Qué estamos
diciendo realmente? Mira la figura 2.2. La pérdida de conciencia de la situación es la diferencia entre:

• lo que tuahorasaber cómo era la situación en realidad;


• lo que la gente entendió que era en ese momento.

Mucho

Lo que tu
saber ahora

Su pérdida
de situación
conciencia"
Lo que ellos
aparentemente

sabía entonces

Un poco

Desarrollo de la secuencia de eventos

Figura 2.2: La retrospectiva está en todas partes. Aquí, "pérdida de conciencia de la situación" como la diferencia entre su
conocimiento actual de qué aspectos de la situación eran críticos y lo que la gente aparentemente sabía entonces.

Es fácil demostrar que personas de otro tiempo y lugar no sabían lo que tú sabes hoy
("deberían haber sabido que estaban en modo de descenso abierto"). Pero no es una
explicación de su comportamiento.
Debe cuidarse de mezclar su realidad con la realidad de las personas que
está investigando. Esas personas no sabían que iba a haber un resultado
negativo (o habrían hecho otra cosa). Por lo tanto, les habría sido imposible
evaluar, de la forma en que se puede hacer hoy, qué datos o decisiones fueron
críticos a la luz de esto.

PROXIMAL

Centrarse en las personas en el extremo afilado


Prefacio XVII

Las reacciones ante el fracaso se centran en primer lugar y predominantemente en aquellas personas
que estaban más cerca de producir y de evitar potencialmente el percance. Es fácil ver a estas
personas como el motor de la acción. Si no fuera por ellos, el problema no se habría producido.

Alguien me llamó por teléfono, exigiendo saber cómo era posible que los conductores de un tren
pasaran semáforos en rojo. Gran Bretaña acababa de sufrir uno de sus peores desastres ferroviarios,
esta vez en Ladbroke Grove, cerca de la estación de Paddington en Londres. Un tren de cercanías
había chocado de frente con un interurbano de alta velocidad que venía en la otra dirección. Muchos
viajeros murieron en el accidente y el incendio que siguió. La investigación arrojó un veredicto de
"error humano". El conductor del tren de cercanías había pasado justo debajo de la señal 109 en las
afueras de la estación, y la señal 109 estaba roja o "insegura". ¿Cómo podría habérselo perdido? Una
fotografía publicada por la misma época mostraba sensacionalmente cómo otro conductor leía un
periódico mientras conducía su tren.

Extremo romo y extremo afilado

Para comprender el error, debe examinar el sistema más amplio en el que trabajaban
estas personas. Puede dividir un sistema operativo en un extremo afilado y un extremo
romo:

• En el extremo afilado (por ejemplo, la cabina del tren, la cabina, la mesa de operaciones quirúrgicas),
las personas están en contacto directo con el proceso crítico para la seguridad;
• El extremo romo es la organización o conjunto de organizaciones que apoya, impulsa y da
forma a las actividades en el extremo afilado (por ejemplo, la línea aérea o el hospital, los
proveedores de equipos y los reguladores).
XVIII GUÍA DE CAMPO DEL ERROR HUMANO

proximal:

extremo romo
Distal

Organizativo
contexto

Shar p fin
proximal

foco de reacciones
al fracaso

Sidney Dekker

Figura 2.3: Las fallas solo pueden entenderse observando el sistema completo en el que tuvo lugar el comportamiento. Pero en
nuestras reacciones al fracaso, a menudo nos enfocamos en el extremo agudo, donde las personas estuvieron más cerca de causar o
prevenir potencialmente el percance.

El extremo romo le da recursos al extremo afilado (por ejemplo, equipo, capacitación,


colegas) para lograr lo que necesita lograr. Pero al mismo tiempo impone restricciones y
presiones ("no llegue tarde, no nos cueste dinero innecesario, mantenga contentos a los
clientes"). Por lo tanto, el extremo romo da forma, crea e incluso puede fomentar
oportunidades de errores en el extremo afilado. La figura 2.3 muestra este flujo de
causas a través de un sistema. De romo a extremo afilado; de aguas arriba a aguas
abajo; de distal a proximal. También muestra dónde se entrena el foco de nuestras
reacciones ante el fracaso: en lo proximal.

¿Por qué la gente se enfoca en lo proximal?

Buscar fuentes de falla lejos de las personas en el extremo afilado es contradictorio. Y


puede ser difícil. Si encuentra que las fuentes de falla se encuentran realmente en el
extremo romo, esto puede poner en duda las creencias sobre la seguridad de la
Prefacio XIX

sistema entero. Desafía puntos de vista anteriores. Tal vez las cosas no estén tan bien
organizadas o bien diseñadas como la gente esperaba. Tal vez esto podría haber sucedido en
cualquier momento. O peor aún, tal vez podría volver a suceder.

El veredicto de Ladbroke Grove de "error del conductor" perdió credibilidad muy pronto después de que salió
a la luz que la señal 109 era en realidad una causa célebre entre los conductores de trenes. La señal 109 y
todo el estante desordenado en el que estaba suspendida junto con muchas otras señales fueron infames.
Muchos conductores habían pasado una señal insegura 109 durante los años anteriores y el sindicato de
conductores se había quejado de su falta de visibilidad.
En trenes como el que se estrelló en Ladbroke Grove, no se habían instalado sistemas automáticos de
frenado de trenes (ATB) porque se habían considerado demasiado caros. Los operadores de trenes habían
accedido a regañadientes a instalar una versión "ligera" de ATB, que en cierto sentido dependía tanto de la
vigilancia del conductor como de la propia luz roja.

Reducir la sorpresa culpando el fracaso a los sinvergüenzas locales

Algunas personas y organizaciones ven la sorpresa como una oportunidad para


aprender. Las fallas les ofrecen una ventana a través de la cual pueden ver el
verdadero funcionamiento interno del sistema que produjo el incidente o accidente.
Estas personas y organizaciones están dispuestas a cambiar sus puntos de vista, a
modificar sus creencias sobre la seguridad o la solidez de su sistema sobre la base
de lo que acaba de pasar. Aquí es donde ocurre el verdadero aprendizaje sobre el
fracaso y donde puede crear cambios duraderos para bien. Pero tal aprendizaje no
es fácil. Y no viene a menudo. Los desafíos a los puntos de vista existentes son
generalmente incómodos. De hecho, para la mayoría de las personas y
organizaciones, es difícil encontrarse cara a cara con un desajuste entre lo que
creían y lo que acababan de experimentar.

Parece común entre los pilotos de combate de todo el mundo destrozar la reputación de un
camarada que acaba de morir en un accidente. Los sociólogos han observado cómo sus compañeros
pilotos van al bar y beben por la desgracia del camarada caído, o más probablemente por su error, y
ponen las bebidas en la cuenta de su bar. Esta práctica tiene como objetivo resaltar o inventar
evidencia de por qué no fue tan buen piloto después de todo. La transformación de "uno de ellos
mismos" en "un mal piloto" protege psicológicamente a quienes hacen el mismo trabajo de la misma
vulnerabilidad al fracaso.

Las personas y las organizaciones a menudo quieren que la sorpresa del fracaso desaparezca y, con
ella, el desafío a sus puntos de vista y creencias. La forma más fácil de hacer esto es ver
XX GUÍA DE CAMPO DE ERRORES HUMANOS

el fracaso como algo local, como algo que es meramente el problema de unos pocos individuos
que se comportaron de manera poco característica, errática o no representativa (de hecho,
localmente "sorprendente").

Las posibles revelaciones sobre vulnerabilidades sistémicas se desviaron al atribuir el fracaso a


un individuo en el caso de Oscar November1. Oscar November era uno de los "Jumbojets" Boeing 747 más
antiguos de la aerolínea. Anteriormente había sufrido problemas con su piloto automático, pero esa mañana
todo lo demás también conspiró contra los pilotos. Había más viento en contra de lo pronosticado, el tiempo
en el destino era muy malo, lo que exigía una aproximación para la cual el copiloto no estaba calificado pero
concedió una exención, mientras que el copiloto (y el ingeniero de vuelo) estaban gravemente afectados por
problemas gastrointestinales. infección. El control de tráfico aéreo convirtió el gran avión en una
aproximación final cerrada, lo que nunca le dio al viejo piloto automático el tiempo suficiente para
establecerse en el camino correcto. El avión pasó por poco un edificio cerca del aeropuerto, que estaba
envuelto en una espesa niebla. En la próxima aproximación aterrizó sin incidentes.

El capitán de Oscar November fue llevado a los tribunales para ser juzgado por cargos penales de
"poner en peligro a sus pasajeros" (algo que hacen los pilotos cada vez que vuelan, bromeó un compañero
piloto). El caso se centró en las "malas" decisiones de la tripulación. ¿Por qué no se habían desviado para
recoger más combustible? ¿Por qué no habían desechado ese enfoque antes? ¿Por qué no se habían ido a
otro aeropuerto de llegada? Estas preguntas trivializaron u ocultaron los dilemas organizacionales y
operativos que enfrentan las tripulaciones todo el tiempo. El enfoque en el servicio al cliente y la imagen; la
renuncia a las calificaciones para las aproximaciones; poner más trabajo en tripulantes calificados; mucho
tráfico alrededor del aeropuerto de llegada y giros cerrados posteriores; compensaciones entre desvíos en
otros países o continuar con suficiente pero apenas suficiente combustible. Etcétera.

El vilipendiado capitán fue degradado a copiloto y se le ordenó pagar una multa. Se suicidó poco
después. Sin embargo, la aerolínea había salvado su imagen pública al centrarse en un solo individuo
que, según demostró el tribunal, se había comportado de manera errática y poco confiable.

Las lecciones potencialmente perturbadoras sobre el sistema en su conjunto se transforman en


problemas aislados por parte de unos pocos individuos con un desempeño inusualmente bajo. Libera
a la organización más grande de cualquier necesidad de cambiar puntos de vista y creencias, o
políticas asociadas o prácticas de gasto. El sistema es seguro, si no fuera por unos pocos humanos
poco confiables en él.

1 Wilkinson, S. (1994). El incidente de noviembre de Oscar. Air & Space, febrero-marzo.


Prefacio XXI

ANTE UN EVENTO MALO Y


SORPRENDENTE, CAMBIAMOS EL
EVENTO O LOS JUGADORES EN ÉL—

EN LUGAR DE NUESTRAS CREENCIAS


BÁSICAS SOBRE EL SISTEMA QUE HIZO
POSIBLE EL EVENTO

En lugar de modificar nuestros puntos de vista a la luz del evento, remodelamos, volvemos a contar y
reinscribimos el evento hasta que se ajusta a la visión tradicional y no amenazante del sistema. En lo
que se refiere al aprendizaje organizacional, el percance bien podría no haber ocurrido. La naturaleza
próxima de nuestras reacciones ante el fracaso hace que las costosas lecciones organizacionales
puedan quedar completamente desaprendidas.

Los pilotos de un gran helicóptero militar que se estrelló en una colina en Escocia en 1994 fueron declarados
culpables de negligencia grave. Los pilotos no sobrevivieron, 29 personas murieron en total, por lo que nunca
se pudo escuchar su versión de la historia. La investigación oficial no tuvo problemas para "destruir la
reputación de dos buenos hombres", como dijo un compañero piloto. De hecho, muchos otros pilotos se
sintieron incómodos con la conclusión. Vulnerabilidades potencialmente fundamentales (como 160 casos
informados de movimiento de control de vuelo no comandado o UFCM en computador)
solo helicópteros desde 1994) no se examinaron seriamente.1

CONTRAFACTUAL

Averiguar qué podría haber evitado el percance

El resultado de una secuencia de eventos es el punto de partida de su trabajo como


investigador. De lo contrario, en realidad no estarías allí. Esto lo pone en una notable
desventaja cuando se trata de comprender el punto de vista de las personas que está
investigando. Si nos remontamos al resultado, nos encontraremos con articulaciones en
las que las personas tuvieron la oportunidad de "zigzaguear" en lugar de "zagatear";
donde podrían haber dirigido los eventos lejos del fracaso. Como investigador, sale al
otro extremo de la secuencia de eventos y se pregunta cómo la gente pudo haber
perdido esas oportunidades para evitar el fracaso.

1
Sunday Times, 25 de junio de 2000.
XXII GUÍA DE CAMPO DEL ERROR HUMANO

Los informes de accidentes generalmente están llenos de contrafactuales que describen con gran detalle los caminos y
las opciones que las personas en cuestión no tomaron. Por ejemplo, "El avión podría haber superado el encuentro con
la cizalladura del viento si se hubiera mantenido la actitud de cabeceo de 15 grados con el morro hacia arriba, el
empuje se hubiera establecido en 1,93 EPR (relación de presión del motor) y el

el tren de aterrizaje se había retraído según lo previsto"1

Los contrafactuales prueban lo que podría haber sucedido si se hubieran cumplido ciertas
condiciones mínimas y, a menudo, utópicas. Por lo tanto, el razonamiento contrafactual puede
ser un ejercicio fructífero al recomendar contramedidas contra tales fallas en el futuro.
Pero cuando se trata de explicar el comportamiento, los contrafactuales contribuyen
poco. Destacar lo que no se hizo (pero si se hubiera hecho, el accidente no habría ocurrido) no
explica nada sobre lo que realmente sucedió o por qué. Los contrafactuales no son
oportunidades perdidas por las personas que está investigando. Los contrafactuales son
productos de su retrospectiva. La retrospectiva le permite transformar una secuencia incierta y
compleja de eventos en una serie simple y lineal de opciones obvias. Al establecer
contrafactuales, probablemente esté simplificando en exceso los problemas de decisión que
enfrentan las personas en ese momento.

Contrafactual:
Posible resultado 2

”¿Por qué no
¿hacen zag?

”¿Por qué no resultado real


¿zigzaguean?

Posible resultado 1
Sidney Dekker

Figura 2.4: Contrafactuales: Al retroceder a través de una secuencia, uno se pregunta por qué la gente
perdió la oportunidad de desviar los eventos del resultado final. Esto, sin embargo, no explica el
fracaso.

1
Junta Nacional de Seguridad en el Transporte (1995).Informe de accidente de aeronave: Vuelo
contra el terreno durante una aproximación frustrada Vuelo 1016 de USAir, DC-9-31, N954VJ,
Charlotte Carolina del Norte, 2 de julio de 1994. Washington, DC: NTSB, página 119.
Prefacio XXIII

Las bifurcaciones en el camino se destacan claramente para ti, mirando hacia atrás. Pero en el interior
del túnel, al mirar hacia adelante y ser empujado por los acontecimientos que se desarrollaban, estas
bifurcaciones estaban envueltas en la incertidumbre y la complejidad de muchas opciones y
demandas posibles; estaban rodeados de limitaciones de tiempo y otras presiones.

JUZGADOR

Decir lo que deberían haber hecho o dejado de hacer

Para explicar el fracaso, buscamos el fracaso. Para explicar por qué ocurrió una falla, buscamos
errores, acciones incorrectas, análisis defectuosos, percepciones inexactas. Cuando tiene que
explicar el fracaso, los juicios erróneos, las percepciones inexactas y las oportunidades
perdidas parecen ser un buen lugar para comenzar.
Sin embargo, estas decisiones, juicios, percepciones son malas o incorrectas o inexactas solo
en retrospectiva, desde su punto de vista como extraño retrospectivo. Cuando se ve desde el
interior de una situación, las decisiones, los juicios y las percepciones son solo eso: decisiones,
juicios y percepciones.
Mira la figura 2.5. El mismo uso de la palabra "falla" en las conclusiones de la
investigación (por ejemplo: "la tripulación no pudo reconocer un cambio de modo") indica que
todavía está en la línea superior, mirando hacia abajo. Representa un juicio desde fuera de la
situación, no una explicación desde el punto de vista de la gente interior.
La palabra fracaso implica un camino alternativo, uno que las personas en cuestión
no tomaron (por ejemplo, reconocer el cambio de modo). Presentar este camino es
contrafactual, como se explicó anteriormente.
XXIV GUÍA DE CAMPO DE ERRORES HUMANOS

Mucho

Lo que tu
saber ahora

"En este punto, no pudieron


hacer lo que yo hubiera hecho
(sabiendo lo que sé hoy)"

Lo que ellos
aparentemente

sabía entonces

Un poco

punto particular en el tiempo

Desarrollo de la secuencia de eventos

Figura 2.5: Juicio: decir que otras personas no hicieron lo que deberían haber hecho (saber lo
que sabes hoy) no explica su comportamiento.

Pero al decir que las personas "fracasaron" en tomar este camino, en retrospectiva, el
correcto, usted juzga su comportamiento de acuerdo con un estándar que solo puede
imponer con su conocimiento más amplio del percance, su resultado y las circunstancias
que lo rodean. Aún no has explicado nada. No ha arrojado luz sobre cómo se veían las
cosas en el interior de la situación; por qué la gente hizo lo que hizo dado
su circunstancias.

La literatura sobre error médico describe cómo los casos de muerte por negligencia pueden ser el resultado
de una falla de juicio en el proceso diagnóstico o terapéutico. Los ejemplos incluyen un diagnóstico erróneo a
pesar de los datos adecuados, la falta de selección de las pruebas de diagnóstico apropiadas o
procedimientos terapéuticos, y retraso en el diagnóstico o tratamiento.1
Aunque parezcan explicaciones de error, en realidad son juicios que no conllevan
explicación alguna. Por ejemplo, el "diagnóstico erróneo a pesar de los datos adecuados" fue
una vez (antes de la retrospectiva) un diagnóstico razonable basado en los datos que parecían
críticos o relevantes; de lo contrario, no lo habría hecho el médico en cuestión. Llamarlo un
diagnóstico erróneo es un juicio retrospectivo no constructivo que pasa por alto las razones
detrás del diagnóstico real.

1
Bogner, M: S. (Ed.) (1994).error humano en medicina. Hillsdale, Nueva Jersey: Erlbaum.
Prefacio XXV

crítico:

"Ellos fallaron
hacer zag”

resultado real

"Ellos deberían
haber zigzagueado”
Sidney Dekker

Figura 2.6: Criticar: al afirmar que las personas deberían haber hecho algo que no hicieron, o que no hicieron
algo que deberían haber hecho, no explicas su comportamiento real.

La ilusión de la equivalencia causa-consecuencia

Una de las razones por las que las personas se sienten obligadas a juzgar en lugar de explicar, por qué
buscan fallas para explicar las fallas, tiene que ver con la "equivalencia de causa-consecuencia".

MAL RESULTADO = MAL PROCESO

Suponemos que las consecuencias realmente malas solo pueden ser el resultado de causas
realmente malas. Ante un resultado desastroso, o la posibilidad de uno, asumimos que los
actos que lo condujeron debieron ser igualmente monstruosos. Una vez que sabemos que un
resultado es malo, ya no podemos mirar objetivamente el proceso que condujo a él.
Pero esta respuesta automática es muy problemática en mundos complejos. Aquí, incluso los
malos procesos a menudo conducen a buenos resultados. Y los buenos procesos pueden conducir a
malos resultados. Los procesos pueden ser "malos" en el sentido retrospectivo de que se apartaron
de las rutinas que ahora sabe que eran aplicables. Pero esto no conduce necesariamente al fracaso.
Dada su variabilidad inherente a estos mundos, por lo general permiten un conjunto de opciones y
caminos hacia resultados seguros. Hay más de un camino hacia el éxito. Piense en una aproximación
apresurada en un avión que se estabiliza en el momento adecuado y conduce a un aterrizaje seguro.
También pasa lo contrario. Los buenos procesos (en el sentido de que no se apartan del simulacro),
donde las personas verifican dos veces, se comunican y se apegan a los procedimientos, pueden
conducir a resultados desastrosos.
GUÍA DE CAMPO XXVI ERROR HUMANO

resultados.

LOS MALOS PROCESOS CONDUCEN EN LA MAYORÍA A

BUENOS RESULTADOS

LOS BUENOS PROCESOS A VECES LLEVAN A


MALOS RESULTADOS

Piense, por ejemplo, en un incendio en vuelo u otro mal funcionamiento grave en el que los pilotos negocian
entre aterrizar con sobrepeso o tirar combustible (dos cosas que simplemente no puede hacer al mismo
tiempo), mientras clasifican los procedimientos que apuntan a localizar la fuente del problema; en otros
palabras, haciendo lo que el libro y la formación y la disciplina profesional les dice que hagan. Si el incendio o
el mal funcionamiento alcanza a los pilotos mientras todavía están en el aire, puede decir que deberían haber
aterrizado en lugar de preocuparse por cualquier otra cosa. Pero es solo la retrospectiva lo que te permite
decir eso. Realmente no se puede juzgar que el proceso de verificación y negociación de los pilotos sea malo
según ningún otro estándar.

FALLAS COMO SUBPRODUCTO DEL TRABAJO NORMAL

Lo sorprendente de muchos accidentes es que las personas estaban haciendo exactamente el tipo de
cosas que normalmente harían, las cosas que generalmente conducen al éxito y la seguridad. En la
secuencia de eventos que conducen a las fallas, no hay "maldad" en el comportamiento de nadie bajo
ninguna medida objetiva. Las personas están haciendo lo que tiene sentido dadas las indicaciones
situacionales, las presiones operativas y las normas organizacionales existentes en ese momento.

Si esta es la lección más profunda que usted y su organización pueden aprender de


un percance, también es la más aterradora. La dificultad de aceptar esta realidad está
detrás de nuestras reacciones ante el fracaso. Ir más allá de reaccionar ante el fracaso
significa reconocer que los fracasos están integrados en la naturaleza misma de su
trabajo y organización; que son síntomas de problemas más profundos o subproductos
de la fragilidad sistémica en la forma de hacer negocios. Significa tener que reconocer
que los percances son el resultado de influencias cotidianas en la toma de decisiones
cotidiana, no casos aislados de individuos erráticos que se comportan de manera poco
representativa. Ir más allá de sus reacciones al fracaso significa tener que descubrir por
qué lo que la gente hizo allí y luego tenía sentido dada la organización y la operación que
los rodeaba.
Prefacio XXVII

3. ¿Cuál es la causa?

¿Cuál fue la causa del percance? Después del fracaso, ninguna pregunta parece más
apremiante. Puede haber una presión significativa de todo tipo de direcciones para
identificar una causa:

• La gente quiere empezar a invertir en contramedidas;


• La gente quiere saber cómo ajustar su comportamiento para evitar el mismo tipo de
problemas;
• Las personas pueden simplemente buscar retribución, castigo, justicia.

El problema es que no existe tal cosa comoelcausa de un percance. Y simplemente


clasificar los escombros tampoco lo guiará necesariamente a uno.

LA CONSTRUCCIÓN DE LA CAUSA

Mira dos investigaciones oficiales sobre el mismo accidente. Uno fue realizado por
la aerolínea cuyo avión se estrelló en algún lugar de las montañas. El otro fue
realizado por la autoridad de aviación civil del país en el que ocurrió el accidente, y
que contrató al controlador de tránsito aéreo en cuyo espacio aéreo se produjo.

La autoridad dice que el controlador no contribuyó a la causa del accidente, sin embargo, la
aerolínea afirma que las autorizaciones del control de tránsito aéreo no estaban de acuerdo con los
estándares aplicables y que las habilidades lingüísticas inadecuadas y la falta de atención del
controlador fueron causales. La autoridad responde que el uso inadecuado de la automatización de la
cabina de vuelo por parte del piloto fue en realidad el culpable, por lo que la aerolínea apunta a una
base de datos de navegación inadecuada suministrada a sus computadoras de vuelo entre las causas.
La autoridad explica que el accidente se debió a la falta de conocimiento de la situación con respecto
al terreno y las ayudas a la navegación, mientras que la aerolínea culpa a la falta de cobertura de
radar en el área. La autoridad afirma que la tripulación no pudo volver a la navegación básica cuando
el uso de la automatización de la cabina de vuelo creó confusión y carga de trabajo. después de lo
cual, la aerolínea argumenta que los fabricantes y proveedores de automatización de cabinas de
vuelo exudaban un exceso de confianza en las capacidades de sus tecnologías y transmitieron esto a
los pilotos. La autoridad finalmente culpa a los esfuerzos continuos de la tripulación de vuelo para
acelerar su aproximación al aeropuerto a fin de evitar demoras, por lo que la aerolínea culpa al
controlador por repentinamente
GUÍA DE CAMPO XXVIII ERROR HUMANO

inundando a la tripulación de vuelo con una nueva ruta de llegada y una pista diferente para
aterrizar.1

Causas según Autoridad: Causas según Aerolínea:

El controlador de tráfico aéreo no jugó un papel Sin fraseología estándar, lenguaje inadecuado
y falta de atención por parte del Controlador

Uso inadecuado de la automatización por parte de los pilotos Base de datos de automatización inadecuada

Pérdida de conciencia de la situación de los pilotos Falta de cobertura de radar en el área.

No volver a la navegación básica Exceso de confianza en la automatización


patrocinado por vendedores

Esfuerzos para acelerar la llegada Aumento de la carga de trabajo debido a


Solicitud repentina del controlador

Tabla 3.1: Dos declaraciones de causa sobre el mismo accidente

Entonces, ¿quién tiene razón? La realidad detrás de la controversia, por supuesto, es que
ambas investigaciones tienen razón. Ambos tienen razón en que todos los factores
mencionados fueron en cierto sentido causales, o contribuyentes, o al menos necesarios.
Si cualquiera de estos factores desaparece, la secuencia de eventos probablemente
habría conducido a otra parte. Pero esto también significa que ambos conjuntos de
afirmaciones están equivocados. Ambos están equivocados porque se enfocan solo en
un subconjunto de factores contribuyentes y seleccionan y eligen cuáles son causales y
cuáles no. Esta elección puede ser impulsada más por presiones sociopolíticas y
organizativas que por la mera evidencia encontrada entre los escombros. La causa no es
algo que encuentres. La causa es algo que construyes. Cómo lo construyes y de qué
evidencia parece depender de dónde miras, qué buscas, con quién hablas,

No hay una causa "raíz" o "primaria"

¿Cómo es que hay tantas causas para elegir en cualquier percance? Esto tiene que ver
con el hecho de que los tipos de sistemas que son vulnerables al error humano son

1
Ver: Aeronáutica Civil (1996).Informe de accidente de aeronave: vuelo controlado contra
terreno vuelo 965 de American Airlines, Boeing 757-223, N851AA cerca de Cali, Colombia, 20 de
diciembre de 1995. Santafé de Bogotá, Colombia: Aeronáutica Civil Unidad Administrativa
Especial, y Presentación de American Airlines (1996) a la Investigación del Accidente de Cali.
Prefacio XXIX

tan bien protegido contra ella. El potencial de peligro en muchas industrias y sistemas ha
sido reconocido hace mucho tiempo. Y en consecuencia, se han realizado importantes
inversiones para protegerlos de las averías que sabemos o pensamos que pueden
ocurrir. Estas llamadas "defensas" contra el fracaso contienen elementos humanos, de
ingeniería y organizativos.

Volar a las velocidades de aproximación correctas para aterrizar mientras una aeronave pasa por sus configuraciones
posteriores (de flaps, slats y ruedas que salen) es fundamental para la seguridad. Como resultado, se ha convertido en
un proceso bien defendido de verificación doble y referencias cruzadas entre los miembros de la tripulación, los
folletos de velocidad, el peso de la aeronave, la configuración de los instrumentos, los recordatorios y las llamadas y,
en algunas aeronaves, incluso mediante enclavamientos diseñados.
Los accidentes en tales sistemas pueden ocurrir solo si múltiples factores logran erosionar o
pasar por alto todas estas capas de defensa. La ruptura de cualquiera de estas capas puede
denominarse "causal". Por ejemplo, la tripulación abrió el cuadernillo de velocidad en la página
incorrecta (es decir, el peso de aterrizaje de la aeronave incorrecto). Pero esto no explica todo el
colapso, porque otras capas de defensa también tuvieron que ser rotas o esquivadas. Y hay otra
pregunta. ¿Por qué la tripulación abrió el folleto en la página equivocada? En otras palabras, ¿cuál es
la causa de esa acción? ¿Fue su expectativa del peso de la aeronave en función del combustible
utilizado en ese viaje típico? ¿Fue una mala lectura de un instrumento? Y una vez señalado, ¿cuál es la
causa de esa causa? Etcétera.

Debido a esta inversión en múltiples capas de defensa, podemos encontrar las


"causas" de las fallas en todas partes, es decir, cuando ocurren. La red causal se
multiplica rápidamente y se abre en abanico, como las grietas en una ventana. Lo
que llamas "causa raíz" es simplemente el lugar donde dejas de buscar más. En lo
que se refiere a la red causal, no existen las causas raíz o primarias; de hecho, no
hay final en ninguna parte. Si encuentra una causa raíz o primaria, fue su decisión
distinguir algo en el patrón causal denso por esas etiquetas.

No hay una sola causa

Entonces, ¿cuál es la causa del accidente? Esta pregunta es tan extraña como preguntar
quéelcausa es de no tener un accidente. No hay una sola causa. Ni por el fracaso, ni por
el éxito. Para llevar un sistema bien defendido al límite (o hacer que funcione de manera
segura, para el caso), se necesita una gran cantidad de factores que contribuyen y solo
son suficientes en conjunto.
XXX GUÍA DE CAMPO DE ERRORES HUMANOS

SE NECESITAN MÚLTIPLES FACTORES, CADA UNO


NECESARIO Y ÚNICAMENTE CONJUNTAMENTE
SUFICIENTE, PARA EMPUJAR UN SISTEMA
COMPLEJO AL BORDE DE LA AVERÍA

Por lo tanto, en qué se centrará en su búsqueda de la causa es algo que la evidencia de un


percance no determinará necesariamente para usted. Depende de su investigación.

En una ruptura con la tradición de identificar las "causas probables" en los accidentes de aviación, que
simplifican demasiado el camino largo y entrelazado hacia el fracaso, la investigación del juez
Moshansky sobre el accidente de Air Ontario en Dryden, Canadá en 1989, no produjo ninguna causa
probable.
El piloto en cuestión había tomado la decisión de despegar con hielo y nieve en las alas, pero,
como escribió la comisión de Moshanky, "esa decisión no se tomó de forma aislada. Se tomó en el
contexto de un sistema integrado de transporte aéreo que, si había estado funcionando
correctamente, debería haber impedido la decisión de despegar... hubo fallas significativas, la
mayoría de ellas fuera del control del capitán, que tuvieron un impacto operativo en los eventos en
Dryden... regulatorias, organizativas, físicas y de tripulación componentes...."
En lugar de forzar esta complejidad en una serie de causas probables, la Comisión generó
no menos de 191 recomendaciones que apuntaban a las muchas "causas" o fallas sistémicas
subyacentes al accidente sintomático de ese día de marzo de 1989. Las recomendaciones
variaron en temas desde la introducción de un nuevo tipo de aeronave a una flota, a la
selección y rotación de la gerencia en la aerolínea, a adquisiciones y fusiones corporativas en
la industria de la aviación.1

Las declaraciones de causa probable son necesariamente:

• Selectivo. Hay tantas cosas que puedes etiquetar como "causales" antes de que la
palabra "causal" pierda sentido.;
• Exclusivo. Dejan fuera factores que también fueron necesarios y sólo en conjunto
suficientes para "provocar" la falla;
• Simplificaciones excesivas. Destacan solo unos pocos puntos críticos a lo largo de un camino
causal largo, retorcido y altamente interconectado que comienza mucho antes y muy
lejos de donde ocurre la falla real.
Si el protocolo prescribe que se identifiquen las causas probables, la mejor forma de
abordarlas es generar, como "causa probable", el resumen más breve posible de las

1
Moshansky, vicepresidente (1992).Comisión de investigación sobre el accidente de Air Ontario en
Dryden, Ontario(Informe final, vol. 1-4). Ottawa, ON: Ministro de Abastecimiento y Servicios,
Canadá.
Prefacio XXXI

secuencia de eventos que llevaron al percance. Esta descripción debe comenzar lo


más alto posible en la cadena causal y seguir el camino serpenteante hacia la falla
final.
XXXII GUIA DE CAMPO DE ERRORES HUMANOS

4. Error humano
Por cualquier otro nombre

"Un portavoz de la familia Kennedy se negó a comentar sobre los informes de que una
investigación federal concluyó que un error del piloto causó el accidente aéreo que mató
a John F. Kennedy Jr., su esposa y su cuñada. La Junta Nacional de Seguridad en el
Transporte Se espera que termine su informe sobre el accidente del año pasado y lo
publique en las próximas semanas. Sin embargo, en lugar de usar las palabras "error del
piloto", la junta de seguridad probablemente atribuirá la causa a que Kennedy se
"desorientó espacialmente", que es cuando un piloto pierde la pista de
la posición del avión en el cielo".1

ETIQUETAS SUBESPECIFICADAS

El "error humano" como explicación de los accidentes se ha vuelto cada vez


más insatisfactorio. Como se mencionó anteriormente, siempre hay un mundo
organizacional que sienta las bases para los "errores", y uno operativo que les
permite convertirse en problemas mayores.
También sabemos que hay un mundo psicológico detrás de los errores, que
tiene que ver con la atención de las personas, la percepción, la toma de decisiones,
etc. Desde hace varias décadas, los factores humanos han producido o cedido una
serie de términos que intentan capturar tales fenómenos. Etiquetas como
"complacencia", "conciencia de la situación", "gestión de recursos de la tripulación",
"modelos mentales compartidos", "estrés", "carga de trabajo", son tan comunes hoy
en día que nadie se atreve a preguntar qué significan realmente. Se supone que las
etiquetas hablan por sí mismas; ser inherentemente significativa. Se utilizan
libremente como causas para explicar el fracaso. Por ejemplo:

• "La tripulación perdió conciencia de la situación y recursos efectivos de la tripulación

1
International Herald Tribune, 24 y 25 de junio de 2000.
Prefacio XXXIII

administración (CRM)" (razón por la cual colapsaron);


• "La alta carga de trabajo condujo a una situación estresante" (razón por la cual tuvieron
este incidente);
• "Es esencial en la batalla contra la autocomplacencia que las tripulaciones mantengan su
conocimiento de la situación" (de lo contrario, seguirán pasando por alto esas señales
rojas).

La pregunta es: ¿son etiquetas como complacencia o conciencia de la


situación mucho mejores que la etiqueta "error humano"? En un sentido lo
son. Proporcionan alguna especificación; parecen dar algún tipo de
razones detrás del comportamiento; dan una idea del tipo de
circunstancias y la manera en que se manifestó el error.
Pero si se usan como se cita arriba, no difieren mucho del veredicto de
"error humano" que debían reemplazar. En realidad, todas estas etiquetas
concluyen que el error humano, con diferentes nombres, fue la causa:

• La pérdida de CRM es un nombre para el error humano: la falta de inversión en un terreno común,
para coordinar datos importantes desde el punto de vista operativo entre los miembros de la
tripulación;
• La pérdida de conciencia de la situación es otro nombre para el error humano: no
darse cuenta de cosas que, en retrospectiva, resultaron ser críticas;
• La complacencia también es un nombre para el error humano: la incapacidad de
reconocer la gravedad de una situación o de seguir los procedimientos o estándares
de buenas prácticas.

LIDIAR CON LA ILUSIÓN DE LA EXPLICACIÓN

Los factores humanos corren el riesgo de caer en la trampa de citar "error humano"
con cualquier otro nombre. Al igual que "error humano", otras etiquetas también
ocultan lo que realmente sucedió: intentan decir tanto que pueden terminar
diciendo muy poco. De hecho, estas etiquetas no deben confundirse con una visión
más profunda de los problemas de factores humanos. El riesgo ocurre cuando los
investigadores aplican estas etiquetas sin hacer conexiones explícitas entre:

• La etiqueta y la evidencia de la misma. Por ejemplo, ¿exactamente qué interacciones y


descoordinaciones en la secuencia de eventos constituyeron una pérdida de gestión
eficaz de los recursos de la tripulación, según los modelos disponibles y aceptados
de "gestión eficaz de los recursos de la tripulación"?
• La etiqueta y cómo "causó" el percance. Por ejemplo, la "pérdida de una gestión
eficaz de los recursos de la tripulación" puede citarse en el probable
XXXIV GUIA DE CAMPO DE ERRORES HUMANOS

causas o conclusiones. Pero, ¿cómo contribuyeron exactamente los


comportamientos que constituyeron su pérdida al resultado de la secuencia de
eventos?
Si revela qué tipos de comportamientos en la secuencia de eventos produjeron una
"pérdida de gestión eficaz de los recursos de la tripulación", estos comportamientos
pueden indicar el resultado, sin que tenga que depender de una etiqueta que
oscurezca todas las partes e interacciones interesantes.

”L
”LoossssooFFmimifFmifeCCtitvIVmimiCCre
reww
RRmimissootuturcrcmimiMETROMETROaanortenorteaagramogramomimimetrometromiminortenortet”t”

"causado"

el percance

Sidney Dekker

Figura 4.1: Las interesantes dinámicas mentales tienen lugarbajola gran etiqueta psicológica. La
etiqueta en sí misma no explica nada.

Comprender la mentalidad de alguien atrapado en una situación que se


desarrolla no es cuestión de traducir su comportamiento en grandes
términos psicológicos. Es la dinámica mentalbajolas etiquetas que son
interesantes, por ejemplo:

• Las formas en que las personas desvían la atención sobre la base de evaluaciones
anteriores de la situación o sobre la base de expectativas futuras;
• Las compensaciones que tienen que hacer entre varias metas operativas
u organizacionales;
• Cómo activan y aplican el conocimiento en contexto;
• Cómo reconocen patrones de datos sobre la base de la experiencia con
circunstancias similares;
• Cómo se coordinan con varias fuentes de experiencia dentro y fuera de
su situación;
• Cómo lidian con la torpeza y complejidad de la tecnología que les rodea.

Son estos procesos mentales e interpersonales los que impulsan una secuencia de
Prefacio XXXV

eventos en ciertas direcciones; son estos procesos, en todo caso, los que se
puede decir que son "causales" en el sentido de que ayudan a determinar el
resultado de una secuencia de eventos. Cuando penetre la evidencia de su
percance a un nivel en el que pueda comenzar a ver estos procesos en
funcionamiento, podrá conectarlos directamente con el resultado que siguió,
pasando por alto o al menos especificando la etiqueta grande que de otro
modo oscurecería todo el interesantes dinámicas cognitivas y vínculos
causales.
El uso de términos extensos en los hallazgos y explicaciones de la investigación
puede verse como el rito de iniciación a los fenómenos psicológicos. Es decir, para
que una investigación de factores humanos se tome en serio, debe contener su
dosis de conciencia de la situación, tensiones y cargas de trabajo. Pero esto es un
concepto erróneo, y el resto de este capítulo presenta una alternativa. Se debe
hacer un análisis más detallado detrás de las etiquetas. Esto produce conocimientos
más específicos y significativos sobre el comportamiento humano. Hará que su
investigación sea más accesible y verificable para otros también.

PÉRDIDA DE CONCIENCIA DE LA SITUACIÓN

Una etiqueta que se ha vuelto muy popular, la pérdida de conciencia de la situación,


también se reconoce cada vez más como problemática. La idea tradicional es que
procesamos la información del mundo que nos rodea y formamos una imagen de lo
que está pasando en base a ella (ver figura 4.2).

Procesando Más Aún


Procesando Más
Procesando

Situación
Conciencia

tiempo

Sidney Dekker

Figura 4.2: La noción tradicional de conocimiento de la situación: procesamos información del mundo
hasta que llegamos a la conciencia, o una imagen mental de lo que está sucediendo.

Por lo general, se piensa que dicho procesamiento de información pasa por


varias etapas (por ejemplo, percibir elementos en la situación, procesar
XXXVI GUIA DE CAMPO DE ERRORES HUMANOS

su significado y la comprensión de sus futuras implicaciones) antes de llegar a la plena


conciencia de la situación. Una "pérdida de conciencia de la situación" puede ocurrir cuando
nuestro procesamiento de información se ve obstaculizado de alguna manera, por ejemplo,
por un alto estrés o una carga de trabajo. (ver figura 4.3)
Hay grandes problemas con esta noción. En primer lugar, retrata a las personas
como receptores pasivos de cualquier cosa que el mundo les arroje, y todo está
bien siempre que nuestro procesamiento mental pueda mantenerse al día. En este
modelo, no hacemos una contribución activa a nuestra comprensión del mundo, y
no hacemos una contribución activa a cambiar el mundo mismo, lo que ciertamente
hacemos en la realidad. Por ejemplo, nos movemos por el mundo; cambiamos y
modificamos las cosas para que revele más sobre sí mismo; lo influenciamos para
hacerlo más lento; decidimos buscar en algunos lugares en lugar de otros.

Estrés/Carga de trabajo

Procesando
Menos Aún
Procesando Menos

Procesando

Situación
"Pérdida de

Conciencia"

tiempo

Sidney Dekker

Figura 4.3: En la noción tradicional, se presume que se produce una pérdida de conciencia de la
situación por presiones y dificultades en el procesamiento de la información.

Otro problema es que no percibimos elementos en una situación y solo


entonces nos proponemos darles sentido agregando gradualmente significado
a lo largo de alguna autopista de información psíquica. Si percibiéramos
"elementos" individuales, seríamos golpeados por el mundo. Simplemente nos
volveríamos locos. En realidad percibimos patrones, estructuras. Damos
significado al mundo simplemente con mirarlo. Confiamos en nuestra
experiencia para reconocer patrones clave que indican lo que está sucediendo;
adónde van las cosas.
Un tercer problema es que no podemos "perder la conciencia" (aparte de por
Prefacio XXXVII

quedar físicamente inconsciente). No existe tal cosa como un vacío mental.


Siempre estamos formandoalgunoidea de dónde están; de lo que está
haciendo nuestro sistema y proceso. No podemos evitar dar significado a las
señales entrantes. Interpretamos los datos entrantes sobre la base de lo que
ya sabemos; lo que acabamos de hacer con el sistema o proceso; lo que nos
hemos propuesto hacer; lo que esperamos que suceda.

SI PIERDE LA CONCIENCIA DE LA SITUACIÓN,


¿QUÉ LA REEMPLAZA?

NO HAY TAL COSA COMO UN VACÍO


MENTAL

De hecho, la pregunta "¿qué está pasando ahora?" tiene tal idea detrás: la
gente tenía expectativas de lo que haría el sistema o proceso. Por
implicación, la gente tenía algún tipo de modelo mental sobre el cual
formar esas expectativas. El sistema o proceso no se comportó de acuerdo
a sus expectativas, por lo que suscitó la pregunta.
La realidad es que no podríamos vivir o sobrevivir sin construir,
mantener y modificar constantemente nuestra idea del mundo cambiante
que nos rodea, influenciar nuestra situación en base a ella y luego recibir
nueva información que actualice nuestra comprensión una vez más.

La Figura 4.4 describe este ciclo, en el que la conciencia de la situación no


es un producto final, sino un proceso constante de evaluaciones y acciones que
se informan entre sí. A través de este ciclo de transacciones continuas con el
mundo, somos notablemente buenos para crear una imagen coherente y
sólida de nuestros sistemas y procesos, incluso cuando la evidencia es errónea,
incompleta, cambiante e incierta. Al dar vueltas y vueltas a través del ciclo
cognitivo, nos sintonizamos y nos mantenemos en sintonía con nuestras
circunstancias, lo que nos permite funcionar en un mundo complejo y en
constante cambio.

Ingeniería inversa de conocimiento de la situación

Cuando, en retrospectiva, descubre un desajuste entre cómo la gente


entendió que era su situación y cómo ahora sabe que realmente era (ver
figura 2.2), no se perdió nada. El desafío para usted como investigador no
es señalar cómo las personas en otro momento y lugar no sabían lo que
usted sabe hoy (llamándolosu"pérdida de conciencia de la situación"). El
desafío es reconstruir cómoellosentendió el desarrollo
XXXVIII GUIA DE CAMPO DE ERRORES HUMANOS

situación: lo que estaban viendo y cómo dieron significado a los datos


entrantes y lo que esperaban. La comprensión de la situación por parte de las
personas puede quedar clara si observa sus acciones. ¿Hacia dónde se dirigían?
¿Y qué les hizo centrarse en ciertas señales en lugar de otras? ¿Qué evidencia
hizoellosencontrar para aferrarse a una hipótesis que ahora sabe que estaba
cada vez más en desacuerdo con la situación real? Sin embargo, ¿qué en su
situación habría hecho que este enfoque fuera razonable?

NO SEÑALES COMO OTRAS PERSONAS NO


SABÍAN LO QUE TU SABES HOY

— LLAMÁNDOLO SU PÉRDIDA DE CONCIENCIA DE


LA SITUACIÓN—

RECONSTRUYE CÓMO ENTENDÍAN QUE


SERÍA SU SITUACIÓN EN DESARROLLO.

Situación

Comportamiento
Actual
Comprensión

Sidney Dekker

Figura 4.4: La nueva visión de la conciencia de la situación: hacemos evaluaciones sobre el mundo,
actualizando nuestra comprensión actual. Esto dirige nuestras acciones en el mundo, que
Prefacio XXXIX

cambiar el aspecto del mundo, lo que a su vez actualiza nuestra comprensión, y así
sucesivamente (la figura se basa en el ciclo de percepción de Ulrich Neisser).

El capítulo 7 trata sobre la reconstrucción de la mentalidad en desarrollo. Empieza


con:
• La situación en la que se encontraban las personas: los diversos hilos de datos
que se desarrollaban; las múltiples demandas y presiones;
• Las tareas que las personas debían realizar en esta situación;
• Las herramientas con las que estaban haciendo este trabajo.

El capítulo 7, junto con los capítulos que siguen, lo ayuda a aplicar ingeniería inversa a la idea
constantemente actualizada de las personas sobre cómo evolucionaban las cosas a su
alrededor.

PÉRDIDA DE GESTIÓN EFICAZ DE LOS RECURSOS DE LA TRIPULACIÓN

En la mayoría de los mundos complejos, las personas no realizan su trabajo solas. El


trabajo, y la detección y recuperación de errores en él, se distribuye inherentemente
entre varias personas, probablemente en diferentes roles.

• Estas personas necesitan coordinarse para hacer el trabajo


• Así, los problemas de coordinación pueden marcar una secuencia de eventos hacia
el fracaso.

La gestión de recursos de la tripulación se ha convertido en una etiqueta popular, no solo


en la aviación, sino también en la medicina y otros dominios, que cubre los procesos de
coordinación entre los miembros del equipo que persiguen un objetivo operativo común.
Entonces, ¿qué significa "la pérdida de CRM eficaz"? Aquí hay algunos lugares para
buscar más detalles:

Diferencias entre los objetivos de los miembros del equipo.

Los entornos operativos complejos contienen invariablemente múltiples objetivos que


pueden estar todos activos al mismo tiempo.

Tome un vuelo simple de A a B: llegadas a tiempo, viajes tranquilos a través del clima,
presiones de asignación de franjas horarias, uso óptimo de combustible, disponibilidad de
alternativas, comodidad para los pasajeros: todos estos son objetivos que pueden influir en un
GUÍA DE CAMPO DE ERRORES HUMANOS XL

evaluación o decisión única.

Dado que las personas en el mismo equipo operativo tienen diferentes roles, no todos en
un equipo pueden sentirse igualmente afectados o responsables de algunos de estos
objetivos. Esto puede conducir a desajustes entre lo que los individuos ven como su
búsqueda dominante, o la del equipo, en un momento dado.

Diferencias entre la interpretación de los miembros del equipo

Las divergencias pueden existir y crecer en la forma en que las personas con
diferentes antecedentes y roles pueden interpretar sus circunstancias. Diferentes
evaluaciones pueden llevar a que se persigan diferentes objetivos y se tomen
diferentes acciones.

Gary Klein cuenta una historia interesante de un avión de pasajeros con tres generadores, uno
en cada uno de sus motores. Uno de los generadores falló temprano en un vuelo. Esto no es
particularmente inseguro: dos generadores pueden proporcionar la energía eléctrica que
necesita la aeronave. Pero luego otro motor comenzó a perder aceite, casi forzando una
parada. Después de un poco de discusión, la tripulación decidió dejar que el motor averiado
funcionara al ralentí, de modo que se pudiera llamar a su generador si fuera necesario.
Cuando se le preguntó después de aterrizar cuántos generadores acababan de estar
disponibles, el copiloto (que volaba el avión en ese momento) dijo "dos". El capitán dijo "uno y
medio", es decir, un motor en buen estado y otro inactivo. Pero el ingeniero de vuelo dijo
"uno", ya que poner en marcha el motor inactivo donde alimenta el generador lleva un tiempo.
momento.1

Conocimiento que no llegó a la conciencia de la tripulación..

La historia anterior también muestra cómo cierto conocimiento puede


permanecer en el preconsciente de un equipo, es decir, encerrado en la cabeza
de los individuos sin que se haga público o consciente. Puede haber muchas
razones por las que las personas no aportan su comprensión de la situación o
su conocimiento al terreno común, incluidos los comandantes autoritarios o los
subordinados tímidos. Pero muy a menudo la falta de

1
Klein, G. (1998).Fuentes de poder: cómo las personas toman decisiones. Cambridge, MA:
MIT Press.
Prefacio XLI

la coordinación es una cuestión de personas que asumen que otros tienen una
comprensión similar de la situación. Al igual que el ingeniero de vuelo en el ejemplo
anterior, puede haber asumido que los dos pilotos sabían que solo había un
generador disponible durante al menos un momento. Por lo general, existen muy
buenas razones para estas suposiciones, ya que facilitan la coordinación del equipo
al no saturar la comunicación de la tripulación con recordatorios y sugerencias
redundantes.
Cuando encuentra diferencias entre los objetivos de las personas, entre las
interpretaciones de las personas y cuando encuentra comunicaciones faltantes
entre los escombros, es fácil considerarlas como fracasos o pérdidas. Fallos de
trabajo en equipo, por ejemplo. O fallas de liderazgo, o pérdida de gestión de
recursos de la tripulación. Pero mira detrás del fracaso. El silencio de un miembro
de la tripulación en realidad puede representar un buen trabajo en equipo, lo que
incluye saber cuándo no interrumpir.

Características del entorno operativo.

Las características del entorno operativo pueden dificultar el intercambio de


evaluaciones y acciones (los problemas ergonómicos, como los niveles elevados de
ruido, la poca iluminación o la disposición de asientos incómoda, ya provocan esto).
Otras características más sutiles del entorno operativo de las personas también
pueden influir profundamente en qué tan bien pueden coordinarse y qué tan bien
pueden verificar y detectar los errores cometidos por otros:

Los aviones de pasajeros modernos están equipados con sistemas de gestión de vuelo
(FMS) que básicamente hacen volar el avión completo en la actualidad. Cada uno de los
pilotos de estos aviones tiene acceso individual al FMS a través de una interfaz separada:
su pequeño espacio de trabajo privado. Aquí pueden hacer cambios significativos en el
plan de vuelo sin que el otro piloto necesariamente vea, sepa o comprenda. El piloto solo
necesita presionar "ejecutar" y la computadora hará lo que ha programado.
Por supuesto, las aerolíneas han ideado procedimientos que requieren que los pilotos
verifiquen las entradas de las computadoras de los demás, pero en realidad hay muchas
circunstancias en las que esto no es práctico o es innecesario. El verdadero problema de coordinación
no es que los pilotos no sigan los procedimientos. Es una característica del diseño.
eso hace que la coordinación sea muy difícil, pero crítica para la seguridad.1

1
Dekker, SWA y Hollnagel, E. (Eds.) (1999).Hacer frente a las computadoras en la cabina.
Aldershot, Reino Unido: Ashgate.
GUÍA DE CAMPO DEL ERROR HUMANO XLII

COMPLACENCIA

Al enfrentarse al fracaso, puede ser fácil ver el comportamiento de las personas


como deficiente, desmotivado, que no está a la altura de lo que se puede esperar
de los operadores en su posición. Una de las etiquetas que a menudo se dan aquí
es "complacencia" o "negligencia". Con el tiempo, las personas parecen haber
perdido el respeto por la seriedad de sus trabajos: comienzan a leer periódicos
mientras conducen sus trenes o vuelan sus aviones, no verifican dos veces antes de
comenzar una amputación.
Salidas de la rutina que se vuelven rutina

La figura 4.5 muestra lo que realmente puede estar pasando aquí y por qué la
complacencia o la negligencia no son solo un juicio, sino también una etiqueta
incompleta.

Centrándose en un momento en el
tiempo, ve "negligencia" con respecto a
un estándar o norma anterior

norma antigua
Desviación
rm

Norma actualmente
Desde

adherido a

Tiempo

Sidney Dekker

Figura 4.5: En un momento particular en el tiempo, el comportamiento que no está a la altura de algún
estándar puede parecer complacencia o negligencia. Pero este enfoque ignora la historia, y por lo tanto
la explicación, detrás del comportamiento en cuestión. La desviación puede haberse convertido en la
nueva norma en toda una operación u organización.
Prefacio XLIII

Las desviaciones de algún estándar o rutina pueden parecer que ocurren en cualquier
momento porque las personas no están motivadas para hacer lo contrario; estas
personas son vistas como "complacientes" o "negligentes". Pero a menudo, la suya no es
la primera salida de la rutina. Las desviaciones de la rutina que se han convertido en
rutina pueden incluir cualquier cosa, desde la lectura superficial de la lista de verificación,
hasta tomar otros atajos para ahorrar tiempo, hasta firmar equipos o personas sin
cumplir con todos los criterios oficiales.
Lo más pertinente para las investigaciones de errores humanos es
averiguar qué historia organizativa o presiones existen detrás de estas
desviaciones rutinarias de la rutina. Tome salidas, llegadas o entregas a
tiempo, relevantes para cualquier organización que opere en un horario:

• Las recompensas del desempeño a tiempo son inmediatas y tangibles:


clientes felices, jefes felices, dinero ganado, etc.
• Los riesgos potenciales (¿cuánto tomó prestado de la seguridad para operar a tiempo?)
no están claros, no se pueden cuantificar o incluso se desconocen.

Préstamo de seguridad

Con recompensas constantes y tangibles, las desviaciones de la rutina pueden


volverse rutinarias en toda una operación u organización.

LAS DESVIACIONES DE LA NORMA


PUEDEN CONVERTIRSE EN LA NORMA

Sin darse cuenta, las personas comienzan a tomar prestado de la seguridad y


logran otras metas del sistema gracias a ella: producción, economía, servicio al
cliente, satisfacción política. El comportamiento cambia con el tiempo porque otras
partes del sistema envían mensajes, de manera sutil o no, sobre la importancia de
estos objetivos. De hecho, las organizaciones recompensan o castigan a las
personas operativas en compensaciones diarias ("¡Somos una operación A
TIEMPO!"), enfocándolos en objetivos distintos a la seguridad. La falta de
consecuencias adversas con cada compensación que se inclina hacia objetivos
distintos de la seguridad fortalece la creencia tácita de las personas de que es
seguro tomar prestado de la seguridad.

En "La decisión del lanzamiento del Challenger", Diane Vaughan ha documentado cuidadosamente
cómo toda una organización comenzó a tomar prestado de la seguridad, reforzada por un
lanzamiento exitoso del transbordador espacial tras otro, incluso si las juntas tóricas en el
GUÍA DE CAMPO DEL ERROR HUMANO XLIV

Los propulsores de cohetes sólidos mostraron signos de daño por calor. La evidencia de este
"escape" de Oring se analizó críticamente cada vez, se evaluó según criterios conocidos y luego
se decidió como "aceptable". Vaughan ha llamado a este proceso repetido "la normalización de
la desviación": lo que antes era una desviación, ahora se convirtió en la nueva norma. Se pensó
que esto era seguro: después de todo, había dos juntas tóricas: el sistema era redundante. Y si
los lanzamientos anteriores fueran algo por lo que pasar (la evidencia más tangible del éxito),
la seguridad futura estaría garantizada. El transbordador espacial Challenger, lanzado en
temperaturas frías en enero de 1986, mostró cuánto había estado tomando prestado la NASA
de la seguridad: se rompió
y explotó después del despegue debido a la fuga de la junta tórica.1

El problema con los mundos complejos y dinámicos es que la seguridad no es


una constante. El éxito pasado al salir de la rutina no es garantía de seguridad
futura. En otras palabras, un resultado seguro hoy no es garantía de un
resultado seguro mañana, incluso si el comportamiento es el mismo. Esto
significa que2:

LA LEY DE MURPHY ES INCORRECTA

LO QUE PUEDE SALIR MAL SUELE SALIR BIEN,


PERO LUEGO SACAMOS LA CONCLUSIÓN
EQUIVOCADA

Las circunstancias cambian, y también lo hacen las golosinas de seguridad


asociadas con ellas. Hacer lo que haces hoy (que podría salir mal pero no salió) no
significa que te saldrás con la tuya mañana. La amenaza dinámica a la seguridad se
muestra en la figura 4.6.

1
Vaughan, D. (1996).La decisión de lanzamiento del Challenger. Chicago, IL: Prensa de la
Universidad de Chicago.
2
La cita sobre la ley de Murphy proviene en parte de Langewiesche, W. (1998).dentro del cielo.
Nueva York: Panteón.
Prefacio XLV

norma antigua

Nor
ma
actu
adh
Desviación

alm
erid ente
oa
De

amenaza de seguridad

Tiempo

Sidney Dekker

Figura 4.6: La ley de Murphy es incorrecta. Lo que puede salir mal por lo general sale bien, y con el tiempo
llegamos a pensar que una amenaza a la seguridad no existe o que no es tan mala. Sin embargo, mientras
ajustamos nuestro comportamiento para adaptarnos a otras presiones del sistema (p. ej., rendimiento a
norma

tiempo), las amenazas a la seguridad varían por debajo, lo que nos prepara para problemas en el futuro.

ESTRÉS Y CARGA DE TRABAJO

El estrés ha sido durante mucho tiempo un término importante, especialmente


cuando las personas realizan un trabajo dinámico, complejo y crítico para la
seguridad. En una lectura superficial de los datos de su percance, puede ser fácil
afirmar que las personas se estresaron; que había mucha carga de trabajo y que las
cosas se salían de control por eso. Pero esto no significa ni explica mucho. Los
psicólogos todavía debaten si el estrés es una característica de una situación, el
resultado mental de una situación o una estrategia de afrontamiento fisiológica y
psicológica que nos permite lidiar con circunstancias exigentes o amenazantes. Esto
complica el uso del acento en cualquier enunciado causal, porque ¿qué produjo
qué?

Desajuste demanda-recurso

Lo que puede hacer sobre la base de sus datos es hacer un inventario de las
demandas en una situación y los recursos que las personas tenían disponibles para
hacer frente a estas demandas. Esta es una forma de manejar más específicamente
la evidencia disponible. Si sospecha que el estrés o la alta carga de trabajo
GUÍA DE CAMPO DEL ERROR HUMANO XLVI

puede haber sido un problema, busque ejemplos de demandas y recursos en su


situación (consulte la Tabla 4.1).

En estudios de estrés y carga de trabajo, algunos han informado que un desajuste entre
demandas y recursos puede significar cosas diferentes para diferentes tipos de
operadores. En un avión de patrulla marítima, por ejemplo, las personas en la parte de
atrás se preocupan por dejar caer sonoboyas (para detectar submarinos) desde el avión.
Cuantas más sonoboyas en un tiempo determinado, más carga de trabajo, más estrés.
En cambio, las personas en la parte delantera del avión estaban preocupadas por
cuestiones más estratégicas. Para ellos, la cantidad de cosas que hacer tenía poca
relación con su experiencia de estrés y carga de trabajo. Sin embargo, se sentirían
estresados si su modelo de la situación no coincidiera con la realidad, o si se hubiera
quedado atrás de las circunstancias reales.

Tunelización y regresión

Una de las consecuencias reportadas del estrés es el túnel, la tendencia a ver


una parte cada vez más estrecha del entorno operativo de uno. Esto
generalmente se interpreta como una deficiencia; como algo disfuncional que
marca a los operadores menos capaces y debe evitarse en la medida de lo
posible. Otra consecuencia que se ha observado es la regresión: la tendencia a
volver a las rutinas aprendidas anteriormente, incluso si no son del todo
apropiadas para la situación actual.

El problema exige: Recursos de afrontamiento:

Problemas mal estructurados Experiencia con problemas similares

Circunstancias muy dinámicas: las cosas Otras personas que contribuyen a evaluar-
cambiando rápidamente con el tiempo mentos de lo que está pasando

Incertidumbre sobre lo que está pasando o Conocimiento o formación para hacer frente a la
sobre los posibles resultados circunstancias

Interacciones con otras personas que Otras personas para descargar tareas o ayudar
generan más inversión que retorno resolver problemas
(en términos de descarga)
Prefacio XLVII

Restricciones organizativas y Conciencia organizacional de tales


presiones presiones y restricciones

Conflictos entre metas Orientación sobre las prioridades de los objetivos

Hay mucho en juego asociado con el resultado Conocimiento hay un sobre de


caminos hacia un resultado seguro

La presión del tiempo Habilidades de gestión de la carga de trabajo.

Tabla 4.1: Encontrar un desajuste entre las demandas de los problemas y los recursos de afrontamiento puede ayudarlo a
hacer que los argumentos sobre el estrés y la carga de trabajo sean más específicos.

De hecho, puede ver tanto la tunelización como la regresión como estrategias en sí


mismas; como contribuciones del ser humano que están destinadas a lidiar con
altas demandas (mucho a lo que prestar atención y realizar un seguimiento) y
recursos limitados (tiempo limitado para mirar a su alrededor; espacio de trabajo
mental limitado para integrar y manejar datos diversos y que cambian
rápidamente). La tunelización (a veces llamada "fijación", especialmente cuando las
personas se fijan en una explicación del mundo que les rodea) proviene de la fuerza
humana para formar una idea estable y sólida de un mundo cambiante con
múltiples hilos que compiten por la atención y donde la evidencia puede ser
incierta. e incompleto. Nos brinda la estabilidad de un marco para interpretar y
evaluar nuevos datos, y nos permite anticiparnos a los cambios en el mundo al
hacer predicciones sobre lo que sucederá a continuación.
Si tuviéramos que saltar sobre cada nuevo dato y cambiar la táctica y la
explicación allí mismo, nuestra capacidad para funcionar en un mundo
cambiante se desintegraría rápidamente. Este "vagabundeo mental" a
veces ocurre, por supuesto, y ciertos dominios incluso tienen su propio
término para ello, por ejemplo, "quedarse detrás del avión". Sin suficiente
experiencia en el manejo de un escenario en particular, o con otros
factores que complican la situación, podemos quedar rezagados en el ciclo
cognitivo. Con cada cambio en el mundo, se hacen intentos (pero
truncados por nuevos cambios) para actualizar nuestra comprensión o
ponernos al día con las acciones de respuesta. Esto hace que sea difícil
anticipar e influir en las circunstancias futuras: el comportamiento se ve
impulsado por los eventos más que al revés. Cuando se enfrente a
evidencia en esta dirección, pregúntese:

En situaciones muy dinámicas y complejas, parecería que hacer túneles


es una estrategia (involuntaria) que permite a las personas rastrear y
GUIA DE CAMPO DEL ERROR HUMANO XLVIII

manténgase a la vanguardia de un número limitado de subprocesos de una gran cantidad de


distracciones potenciales. De manera similar, la regresión a rutinas aprendidas anteriormente
libera recursos mentales: no tenemos que hacer coincidir las percepciones actuales con el
descubrimiento consciente de qué hacer cada vez. El estrés y la carga de trabajo, así como la
propia percepción que tienen las personas de ellos, se verán afectados por su forma de
afrontarlos.
Prefacio XLIX

5. Error humano—
En la cabeza
¿O en el mundo?

El uso de etiquetas infraespecificadas en las investigaciones de errores humanos,


cubierto en el capítulo anterior, tiene varias raíces. Una razón para el uso de términos
psicológicos extensos es la confusión sobre si debe comenzar a buscar la fuente del error
humano:

• En la cabeza (de la persona que comete el error)


• O en la situación (en la que trabaja la persona)

La primera alternativa se utiliza en varias herramientas de análisis de errores humanos y, de hecho, a


menudo está implícita en las investigaciones. Por ejemplo, cuando usa "complacencia" como una
etiqueta para explicar el comportamiento, realmente busca cómo comenzó el problema con un
individuo que no estaba lo suficientemente motivado para observar de cerca los detalles críticos de su
situación.
Como se dijo en los capítulos anteriores, tal enfoque para "explicar" el error humano es
un callejón sin salida. Evita que una investigación encuentre características duraderas del
entorno operativo que realmente producen el comportamiento controvertido (y que seguirán
produciéndolo si se dejan en su lugar). Y hay más La suposición de que los errores comienzan
en la cabeza también deja una conclusión de investigación difícil de verificar para otros, como
se explica a continuación.
La alternativa, buscar la fuente de error en el mundo, es un camino más
esperanzador para las investigaciones. El error humano está vinculado sistemáticamente
a las características del mundo: las tareas y herramientas con las que trabaja la gente y el
entorno operativo y organizativo en el que la gente lleva a cabo ese trabajo. Si comienza
con la situación, puede identificar, sondear y documentar las razones del
comportamiento observado, sin necesidad de recurrir a procesos o estructuras no
observables o grandes etiquetas en la cabeza de alguien. Este es el camino por el que te
llevará The Field Guide.

ERROR HUMANO: TODO ESTÁ EN LA CABEZA


L GUÍA DE CAMPO DE ERRORES HUMANOS

Para aplicar "ingeniería inversa" al error humano, el capítulo 9 lo alentará a reconstruir cómo se
desarrolló y cambió la forma de pensar de las personas con el tiempo. Uno pensaría que la
reconstrucción de la mentalidad en desarrollo de alguien comienza con la mente. La mente, después
de todo, es el lugar obvio para buscar la mentalidad que se desarrolló dentro de ella. ¿Hubo algún
problema al mantener las cosas en la memoria de trabajo? ¿Qué había en el almacén perceptivo de la
persona? ¿Hubo problemas para recuperar una parte del conocimiento de la memoria a largo plazo?
De hecho, estos son los tipos de preguntas que se hacen en una variedad de herramientas de análisis
de errores humanos y sistemas de informes de incidentes.

Se está desarrollando una herramienta para el análisis de errores humanos en el control del tráfico
aéreo. Para cada error observado, lleva al analista a través de una larga serie de preguntas que se
basan en un elaborado modelo de procesamiento de información del cerebro humano. Comienza con
los procesos perceptivos y señala al analista los posibles problemas o dificultades allí. Luego continúa
a lo largo de la vía del procesamiento, con la esperanza de guiar al analista a la fuente del problema
en una amplia gama de procesos o estructuras psicológicas: memoria a corto plazo, memoria a largo
plazo, toma de decisiones, selección de respuestas, ejecución de respuestas e incluso el control del
controlador. imagen de sí mismo. Por cada error observado, el viaje a través de las preguntas puede
ser largo y arduo y el destino final (la supuesta fuente del error) dudoso y difícil de verificar.

Estos tipos de análisis de errores humanos se ocupan de la complejidad del


comportamiento simplificándolo en cajas; clavando el error en un proceso o estructura
psicológica. Por ejemplo, fue un error de vigilancia, de memoria de trabajo, de juicio o de
toma de decisiones, o de selección de respuestas. El objetivo es concluir que un error se
originó en una determinada etapa a lo largo de un camino de procesamiento psicológico
en nuestra cabeza. Estos enfoques básicamente explican un error llevándolo de regreso
al cerebro de donde vino.
Las deficiencias, en lo que respecta a la investigación del error humano, son graves. Estos
enfoques ocultan un error en el cerebro bajo una etiqueta que no es mucho más reveladora o
esclarecedora que el "error humano". Las etiquetas que se hicieron populares en estos
enfoques (como memoria de trabajo o ejecución de respuestas) también son poco más que
artefactos del lenguaje de un modelo psicológico particular. Es posible que este modelo ni
siquiera sea correcto, pero seguro que es difícil demostrar que está equivocado. ¿Quién puede
probar la existencia de la memoria a corto plazo? Pero, ¿quién puede probar que no existe?

Este problema se extiende seriamente a la práctica investigativa. Explicar el error humano


sobre la base de estructuras mentales internas dejará a otras personas adivinando si tenías
razón o no. En realidad, nadie puede ver cosas como los recuerdos a corto plazo o las reservas
perceptivas, y nadie puede volver a las memorias a corto plazo o las reservas perceptivas de las
personas que está investigando para comprobar su trabajo. Nadie puede verificar realmente
su conclusión de que estas cosas fueron responsables de las fallas que ocurrieron. Otras
personas solo pueden esperar que tuvieras razón cuando categorizaste. Simplemente
volviéndolo a etiquetar en términos psicológicos más detallados, el ser humano
Prefacio LI

El error y su investigación permanecen encerrados en una práctica en la que cualquiera puede hacer
afirmaciones aparentemente justificables pero no verificables. Las investigaciones siguen siendo confusas,
inciertas y poco concluyentes, y tienen poca credibilidad.

ERROR HUMANO: MATERIA SOBRE MENTE

Las cosas son diferentes cuando comienzas tu investigación con la situación en desarrollo en la
que se encontraban las personas. Los métodos que atribuyen el error humano a las
estructuras internas del cerebro ignoran fácilmente la situación en la que tuvo lugar el
comportamiento humano, o al menos subestiman su importancia. Sin embargo, tiene sentido
comenzar con la situación:

• Las situaciones pasadas pueden reconstruirse objetivamente en gran medida y


documentarse en detalle;
• Hay conexiones estrechas y sistemáticas entre las situaciones y el comportamiento;
entre lo que la gente hacía y lo que sucedía en el mundo que la rodeaba.

Estas conexiones entre las situaciones y el comportamiento funcionan en ambos sentidos:

• Las personas cambian la situación haciendo lo que hacen; gestionando sus


procesos;
• Pero la evolución de la situación también cambia el comportamiento de las personas. Una
situación en evolución proporciona evidencia cambiante y nueva; actualiza la
comprensión de las personas; presenta más dificultades; excluye o abre vías para la
recuperación.

Puede descubrir las conexiones entre situación y comportamiento, investigarlas,


documentarlas, describirlas, representarlas gráficamente. Otras personas pueden ver la
situación reconstruida y cómo la relacionaste con el comportamiento que tuvo lugar
dentro de ella. Otras personas pueden realmente rastrear sus explicaciones y
conclusiones. Comenzar con la situación saca a la luz una investigación de error humano.
No se basa en estructuras o procesos psicológicos ocultos, sino que permite la
verificación y el debate por parte de quienes entienden el dominio. Cuando una
investigación de error humano comienza con la situación, patrocina su propia
credibilidad.
Una gran parte de las investigaciones de errores humanos, entonces, no tiene nada que ver con
el ser humano detrás del error. No se trata de supuestas estructuras en el cerebro humano; sobre
construcciones psicológicas que supuestamente estaban involucradas en causar trastornos mentales.
Una gran parte de las investigaciones de errores humanos se trata de la situación en la que estaba
trabajando el ser humano; sobre las tareas que realizaba; sobre las herramientas que se utilizaron.
LII GUIA DE CAMPO DE ERRORES HUMANOS

LA RECONSTRUCCIÓN DE LA MENTALIDAD
NO COMIENZA CON LA MENTE

COMIENZA CON LAS CIRCUNSTANCIAS EN


LAS QUE SE ENCUENTRA LA MENTE

Comprender la situación que produjo y acompañó el comportamiento es comprender las


valoraciones y acciones humanas dentro de esa situación. Esto le permite aplicar
"ingeniería inversa" al error humano al mostrar:

• cómo cambió el proceso crítico de seguridad con el tiempo;


• cómo evolucionaron las evaluaciones y acciones de las personas en paralelo con su situación
cambiante;
• cómo las características de las herramientas y tareas de las personas y su entorno
organizacional y operativo influyeron en sus evaluaciones y acciones dentro de esa
situación.

De esto se trata la reconstrucción de la mentalidad en desarrollo, el tema del


capítulo 8.
Prefacio LIII

6. Ponga los datos en contexto

Restituir la conducta a la situación que la produjo y la acompañó no es fácil. De


hecho, para dar sentido al comportamiento, siempre es tentador optar por un
contexto que realmente miente.afuerala secuencia del accidente. Sacar el
comportamiento de contexto y darle significado desde afuera es común en las
investigaciones. En este capítulo se analizan dos formas en las que los datos de
comportamiento suelen sacarse de contexto:

• emparejándolos con un mundo que ahora sabe que es real, o por


• agrupar partes seleccionadas bajo una condición que haya identificado en
retrospectiva ("selección de cerezas").

FUERA DE CONTEXTO I:
SOSTENER FRAGMENTOS DE RENDIMIENTO CONTRA UN MUNDO QUE AHORA
SABES QUE ES VERDADERO

Una de las formas más populares en que los investigadores evalúan el comportamiento
es compararlo con un mundo que él o ellaahorasabe que es verdad. Hay varias formas
en que los mundos posteriores a los hechos pueden cobrar vida:

• Un procedimiento o conjunto de reglas: el comportamiento de las personas no


estaba de acuerdo con los procedimientos operativos estándar que luego se
encontraron aplicables para esa situación;
• Un conjunto de claves: las personas no detectaron claves o datos que resultaron ser
críticos para comprender la verdadera naturaleza de la situación;
• Estándares de buenas prácticas: el comportamiento de las personas no cumple con los estándares
de buenas prácticas en la industria en particular.

El problema es que estos mundos posteriores a los hechos tienen muy poco en
común con el mundo real que produjo el comportamiento bajo investigación.
Contrastan el comportamiento de las personas con la realidad del investigador, no
con la realidad que rodeaba el comportamiento en cuestión. Por lo tanto, la
microcoincidencia de fragmentos de comportamiento con estos diversos
estándares no explica nada, solo juzga.
GUÍA DE CAMPO DE ERRORES HUMANOS LIV

Procedimientos

En primer lugar, los fragmentos individuales de comportamiento se comparan con


frecuencia con los procedimientos o reglamentos, que se puede encontrar que han
sido aplicables en retrospectiva. Comparado con tal guía escrita, el desempeño real
a menudo se encuentra deficiente; no cumple con los procedimientos o
regulaciones.

Tome el avión de pasajeros automatizado que comenzó a girar hacia las montañas
debido a una anomalía en la base de datos de la computadora. El avión terminó
estrellándose contra las montañas. El parte del accidente explica que uno de los pilotos
ejecutó una entrada en la computadora sin haber verificado que era la selección
correcta, y sin haber obtenido primero la aprobación del otro piloto, contrariamente a la
1
procedimientos de la aerolínea. Otros comentaristas agregan cómo, en sus evaluaciones y
acciones, la tripulación de vuelo no cumplió con la Regulación Federal de Aviación FAR 91.123
(a).

Las investigaciones invierten considerablemente en arqueología organizacional


para que puedan construir el marco normativo o procedimental dentro del cual
se desarrollaron o debieron realizarse las operaciones. Las inconsistencias
entre los procedimientos o reglamentos existentes y el comportamiento real
son fáciles de exponer en retrospectiva. Su punto de partida es un fragmento
de comportamiento, y tiene el lujo del tiempo y los recursos para excavar
registros y regulaciones organizacionales para encontrar reglas con las que el
fragmento no coincidía.
Pero, ¿qué has mostrado? Solo ha señalado que hubo una discrepancia
entre un fragmento del desempeño humano y la guía existente que
descubrió o resaltó después del hecho. Esto no es muy informativo.
Mostrar que hubo un desajuste entre el procedimiento y la práctica arroja
poca luz sobre lapor quéde la conducta en cuestión. Y, de hecho, arroja
poca luz sobre el por qué de este percance en particular. Los desajustes
entre el procedimiento y la práctica no son ingredientes exclusivos de las
secuencias de accidentes. A menudo son una característica de la vida
operativa diaria (que es donde comienza la parte interesante de su
investigación).

1
El parte del accidente es: Aeronáutica Civil (1996).Informe de accidente de aeronave: vuelo
controlado contra terreno vuelo 965 de American Airlines, Boeing 757-223, N851AA cerca de
Cali, Colombia, 20 de diciembre de 1995. Santafé de Bogotá, Colombia: Aeronáutica Civil
Unidad Administrativa Especial.
Prefacio LV

Datos disponibles

En segundo lugar, para construir el mundo contra el cual evaluar fragmentos de


desempeño individuales, los investigadores pueden recurrir a datos en la situación
que no fueron recogidos por los operadores pero que, en retrospectiva, resultaron
ser críticos.

Continúe con el avión automatizado de arriba. ¿Qué debería haber visto la


tripulación para notar el giro? Tenían muchas indicaciones, según el fabricante de
su avión:
”Las indicaciones de que el avión estaba girando a la izquierda habrían incluido lo
siguiente: la pantalla de mapa EHSI (Indicador electrónico de situación horizontal) (si se
seleccionó) con una trayectoria curva que se aleja de la dirección de vuelo prevista; la
pantalla EHSI VOR, con el CDI (Indicador de Desviación de Curso) desplazado hacia la
derecha, indicando que el avión se salió del curso directo del VOR de Cali, el EaDI
indicando aproximadamente 16 grados de alabeo, y todos los indicadores de rumbo
moviéndose hacia la derecha. Además, la tripulación puede haber sintonizado Rozo en el
ADF y puede haber tenido información de puntero de rumbo a Rozo NDB en el
1
RMDI”.

Esta es una respuesta estándar después de los contratiempos: señalar los datos que
habrían revelado la verdadera naturaleza de la situación. Pero el conocimiento de
los datos "críticos" solo se obtiene con el privilegio de la retrospectiva. Si se puede
demostrar que tales datos críticos han estado físicamente disponibles, se asume
automáticamente que deberían haber sido recogidos por los operadores en la
situación.
El problema es que señalar que debió haberlo hecho no explica por qué tal
vez no lo fue, o por qué se interpretó de otra manera entonces. Existe una
diferencia entre la disponibilidad de datos y la observabilidad de los datos,
entre lo que se puede demostrar que estaba físicamente disponible y lo que se
habría podido observar dadas las múltiples tareas intercaladas, los objetivos, el
enfoque atencional, los intereses e incluso la cultura de la persona en cuestión.

El misterio, en lo que respecta a una investigación, no es por qué las personas


podrían haber estado tan desmotivadas o ser tan estúpidas como para no tomar las
cosas que puedes decidir que eran críticas en retrospectiva. El misterio es averiguar
quéeraimportante para ellos y por qué.

1
Presentación de Boeing ante la Junta de Investigación de Accidentes del Vuelo 965 de American
Airlines (1996). Seattle, WA: Boeing.
GUÍA DE CAMPO DE ERRORES HUMANOS LVI

Otros estándares

En tercer lugar, hay una serie de otros estándares, especialmente para


fragmentos de desempeño que no coinciden fácilmente con la guía de
procedimiento o para los cuales es más difícil señalar datos que existían en el
mundo y que deberían haberse recogido.
Este suele ser el caso cuando un fragmento controvertido no conoce una guía
predeterminada clara, sino que se basa en un juicio local y situado. Por
ejemplo, una decisión de aceptar un cambio de pista o continuar volando con
mal tiempo. Para estos casos, siempre hay "normas de buenas prácticas" que
se basan en convenciones y se practican supuestamente en toda la industria.
Uno de esos estándares en la aviación es la "buena habilidad para el vuelo",
que, si nada más puede, cubrirá la variación en el comportamiento que aún no
se había tenido en cuenta.

A menudo, los casos de negligencia médica solo se pueden presentar comparando el


desempeño real del médico con los estándares de atención adecuada o buenas prácticas. Los
procedimientos algorítmicos rígidos generalmente no pueden estar a la altura de la
complejidad del trabajo y las situaciones ambiguas y mal definidas en las que debe llevarse a
cabo. En consecuencia, no se puede afirmar fácilmente que esta o aquella lista de verificación
debería haberse seguido en esta o aquella situación.
Pero, ¿qué estándares de atención adecuada invoca para contrastar el
comportamiento real? Esto es en gran medida arbitrario e impulsado por la
retrospectiva. Después de una cirugía en el lugar equivocado, por ejemplo, el estándar
de buena atención que se invoca es que los médicos deben asegurarse de amputar o
operar la extremidad correcta.
Como médico, usted no tiene ninguna posibilidad contra tal juicio. Solo puedes asentir
con la cabeza en señal de aprobación ante tales exhortaciones a la maternidad y pensar que,
después de todo, estas son las normas que tratas de seguir todo el tiempo; en todas las
pequeñas y grandes decisiones y concesiones que haces a diario. Encontrar estándares
apropiados en retrospectiva no ayuda a dilucidar las circunstancias reales y las
vulnerabilidades sistémicas que al final permitieron que se realizara la cirugía en el lugar
equivocado.

Al referirse a procedimientos, datos físicamente disponibles o estándares de buenas prácticas,


los investigadores pueden microcoincidir fragmentos controvertidos de comportamiento con
estándares que parecen aplicables desde su posición posterior al hecho. Los mundos de
referencia se construyen desde fuera de la secuencia del accidente, sobre la base de los datos
a los que ahora tienen acceso los investigadores, sobre la base de hechos que ahora saben que
son ciertos. El problema es que estos "después de los hechos"
Prefacio LVII

mundos pueden tener muy poca relevancia para las circunstancias de la


secuencia del accidente. No explican el comportamiento observado. El
investigador ha sustituido su propio mundo por el que rodeaba a las
personas en cuestión.

FUERA DE CONTEXTO II:


AGRUPACIÓN DE FRAGMENTOS DE RENDIMIENTO SIMILARES BAJO UNA
ETIQUETA IDENTIFICADA EN RETROSPECTIVA

Existe una segunda forma en la que los datos suelen sacarse de contexto;
en el que se les da sentido desde el exterior. Esta es la agrupación de
fragmentos individuales de comportamiento que representan alguna
condición común.

Considere este ejemplo, donde se agrupan diversos fragmentos de comportamiento


para construir un caso de prisa como explicación de las malas decisiones tomadas por la
tripulación. Los fragmentos en realidad no están ubicados temporalmente en el mismo
lugar. Están repartidos en un tiempo considerable, pero eso no importa. Según la
investigación apuntan a una condición común.
”Los investigadores pudieron identificar una serie de errores que se iniciaron con la aceptación por parte de la
tripulación de la oferta del controlador de aterrizar en la pista 19… La CVR indica que la decisión de aceptar la oferta de
aterrizar en la pista 19 fue tomada en forma conjunta por el comandante y el primer oficial en un intercambio de 4
segundos que comenzó a las 21:36:38. El capitán preguntó: '¿le gustaría disparar el uno nueve directamente?' El primer
oficial respondió: 'Sí, tendremos que luchar para bajar. Podemos hacerlo. Este intercambio siguió a una discusión
anterior en la que el comandante le indicó al copiloto su deseo de acelerar la llegada a Cali, luego del retraso en la
salida de Miami, en un aparente intento de minimizar el efecto del retraso en las necesidades de descanso de los
auxiliares de vuelo. Por ejemplo, a las 2126:01, le pidió al primer oficial que 'mantuviera la velocidad en el descenso'...
La evidencia de la naturaleza apresurada de las tareas realizadas y la revisión inadecuada de información crítica entre
el momento de la aceptación de la tripulación de vuelo de la oferta para aterrizar en la pista 19 y el El hecho de que el
vuelo cruce el punto de referencia de aproximación inicial, ULQ, indica que no se dispuso de tiempo suficiente para
llevar a cabo estas acciones de manera completa o efectiva. En consecuencia, varios pasos necesarios se realizaron
incorrectamente o no se realizaron en absoluto”. (Aeronáutica Civil, 1996, p. 29) indica que no se dispuso de tiempo
suficiente para llevar a cabo total o efectivamente estas acciones. En consecuencia, varios pasos necesarios se
realizaron incorrectamente o no se realizaron en absoluto”. (Aeronáutica Civil, 1996, p. 29) indica que no se dispuso de
tiempo suficiente para llevar a cabo total o efectivamente estas acciones. En consecuencia, varios pasos necesarios se
realizaron incorrectamente o no se realizaron en absoluto”. (Aeronáutica Civil, 1996, p. 29)
Como resultado del cambio de pista y la carga de trabajo autoimpuesta, la tripulación de
vuelo también "carece de conciencia de la situación", un argumento que también se construye
al agrupar fragmentos de pronunciación de voz de aquí y allá:
“…desde el comienzo de su intento de aterrizar en la pista 19, la tripulación mostró
una falta de conciencia…. El primer oficial preguntó 'dónde estamos', seguido de
'entonces quiere girar a la izquierda de regreso a ULQ'. El capitán respondió, 'diablos no,
Traducido del inglés al español - www.onlinedoctranslator.com

GUÍA DE CAMPO DE ERRORES HUMANOS LVIII

sigamos adelante… y el copiloto dijo 'bueno, ¿adónde vamos?'…. El conocimiento


deficiente de la situación también es evidente por la actitud del capitán.
1
interacción con el controlador aéreo de Cali”.

Es fácil seleccionar la evidencia de una secuencia de accidentes y buscar


fragmentos que parezcan apuntar a una condición común. El investigador
trata el registro de voz como si fuera una cantera pública para seleccionar
piedras, y el accidente explica el edificio que necesita construir con esas
piedras. Entre los investigadores, esta práctica a veces se denomina
"selección de cerezas": seleccionar aquellas partes que ayudan a susa priori
argumento. Los problemas asociados con la recolección de cerezas son
muchos:

• Probablemente te pierdas todo tipo de detalles que son relevantes para explicar el
comportamiento en cuestión;
• Cada cereza, cada fragmento, no tiene sentido fuera del contexto que lo
produjo. Cada uno de los fragmentos que se juntan con otros
"similares" en realidad tiene su propia historia, su propio trasfondo, su
propio contexto y su propia razón de ser. Cuando se produjo, es
posible que no tuviera nada que ver con los otros fragmentos con los
que ahora se agrupa. La similitud está enteramente en el ojo del
espectador retrospectivo.
• Mucho desempeño, mucho comportamiento, tiene lugarentrelos fragmentos
que el investigador selecciona para construir su caso. Estos episodios
intermedios contienen cambios y evoluciones en las percepciones y
valoraciones que separan los fragmentos escindidos no sólo en el tiempo,
sino también en el sentido.

Por lo tanto, la condición que une fragmentos de actuaciones similares


tiene poco que ver con las circunstancias que dieron lugar a cada uno de
los fragmentos; no es una característica de esas circunstancias. Es un
artefacto tuyo como investigador. El peligro es que se te ocurra una teoría
que guíe la búsqueda de pruebas sobre sí misma. Esto deja su
investigación no con hallazgos, sino con tautologías. ¿Cuál es la solución?

PONGA LOS DATOS EN CONTEXTO

Sacar los datos de contexto, ya sea por:

1
Aeronáutica Civil, op. cit., páginas 33-34.
Prefacio LIX

• emparejándolos con un mundo que ahora sabe que es real, o por


• agrupar los bits seleccionados bajo una condición identificada en
retrospectiva

roba los datos de su significado original. Y a estos datos fuera de contexto se les da
simultáneamente un nuevo significado, impuesto desde el exterior y en
retrospectiva. Usted impone este nuevo significado cuando observa los datos en un
contexto queahorasaber que es verdad. O impone un significado al etiquetar una
etiqueta externa en una colección suelta de fragmentos aparentemente similares.

Pero para comprender el significado real que tenían los datos en el momento y
el lugar en que se produjeron, debe viajar al pasado usted mismo.

La historiadora Barbara Tuchman lo expresó de esta manera: “Cada escritura tiene


derecho a ser leída a la luz de las circunstancias que la produjeron. Para comprender las
opciones abiertas a las personas de otro tiempo, uno debe limitarse a lo que
1
sabía; ver el pasado con su propia ropa, por así decirlo, no con la nuestra”.

Cuando se deja en el contexto que lo produjo y lo rodeó, el comportamiento


humano es inherentemente significativo. Tampoco es necesario colocarlo en
mundos posteriores al hecho compuestos por las cosas y las reglas de las que la
gente aparentemente no se dio cuenta. El comportamiento tiene un sentido
inherente cuando se reubica en la corriente de valoraciones, acciones y
circunstancias de las que era parte fundamental.
Para que tenga sentido, el comportamiento tampoco requiere grandes
etiquetas psicológicas etiquetadas desde el exterior. Para dar sentido a un
comportamiento controvertido, no debe comenzar con una teoría y luego
elegir cerezas de la evidencia para respaldarla: el riesgo de equivocarse, de
perder la explicación real, es demasiado grande. En cambio, comience con la
situación en la que tuvo lugar el comportamiento y vuelva a colocar los
fragmentos controvertidos allí. El siguiente capítulo lo lleva a través de los
pasos necesarios para dicha reubicación. Te lleva dentro del "túnel" de la
situación en la que se encontraban otras personas.

1
Tuchman, B. (1981).Practicando la historia: Ensayos seleccionados. Nueva York: Norton, página
75.
GUÍA DE CAMPO DE ERRORES HUMANOS LX

7. Error humano—
La nueva vista

LAS PERSONAS CREAN SEGURIDAD EN SISTEMAS COMPLEJOS

La nueva visión sobre el error humano considera que los sistemas complejos y dinámicos
en los que trabajan las personas no son básicamente seguros en absoluto. De hecho,
estos sistemas en sí mismos son contradicciones inherentes entre la seguridad y todo
tipo de otras presiones. Hay presiones económicas; presiones que tienen que ver con
horarios, franjas horarias, competencia, atención al público, imagen pública.

Un piloto de línea aérea que fue despedido después de negarse a volar durante una
tormenta de hielo en 1996, recibió 10 millones de dólares por parte de un jurado. El
piloto, que había volado durante 10 años para la aerolínea, recibió el dinero en una
demanda alegando que había sido despedido por volcar su avión turbohélice en una
tormenta. El piloto dijo que había intentado volar de Dallas a Houston pero regresó al
aeropuerto porque pensó que las condiciones no eran seguras.1
Un héroe del jurado (probablemente pasajeros potenciales), este piloto podría haber
decidido seguir adelante. Pero si algo le hubiera sucedido a la aeronave como resultado de la
formación de hielo, la investigación probablemente habría arrojado el resultado de un "error
humano", diciendo que el piloto a sabiendas continuó en condiciones severas de formación de
hielo. Su compensación debe entenderse en el contexto de un accidente de turbohélice en su
empresa solo unos años antes; en ese caso se culpó a una formación de hielo severa.

Las concesiones como la anterior deben realizarse en circunstancias en las que la


evidencia a menudo no es clara o en las que puede estar cambiando.

Pruebas de niveles de antígeno prostático específico (PSA, por sus siglas en inglés) en todos los hombres mayores de 1 año

1
International Herald Tribune, 15 de enero de 2000.
Prefacio LXI

65 sería una muy buena idea; de hecho, probablemente ayudaría a revelar el cáncer de próstata en
etapas tempranas en muchos casos. El PSA es una prueba relativamente fácil, ya que se basa en una
muestra de sangre. Sin embargo, el cáncer de próstata es en realidad más frecuente que fatal en este
grupo de edad: las obducciones de hombres que murieron por otras causas a menudo muestran
cáncer de próstata en cierta medida.
Sin embargo, detectar los casos que podrían resultar fatales antes de que causen algún
daño tendría efectos positivos tanto en los pacientes como en quienes pagan por su atención
médica. Es fácil llamar a un caso no diagnosticado de cáncer de próstata "error humano", pero
la complejidad que subyace detrás de un caso no diagnosticado debe entenderse en términos
de esta compensación. ¿Hacemos pruebas? ¿No probamos? ¿Operamos? ¿No operamos? Las
presiones económicas intervienen en esta compensación, ya que las pruebas generales para
los niveles de PSA en todas las poblaciones no son baratas. Y luego está la incertidumbre
residual: un nivel alto de PSA indica un mayor riesgo de cáncer de próstata, pero en sí mismo
no es un diagnóstico.

Las presiones y las incertidumbres no residen pasivamente en una


organización, para ser decididas por la gerencia. Como dilemas y
complejidades, se reducen a unidades operativas individuales (cabinas,
quirófanos, puentes de barcos, cabinas de camiones) para que los
profesionales los resuelvan en la línea. Estas presiones entran, de forma
irreconocible o no, en miles de decisiones, compensaciones y
consideraciones pequeñas y más grandes que los profesionales hacen
todos los días. ¿Partiremos o no? ¿Seguiremos adelante o no? ¿Operamos o
no? ¿Aceptaremos el directo o no? ¿Aceptaremos esta pantalla o alarma
como indicación de problemas o no? Lo que esto significa es que:

LOS SISTEMAS COMPLEJOS NO SON BÁSICAMENTE


SEGUROS

LAS PERSONAS TIENEN QUE CREAR SEGURIDAD


NEGOCIANDO ENTRE MÚLTIPLES OBJETIVOS DEL
SISTEMA

En la nueva vista sobre el error humano:

• Las personas son vitales para crear seguridad. Son los únicos que pueden
negociar entre la seguridad y otras presiones en condiciones reales de
operación;
• Los errores humanos no surgen inesperadamente. Son el subproducto
inevitable de la experiencia humana: la capacidad humana para llevar a
cabo estas negociaciones mientras se enfrenta a pruebas inciertas y
resultados inciertos.
LXII GUIA DE CAMPO DEL ERROR HUMANO

La nueva visión sobre el papel de la tecnología

¿Cómo ve la nueva visión sobre el error humano el papel de la tecnología? La nueva


tecnología no elimina el potencial de error humano, sino que lo cambia. La nueva
tecnología puede dar a un sistema ya sus operadores nuevas capacidades, pero
inevitablemente también trae nuevas complejidades. La nueva tecnología puede
conducir a un aumento en las demandas operativas al permitir que el sistema
funcione más rápido; más difícil; más extenso; más precisamente o
minuciosamente; en tiempo más pésimo. Aunque se introdujo por primera vez
como una mayor protección contra fallas (aproximaciones más precisas a la pista
con un Head-Up-Display, por ejemplo), la nueva tecnología permite que un sistema
se acerque más a sus márgenes, erosionando la ventaja de seguridad que se
obtuvo.
La nueva tecnología también suele estar mal adaptada a la forma en que la
gente hace o hizo su trabajo, oa las circunstancias reales en las que la gente
tiene que realizar su trabajo, oa otras tecnologías que ya existían. La nueva
tecnología a menudo obliga a los profesionales a adaptarla de manera
localmente pragmática, para que funcione en la práctica real. La nueva
tecnología cambia las formas en que los sistemas se descomponen. Pide a las
personas que adquieran más conocimientos y habilidades, que recuerden
hechos nuevos. Agrega nuevas vulnerabilidades que antes no existían. Puede
abrir puertas nuevas y sin precedentes a la falla del sistema. La nueva visión
del error humano sostiene que:

• Las personas son las únicas que pueden mantener unido el mosaico de
tecnologías introducidas en sus mundos; los únicos que pueden hacer que
todo funcione en la práctica real;
• Nunca es sorprendente encontrar errores humanos en el corazón de la falla del sistema
porque las personas están en el corazón de hacer que estos sistemas funcionen en
primer lugar.

INVESTIGACIONES Y LA NUEVA MIRADA SOBRE EL ERROR HUMANO

En la nueva visión, las investigaciones están impulsadas por un principio unificador:

LOS ERRORES HUMANOS SON SÍNTOMAS DE


PROBLEMAS MÁS PROFUNDOS

Las investigaciones no están interesadas en el error humano per se. son inter-
Prefacio LXIII

estimado en lo que apunta el error. ¿Cuáles son las fuentes de las dificultades de las
personas? Las investigaciones se enfocan en lo que está detrás del error: las
compensaciones organizacionales empujadas hacia las unidades operativas
individuales; los efectos de la nueva tecnología; la complejidad enterrada en las
circunstancias que rodean la actuación humana; la naturaleza del trabajo mental
que se realizaba en situaciones difíciles; la forma en que las personas se
coordinaron o se comunicaron para realizar su trabajo; la incertidumbre de la
evidencia que los rodea.
¿Por qué las investigaciones en la nueva perspectiva están interesadas en estas
cosas? Porque aquí es donde está la acción. Si las personas quieren aprender algo
de valor sobre los sistemas que operan, verán los errores humanos como:

• Una ventana a un problema que cada practicante en el sistema podría


tener;
• Un marcador en el comportamiento cotidiano del sistema y una oportunidad para
aprender más sobre las características organizativas, operativas y tecnológicas
que crean un potencial de error.

Recomendaciones en la nueva vista:

• Casi nunca se refieren a profesionales individuales, porque sus errores son un


síntoma de problemas sistémicos a los que todos pueden ser vulnerables;

• No confíe en procedimientos más estrictos porque los seres humanos necesitan discreción
para lidiar con circunstancias complejas y dinámicas para las cuales la orientación
especificada previamente no es adecuada;
• No se deje atrapar por promesas de nuevas tecnologías. Aunque puede eliminar
un potencial de error particular, la nueva tecnología probablemente abrirá
nuevas puertas a la falla del sistema;
• Trate de abordar el tipo de problema sistémico que tiene su origen en las decisiones
organizacionales, las condiciones del lugar de trabajo o las características
tecnológicas.

AVANCES EN SEGURIDAD

La nueva visión del error humano es la clave para el progreso de la seguridad. Las
investigaciones según el nuevo punto de vista conducen a dificultades subyacentes
en la forma y las circunstancias en las que trabaja la gente y en las herramientas
que utilizan. El error ya no es visto como una cosa en sí misma, como algo ajeno al
sistema. Los errores son síntomas de problemas más profundos en
LXIV GUIA DE CAMPO DEL ERROR HUMANO

la forma en que las personas hacen el trabajo que hacen todos los días: perseguir objetivos del
sistema como el horario, el servicio al cliente, la economía, mientras se negocia con la
seguridad.
Entonces, lo que ven las investigaciones en la nueva vista es comportamiento, no
error. Ven el comportamiento cotidiano de las personas. Y típicamente descubren cómo
este comportamiento era razonable dados los objetivos que perseguían las personas, la
evidencia y el conocimiento que tenían disponibles, las compensaciones que
enfrentaban, las estrategias que habían desarrollado, las presiones que existían a su
alrededor. Esto significa que:

EL OBJETIVO DE UNA INVESTIGACIÓN NO ES


ENCONTRAR DÓNDE SE EQUIVOCÓ LA GENTE

ES ENTENDER POR QUÉ SUS


EVALUACIONES Y ACCIONES PARECÍAN
ADECUADAS EN EL MOMENTO

En la nueva visión, el "error humano" es poco más que un artefacto de nuestra


retrospectiva. No es más que una etiqueta que ponemos a ciertos fragmentos de
comportamiento después del hecho. La conclusión lógica de la nueva visión es que
no existe el error humano. Los fragmentos de comportamiento que llamamos
"error" en retrospectiva no tienen una contrapartida identificable en la situación
real en la que ocurrió ese comportamiento. Allí, en esa situación, el
comportamiento era localmente racional: tenía sentido dado lo que la gente estaba
tratando de lograr y dadas las circunstancias en las que estaban haciendo su
trabajo.
La Guía de campo pretende ayudarlo a investigar el error humano de acuerdo con la
nueva vista. Tiene la intención de ayudarlo a identificar cómo las evaluaciones y acciones
de las personas realmente tenían sentido (o al menos algún sentido) dadas las
circunstancias. Para hacerlo, tiene la intención de ayudarlo a encontrar las conexiones
entre estas evaluaciones y acciones, por un lado, y las características de las tareas, las
herramientas y el entorno de las personas, por el otro. Porque ahí es donde está la
acción. En sistemas complejos y dinámicos, ahí es donde se encuentran las verdaderas
fuentes de problemas.
Prefacio LXV

8. Reconstruir la mentalidad en
desarrollo

Para reconstruir la mentalidad de desarrollo de las personas, debe comprender:

• cómo se desarrollaron su proceso y otras circunstancias a su alrededor;


• cómo evolucionaron las evaluaciones y acciones de las personas en paralelo con su situación
cambiante;
• cómo las características de las herramientas y tareas de las personas y su entorno
organizacional y operativo influyeron en sus evaluaciones y acciones dentro de esa
situación.

Este capítulo y los dos siguientes lo guiarán a través de dicha reconstrucción. Presentan cinco
pasos hacia la reconstrucción de la mentalidad en desarrollo, lo ayudan a obtener los datos de
factores humanos que necesita y lo guían a través de los escombros para encontrar las
pruebas correctas.

CINCO PASOS PARA LA RECONSTRUCCIÓN

¿Recuerdas el túnel del capítulo 2? La figura 8.1 muestra cómo se veía. Quieres
alcanzar la perspectiva de las personas dentro del túnel; las personas cuyas
evaluaciones y acciones está investigando ahora. Quiere ver el mundo en desarrollo
desde su punto de vista local.
El túnel hace dos puntos sobre la mentalidad de desarrollo del que está dentro de
él:

• Las evaluaciones y decisiones que toman las personas en el interior se basan en lo


que ven en el interior del túnel. En otras palabras, las evaluaciones y las
acciones tienen sentido en función de las circunstancias que las rodean; se
hacen sobre la base de cómo se veía el mundo en ese momento.
• Los meandros del túnel reflejan cómo el comportamiento se extiende con el tiempo, y las
evaluaciones y acciones de las personas generalmente no son soluciones aisladas de una
sola vez para problemas únicos. Más bien, cada evaluación y cada acción se basa en parte
en la comprensión anterior de una situación. Y cada evaluación apunta a cómo se espera
que se desarrolle en el futuro.
LXVI GUIA DE CAMPO DEL ERROR HUMANO

Toma este punto de vista


Comprensión retrospectiva

Adentro Afuera

Sidney Dekker

Figura 8.1: Ver el mundo que se desarrolla desde el punto de vista de las personas dentro de la situación, no desde el
exterior o en retrospectiva.

¿Cómo se llega al túnel terminado? Lo reconstruyes pasando por cinco pasos. Estos
pasos interactúan y se informan entre sí; sería imposible hacer pasar uno solo por ellos y
listo. Para reconstruir gradualmente un túnel cuyo interior se parece a la realidad de las
personas que se encontraban en él en ese momento, es posible que deba saltar de un
lado a otro entre estos pasos. Es posible que tenga que dar vueltas o repetir subpartes.
Estos son los cinco pasos:

1. Marca el comienzo y el final de la secuencia de eventos que deseas


investigar.
2. Plantee las coyunturas en esta secuencia de eventos donde las cosas tomaron un giro diferente o
podrían haber tomado un giro diferente.
3. Reconstruir la situación en torno a cada coyuntura como si hubiera rodeado a la
gente por dentro, por ejemplo, en términos de indicaciones de proceso que
habrían estado disponibles y cualquier presión operativa y organizativa que
existiera.
4. Identificar las tareas que realizaban las personas al cruzar estas coyunturas y
qué objetivos perseguían. Esto revela cuál de las indicaciones disponibles
realmente habría importado y cómo las demandas operativas habrían
recibido más atención.
5. Ver cómo las características de las herramientas y tareas de las personas y su entorno
organizacional y operativo influyeron en sus evaluaciones y acciones en cada una de las
coyunturas.
1. MARCAR EL INICIO Y EL FIN DE UNA SECUENCIA DE EVENTOS

Puede parecer un paso obvio para tomar en cualquier análisis: vincular el evento bajo investigación
marcando el comienzo y el final. Sin embargo, muchas investigaciones no dicen explícitamente dónde
comienza realmente su trabajo en una secuencia de eventos y dónde termina.
Prefacio LXVII

termina El problema a menudo se decide implícitamente por la disponibilidad de evidencia.

Por ejemplo, el comienzo de una grabación de la voz de la cabina de pilotaje puede ser el lugar donde
realmente comienzan las actividades de investigación y el final de la grabación donde terminan. O el
comienzo está contenido en las típicas historias de 72 o 24 horas de lo que un practicante en
particular hizo y no hizo (jugar al tenis, dormir bien, levantarse temprano, etc.) antes de embarcarse
en el viaje u operación fatal. Por supuesto, incluso estos marcadores son arbitrarios, y las razones
para ellos rara vez se aclaran.

Una razón para no indicar explícitamente el comienzo de una investigación es la


dificultad inherente de decidir qué cuenta como comienzo (especialmente el
comienzo; el final de una secuencia de eventos a menudo habla por sí mismo). Esta
dificultad se explicó en la discusión sobre las causas y la falacia de la causa raíz en el
capítulo uno. No existe una causa raíz, por lo que técnicamente no existe el
comienzo de un percance.
Sin embargo, como investigador, debe comenzar en alguna parte. Dejar en claro dónde
comienza y explicar esta elección es el primer paso hacia una investigación de errores
humanos estructurada y bien diseñada. Tome como punto de partida la primera evaluación,
decisión o acción de personas cercanas al percance, la que, según usted, puso en marcha la
secuencia de eventos. Tal decisión puede ser la aceptación por parte del piloto de un cambio
de pista que provocó problemas más adelante; la decisión del cirujano residente de aceptar
una traqueotomía de emergencia.
Estas evaluaciones y acciones pueden verse como un desencadenante de la serie de
eventos que se desarrolla a continuación. Por supuesto, el desencadenante en sí tiene una
razón, un trasfondo, que se extiende más allá de la secuencia del percance, tanto en el tiempo
como en el lugar. El objetivo de tomar una evaluación o acción próxima como punto de partida
no es ignorar estos antecedentes, sino identificar puntos concretos para comenzar su
investigación sobre ellos. Esto también le permite hacer frente a cualquier controversia que
pueda rodear su elección de punto de partida.

¿Fue la aceptación por parte del piloto de un cambio de pista el desencadenante del problema? ¿O fue el
dilema del controlador de tránsito aéreo de tener demasiadas aeronaves convergiendo en el aeropuerto al
mismo tiempo, algo que requirió el cambio de pista?

Alguien siempre puede decir que otra decisión o acción precedió a la que marcó
como punto de partida. Este es un recordatorio de lo que hay que tener en cuenta a
la hora de analizar la decisión o acción que has marcado como inicio. ¿Qué pasó
antes de eso? Cualquiera que sea su elección de comienzo, hágalo explícito. A partir
de ahí, puede retroceder a la historia, o a las circunstancias circundantes, y
encontrar explicaciones para la decisión o acción que, según usted, estableció el
LXVIII GUIA DE CAMPO DEL ERROR HUMANO

secuencia de eventos en movimiento. Mira la figura 8.2. Esto es con lo que quiere
terminar: un comienzo y un final marcados para la secuencia de eventos que desea
investigar.

"MI
"MIXXpagpagmimidd
élimite CCliyometro
soybb””

Sidney Dekker

Figura 8.2: Marcar el comienzo y el final de una secuencia de eventos. Tenga en cuenta las diversas influencias causales
(que otras personas podrían ver como desencadenantes o comienzos) en lo que está marcado como comienzo aquí: la
solicitud de acelerar una escalada.

2. DISEÑA LAS UNIONES EN UNA SECUENCIA DE EVENTOS

La mente no es el punto de partida para comprender la contribución humana a una secuencia


de eventos que condujeron al fracaso. La situación en desarrollo en la que se encontraba la
mente humana es. Esto significa que necesita reconstruir la situación a medida que evolucionó
en torno a las personas que está investigando.
Pero hay un paso previo. ¿En torno a qué organizas tu reconstrucción? en que
te basas Tome el comienzo y el final de la secuencia de eventos del paso 1. Luego,
explique lo que sucedió en el medio. Encuentre todas las evaluaciones, decisiones,
acciones y cambios importantes en el proceso y organícelos en orden. Lo que
probablemente verá (de hecho, con el beneficio de su retrospectiva) es que esta
serie de acciones, decisiones y cambios no se dirige directamente hacia el
resultado. Serpentea, gira y gira, como el túnel del capítulo anterior. Las personas
pueden cambiar de rumbo cuando evalúan la evidencia que se desarrolla a su
alrededor; toman decisiones para ir por este camino o por aquel. O el proceso que
están manejando se acerca o se aleja del resultado en sí mismo (por ejemplo, un
motor se apaga debido al alto ángulo de ataque; el automatismo vuelve a un modo
de funcionamiento diferente). Vea en la figura 8.3 cómo se vería esto: una secuencia
hipotética de eventos abreviada.
Prefacio LXIX

"MI
"MIXXpagpagmimidd "A
”L”Lmimit'ts'sgramo "ALLTT ”Wsombrero
”Wsombrero "I"Iddoonorte
élimite CCliyometro
soybb”” gramooo VVmimirtritC HHLLDD”” nortenono kknortenorteooww””
hhaapagpag--

icaayoyo SSpagpagmimimimidd””
pagpagmiminortenortemimidd??””

Sidney Dekker

Figura 8.3: Presentar la secuencia completa de eventos, incluidas las evaluaciones y acciones de las personas y los
cambios en el proceso mismo (aquí, por ejemplo, un cambio de modo de automatización a modo de retención de altitud).

En este deambular hacia el desenlace puedes localizar coyunturas. Son puntos


donde:

• La secuencia de eventos dio un giro hacia el desenlace.


• La secuencia de eventos se desvió momentáneamente del resultado.
• La secuencia de eventos podría haberse alejado completamente del
resultado, pero no lo hizo.

¿Cómo localizas las uniones?

Las coyunturas son lugares, o períodos de tiempo, donde las personas o los procesos que
administran contribuyen de manera crítica al resultado que siguió. Las coyunturas en una
secuencia de eventos son lugares donde las personas hicieron algo o pudieron haber hecho
algo para influir en la dirección de los eventos. Pero las coyunturas también son lugares en los
que el proceso hizo algo o podría haber hecho algo para influir en la dirección de los
acontecimientos, ya sea como resultado de aportes humanos o no.

Las coyunturas son puntos de partida para investigar los antecedentes, las razones y las
historias detrás de ellas. ¿De dónde vienen las decisiones? ¿Qué los empujó hacia un lado
y no hacia el otro? En otras palabras, estas coyunturas forman el hilo organizador, para
reconstruir la situación que rodeaba a las personas que estás investigando.

Como regla general, lo que hizo la gente y lo que hicieron sus procesos está estrechamente
interconectado; los dos rara vez se desarrollan independientemente uno del otro. Donde el proceso
hace sus contribuciones (por ejemplo, un cambio de modo de automatización), las personas pueden
obtener diferentes puntos de vista, llegar a diferentes conclusiones o avanzar hacia decisiones
particulares. Lo que a su vez puede influir en cómo se gestiona el proceso. Esto significa que
descubrir cambios en uno puede llevarlo a una coyuntura en el otro. Las coyunturas en una secuencia
de eventos que conducen al fracaso se pueden identificar examinando la decisión de las personas, los
reinicios cognitivos, los cambios en el comportamiento o la estrategia, las acciones para influir en el
proceso y los cambios en el proceso mismo. Más sobre estos sigue a continuación.
GUÍA DE CAMPO DE ERRORES HUMANOS LXX

Decisiones

Las decisiones pueden ser coyunturas obvias, particularmente cuando se toman abiertamente
y se habla de ellas. Por ejemplo, la decisión de aceptar un cambio de pista deja un rastro de
comunicación entre el control de tránsito aéreo y los pilotos, y probablemente entre los
propios pilotos, y va acompañada de cambios en el proceso (cambio de rumbo de la aeronave,
velocidad de descenso, etc.). La decisión de no aceptar un cambio de pista sigue siendo una
decisión y también puede servir como marcador en la secuencia de eventos hacia la avería.

Reevaluaciones y resets cognitivos

En dominios donde el trabajo de las personas es dinámico y donde la evidencia sobre el


mundo que los rodea puede cambiar con el tiempo, las personas reevalúan sus circunstancias
de manera rutinaria. ¿Seguimos en curso? ¿Hacia dónde nos dirigimos ahora? ¿Voy a lograr mi
objetivo aquí? A veces, estas reevaluaciones pueden conducir a conocimientos fundamentales.
Donde la gente pensaba que estaba, no es en absoluto donde realmente estaba. Lo seguros
que pensaban que estaban no es en absoluto lo seguros que eran en realidad.

Bajo ciertas circunstancias, estas percepciones pueden venir incluso desde el interior del túnel, y
estarán marcadas por un comportamiento repentinamente diferente o estrategias diferentes (ver el
siguiente punto). Si es así, tales coyunturas se pueden marcar como "reinicios cognitivos", puntos en
los que las personas se dieron cuenta de que la situación era diferente de lo que creían antes.

Cambios en el comportamiento o la estrategia

Los reinicios cognitivos suelen ir acompañados de cambios en el comportamiento de las personas o


en su estrategia. Por ejemplo, un piloto puede pasar de una frenada normal a una frenada brusca
cuando se da cuenta de que no va a realizar una salida de pista planificada. Puede apagar el piloto
automático cuando observe que la aeronave no está capturando automáticamente un localizador o
cambiando a un modo esperado.
Tales cambios en el comportamiento humano, tales cambios en la forma en que las personas
manejan su proceso, pueden ser marcadores en los que desea comenzar a buscar reinicios
cognitivos, para las reevaluaciones de las personas y para la evidencia en la que se basaron. Y los
cambios en el comportamiento en sí mismos pueden, a su vez, estar vinculados a los cambios que
notó por primera vez en el proceso. Por ejemplo, hace un gráfico de la presión de los frenos y ve un
pico en algún lugar, donde el frenado obviamente aumentó significativamente.

Acciones para influir en el proceso

En lugar de cambios en el comportamiento o la estrategia que fueron el resultado de darse cuenta de que las cosas no
eran como las personas creían al principio, las acciones para influir en el proceso pueden provenir de las propias
intenciones de las personas. Por ejemplo, un piloto puede escribir un waypoint en particular
Prefacio LXXI

en su computadora de gestión de vuelo, para que la aeronave vuele de una u otra forma. Él o
ella puede cambiar de sistema, marcar la radio o comenzar un descenso.
Es posible que la evidencia de estas acciones no se origine en las acciones mismas, sino
en los cambios de proceso que se derivan de ellas. Es decir, es posible que no tenga ningún
registro de datos de los pilotos escribiendo, pero puede tener lecturas de lo que se le dijo al
piloto automático que hiciera en un momento determinado. Estas acciones pueden servir
como coyunturas importantes. No solo se refieren a sí mismos; también le dan una pista sólida
sobre la comprensión actual del ser humano de la situación: dónde pensaba el ser humano
que estaba; cómo él o ella quería proceder; en qué evidencia o en qué indicios probablemente
se basó.

Cambios en el proceso

Cualquier cambio significativo en el proceso que manejan las personas debe servir de coyuntura. No
todos los cambios en un proceso gestionado por personas en realidad provienen de personas. De
hecho, el aumento de la automatización en una variedad de lugares de trabajo ha llevado al potencial
de cambios de procesos autónomos en casi todas partes, por ejemplo:

• Secuencias de apagado automático u otras intervenciones;


• Alarmas que saltan porque un parámetro superó un umbral;
• Cambios de modo no ordenados;
• Recuperación autónoma de estados o configuraciones no deseadas.

Pero incluso si son autónomos, estos cambios de proceso no ocurren en el vacío.


Siempre señalan el comportamiento humano a su alrededor; comportamiento que lo
precedió y el comportamiento que lo siguió. Las personas pueden haber ayudado a
llevar el proceso a una configuración en la que se desencadenaron cambios autónomos.
Y cuando ocurren cambios, la gente los nota o no; la gente les responde o no.
La conexión entre los cambios de procesos autónomos y el comportamiento de las
personas le brinda pistas sólidas sobre lo que las personas entendían que eran sus
circunstancias actuales. Puede brindarle pistas sobre las preferencias y prioridades de las
personas, sobre cómo, por ejemplo, integraron presiones operativas o evidencia histórica en
sus respuestas a alarmas y advertencias. La naturaleza de las reacciones de las personas
también puede decirle qué conocimiento del sistema pueden o no haber poseído las personas.

Las coyunturas que no fueron coyunturas

Las decisiones, acciones y evaluaciones humanas también pueden ser menos obvias. Por
ejemplo, las personas parecen decidir, frente a la evidencia en contrario, no cambiar su curso
de acción; para continuar con su plan como está. En retrospectiva, puede ver que las personas
tuvieron la oportunidad de recuperarse de su malentendido de la situación, pero se perdieron
las señales o las malinterpretaron.
Estas "decisiones" para continuar, estas oportunidades para revisar, pueden
parecerle candidatos claros para coyunturas. Y estan. Pero son coyunturas sólo en
LXXII GUIA DE CAMPO DE ERRORES HUMANOS

comprensión retrospectiva. Para las personas atrapadas en la secuencia de eventos, no había


ninguna razón convincente para reevaluar su situación o decidir en contra de nada. O de lo
contrario lo habrían hecho. Estaban haciendo lo que estaban haciendo porque pensaban que
tenían razón; dada su comprensión de la situación; sus presiones.
Como una coyuntura en la secuencia de eventos que está presentando, el desafío
para usted es comprender cómo esto no fue una coyuntura para las personas que estaba
investigando. Cómo su "decisión" de continuar no fue más que un comportamiento
continuo, reforzado por su comprensión actual de la situación, confirmado por las
señales en las que se estaban enfocando y reafirmado por sus expectativas de cómo se
desarrollarían las cosas en el futuro cercano.

3. RECONSTRUIR LA SITUACIÓN EN CADA COYUNTURA

Cuando las personas que estás investigando hicieron lo que hicieron, habitaban un mundo
determinado. Un mundo se desplegaba a su alrededor. Mostró indicaciones sobre el estado de sus
procesos. Los parámetros cambiaban con el tiempo, tanto como resultado de la influencia humana
como del proceso que avanzaba: presiones cambiantes, proporciones, configuraciones, altitudes,
cantidades, modos, velocidades. Los valores de estos parámetros probablemente estaban disponibles
para las personas en todo tipo de formas: diales, pantallas, perillas que apuntaban a ciertas
direcciones, sonidos, anuncios de modo, alarmas, advertencias.
Identificar las conexiones entre estos parámetros cambiantes, por un lado, y lo que
la gente pensó, decidió e hizo, por el otro, lo lleva a acoplar el comportamiento y la
situación, a devolver el comportamiento observado a la situación que lo produjo y lo
acompañó. El paso tres se trata de reconstruir este acoplamiento en su sentido más
directo, utilizando indicaciones que estaban directamente disponibles en el mundo que
habitaban las personas en ese momento. El paso tres se trata de tomar las coyunturas
del paso dos y relacionarlas con cómo sabes que el mundo se estaba desarrollando
alrededor de las personas en esos momentos.
Establecer cómo algunos de los parámetros críticos cambiaron con el tiempo no es nada nuevo
para las investigaciones. Muchos apéndices de informes de accidentes contienen lecturas de
registradores de datos, que muestran los gráficos de parámetros de proceso conocidos y relevantes.
Pero construir estas imágenes es a menudo donde las investigaciones se detienen hoy. A veces se
hacen referencias tentativas sobre las conexiones entre los parámetros conocidos y las evaluaciones y
acciones de las personas, pero nunca de manera sistemática o gráfica.
El objetivo del paso tres es casar todas las coyunturas que ha identificado anteriormente
con el proceso de desarrollo: comenzar a ver los dos en paralelo, como una relación causal
inextricable.bailar a dos. El punto del paso tres es construir una imagen que muestre estas
conexiones; para crear un terreno común para que usted y otros investigadores ingresen y
comiencen su investigación.

Elegir entre trazas de datos


Prefacio LXXIII

Muchos procesos complejos y dinámicos son ricos en datos. Pueden dejar una enorme
huella electrónica de parámetros atrás. Esto puede producir su propia sobrecarga de
datos. ¿Cómo es posible que todo sea relevante para su investigación? O, si tuviera que
elegir algunos, ¿cómo podría estar seguro de que no está dejando de lado las claves
críticas? El problema es decidir cuál, de todos los parámetros, contó como un estímulo
para el comportamiento bajo investigación y cuál no. ¿Cuáles de estas indicaciones o
parámetros, y cómo evolucionaron con el tiempo, fueron realmente fundamentales para
influir en el comportamiento de su secuencia de percance? La respuesta está en la
naturaleza de los eventos mismos.

Estos son algunos ejemplos del mundo más ricamente dotado de dispositivos para rastrear y registrar
parámetros de procesos: aviación comercial: si el resultado de la secuencia de eventos fue una advertencia de
entrada en pérdida, entonces la velocidad aerodinámica y lo que hizo con el tiempo se convierte en un
parámetro relevante. para incluir. Si el resultado implica una salida de la superficie dura de una pista,
entonces la presión de los frenos es un parámetro en el que hay que centrarse. Si el resultado fue una
sorpresa de automatización, entonces los diversos cambios de modo por los que pasó la automatización,
incluidos sus anuncios, son lo que desea obtener.

Por supuesto, no puede considerar ninguno de estos parámetros de forma aislada. Las personas
hacen más que rastrear la velocidad aerodinámica o el frenado o observar los cambios de modo, y es
probable que hayan estado observando otras cosas que pueden tener relevancia para su secuencia
de eventos. Tendrá que usar el conocimiento de las personas involucradas, o de personas como ellas,
o de usted mismo, para comprender qué más pudo haber sido relevante en este contexto.

¿Cuándo estás seguro de haber cubierto los parámetros que necesitas? Después de pasar por la
reconstrucción de la forma de pensar de las personas, es posible que quede con lagunas en su
explicación de las evaluaciones y acciones de las personas. Si es así, es hora de comenzar a buscar
algunos parámetros más que podrían haber servido como estímulos críticos para influir en la
comprensión y el comportamiento de las personas, parámetros que antes no parecían obvios.

Proceso de conexión y comportamiento.

Una vez que haya decidido qué parámetros de proceso rastrear en su viaje hacia el resultado,
la siguiente etapa es relativamente fácil. Construye una imagen. Cree una imagen de los
parámetros críticos en torno a las coyunturas que recuperó en el paso dos.
El tipo de representación realmente no importa, y lo que funcione mejor puede depender
del tipo de secuencia de eventos que esté investigando. Puede dibujar gráficos de parámetros
de proceso relevantes que suban, bajen y vuelvan a subir a medida que las personas deciden y
actúan para lograr el resultado. Puede dibujar representaciones de instrumentos como deben
haber sido vistos en las distintas coyunturas. Si es relevante, puede
LXXIV GUÍA DE CAMPO DEL ERROR HUMANO

Dibuje un mapa geográfico del área en la que sucedieron las cosas y registre en él las
posiciones, evaluaciones y acciones de las personas a lo largo del tiempo.
Cualquiera que sea la forma de representación, en ella debe dar cuenta de todos los puntos de
decisión, los reinicios cognitivos, las oportunidades perdidas (en retrospectiva) que ha
identificado previamente; en resumen, todas las coyunturas. Esto significa que también debe
insertar los cambios que emanaron del proceso: las reversiones de modo, las alarmas, los
reinicios automáticos.
Con esta imagen, pueden comenzar a surgir conexiones entre cómo se veía el
mundo y qué hacía la gente. Ha vinculado gráficamente los parámetros de proceso
relevantes a las evaluaciones y acciones humanas que evolucionaron en concierto con
ellos. Aquí es donde uno puede comenzar a explicar al otro, y viceversa. Consulte la
figura 8.4 para ver un ejemplo.

"MI ”vamoso "A "I"Iddono


"MIXXpagpagmimid
délimite CCliyometro
”LVamos "ALLTT ”W
”Whhaatt
onortenorteno

soybb”” VVmimirtritCicaayoyo HHLLDD”” kknortenorteooww””


hhaapagpag--

SSpagpagmimimimidd””
pagpagmiminortenortemimidd??””

Valores de
Proceso
Parámetros

t1 t2 t3 t4 t5 Tiempo

Sidney Dekker

Figura 8.4: Conectar los parámetros críticos del proceso con la secuencia de evaluaciones y acciones de las personas y
otras coyunturas.

Queda aquí una pregunta. De los parámetros críticos que ha seleccionado y


elaborado, ¿qué notó realmente la gente? ¿Dónde miraron? Hay una respuesta
sistemática a esto, cubierta en el paso cuatro.

4. IDENTIFICAR TAREAS Y METAS

El paso tres revela solo cómo los datos relevantes del proceso estaban físicamente disponibles. Esto
es relativamente fácil de mostrar, una vez que haya decidido qué seguimientos de datos seguir y
Prefacio LXXV

pueden recuperar cómo evolucionaron con el tiempo. Pero el paso tres, mostrar la
disponibilidad de datos, es solo un paso hacia una explicación completa del error humano.
¿Por qué la gente se perdió ciertas cosas que sabemos que estaban allí? ¿Por qué se enfocaron
en una indicación y no en la otra?
Estas preguntas no se responden simplemente mostrando que los datos estaban
físicamente disponibles y retractándose contrafactualmente de que las personas deberían
haberlos notado. Deben responderse con un paso adicional en la reconstrucción de la
mentalidad en desarrollo: el dibujo de un hilo de tareas y objetivos a través de las coyunturas y
la situación circundante.
Las personas no deambulan por las situaciones sin rumbo, simplemente recibiendo
información y produciendo resultados a medida que avanzan. Están ahí para hacer un
trabajo, cumplir tareas, perseguir objetivos. Si hay algo que determina dónde miran las
personas y cómo interpretan lo que ven, son los objetivos que tienen en ese momento y
las tareas que intentan realizar.
Encontrar en qué tareas estaba trabajando la gente no tiene por qué ser difícil. A menudo
se conecta directamente con la forma en que los parámetros del proceso se desarrollaban a su
alrededor. Configurar los sistemas de navegación para una aproximación al aeropuerto, por
ejemplo, es una tarea que se extiende tanto a lo que las personas decían y hacían como a lo
que sucedía con el proceso que administraban. Cambiar un plan de vuelo en la computadora
de gestión de vuelo es otra. Para identificar qué tareas estaban tratando de realizar las
personas en cualquier coyuntura, hágase las siguientes preguntas:

• ¿Qué es canónico o normal en este momento de la operación? Las tareas se relacionan de


manera sistemática con las etapas de un proceso. Puede encontrar estas relaciones a
partir de su propio conocimiento o del de (otros) profesionales expertos en el campo.

• ¿Qué sucedía en el proceso gestionado? A partir de su registro de parámetros del paso tres,
puede ver cómo se configuraron los sistemas o se realizaron las entradas. Estos cambios
obviamente se conectan con la tarea que la gente estaba realizando.
• ¿Qué estaban haciendo otras personas en el entorno operativo? Las personas que trabajan
juntas en objetivos comunes a menudo dividen las tareas necesarias entre ellos de
manera predecible o complementaria. Puede haber divisiones de roles estándar, por
ejemplo, entre piloto que vuela y piloto que no vuela, que especifican las tareas para cada
uno. Lo que estaba haciendo un piloto puede dar algunas pistas sobre lo que estaba
haciendo el otro piloto.

Si encuentra que las imágenes hablan más claramente que el texto, cree una representación gráfica
de las principales tareas a lo largo del tiempo y, si es necesario, de quién estaba realizando qué. Esta
imagen también puede darle una buena impresión inmediata del tipo de carga de trabajo asociada
con la secuencia de eventos. Consulte la figura 8.5 para ver un ejemplo.
GUÍA DE CAMPO LXXVI ERROR HUMANO

"MI ”L "A "I


"MIXXpagpagmimid
délimite CCliyometro
”Lmimit'ts'sgramo "ALLTT ”W
”Whhaatt
"Iddoonorte

soybb”” gramooo VVmimirtritC HHLLDD”” nortenono kknortenorteooww””


hhaapagpag--

icaayoyo SSpagpagmimimimidd””
pagpagmiminortenortemimidd??””

Valores de
Proceso
Parámetros

t1 t2 t3 t4 t5 Tiempo

Tareas de
varios
gente

Sidney Dekker

Figura 8.5: Presentar las diversas tareas (superpuestas) que las personas estaban realizando durante la
secuencia de eventos

Puede colocar las tareas debajo de la imagen que surgió de los tres pasos anteriores.
Esta combinación indica en qué estaba ocupada la gente durante las coyunturas y los
cambios en los parámetros del proceso. Y una vez que tenga una idea de en qué estaba
ocupada la gente, puede comenzar a discernir lo que probablemente miraron, qué
parámetros les habrían parecido interesantes y cuáles habrían sido irrelevantes o
secundarios. También puede comenzar a tener una idea de cómo se interpretó la
evidencia sobre una situación en desarrollo en relación con la tarea que las personas
estaban realizando.
Puede ser más difícil identificar los objetivos más grandes que perseguían las personas. En la
aviación, espera que un objetivo tan primordial sea la "seguridad de vuelo". Pero, ¿cómo se traducen
estos objetivos en evaluaciones y acciones concretas? A veces, las decisiones y acciones locales
parecen contrarias a estos objetivos.

Por ejemplo, un piloto puede hacer todo lo posible para mantenerse visual con un aeropuerto donde acaba
de perder una aproximación. Esto puede ocasionar todo tipo de problemas, por ejemplo, acercarse al
terreno, ser forzado a descender por el desplazamiento de los techos de las nubes, entrar en conflicto con
otras aeronaves, perder la orientación, etc. Entonces, ¿por qué alguien lo haría? En el contexto en el que
operaba el piloto, en realidad puede ser una acción que se acerque más al objetivo de seguridad de vuelo.
¿En qué tipo de país estaba el aeropuerto? ¿Qué tan confiables eran las ayudas a la navegación a su
alrededor? ¿Qué tan buenos o comprensibles fueron los controladores? ¿Cuánto otro tráfico había alrededor?
Prefacio LXXVII

¿Qué tan familiarizado estaba el piloto con el área? ¿Había turbulencia severa en las nubes? Dado este
contexto, el objetivo de la seguridad de vuelo adquiere un significado diferente. Lograr la seguridad
de vuelo se traduce en diferentes evaluaciones y acciones en diferentes circunstancias, que al
principio pueden parecer contrarias a la intuición o al procedimiento.

Por lo tanto, comprender los objetivos que perseguían las personas y cómo se reflejaron en
evaluaciones y acciones concretas es otra forma de resituar el comportamiento en la situación
que lo rodeaba: el objetivo general de reconstruir la mentalidad en desarrollo. Las tareas y los
objetivos tiran hilos a través de múltiples coyunturas; conectan coyunturas de manera
significativa, coherente y razonable entre sí. Esta continuación significa que lo que la gente hizo
en cualquier momento, o en cualquier coyuntura, estuvo determinado no solo por lo que
vieron o pensaron en ese momento, sino también por:

• evaluaciones pasadas de la situación y lo que (pensaron que) estaban haciendo al


respecto;
• expectativas de cómo se desarrollaría en el futuro (cercano), dado lo que estaban
haciendo al respecto

Las evaluaciones y acciones en un punto pueden hacer referencia a las de un punto


anterior. O pueden señalar lo que la gente iba a hacer, o cómo entendieron que se
convertiría su situación. Tomar la visión de alguien dentro de la situación, entonces,
también significa darse a uno mismo la capacidad de mirar hacia atrás y hacia adelante
dentro de ella. Esto puede ayudarlo a comprender por qué lo que la gente hizo
realmente tenía sentido.

5. IDENTIFICAR OTRAS INFLUENCIAS EN LAS EVALUACIONES Y ACCIONES

Recuerde que el objetivo de reconstruir la mentalidad en desarrollo es descubrir por qué las
acciones y evaluaciones tenían sentido para las personas en ese momento. Si tiene suerte, este
es un problema parcialmente resuelto por ahora. Alrededor de cada una de las coyunturas en
la secuencia de eventos, ha reconstruido cómo fue el proceso. Ha estado haciendo lo que se
muestra en la figura 8.6: cubriendo el túnel con pedazos que encontró entre los escombros;
reconstruyendo el mundo tal como lo veían las personas en el interior. Has recuperado las
tareas que la gente estaba realizando; los objetivos que tenían. Todo esto puede haberlo
llevado a una mejor comprensión de por qué la gente hizo lo que hizo.
LXXVIII GUIA DE CAMPO DEL ERROR HUMANO

"MI "A
"ALLTT ”W
"MIXXpagpagmimidd ”L
”Lmimit'ts'sgramo
”Whhaatt "I"Iddoonorte

élimite CCliyometro HHLLDD”” nortenono k


soybb”” gramooo VVmimirtritCicaayoyo hhaapagpag-- knortenorteooww””

pagpagmiminortenortemimidd??””
SSpagpagmimimimidd””

Sidney Dekker

Figura 8.6: Tratando de reconstruir el túnel, la forma en que se veía por dentro: reconstruir la situación que
rodeaba las evaluaciones y acciones de las personas y otros cambios en el proceso.

Sin embargo, en muchos sentidos, estos pasos son solo eso: pasos en el camino hacia la reconstrucción de la
mentalidad en desarrollo. Es posible que aún quede con grandes lagunas en la explicación del
comportamiento. Una de las principales razones es que, hasta ahora, estos pasos vuelven a conectar el
comportamiento observado solo con factores directamente obvios y más fácilmente disponibles: los
parámetros que estaban físicamente disponibles en el entorno operativo de las personas que está
investigando.
Por supuesto, el comportamiento humano está determinado por muchos más factores que los
parámetros del proceso. Por regla general, sin embargo, otras influencias son menos visibles y más difíciles
de recuperar de los escombros. Tome las presiones organizacionales para elegir el cronograma sobre la
seguridad, por ejemplo. Tales presiones existen y ejercen una poderosa influencia en las muchas pequeñas
compensaciones locales que hace la gente. Sin embargo, especialmente después del fracaso, estos factores
se racionalizan fácilmente como irrelevantes o insignificantes. Como en: los verdaderos profesionales no
deberían ser susceptibles a ese tipo de presiones.
Tales reacciones, sin embargo, revelan una profunda deficiencia en la comprensión del
error humano. El siguiente capítulo se trata de reconstruir cómo la situación parecía más
alejada de las evaluaciones y acciones próximas de las personas. Se trata de encontrar las
conexiones menos obvias entre el comportamiento de las personas y las características de las
circunstancias en las que tuvo lugar.
Prefacio LXXIX

9. Pistas en los escombros

El capítulo anterior trataba sobre la reconstrucción de la realidad en desarrollo que


rodeaba a las personas que está investigando. ¿Cómo era su mundo? ¿Cómo
determinó o influyó en sus valoraciones y acciones? Y qué hicieron estas personas
para influir en la situación a su vez; para redirigir la secuencia de eventos?
Este capítulo lo lleva a la reconstrucción de la situación más profunda y más amplia que
rodea a estas personas. Le ayuda a encontrar y probar los factores y razones que son menos
visibles de inmediato, pero que ejercen una poderosa influencia en el comportamiento
humano. Este capítulo dirige su atención a:

• La historia de las operaciones: ¿Ha ocurrido una situación similar antes?


• La organización: ¿cómo influyó en las compensaciones y decisiones?
• La tecnología: ¿Cómo influyeron sus características en el desempeño humano?

MIRA EN LA HISTORIA

Ensayos generales

El período anterior a un percance puede contener secuencias de eventos que se parecen


al accidente o incidente real, pero sin el mismo mal resultado. Estos podrían llamarse
"ensayos generales".

En enero de 1992, un avión altamente automatizado se estrelló contra una montaña cerca del aeropuerto de
Estrasburgo, en el este de Francia. La confusión entre dos modos de automatización que podían gestionar el
descenso de la aeronave resultó ser central en el accidente. Los pilotos pretendían realizar una aproximación
automática con un ángulo de trayectoria de vuelo de 3,3 grados hacia la pista. Sin embargo, debido a una
conexión interna entre los modos de automatización horizontal y vertical en los sistemas informáticos de la
aeronave, la aeronave no estaba en el modo de ángulo de trayectoria de vuelo, sino que había pasado al
modo de velocidad vertical. Los pilotos tienen que usar la misma perilla en cualquier modo, por lo que marcar
3.3 resultó en una velocidad de descenso de 3300 pies por minuto, mucho más pronunciada que 3.3 grados.

Durante los años anteriores a este accidente, varias aerolíneas habían tenido secuencias de eventos similares:
los pilotos volaban en el modo Velocidad de descenso en lugar del modo Ángulo de trayectoria de vuelo. En estos
casos, se podrían realizar ida y vuelta. Una aerolínea incluso había desarrollado algunos ad-hoc específicos
GUÍA DE CAMPO DE ERRORES HUMANOS LXXX

entrenamiento preventivo para evitar este tipo de eventos, aunque comentó que los pilotos de
esta flota eran reacios a admitir que podría haber una deficiencia ergonómica en esta cabina.

Los ensayos generales le dicen que busque más contribuyentes sistémicos al comportamiento
en cuestión. ¿Cuáles son los puntos en común? ¿Cuál es la trampa en la que todo el mundo
parece caer? El contraste entre el ensayo general y el percance real también muestra lo que se
necesita para llevar un sistema al límite y lo que evitó un colapso completo antes.

Prueba de vestido:

"MI
"MIXXpagpagmimid ”L
"ALABAMA
"ALABAMATT
”W ”L”Looook
”Lmimit'ts'sddoo VVmimirtritCic ”Whhaat?t?”” k!”!”
HHLLDD””
délimite CCliyometro
soybb”” S
aayol Spagpagmimimimidd””

percance real:

"MI "A
"ALLTT ”W "Ino
"Iddno
"MIXXpagpagmimid ”L HHLLDD”” ”Whhaatt
délimite CCliyometro
soybb””
”Lmimit'ts'sgramogramooo VVmimirt

ritCicaayoyoSSpagpagmimimimidd””
h k
haapagpagpagpagmiminortenortemimidd??””knortenorteooww””

Sidney Dekker

Figura 9.1:Los ensayos generales para el percance real pueden ayudar a revelar condiciones más fundamentales que
contribuyen a este tipo de falla.

El accidente de Estrasburgo ocurrió de noche, en la nieve. Es probable que los ensayos generales se llevaran
a cabo en mejores condiciones, donde los pilotos tenían contacto visual con el suelo. Además, la aerolínea
que iba a Estrasburgo había optado por no instalar sistemas de advertencia de proximidad al suelo en su
avión debido a la alta tasa de falsas alarmas en los sistemas en ese momento y al hecho de que volaba
muchas misiones cortas en terreno montañoso, lo que exacerbaba la falsa alarma. problema. Un ensayo
general se salvó del desastre gracias a una advertencia de proximidad al suelo.

Que los ensayos generales puedan ocurrir localmente sin inversiones posteriores en
contramedidas serias también le da una pista sobre la percepción de riesgo y peligro de una
industria, y revela vulnerabilidades en su forma de compartir información crítica de seguridad
con otros operadores.

Casos de contraste
Prefacio LXXXI

Otros percances, ya sea en la misma organización o industria o no, pueden funcionar como casos de
contraste. Estas son situaciones que son en gran medida similares, pero donde las personas se
comportaron de manera ligeramente diferente, tomando otras evaluaciones o decisiones. Esta
diferencia es una pista poderosa de las razones del comportamiento incrustado en su situación.

El control de tráfico aéreo solicitó urgentemente a un avión comercial que utilizara una calle de rodaje de
salida rápida de la pista en la que acababa de aterrizar, debido al tráfico muy apretado detrás de él. El avión
no pudo hacer el giro final y momentáneamente se deslizó por completo fuera de la superficie dura. Volvió a
entrar en otra calle de rodaje y rodó hasta la puerta por sus propios medios. Aunque no existían
procedimientos en ese momento para decirles lo contrario, la aerolínea se preguntó por qué los pilotos
continuaron rodando, ya que la aeronave pudo haber sufrido daños desconocidos en las ruedas, las líneas de
freno, etc. (aunque resultó estar intacto).
No mucho antes, la aerolínea había tenido otro incidente en el que un avión similar había salido de la
superficie dura. Esto, sin embargo, ocurrió en un pequeño aeropuerto provincial, tarde en la noche, después
del último vuelo del día de la aeronave y los pilotos. El suyo era el único avión en el aeropuerto. Los pilotos
optaron por no rodar solos hasta la puerta de embarque, sino que desembarcaron a los pasajeros allí mismo
y remolcaron la aeronave. La torre de control estuvo involucrada en toda la operación.

Esto contrastó marcadamente con el otro caso, que ocurrió en el principal centro de operaciones de la
aerolínea. Muchos pasajeros tenían vuelos de conexión, al igual que los pilotos y sus aviones. Llovía mucho y
el viento soplaba con fuerza, lo que hacía que el desembarco en el campo fuera extremadamente indeseable.
Las personas en la torre de control parecían no haber notado el evento. Además, durante el tiempo que
habría llevado llevar los autobuses y una grúa al campo, la aeronave habría bloqueado una calle de rodaje
importante, casi obstruyendo los movimientos de las aeronaves que aterrizaban detrás de ella cada dos
minutos.

MIRA EN LA ORGANIZACIÓN

El número de formas en que las características organizativas pueden contribuir al fracaso es


ilimitado. Por ejemplo, puede haber contribuciones de:

• La división de responsabilidades
• Cultura organizacional
• Mantenimiento
• Supervisión
• Reglas y procedimientos
• Comunicación del personal y/o departamental
LXXXII GUIA DE CAMPO DE ERRORES HUMANOS

• Contratistas
• Planificación
• Moral
• Hora del día y programación
• Presiones comerciales y de operación
• Formación y selección
• Falta de personal

Algunas de estas posibles fuentes de error se han tratado en otros lugares de


la Guía de campo. El resto de esta sección presenta más indicaciones y
ejemplos1.

Recursos y limitaciones

La capacidad de las personas en el extremo afilado para evaluar y decidir como mejor les parezca
dadas las circunstancias, en realidad está influenciada y restringida por los recursos y las presiones
que provienen del contexto organizacional en el que trabajan. En otras palabras, el extremo romo
tiene una influencia significativa en la capacidad de las personas para desempeñarse bien en el
extremo afilado:

Una mujer fue hospitalizada con complicaciones graves de una infección abdominal. Unos días antes,
había visto a un médico quejándose de dolores, pero la enviaron a casa con el mensaje de que
regresara en ocho días para hacerse una ecografía si el problema persistía. Mientras tanto, su
apéndice estalló, causando una infección y requiriendo una cirugía mayor. El médico de la mujer
había estado bajo la presión de su organización de atención administrada, con incentivos y
desincentivos financieros, para controlar los costos de la atención y evitar gastos innecesarios.
procedimientos.2El problema es que un médico puede no saber que un procedimiento es innecesario
antes de realizarlo, o al menos realizar una parte de él. La evidencia preoperatoria puede ser
demasiado ambigua. Los médicos terminan en un doble vínculo difícil, creado por las diversas
presiones organizacionales.

Conflictos de goles

Aunque la "seguridad" casi siempre se menciona como el objetivo primordial de una organización,
nunca es el único objetivo (y en la práctica ni siquiera es un objetivo primordial medible), o la
organización no tendría ninguna razón para existir. Las personas que trabajan en estos sistemas

1
Ver para una discusión más detallada: Reason, JT (1997).Gestión de los riesgos de accidentes
organizacionales. Aldershot, Reino Unido: Ashgate.
2
International Herald Tribune, 13 de junio de 2000.
Prefacio LXXXIII

tienen que perseguir múltiples objetivos al mismo tiempo, lo que a menudo resulta en conflictos de
objetivos. El equilibrio entre la seguridad y el horario se menciona a menudo como un buen ejemplo.
Pero los conflictos de objetivos también pueden surgir de la naturaleza del trabajo en sí:

La anestesiología presenta interesantes conflictos de metas inherentes. Por un lado, los


anestesiólogos quieren proteger la seguridad del paciente y evitar ser demandados posteriormente
por mala práctica. Esto maximiza su necesidad de información del paciente y evaluación
preoperatoria. Pero los hospitales tienen que reducir costos continuamente y aumentar la rotación de
pacientes, lo que genera presión para admitir, operar y dar de alta a los pacientes el mismo día. Otras
presiones provienen de la necesidad de mantener relaciones y prácticas de trabajo fluidas con otros
profesionales (cirujanos, por ejemplo), cuyos horarios se entrelazan con los del
anestesiólogos.1

La complejidad de estos sistemas, y de la tecnología que emplean, también puede


significar que un tipo de seguridad debe compararse con otro:

El transbordador espacial Challenger se rompió y explotó poco después del despegue en 1986 porque los
gases calientes pasaron por alto las juntas tóricas de los cohetes impulsores. La falla a menudo se ha
atribuido a la decisión de que los cohetes impulsores deberían estar segmentados (lo que creó la necesidad
de anillos tóricos) en lugar de "tubos" sin costura. Los cohetes segmentados eran más baratos de producir,
un incentivo importante para una operación cada vez más escasa de efectivo.
La aparente compensación entre costo y seguridad oculta una realidad más compleja en la que un tipo
de seguridad tuvo que ser compensado por otro, sobre la base de evidencia incierta y tecnología no probada.
El diseño sin costuras, por ejemplo, probablemente no podría resistir los momentos de flexión previstos antes
del lanzamiento, o el impacto repetido del agua (que es donde terminarían los propulsores de cohetes
después de ser arrojados desde un transbordador ascendente). Además, los cohetes tendrían que ser
transportados (probablemente por tierra) desde el fabricante hasta el sitio de lanzamiento: los segmentos
individuales presentaban un riesgo significativamente menor en el camino que un cohete monolítico.
estructura llena de combustible para cohetes.2

Defensas violadas

1
Véase: Woods, DD, Johanssen, LJ, Cook, RI y Sarter, NB (1994). Detrás del error
humano: sistemas cognitivos, computadoras y retrospectiva. Dayton, OH: CSERIAC,
página 63.
2
Vaughan, D. (1996).La decisión de lanzamiento del Challenger.Chicago, IL: Prensa de la
Universidad de Chicago.
LXXXIV GUÍA DE CAMPO DEL ERROR HUMANO

Una forma cada vez más popular de pensar en los caminos hacia el fracaso es en forma de
ruptura o elusión de las defensas. Como se explicó en el capítulo 3, las organizaciones críticas
para la seguridad invierten mucho en múltiples capas de defensa contra trayectorias de falla
conocidas o posibles. Si ocurren fallas, entonces algo tiene que estar mal con estas capas de
defensa.

La historia de la fuga de grandes cantidades de isocianato de metilo (MIC) de la planta de pesticidas de Union
Carbide en Bhopal, India, en 1984 es una de las muchas defensas pasadas por alto, rotas, violadas o
inexistentes. Por ejemplo, la instrumentación en la sala de control de procesos era inadecuada: entre otras
cosas, su diseño no había tenido en cuenta las condiciones extremas: medidores fijos (saturados) a valores
muy por debajo de lo que realmente sucedía dentro del tanque MIC. Las defensas que podrían haber
detenido o mitigado la evolución posterior de los eventos se vieron comprometidas o simplemente no
estaban allí. Por ejemplo, ninguno de los operadores de la planta había recibido alguna capacitación sobre
procedimientos de emergencia. El sistema de refrigeración del tanque se había apagado y ahora no tenía
refrigerante líquido; el depurador de gases de ventilación se diseñó para neutralizar los gases MIC que se
escapan en cantidades 200 menos y a temperaturas más bajas que las que realmente se escapan; la torre de
antorcha (que quemaría el gas que se escapaba y estaba intacta) había sido desconectada de los tanques MIC
porque los trabajadores de mantenimiento habían retirado una tubería corroída y nunca la reemplazaron.
Finalmente, una cortina de agua para contener la nube de gas podría alcanzar solo 40 pies de altura en el
aire, mientras que el MIC se elevaba desde un agujero a más de 100 pies de altura.

Investigar qué capas de defensa se violaron o se eludieron revela más que solo las
razones de una falla en particular. La existencia de defensas (o los agujeros que
encuentre en ellas) aporta información valiosa sobre las creencias actuales de la
organización y la naturaleza de su comprensión de las vulnerabilidades que
amenazan la seguridad. Esto puede abrir oportunidades para contramedidas más
fundamentales (ver capítulo 11).
Contribuciones de los reguladores

La mayoría de las industrias críticas para la seguridad están reguladas de alguna manera. Con
los datos específicos de un accidente en la mano, siempre es fácil encontrar lagunas en las que
el regulador "falló" en su función de supervisión. Este no es un hallazgo muy significativo, sin
embargo. Identificar los descuidos regulatorios en retrospectiva no explica las razones de esas,
lo que ahora parecen, omisiones obvias. La carga de trabajo local, la necesidad de mantenerse
al día con las tecnologías y prácticas de trabajo en constante cambio y el hecho de que la
limitada experiencia técnica de muchos inspectores difícilmente puede prever los tipos de
secuencias complejas e interactivas que producen accidentes reales, todo conspira contra la
capacidad de un regulador para ejercer su papel. Si siente que debe dirigirse al regulador en su
investigación, no busque dónde se equivocó. Al igual que con la investigación de las
evaluaciones y acciones de los operadores, descubra cómo las compensaciones, percepciones
y juicios del regulador tenían sentido local en ese momento; por qué lo que estaban haciendo o
viendo era lo correcto dados sus objetivos, recursos y
Prefacio LXXXV

comprensión de la situación.
Otra queja que a menudo se presenta contra los reguladores es que se confabulan con
aquellos a quienes se supone que deben regular, pero esto es en gran medida una pista falsa
(y, curiosamente, casi todos no están de acuerdo con los regulados. Independientemente de
las afirmaciones de colusión, a menudo ven a los reguladores como atrasado, intrusivo y
amenazante). Para obtener la información que necesitan, los reguladores dependen en gran
medida de las organizaciones que regulan y probablemente incluso de las relaciones
personales con las personas de esas organizaciones. La elección, en realidad, es entre crear
una atmósfera de confrontación en la que será difícil acceder a las fuentes requeridas de
información relacionada con la seguridad, o una en la que se considere que una inversión
conjunta en seguridad es lo mejor para todos.

MIRA LA TECNOLOGÍA

El trabajo humano en dominios críticos para la seguridad casi sin excepción ha sido trabajo con
tecnología. Hoy en día, es cada vez más el trabajo con las computadoras. Esto significa que la
interacción humano-computadora es una fuente de error cada vez más dominante. La
tecnología informática ha dado forma e influido en la forma en que las personas cometen
errores. También ha afectado las oportunidades de las personas para detectar o recuperarse
de los errores que cometen y, por lo tanto, en algunos casos, aceleró sus viajes hacia el
colapso.
Como es el caso con las fuentes organizacionales de error, los errores humanos-computadores no son
aleatorios. También están sistemáticamente conectados a las características de las herramientas que

personas con las que trabajan y las tareas que tienen que realizar. Aquí hay una guía1, primero a algunos de
los "errores" que normalmente puede encontrar entre los escombros del percance del error humano. Luego,
una lista de las características de la computadora a partir de las cuales se originan estos errores, y luego una
lista de algunas de las consecuencias cognitivas de la computarización que se encuentran detrás de la
creación de esos errores. Este capítulo concluye con algunas observaciones sobre la conexión entre las
presiones organizacionales y las nuevas tecnologías.

Errores típicos

Si las personas estaban interactuando con computadoras en los eventos que llevaron al
percance, busque la posibilidad de los siguientes "errores":

• Error de modo. El usuario pensó que la computadora estaba en un modo e hizo lo

1
Gran parte del material de esta sección proviene de Woods, DD, Johanssen, LJ, Cook, RI y
Sarter, NB (1994).Detrás del error humano: sistemas cognitivos, computadoras y retrospectiva
. Dayton, OH: CSERIAC y Dekker, SWA y Hollnagel, E. (Eds.) (1999).Hacer frente a las
computadoras en la cabina. Aldershot, Reino Unido: Ashgate.
GUÍA DE CAMPO DE ERRORES HUMANOS LXXXVI

lo correcto había sido en ese modo, sin embargo, la computadora estaba en realidad en otro
modo;
• Perderseen arquitecturas de visualización. Las computadoras a menudo tienen solo una o unas pocas
pantallas, pero una cantidad potencialmente ilimitada de cosas que puede ver en ellas. Por lo tanto,
puede ser difícil encontrar la página o el conjunto de datos correctos;
• No coordinar las entradas de la computadora. Cuando las personas trabajan juntas en un
proceso (automatizado), tienen que invertir en un terreno común diciéndose unos a otros
lo que le dicen a la computadora y verificando el trabajo de los demás. Bajo la presión de
las circunstancias o la constante repetición sin sentido, tal coordinación puede no ocurrir
de manera consistente.
• Sobrecarga. Se supone que las computadoras descargan a las personas en su trabajo. Pero a
menudo la demanda de interactuar con las computadoras se concentra exactamente en
esos momentos en los que ya hay mucho que hacer; cuando otras tareas o personas
también compiten por la atención del operador. Puede encontrar que las personas
estaban muy ocupadas programando computadoras cuando otras cosas merecían
igualmente su atención;
• Sobrecarga de datos. Las personas se vieron obligadas a clasificar una gran cantidad de
datos producidos por sus computadoras y no pudieron localizar las piezas que habrían
revelado la verdadera naturaleza de su situación. Las computadoras también pueden
generar todo tipo de advertencias automáticas (visuales y auditivas) que saturan un
espacio de trabajo y proliferan las distracciones.
• No notar cambios. A pesar de las enormes oportunidades de visualización que ofrece la
computadora, muchas pantallas todavía se basan en valores digitales sin procesar (para
mostrar tasas, cantidades, modos, proporciones, rangos, etc.). Es muy difícil observar
cambios, tendencias, eventos o actividades en el proceso subyacente a través de un valor
digital haciendo clic hacia arriba o hacia abajo. Tienes que mirarlo a menudo o
continuamente, e interpolar e inferir lo que está pasando;
• Sorpresas de automatizaciónson a menudo el resultado final: el sistema hizo algo que el usuario
no esperaba. Especialmente en escenarios de alto ritmo y alta carga de trabajo, donde los
modos cambian sin comandos directos del usuario y las actividades de la computadora son
difíciles de observar, las personas pueden sorprenderse por lo que hizo o no hizo la
automatización.

Características de la computadora

¿Cuáles son algunas de las características de la tecnología informática actual que contribuyen
sistemáticamente a los tipos de errores discutidos en la sección anterior?

• Las computadoras pueden hacer que las cosas sean "invisibles"; pueden ocultar cambios y
eventos interesantes, o anomalías del sistema. La presentación de valores digitales para
parámetros críticos del proceso contribuye a esta "invisibilidad". La práctica de mostrar
sólo el sistemaestado(en qué modo está?) en lugar decomportamiento(¿Qué está
haciendo realmente el sistema, hacia dónde va?) es otra razón. Las interfaces pueden
parecer simples, pero en realidad esconden mucha complejidad.
Prefacio LXXXVII

• Las computadoras, debido a que solo tienen una o unas pocas interfaces (esto se denomina el "problema
del ojo de la cerradura"), pueden obligar a las personas a explorar una serie de páginas de visualización
para buscar e integrar los datos que realmente se requieren para la tarea en paralelo. .
Muchas pantallas no son la respuesta a este problema, por supuesto, porque la navegación a
través de las pantallas se convierte en un problema. Más bien, cada página de la computadora
debe presentar ayudas para la navegación (¿Cómo llegué aquí? ¿Cómo regreso? ¿Cuál es la
página relacionada y cómo llego allí?). De lo contrario, las secuencias de entrada o recuperación
pueden parecer arbitrarias y la gente se perderá.
• Las computadoras pueden obligar a las personas a administrar la interfaz (¿Cómo llego a esa
página? ¿Cómo la ponemos en este modo?) en lugar de administrar el proceso crítico para la
seguridad (algo que se prometió que la computadora les ayudaría a hacer). Estas cargas de
administración de interfaz adicionales a menudo se combinan con períodos de gran carga de
trabajo;
• Las computadoras pueden cambiar de modo de forma autónoma o de otras maneras que no
son ordenadas por el usuario (estos cambios de modo pueden resultar, por ejemplo, de
una lógica preprogramada, entradas mucho más tempranas, entradas de otras personas
o partes del sistema, etc.).
• Las computadoras generalmente le piden a la gente de las formas más rudimentarias o
sintácticas que verifiquen sus entradas (¿Estás seguro de que quieres ir a X? Entonces
iremos a X) sin abordar el significado de su solicitud y si tiene sentido dada la situación. . Y
cuando las personas le dicen a las computadoras que continúen, puede ser difícil hacer
que se detengan. Todo esto limita la capacidad de las personas para detectar y
recuperarse de sus propios errores.
• Las computadoras son inteligentes, pero no tan inteligentes. Las computadoras y la automatización pueden hacer
mucho por las personas: pueden ejecutar de manera casi autónoma un proceso crítico para la seguridad.
Sin embargo, las computadoras generalmente saben poco sobre la situación cambiante que las
rodea. Las computadoras asumen un mundo mayormente estable donde pueden continuar con
sus rutinas preprogramadas incluso si son inapropiadas; ejecutan diligentemente comandos de
usuario que no tienen sentido dada la situación; pueden interrumpir otras actividades de las
personas sin saber que están molestando seriamente.

Consecuencias cognitivas de la informatización

Las características de la tecnología informática discutidas anteriormente dan forma a la forma


en que las personas evalúan, piensan, deciden, actúan y coordinan, lo que a su vez determina
las razones de sus "errores":

• Las computadoras aumentan la demanda de la memoria de las personas (¿Qué era este
modo? ¿Cómo llegamos a esa página?);
• Las computadoras le piden a la gente que agregue a su paquete de habilidades y
conocimientos para administrar sus procesos (Cómo programar, cómo monitorear, etc.).
La capacitación puede no estar a la altura de estos nuevos requisitos de habilidades y
conocimientos: gran parte del conocimiento adquirido en la capacitación formal puede
permanecer inerte (en la cabeza, no disponible en la práctica) cuando los operadores se
enfrentan a los tipos de situaciones complejas que requieren su aplicación;
LXXXVIII GUIA DE CAMPO DE ERRORES HUMANOS

• Las computadoras pueden complicar la evaluación de la situación (es posible que no muestren el
comportamiento del sistema y muchos valores digitales) y socavar la gestión de la atención de
las personas (cómo saber dónde mirar y cuándo);
• Mediante nuevas formas de representar datos, las computadoras pueden interrumpir los patrones de
escaneo robustos y eficientes tradicionales de las personas;
• A través de la visibilidad limitada de cambios y eventos, el desorden de alarmas e
indicaciones, tareas adicionales de administración de interfaz y nuevas cargas de
memoria, las computadoras aumentan el riesgo de que las personas se retrasen en
operaciones de alto ritmo;
• Las computadoras pueden aumentar la confiabilidad del sistema hasta el punto en que las fallas
mecánicas son raras (en comparación con las tecnologías más antiguas). Esto le da a la gente
poca oportunidad de practicar y mantener las habilidades para las que, después de todo,
todavía están en parte: gestión de anomalías del sistema;
• Las computadoras pueden socavar la formación de las personas de modelos mentales
precisos de cómo funciona el sistema y el proceso subyacente, porque trabajar el proceso
crítico de seguridad a través de computadoras solo los expone a una variedad superficial
y limitada de experiencias;
• Las computadoras pueden inducir a error a las personas haciéndoles creer que saben más sobre el
sistema de lo que realmente saben, precisamente porque casi nunca se les muestra la
funcionalidad completa (ya sea en la capacitación o en la práctica). Esto se llama el problema de
calibración del conocimiento;
• Las computadoras pueden obligar a las personas a idear estrategias ("trucos de
programación") que son necesarias para realizar la tarea. Estos trucos pueden funcionar
bien en circunstancias comunes, pero pueden introducir nuevas vulnerabilidades y
aperturas para fallas en el sistema en otros.

Nueva tecnología y presiones operativas

¿Las nuevas tecnologías y las presiones operativas están relacionadas entre sí? La
respuesta es sí. La introducción de nuevas tecnologías puede aumentar los requisitos
operativos y las expectativas que las organizaciones imponen a las personas. Las
organizaciones que invierten en nuevas tecnologías a menudo, sin saberlo, explotan los
avances al requerir que el personal operativo haga más, lo haga más rápido, lo haga de
manera más compleja, lo haga con menos recursos o lo haga en condiciones cada vez
menos favorables.
Larry Hirschorn habla de una ley de desarrollo de sistemas, que es que cada
sistema siempre opera a su capacidad. Las mejoras en forma de nueva tecnología
se estiran de alguna manera, empujando a los operadores al borde del sobre
operativo desde el cual se suponía que la innovación tecnológica los protegería.

En la operación Tormenta del Desierto, durante la Guerra del Golfo, gran parte del equipo empleado
estaba diseñado para aliviar la carga del operador, reducir la fatiga y simplificar las tareas.
Prefacio LXXXIX

involucrado en el combate. En cambio, estos avances se utilizaron para exigir más del operador. Casi
sin excepción, la tecnología no cumplió con el objetivo de liberar al personal militar que operaba el
equipo. Los sistemas de armas y de apoyo a menudo requerían experiencia, compromiso y resistencia
humanos excepcionales. La Guerra del Golfo muestra que existe una sinergia natural entre las
tácticas, la tecnología y los factores humanos: los líderes efectivos explotarán cada
nuevo avance hasta el límite.1

1
Cordesman, AH y Wagner, AR (1996). Las lecciones de la guerra moderna, vol. 4: La
guerra del Golfo. Boulder, Colorado: Westview Press.
GUÍA DE CAMPO DE ERRORES HUMANOS XC

10. Datos de factores humanos

El capítulo anterior ha señalado partes de la evidencia que pueden ser


prometedoras o interesantes. Pero, ¿cómo se llega a esas partes? En otras
palabras, ¿cómo se obtienen los datos de factores humanos? Este capítulo
analiza tres rutas de acceso comúnmente utilizadas, cada una con sus
promesas y problemas:

• Fuentes históricas y de terceros;


• Debriefings de los propios participantes;
• Registros de desempeño de personas y procesos.

FUENTES HISTÓRICAS Y DE TERCEROS

Los datos sobre el desempeño de las personas y las razones detrás de él pueden
derivarse, por ejemplo, de:

• Entrevistar a compañeros u otras personas que puedan dar opiniones sobre


las personas investigadas;
• Escudriñar la capacitación u otros registros relevantes;
• Documentar lo que hicieron las personas en los días u horas previos al
percance.

Encontrar defectos personales.

En muchas investigaciones, estas rutas a los datos se utilizan principalmente como un


proceso de "eliminación"; como verificación de antecedentes para descartar
vulnerabilidades más antiguas que eran particulares de las personas en cuestión. Sin
embargo, la mayoría de los sistemas críticos para la seguridad invierten mucho en la
selección de personal, así como en el control continuo, la capacitación y la verificación de
la competencia. Esto significa que las deficiencias personales por parte de los operadores
individuales se descartan por completo antes de que puedan tocar los controles de
cualquier proceso.
Prefacio XCI

El uso de fuentes históricas y de terceros para conocer las características


individuales de las personas puede, de hecho, alimentar la teoría de la manzana podrida:
la creencia de que el sistema en sí mismo es básicamente seguro y no tiene nada que ver
con la falla que se investiga. El sistema solo contiene algunas manzanas podridas o
componentes rotos, y se deben encontrar pruebas que demuestren que estaban listos
para romperse en cualquier momento. La retrospectiva sesga seriamente la búsqueda de
evidencia sobre las deficiencias personales de las personas. Usted sabe dónde fallaron
las personas, por lo que sabe qué buscar y, con suficiente investigación, probablemente
también pueda encontrarlo (real o imaginario). Esto, sin embargo, no es muy
informativo. Engañará a las personas haciéndoles creer que el evento es solo un
problema local y desviará la atención de los problemas más sistémicos que cada
percance debe contener.

Encontrar deficiencias sistémicas

En cambio, las deficiencias locales de los operadores individuales pueden utilizarse como
punto de partida para investigar más a fondo las condiciones sistémicas de las que sus
problemas son un síntoma. Aquí hay unos ejemplos:

• A partir de su historial de 72 horas antes de un percance, se puede encontrar que


los operadores individuales se han fatigado. Esto puede no ser solo un
problema personal, sino una característica de su operación y programación, lo
que afecta a una mayor proporción de operadores;
• Los registros de capacitación a veces pueden revelar un progreso o rendimiento
por debajo del promedio de las personas que luego se ven envueltas en un
percance. Pero es solo la retrospectiva lo que conecta a los dos, lo que le
permite mirar hacia atrás a partir de un incidente específico y seleccionar las
deficiencias supuestamente asociadas de un registro histórico en el tiempo
libre. Encontrar evidencia real o imaginaria está casi predeterminado porque
vienes a buscarla desde una dirección hacia atrás. Pero esto no prueba ningún
vínculo causal específico con acciones o evaluaciones en la secuencia de
eventos. Los registros de capacitación son una fuente mucho más interesante
cuando se analizan las cosas en las que se capacitaron todos los operadores,
cómo y cuándo, ya que esto explica mucho mejor el desempeño local. Por
ejemplo, ¿Cómo fueron entrenados para reconocer una advertencia particular
que desempeñó un papel en la secuencia del percance? ¿Cuándo fueron
capacitados por última vez en esto? Las respuestas a estas preguntas pueden
revelar desajustes más fundamentales entre el tipo de formación que recibe la
gente y el tipo de trabajo que tiene que hacer;
• Es posible que se descubra que los operadores se han preocupado demasiado, por
ejemplo, por la satisfacción del cliente. En retrospectiva, esta tendencia puede
asociarse con una secuencia de contratiempos: los individuos deberían haber
zigzagueado (dar la vuelta, hacerlo de nuevo, desviarse, etc.) en lugar de zigzaguear.
GUÍA DE CAMPO DE ERRORES HUMANOS XCII

(Presionado por deseos de puntualidad). Se puede entrevistar a colegas para


confirmar qué tan orientados al cliente estaban estos operadores. Pero en
lugar de calificar a un individuo con un sesgo particular, tales hallazgos
apuntan a toda la organización que, de manera sutil o menos sutil,
probablemente ha estado patrocinando las compensaciones que favorecen
otras metas del sistema sobre la seguridad, manteniendo viva la práctica a lo
largo del tiempo.

INFORMES DE LOS PARTICIPANTES

Lo que parece una buena idea, pregúnteles a las personas involucradas en el


percance, también tiene un gran potencial de distorsión. Esto no se debe a que los
operadores necesariamente deseen falsear la verdad cuando se les pregunta sobre
su contribución al fracaso. De hecho, la experiencia muestra que los participantes
están interesados en averiguar qué salió mal y por qué, lo que generalmente los
hace francos acerca de sus acciones y evaluaciones. Más bien, los problemas surgen
debido a las características inherentes de la memoria humana:

• La memoria humana no funciona como una cinta de video que se puede rebobinar
y volver a reproducir;
• La memoria humana es una red de impresiones altamente compleja e
interconectada, para la cual rápidamente se vuelve imposible separar los
eventos reales y las señales que se observaron de las entradas posteriores;
• Una de las razones es que el cerebro humano tiene la propensión a ordenar y
estructurar eventos más de lo que eran en el mundo real; para hacer que los
eventos y las historias sean más plausibles.

Gary Klein ha dedicado muchos años a perfeccionar los métodos para informar a las
personas que se vieron atrapadas en incidentes críticos: bomberos, pilotos,
enfermeras, etc. Las ideas de estos métodos son valiosas para compartir con
investigadores de percances de errores humanos aquí1.

El objetivo de un debriefing

Las sesiones informativas de los participantes del percance tienen como objetivo principal ayudar a construir

1
Véase: Klein, G. (1998).Fuentes de poder: cómo las personas toman decisiones.
Cambridge, MA: MIT Press.
Prefacio XCIII

el túnel del capítulo 8; reconstruir la situación que rodeaba a las personas en ese
momento y obtener su punto de vista sobre esa situación. Algunas investigaciones
pueden tener acceso a una reproducción de cómo se veía el mundo (por ejemplo:
instrumentos de cabina, panel de control de procesos) durante la secuencia de
eventos, lo que puede parecer una herramienta maravillosa. Sin embargo, debe
usarse con precaución para evitar distorsiones de la memoria. Klein propone el
siguiente orden de información:

1. Primero, pida a los participantes que cuenten la historia desde su punto


de vista, sin presentarles repeticiones que "refrescarán su memoria";

2. Luego cuénteles la historia como investigador. Esta es una inversión en


un terreno común, para verificar si entiende la historia como la
entendieron los participantes;
3. Si aún no lo ha hecho, identifique (junto con los participantes) las
coyunturas críticas en la secuencia de eventos (ver capítulo 8);
4. Investigue y reconstruya progresivamente cómo veía el mundo la gente que
estaba dentro de la situación en cada coyuntura. Aquí es apropiado mostrar
una reproducción (si está disponible) para llenar los vacíos que aún puedan
existir, o para mostrar la diferencia entre los datos que estaban disponibles y
los datos que realmente se observaron.

En cada coyuntura de la secuencia de eventos, querrá saber:

• ¿Qué señales se observaron (qué notó/vio o no notó lo que esperaba


notar?)
• ¿Qué conocimientos se utilizaron para hacer frente a la situación? ¿Tuvieron
los participantes alguna experiencia con situaciones similares que fue útil
para lidiar con esta?
• ¿Qué expectativas tenían los participantes sobre cómo se desarrollarían
las cosas y qué opciones pensaban que tenían para influir en el curso
de los acontecimientos?
• ¿Cómo ayudaron otras influencias (operativas u organizacionales) a
determinar cómo interpretaron la situación y cómo actuarían?

Algunas de las preguntas de Klein para hacer

Aquí hay algunas preguntas que Gary Klein y sus investigadores suelen hacer para
averiguar cómo se ve la situación para las personas internas en cada una de las
coyunturas críticas:

señales ¿Qué estabas viendo?


GUÍA DE CAMPO DE ERRORES HUMANOS XCIV

¿En qué te estabas enfocando? ¿Qué


esperabas que pasara?
Interpretación Si tuvieras que describir la situación a tu compañero
miembro de la tripulación en ese momento, ¿qué le habría dicho?
errores ¿Qué errores (por ejemplo, en la interpretación) eran
probables en este punto?
Anterior ¿Te acordaste de alguna experiencia anterior?
experiencia/ ¿Esta situación se ajustaba a un escenario estándar?
conocimiento ¿Estabas capacitado para lidiar con esta situación? ¿Hubo
alguna regla que se aplicara claramente aquí? ¿Se basó en
otras fuentes de conocimiento para saber qué hacer?

Objetivos ¿Qué objetivos regían sus acciones en ese momento? ¿Hubo


conflictos o compensaciones para hacer entre los objetivos?

¿Hubo presión de tiempo?


Tomando acción ¿Cómo juzgó que podría influir en el curso de los
acontecimientos?
¿Discutió o imaginó mentalmente varias opciones o
supo de inmediato qué hacer?
Resultado ¿El resultado se ajustó a sus expectativas?
¿Tuviste que actualizar tu evaluación de la
situación?

No es necesario que las sesiones informativas sigan un conjunto de preguntas


estrechamente redactadas, ya que su relevancia depende en gran medida del evento y
su investigación. Pero estas sugerencias pueden ayudarlo con su tutorial de los pasos
anteriores

REGISTROS DE DATOS DE RENDIMIENTO

Una cosa que casi nunca falta en las investigaciones de errores humanos son los
deseos de más datos registrados y las ideas y propuestas novedosas para capturar
más datos de rendimiento. Este es especialmente el caso cuando los participantes
del percance ya no están disponibles para el informe.
Los avances en el registro de lo que la gente hizo han sido enormes: ha
habido una sucesión de materiales y estrategias de registro, tecnologías de
transferencia de datos; todo hasta propuestas para montar permanentemente
cámaras de video en cabinas y otros lugares de trabajo críticos. En aviación, la
huella electrónica que deja un piloto profesional en cada vuelo es enorme a
través de los sistemas de monitoreo automatizados ahora
Prefacio XCV

instalado en casi todos los aviones.


Sin embargo, obtener estos datos es solo una parte del problema. Nuestra capacidad
para dar sentido a estos datos, para reconstruir cómo las personas contribuyeron a una
secuencia de eventos en desarrollo, no ha seguido el ritmo de nuestra creciente capacidad
técnica para registrar rastros de su comportamiento. El problema que se entierra fácilmente en
el entusiasmo de las personas por las nuevas tecnologías de datos es que las grabaciones del
comportamiento humano, ya sea a través de la voz (por ejemplo, las grabadoras de voz de
cabina) o los parámetros del proceso (por ejemplo, las grabadoras de datos de vuelo), nunca
son el comportamiento real o completo.
Las grabaciones representan rastros de datos parciales: pequeñas ventanas del tamaño
de un buzón sobre evaluaciones y acciones que formaban parte de una imagen más grande. El
comportamiento humano en entornos ricos y cambiantes es mucho más que el rastro de datos
que deja atrás. Los rastros de datos apuntan más allá de ellos mismos, a un mundo que se
estaba desarrollando alrededor de las personas en ese momento, a tareas, objetivos,
percepciones, intenciones y pensamientos que desde entonces se han evaporado. Los
investigadores tienen la responsabilidad de combinar lo que la gente hizo con lo que sucedió a
su alrededor, pero varios problemas conspiran en contra de su capacidad para hacerlo:

Restricciones convencionales

Las investigaciones pueden estar formalmente restringidas en cuanto a cómo pueden


acoplar los rastros de datos registrados con el mundo (por ejemplo, indicaciones de
instrumentos, configuraciones del modo de automatización) que se desarrollaba
alrededor de las personas que dejaron esos rastros. Los convenios y las reglas sobre
investigaciones pueden prescribir cómo solo los datos que pueden establecerse de
hecho pueden analizarse en la búsqueda de la causa (este es, por ejemplo, el caso de la
aviación). Tales disposiciones dejan un registro de voz o datos como única huella fáctica,
descontextualizada y empobrecida de la actuación humana.

Falta de rastros de automatización.

En muchos dominios, este problema se ve agravado por el hecho de que es posible


que las grabaciones actuales no capturen rastros importantes relacionados con la
automatización, precisamente los datos de importancia inmediata para el entorno
de resolución de problemas en el que muchas personas realizan su trabajo. Gran
parte del trabajo humano operativo ha pasado del control directo de un proceso a
la gestión y supervisión de un conjunto de sistemas automatizados, y las secuencias
de accidentes suelen comenzar con pequeños problemas en la interacción hombre-
máquina.
No registrar rastros relevantes en la intersección entre las personas y la tecnología
representa una gran brecha en nuestra capacidad para comprender la humanidad.
GUÍA DE CAMPO DE ERRORES HUMANOS XCVI

contribuciones del hombre a la falla del sistema. Por ejemplo, los registradores de
datos de vuelo en muchos aviones automatizados no rastrean qué balizas de
navegación seleccionaron los pilotos, qué selecciones del panel de control del modo
de automatización sobre velocidad, rumbo, altitud y velocidad vertical se realizaron,
o qué se mostró en cualquiera de los pilotos. pantallas de mapa en movimiento.
Esto hace que sea difícil entender cómo y por qué se tomaron ciertas decisiones de
navegación lateral o vertical, algo que puede dificultar las investigaciones de
accidentes CFIT (Controlled Flight Into Terrain, una categoría importante de
percances de aeronaves).

EL PROBLEMA CON LOS DATOS DE FACTORES HUMANOS

Un problema con una investigación de errores humanos es la aparente falta de


datos. Puede pensar que necesita acceder a ciertos procesos o parámetros de
rendimiento para comprender no solo lo que hizo la gente, sino también por qué.
Las soluciones a esta carencia pueden ser técnicamente factibles, pero socialmente
desagradables (por ejemplo, cámaras de video en los lugares de trabajo), y en
realidad sigue siendo cuestionable si estas soluciones técnicas capturarían datos
con la resolución correcta o desde los ángulos correctos.
Esto significa que para conocer los parámetros críticos del proceso (por
ejemplo, ¿qué se mostró realmente en la pantalla del operador de la
izquierda?) tendrá que depender de la interpolación. Debe generar evidencia
para el parámetro que falta a partir de otros seguimientos de datos quehacer
tener acceso a. Por ejemplo, puede haber una expresión de uno de los
operadores que se refiera a la pantalla ("pero muestra que está a la
izquierda..." o algo por el estilo) que le dé suficientes pistas cuando se combina
con otros datos o conocimientos. sobre sus tareas y objetivos.
Reconocer que los datos no son algo absoluto. No hay una cantidad
finita de datos que pueda recopilar sobre un percance de error humano y
luego pensar que lo tiene todo. Los datos sobre el error humano son
infinitos y, a menudo, tendrá que reconstruir ciertos datos a partir de otros
datos, vinculando y creando puentes entre diferentes fuentes para llegar a
lo que desea saber.
Esto puede llevarlo a nuevos problemas. Por ejemplo, las
investigaciones pueden necesitar hacer una distinción entre datos fácticos
y análisis. Entonces, ¿dónde está el límite entre estos dos si comienzas a
derivar o inferir ciertos datos de otros datos? Todo depende de lo que
pueda establecer de hecho y de cómo lo establezca de hecho. Si hay una
estructura detrás de sus inferencias, en otras palabras, si puede mostrar lo
que hizo y por qué concluyó lo que concluyó, puede que no sea del todo
inaceptable presentar datos bien derivados como evidencia fáctica.
Prefacio XIII

11. Escribir recomendaciones

Proponer recomendaciones de factores humanos puede ser una de las tareas más difíciles en una
investigación. A menudo, sólo los remedios más superficiales parecen estar al alcance de la mano.
Dígale a la gente que tenga un poco más de cuidado. Escriba otro procedimiento para reglamentar su
comportamiento. O simplemente deshacerse de los sinvergüenzas particulares por completo. Las
limitaciones de tales contramedidas son severas y profundas, y están bien documentadas:

• Las personas solo observarán con más cuidado durante un tiempo, a medida que desaparezca la
novedad y la advertencia del percance;
• Un nuevo procedimiento chocará en algún momento con las demandas operativas o
simplemente desaparecerá en masas de otros trámites regulatorios;
• Deshacerse de los sinvergüenzas no elimina el problema en el que se
metieron. Otros siempre parecen estar esperando para seguir sus pasos.

En última instancia, una investigación de errores humanos debe apuntar a cambios que
realmente eliminen el potencial de error de un sistema, algo que otorga una gran importancia
a las recomendaciones significativas.

RECOMENDACIONES COMO PREDICCIONES

Proponer recomendaciones significativas puede ser más fácil si piensa en ellas como
predicciones o como una especie de experimento. El error humano está sistemáticamente
relacionado con las características de las tareas y herramientas con las que trabajan las
personas y con las características del entorno en el que realizan su trabajo. Las
recomendaciones básicamente proponen cambiar algunas de estas características. Ya sea que
desee nuevos procedimientos, nuevas tecnologías, nueva capacitación, nuevos enclavamientos
de seguridad, nuevas reglamentaciones, más compromiso gerencial, sus recomendaciones
esencialmente proponen reequipar o remodelar partes del entorno operativo u organizacional
con la esperanza de alterar el comportamiento que continúa dentro de él.

En este sentido sus recomendaciones son una predicción, una hipótesis. Propones
modificar algo e implícitamente predices que tendrá un cierto efecto en el
comportamiento humano. La fuerza de su predicción, por supuesto, depende de la
credibilidad de la conexión que ha mostrado anteriormente en su investigación:
GUIA DE CAMPO DEL ERROR HUMANO XCVIII

entre los errores humanos observados y las características críticas de las tareas, las
herramientas y el entorno. Con esta predicción en la mano, desafía a los responsables de
implementar sus recomendaciones para que sigan su experimento, para ver si, con el
tiempo, los cambios propuestos realmente tienen el efecto deseado en el desempeño
humano.

Recomendaciones de gama alta o baja

Entonces, ¿qué pasa con esos cambios? ¿Qué tipos de cambios puede proponer que podrían
tener algún efecto en el desempeño humano? Una opción básica que tiene abierta es qué tan
arriba en la cadena causal desea que los cambios recomendados tengan un impacto.
Una de las reacciones típicas ante el fracaso es que la gente empieza muy abajo o río abajo. Las
recomendaciones se centran en quienes cometieron el error, o en otros operadores como ellos. Las
recomendaciones bajas en la cadena causal tienen como objetivo, por ejemplo, volver a capacitar a
las personas que demostraron ser deficientes, degradarlas o deshacerse de ellas de alguna otra
manera. Otras recomendaciones de gama baja pueden sugerir procedimientos más estrictos,
presumiblemente reglamentando o limitando el comportamiento de seres humanos erráticos y poco
confiables.
Alternativamente, las recomendaciones pueden apuntar alto, aguas arriba en la cadena
causal, a las decisiones estructurales con respecto a los recursos, las tecnologías y las
presiones que enfrentan las personas en el lugar de trabajo. Las recomendaciones de alto nivel
podrían, por ejemplo, sugerir reasignar recursos a departamentos o actividades operativas
particulares.
Esta elección, río arriba o río abajo, es más o menos suya como
investigador. Y esta elección influye directamente:

• la facilidad con la que se puede implementar su recomendación;


• la efectividad de su cambio recomendado.

La facilidad de implementación y la efectividad de una recomendación implementada


generalmente funcionan en direcciones opuestas. En otras palabras: cuanto más fácil se
pueda vender e implementar la recomendación, menos efectiva será (ver Figura 11.1).

En general, las recomendaciones de cambios en la parte baja de la cadena causal no son


muy amplias. Se concentran en unos pocos individuos o en una pequeña subsección de una
organización. Estas recomendaciones son satisfactorias para las personas que buscan
retribución por un percance, o las personas que quieren "dar ejemplo" criticando a quienes
cometieron los errores.
Pero después de la implementación, queda la posibilidad de que se produzcan los
mismos tipos de errores en la organización u operación. Es casi seguro que el error se repetirá
de alguna forma, a través de otra persona que se encuentre en una situación similar. Las
recomendaciones básicas realmente se ocupan de los síntomas, no de las causas. Después de
su implementación, el sistema en su conjunto no se ha vuelto mucho más sabio o mejor.
Prefacio XCIX

Alto
"Gama alta"
recomendaciones

"De gama baja"

recomendaciones
Bajo

Esfuerzo de implementación

Figura 11.1: El compromiso entre recomendaciones que serán más fáciles de implementar y
recomendaciones que realmente tendrán algún efecto duradero.

Una de las razones de la ilusión de que las recomendaciones de gama baja u otras recomendaciones
limitadas evitarán la recurrencia es la idea de que las secuencias de fallas siempre toman un camino
lineal: Tome cualquier paso en el camino fuera de la secuencia y la falla ya no ocurrirá (vea la figura
11.2). ).
En sistemas complejos y dinámicos, sin embargo, este casi nunca es el caso. El camino
hacia el fracaso rara vez es lineal, estrecho o simple. Los percances tienen patrones densos de
causas, con contribuciones de todos los rincones y partes del sistema, y generalmente
dependen de muchas interacciones sutiles. Poniendo una contramedida en su lugar
en algún lugar a lo largo de
C GUÍA DE CAMPO DE ERRORES HUMANOS

Recomiende una contramedida aquí

Para evitar que se repita aquí

"MI
"MIXXpagpagmimid
délimite CCliyometro
soybb””

Sidney Dekker

Figura 11.2: Podemos creer que bloquear un camino conocido hacia la falla en algún lugar del camino evitará
todos los percances similares.

(lo que pensabas que era) una línea puede no ser suficiente. Al diseñar contramedidas,
es crucial comprender las vulnerabilidades a través de las cuales partes enteras de un
sistema (las herramientas, tareas, características operativas y organizacionales) pueden
contribuir a la falla del sistema bajo diferentes formas o condiciones (ver figura 11.3).

"MI "A
"ALLTT
"MIXXpagpagmimid ”W
”Whhaat?t?””
"MI
"MIhh...”.”
délimite CCliyometro HHLLDD””
soybb””

"MI
"MIXXpagpagmimidd

”L
élimite DDmimissCCmiminortenortet”t”
”Lmimit'ts'sgramogramooo VVmimi

rtritCicaayoyoSSpagpagmimimimidd””

Sidney Dekker

Figura 11.3: Sin comprender y abordar las vulnerabilidades más profundas y sutiles que conducen a los caminos
hacia el fracaso, dejamos abiertas las oportunidades para la recurrencia.

Dificultades con las recomendaciones de gama alta


Prefacio CI

Cuanto más alto apunte en una cadena causal, más difícil será encontrar aceptación
para su recomendación. El cambio propuesto probablemente será sustancial,
estructural o general. Casi seguro que será más caro. Y puede preocupar a aquellos
que están tan alejados de los detalles operativos que fácilmente pueden afirmar
que no tienen ninguna responsabilidad en la causa de este evento o en ayudar a
prevenir el próximo. Aparte de decir que sería demasiado costoso, las
organizaciones son buenas para encontrar razones por las cuales las
recomendaciones estructurales no necesitan implementarse, por ejemplo:

• "Ya nos fijamos en eso"


• "Eso está en el manual"
• "Este no es nuestro papel"
• "Tenemos un procedimiento para cubrir eso"
• "Esta recomendación no tiene relevancia para el percance"
• "Las personas son seleccionadas y capacitadas para lidiar con eso"
• "Este no es nuestro problema"

Es fácil desanimarse como investigador incluso antes de comenzar a escribir recomendaciones.


De hecho, muchas recomendaciones que apuntan muy alto en la cadena causal no surgen de
las primeras investigaciones, sino de consultas reabiertas, o de las que se vuelven a presentar
a autoridades superiores después de expresiones convincentes de descontento con
conclusiones anteriores.

Uno de esos casos fue el accidente de un avión DC-10 en el Monte Erebus en la Antártida. La causa
probable del Informe de Accidente de Aeronave fue la decisión del comandante de continuar el vuelo
a baja altura hacia una zona de poca definición de superficie y horizonte cuando la tripulación no
estaba segura de su posición. Los tipos de recomendaciones que se derivan de tal declaración de
causa probable no son difíciles de imaginar. Procedimientos más estrictos; exhorte a los capitanes a
tener más cuidado la próxima vez.
Una Comisión de Investigación posterior determinó que la causa principal fue el error de los
funcionarios de la línea aérea que programaron las computadoras de la aeronave, un error
directamente atribuible no tanto a las personas que lo cometieron, sino a los procedimientos
administrativos de la línea aérea que hicieron posible el error. Los tipos de recomendaciones que se
derivan de esta conclusión serían diferentes y apuntarían más al extremo superior. Revisar toda la
operación a la Antártida y la forma en que se prepara y gestiona. instituto doble
comprobación de la programación informática. Etcétera.1

El caso para incluir o enfatizar recomendaciones de alto nivel en una primera investigación es
sólido. En todo caso, es desalentador tener que investigar el mismo incidente o accidente
básico dos veces. Es más probable que los cambios estructurales tengan un efecto en la
operación en su conjunto, al eliminar o eliminar las trampas de error que

1
Véase: Vette, G. (1983).Impacto Erebus. Auckland, Nueva Zelanda: Hodder & Stoughton.
GUÍA DE CAMPO DE ERRORES HUMANOS DE CII

de lo contrario permanecería presente en el sistema.

Recuerde del capítulo 4 que la investigación del juez Moshansky sobre el accidente de Air Ontario
generó 191 recomendaciones. La mayoría de estos eran de gama alta. Ellos se preocuparon por
ejemplo1:

• Asignación de recursos a actividades de seguridad versus producción;


• Gestión inadecuada de la seguridad tanto por parte de la línea aérea como de la autoridad;
• Gestión del cambio organizacional;
• Deficiencias en operaciones y mantenimiento;
• Deficiente gestión e introducción de nuevas aeronaves;
• Líneas de comunicación deficientes entre la gerencia y el personal;
• Programación deficiente (sobrecompromiso de esta aeronave en particular);
• Supervisión y auditoría deficientes;
• Deficiente inspección y control y manejo de la información;
• Adquisición inadecuada de repuestos;
• Baja motivación e inestabilidad laboral tras la fusión de aerolíneas;
• Diferentes culturas corporativas;
• Alta rotación de empleados;
• apoyo deficiente al personal operativo;
• Elaboración de políticas inadecuadas por parte de la aerolínea y la autoridad.

Estas son solo algunas de las áreas donde se hicieron recomendaciones. Con una investigación
seria de errores humanos, muchos de estos tipos de condiciones probablemente puedan
descubrirse en cualquier sistema complejo. La capacidad de generar recomendaciones
estructurales que apunten alto en una cadena causal es un reflejo de la calidad y profundidad
de su comprensión del error humano.

BÚSQUEDA DE PRUEBAS PARA CONTRAMEDIDAS

El tipo y contenido de sus recomendaciones depende, por supuesto, del tipo y


contenido del percance que está investigando. Pero para llegar a recomendaciones
de alto nivel, puede ser útil revisar algunas de las contribuciones organizacionales
al fracaso del capítulo 9. Por ejemplo:

• La reasignación de recursos que fluyen del extremo romo, y la

1
Moshansky, vicepresidente (1992).Comisión de investigación sobre el accidente de Air Ontario en
Dryden, Ontario(Informe final, vol. 1-4). Ottawa, ON: Ministro de Abastecimiento y Servicios,
Canadá.
Prefacio CIII

el alivio de las restricciones que se imponen a las decisiones y compensaciones locales de los
operadores;
• Hacer explícitos los conflictos de metas y convertirlos en temas de discusión entre
los involucrados;
• Reinvertir en las defensas que resultaron frágiles, rotas o inexistentes;

• Hacer que el acceso regulatorio sea más significativo a través de un nuevo examen de la
naturaleza y profundidad de la relación entre el regulador y el operador.

Obtener ayuda de los participantes.

Si es posible, puede ser fructífero desarrollar la lista anterior hablando con los propios
participantes. Estas son algunas de las preguntas que Gary Klein y sus investigadores
hacen a los participantes cuando buscan contramedidas contra la recurrencia del
percance:

• ¿Qué te hubiera ayudado a obtener la imagen correcta de la situación?


• ¿Habría ayudado alguna capacitación específica, experiencia, conocimiento,
procedimientos o cooperación con otros?
• Si una característica clave de la situación hubiera sido diferente, ¿qué habría hecho de
manera diferente?
• ¿Podría una orientación más clara de su empresa haberlo ayudado a hacer mejores
concesiones entre objetivos en conflicto?

Las respuestas a estas preguntas no solo pueden identificar contramedidas en las que quizás
aún no había pensado. También pueden servir como un control de la realidad. ¿Las
contramedidas que piensa proponer tendrán algún efecto sobre el tipo de situación que está
tratando de evitar? Preguntar a los propios participantes, quienes después de todo tienen un
conocimiento íntimo de la situación que está investigando, puede ser una buena idea.
GUÍA DE CAMPO DE ERRORES HUMANOS DE CIV

12. Aprendiendo del fracaso

El objetivo de cualquier investigación es aprender del fracaso. Los percances, en este sentido,
son una ventana de oportunidad. Las consecuencias inmediatas de un percance suelen crear
una atmósfera en la que:

• Es posible que partes de una organización acepten el autoexamen más que antes;
• Las líneas tradicionales entre la gerencia y los operadores, entre los reguladores y los operadores,
pueden desdibujarse temporalmente en los esfuerzos conjuntos para averiguar qué salió mal y
por qué;
• Las personas y los sistemas en los que trabajan pueden estar abiertos al cambio, aunque sea por
poco tiempo;
• Es posible que haya recursos disponibles que de otro modo estarían dedicados únicamente a la
producción, algo que podría hacer que incluso las recomendaciones más difíciles para el cambio
sean realistas.

Sin embargo, solo hacer la investigación no garantiza el éxito en la capitalización de


esta ventana de oportunidad. Aprender del fracaso es algo más que elegir la
evidencia de que algo salió mal. El aprendizaje consiste en modificar las
suposiciones y creencias básicas de una organización. Se trata de identificar,
reconocer e influir en las fuentes reales de vulnerabilidad operativa. En realidad,
esto se puede hacer incluso antes de que ocurran fallas reales, y el resto de este
capítulo trata sobre las oportunidades y dificultades del aprendizaje organizacional
antes y después de las fallas.

INVERTIR EN UNA CULTURA DE SEGURIDAD

Por lo general, la seguridad pasa a primer plano solo en ciertos momentos: los momentos de
percances aterradores, sorprendentes y generalmente costosos. Pero no tiene por qué ser así.
Las señales sobre la seguridad (o la falta de ella) existen en una organización y operación en
cualquier momento y pueden identificarse. La clave mencionada con más frecuencia para esto
es una cultura de seguridad.

UNA CULTURA DE SEGURIDAD ES AQUELLA QUE


PERMITE AL JEFE ESCUCHAR MALAS NOTICIAS
Prefacio CV

El problema "fácil" y "difícil" de una cultura de seguridad

Sin embargo, la creación de una cultura de seguridad presenta a la organización dos


problemas: uno fácil y otro difícil. El problema fácil (de ninguna manera fácil, en realidad, pero
comparativamente sencillo) es asegurarse de que las malas noticias lleguen al jefe. Muchas
organizaciones han instituido sistemas de informes de seguridad que hacen exactamente eso:
identificar y abordar los problemas antes de que se conviertan en incidentes o accidentes.

El problema difícil es decidir qué es una mala noticia. El Capítulo 4, que analiza la "complacencia"
como una etiqueta para el error humano, muestra que una operación u organización completa puede
cambiar su idea de lo que es normativo y, por lo tanto, cambiar lo que cuenta como malas noticias. El
desempeño a tiempo puede ser normativo, por ejemplo, incluso si significa que los operadores, sin
saberlo, toman prestado de la seguridad para lograrlo. En tales casos, la naturaleza apresurada de
una salida o llegada no es una mala noticia que valga la pena informar (o escuchar, para el caso). Es la
norma que todos intentan cumplir, ya que satisface otros objetivos importantes de la organización
(servicio al cliente, ganancias financieras) sin comprometer la seguridad de forma evidente.

Las auditorías externas son una forma de ayudar a una organización a romper con la
percepción de que su seguridad no está comprometida. En otras palabras, los observadores neutrales
pueden detectar mejor las "malas noticias" entre lo que son decisiones y acciones normales y
cotidianas para las personas internas.

SIGNOS DE NO APRENDER DEL FRACASO:

La mayoría de las organizaciones tienen como objetivo aprender de las fallas, ya sea después de que hayan
ocurrido o antes de que ocurran. El camino para aprender del fracaso generalmente está pavimentado con
intenciones de adoptar la nueva visión del error humano; ver el error humano como un síntoma de un
problema sistémico más profundo. Pero muchos obstáculos se interponen en el camino, frustrando los
intentos de aprender, ya sea después de un fracaso grave o en el camino hacia uno. Aquí hay algunos signos
de personas que no aprenden: todas son formas en que las organizaciones intentan limitar la necesidad de
un cambio fundamental:

"Errar es humano"

Aunque es una postura indulgente, las organizaciones que sugieren que "errar es simplemente
humano" pueden normalizar el error hasta el punto en que ya no se interpreta como un signo de un
problema más profundo.
GUÍA DE CAMPO DE ERRORES HUMANOS CVI

"Hay un lugar donde los médicos pueden hablar con franqueza sobre sus errores. Se llama
Conferencia de Morbilidad y Mortalidad, o más simplemente, M. & M. Surgeons, en particular, toman
M. & M. en serio. Aquí pueden reunirse detrás puertas cerradas para revisar los errores, las
complicaciones y las muertes que ocurrieron durante su mandato, determinar la responsabilidad y
decidir qué hacer diferente la próxima vez".
Siendo un instrumento sofisticado para tratar de aprender de los fracasos, M. & M. supone que todos los
médicos pueden cometer errores, pero que ningún médico debería hacerlo; evitar errores es en gran medida una
cuestión de voluntad. Esto puede truncar la búsqueda de condiciones más profundas que produzcan errores. De
hecho, "el M&M no tiene en cuenta nada de esto. Por esa razón, muchos expertos lo ven como un enfoque bastante
deficiente para analizar el error y mejorar el desempeño en medicina. No es suficiente preguntar qué podría o qué
podría hacer un médico". debería haber hecho de manera diferente para que él y los demás puedan aprender para la
próxima vez. El médico a menudo es solo el actor final en una cadena de eventos que lo llevan al fracaso. Los expertos
en errores, por lo tanto, creen que es el proceso, no el

individuos en él, lo que requiere un examen más detenido y corrección".1

"Ejemplos de configuración"

Las organizaciones que creen que tienen que "dar ejemplo" castigando o reprendiendo a los
operadores individuales no están aprendiendo del fracaso. La ilusión está ahí, por supuesto: si
el error tiene repercusiones para los individuos, entonces otros también aprenderán a ser más
cuidadosos.
El problema es que en lugar de hacer que las personas eviten los errores, una
organización hará que las personas eviten informar los errores o informar las condiciones que
pueden producir tales errores.

En una organización, no es inusual que los nuevos operadores violen los procedimientos operativos como
una especie de "rito de iniciación" cuando se califican para trabajar en una nueva máquina. De este modo,
muestran a los operadores veteranos que pueden manejar la nueva máquina igual de bien. Sin duda, no
todos los nuevos operadores participan, pero muchos sí. De hecho, es difícil estar seguro de cuántos
participan. Sin embargo, ocasionalmente, las noticias de las violaciones llegan a la gerencia. Responden
castigando a los infractores individuales (típicamente degradándolos), y así "dar ejemplo".
El problema es que en lugar de mitigar la arriesgada práctica de iniciación, estas respuestas
organizacionales la afianzan. La presión sobre los nuevos operadores ahora no es solo para violar las reglas,
sino también para asegurarse de que no los atrapen haciéndolo, lo que hace que el rito de iniciación sea aún
más emocionante para todos. El mensaje para los operadores es: no se dejen atrapar violando las reglas. Y si
te atrapan, mereces que te castiguen, no porque hayas violado las reglas, sino porque fuiste lo
suficientemente tonto como para que te atraparan.
Se lanzó una propuesta para convertir a algunos operadores, que fueron atrapados violando las
reglas aún más de lo habitual, en maestros para nuevos operadores. Estos maestros podrían

1
Gawande, A. (1999). Cuando los médicos cometen errores.El neoyorquino, 1 de febrero,
páginas 40-55.
Prefacio CVII

contar desde su propia experiencia sobre las presiones y riesgos de la práctica y obtener la
calificación. Sin embargo, la gerencia rechazó la propuesta porque todos los operadores esperaban el
castigo de los perpetradores. Se pensaba que "promoverlos" a maestros enviaba un mensaje
completamente equivocado: mostraría que la gerencia toleraba la práctica.

compartimentación

Una forma de manejar la información que amenaza las creencias y suposiciones básicas
sobre la seguridad del sistema es compartimentarla; para contenerlo.

En la organización descrita anteriormente, el "rito de iniciación" tiene lugar cuando los nuevos operadores
califican para trabajar en una nueva máquina. Entonces, nominalmente, sucede bajo los auspicios del
departamento de capacitación. Cuando otros departamentos se enteran de la práctica, todo lo que hacen es
voltear la cabeza y declarar que es un "problema de capacitación". Un problema, en otras palabras, del que
no tienen parte y del que no tienen nada que aprender.

El problema es que la compartimentación limita el alcance de la información de seguridad. La


suposición subyacente a la compartimentación es que la necesidad de cambiar, si es que existe
alguna necesidad, es aislada: es el problema de otra persona. No hay una lección más grande
que aprender (sobre la cultura, por ejemplo) a través de la cual toda la organización pueda ver
la necesidad de un cambio. En el ejemplo anterior, ¿no fueron todos los operadores, también
todos los operadores fuera del departamento de capacitación, una vez nuevos operadores y,
por lo tanto, tal vez expuestos o afectados por las presiones que representa el rito de
iniciación?
Lo que parece caracterizar a las organizaciones de alta confiabilidad (aquellas que
invierten mucho en aprender de las fallas) más que nada es la capacidad de identificar puntos
en común entre incidentes. En lugar de que los departamentos se distancien de los problemas
que ocurren en otros momentos o lugares y se concentren en las diferencias y características
únicas (reales o imaginarias), buscan similitudes que contengan lecciones para que todos
aprendan.

OBSTÁCULOS PARA EL APRENDIZAJE

Es posible que podamos reconocer los signos de las organizaciones que no aprenden del fracaso.
Pero ¿por qué no lo hacen? Aparte de las razones ya mencionadas en el capítulo uno (restricciones de
recursos, reacciones al fracaso, sesgo retrospectivo, factores humanos limitados
GUÍA DE CAMPO DEL ERROR HUMANO CVIII

conocimiento), hay más obstáculos institucionalizados para aprender del fracaso.

La gerencia eran los propios operadores.

Lo que caracteriza a muchas organizaciones críticas para la seguridad es que los gerentes
senior a menudo eran operadores ellos mismos, o todavía lo son (a tiempo parcial). Por
ejemplo, en los hospitales, los médicos dirigen los departamentos, en las líneas aéreas, los
pilotos. Por un lado, esto proporciona una oportunidad. Los gerentes pueden identificarse con
los operadores en términos de las presiones y dilemas que existen en sus trabajos, lo que les
facilita el acceso a las fuentes subyacentes de error.
Pero también puede resultar contraproducente. El hecho de que los gerentes alguna vez fueron
ellos mismos operadores puede restarles credibilidad a la hora de proponer cambios fundamentales
que afectan a todos.

La organización de los ejemplos anteriores es una en la que la alta dirección está formada por
operadores o exoperadores. ¿Qué pasaría si la gerencia quisiera reducir los riesgos asociados con la
práctica de iniciación o eliminarla por completo? Ellos mismos alguna vez fueron nuevos operadores y
muy probablemente hicieron lo mismo cuando se calificaron. Es difícil para ellos lograr credibilidad en
cualquier propuesta para frenar la práctica.

Gestión de la seguridad demasiado entusiasta

A veces, el proceso formal de investigar contratiempos y proponer recomendaciones


para el cambio puede en sí mismo obstaculizar el aprendizaje del fracaso. Después de
una falla, la presión para generar hallazgos y recomendaciones rápidamente puede ser
enorme, dependiendo de la visibilidad de la industria. Una preocupación intensa por la
seguridad (o mostrar tal preocupación) puede traducirse en presión para llegar a un
cierre rápido, algo que puede conducir a un estudio superficial del percance y sus
fuentes más profundas.
Además, la preocupación por la seguridad en una empresa o en una industria puede promover
la creación de departamentos de seguridad y especialistas en seguridad. Ha habido casos en los que
los profesionales de la seguridad se han divorciado de las operaciones diarias hasta el punto de que
solo tienen una visión muy idealizada de los procesos de trabajo reales y ya no pueden identificarse
con el punto de vista de las personas que realmente realizan el trabajo crítico para la seguridad. cada
día.

Estadísticas y el mito del 70%

Una cosa que crean los sistemas de notificación de incidentes es la ilusión de racionalidad
estadística. En todas las industrias, los casos de error humano se cuentan y tabulan,
categorizan y juntan. La suposición es que todo comportamiento humano "errático"
Prefacio CIX

es del mismo género o del mismo origen. La idea es que los errores humanos sean homogéneos. La
afirmación de que al menos el 70% de los percances se deben a errores humanos es particularmente estable
y consistente en todas las industrias. Da las malas noticias sobre la seguridad del sistema, tanto una fuente
concreta como un número. El "problema del error humano" persistentemente documentado patrocina la idea
falsa de que la amenaza de seguridad dominante en la actualidad es la falta de confiabilidad humana en
sistemas básicamente seguros.
La tabulación de errores puede haber funcionado alguna vez, cuando se establecieron estudios
de laboratorio estrictamente controlados para investigar el desempeño humano. En estos estudios de
laboratorio, las tareas humanas y las oportunidades de cometer errores se redujeron al mínimo, y los
errores singulares y medibles podían contarse como una unidad básica del desempeño humano. Este
tipo de experimentación dejó al científico con resultados espartanos pero cuantificables. Sin
embargo, cuando se trata del error humano "en la naturaleza", del error humano tal como ocurre en
entornos naturales complejos, tales tabulaciones y porcentajes oscurecen muchas cosas y
amortiguan el aprendizaje del fracaso:

• Ignoran el hecho de que las interacciones complejas entre las contribuciones humanas y
otras diversas suelen ser necesarias para hacer que un sistema se derrumbe hoy en día.
Este 70% de errores humanos no ocurren como deslices erráticos o meteduras de pata en
el vacío de un mundo perfectamente diseñado u organizado racionalmente. En los relatos
reales de fracaso, las acciones y valoraciones que llamamos "errores" se entremezclan
con averías de muchos otros tipos: mecánicas, organizativas. La mala noticia no radica en
el 70 % de los errores humanos, sino en las interacciones entre el comportamiento
humano y las características y vulnerabilidades de sus mundos operativos.

• Los porcentajes ocultan la gran diversidad de errores humanos en la naturaleza. Como


síntomas de problemas más profundos, la expresión del error humano depende del
contexto. El tipo de error está determinado en gran parte por las características de las
circunstancias en las que se produce. Los detalles de por qué las tareas, las herramientas
y los entornos de trabajo son vulnerables a los errores, o por qué incluso pueden invitar a
un gran porcentaje de errores en primer lugar, se pierden bajo la gran etiqueta de "error
humano".

Litigio

Se está volviendo cada vez más normal, y muy preocupante para grandes segmentos de la
comunidad de seguridad, que los operadores involucrados en percances sean demandados o
acusados de delitos (penales).

El vuelo 592 de Valuejet se estrelló después de despegar del aeropuerto de Miami porque los generadores de
oxígeno en su bodega de carga se incendiaron. Los generadores habían sido cargados en el avión por
empleados de un contratista de mantenimiento, que posteriormente fueron procesados. El editor de Aviation
Week and Space Technology "creía firmemente que el hecho de que los empleados de SabreTech no taparan
los generadores de oxígeno constituía una negligencia deliberada que condujo a la muerte de 110
GUÍA DE CAMPO DE ERRORES HUMANOS DE CX

pasajeros y tripulación. Los fiscales hicieron bien en presentar cargos. Tiene que haber cierto temor de que no hacer el

trabajo de uno correctamente pueda conducir a un enjuiciamiento".1

Pero el enjuiciamiento de individuos pierde el punto. Reduce la necesidad de aprender


lecciones fundamentales, si reconoce que las lecciones fundamentales están ahí para ser
aprendidas en primer lugar. En el caso de SabreTech, los humildes empleados de
mantenimiento vivían en un mundo de jefes y despidos repentinos, tropezaron con una
operación que no suministró tapas de seguridad para los generadores de oxígeno
vencidos y en la que la aerolínea era tan inexperta y estaba bajo tanta presión financiera
como la gente. en la organización de mantenimiento que lo respalda. También era un
mundo de dificultades lingüísticas, no solo porque muchos eran hispanohablantes en un
entorno de ingeniería del idioma inglés:

"Esto es lo que realmente sucedió. Casi 600 personas registraron tiempo de trabajo contra los tres
aviones Valujet en el hangar de SabreTech en Miami; de ellos, 72 trabajadores registraron 910 horas a
lo largo de varias semanas contra el trabajo de reemplazar los generadores de oxígeno "caducados",
aquellos al final de sus vidas aprobadas. De acuerdo con la tarjeta de trabajo Valujet 0069
suministrada, el segundo paso del proceso de siete pasos fue: 'Si el generador no se ha gastado,
instale la tapa de transporte en el percutor.'
Esto requirió un grupo de mecánicos en apuros para establecer una distinción entre los
botes que estaban 'caducados', es decir, los que estaban retirando, y los botes que no estaban
'gastados', es decir, los mismos, cargados y listos para disparar, en los que no se esperaba que
pusieran tapones inexistentes. También intervinieron botes caducados y gastados, y otros no
gastados pero sí gastados. Y luego, por supuesto, estaba la cosa más simple: un juego de botes
nuevos de reemplazo, que eran ambos inexplicables.
pendientes y vigentes".2

Estas eran condiciones que existían mucho antes del accidente de Valuejet y que existen en muchos
lugares hoy. El miedo al enjuiciamiento sofoca el flujo de información sobre tales condiciones. Y la
información es el principal activo que hace que una cultura de seguridad funcione. De hecho, un flujo
de información anterior podría haber comunicado las malas noticias. Podría haber revelado estas
características de las tareas y herramientas de las personas; estas vulnerabilidades de larga data que
forman la materia de la que están hechos los accidentes. Habría mostrado cómo el error humano está
inextricablemente conectado con la forma en que se realiza el trabajo, con qué recursos y bajo qué
circunstancias y presiones.

1
Norte, DM (2000). Deje que el sistema judicial siga su curso en casos de accidentes.Semana de la Aviación y la
Tecnología Espacial, 15 de mayo, página 66.
2
Langwiesche, W. (1998).dentro del cielo. Nueva York: Random House, página 228.

También podría gustarte