Está en la página 1de 9

Lectura: Error Humano- modelos

y gestión
Phd-Carlos Viviani

Magíster en Ergonomía y Factores Humanos


Facultad de Medicina
Escuela de Kinesiología
Módulo 4- Ergonomía cognitiva

Introducción
Este paper publicado por James Reason en el año 2000, discute las implicancias de la gestión del error
desde una perspectiva del factor humano (focalizando la responsabilidad en las acciones de las personas)
y de los factores humanos (interacción entre las personas y el diseño de los sistemas dónde se
desempeñan). Reason fue el creador del modelo de "Queso Suizo" de los accidentes, altamente utilizado
hasta el día de hoy. En este paper, Reason reflexiona sobre ambos enfoques , de personas y de sistemas,
tratando de relacionar con el sector médico. Sin embargo, el texto plantea interesantes puntos que pueden
y deben adaptarse a cualquier sistema de trabajo. También encontrará el archivo original en inglés en el
EAula.
Educación y debate
BMJ VOLUMEN 320 18 DE MARZO 2000 www.bmj.com 769

Error humano: modelos y gestión

James Reason
El problema del error humano puede verse de dos formas: el enfoque de la persona y el
enfoque del sistema. Cada uno tiene su modelo de causalidad de error y cada modelo da
lugar a filosofías de gestión de errores bastante diferentes. Comprender estas diferencias
tiene importantes implicaciones prácticas para hacer frente al siempre presente riesgo de
contratiempos en la práctica clínica.

Enfoque en la persona

La larga y extendida tradición del enfoque de la persona se centra en los actos inseguros
(errores y violaciones de procedimiento) de las personas que se encuentran en el extremo
"agudo": enfermeras, médicos, cirujanos, anestesistas, farmacéuticos y similares. Estos
actos inseguros surgen principalmente de procesos mentales aberrantes, como descuido,
falta de atención, mala motivación, negligencia e imprudencia. Naturalmente, las
contramedidas asociadas están dirigidas principalmente a reducir la variabilidad no
deseada en el comportamiento humano. Estos métodos incluyen campañas de carteles
que apelan a la sensación de miedo de las personas, redactar otro procedimiento (o
agregar detalles a los existentes), medidas disciplinarias, amenaza de litigio,
reentrenamiento, identificar responsables, culpar y avergonzar.
Los seguidores de este enfoque tienden a tratar los errores como cuestiones morales,
asumiendo que las cosas malas les suceden a malas personas, lo que los psicólogos han
llamado la hipótesis del mundo justo.

Enfoque de sistema

La premisa básica en el enfoque de sistema es que los seres humanos son falibles y se
esperan errores, incluso en las mejores organizaciones. Los errores se ven como
consecuencias más que como causas, y tienen su origen no tanto en la perversidad de la
naturaleza humana sino en factores sistémicos "aguas arriba". Estos incluyen recurrentes
trampas de errores en el lugar de trabajo y los procesos organizacionales que las generan.
Las contramedidas se basan en la suposición de que, aunque no podemos cambiar la
condición humana, podemos cambiar las condiciones en las que trabajan los seres
humanos. Una idea central es la de las defensas del sistema. Todas las tecnologías
peligrosas poseen barreras y salvaguardias. Cuando ocurre un evento adverso, lo
importante no es quién cometió el error, sino cómo y por qué fallaron las defensas.
Módulo 4- Ergonomía cognitiva

Evaluación del enfoque de la persona

El enfoque en la persona sigue siendo la tradición dominante en la medicina, como en


otros lugares. Desde algunas perspectivas tiene mucho sentido. Culpar a las personas es
emocionalmente más satisfactorio que apuntar a las instituciones. Se considera que las
personas son agentes libres capaces de elegir entre modos de comportamiento seguros e
inseguros. Si algo sale mal, parece obvio que un individuo (o grupo de individuos) debe
haber sido responsable. Buscar en la medida de lo posible, desvincular los actos inseguros
de una persona, de cualquier responsabilidad institucional, es claramente del interés de
los gerentes. También es legalmente más conveniente, al menos en Gran Bretaña. Sin
embargo, el enfoque de la persona tiene serias deficiencias y no se adapta al dominio
médico. De hecho, es probable que la adherencia contínua a este enfoque, frustre el
desarrollo de instituciones sanitarias más seguras. Aunque algunos actos inseguros en
cualquier esfera son atroces, la gran mayoría no lo son. En el mantenimiento de aviación,
una actividad similar a la práctica médica en muchos aspectos, alrededor del 90% de los
lapsos de calidad se consideraron irreprochables a las personas. La gestión de riesgos
eficaz depende fundamentalmente del establecimiento de una cultura de reporte. Sin un
análisis detallado de contratiempos, incidentes, cuasi-accidentes y "lecciones gratuitas", no
tenemos forma de descubrir trampas de errores recurrentes o de saber dónde está el
"borde" hasta que caemos sobre él. La ausencia total de tal cultura informativa dentro de
la Unión Soviética contribuyó de manera crucial al desastre de Chernobyl. La confianza es
un elemento clave de una cultura de reportes y esto, a su vez, requiere la existencia de una
cultura justa, una que posea un entendimiento colectivo de dónde se debe trazar la línea
divisoria entre acciones inocentes y culpables

La confianza es un elemento clave de una cultura de reportes y esto, a su vez, requiere la


existencia de una cultura justa, una que posea un entendimiento colectivo de dónde se
debe trazar la línea divisoria entre acciones inocentes y culpables. Diseñar una cultura
justa es un paso inicial esencial en la creación de una cultura segura.
Otra seria debilidad del enfoque de la persona, es que al enfocarse en los orígenes
individuales del error, se aísla los actos inseguros del contexto de su sistema. Como
resultado, se tiende a pasar por alto dos características importantes del error humano . En
primer lugar, a menudo son las mejores personas las que cometen los peores errores; el
error no es el monopolio de unos pocos desafortunados. En segundo lugar, lejos de ser
aleatorios, los percances tienden a caer en patrones recurrentes. El mismo conjunto de
circunstancias puede provocar errores similares, independientemente de las personas
involucradas. La búsqueda de una mayor seguridad se ve seriamente obstaculizada por un
enfoque que no busca y elimina las causas que provocan errores dentro del sistema en
general.

Resumen de puntos
• Existen dos enfoques para el problema de la falibilidad humana: los de la persona y
el sistema
Módulo 4- Ergonomía cognitiva

• El de la persona se enfoca en los errores de los individuos, culpándolos por el olvido,


la falta de atención o la debilidad moral
• El enfoque del sistema se concentra en las condiciones bajo qué individuos trabajan
e intentan construir defensas para evitar errores o mitigar sus efectos.
• Las organizaciones de alta confiabilidad, que tienen menos accidentes de los que les
corresponden, reconocen que la variabilidad humana es una fuerza que se debe
aprovechar para evitar errores, pero trabajan arduamente para enfocar esa
variabilidad y están constantemente preocupados por la posibilidad de fracaso
elemento clave de una cultura periodística y esto, a su vez, requiere la existencia de
una cultura justa, una que posea un entendimiento colectivo de dónde debe trazarse
la línea divisoria entre acciones inocentes y culpables.5
• Diseñar una cultura justa es un paso inicial esencial para crear una cultura segura.

El modelo de queso suizo de accidentes

Defensas, barreras y salvaguardias ocupan una posición clave en el enfoque del sistema.
Los sistemas de alta tecnología tienen muchas capas defensivas: algunos están diseñados
(alarmas, barreras físicas, apagados automáticos, etc.), otros dependen de las personas
(cirujanos, anestesistas, pilotos, operadores de salas de control, etc.) y otros dependen de
procedimientos y procedimientos administrativos. Su función es proteger a las víctimas
potenciales y los activos de los peligros. En su mayoría, lo hacen de manera muy efectiva,
pero siempre hay debilidades. En un mundo ideal, cada capa defensiva estaría intacta. En
realidad, sin embargo, son más como rebanadas de queso suizo, con muchos agujeros,
aunque a diferencia del queso, estos agujeros se abren, cierran y cambian continuamente
de ubicación. La presencia de agujeros en cualquier "rebanada" normalmente no causa un
mal resultado. Por lo general, esto puede suceder solo cuando los agujeros en muchas
capas se alinean momentáneamente para permitir una trayectoria de oportunidad del
accidente, lo que hace que los peligros dañinos entren en contacto con las víctimas (figura
en artículo original).
Los huecos en las defensas surgen por dos motivos: fallos activos y condiciones latentes.
Casi todos los eventos adversos involucran una combinación de estos dos conjuntos de
factores. Las fallas activas son los actos inseguros cometidos por personas que están en
contacto directo con el paciente o el sistema. Adoptan una variedad de formas: deslices,
lapsos, fallas, errores y violaciones de procedimiento. Las fallas activas tienen un impacto
directo y generalmente de corta duración en la integridad de las defensas. En Chernobyl,
por ejemplo, los operadores violaron erróneamente los procedimientos de la planta y
apagaron sucesivos sistemas de seguridad, creando así el detonante inmediato de la
catastrófica explosión en el núcleo. Los seguidores del enfoque de la persona a menudo no
buscan más las causas de un evento adverso una vez que han identificado estos actos
inseguros próximos. Pero, como se analiza a continuación, prácticamente todos estos
actos tienen una historia causal que se remonta en el tiempo y asciende por los niveles del
sistema.
Módulo 4- Ergonomía cognitiva

Las condiciones latentes son los inevitables "patógenos residentes " dentro del sistema.
Surgen de decisiones tomadas por diseñadores, constructores, redactores de
procedimientos y la alta gerencia. Tales decisiones pueden estar equivocadas, pero no es
necesariamente la causa única. Todas estas decisiones estratégicas tienen
el potencial de introducir "patógenos" en el sistema. Las condiciones latentes tienen dos
tipos de efectos adversos: pueden traducirse en condiciones que provocan errores dentro
del lugar de trabajo local (por ejemplo, presión de tiempo, falta de personal, equipo
inadecuado, fatiga e inexperiencia) y pueden crear agujeros duraderos o debilidades en las
defensas (alarmas e indicadores poco confiables, procedimientos impracticables,
deficiencias de diseño y construcción, etc.).
Las condiciones latentes, como sugiere el término, pueden permanecer inactivas dentro
del sistema durante muchos años antes de que se combinen con fallas activas y
desencadenantes locales para crear una oportunidad de accidente. A diferencia de las
fallas activas, cuyas formas específicas a menudo son difíciles de prever, las latentes se
pueden identificar y remediar antes de que ocurra un evento adverso. Comprender esto
conduce a una gestión de riesgos proactiva en lugar de reactiva.
Para usar otra analogía: las fallas activas son como mosquitos. Pueden ser aplastados uno
por uno, pero siguen llegando. Los mejores remedios son crear más defensas eficaces y
drenar los pantanos en los que se reproducen. Los pantanos, en este caso, son las
siempre presentes condiciones latentes.

“No podemos cambiar la condición humana, pero podemos cambiar


las condiciones bajo las cuales los humanos trabajan”

Gestión de errores

Durante la última década, los investigadores de factores humanos se han preocupado


cada vez más por desarrollar las herramientas para gestionar los actos inseguros. La
gestión de errores tiene dos componentes: limitar la incidencia de errores peligrosos y,
dado que esto nunca será del todo eficaz, crear sistemas que sean más capaces de tolerar
la aparición de errores y contener sus dañinos efectos. Mientras que los seguidores del
enfoque de la persona dirigen la mayoría de sus recursos de gestión para tratar de hacer
que los individuos sean menos falibles o descarriados, los seguidores del enfoque del
sistema se esfuerzan por un programa integral de gestión dirigido a diferentes objetivos: la
persona, el equipo, la tarea, el lugar de trabajo, y la institución en su conjunto.
Las organizaciones de alta confiabilidad —sistemas que operan en condiciones peligrosas
que tienen menos eventos adversos de los que les corresponden— ofrecen modelos
importantes de lo que constituye un sistema resiliente. Tal sistema tiene “salud de
seguridad” intrínseca; es capaz de resistir sus peligros operativos y aun así lograr sus
objetivos.
Módulo 4- Ergonomía cognitiva

Organizaciones de alta confiabilidad

Hasta ahora, se han investigado tres tipos de organizaciones de alta confiabilidad:


portaaviones nucleares de la Marina de los Estados Unidos, plantas de energía nuclear y
centros de control de tráfico aéreo. Los retos a los que se enfrentan estas organizaciones
son dobles: Gestionar tecnologías complejas y exigentes para evitar fallas importantes que
puedan paralizar o incluso destruir la organización en cuestión. Mantener la capacidad
para atender periodos de muy alta demanda pico, siempre que se produzcan. Las
organizaciones estudiadas tenían estas características definitorias:
• Eran complejas, internamente dinámicas y, de manera intermitente, intensamente
interactivas.
• Realizaban tareas exigentes con una presión de tiempo considerable.
• Habían llevado a cabo estas actividades exigentes con bajas tasas de incidentes y
una ausencia casi completa de fallas catastróficas durante varios años.

Aunque, a primera vista, estas organizaciones están muy alejadas del dominio médico,
comparten características importantes con las instituciones de salud.
Las lecciones que se pueden aprender de estas organizaciones son claramente relevantes
para quienes administran y operan instituciones de salud.

Algunas paradojas de alta confiabilidad


Así como la medicina entiende más sobre enfermedades que sobre salud, las ciencias de
la seguridad saben más sobre las causas de los eventos adversos que sobre la mejor
manera de evitarlos. Durante los últimos 15 años aproximadamente, un grupo de
científicos sociales con sede principalmente en Berkeley y la Universidad de Michigan ha
tratado de corregir este desequilibrio mediante el estudio de los éxitos de seguridad en las
organizaciones en lugar de sus fallas poco frecuentes, pero más notorias. Estas historias
de éxito involucraron a portaaviones nucleares, sistemas de control de tráfico aéreo y
plantas de energía nuclear (recuadro). Aunque tales organizaciones de alta confiabilidad
pueden parecer alejadas de la práctica clínica, algunas de sus características culturales
definitorias podrían ser importadas al dominio médico. La mayoría de los administradores
de sistemas tradicionales atribuyen la falta de fiabilidad humana a una variabilidad no
deseada y se esfuerzan por eliminarla en la medida de lo posible. En organizaciones de
alta confiabilidad, por otro lado, se reconoce que la variabilidad humana en la forma de
compensaciones y adaptaciones a eventos cambiantes representa una de las
salvaguardas del sistema más importantes. La confiabilidad es "un evento no dinámico".
Es dinámico porque la seguridad se preserva mediante ajustes humanos oportunos; no es
un evento porque los resultados exitosos rara vez llaman la atención sobre sí mismos.
Las organizaciones de alta confiabilidad pueden reconfigurarse para adaptarse a las
circunstancias locales. En su modo rutina, se controlan de la convencional
Módulo 4- Ergonomía cognitiva

manera jerárquica. Pero en emergencia o situaciones de alta demanda, el control se


traslada a los expertos en el campo en cuestión, como suele suceder en el ámbito médico.
La organización vuelve sin problemas al modo de control de rutina una vez que ha pasado
la crisis. Paradójicamente, esta flexibilidad surge en parte de una tradición militar: incluso
las organizaciones civiles de alta confiabilidad tienen una gran proporción de ex personal
militar. Las organizaciones militares tienden a definir sus objetivos de manera inequívoca
y, para que estas ráfagas de actividad semiautónoma tengan éxito, es fundamental que
todos los participantes comprendan claramente y compartan estas aspiraciones. Aunque
las organizaciones de alta confiabilidad esperan y fomentan la variabilidad de la acción
humana, también trabajan muy duro para mantener una mentalidad consistente de
cautela inteligente. Quizás la característica distintiva más importante de las organizaciones
de alta confiabilidad es su preocupación colectiva por la posibilidad de fallas. Ellos esperan
cometer errores y entrenar a su fuerza de trabajo a reconocer y recuperarse. Ensayan
continuamente escenarios familiares de fracaso y se esfuerzan por imaginar otros nuevos.
En lugar de aislar las fallas, las generalizan. En lugar de hacer reparaciones locales,
buscan reformas del sistema.

“Culpar a las personas es emocionalmente


más satisfactorio que apuntar a las instituciones”.

Conclusiones
Las organizaciones de alta confiabilidad son los principales ejemplos del enfoque del
sistema. Se anticipan a lo peor y se preparan para afrontarlo en todos los niveles de la
organización. Es difícil, incluso antinatural, para las personas permanecer crónicamente
inquietas, por lo que su cultura organizacional adquiere un significado profundo. Las
personas pueden olvidarse de tener miedo, pero la cultura de una organización de alta
confiabilidad les proporciona tanto los recordatorios como las herramientas para ayudarlos
a recordar. Para estas organizaciones, la búsqueda de la seguridad no se trata tanto
de prevenir fallas aisladas, ya sean humanas o técnicas, como de hacer que el sistema sea
lo más robusto posible frente a sus peligros humanos y operativos. Las organizaciones de
alta confiabilidad no son inmunes a los eventos adversos, pero han aprendido la habilidad
de convertir estos contratiempos ocasionales en una mayor
resistencia del sistema.
Módulo 4- Ergonomía cognitiva

Referencias
1 Lerner MJ. The desire for justice and reactions to victims. In:McCauley J,
Berkowitz L, eds. Altruism and helping behavior.New York:Academic Press, 1970.
2 Marx D. Discipline: the role of rule violations. Ground Effects 1997;2:1 4.
3 Reason J. Managing the risks of organizational accidents. Aldershot:Ashgate, 1997.
4 Medvedev G. The truth about Chernobyl. New York: Basic Books, 1991.
5 MarxD. Maintenance error causation. Washington, DC: Federal Aviation Authority Office of Aviation Medicine, 1999.
6 Reason J. Human error. New York: Cambridge University Press, 1990.
7 Weick KE. Organizational culture as a source of high reliability. Calif Management Rev 1987;29:112 27.
8 Weick KE, Sutcliffe KM, Obstfeld D. Organizing for high reliability: processes of collective mindfulness. Res
Organizational Behav 1999;21: 23 81.

Bibliografía
Reason J. (2000). Human error: models and management. BMJ (Clinical research ed.), 320(7237), 768–770.
https://doi.org/10.1136/bmj.320.7237.768

También podría gustarte