Documentos de Académico
Documentos de Profesional
Documentos de Cultura
y gestión
Phd-Carlos Viviani
Introducción
Este paper publicado por James Reason en el año 2000, discute las implicancias de la gestión del error
desde una perspectiva del factor humano (focalizando la responsabilidad en las acciones de las personas)
y de los factores humanos (interacción entre las personas y el diseño de los sistemas dónde se
desempeñan). Reason fue el creador del modelo de "Queso Suizo" de los accidentes, altamente utilizado
hasta el día de hoy. En este paper, Reason reflexiona sobre ambos enfoques , de personas y de sistemas,
tratando de relacionar con el sector médico. Sin embargo, el texto plantea interesantes puntos que pueden
y deben adaptarse a cualquier sistema de trabajo. También encontrará el archivo original en inglés en el
EAula.
Educación y debate
BMJ VOLUMEN 320 18 DE MARZO 2000 www.bmj.com 769
James Reason
El problema del error humano puede verse de dos formas: el enfoque de la persona y el
enfoque del sistema. Cada uno tiene su modelo de causalidad de error y cada modelo da
lugar a filosofías de gestión de errores bastante diferentes. Comprender estas diferencias
tiene importantes implicaciones prácticas para hacer frente al siempre presente riesgo de
contratiempos en la práctica clínica.
Enfoque en la persona
La larga y extendida tradición del enfoque de la persona se centra en los actos inseguros
(errores y violaciones de procedimiento) de las personas que se encuentran en el extremo
"agudo": enfermeras, médicos, cirujanos, anestesistas, farmacéuticos y similares. Estos
actos inseguros surgen principalmente de procesos mentales aberrantes, como descuido,
falta de atención, mala motivación, negligencia e imprudencia. Naturalmente, las
contramedidas asociadas están dirigidas principalmente a reducir la variabilidad no
deseada en el comportamiento humano. Estos métodos incluyen campañas de carteles
que apelan a la sensación de miedo de las personas, redactar otro procedimiento (o
agregar detalles a los existentes), medidas disciplinarias, amenaza de litigio,
reentrenamiento, identificar responsables, culpar y avergonzar.
Los seguidores de este enfoque tienden a tratar los errores como cuestiones morales,
asumiendo que las cosas malas les suceden a malas personas, lo que los psicólogos han
llamado la hipótesis del mundo justo.
Enfoque de sistema
La premisa básica en el enfoque de sistema es que los seres humanos son falibles y se
esperan errores, incluso en las mejores organizaciones. Los errores se ven como
consecuencias más que como causas, y tienen su origen no tanto en la perversidad de la
naturaleza humana sino en factores sistémicos "aguas arriba". Estos incluyen recurrentes
trampas de errores en el lugar de trabajo y los procesos organizacionales que las generan.
Las contramedidas se basan en la suposición de que, aunque no podemos cambiar la
condición humana, podemos cambiar las condiciones en las que trabajan los seres
humanos. Una idea central es la de las defensas del sistema. Todas las tecnologías
peligrosas poseen barreras y salvaguardias. Cuando ocurre un evento adverso, lo
importante no es quién cometió el error, sino cómo y por qué fallaron las defensas.
Módulo 4- Ergonomía cognitiva
Resumen de puntos
• Existen dos enfoques para el problema de la falibilidad humana: los de la persona y
el sistema
Módulo 4- Ergonomía cognitiva
Defensas, barreras y salvaguardias ocupan una posición clave en el enfoque del sistema.
Los sistemas de alta tecnología tienen muchas capas defensivas: algunos están diseñados
(alarmas, barreras físicas, apagados automáticos, etc.), otros dependen de las personas
(cirujanos, anestesistas, pilotos, operadores de salas de control, etc.) y otros dependen de
procedimientos y procedimientos administrativos. Su función es proteger a las víctimas
potenciales y los activos de los peligros. En su mayoría, lo hacen de manera muy efectiva,
pero siempre hay debilidades. En un mundo ideal, cada capa defensiva estaría intacta. En
realidad, sin embargo, son más como rebanadas de queso suizo, con muchos agujeros,
aunque a diferencia del queso, estos agujeros se abren, cierran y cambian continuamente
de ubicación. La presencia de agujeros en cualquier "rebanada" normalmente no causa un
mal resultado. Por lo general, esto puede suceder solo cuando los agujeros en muchas
capas se alinean momentáneamente para permitir una trayectoria de oportunidad del
accidente, lo que hace que los peligros dañinos entren en contacto con las víctimas (figura
en artículo original).
Los huecos en las defensas surgen por dos motivos: fallos activos y condiciones latentes.
Casi todos los eventos adversos involucran una combinación de estos dos conjuntos de
factores. Las fallas activas son los actos inseguros cometidos por personas que están en
contacto directo con el paciente o el sistema. Adoptan una variedad de formas: deslices,
lapsos, fallas, errores y violaciones de procedimiento. Las fallas activas tienen un impacto
directo y generalmente de corta duración en la integridad de las defensas. En Chernobyl,
por ejemplo, los operadores violaron erróneamente los procedimientos de la planta y
apagaron sucesivos sistemas de seguridad, creando así el detonante inmediato de la
catastrófica explosión en el núcleo. Los seguidores del enfoque de la persona a menudo no
buscan más las causas de un evento adverso una vez que han identificado estos actos
inseguros próximos. Pero, como se analiza a continuación, prácticamente todos estos
actos tienen una historia causal que se remonta en el tiempo y asciende por los niveles del
sistema.
Módulo 4- Ergonomía cognitiva
Las condiciones latentes son los inevitables "patógenos residentes " dentro del sistema.
Surgen de decisiones tomadas por diseñadores, constructores, redactores de
procedimientos y la alta gerencia. Tales decisiones pueden estar equivocadas, pero no es
necesariamente la causa única. Todas estas decisiones estratégicas tienen
el potencial de introducir "patógenos" en el sistema. Las condiciones latentes tienen dos
tipos de efectos adversos: pueden traducirse en condiciones que provocan errores dentro
del lugar de trabajo local (por ejemplo, presión de tiempo, falta de personal, equipo
inadecuado, fatiga e inexperiencia) y pueden crear agujeros duraderos o debilidades en las
defensas (alarmas e indicadores poco confiables, procedimientos impracticables,
deficiencias de diseño y construcción, etc.).
Las condiciones latentes, como sugiere el término, pueden permanecer inactivas dentro
del sistema durante muchos años antes de que se combinen con fallas activas y
desencadenantes locales para crear una oportunidad de accidente. A diferencia de las
fallas activas, cuyas formas específicas a menudo son difíciles de prever, las latentes se
pueden identificar y remediar antes de que ocurra un evento adverso. Comprender esto
conduce a una gestión de riesgos proactiva en lugar de reactiva.
Para usar otra analogía: las fallas activas son como mosquitos. Pueden ser aplastados uno
por uno, pero siguen llegando. Los mejores remedios son crear más defensas eficaces y
drenar los pantanos en los que se reproducen. Los pantanos, en este caso, son las
siempre presentes condiciones latentes.
Gestión de errores
Aunque, a primera vista, estas organizaciones están muy alejadas del dominio médico,
comparten características importantes con las instituciones de salud.
Las lecciones que se pueden aprender de estas organizaciones son claramente relevantes
para quienes administran y operan instituciones de salud.
Conclusiones
Las organizaciones de alta confiabilidad son los principales ejemplos del enfoque del
sistema. Se anticipan a lo peor y se preparan para afrontarlo en todos los niveles de la
organización. Es difícil, incluso antinatural, para las personas permanecer crónicamente
inquietas, por lo que su cultura organizacional adquiere un significado profundo. Las
personas pueden olvidarse de tener miedo, pero la cultura de una organización de alta
confiabilidad les proporciona tanto los recordatorios como las herramientas para ayudarlos
a recordar. Para estas organizaciones, la búsqueda de la seguridad no se trata tanto
de prevenir fallas aisladas, ya sean humanas o técnicas, como de hacer que el sistema sea
lo más robusto posible frente a sus peligros humanos y operativos. Las organizaciones de
alta confiabilidad no son inmunes a los eventos adversos, pero han aprendido la habilidad
de convertir estos contratiempos ocasionales en una mayor
resistencia del sistema.
Módulo 4- Ergonomía cognitiva
Referencias
1 Lerner MJ. The desire for justice and reactions to victims. In:McCauley J,
Berkowitz L, eds. Altruism and helping behavior.New York:Academic Press, 1970.
2 Marx D. Discipline: the role of rule violations. Ground Effects 1997;2:1 4.
3 Reason J. Managing the risks of organizational accidents. Aldershot:Ashgate, 1997.
4 Medvedev G. The truth about Chernobyl. New York: Basic Books, 1991.
5 MarxD. Maintenance error causation. Washington, DC: Federal Aviation Authority Office of Aviation Medicine, 1999.
6 Reason J. Human error. New York: Cambridge University Press, 1990.
7 Weick KE. Organizational culture as a source of high reliability. Calif Management Rev 1987;29:112 27.
8 Weick KE, Sutcliffe KM, Obstfeld D. Organizing for high reliability: processes of collective mindfulness. Res
Organizational Behav 1999;21: 23 81.
Bibliografía
Reason J. (2000). Human error: models and management. BMJ (Clinical research ed.), 320(7237), 768–770.
https://doi.org/10.1136/bmj.320.7237.768