Está en la página 1de 24

Tiende a centrarse en la identificación, clasificación y cuantificación de la fuerza de los

factores que influyen en el error humano, más que en la búsqueda de una explicación
más fundamental.

14.20.3 Modelo de desajuste entre la demanda y la capacidad

Volviendo ahora a otros modelos de error humano, o de fiabilidad humana, uno de los
primeros modelos lo ve como un desajuste entre las demandas de la tarea y la
capacidad del humano para realizarla.

El desajuste puede surgir de varias maneras. Puede deberse, por ejemplo, a la


incapacidad física. O puede surgir de falta de un caso particular, que se considera
adecuadamente que implica la fiabilidad humana más que el error humano, es cuando
muerte o súbita, como un cardíaco. Esto puede ser necesario tenerlo en cuenta en
relación con funciones cruciales.

14.20.4 Modelo de tolerancia-variabilidad

Otro de los primeros modelos parte del punto de vista de que lo fundamental para el
error humano es la variabilidad, tanto de las personas como de las tareas. La
variabilidad en el desempeño está asociada con la característica humana deseable de
la adaptabilidad. La variabilidad también está presente en la tarea. Incluso una
operación de ensamblaje estandarizada implica cierta variabilidad.

Las tareas industriales más complejas son mucho más variables. Se pueden tolerar
algunas variaciones en el desempeño de la tarea. Sólo cuando se sobrepasa algún
límite se dice que se produce un error. Por lo tanto, la definición de error es crítica.
Los límites pueden definirse de diversas maneras, como barreras físicas, de
advertencia, procedimientos operativos, tolerancias y normas de producción,
condiciones del proceso y códigos sociales y jurídicos.

Swain (197S) distingue entre errores aleatorios, sistemáticos o esporádicos. Los


errores aleatorios y sistemáticos pueden corregirse normalmente reduciendo,
respectivamente, la varianza y el sesgo en la realización de la tarea, pero puede ser
más difícil comprender y corregir los errores esporádicos, que normalmente implican
excursiones repentinas y a menudo grandes fuera de los límites.
14.20.5 Modelo de disponibilidad de tiempo

Otro tipo de modelo se basa en la premisa de que la fiabilidad humana en ciertas


tareas, en particular la respuesta a emergencias, aumenta con el tiempo disponible
para realizar la tarea. Este modelo podría considerarse como un caso particular del
modelo de desajuste entre la demanda y la capacidad.

14.20.6 Habilidades ± reglas ± modelo de conocimiento

El modelo de habilidades-reglas-conocimiento (SRK), desarrollado por Rasmussen


(1986), trata al humano como operando en los tres niveles de habilidades, reglas y
conocimiento. Cada nivel tiene sus tipos característicos de error. En la sección 14.1S
se ha dado cuenta de este modelo.

14.20.7 Modelo de distracción

El modelo de distracción, desarrollado por Reason (1990), distingue entre


deslizamientos, lapsus y errores de toma. Un deslizamiento es: a) un error en la
ejecución de un plan, decisión o intención, cuando el plan es correcto pero la
ejecución no lo es, o b) una acción no intencionada. Un lapsus es un error en el que la
acción prevista no se ejecuta debido a un fallo de memoria. Un error es un error en el
establecimiento de un curso de acción como un error de diagnóstico, de decisión o de
planificación. Este modelo se describe con más detalle en el capítulo S6.

14.20.8 Modelo de organización

El modelo de organización, o sistema socio-técnico, hace hincapié en la contribución


de los factores organizativos y socio-técnicos más amplios al error humano. Puede
considerarse una versión del modelo de situación laboral que hace especial hincapié
en esos factores.

14.20.9 Violaciones

Se reconoce que algunas acciones no son estrictamente errores humanos sino


violaciones flagrantes. No parece haber un modelo desarrollado para las violaciones.
Aunque ahora se acepta que el error humano es algo que está bajo la influencia de la
administración, esto es menos cierto en el caso de las violaciones.
Al este respecto, el tratamiento de las violaciones parece estar en el punto en que
estaba el del error humano hace unos dos o tres decenios. Es necesario comprender
mejor por qué se producen las violaciones y cómo pueden diseñarse.

14.20.10 Enfoques descompuestos y holísticos

A lo largo de una dimensión diferente, los enfoques del error humano pueden
caracterizarse como descompuestos u holísticos. En el enfoque des composicional,
también denominado "reduccionista", "mecanicista" o "atomístico", la tarea se
descompone en sus elementos constitutivos, y para cada elemento se estima la
probabilidad de fracaso. La probabilidad de fracaso de la tarea en general se toma
como el producto de las probabilidades individuales. Se pueden tener en cuenta
ciertas características, como el fallo dependiente, pero en su mayor parte no se
manejan bien otros aspectos del fallo de la tarea, como los errores en la toma de
decisiones. En cambio, el enfoque holístico toma elementos de alto nivel de la tarea
y, por lo tanto, abarca características como la toma de decisiones.

14.20.11 Clasificaciones del error humano

Las clasificaciones de los errores humanos se derivan de los modelos descritos


anteriormente. Una distinción común, basada esencialmente en el modelo de análisis
de tareas, es entre los errores de omisión, transformación o comisión.

Un humano puede fallar en la ejecución de una acción requerida, o puede ejecutarla


pero incorrectamente o fuera de secuencia o demasiado lentamente, o una acción no
deseada. Los errores de omisión pueden consistir en fallos de atención o memoria,
y los errores de comisión en la identificación, interpretación u operación. Las
clasificaciones de errores en este sentido han sido dadas por Lincoln (1960) y Swain
(1970).

Las clasificaciones relacionadas con el modelo de situación de trabajo se realizan


típicamente en función de los factores de influencia.

El modelo SRK de Rasmussen da lugar a una clasificación basada en la distinción


entre los errores que surgen en los niveles de habilidad, reglas y conocimientos. La
clasificación derivada del modelo de absentismo de Reasons se divide en deslices,
lapsus y errores.

Otra clasificación del error humano se basa en la relación en el tiempo del error con el
evento iniciador en una secuencia de incidentes.
Si el error precede al suceso iniciador, es un error latente, o de habilitación. Si es la
causa directa del evento, es un error iniciador. Y si sigue al evento, es unerror de
respuesta o recuperación.

14.21 Error humano en las plantas de proceso

14.21.1 Error humano en general y en la operación de la planta Una visión general del
error humano en las plantas de proceso se da en Æn Engineer's View of Human Error
(Kletz, 1991e). Este trabajo proporciona una útil exposición de los aspectos prácticos
del error humano en las diversas actividades que tienen lugar en esas plantas. Kletz
describe los siguientes tipos de error humano:

1) Simples resbalones
2) Errores debidos a un entrenamiento o instrucciones deficientes
3) Errores debido a la falta de capacidad física o mental
4) Decisiones equivocadas
5) Errores de gestión

Error humano en:

6) diseño
7) construcción
8) operación
9) mantenimiento

Klete también da numerosos ejemplos.

El enfoque básico que adopta es el ya descrito. El ingeniero debe aceptar a las


personas tal como son y debe tratar de contrarrestar el error humano cambiando la
situación de trabajo. En sus palabras: "Decir que los accidentes son debidos a fallos
humanos no es tan falso como inútil. No conduce a ninguna acción constructiva".

Al diseñar la situación de trabajo, el objetivo debe ser prevenir la aparición de errores,


proporcionar oportunidades para observar y recuperarse de los errores, y reducir las
consecuencias de los mismos.

Algunos errores humanos son simples deslices. Kletz señala que los deslizamientos
tienden a ocurrir no por falta de habilidad, sino más bien por ella. La realización hábil
de una tarea puede no implicar mucha actividad consciente. Los deslices son una
forma de error humano a la que incluso, o tal vez especialmente, el operador bien
entrenado y capacitado es propenso. Por lo tanto, en general, la capacitación adicional
no es una respuesta apropiada. Las medidas que pueden adoptarse contra los
resbalones son: 1) prevenir el resbalón, 2) mejorar su observabilidad y 3) mitigar sus
consecuencias.

Como ilustración de un deslizamiento, Kletz cita un incidente en el que un operador


abrió un filtro antes de despresurizarlo. Fue aplastado por la puerta y murió
instantáneamente. Las medidas propuestas después del accidente incluían: (1)
desplazar el manómetro y la válvula de ventilación, que estaban situados en el piso
superior, hasta el propio filtro; (S) proporcionar un enclavamiento para evitar la
apertura hasta que se hubiera liberado la presión; (3) instituir un procedimiento de
apertura en dos etapas en el que la puerta se "abriría de golpe" para que se observara
cualquier presión en el filtro ; y (4) modificar la manilla de la puerta para que pudiera
abrirse sin que el operario tuviera que estar de pie delante de ella. Estas propuestas
son una buena ilustración de los principios para tratar estos errores. Las dos primeras
son medidas para evitar la apertura mientras el filtro está bajo presión; la tercera
asegura que el peligro sea observable; y la cuarta mitiga el efecto.

Un área de la operación del proceso donde es probable que se produzcan


deslizamientos es en el vaciado y llenado del equipo. A menudo es necesario vaciar
un recipiente u otro equipo, como una bomba. No es infrecuente que se admita líquido
en el equipo mientras la válvula de drenaje está todavía abierta. En algunas
aplicaciones un enclavamiento puede ser la solución apropiada, como se describe en
el capítulo 13.

La identificación errónea del equipo en el que se va a trabajar es otra fértil fuente de


error. Kletz pone como ejemplo una planta que tenía una alarma y un disparo en la
misma variable del proceso y donde el técnico que pretendía trabajar en la alarma de
hecho deshabilitó el disparo. También da una serie de ejemplos del funcionamiento
del botón de presión equivocado o de la válvula equivocada causada por un
etiquetado inconsistente. La identificación del equipo para el mantenimiento se
considera con más detalle en el capítulo S1.

Otro tipo de deslizamiento es el no darse cuenta. Esto es particularmente probable


que ocurra si algún artículo es similar pero no idéntico. Un ejemplo es cuando un
operador extrae de un tambor que contiene el producto químico equivocado, pero los
tambores que contienen los productos químicos correctos y los incorrectos tienen
marcas similares.
La necesidad de calcular alguna cantidad de proceso introduce una oportunidad más
de error. En algunos casos, el resultado puede ser lo suficientemente inusual como
para poner de relieve el error, pero en otros puede no serlo.

Muchos de los errores humanos en las plantas de procesamiento se deben a la falta


de capacitación e instrucciones. En términos de las categorías de comportamiento
basado en habilidades, reglas y conocimientos, las instrucciones proporcionan la base
de la segunda, mientras que el entrenamiento es una ayuda para la primera y la
tercera, y también debería proporcionar un escritor libre de culpa. Deben ser fáciles de
leer y de seguir, deben ser explicadas a los que tienen que usarlas y deben
mantenerse actualizadas.

Los problemas surgen si las instrucciones son contradictorias o difíciles de aplicar. Un


ejemplo es el de un reactor químico en el que las instrucciones eran añadir un reactivo
durante un período de 60-90 minutos, y calentarlo a45○C a medida que se añadía.
Los operadores creían que esto no podía hacerse ya que el calentador no era lo
suficientemente potente y tuvieron que añadir el reactivo a una temperatura más baja.
Un día hubo una reacción de fuga. Kletz comenta que si los operadores piensan que
no pueden seguir las instrucciones, bien pueden no plantear el asunto pero tomar lo
que creen que es la acción equivalente más cercana. En este caso su variación no fue
recogida como debería haber sido por cualquier control de gestión. Si en ciertas
circunstancias es necesario relajar una característica relacionada con la seguridad,
esto debe indicarse explícitamente en las instrucciones y el procedimiento de gobierno
explicado.

Ciertas características de la operación y mantenimiento de las plantas de


procesamiento deben ser cubiertos en la capacitación elemental. Los incidentes se
producen porque los operadores no aprecian plenamente las propiedades y peligros
básicos de los productos químicos inflamables y tóxicos y las precauciones necesarias
para manipularlos, el funcionamiento y los peligros de los sistemas de presión, las
razones de los procedimientos principales y la importancia de la observancia de todos
los procedimientos. Esta capacitación elemental se examina con más detalle en el
capítulo 28.

Hay una serie de peligros que se repiten constantemente y que deben ser cubiertos en
el entrenamiento. Ejemplos de ello son el peligro de volver a poner en marcha el
agitador de un reactor y el de despejar una línea obstruida con la presión del aire. El
entrenamiento debe inculcar cierta conciencia de lo que el aprendiz no sabe. La
modificación de las tuberías que condujo al desastre de Flixborough suele citarse
como ejemplo de la falta de reconocimiento de que la tarea excedía la competencia de
quienes la realizaban.

Kletz ilustra el problema del entrenamiento haciendo referencia al incidente de Three


Mile Island. Los operadores del reactor tenían una comprensión deficiente del sistema,
no reconocían los signos de una pequeña pérdida de agua y no podían diagnosticar la
válvula de alivio de presión como la causa de la fuga.

Los errores de instalación de los contratistas son un factor importante que contribuye
al fallo de las tuberías. Los detalles se dan en el capítulo 12. Kletz sostiene que el
efecto de una mejor capacitación del personal de los contratistas debería al menos
probarse más seriamente, aunque tal solución atrae cierto escepticismo.

El error humano puede ocurrir debido a la incapacidad física o mental para realizar la
tarea. Incluso si no hay una incapacidad total, la tarea puede ser muy difícil y por lo
tanto susceptible de error. Pueden surgir dificultades físicas en la manipulación de los
controles y las válvulas. La tarea puede requerir que el operador observe una pantalla
mientras manipula un control, pero la pantalla puede estar demasiado lejos del control
para hacerlo. Las válvulas manuales de la planta pueden ser inaccesibles o difíciles de
girar. La necesidad de utilizar un equipo de protección, como un aparato de
respiración, puede introducir dificultades físicas.

Hay una serie de situaciones que pueden crear dificultades mentales. La sobrecarga
mental es una de esas situaciones que puede presentarse de varias formas. El
operador puede sufrir una sobrecarga debido a un número excesivo de alarmas. Un
supervisor puede estar sobrecargado por el número de permisos de trabajo. Otro tipo
de dificultad mental se produce cuando el operador debe realizar tareas que no son de
su incumbencia. Un caso es la detección de eventos raros. Otro es tomar el relevo en
una emergencia de un sistema totalmente automatizado.

Otra categoría de error humano es la decisión deliberada de hacer algo contrario a las
buenas prácticas. Por lo general, implica no seguir los procedimientos o tomar alguna
otra forma de atajo. Kletz denomina a esto una " decisión equivocada". W.B. Howard
(1983, 1984) ha sostenido que esas decisiones contribuyen en gran medida a los
incidentes, argumentando que a menudo un incidente se produce no porque no se
conozca el curso de acción correcto sino porque no se sigue: 'No estamos cultivando
tan bien como sabemos'. Da una serie de ejemplos de tales decisiones erróneas de la
administración.
Otras decisiones erróneas son tomadas por los operadores o el personal de
mantenimiento. El uso de procedimientos como el sistema de permisos de trabajo o el
uso de ropa protectora son áreas típicas en las que la adherencia puede parecer
tediosa y en las que se pueden tomar atajos.

Una causa poderosa de decisiones equivocadas es la alienación. Las decisiones


erróneas del tipo descrito por el personal de operación y mantenimiento pueden
reducirse al mínimo asegurándose de que las reglas e instrucciones sean prácticas y
fáciles de usar, convenciendo al personal de que las cumpla y haciendo una auditoría
para comprobar que lo hacen.

La responsabilidad de crear una cultura que minimice y mitigue el error humano recae
directamente en la administración. El fallo más grave de la gestión es la falta de
compromiso. Sin embargo, para ser eficaz, este compromiso de la administración
debe demostrarse y hacerse para informar a toda la cultura de la organización.

Hay algunos aspectos particulares del comportamiento de gestión que pueden


fomentar el error humano. Uno de ellos es la insularidad, que puede aplicarse en
relación con otros trabajos dentro de la misma empresa, a otras empresas dentro de la
misma industria o a otras industrias y actividades. Otra falla a la que puede sucumbir
la gestión es el amateurismo. Las personas que son expertas en un campo pueden
verse arrastradas a actividades en otro campo relacionado en el que tienen poca
experiencia.

Kletz se refiere en este contexto a las fallas de gestión reveladas en las


investigaciones de los desastres de Kings Cross, Herald of Free EnJerþrise y
Clapham Junction. La alta dirección parecía no ser consciente de la naturaleza de la
cultura de seguridad requerida, a pesar de que ésta existe en otras industrias.

14.21.2 El error humano y la automatización

La automatización de las funciones que antes realizaba el operador humano puede


dar lugar a ciertos problemas característicos. Estas ironías de la automatización han
sido discutidas por Bainbridge (1983), quien identifica cuatro áreas de preocupación.
Una es el potencial de deterioro necesidad de que el operador vigile el
funcionamiento del equipo automático, función para la que no está especialmente
capacitado. La tercera es la dificultad para el operador de mantener un modelo
mental actualizado del estado del proceso en caso de que tenga que intervenir. El
cuarto es la tendencia de los sistemas automáticos a reducir las pequeñas
variaciones a costa de introducir ocasionalmente variaciones muy grandes.

Estas características de los sistemas automatizados se examinaron en términos


generales en la primera parte de este capítulo. Aquí se llama la atención sobre su
potencial para inducir el error humano.

14.21.3 Error humano en el mantenimiento de las plantas

Gran parte de la literatura sobre el error humano en las plantas de proceso está
dedicada a los operadores de proceso. Sin embargo, una gran proporción de los
incidentes graves es atribuible a errores en la labor de mantenimiento. Los errores de
mantenimiento pueden poner en peligro a quienes realizan el trabajo, la planta o
ambos.

El Health and Safety Executive (HSE) ha publicado varios tratamientos de los errores
humanos en los trabajos de mantenimiento. Los relatos ilustrados con historias de
casos se dan en Deadly MainJenance (HSE, 1985b) y Dangerous MainJenance (HSE,
1987a). Human FacJors in IndusJrial SafeJy (HSE, 1989 HS (G) 48) da una
orientación general sobre los factores humanos pertinentes enJer, entre otras cosas, a
la labor de mantenimiento.

Aquí también es apropiado empezar con el diseñador. Si es práctico diseñar la


necesidad de mantenimiento, el problema desaparece. Una causa de error en el
mantenimiento es la falta de comprensión del proceso y los productos químicos o del
equipo. Esto se ejemplifica con una serie de incidentes en los que se han aflojado
una válvula, dando aun el mantenimiento es un área en la que las prácticas
deficientes pueden fácilmente. Un ejemplo es romper una brida en el sentido
equivocado. El personal de mantenimiento de las plantas de proceso pasa gran parte
de su tiempo ocupándose de equipo pesado y sucio. No es fácil hacer la transición
necesaria cuando tienen que trabajar en artículos relativamente delicados. Un ejemplo
es dejar el equipo antideflagrante con tornillos sueltos y un espacio excesivo para que
ya no sea antideflagrante.

En algunos casos, los defectos de fabricación en el mantenimiento son graves. Kletz


cita un caso en el que un instalador tuvo que rehacer una junta con bridas usando una
nueva junta en espiral. Ya que era demasiado grande, hizo una depresión en el anillo
metálico exterior de la junta para que encajara entre los pernos. Empeoró las cosas
haciendo sólo tres depresiones para que la junta no encajara centralmente entre los
pernos. El mantenimiento es una actividad que a menudo puede ser y se pueden
tomar atajos. El uso de ropa protectora, los procedimientos de aislamiento y el sistema
de permisos de trabajo son áreas en las que se tiende a tomar esos atajos. Ya se ha
hecho referencia a los errores en identificación del equipo. Es necesario adoptar
medidas para garantizar una identificación eficaz. Una visión general de la gestión del
mantenimiento para garantizar la seguridad del trabajo es que figura en el capítulo 21.

Tabla 14.13 Error humano como causa de las tuberías fracaso (según Bellamy, Geyer y
Astley, 1989) (Cortesía del Ejecutivo de Seguridad y Salud)
____________________________________________________________________________

A Causas directas____________________________________________________________
Error del operador 30.9
Incorrecto o incorrectamente 4.5
equipo en línea ubicado
Impacto iniciado por humanos 5.6
Total 41

B Causa subyacente__________________________________________________________
Diseño 8
Fabricar 2
Construcción 8
Operación 22
Mantenimiento 59
Sabotaje 1
Total 100

C Fallos de recuperación______________________________________________________
No recuperable 1
Estudio de peligros 6
Revisión de factores humanos 60
Comprobación de tareas 31
Comprobación de rutina 2
Total 100

14.21.4 Error humano en el fallo de las tuberías

En la construcción, los errores en la instalación de las tuberías se hacen notar. El


problema se puso de relieve en una encuesta de Kletz (1984k), que ha dado una lista
la mejora de la formación de la mano de obra de la construcción, como ya se ha
descrito, y el uso del principio de barrera. Un tratamiento más detallado del trabajo de
Kletz sobre los errores en las tuberías se da en el capítulo 12.

Este tema ha sido retomado en el estudio de la falla de las tuberías, y el error


humano como causa de tal falla, descrito por Bellamy y sus colaboradores (Bellamy,
Geyer y 1989; Geyer eJ al., 1990; Geyer y Bellamy, 1991; Hurst eJ al., 1991). Ya se
ha hecho referencia a este estudio de las tuberías, donde se dan varias tablas
basadas en este estudio.
Se revisaron un total de 9S1 incidentes de las bases de datos de incidentes, se
hicieron algunos análisis de todos los 9S1 incidentes y otros análisis de algunos
50S incidentes. Los incidentes se clasificaron de tres maneras: 'causa directa', (S)
'origen del fallo' o causa subyacente, y (3) 'fallo de recuperación' o mecanismo
preventivo.

Los datos brutos mostraron que el error del operador contribuyó 18.S% a las causas
directas de la falla de las tuberías. Las tuberías o equipos defectuosos contribuyeron
en un 31,9% y las causas desconocidas en un 9,1%. Si se eliminan las dos últimas
categorías, el error del operador contribuye con el 30,9%. La tabla 14.13, sección A,
muestra la contribución a las causas directas del error del operador y de otros dos
errores humanos. Las secciones B y C de la tabla dan la distribución del error humano
entre las causas subyacentes y los fallos de recuperación, respectivamente. En el
primer caso los errores predominantes son en el mantenimiento y en el segundo en el
examen de los factores humanos y la comprobación de las tareas.

14.21.5 Error humano y diseño de plantas

En cuanto al diseño de la planta, el diseño ofrece un amplio margen para la reducción


tanto de la incidencia como de las consecuencias del error humano. No hace falta
decir que la planta debe ser diseñada de acuerdo con una buena práctica de
ingeniería mecánica y de procesos. Sin embargo, además, el diseñador debe tratar de
prever los errores que puedan producirse y protegerse contra ellos.

El diseñador lo hará más eficazmente si está consciente del estudio de incidentes


pasados del tipo de cosas que pueden salir mal. Entonces está en una mejor posición
para entender, interpretar y aplicar las normas de verificación destinada a eliminar
esos defectos. Dos de las medidas propuestas por Kletz para reducir loserrores de
construcción de tuberías son y los códigos, que son uno de los principales medios
para asegurar que los nuevos diseños tengan en cuenta y eviten la repetición de
tales incidentes.

El diseñador puede contribuir de manera significativa a la eliminación de los errores


que conducen a las fallas de las tuberías. Una de ellas es eliminar las situaciones
vulnerables a un error del operador, como la apertura de la válvula equivocada para
que la planta sufra sobrepresión o sub-temperatura. Otra es contrarrestar los errores
en la construcción y el mantenimiento aplicando el principio de barrera de manera
que sea literalmente imposible montar un elemento de otra manera que no sea la
correcta.
Otra área en la que el diseñador tiene una gran contribución que hacer es en la
facilitación de las actividades de mantenimiento de la planta. Esto incluye: la
provisión de acceso al equipo, tuberías y válvulas; arreglos de tuberías que ayuden a
aislar secciones de la planta; y medidas para prevenir la identificación errónea del
equipo.

Un aspecto de la operación que proporciona un nuevo campo para el error humano es


el control computarizado de las plantas de proceso. Esto se considera en el capítulo
13.
Figura 14.22 Esquema de los acontecimientos del accidente de la mina de carbón de
Houghton Main que ilustra los errores de comunicación (Bellamy, 1983. Reproducido con
permiso).
Cuadro 14.14 Algunos errores humanos en la comunicación interpersonal (Bellamy, 1983.
Reproducido con permiso.)

Errores de remitente

(a) Enla codificación de la información

Información no codificada (por ejemplo, el mensaje no contiene información) Información


ambigua (por ejemplo, ambigüedad semántica) Información incompleta (por ejemplo, se
omiten detalles)

Información o código incorrecto (por ejemplo, valores incorrectos dados, términos incorrectos
usados) Código inapropiado (por ejemplo, código ajeno al receptor previsto)

(b) En lainformaciónde JransmiJJing

Información no transmitida (por ejemplo, no enviada, no registrada) Información no


transmitida a tiempo (por ejemplo, demasiado tarde para tomar medidas) Información
transmitida por un canal incorrecto (por ejemplo, no se utiliza el canal estándar) Transmisión
no reconocida no repetida (por ejemplo, no es posible la repetición)

Transmisión confirmada no corregida (por ejemplo, error en el reconocimiento no notado)

2. Errores del receptor

Fallo en la adquisición del mensaje (por ejemplo, no lee el libro de registro, ignora el
mensaje) Descodificación incompleta del mensaje (por ejemplo, olvida los detalles)

Descodificación incorrecta del mensaje (por ejemplo, malinterpreta el significado)

Recepción de mensaje sin acuse de recibo (no da retroalimentación al remitente)

Se acusa recibo del mensaje, pero no hay retroalimentación del mensaje decodificado (por
ejemplo, no serepite el contenido interpretado del mensaje)

La retroalimentación del mensaje decodificado es ambigua (por ejemplo, ambigüedad


semántica)

3. Errores en grabación adicional de los mensajes enviados o recibidos

Información registrada pero mal codificada (véase 1 a) (por ejemplo, en un informe escrito)

14.21.6 El error humano y los factores es organizativos

En un nivel fundamental, el error humano está De terminado en gran medida por


factores organizativos

Como el propio error humano, el tema de las organizaciones es amplio y con una
amplia literatura, y el tratamiento aquí está estrictamente limitado.
Es habitual que los incidentes tiendan a surgir como resultado de una cadena de
acontecimientos a menudo larga y compleja. La implicación de este hecho es
importante. Significa, en efecto, que esos incidentes están determinados en gran
medida por factores organizativos. Un análisis de 10 incidentes realizado por Bellamy
(1985) reveló que en estos incidentes se produjeron ciertos factores con la siguiente
frecuencia:

 Errores de comunicación interpersonal 9


 Problemas de recursos 8
 Pensamiento excesivamente rígido 8
 Aparición de una situación nueva o inusual 7
 Presión laboral o social 7
 Estructuras jerárquicas 7
 'Juego de roles' 6
 Choques de personalidad 4

El papel de los factores organizativos es un tema principal en la obra de Kletz, que ha


descrito una serie de Incidentes que parecen surgir de fallos que, en un nivel
superficial, podrían asignarse a los equipos o a los seres humanos, pero que, en una
investigación más profunda, pueden atribuirse a aspectos organizativos. Describe el
proceso de búsqueda de estas causas más fundamentales como "pelar la cebolla".

Los factores organizativos se tienen en cuenta en cierta medida en los métodos


actuales de análisis de la fiabilidad de varias maneras. En particular, se tienen en
cuenta estos factores en relación con los procedimientos orales y escritos y con
factores que en el desempeño de las tareas.

14.21.7 Error humano en las comunicaciones

Un aspecto de los factores organizativos es la comunicación interpersonal. La


comunicación es uno de los relativamente pocos temas de error humano en las
plantas de proceso que ha sido objeto de estudio. Los trabajos sobre los errores de
comunicación han sido descritos por Bellamy (1983, 1984, 1985). Descubrió que los
errores de comunicación interpersonal desempeñaron un papel en nueve de los diez
incidentes que estudió Bellamy (1985). Los errores podrían estar asociados con
habilitación o de eventos.

Los incidentes estudiados por Bellamy (1983) incluyen la explosión en Flixborough, la


explosión en la mina de carbón de Houghton Main y la liberación radioactiva en
Sellafield. La figura 14.SS muestra su análisis de la cadena de eventos en Houghton
Main en la que los errores de comunicación fueron prominentes.

Es normal confiar en la comunicación como línea de defensa. En este caso, es


necesario tomar medidas para asegurar que la comunicación sea efectiva. Para
asegurar la integridad de la comunicación es necesario un grado considerable de
formalidad en los procedimientos de comunicación. En ciertos campos, como el control
del tráfico aéreo, esta es una práctica normal. En las industrias de procesos el grado
de formalidad en la comunicación tiende a ser variable. Dos características
importantes son los procedimientos de traspaso y el sistema de permisos de trabajo.
Otros aspectos de la comunicación pueden ser menos formales.

El cuadro 14.14 es una lista dada por Bellamy (1983) de algunos de los errores que
pueden producirse en las comunicaciones interpersonales. Una característica
destacada de los incidentes que describe es la existencia de mensajes ambiguos o
incompletos en un sistema formal. Por consiguiente, la existencia de un sistema
formal, como la entrega de libros de registro asociados, puede no ser suficiente si en
la práctica la calidad de la comunicación dentro de él es.

Dos características centrales del sistema de comunicación de una planta son el


sistema de permiso de trabajo y el sistema de traspaso. Por lo tanto, no es
sorprendente que muchos errores de comunicación estén asociados de alguna
manera con uno u otro de estos sistemas. Kletz (1991e) da como ejemplo el caso del
fallo de un sistema de permiso de trabajo, descrito en capítulo S0.

14.22 Prevención y mitigación de los errores humanos

Existen varias estrategias para la prevención y mitigación de los errores humanos.


Esencialmente, éstas tienen como objetivo:

(1) reducir la frecuencia;


(2) mejorar la observabilidad;
(3) mejorar la capacidad de recuperación;
(4) reducir el impacto.

Algunos de los medios utilizados para lograr estos fines incluyen:

(1) diseño;
(2) barreras;
(3) estudios de riesgo;
(4) revisión de factores humanos;
(5) instrucciones;
(6) ...de entrenamiento;
(7) sistemas formales de trabajo;
(8) sistemas formales de comunicación;
(9) la comprobación del trabajo;
(10) auditoría de sistemas.

El Suide Jo Reducing Human Error in Procesos 0þeraJion compilado por el Human


Factores in Reliability Group (HFRG), (1985 SRD R347) ofrece orientación en forma
de lista de verificación. Las listas de cubren (1) la interfaz operador-proceso, (2)
procedimientos, (3) lugar y ambiente de trabajo, entrenamiento, y (5) diseño de tareas
y organización del trabajo.

14.22.1 Función de las medidas de ingeniería

Existe el peligro de que el énfasis en el papel aparentemente dominante del error


humano en los incidentes importantes pueda inducir en el ingeniero una sensación de
impotencia. Esto está fuera de lugar. Como se indica en este capítulo, hay una
variedad de métodos, desde los de gestión hasta los técnicos, que pueden utilizarse
para reducir la frecuencia con que el error humano da lugar a un suceso iniciador.
Pero bien puede ser en su contribución a la mitigación de las consecuencias que el
ingeniero se haga.

14.23 Evaluación del error humano

Pasando ahora a la evaluación del error humano, el uso creciente de la evaluación


cuantitativa del riesgo ha creado una demanda para el desarrollo de técnicas de
evaluación del error humano que complementen las disponibles para la evaluación de
hardware.

En las secciones siguientes se da cuenta de la evolución de la evaluación del error


humano. Primero se describe el enfoque analítico de la tarea en el que una tarea se
descompone en sus elementos y se asignan tasas de error a cada uno de estos
elementos (Sección 14.S4). A continuación se ofrece una visión general de los
primeros intentos de descomponer la tarea de control de procesos en elementos para
los que podría haber información disponible sobre las probabilidades de error humano
(Sección 14.S5). A continuación, se vuelve a hacer un recuento de los métodos
cualitativos desarrollados para asegurar que el analista tenga una comprensión sólida
del problema antes de embarcarse en la cuantificación (Sección 14.S6). A
continuación se describen algunos de los principales métodos de estimación de la
fiabilidad humana (secciones 14.S7-14.3S), de los factores que determinan el
rendimiento (sección 14.33) y de los datos sobre el error humano (secciones 14.34). A
continuación se tratan ciertas guías y resúmenes, incluido un ejercicio de referencia, y
las aplicaciones en Sizewell B (Secciones 14.35-14.39). El tema de la evaluación de la
fiabilidad humana está repleto de siglas y el relato que aquí se hace refleja
necesariamente esto.

14.24 Evaluación del error humano: Enfoque analítico de la tarea

Pasando luego a los métodos disponibles para hacer una evaluación cuantitativa del
error humano en el funcionamiento de la planta de proceso, el punto de partida es el
análisis de la tarea.

14.24.1 Análisis de tareas

Los primeros trabajos sobre tareas discretas generalmente tomaban como punto de
partida alguna forma de análisis de tareas en la que la se desglosaba en sus partes
componentes. A continuación se estimaron las probabilidades de error en la
realización de estas sub-tareas componentes y se evaluó la probabilidad de error en la
tarea completa.

A continuación se describe una metodología basada en el enfoque analítico de tareas,


la técnica de predicción de la tasa de error humano (THERP), desarrollado por Swain
y sus colaboradores. Se ofrece aquí una visión general de este tipo de enfoque
basada en un relato anterior de Swain (197S).

Las estimaciones de la probabilidad de éxito en una tarea discreta planificada pueden


realizarse con diferentes niveles de sofisticación. En un extremo se cita a veces una
tasa de error promedio de la tarea de digamos 0,01. Esto se basa aparentemente en
la suposición de que la tasa media de error de los elementos es de 0,001 y que hay,
en promedio, 10 elementos por tarea. En el otro extremo se encuentra la recogida y
aplicación de datos experimentales sobre las tasas de error en función de los factores
que determinan el rendimiento.

Un aspecto importante de la fiabilidad de la tarea es la posibilidad de recuperación por


detección y corrección del error. Si un error es recuperable de esta manera, la tasa de
error de la tarea puede reducirse en órdenes de magnitud. La probabilidad de
recuperación depende en gran medida de las pistas disponibles en relación con el
error, ya sea de las pantallas y controles o del sistema en general.

El efecto de un error también es pertinente, ya que sólo una proporción de los errores
tiene efectos significativos. Swain sugiere que si la probabilidad de que ocurra un error
está entre 10-4 y 10-3, de que se corrija está entre 0,02 y 0,2 y de que tenga un efecto
significativo está entre 0,S y 0,3, entonces la probabilidad de que un error ,
permanecerá sin detectar y tendrá un efecto significativo es del orden de 0,4××10-6 a
60 10-6.

La aplicación del cálculo de la fiabilidad de la tarea al control del proceso se ejemplifica


con el trabajo de Ablitt (1969 UKAEA AHSB(S) R160) sobre la estimación de la
fiabilidad de la ejecución de un programa de pruebas de viaje y de alerta que involucra
unos 55 artículos.

14.25 Evaluación del error humano:

Operación del proceso

Se reconoció desde un principio que el enfoque anterior, basado como está en tareas
de rutina como el montaje de equipo, era de dudosa aplicabilidad a la tarea general de
control de procesos, y se intentó clasificar las tareas en el control de procesos a fin de
establecer los vínculos entre esas tareas y las esferas pertinentes de investigación de
los factores humanos.

Una de estas clasificaciones es la dada por Lees (1973a, 1980b), que desglosa las
tareas de control de procesos generales en tres categorías sobre las que se dispone
de información: 1) tareas simples, 2) tareas de vigilancia y 3) comportamiento de
emergencia, y otras dos categorías más difíciles: 4) tareas complejas y 5) tareas de
control. En esta clasificación, las tareas simples son esencialmente las planificadas,
normalmente rutinarias, las tareas discretas del tipo que se acaba de describir,
mientras que las tareas complejas son las que no son rutinarias pero requieren algún
elemento de decisión. La tarea de control es esencialmente el residuo de la tarea
global del operador en la supervisión del proceso, tras la exclusión de las tareas
específicas simples y complejas, la vigilancia, o la supervisión, la tarea y la respuesta
de emergencia. La clasificación fue un primer intento de descomponer la tarea de
control del proceso en categorías que se reconocen en la labor sobre los factores
humanos y sobre las que, por lo tanto, hay alguna perspectiva de obtener datos, o al
menos orientación.
Una clasificación más reciente, pero algo similar, es la dada por Dougherty y Fragola
(1988). Ellos dan la siguiente analogía entre las fallas de hardware y el error humano:

 Fallo de hardware Actividad humana


 Fallo de demanda Comportamiento dirigido por un plan
 Fallo en espera Comportamiento de vigilancia
 Ejecutando falla Comportamiento impulsado por eventos

A la lista anterior podría añadirse, en el caso de los equipos, el fallo de la respuesta de


emergencia y, en el caso de la actividad humana, el comportamiento de la respuesta
de emergencia.

Otras técnicas que adoptan un enfoque más holístico de las tareas complejas son la
técnica de actividad dirigida por objetivos (GDA ) y el método del índice de
probabilidad de éxito (SLIM ) de Embrey y la técnica de evaluación y reducción de
errores humanos (HEART) de Williams, que se describen a continuación .

14.25.1 Tareas rutinarias

Como se ha descrito anteriormente, el enfoque habitual para la de las tasas de error


humano en tareas simples, o rutinarias, es desglosar la tarea en sus elementos
constitutivos y derivar una estimación de la fiabilidad del grado en que una tarea
rutinaria se define como aquella que no requiere una toma de decisiones, de modo
que los errores se limitan a los deslizamientos y no a las equivocaciones. Dada esta
restricción, pueden utilizarse los métodos desarrollados en THERP .Alternativamente,
pueden utilizarse los métodos desarrollados para tareas complejas o no, como se
describe a continuación.

14.25.2 Tareas de vigilancia

Una tarea de vigilancia implica la detección de señales. Hay un gran volumen de


trabajo en la realización de tareas de vigilancia. Algunos de los factores que afectan
al desempeño de tales tareas son:

(1) modalidad sensorial;


(2) naturaleza de la señal;
(3) la fuerza de la señal;
(4) frecuencia de la señal;
(5) la expectativa de la señal;
(6) la duración de la guardia;
(7) motivación;
(8) se requiere una acción.

La vista y el oído son los principales canales para recibir la señal. La señal en sí
misma puede ser una simple señal de "no ir " o un patrón complejo. En este último
caso, la condición de fuera de límite puede no estar bien definida de antemano, pero
puede tener que ser juzgada por el sujeto en ese momento. La señal puede ser
fuerte y sin ruido o débil y ruidosa, puede ser frecuente o infrecuente y puede ser de
tipo esperado o inesperado. El rendimiento del sujeto se ve afectado por factores
tales como la duración de la vigilancia, el grado de motivación y la acción requerida
al recibir la señal.

De la labor de vigilancia pueden extraerse algunas conclusiones generales. En


general, el canal auditivo es superior al visual para las señales simples de GO-NO
GO como las alarmas. La probabilidad de detección de una señal varía
enormemente con la frecuencia de la señal; la detección es mucho más probable
para una señal frecuente que para una señal infrecuente. Existe un efecto de
vigilancia, por lo que el rendimiento tiende a disminuir con el tiempo.

Hay una cantidad apreciable de datos sobre las tareas de vigilancia, como el
escaneo de pantallas, la respuesta a las alarmas, etc. Un trabajo típico de vigilancia
en el control del proceso es el descrito por A.E. Green UKAEA AHSB(S) R17S,
1970). El equipo utilizado fue la tarea a partir de la de sus elementos constitutivos.
Las deficiencias de este enfoque más bien mecanicista se han reconocido desde
hace mucho tiempo para cualquier tarea que implique la adopción de decisiones,
pero puede servir para el Analizador de Respuesta Humana y Temporizador de
ocurrencias Infrecuentes (HORATIO), que produce automáticamente señales que
son razonablemente representativas en forma y distribución de tiempo de ciertos
tipos de indicación de fallas, y mide el intervalo de tiempo entre el inicio de la señal
y la respuesta del operador a la misma. Se realizaron experimentos en las salas de
control de los reactores nucleares en los que se pidió a los operadores que
respondieran a una indicación visual simulada y a una señal de alarma audible
pulsando un botón. Las velocidades de la señal estaban entre 0,35 y 1,5
eventos/hora. La probabilidad de no responder a dentro del tiempo de respuesta
permitido era de unos 10-3. Otro tipo de tarea relacionada es la inspección, que
también ha sido muy estudiada. En general, hay una mayor capacidad de error en
una tarea de inspección donde es más bien pasiva, la discriminación requerida es
simple, la tasa de defectos es baja y la inspección es continua. Si hay
características más activas, como realización de mediciones para detectar el
defecto, la tasa de defectos es alta y la inspección se alterna con otra tarea, la tasa
de error se reduce. Una encuesta de McCornack (1961) sugiere que con una
probabilidad de defecto de 0,01 el promedio de error de inspección es de alrededor
de 0,15, pero las probabilidades de error de inspección varían ampliamente y Swain
(197S) cita el rango 0,01-0,6.

14.25.3 Comportamiento de emergencia

Otra tarea definible es la respuesta a una emergencia. Esto se trata aquí como una
situación que requiere la toma de decisiones bajo presión. Aquí se dispone de cierta
información de fuentes militares y aeroespaciales. Una fuente de información es la
técnica de incidentes críticos, que consiste en interrogar al personal que ha participado
en incidentes críticos.

Se han citado ampliamente dos estudios, en particular sobre el comportamiento en las


emergencias militares. Uno es una investigación descrita por Ronan (1953) en la que
se obtuvieron incidentes críticos de las tripulaciones del Mando Aéreo Estratégico de
los Estados Unidos después de que hubieran sobrevivido a las emergencias, por
ejemplo, la pérdida de un motor en el despegue, el incendio de la cabina o el reventón
de los neumáticos en el aterrizaje. La probabilidad de una respuesta que no mejorara
o empeorara la situación fue, en promedio, de 0,16.

El otro estudio, descrito por Berkun (1964), fue sobre los reclutas del ejército que
fueron sometidos a emergencias, que eran simuladas pero que ellos creían que eran
reales, como la creciente proximidad de los proyectiles de mortero que caían cerca de
sus puestos de mando. Hasta un tercio de los reclutas huyeron en lugar de realizar la
tarea asignada, lo que habría dado lugar a un cese del ataque con mortero.

También se dispone de información sobre el trabajo en los simuladores. En el control


de procesos, un estudio típico es el estudio delimitador sobre la respuesta de los
operadores a las emergencias realizado con operadores de reactores en un simulador
de procesos en el Organismo de Energía Atómica del Reino Unido y descrito por Lees
y Sayers (1976). El simulacro incluía fallos típicos, por ejemplo, el agotamiento de la
varilla de control, el fallo del ventilador y el aumento de la temperatura del gas. La tasa
de fallos fue alta con 10 fallos/h. La respuesta fue pulsar un solo botón. Estas
condiciones fueron favorables y, por lo tanto, el resultado puede considerarse como el
límite superior de la fiabilidad del operador que cabe esperar. Para los tiempos de
respuesta en el rango de 0-30 s la probabilidad de error fue de 0.24, y para los de
60-90 s fue cero.

14.25.4 Tareas no rutinarias

Para las tareas complejas, o no rutinarias, el enfoque mecanicista de subdividir la


tarea en sus elementos constitutivos es inapropiado. El enfoque apropiado es tratar la
tarea de una manera más holística. Utilizando este enfoque es necesario obtener
estimaciones de la fiabilidad de toda la tarea.

Un método para ello es obtener estimaciones de la fiabilidad de la tarea a partir del


juicio de los expertos. Los primeros trabajos en este sentido fueron realizados por
Rook (1964), quien desarrolló un método en el que las tareas eran clasificadas por los
expertos por orden de su grado de error, y se utilizaron técnicas de clasificación para
obtener tasas de error.

Embrey (1979b) ha desarrollado esta línea de enfoque en su trabajo sobre GDA. Se


identifican tareas completas que se llevan a cabo en el control de procesos y se hacen
estimaciones de la fiabilidad de las tareas mediante una combinación de la
recopilación de datos y el juicio de expertos.

El otro método principal para determinar la fiabilidad de toda la tarea es el uso de la


simulación. La información de la simulación es generalmente una correlación entre la
probabilidad de fracaso y el tiempo disponible para realizar la tarea.

14.25.5 La tarea de control general

Queda una tarea de control general que es esencialmente el remanente que queda
después de que se hayan tratado las actividades mencionadas. El efecto del progreso
en el tratamiento del error humano en el control del proceso ha sido reducir este
indefinido.

14.25.6 Actos aislados de comisión

Existe una posibilidad finita de que al realizar su tarea de control general el operador
intervenga innecesariamente, con resultados desafortunados. Ese hecho no se pone
de manifiesto en los análisis que sólo tienen en cuenta las actividades que el operador
debe realizar.
También hay otras posibilidades, incluida la acción perjudicial deliberada del operador.
Una de esas acciones es el suicidio por destrucción de la planta, del que habla Ablitt
(1969 UKAEA AHSB(S) R190):

La probabilidad anual de que un oficial responsable intente deliberadamente dejar


caer un elemento de combustible en el reactor se considera de 10 a 3, ya que en unos
1 .000 por parte de los operadores de reactores y al menos un caso en el que el
suicidio por explosión del reactor era una posibilidad. La tasa típica de suicidios del
público en general es de unos 10-4 por año, aunque varía un poco entre los países.

El informe sobre el accidente del tren subterráneo en la estación de Moorgate en


Londres (DoE 1976/7) llamó la atención sobre la posibilidad de suicidio del conductor.
El sabotaje es otro tipo de acción del operador que no es desconocido en las plantas
de proceso.

14.25.7 Correlaciones de fiabilidad en el tiempo

El error en la ejecución de una tarea es, en general, una función del tiempo disponible
para realizarla. Ha habido una tendencia creciente a utilizar el tiempo como principal
correlador del error del operador.

Así pues, el error en las situaciones de vigilancia depende en gran medida del tiempo
de respuesta que se permita. Ablitt (1969 UKAEA AHSB(S) R190) propuso
provisionalmente las siguientes estimaciones de la probabilidad de error q para la
acción del operador en respuesta a una señal de alarma en función del tiempo de
respuesta J:

Un tipo de correlación similar subyace en las estimaciones de la probabilidad general


de un comportamiento ineficaz en emergencias utilizadas en estudios como el
Rasmussen ReþorJ. En ese estudio la probabilidad de error q utilizada para la acción
del operador en respuesta a una emergencia en función del tiempo de respuesta J es

También podría gustarte