Está en la página 1de 2

Sábado 6 de setiembre de 2003

Cuando algo sale mal


Por Tomás Buch
En los últimos días se conocieron los resultados del informe presentado por un comité ad-hoc
creado por el gobierno de los EE. UU. para estudiar las causas inmediatas y remotas del ac-
cidente que destruyó al transbordador “Columbia” el 1 de febrero de este año, causando la
muerte de sus siete tripulantes.
Lo primero fue confirmar algo que se había sospechado desde el principio: la causa inmediata
del accidente había sido el desprendimiento de un pedazo de espuma aislante que perforó el
borde de ataque del ala izquierda de la nave. Pero el estudio apuntó mucho más hondo, y
pegó en el corazón de las cadenas de mando, y de las estructuras de toma de decisiones
prevalecientes en la NASA, y el relajamiento de la “cultura de la seguridad” de una institución
que había ido perdiendo parte del rigor con que debían cuidarse los detalles que podrían po-
ner en peligro la vida de los tripulantes.
En efecto, se descubrió que el hecho que inició la catástrofe había ocurrido a poco más de un
minuto de producido el despegue de la misión; algo se sospechó, alguna alerta dieron los
técnicos, se pensó en pedir ayuda a otras instituciones para evaluar la posible gravedad de lo
ocurrido, pero se subestimó su importancia. No es seguro que se hubiese logrado evitar la
catástrofe, pero lo significativo es que ni se lo intentó. La expresión de la actitud asumida de-
be haber sido: “No va a pasar nada”. Lo más grave en la actitud de los responsables es que
hubo desprendimientos similares -aunque sin consecuencias- en varios vuelos anteriores, pe-
ro tampoco se había hecho nada para eliminar esa posible fuente de problemas.
En 1986, dos meses antes del accidente de la central nuclear soviética en Chernobyl, se pro-
dujo un accidente similar, el del transbordador “Challenger”. En aquella ocasión, el accidente
fue a segundos del despegue, que se había insistido en llevar a cabo a pesar de que las con-
diciones meteorológicas no eran las adecuadas: en lanzamientos anteriores se habían detec-
tado fallas en una junta de material sintético y se sabía que ese material se hacía frágil por
debajo de cierta temperatura. Por eso, antes del lanzamiento, hubo muchas horas de discu-
sión técnica sobre la conveniencia de suspender el lanzamiento.
También aquí, después del accidente, se hizo un estudio de las causas inmediatas y las más
remotas que fueron encontradas en fallas en la organización, más allá de la falla técnica de la
famosa junta. En este caso, hubo una segunda investigación, que analizó los resultados de la
primera y observó que ésta había omitido la causa primera de toda la secuencia: la decisión
de realizar el lanzamiento en la fecha prevista, por razones políticas que iban más allá de la
misma NASA.
Estos dos casos ilustran cómo operan las secuencias que pueden desencadenar un accidente
en un sistema complejo. Lo más significativo es la confluencia de causas técnicas con defi-
ciencias en la estructura de la cadena de mandos y con deficiencias culturales. Pocas veces,
en un sistema complejo, los accidentes son atribuibles solamente al azar o a la mano de Dios.
Hay muchos otros casos, entre los que podríamos mencionar los recientes apagones que de-
jaron a oscuras a gran parte del NE de Estados Unidos y luego, Londres, si aceptamos la
rápida negativa oficial de que podría haberse tratado de un atentado. Es llamativo que a se-
manas del evento, aún no haya una explicación coherente de sus causas.

Diario Río Negro, Sábado 6 de setiembre de 2003. Cuando algo sale mal.Por Tomás Buch. 1/2
Nuestra civilización se ha hecho cada vez más “tecnodependiente”. La enorme mayoría de la
población en nuestro país -y en gran parte de los desarrollados- es urbana. Depende, por lo
tanto, de sistemas de sostén que son de gran complejidad. Si falla cualquiera de ellos, la so-
ciedad entra en una situación de emergencia que rápidamente puede causar víctimas fatales.
Por lo tanto, esos sistemas deberían estar diseñados teniendo en cuenta todas las fallas posi-
bles, para evitar desde el tablero de dibujo que puedan ocurrir.
Los métodos de diseño para lograr ese objetivo han sido desarrollados en gran medida en la
industria nuclear, debido a que en ella las consecuencias de eventuales accidentes pueden
ser aún más graves que en otros ámbitos, pero sus métodos son aplicables en general, y las
célebres normas ISO 9000 son un intento de aplicar la “cultura de la calidad y de la seguridad”
a los ámbitos de la vida diaria. El problema es que el mejor sistema destinado a evitar los
“errores humanos” que son frecuentemente asimilados a los clásicos actos de Dios o del azar
no puede ser más robusto que la decisión humana de imponer sus normas a todo costo.
Mencionemos un ejemplo de la interacción entre las fallas técnicas, los errores humanos y las
fallas sistémicas: se sabe que es difícil manejar un automóvil sobre el suelo helado, puesto
que los reflejos habituales de los conductores no son los adecuados para resolver una situa-
ción en la que el vehículo patina sobre hielo. Por lo tanto, existe un aprendizaje nuevo que
deben realizar los conductores en zonas, donde por razones climáticas, son frecuentes las
heladas o nevadas. Además, se hace importante el uso de cadenas u otros medios técnicos
para mejorar la adherencia de los neumáticos al camino. Si un conductor desprevenido causa-
ra un accidente, se podría argumentar que se trata de un “error humano” del mismo conduc-
tor, habituado a otras condiciones. Pero en un nivel superior, correspondería que alguien -un
cartel o un control- lo alertase eficazmente sobre el problema y le impidiese seguir si no tuvie-
ra los conocimientos y elementos adecuados a la situación. Si esos avisos no existen, la falla
humana se hace sistémica. Por último, es necesario que el conductor esté educado para
hacer caso de los avisos: si no lo hace, la falla, más allá de lo sistémico, sería cultural. A lo
que apunta el informe sobre el accidente del Columbia es, justamente, a sus causas culturales
e institucionales.
Cuanto más complejo es un sistema, tanto más se debe cuidar de que el azar y los siempre
posibles “errores humanos” se encuentren neutralizados. Ello se logra diseñando los sistemas
materiales y los procedimientos operativos con la seguridad como prioridad, pero acom-
pañándolos con medidas organizativas estrictas e imponiendo su cumplimiento. Por eso, las
fallas culturales son las más difíciles de neutralizar. Las actitudes, tan comunes entre noso-
tros, del “a mí no me va a pasar” son un grave escollo en el camino de una “cultura de la se-
guridad”.
Pero hay otros aspectos de este problema, que al parecer fue definitorio en el caso de los dos
accidentes de los transbordadores: existe una aparente contradicción entre la seguridad y la
eficiencia, como entre aquélla y las prioridades políticas. Los controles redundantes, los redi-
seños y los análisis de fallas cuestan dinero y llevan tiempo, tiempos que son de otra magni-
tud que los de las prioridades de otro orden. Entonces, en muchos casos, es necesario alcan-
zar un compromiso. Pero este compromiso se ve dificultado cuando los que pagan las conse-
cuencias de un error o un accidente no son los mismos que deben correr con los costos de
evitarlo. Aquí es el punto donde el riesgo sistémico corrido por una población por culpa de
prestadores desaprensivos se transforma en un problema moral y filosófico.

Diario Río Negro, Sábado 6 de setiembre de 2003. Cuando algo sale mal.Por Tomás Buch. 2/2

También podría gustarte