Documentos de Académico
Documentos de Profesional
Documentos de Cultura
por
Richards J. Heuer, Jr.
Debido a que este libro está agotado, este archivo de documento portátil (PDF) está
formateado para la impresión a dos caras para facilitar la autoedición. Puede ser
utilizado por agencias del gobierno de los EE. UU. Para hacer copias con fines
gubernamentales y por organizaciones no gubernamentales para realizar copias
con fines educativos. Debido a que este libro puede estar sujeto a restricciones de
derechos de autor, no se pueden realizar copias con fines comerciales.
ISBN 1 929667-00-0
iii
Psicología del análisis de la inteligencia
v
Capítulo 11: Sesgos en la percepción de causa y efecto 127
vi
Prefacio del autor
vii
Prefacio
Por Douglas MacEachin 1
ix
organización de inteligencia. Lo que ilustra es que, con demasiada frecuencia, la
información recién adquirida se evalúa y procesa a través del modelo analítico
existente, en lugar de utilizarse para reevaluar las premisas del modelo en sí. Los
efectos perjudiciales de esta tendencia humana natural se derivan de la razón de
ser de una organización creada para adquirir información especial y crítica
disponible sólo a través de medios encubiertos, y para producir análisis que
integren esta información especial con la base total de conocimiento.
Dudo que cualquier oficial de inteligencia veterano sea capaz de leer este
libro sin recordar casos en los que los procesos mentales descritos por Heuer
hayan tenido un impacto adverso en la calidad del análisis. ¿Cuántas veces nos
hemos encontrado con situaciones en las que se han utilizado premisas
completamente plausibles, basadas en una sólida experiencia, para construir un
pronóstico lógicamente válido, con un acuerdo prácticamente unánime, que resultó
estar completamente equivocado? ¿En cuántos de estos casos hemos determinado,
en retrospectiva, ¿Que el problema no estaba en la lógica sino en el hecho de que
una de las premisas —por más plausible que pareciera en ese momento— era
incorrecta? ¿En cuántos de estos casos nos hemos visto obligados a admitir que la
premisa errónea no tenía una base empírica sino más bien una conclusión
desarrollada a partir de su propio modelo (a veces llamado suposición)? Y en
cuántos casos se determinó después del hecho de que se disponía de información
que debería haber proporcionado una base para cuestionar una o más premisas, y
que un cambio de las premisas relevantes habría cambiado el modelo analítico y
habría apuntado a un resultado diferente?
El remedio comúnmente prescrito para las deficiencias en el análisis y las
estimaciones de inteligencia, más ruidosamente después de las "fallas" de inteligencia,
es un aumento importante en la experiencia. La investigación de Heuer y los estudios
que cita plantean un serio desafío a esa sabiduría convencional. Los datos muestran que
la experiencia en sí misma no protege de los errores analíticos comunes que son
endémicos del proceso de pensamiento humano. Este punto se ha demostrado en
muchos campos además del análisis de inteligencia.
Una revisión de notorias fallas de inteligencia demuestra que las trampas
analíticas atraparon a los expertos tanto como a cualquiera. De hecho, los datos
muestran que cuando los expertos son víctimas de estas trampas, los efectos pueden
verse agravados por la confianza que se atribuye a la experiencia, tanto en su propia
opinión como en la percepción de los demás.
Estas observaciones no deben interpretarse en modo alguno como una
denigración del valor de la experiencia. Por el contrario, mis propios más de 30 años en
el negocio del análisis de inteligencia me sesgaron a favor de la opinión de que, al final,
X
A pesar de las menos advertencias de sobrecarga de información, no existe demasiada
información o experiencia. Y mis propias observaciones de los analistas de la CIA
sentados en la misma mesa con expertos de renombre público me han dado una gran
confianza en que los ataques al tema de la experiencia están totalmente fuera de lugar.
La principal diferencia es que un grupo consigue promover su reputación en las revistas,
mientras que el otro trabaja en un entorno cerrado en el que los principales lectores son
miembros de la audiencia más desafiante del mundo de la inteligencia: la comunidad de
formulación de políticas.
El mensaje que se transmite en la presentación de Heuer es que la
información y la pericia son medios necesarios pero no suficientes para hacer
del análisis de inteligencia el producto especial que debe ser. Debe dedicarse
un esfuerzo comparable a la ciencia del análisis. Este esfuerzo debe comenzar
con una comprensión clara de las fortalezas y debilidades inherentes del
mecanismo analítico primario, la mente humana, y la forma en que procesa la
información.
Creo que hay un elemento cultural significativo en cómo los analistas de
inteligencia se definen a sí mismos: ¿somos expertos sustantivos empleados por la CIA, o
somos analistas profesionales y oficiales de inteligencia cuya experiencia radica en
nuestra capacidad para adaptarnos rápidamente a diversos temas y problemas y
analizarlos de manera efectiva? En el mundo en general, la pericia sustantiva es mucho
más abundante que la pericia en la ciencia analítica y el procesamiento mental humano
de la información. Dick Heuer deja en claro que las trampas que el proceso mental
humano establece para los analistas no pueden eliminarse; son parte de nosotros. Lo
que se puede hacer es capacitar a las personas sobre cómo buscar y reconocer estos
obstáculos mentales y cómo desarrollar procedimientos diseñados para superarlos.
Dada la centralidad de la ciencia analítica para la misión de la inteligencia, una
pregunta clave que plantea el libro de Heuer es: en comparación con otras áreas de
nuestro negocio, ¿hemos comprometido un esfuerzo acorde con el estudio de la ciencia
analítica como requisito profesional? ¿Cómo se comparan el esfuerzo y los compromisos
de recursos en esta área con, por ejemplo, el esfuerzo y el compromiso con el desarrollo
de las habilidades de redacción de los analistas?
El libro de Heuer no pretende ser la última palabra sobre este tema. Con
suerte, será un estimulante para mucho más trabajo.
xi
Introducción
2. Jack Davis sirvió en la Dirección de Inteligencia (DI), el Consejo Nacional de Inteligencia y la Oficina de
Entrenamiento durante su carrera en la CIA. Ahora es un contratista independiente que se especializa en el
desarrollo y la enseñanza del oficio analítico. Entre sus publicaciones se encuentra
Incertidumbre, sorpresa y advertencia ( 1996).
xiii
Contribuyentes principales a la calidad del análisis
Sherman Kent
No se puede hacer justicia a las contribuciones pioneras de Sherman Kent al
análisis en un par de párrafos, y remito a los lectores a tratamientos más completos
en otros lugares. 3 Aquí me dirijo a su legado general a la profesión analítica.
Cualesquiera que sean las complejidades de los acertijos que nos esforzamos por
resolver y cualesquiera sean las técnicas sofisticadas que utilicemos para recopilar
3. Ver, en particular, el ensayo introductorio sin clasificar del editor y el "Tributo" de Harold P. Ford en Donald
P. Steury, Sherman Kent y la Junta de Estimaciones Nacionales: Ensayos recopilados ( CIA, Centro de Estudios
de Inteligencia, 1994). En adelante citado como Steury, Kent.
xiv
las piezas y almacenarlas, nunca puede haber un momento en que el
hombre reflexivo pueda ser suplantado como el dispositivo de inteligencia
supremo.
Robert Gates
Bob Gates se desempeñó como Director Adjunto de Inteligencia Central (1986–
1989) y como DCI (1991-1993). Pero su mayor impacto en la calidad del análisis de
la CIA se produjo durante su período de 1982 a 1986 como Director Adjunto de
Inteligencia (DDI).
4. Sherman Kent, Historia de la escritura, segunda edición (1967). La primera edición se publicó en 1941,
cuando Kent era profesor asistente de historia en Yale. En el primer capítulo, “Por qué la historia”, presentó
ideas y recomendaciones que luego adaptó para el análisis de inteligencia.
xv
Inicialmente educado como científico político, Gates obtuvo un doctorado. en
estudios soviéticos en Georgetown mientras trabajaba como analista en la CIA. Como
miembro del personal del Consejo de Seguridad Nacional durante la década de 1970,
obtuvo un conocimiento invaluable sobre cómo los legisladores utilizan el análisis de
inteligencia. Altamente inteligente, excepcionalmente trabajador y hábil en las artes
burocráticas, Gates fue nombrado DDI por el DCI William Casey en buena parte porque
fue uno de los pocos iniciados que encontró Casey que compartió los puntos de vista del
DCI sobre lo que Casey vio como flagrantes deficiencias de la agencia analistas. 6 Pocos
analistas y gerentes que lo escucharon han olvidado la dura crítica de Gates al
desempeño analítico en su discurso “inaugural” de 1982 como DDI.
6. Casey, muy temprano en su mandato como DCI (1981-1987), me opinó que el problema con los
analistas de la Agencia es que pasaron de sentarse en sus traseros en las universidades a sentarse en
sus traseros en la CIA, sin ver el mundo real.
7. "Audiencias de Te Gates: politización y análisis soviético en la CIA", Estudios en Inteligencia
(Primavera de 1994). "Comunicación al editor: Audiencias de Te Gates: una cuenta sesgada", Estudios en
Inteligencia ( Otoño de 1994).
8. DCI Casey solicitó que la oficina de capacitación de la Agencia impartiera este seminario para que, al menos, los
analistas pudieran aprender de sus propios errores. DDI Gates revisó cuidadosamente la declaración de metas para
el seminario, el esquema de las unidades del curso y la lista de lectura requerida.
xvi
incluyendo especialistas académicos y funcionarios de políticas, y presentar escenarios futuros
alternativos.
Sin embargo, el principal impacto de Gates provino de la práctica, de su
participación directa en la implementación de sus ideas. Utilizando su autoridad
como DDI, revisó críticamente casi todas las evaluaciones en profundidad y los
artículos actuales sobre inteligencia. antes de la publicación. Con la ayuda de su
adjunto y dos asistentes rotativos de las filas de los gerentes junior en ascenso,
Gates elevó dramáticamente los estándares para la revisión de DDI, en esencia, de
"me parece bien" a "muéstrame tu evidencia".
A medida que los muchos borradores que Gates rechazó se enviaron de
vuelta a los gerentes que los habían aprobado, acompañados de los comentarios
del DDI sobre incoherencia, falta de claridad, sesgo sustantivo y juicios mal
fundamentados, toda la cadena de revisión se volvió mucho más rigurosa. Los
analistas y sus gerentes elevaron sus estándares para evitar el dolor del rechazo de
DDI. Tanto el progreso profesional como el ego estaban en juego.
El rápido y brusco aumento de la atención prestada por los analistas y
gerentes a los fundamentos de sus juicios sustantivos probablemente no tuvo
precedentes en la historia de la Agencia. Sin embargo, los beneficios a más
largo plazo del proceso de revisión intensificado fueron más limitados porque
no se prestó suficiente atención a aclarar comercio prácticas que promoverían
la solidez analítica. Más de un participante en el proceso observó que la falta
de pautas para cumplir con los estándares de Gates condujo a una gran
cantidad de "ruedas giratorias".
El impacto de Gates, como el de Kent, debe verse en dos planos. Por un lado,
en estos días se lee poco de lo que escribió Gates sobre el oficio del análisis. Pero a
pesar de que su proceso de revisión previa a la publicación se interrumpió con sus
sucesores, una conciencia duradera de sus estándares todavía hace que muchos
gerentes y analistas se detengan a sacar conclusiones precipitadas que
experimentaron sus críticas de primera mano.
Douglas MacEachin
Doug MacEachin, DDI de 1993 a 1996, buscó proporcionar un ingrediente
esencial para asegurar la implementación de estándares analíticos sólidos: Tradecraft
corporativo estándares para analistas. Esta nueva técnica tenía como objetivo, en
particular, garantizar que se prestara suficiente atención a los desafíos cognitivos al
evaluar cuestiones complejas.
xvii
MacEachin expuso sus puntos de vista sobre las fallas analíticas y
correctivas de la Agencia en El arte del análisis: desafío y cambio en la CIA. 9 Mi
comentario sobre sus contribuciones al análisis de sonido también se basa en
una serie de intercambios con él en 1994 y 1995.
La especialidad universitaria de MacEachin era economía, pero también mostró un gran
interés por la filosofía. Su carrera en la Agencia, como la de Gates, incluyó una asignación
prolongada a una oficina de formulación de políticas. Salió de esta experiencia con nuevos
conocimientos sobre lo que constituye la inteligencia de “valor agregado” que pueden utilizar
los formuladores de políticas. Posteriormente, como gerente senior de la CIA en temas de
control de armas, se ocupó regularmente de un grupo de funcionarios políticos de mentalidad
dura que le informaron en términos contundentes qué funcionaba como un apoyo político
efectivo y qué no.
Para cuando MacEachin se convirtió en DDI en 1993, la política de Gates de
revisión previa a la publicación de DDI de casi todos los estudios analíticos de DI se
había descontinuado. MacEachin adoptó un enfoque diferente; leía —sobre todo
los fines de semana— y reflexionaba sobre numerosos artículos analíticos de DI ya
publicados. No le gustó lo que encontró. En sus palabras, aproximadamente un
tercio de los artículos destinados a ayudar al proceso de formulación de políticas no
tenían argumentos discernibles para reforzar la credibilidad de los juicios de
inteligencia, y otro tercio sufría de argumentos erróneos. Esta experiencia, junto
con las presiones sobre la CIA para un mejor desempeño analítico a raíz de
supuestos "fallos de inteligencia" en relación con la invasión de Kuwait por Irak,
impulsó su decisión de emprender un nuevo e importante esfuerzo para elevar los
estándares analíticos. 10
9. Documento sin clasificar publicado en 1994 por el Grupo de Trabajo sobre Reforma de Inteligencia, que
había sido creado en 1992 por el Consortium for the Study of Intelligence, Washington, DC.
10. Discusión entre MacEachin y el autor de esta Introducción, 1994.
xviii
MacEachin, por lo tanto, trabajó para establecer estándares sistemáticos y
transparentes para determinar si los analistas habían cumplido con sus
responsabilidades de pensamiento crítico. Para difundir la comprensión y la
aplicación de los estándares, ordenó la creación de talleres sobre análisis de ejes
para gerentes y la producción de una serie de notas sobre el oficio analítico.
También ordenó que se realizara un seguimiento del desempeño de la DI en los
estándares de artesanía y que se reconociera a las evaluaciones ejemplares. Quizás
lo más ambicioso fue que se encargó de que se incorporaran instrucciones sobre
estándares para el análisis en un nuevo curso de capacitación, "Tradecraft 2000".
Casi todos los gerentes y analistas de DI asistieron a este curso durante 1996-1997.
En el momento de escribir este artículo (principios de 1999), el poder de
permanencia a largo plazo de las iniciativas comerciales de MacEachin aún no está claro.
Pero mucho de lo que defendió ha perdurado hasta ahora. Muchos analistas de DI
utilizan variaciones de su concepto clave para producir pronósticos bien fundamentados.
En el ámbito de la formación, “Tradecraft 2000” ha sido reemplazado por un nuevo curso
que enseña los mismos conceptos a los analistas más nuevos. Pero todavía se ven
ejemplos de lo que MacEachin etiquetaría como análisis pobremente fundamentado.
Claramente, se necesita una vigilancia continua para evitar que dicho análisis llegue a los
productos DI.
Richards Heuer
Dick Heuer era, y es, mucho menos conocido dentro de la CIA que Kent,
Gates y MacEachin. No ha recibido la aclamación generalizada de la que
disfrutó Kent como padre del análisis profesional, y le faltaron los poderes
burocráticos que Gates y MacEachin podían ejercer como DDI. Pero podría
decirse que su impacto en la calidad del análisis de la Agencia ha sido al menos
tan importante como el de ellos.
Heuer se licenció en filosofía en 1950 en el Williams College,
donde, señala, quedó fascinado con la pregunta epistemológica
fundamental: "¿Qué es la verdad y cómo podemos conocerla?". En
1951, mientras era estudiante de posgrado en el campus de Berkeley de la Universidad de California,
fue reclutado como parte de la preparación de la CIA durante la Guerra de Corea. El reclutador fue
Richard Helms, veterano de OSS y actor en ascenso en el servicio clandestino de la Agencia. Future
DCI Helms, según Heuer, estaba buscando candidatos para un empleo en la CIA entre los recién
graduados de Williams College, su propia alma mater. Heuer tenía una ventaja adicional
xix
como ex editor del periódico de la universidad, cargo que Helms había ocupado
unos 15 años antes. 11
Los escritos de Dick Heuer señalan tres puntos fundamentales sobre los desafíos
cognitivos que enfrentan los analistas de inteligencia:
• La mente está mal "cableada" para lidiar de manera efectiva tanto con la
incertidumbre inherente (la niebla natural que rodea a los problemas de inteligencia
complejos e indeterminados) como con la incertidumbre inducida (la niebla hecha
por el hombre fabricada por operaciones de negación y engaño).
• Las herramientas y técnicas que preparan la mente del analista para aplicar niveles
más altos de pensamiento crítico pueden mejorar sustancialmente el análisis de
temas complejos sobre los cuales la información es incompleta, ambigua y, a
menudo, deliberadamente distorsionada. Ejemplos clave de tal intelectualidad
xx
Todos los dispositivos incluyen técnicas para estructurar información,
desafiar supuestos y explorar interpretaciones alternativas.
Este proceso puede visualizarse como percibir el mundo a través de una lente o
pantalla que canaliza y enfoca y, por lo tanto, puede distorsionar las imágenes que se
ven. Para lograr la imagen más clara posible. . . los analistas necesitan más que
xxi
Necesito entender los lentes a través de los cuales pasa esta información.
Estos lentes se conocen por muchos términos: modelos mentales, modos
de pensar, prejuicios o supuestos analíticos.
Para ver las opciones que enfrentan los líderes extranjeros como estos
líderes las ven, uno debe comprender sus valores y suposiciones e
incluso sus percepciones erróneas y malentendidos. Sin tal
conocimiento, interpretar las decisiones de líderes extranjeros o
pronosticar decisiones futuras a menudo no es más que una
especulación parcialmente informada. Con demasiada frecuencia, el
comportamiento extranjero parece "irracional" o "no es lo mejor para
ellos". Tales conclusiones a menudo indican que los analistas han
proyectado los valores y marcos conceptuales estadounidenses sobre
los líderes y las sociedades extranjeras, en lugar de comprender la
lógica de la situación tal como les parece.
Hipótesis contrapuestas
Para compensar los riesgos que acompañan al inevitable recurso de los analistas a
las imágenes espejadas, Heuer sugiere considerar los cálculos de los analistas sobre
xxii
creencias y comportamientos extranjeros como hipótesis a cuestionar. Las hipótesis
alternativas deben ser consideradas cuidadosamente, especialmente aquellas que no pueden
ser refutado sobre la base de la información disponible.
El concepto de Heuer de “Análisis de hipótesis en competencia” (ACH) es
una de sus contribuciones más importantes al desarrollo de una metodología
de análisis de inteligencia. En el centro de ACH está la noción de competencia
entre una serie de hipótesis plausibles para ver cuáles sobreviven a una serie
de pruebas de compatibilidad con la información disponible. Las hipótesis
sobrevivientes, aquellas que no han sido refutadas, están sujetas a más
pruebas. ACH, admite Heuer, no siempre dará la respuesta correcta. Pero
puede ayudar a los analistas a superar las limitaciones cognitivas discutidas en
su libro.
Algunos analistas que utilizan ACH siguen la metodología completa de ocho pasos
de Heuer. Con mayor frecuencia, emplean algunos elementos de ACH, especialmente el
uso de la información disponible para desafiar las hipótesis que más favorece el analista.
Negación y engaño
El trabajo pionero de Heuer sobre la lucha contra la negación y el engaño
(D&D) no se incluyó como un capítulo separado en este volumen. Pero sus breves
referencias aquí son convincentes.
Señala, por ejemplo, que los analistas a menudo rechazan la posibilidad
del engaño porque no ven evidencia de ello. Luego argumenta que el rechazo
no está justificado en estas circunstancias. Si el engaño está bien planeado y
ejecutado correctamente, no se debe esperar ver evidencias de él fácilmente.
Rechazar una hipótesis plausible pero no probada demasiado pronto tiende a
sesgar el análisis posterior, porque luego no se buscan las pruebas que
puedan respaldarla. La posibilidad de engaño no debe rechazarse hasta que
sea refutada o, al menos, hasta que se haya realizado una búsqueda
sistemática de pruebas y no se haya encontrado ninguna.
Impacto de Heuer
La influencia de Heuer en el oficio analítico comenzó con sus primeros artículos. Los
funcionarios de la CIA que establecieron cursos de capacitación en la década de 1980 como parte de
la búsqueda de análisis mejorado del entonces DDI Gates dieron forma a sus planes de lecciones en
parte sobre la base de los descubrimientos de Heuer. Entre estos cursos se encontraba un seminario
xxiii
Los cursos influyeron en decenas de analistas de DI, muchos de los cuales ahora se
encuentran en las filas gerenciales. Los diseñadores y profesores de Tradecraft 2000 también
fueron claramente influenciados por Heuer, como se refleja en las selecciones de lectura, los
estudios de casos y los ejercicios de clase.
El trabajo de Heuer se ha mantenido en las listas de lectura y en los planes de lecciones de los
cursos de capacitación de DI que se ofrecen a todos los analistas nuevos, así como en los cursos
sobre análisis de advertencias y cómo contrarrestar la negación y el engaño. Los analistas y gerentes
senior que han estado expuestos directamente al pensamiento de Heuer a través de sus artículos, o
mediante cursos de capacitación, continúan transmitiendo sus conocimientos a los analistas más
nuevos.
Recomendaciones
xxiv
Ofrezco algunas observaciones y recomendaciones finales, basadas en los
hallazgos de Heuer y teniendo en cuenta los duros intercambios que enfrentan los
profesionales de inteligencia:
xxv
PARTE I — NUESTRA MAQUINARIA MENTAL
Capítulo 1
Pensando en Tinking
De los diversos problemas que impiden un análisis de inteligencia preciso, los
inherentes a los procesos mentales humanos se encuentran seguramente entre los más
importantes y más difíciles de abordar. El análisis de la inteligencia es fundamentalmente un
proceso mental, pero la comprensión de este proceso se ve obstaculizada por la falta de
conciencia del funcionamiento de nuestras propias mentes.
Un hallazgo básico de la psicología cognitiva es que las personas no tienen una experiencia
consciente de la mayor parte de lo que sucede en la mente humana. Muchas funciones asociadas con
la percepción, la memoria y el procesamiento de la información se llevan a cabo antes e
independientemente de cualquier dirección consciente. Lo que aparece espontáneamente en la
conciencia es el resultado del pensamiento, no el proceso del pensamiento.
Las debilidades y sesgos inherentes a los procesos de pensamiento humano pueden
demostrarse mediante experimentos cuidadosamente diseñados. Pueden aliviarse mediante la
aplicación consciente de herramientas y técnicas que deberían estar en el conjunto de herramientas
del oficio analítico de todos los analistas de inteligencia.
******************
12. James L. Adams, Blockbusting conceptual: una guía para mejores ideas ( Nueva York: WW Norton,
segunda edición, 1980), pág. 3.
1
del proceso analítico. Se presta poca atención a mejorar la forma de pensar de
los analistas.
Pensar analíticamente es una habilidad como la carpintería o la conducción de un
automóvil. Se puede enseñar, se puede aprender y se puede mejorar con la práctica.
Pero al igual que muchas otras habilidades, como andar en bicicleta, no se aprende
sentándose en un salón de clases y se le dice cómo hacerlo. Los analistas aprenden
haciendo. La mayoría de las personas logran al menos un nivel mínimamente aceptable
de desempeño analítico con poco esfuerzo consciente más allá de completar su
educación. Sin embargo, con mucho esfuerzo y arduo trabajo, los analistas pueden
alcanzar un nivel de excelencia más allá de lo que es natural.
La carrera regular aumenta la resistencia pero no mejora la técnica sin la guía de
un experto. De manera similar, puede ser necesaria la orientación de un experto para
modificar hábitos analíticos establecidos desde hace mucho tiempo para lograr un nivel
óptimo de excelencia analítica. Un equipo de entrenamiento analítico para ayudar a los
analistas jóvenes a perfeccionar su oficio analítico sería un valioso complemento para la
instrucción en el aula.
Una clave para el aprendizaje exitoso es la motivación. Algunos de los mejores
analistas de la CIA desarrollaron sus habilidades como consecuencia de
experimentar fallas analíticas al principio de sus carreras. El fracaso los motivó a ser
más conscientes de cómo hacen el análisis y a agudizar su proceso de
pensamiento.
Este libro tiene como objetivo ayudar a los analistas de inteligencia a lograr un
mayor nivel de desempeño. Muestra cómo las personas emiten juicios basados en
información incompleta y ambigua, y ofrece herramientas y conceptos simples para
mejorar las habilidades analíticas.
La parte I identifica algunas limitaciones inherentes a los procesos mentales
humanos. La Parte II discute el oficio analítico: herramientas y enfoques simples
para superar estas limitaciones y pensar de manera más sistemática. Capítulo
8, “Análisis de hipótesis contrapuestas”, es posiblemente el capítulo individual más importante. La
Parte III presenta información sobre los sesgos cognitivos, el término técnico para los errores
capítulo final presenta una lista de verificación para analistas y recomendaciones sobre cómo los
excelencia analítica.
2
la mente no puede hacer frente directamente a la complejidad del mundo. Más
bien, construimos un modelo mental simplificado de la realidad y luego trabajamos
con este modelo. Nos comportamos racionalmente dentro de los límites de nuestro
modelo mental, pero este modelo no siempre se adapta bien a los requisitos del
mundo real. El concepto de racionalidad limitada ha llegado a ser reconocido
ampliamente, aunque no universalmente, como una descripción precisa del juicio y
la elección humanos y como un ajuste sensato a las limitaciones inherentes al
funcionamiento de la mente humana. 14
Este libro se diferencia de esas obras en dos aspectos. Analiza los problemas desde la
perspectiva de los analistas de inteligencia más que de los responsables de la formulación de
políticas. Y documenta el impacto de los procesos mentales en gran parte a través de
14. James G. March., "Bounded Rationality, Ambiguity, and the Engineering of Choice", en David E.
Bell, Howard Raifa y Amos Tversky, eds., Toma de decisiones: interacciones descriptivas, normativas y
prescriptivas ( Cambridge University Press, 1988).
15. Entre los primeros eruditos que escribieron sobre este tema se encuentran Joseph De Rivera, La
dimensión psicológica de la política exterior ( Columbus, OH: Merrill, 1968), Alexander George y Richard
Smoke, La disuasión en la política exterior estadounidense ( Nueva York: Columbia University Press, 1974) y
Robert Jervis, Percepción y percepción errónea en la política internacional ( Princeton, Nueva Jersey:
Princeton University Press, 1976).
16. Christopher Brady, “Fallos de inteligencia: más Ca Change. . . " Inteligencia y seguridad nacional, vol. 8,
No. 4 (octubre de 1993). N. Cigar, "La mentalidad estratégica de Irak y la guerra del Golfo: Plan para la
derrota", La Revista de Estudios Estratégicos, Vol. 15, No. 1 (marzo de 1992). JJ Wirtz, Te Tet Ofensive: Fallo de
inteligencia en la guerra ( Nueva York, 1991). Efraín Kam, Ataque sorpresa ( Harvard University Press, 1988).
Richard Betts, Ataque sorpresa: lecciones para la planificación de la defensa ( Brookings, 1982). Abraham
Ben-Zvi, "El estudio de los ataques sorpresa", Revista Británica de Estudios Internacionales, Vol. 5 (1979). Irán:
Evaluación del desempeño de inteligencia antes de noviembre de 1978 ( Informe Staf, Subcomité de
Evaluación, Comité Permanente Selecto de Inteligencia, Cámara de Representantes de Estados Unidos, enero
de 1979). Richard Betts, "Análisis, guerra y decisión: por qué las fallas de inteligencia son inevitables", Politica
mundial, Vol. 31, N ° 1 (octubre
1978). Richard W. Shryock, “El programa post-mortem de la comunidad de inteligencia, 1973-
1975 " Estudios en Inteligencia, Vol. 21, N ° 1 (otoño de 1977). Avi Schlaim, "Failures in National
Intelligence Estimates: The Case of the Yom Kippur War", Politica mundial, Vol. 28 (abril de 1976).
Michael Handel, Percepción, engaño y sorpresa: el caso de la guerra de Yom Kippur ( Jerusalem:
Instituto Leonard Davis de Relaciones Internacionales, Jerusalem Paper No. 19, 1976). Klaus Knorr,
"Fallos en estimaciones de inteligencia nacional: el caso de los misiles cubanos", Politica mundial, Vol.
16 (1964).
3
experimentos en psicología cognitiva en lugar de a través de ejemplos de la
historia diplomática y militar.
Un enfoque central de este libro es iluminar el papel del observador en la
determinación de lo que se observa y cómo se interpreta. Las personas construyen
su propia versión de la “realidad” a partir de la información que les brindan los
sentidos, pero esta entrada sensorial está mediada por complejos procesos
mentales que determinan qué información se atiende, cómo se organiza y el
significado que se le atribuye. Lo que las personas perciben, con qué facilidad la
perciben y cómo procesan esta información después de recibirla están fuertemente
influenciados por la experiencia pasada, la educación, los valores culturales, los
requisitos de roles y las normas organizativas, así como por las especificaciones de
la información recibida.
Este proceso puede visualizarse como percibir el mundo a través de una lente
o pantalla que canaliza y enfoca y, por lo tanto, puede distorsionar las imágenes
que se ven. Para lograr la imagen más clara posible de China, por ejemplo, los
analistas necesitan más que información sobre China. También necesitan
comprender sus propios lentes a través de los cuales pasa esta información. Estos
lentes se conocen por muchos términos: modelos mentales, mentalidades, sesgos
o supuestos analíticos.
En este libro, los términos modelo mental y mentalidad se utilizan de forma más o
menos intercambiable, aunque es probable que un modelo mental esté mejor
desarrollado y articulado que una mentalidad. Una suposición analítica es una parte de
un modelo mental o una forma de pensar. Los prejuicios discutidos en este libro son el
resultado de cómo funciona la mente y son independientes de cualquier modelo o modo
de pensar sustantivo.
Antes de obtener una licencia para ejercer, los psicoanalistas deben
someterse al psicoanálisis ellos mismos para ser más conscientes de cómo su
propia personalidad interactúa y condiciona sus observaciones de los demás.
La práctica del psicoanálisis no ha tenido tanto éxito como para que sus
procedimientos deberían ser emulados por la comunidad de inteligencia y
política exterior. Pero la analogía destaca un punto interesante: los analistas de
inteligencia deben entenderse a sí mismos antes de poder entender a los
demás. Se necesita capacitación para (a) aumentar la autoconciencia acerca de
problemas genéricos en cómo la gente percibe y hace juicios analíticos sobre
eventos extranjeros, y (b) proporcionar orientación y práctica para superar
estos problemas.
No se enfoca suficiente entrenamiento en esta dirección, es decir, hacia adentro, hacia los
4
listas generalmente significa instrucción en procedimientos organizacionales,
técnicas metodológicas o temas sustantivos. Debería dedicarse más tiempo de
formación al acto mental de pensar o analizar. Simplemente se asume,
incorrectamente, que los analistas saben analizar. Este libro está destinado a
apoyar la capacitación que examina los procesos de pensamiento y razonamiento
involucrados en el análisis de inteligencia.
Como se analiza en el próximo capítulo, los modos de pensar y los modelos
mentales son ineludibles. Son, en esencia, una destilación de todo lo que creemos
saber sobre un tema. El problema es cómo garantizar que la mente permanezca
abierta a interpretaciones alternativas en un mundo que cambia rápidamente.
La desventaja de una mentalidad es que puede colorear y controlar nuestra
percepción en la medida en que un especialista experimentado puede estar entre los
últimos en ver lo que realmente está sucediendo cuando los eventos toman un giro
nuevo e inesperado. Cuando se enfrentan a un cambio de paradigma importante, los
analistas que saben más sobre un tema tienen más que desaprender. Esto parece haber
ocurrido antes de la reunifcación de Alemania, por ejemplo. Algunos especialistas
alemanes tuvieron que ser estimulados por sus supervisores más generalistas para que
aceptaran la importancia de los cambios dramáticos en curso hacia la reunifcación de
Alemania Oriental y Occidental.
La ventaja de los modos de pensar es que ayudan a los analistas a sacar la producción a
tiempo y mantener las cosas funcionando de manera efectiva entre esos eventos vertiginosos
que se convierten en títulos de capítulos en los libros de historia. 17
17. Esta redacción es de una discusión con el veterano analista, autor y profesor de la CIA Jack Davis.
5
¿No debería haber más investigación para explorar y documentar el impacto de
diferentes modelos mentales? 18
18. El trabajo de Graham Allison sobre la crisis de los misiles en Cuba ( Esencia de decisión, Little, Brown &
Co., 1971) es un ejemplo de lo que tengo en mente. Allison identificó tres supuestos alternativos sobre cómo
funcionan los gobiernos: un modelo de actor racional, un modelo de proceso organizacional y un modelo de
política burocrática. Luego mostró cómo las suposiciones implícitas de un analista sobre el modelo más
apropiado para analizar el comportamiento de un gobierno extranjero pueden hacer que se concentre en
diferentes pruebas y llegue a diferentes conclusiones. Otro ejemplo es mi propio análisis de cinco caminos
alternativos para emitir juicios de contrainteligencia en el controvertido caso del desertor de la KGB Yuriy
Nosenko: Richards J. Heuer, Jr., "Nosenko: Five Paths to Judgment", Estudios en Inteligencia, Vol. 31, No. 3
(otoño de 1987), originalmente clasificado como secreto pero desclasificado y publicado en H. Bradford
Westerfeld, ed., Dentro del mundo privado de la CIA: artículos desclasificados del diario interno de la agencia
1955-1992 ( New Haven: Yale University Press, 1995).
6
Capítulo
******************
19. Se publicó una versión anterior de este artículo como parte de "Cognitive Factors in Deception
and Counterdeception", en Donald C. Daniel y Katherine L. Herbig, eds., Engaño militar estratégico ( Pergamon
Press, 1982).
7
miraste la Figura 1 arriba, ¿qué viste? Ahora consulte la nota a pie de página para
obtener una descripción de lo que realmente está allí. 0 ¿Percibió correctamente la
Figura 1? Si es así, tienes poderes excepcionales de observación, has tenido suerte
o has visto la figura antes. Este sencillo experimento demuestra uno de los
principios más fundamentales relacionados con la percepción:
20. El artículo está escrito dos veces en cada una de las tres frases. Esto se suele pasar por alto porque la
percepción está influenciada por nuestras expectativas sobre cómo se escriben normalmente estas frases
familiares.
21. Jerome S. Bruner y Leo Postman, "On the Perception of Incongruity: A Paradigm", en Jerome S.
Bruner y David Kraut, eds., Percepción y personalidad: un simposio ( Nueva York: Greenwood
Press, 1968).
8
Este experimento muestra que los patrones de expectativa están tan
profundamente arraigados que continúan influyendo en las percepciones incluso
cuando se alerta a las personas y tratan de tener en cuenta la existencia de datos
que no se ajustan a sus ideas preconcebidas. Tratar de ser objetivo no asegura una
percepción precisa.
La posición del sujeto de prueba que identifica los naipes es análoga a
la del analista de inteligencia o el líder del gobierno que intenta dar
sentido al flujo de papel que cruza su escritorio. Lo que realmente se
percibe en ese flujo de trabajo, así como cómo se interpreta, depende en
parte, al menos, de los patrones de expectativa del analista. Los analistas
no solo tienen expectativas sobre el color de los corazones y las espadas.
Tienen un conjunto de supuestos y expectativas sobre las motivaciones de
las personas y los procesos de gobierno en países extranjeros. Los eventos
consistentes con estas expectativas se perciben y procesan fácilmente,
mientras que los eventos que contradicen las expectativas prevalecientes
tienden a ser ignorados o distorsionados en la percepción. Por supuesto,
esta distorsión es un proceso subconsciente o preconsciente,
22. Para una discusión de la evidencia ambigua sobre el impacto de los deseos y los miedos en el juicio,
ver Robert Jervis, Percepción y percepción errónea en la política internacional ( Princeton, Nueva Jersey:
Princeton University Press, 1976), Capítulo 10.
9
Los patrones de expectativas les dicen a los analistas, subconscientemente,
qué buscar, qué es importante y cómo interpretar lo que se ve. Estos patrones
forman una mentalidad que predispone a los analistas a pensar de ciertas formas.
Una mentalidad es similar a una pantalla o lente a través de la cual uno percibe el
mundo.
Hay una tendencia a pensar en una mentalidad como algo malo que debe
evitarse. De acuerdo con esta línea de argumentación, uno debe tener una
mente abierta y dejarse influir sólo por los hechos y no por nociones
preconcebidas. Eso es un ideal inalcanzable. No existe tal cosa como "los
hechos del caso". Hay sólo un subconjunto muy selectivo de la masa total de
datos a los que uno ha estado sujeto y que uno toma como hechos y jueces
como relevantes para la cuestión en cuestión.
En realidad, las mentalidades no son buenas ni malas; son inevitables. Las
personas no tienen una forma concebible de lidiar con el volumen de
estímulos que inciden en sus sentidos, o con el volumen y la complejidad de los
datos que tienen que analizar, sin algún tipo de preconcepciones
simplificadoras sobre qué esperar, qué es importante y qué es lo que importa.
qué está relacionado con qué. "Hay una pizca de verdad en la máxima
perniciosa de que una mente abierta es una mente vacía". 23 Los analistas no
logran un análisis objetivo evitando ideas preconcebidas; eso sería ignorancia
o autoengaño. La objetividad se logra haciendo supuestos básicos y
razonamientos tan explícitos como sea posible para que puedan ser
desafiados por otros y los analistas puedan, ellos mismos, examinar su validez.
Una de las características más importantes de la mentalidad es:
La figura 2 ilustra este principio mostrando parte de una serie más larga de
dibujos modificados progresivamente que cambian casi imperceptiblemente de un
hombre a una mujer. 4 El dibujo de la derecha en la fila superior, cuando se ve solo,
tiene las mismas posibilidades de ser percibido como un hombre o una mujer.
Cuando a los sujetos de prueba se les muestra la serie completa de dibujos uno por
uno, su percepción de este dibujo intermedio está sesgada según el final de la serie
desde el que partieron. Los sujetos de prueba que comienzan viendo una imagen
que claramente es un hombre están predispuestos a favor de continuar
23. Richard Betts, "Análisis, guerra y decisión: por qué las fallas de inteligencia son inevitables", Politica
mundial, Vol. XXXI (octubre de 1978), pág. 84.
24. Dibujos ideados por Gerald Fisher en 1967.
10
ver a un hombre mucho después de que un “observador objetivo” (por ejemplo, un
observador que ha visto solo una imagen) reconoce que el hombre ahora es una mujer.
De manera similar, los sujetos de prueba que comienzan en el final de la serie de
mujeres están sesgados a favor de continuar viendo a una mujer. Una vez que un
observador se ha formado una imagen, es decir, una vez que ha desarrollado una
mentalidad o expectativa con respecto al fenómeno que se está observando, esto
condiciona las percepciones futuras de ese fenómeno.
Esta es la base de otro principio general de percepción:
Este principio explica por qué el cambio evolutivo gradual a menudo pasa
desapercibido. También explica el fenómeno de que un analista de inteligencia asignado para
trabajar en un tema o país por primera vez puede generar conocimientos precisos que han
sido pasados por alto por analistas experimentados que han trabajado en el mismo problema
durante 10 años. A veces es útil tener una nueva perspectiva; la experiencia pasada puede
obstaculizar y ayudar al análisis. Esta tendencia a asimilar nuevos datos en imágenes
preexistentes es mayor “cuanto más ambigua es la información, más confiado es el actor de
11
la vigencia de su imagen, y mayor su compromiso con la visión
establecida ”. 5
El dibujo de la Figura 3 brinda al lector la oportunidad de probar por
sí mismo la persistencia de imágenes establecidas. 26 Mira la figura
3. ¿Qué ves, una anciana o una joven? Ahora mire de nuevo para ver si puede
reorganizar visual y mentalmente los datos para formar una imagen diferente:
la de una mujer joven si su percepción original era la de una anciana, o la de la
anciana si percibió por primera vez a la joven. Si es necesario, mire la nota a
pie de página para encontrar pistas que le ayuden a identificar el otro
12
imagen. 7 Nuevamente, este ejercicio ilustra el principio de que las mentalidades se forman
rápidamente pero se resisten al cambio.
Cuando haya visto la Figura 3 de ambas cosas perspectivas, intente
cambiar de una perspectiva a otra. ¿Notas alguna dificultad inicial al hacer
este cambio? Una de las hazañas mentales más difíciles es tomar un
cuerpo familiar de datos y reorganizarlo visual o mentalmente para
percibirlo desde una perspectiva diferente. Sin embargo, esto es lo que los
analistas de inteligencia están constantemente obligados a hacer. Para
comprender las interacciones internacionales, los analistas deben
comprender la situación tal como aparece para cada una de las fuerzas
opuestas, y cambiar constantemente de una perspectiva a la otra mientras
tratan de comprender cómo cada lado interpreta una serie de
interacciones en curso. Tratar de percibir las interpretaciones de un
adversario de los eventos internacionales, así como las interpretaciones
estadounidenses de esos mismos eventos, es comparable a ver tanto a la
anciana como a la joven en la Figura 3.
Un punto relacionado se refiere al impacto de las condiciones de percepción
deficientes. El principio básico es:
27. La nariz, la boca y el ojo de la anciana son, respectivamente, la barbilla, el collar y la oreja de la joven. La
anciana se ve de perfil mirando a la izquierda. La joven también mira a la izquierda, pero la vemos
principalmente desde atrás, por lo que la mayoría de los rasgos faciales no son visibles. Su pestaña, nariz y la
curva de su mejilla pueden verse justo encima de la nariz de la anciana.
28. Jerome S. Bruner y Mary C. Potter, "Interference in Visual Recognition", Ciencias, Vol. 144
(1964), págs. 424-25.
13
ing en una etapa menos borrosa. En otras palabras, cuanto mayor es el desenfoque inicial,
más clara debe ser la imagen antes de que la gente pueda reconocerla. En segundo lugar,
cuanto más tiempo estuvieron las personas expuestas a una imagen borrosa, más clara tenía
que ser la imagen antes de que pudieran reconocerla.
Lo que sucedió en este experimento es lo que presumiblemente sucede
en la vida real; a pesar de los estímulos ambiguos, las personas forman una
especie de hipótesis tentativa sobre lo que ven. Cuanto más tiempo estén
expuestos a esta imagen borrosa, mayor confianza desarrollarán en esta
impresión inicial y tal vez errónea, por lo que mayor será el impacto de esta
impresión inicial en las percepciones posteriores. Durante un tiempo, a medida
que la imagen se vuelve más clara, no hay obvio contradicción; los nuevos
datos se asimilan a la imagen anterior, y la interpretación inicial se mantiene
hasta que la contradicción se vuelve tan obvia que se impone sobre nuestra
conciencia.
La impresión temprana pero incorrecta tiende a persistir porque la cantidad
de información necesaria para invalidar una hipótesis es considerablemente mayor
que la cantidad de información requerida para hacer una interpretación inicial. El
problema no es que exista una dificultad inherente para captar nuevas
percepciones o nuevas ideas, sino que las percepciones establecidas son muy
difíciles de cambiar. Las personas se forman impresiones sobre la base de muy
poca información, pero una vez formadas, no las rechazan ni las cambian a menos
que obtengan pruebas bastante sólidas. Los analistas pueden intentar limitar el
impacto adverso de esta tendencia suspendiendo el juicio durante el mayor tiempo
posible a medida que se recibe nueva información.
14
estímulos. Por tanto, a pesar del máximo esfuerzo por la objetividad, es probable que las
propias ideas preconcebidas del analista de inteligencia ejerzan un mayor impacto en el
producto analítico que en otros campos donde un analista trabaja con información
menos ambigua y menos discordante.
Además, el analista de inteligencia es uno de los primeros en considerar nuevos
problemas en una etapa temprana cuando la evidencia es muy confusa. Luego, el
analista sigue un problema a medida que se reciben incrementos adicionales de
evidencia y la imagen se aclara gradualmente, como sucedió con los sujetos de prueba
en el experimento que demuestra que la exposición inicial a estímulos borrosos
interfiere con la percepción precisa incluso después de que haya más y mejor
información disponible. Si los resultados de este experimento se pueden generalizar
para aplicarlos a los analistas de inteligencia, el experimento sugiere que un analista que
comienza a observar una situación problemática potencial en una etapa temprana y
poco clara está en desventaja en comparación con otros, como los formuladores de
políticas, cuya primera exposición puede llegar en una etapa posterior, cuando se
disponga de más y mejor información.
La recepción de información en pequeños incrementos a lo largo del tiempo
también facilita la asimilación de esta información en las opiniones existentes del
analista. Ningún elemento de información puede ser suficiente para incitar al analista a
cambiar una visión anterior. El mensaje acumulativo inherente a muchas piezas de
información puede ser significativo, pero se atenúa cuando esta información no se
examina en su totalidad. La revisión de la Comunidad de Inteligencia de su desempeño
antes de la Guerra Árabe-Israelí de 1973 señaló:
15
La demanda de análisis interpretativo de los clientes es mayor dentro de los dos o tres
días posteriores a la ocurrencia de un evento. El sistema requiere que el analista de
inteligencia elabore un diagnóstico casi instantáneo antes de que se disponga de
suficiente información sólida y de la información de fondo más amplia que pueda ser
necesaria para obtener una perspectiva, para hacer posible un juicio bien
fundamentado. Este diagnóstico sólo puede basarse en las ideas preconcebidas del
analista sobre cómo y por qué los acontecimientos ocurren normalmente en una
sociedad determinada.
A medida que pasa el tiempo y se recibe más información, una nueva mirada a
toda la evidencia podría sugerir una explicación diferente. Sin embargo, los
experimentos de percepción indican que un juicio temprano afecta adversamente la
formación de percepciones futuras. Una vez que un observador cree que sabe lo que
está sucediendo, esta percepción tiende a resistir el cambio. Los nuevos datos recibidos
de forma incremental se pueden colocar fácilmente en la imagen anterior de un analista.
Este sesgo de percepción se ve reforzado por las presiones organizativas que favorecen
la interpretación coherente; Una vez que el analista se compromete por escrito, tanto el
analista como la organización tienen un interés personal en mantener la evaluación
original.
El hecho de que los analistas de inteligencia se desempeñen tan bien como lo hacen es
dieciséis
Capítulo 3
******************
17
edad (SIS), memoria a corto plazo (STM) y memoria a largo plazo (LTM). 30
Cada uno difiere con respecto a la función, la forma de información contenida, el
tiempo que se retiene la información y la cantidad de capacidad de manejo de
información. Los investigadores de la memoria también postulan la existencia de
un mecanismo de interpretación y un mecanismo de control o monitorización
general de la memoria que guía la interacción entre varios elementos del sistema
de memoria.
significado, la relevancia y la importancia, así como las acciones mentales necesarias para integrar
30. Los investigadores de la memoria no emplean una terminología uniforme. El almacenamiento de información
sensorial también se conoce como registro sensorial, almacenamiento sensorial y memoria eidética y ecoica. La
memoria a corto y largo plazo también se conoce como memoria primaria y secundaria. También se utilizan una
variedad de otros términos. He adoptado la terminología utilizada por Peter H. Lindsay y Donald A. Norman en su
texto sobre Procesamiento de información humana ( Nueva York: Academic Press, 1977). Todo este capítulo se basa en
gran medida en los capítulos 8 al 11 del libro de Lindsay y Norman.
18
memoria. Cuando una persona olvida inmediatamente el nombre de alguien a
quien se le acaba de presentar, es porque el nombre no se transfirió de la
memoria a corto plazo a la memoria a largo plazo.
Una característica central de STM es la severa limitación de su capacidad. Una
persona a la que se le pide que escuche y repita una serie de 10 o 20 nombres o
números normalmente retiene solo cinco o seis elementos. Normalmente son los
últimos cinco o seis. Si uno se centra en cambio en los primeros elementos, STM se
satura con este esfuerzo y la persona no puede concentrarse y recordar los últimos
elementos. La gente elige dónde centrar su atención. Pueden concentrarse en
recordar o interpretar o tomar notas sobre la información recibida hace momentos,
o prestar atención a la información que se recibe actualmente. Las limitaciones en
la capacidad de la memoria a corto plazo a menudo impiden hacer ambas cosas.
19
No existen límites prácticos para la cantidad de información que se puede
almacenar en LTM. Las limitaciones de LTM son la dificultad de procesar
información en él y recuperar información de él. Estos temas se tratan a
continuación.
Los tres procesos de memoria comprenden el almacén de información o
base de datos que llamamos memoria, pero el sistema de memoria total debe
incluir también otras características. Algún proceso mental debe determinar
qué información se pasa de SIS a STM y de STM a LTM; decidir cómo buscar en
la base de datos LTM y juzgar si es probable que la búsqueda de memoria
adicional sea productiva; evaluar la relevancia de la información recuperada; y
evaluar datos potencialmente contradictorios.
Para explicar el funcionamiento del sistema de memoria total, los
psicólogos plantean la existencia de un mecanismo interpretativo que opera
sobre la base de datos y un monitor o mecanismo de control central que guía y
supervisa el funcionamiento de todo el sistema. Poco se sabe de estos
mecanismos y cómo se relacionan con otros procesos mentales.
A pesar de mucha investigación sobre la memoria, existe poco acuerdo en muchos
puntos críticos. Lo que se presenta aquí es probablemente el mínimo común denominador en
el que estarían de acuerdo la mayoría de los investigadores.
Organización de la información en la memoria a largo plazo. Físicamente,
el cerebro consta de aproximadamente 10 mil millones de neuronas, cada una de las
cuales es análoga a un chip de computadora capaz de almacenar información. Cada
neurona tiene brazos parecidos a un pulpo llamados axones y dendritas. Los impulsos
eléctricos fluyen a través de estos brazos y son transportados por sustancias químicas
neurotransmisoras a través de lo que se denomina brecha sináptica entre neuronas. Los
recuerdos se almacenan como patrones de conexiones entre neuronas. Cuando se
activan dos neuronas, las conexiones o "sinapsis" entre ellas se fortalecen.
Al leer este capítulo, la experiencia en realidad provoca cambios físicos en
su cerebro. "En cuestión de segundos, se forman nuevos circuitos que pueden
cambiar para siempre tu forma de pensar sobre el mundo". 31
31. George Johnson, En los palacios de la memoria: cómo construimos los mundos dentro de nuestras cabezas.
Libros antiguos, 1992, pág. xi.
20
Ha habido una investigación considerable sobre cómo se organiza y
representa la información en la memoria, pero los hallazgos siguen siendo
especulativos. La investigación actual se centra en qué secciones del cerebro
procesan varios tipos de información. Esto se determina evaluando a pacientes que
han sufrido daño cerebral por derrames cerebrales y traumatismos o mediante el
uso de imágenes de resonancia magnética funcional (fMRI) que "ilumina" la parte
activa del cerebro cuando una persona habla, lee, escribe o escucha.
Ninguna de las teorías actuales parece abarcar la gama completa o la complejidad
de los procesos de memoria, que incluyen la memoria para imágenes y sonidos, para
sentimientos y para sistemas de creencias que integran información sobre una gran
cantidad de conceptos. Por muy útil que haya sido la investigación para otros propósitos,
las necesidades de los analistas se satisfacen mejor con una imagen muy simple de la
estructura de la memoria.
Imagínese la memoria como una enorme telaraña multidimensional. Esta
imagen captura lo que es, para los propósitos de este libro, quizás la
propiedad más importante de la información almacenada en la memoria: su
interconexión. Un pensamiento lleva a otro. Es posible comenzar en cualquier
punto de la memoria y seguir un camino quizás laberíntico para llegar a
cualquier otro punto. La información se recupera rastreando a través de la red
de interconexiones hasta el lugar donde se almacena.
La recuperabilidad está influenciada por el número de ubicaciones en las que
se almacena la información y el número y la fuerza de las vías de esta información a
otros conceptos que podrían activarse por la información entrante. Cuanto más
frecuentemente se sigue un camino, más fuerte se vuelve ese camino y más
fácilmente disponible la información ubicada a lo largo de ese camino. Si uno no ha
pensado en un tema durante algún tiempo, puede resultarle difícil recordar los
detalles. Después de pensar en nuestro camino de regreso al contexto apropiado y
encontrar la ubicación general en nuestra memoria, las interconexiones se vuelven
más fácilmente disponibles. Comenzamos a recordar nombres, lugares y eventos
que parecían olvidados.
Una vez que las personas han comenzado a pensar en un problema de una
manera, los mismos circuitos o vías mentales se activan y fortalecen cada vez que
piensan en él. Esto facilita la recuperación de información. Estos mismos caminos, sin
embargo, también se convierten en surcos mentales que dificultan la reorganización
mental de la información para verla desde una perspectiva diferente. Eso explica por
qué, en el capítulo anterior, una vez que viste la foto de la anciana era difícil ver a la
joven.
21
mujer, o viceversa. Un capítulo posterior considerará formas de salir de las
rutinas mentales.
Un concepto útil de organización de la memoria es lo que algunos psicólogos
cognitivos llaman "esquema". Un esquema es cualquier patrón de relaciones
entre los datos almacenados en la memoria. Es cualquier conjunto de nodos y enlaces
entre ellos en la telaraña de la memoria que se mantienen unidos con tanta fuerza que
pueden recuperarse y utilizarse más o menos como una sola unidad.
Por ejemplo, una persona puede tener un esquema para un bar que,
cuando se activa, pone inmediatamente a disposición en la memoria el
conocimiento de las propiedades de un bar y lo que distingue a un bar, por
ejemplo, de una taberna. Trae recuerdos de barras específicas que a su vez
pueden estimular recuerdos de sed, culpa u otros sentimientos o
circunstancias. La gente también tiene esquemas (plural de esquema) para
conceptos abstractos como un sistema económico socialista y lo que lo
distingue de un sistema capitalista o comunista. Los esquemas de fenómenos
como el éxito o el fracaso al realizar una estimación de inteligencia precisa
incluirán vínculos a los elementos de la memoria que explican las causas e
implicaciones típicas del éxito o el fracaso. También debe haber esquemas
para los procesos que vinculan las memorias de los diversos pasos
involucrados en la división larga, el análisis de regresión,
Cualquier punto dado de la memoria puede estar conectado a muchos
esquemas superpuestos diferentes. Este sistema es muy complejo y no se
comprende bien.
Esta concepción de un esquema es tan general que plantea muchas
cuestiones importantes de interés para los investigadores de la memoria, pero es lo
mejor que se puede hacer dado el estado actual del conocimiento. Tiene el
propósito de enfatizar que la memoria tiene estructura. También muestra que
cómo se conecta el conocimiento en la memoria es de vital importancia para
determinar qué información se recupera en respuesta a cualquier estímulo y cómo
se utiliza esa información en el razonamiento.
Los conceptos y esquemas almacenados en la memoria ejercen una poderosa
influencia en la formación de percepciones a partir de datos sensoriales. Recuerde el
experimento discutido en el capítulo anterior en el que los sujetos de prueba fueron
expuestos muy brevemente a naipes que habían sido manipulados para que algunos
corazones fueran negros y picas rojas. Cuando se retuvo en SIS por una fracción de
segundo, las espadas eran realmente rojas. Sin embargo, durante la interpretación de la
impresión sensorial y su transferencia a STM, las espadas se volvieron negras porque el
sistema de memoria no tiene un esquema fácilmente disponible para una
22
pala roja para combinar con la impresión sensorial. Si la información no
encaja en lo que la gente sabe, o cree que sabe, tiene una gran dificultad
para procesarla.
El contenido de los esquemas en la memoria es un factor principal que distingue la
capacidad analítica más fuerte de la más débil. Esto está acertadamente ilustrado por un
experimento con jugadores de ajedrez. Cuando a los grandes maestros y maestros del
ajedrez y a los ajedrecistas ordinarios se les dio de cinco a 10 segundos para que
anotaran la posición de 20 a 25 piezas de ajedrez colocadas al azar en un tablero de
ajedrez, los maestros y los jugadores ordinarios fueron iguales en poder recordar los
lugares unas seis piezas. Sin embargo, si las posiciones de las piezas se tomaron de un
juego real (desconocido para los sujetos de prueba), los grandes maestros y los
maestros generalmente pudieron reproducir casi todas las posiciones sin error, mientras
que los jugadores ordinarios aún pudieron colocar correctamente solo una media
docena de piezas. 3
32. AD deGroot, Pensado y elección en el ajedrez ( Te Hague: Mouton, 1965) citado por Herbert
A. Simon, "¿Qué tan grande es un trozo?" Ciencias, Vol. 183 (1974), pág. 487.
23
Un factor en la transferencia de información de la memoria a corto plazo a la
memoria a largo plazo es el desarrollo de asociaciones entre la nueva
información y los esquemas ya disponibles en la memoria. Esto, a su vez,
depende de dos variables: la medida en que la información a aprender se
relaciona con un esquema ya existente y el nivel de procesamiento que se le da
a la nueva información.
Tómese un minuto para tratar de memorizar los siguientes elementos de
una lista de compras: pan, huevos, mantequilla, salami, maíz, lechuga, jabón,
mermelada, pollo y café. Lo más probable es que intentes grabar las palabras
en tu mente repitiéndolas una y otra vez. Dicha repetición, o ensayo de
mantenimiento, es eficaz para mantener la información en STM, pero es un
medio ineficaz y, a menudo, ineficaz para transferirla a LTM. La lista es difícil de
memorizar porque no se corresponde con ningún esquema que ya esté en la
memoria.
Las palabras son familiares, pero no tiene disponible en la memoria un
esquema que conecte las palabras de este grupo en particular entre sí. Si la lista se
cambiara a jugo, cereal, leche, azúcar, tocino, huevos, tostadas, mantequilla,
mermelada y café, la tarea sería mucho más sencilla porque los datos se
corresponderían con un esquema existente: elementos que se suelen consumir
para desayuno. Esta lista puede asimilarse a su reserva de conocimientos existente
con poca dificultad, al igual que el maestro de ajedrez asimila rápidamente las
posiciones de muchas piezas de ajedrez.
La profundidad del procesamiento es la segunda variable importante para
determinar qué tan bien se retiene la información. La profundidad de procesamiento se
refiere a la cantidad de esfuerzo y capacidad cognitiva empleados para procesar la
información, y el número y la fuerza de las asociaciones que de ese modo se forjan entre
los datos que se van a aprender y el conocimiento que ya está en la memoria. En
experimentos para probar qué tan bien las personas recuerdan una lista de palabras, se
les puede pedir a los sujetos de prueba que realicen diferentes tareas que reflejen
diferentes niveles de procesamiento. Las siguientes tareas ilustrativas se enumeran en
orden de la profundidad del procesamiento mental requerido: decir cuántas letras hay
en cada palabra de la lista, dar una palabra que rime con cada palabra, hacer una
imagen mental de cada palabra, inventar una historia que incorpora cada palabra.
Resulta que cuanto mayor es la profundidad del procesamiento, mayor es la capacidad de
recordar palabras en una lista. Este resultado es válido independientemente de si los sujetos de
memoria. Aconsejar a los sujetos de prueba que esperen una prueba casi no hace diferencia en su
desempeño, presumiblemente
24
hábilmente porque solo los lleva a ensayar la información en la memoria a
corto plazo, que es ineficaz en comparación con otras formas de
procesamiento.
Hay tres formas en las que la información se puede aprender o memorizar: de
memoria, asimilación o uso de un dispositivo mnemotécnico. Cada uno de estos
procedimientos se analiza a continuación. 33
estructura para vincular las palabras entre sí y / o con la información que ya está en LTM. Puede
imaginarse a sí mismo comprando o guardando los artículos e imaginarse mentalmente dónde están
ubicados en los estantes del mercado o en la cocina. O puede imaginar una historia sobre una o más
comidas que incluyan todos estos elementos. Cualquier forma de procesar información de esta
manera es una ayuda más efectiva para la retención que la repetición de memoria. Sistemas aún más
25
varios expertos en memoria han ideado nombres o palabras, pero su uso
requiere un poco de estudio y práctica.
Los dispositivos mnemónicos son útiles para recordar información que no se
ajusta a ninguna estructura conceptual o esquema apropiado que ya esté en la memoria.
Trabajan proporcionando una estructura artificial simple a la que luego se vincula la
información que se debe aprender. El dispositivo mnemónico proporciona las
“categorías de archivos” mentales que aseguran la recuperabilidad de la información.
Para recordar, primero recupere el dispositivo mnemónico y luego acceda a la
información deseada.
34. Arthur S. Elstein, Lee S. Shulman y Sarah A. Sprafka, Resolución de problemas médicos: un análisis del
razonamiento clínico ( Cambridge, MA: Harvard University Press, 1978), pág. 276.
26
Estirando los límites de la memoria de trabajo
Se dispone de información limitada sobre lo que comúnmente se considera
"memoria de trabajo": la recopilación de información que un analista tiene en la
vanguardia de la mente mientras realiza el análisis. El concepto general de
memoria de trabajo parece claro a partir de la introspección personal. Al escribir
este capítulo, soy muy consciente de las limitaciones de mi capacidad para tener en
mente muchas piezas de información mientras experimento formas de organizar
esta información y busco palabras para expresar mis pensamientos. Para ayudar a
establecer estos límites en mi memoria de trabajo, he acumulado una gran
cantidad de notas escritas que contienen ideas y párrafos a medio escribir. Solo
mediante el uso de estas ayudas de memoria externa puedo hacer frente al
volumen y la complejidad de la información que quiero usar.
Un conocido artículo escrito hace más de 40 años, titulado “El número mágico
siete — más o menos dos”, sostiene que siete — más o menos dos — es la cantidad
de cosas que las personas pueden tener en la cabeza todas a la vez. 35 Esa limitación
de la memoria de trabajo es la fuente de muchos problemas. Las personas tienen
dificultades para comprender un problema en toda su complejidad. Ésta es la razón
por la que a veces tenemos problemas para tomar una decisión. Por ejemplo,
pensamos primero en los argumentos a favor, y luego en los argumentos en
contra, y no podemos mantener todos esos pros y contras en nuestra cabeza al
mismo tiempo para tener una visión general de cómo se equilibran con cada uno.
otro.
La técnica recomendada para hacer frente a esta limitación de la
memoria de trabajo se llama externalizar el problema, sacarlo de la cabeza
y plasmarlo en un papel de una forma simplificada que muestre los
elementos principales del problema y cómo se relacionan entre sí. Capítulo
7, “Estructuración de problemas analíticos”, analiza las formas de hacer esto. Todos
implican dividir un problema en sus partes componentes y luego preparar un
“modelo” simple que muestre cómo las partes se relacionan con el todo. Cuando se
trabaja en una pequeña parte del problema, el modelo evita que se pierda de vista
el todo.
Un modelo simple de un problema analítico facilita la asimilación de
nueva información en la memoria a largo plazo; proporciona una estructura
con la que se pueden relacionar bits y piezas de información. El modelo define
las categorías para almacenar información en la memoria y recuperarla en
35. George A. Miller, "El mágico número siete: más o menos dos: algunos límites en nuestra
capacidad para procesar información". La revisión psicológica, Vol. 63, No. 2 (marzo de 1956).
27
demanda. En otras palabras, sirve como un dispositivo mnemónico que proporciona los
ganchos en los que colgar información para que se pueda encontrar cuando sea
necesario.
El modelo es inicialmente una construcción artificial, como el acrónimo
anteriormente mencionado "HOMES". Sin embargo, con el uso, se convierte rápidamente
en una parte integral de la estructura conceptual de uno: el conjunto de esquemas
utilizados en el procesamiento de la información. En este punto, recordar nueva
información ocurre por asimilación en lugar de por mnemotécnicos. Esto mejora la
capacidad de recordar y hacer inferencias a partir de un mayor volumen de información
en una mayor variedad de formas de las que serían posibles de otra manera.
“Endurecimiento de las Categorías”. Los procesos de memoria tienden a funcionar
con categorías generalizadas. Si las personas no tienen una categoría apropiada
para algo, es poco probable que lo perciban, lo almacenen en la memoria o puedan
recuperarlo de la memoria más tarde. Si las categorías se dibujan incorrectamente,
es probable que las personas perciban y recuerden las cosas de manera incorrecta.
Cuando, no obstante, la información sobre fenómenos que son diferentes en
aspectos importantes se almacena en la memoria bajo un solo concepto, pueden
producirse errores de análisis. Por ejemplo, muchos observadores de asuntos
internacionales tuvieron la impresión de que el comunismo era un movimiento
monolítico, que era el mismo en todas partes y controlado desde Moscú. Todos los
países comunistas se agruparon en una categoría única e indiferenciada llamada
"comunismo internacional" o "el bloque comunista". En 1948, esto llevó a muchos
en los Estados Unidos a minimizar la importancia de la división Stalin-Tito. Según
una autoridad, "puede ayudar a explicar por qué muchas mentes occidentales,
incluidos los académicos, permanecieron relativamente ciegas a la existencia y el
significado de las diferencias chino-soviéticas mucho después de que se hubieran
manifestado en el ámbito de las fórmulas ideológicas". 36
36. Robert Tucker, "Las revoluciones comunistas, las culturas nacionales y las naciones divididas",
Estudios de comunismo comparado ( Otoño de 1974), 235-245.
28
momento de almacenamiento. Al influir en el contenido de la memoria, todos estos
factores también influyen en el resultado del análisis de inteligencia.
El capítulo 12 sobre “Sesgos en la estimación de probabilidades” describe
cómo la disponibilidad en la memoria influye en los juicios de probabilidad. Cuantas
más instancias pueda recordar una persona de un fenómeno, más probable parece
ser ese fenómeno. Esto es cierto a pesar de que la capacidad para recordar
ejemplos pasados está influenciada por la viveza de la información, cuán
recientemente ocurrió algo, su impacto en el bienestar personal y muchos otros
factores no relacionados con la probabilidad real del fenómeno.
La memoria rara vez cambia retroactivamente. Los analistas suelen recibir nuevos
información que debería, lógicamente, hacerles reevaluar la credibilidad o
signifcativo de la información anterior. Idealmente, la información anterior
debería ser más destacada y estar fácilmente disponible en la memoria, o
menos. Pero no funciona de esa manera. Desafortunadamente, los recuerdos
rara vez se reevalúan o reorganizan retroactivamente en respuesta a nueva
información. Por ejemplo, la información que se descarta como poco
importante o irrelevante porque no se ajusta a las expectativas del analista no
se vuelve más memorable incluso si el analista cambia su forma de pensar
hasta el punto en que la misma información, recibida hoy, sería reconocida
como muy significativa. .
29
esquemas o mentalidades que les permitan alcanzar el éxito que
disfruten al hacer juicios analíticos.
Sin embargo, existe una diferencia crucial entre el maestro de ajedrez y el
analista de inteligencia maestro. Aunque el maestro de ajedrez se enfrenta a un
oponente diferente en cada partida, el entorno en el que se desarrolla cada
competencia permanece estable e invariable: los movimientos permitidos de las
diversas piezas están rígidamente determinados y las reglas no se pueden cambiar
sin el conocimiento del maestro. Una vez que el maestro de ajedrez desarrolla un
esquema preciso, no hay necesidad de cambiarlo. El analista de inteligencia, sin
embargo, debe hacer frente a un mundo que cambia rápidamente. Muchos países
que antes eran adversarios de Estados Unidos son ahora nuestros aliados formales
o de facto. Los gobiernos y sociedades estadounidenses y rusos no son los mismos
hoy que hace 20 o incluso 10 o cinco años. Es posible que los esquemas que eran
válidos ayer ya no funcionen mañana.
Aprender nuevos esquemas a menudo requiere desaprender los existentes, y
esto es sumamente difícil. Siempre es más fácil aprender un nuevo hábito que
desaprender uno antiguo. Los esquemas en la memoria a largo plazo que son tan
esenciales para un análisis efectivo son también la principal fuente de inercia para
reconocer y adaptarse a un entorno cambiante. El Capítulo 6, “Mantener una mente
abierta”, identifica herramientas para lidiar con este problema.
30
PARTE II — HERRAMIENTAS PARA PENSAR
Capítulo 4
******************
37. Una versión anterior de este capítulo se publicó como artículo no clasificado en Estudios
en Inteligencia en 1981, bajo el título "Estrategias para el juicio analítico".
38. Webster's Nuevo Diccionario Internacional, íntegro, 1954.
31
El juicio es una parte integral de todo análisis de inteligencia. Si bien el
objetivo óptimo de la recopilación de inteligencia es el conocimiento completo, este
objetivo rara vez se alcanza en la práctica. Casi por definición de la misión de
inteligencia, las cuestiones de inteligencia implican una incertidumbre
considerable. Por lo tanto, el analista suele trabajar con datos incompletos,
ambiguos y, a menudo, contradictorios. La función del analista de inteligencia
podría describirse como trascender los límites de la información incompleta
mediante el ejercicio del juicio analítico.
La naturaleza última del juicio sigue siendo un misterio. Sin embargo, es
posible identificar diversas estrategias que los analistas emplean para procesar la
información mientras se preparan para emitir un juicio. Las estrategias analíticas
son importantes porque influyen en los datos a los que se atiende. Ellos determinan
dónde el analista enfoca su luz de búsqueda, y esto inevitablemente afecta el
resultado del proceso analítico.
Lógica situacional
Este es el modo operativo más común para los analistas de inteligencia. La generación y
el análisis de hipótesis comienzan con la consideración de elementos concretos de la situación
actual, más que con amplias generalizaciones que abarcan muchos casos similares. La
situación se considera única en su tipo, por lo que debe entenderse en términos de su propia
lógica única, más que como un ejemplo de una amplia clase de eventos comparables.
32
A partir de los hechos conocidos de la situación actual y una comprensión
de las fuerzas únicas que operan en ese momento y lugar en particular, el
analista busca identificar los antecedentes lógicos o las consecuencias de esta
situación. Se desarrolla un escenario que cuelga como una narrativa plausible.
El analista puede trabajar hacia atrás para explicar los orígenes o causas de la
situación actual o hacia adelante para estimar el resultado futuro.
La lógica situacional comúnmente se enfoca en rastrear relaciones de
causa-efecto o, cuando se trata de un comportamiento intencional, relaciones de
medios-fines. El analista identifica las metas que se persiguen y explica por qué los
actores extranjeros creen que ciertos medios lograrán esas metas.
Las fortalezas particulares de la lógica situacional son su amplia aplicabilidad y
capacidad para integrar un gran volumen de detalles relevantes. Cualquier situación, por
única que sea, puede analizarse de esta manera.
La lógica situacional como estrategia analítica también tiene dos debilidades
principales. Una es que es muy difícil comprender los procesos mentales y
burocráticos de los líderes y gobiernos extranjeros. Para ver las opciones que
enfrentan los líderes extranjeros como estos líderes las ven, uno debe entender sus
valores y suposiciones e incluso sus percepciones erróneas y malentendidos. Sin tal
conocimiento, interpretar las decisiones de líderes extranjeros o pronosticar
decisiones futuras a menudo es poco más que una especulación parcialmente
informada. Con demasiada frecuencia, el comportamiento extranjero parece
"irracional" o "no en su propio interés". Tales conclusiones a menudo indican que
los analistas han proyectado los valores y marcos conceptuales estadounidenses en
los líderes y sociedades extranjeros, en lugar de comprender la lógica de la
situación tal como les parece.
La segunda debilidad es que la lógica situacional no aprovecha el
conocimiento teórico derivado del estudio de fenómenos similares en otros países y
otros períodos de tiempo. El tema de los movimientos separatistas nacionales
ilustra este punto. El nacionalismo es un problema de siglos, pero la mayoría de las
democracias industriales occidentales han sido consideradas comunidades
nacionales bien integradas. Aun así, en los últimos años se ha observado un
aumento de las presiones de los grupos étnicos minoritarios que buscan la
independencia o la autonomía. ¿Por qué ha ocurrido este fenómeno recientemente
en Escocia, el sur de Francia y Córcega, Quebec, partes de Bélgica y España, así
como en los países menos estables del Tercer Mundo donde podría esperarse?
Al abordar este tema en un modo de lógica de la situación, un analista de país
examinaría los diversos grupos políticos, económicos y sociales cuyos intereses están en
juego en el país. Basado en el poder relativo
33
posiciones de estos grupos, las interacciones dinámicas entre ellos y las
tendencias o desarrollos anticipados que podrían afectar las posiciones
futuras de las partes interesadas, el analista buscará identificar las fuerzas
impulsoras que determinarán el resultado final.
Es muy posible escribir de esta manera un estudio detallado y aparentemente
bien informado de un movimiento separatista en un solo país, ignorando el hecho
de que el conflicto étnico como fenómeno genérico ha sido objeto de un estudio
teórico considerable. Al estudiar fenómenos similares en muchos países, se pueden
generar y evaluar hipótesis sobre causas fundamentales que ni siquiera pueden ser
consideradas por un analista que se ocupa únicamente de la lógica de una situación
única. Por ejemplo, ¿en qué medida el resurgimiento de sentimientos étnicos
latentes desde hace mucho tiempo proviene de una reacción contra la
homogeneización cultural que acompaña a los sistemas modernos de
comunicación de masas?
El análisis de muchos ejemplos de un fenómeno similar, como se discute a
continuación, permite sondear causas más fundamentales que las que
normalmente se consideran en el análisis de la lógica de la situación. Las causas
próximas identificadas por la lógica situacional parecen, desde la perspectiva más
amplia del análisis teórico, ser sólo síntomas que indican la presencia de factores
causales más fundamentales. Una mejor comprensión de estas causas
fundamentales es fundamental para una previsión eficaz, especialmente a largo
plazo. Si bien la lógica situacional puede ser el mejor enfoque para estimar los
desarrollos a corto plazo, se requiere un enfoque más teórico a medida que la
perspectiva analítica avanza hacia el futuro.
Aplicar la teoría
Teoría es un término académico que no está muy de moda en la comunidad
de inteligencia, pero es inevitable en cualquier discusión sobre el juicio analítico. En
un significado popular del término, "teórico" se asocia con los términos "poco
práctico" y "poco realista". No hace falta decir que aquí se utiliza en un sentido
bastante diferente.
Una teoría es una generalización basada en el estudio de muchos ejemplos de
algún fenómeno. Especifica que cuando surge un conjunto dado de condiciones,
ciertas otras condiciones seguirán con certeza o con cierto grado de probabilidad.
En otras palabras, se considera que las conclusiones se derivan de un conjunto de
condiciones y un hallazgo de que estas condiciones se aplican en el caso específico
que se analiza. Por ejemplo, Turquía es un país en desarrollo en una posición
estratégica precaria. Esto define un conjunto de condiciones que
34
implican conclusiones sobre el papel de los militares y la naturaleza de los procesos
políticos en ese país, porque los analistas tienen una comprensión implícita, si no
explícita, de cómo estos factores se relacionan normalmente.
Lo que los académicos denominan teoría es en realidad sólo una versión más explícita
de lo que los analistas de inteligencia consideran como su comprensión básica de cómo se
comportan normalmente los individuos, las instituciones y los sistemas políticos.
Existen ventajas e inconvenientes en la aplicación de la teoría en el análisis de
la inteligencia. Una ventaja es que "la teoría economiza el pensamiento". Al
identificar los elementos clave de un problema, la teoría permite al analista
clasificar una masa de detalles menos significativos. La teoría permite al analista
ver más allá de los desarrollos transitorios de hoy, reconocer qué tendencias son
superfciales y cuáles son significativas y prever el desarrollo futuro - mentos de los
que hoy existen pocas pruebas concretas.
Considere, por ejemplo, la proposición teórica de que el desarrollo económico
y la infusión masiva de ideas extranjeras en una sociedad feudal conducen a la
inestabilidad política. Esta propuesta parece estar bien establecida. Cuando se
aplica a Arabia Saudita, sugiere que los días de la monarquía saudí están contados,
aunque los analistas de la escena saudí que utilizan la lógica situacional encuentran
poca o ninguna evidencia actual de una amenaza significativa al poder y la posición
de la familia real. Por lo tanto, la aplicación de una proposición teórica
generalmente aceptada permite al analista pronosticar un resultado para el cual la
“evidencia sólida” aún no ha comenzado a desarrollarse. Esta es una fortaleza
importante del análisis teórico cuando se aplica a problemas del mundo real.
Sin embargo, este mismo ejemplo también ilustra una debilidad común en la
aplicación de la teoría al análisis de los fenómenos políticos. Las proposiciones
teóricas con frecuencia no especifican el marco de tiempo dentro del cual se puede
anticipar que ocurran los desarrollos. El problema analítico con respecto a Arabia
Saudita no es tanto si la monarquía finalmente ser reemplazado, como cuándo o
bajo qué condiciones esto podría suceder. Una mayor elaboración de la teoría que
relaciona el desarrollo económico y las ideas extranjeras con la inestabilidad
política en las sociedades feudales identificaría indicadores de alerta temprana que
los analistas podrían buscar. Dichos indicadores guiarían tanto la recopilación de
inteligencia como el análisis de datos sociopolíticos y socioeconómicos y
conducirían a hipótesis sobre cuándo o bajo qué circunstancias podría ocurrir tal
evento.
Pero si la teoría permite al analista trascender los límites de los datos disponibles,
también puede proporcionar la base para ignorar la evidencia que es verdaderamente
35
indicativo de eventos futuros. Considere las siguientes proposiciones
teóricas a la luz de la agitación popular contra el Sha de Irán a fines de
la década de 1970: (1) Cuando la posición de un gobernante autoritario
se ve amenazada, defenderá su posición con la fuerza si es necesario.
(2) Un gobernante autoritario que goza del apoyo total de fuerzas
militares y de seguridad efectivas no puede ser derrocado por la
opinión y la agitación populares. Pocos desafiarían estas
proposiciones, pero cuando se aplicaron a Irán a fines de la década de
1970, llevaron a los especialistas de Irán a juzgar mal las posibilidades
del Sha de retener el trono del pavo real. Muchos, si no la mayoría, de
estos especialistas parecían convencidos de que el Shah seguía siendo
fuerte y que tomaría medidas enérgicas contra la disidencia cuando
amenazara con salirse de control.
La persistencia de estos supuestos se comprende fácilmente en términos
psicológicos. Cuando faltan pruebas o son ambiguas, el analista evalúa las
hipótesis aplicando su conocimiento general sobre la naturaleza de los
sistemas políticos y el comportamiento. La evidencia sobre la fuerza del Sha y
su intención de tomar medidas enérgicas contra los disidentes era ambigua,
pero el monarca iraní era un gobernante autoritario, y se suponía que los
regímenes autoritarios tenían ciertas características, como se señaló en las
proposiciones citadas anteriormente. Tus creencias sobre el Sha estaban
arraigadas en supuestos amplios y persuasivos sobre la naturaleza de los
regímenes autoritarios. per se. Para un analista que creía en las dos
proposiciones antes mencionadas, habría hecho falta mucha más evidencia,
incluida evidencia más inequívoca, para inferir que el Sha sería derrocado que
para justificar la continua confianza en su futuro. 39
39. Incluso en retrospectiva, estas dos proposiciones siguen pareciendo válidas, por lo que
algunos aspectos de la caída del Sha siguen siendo increíbles. Hay, en principio, tres posibles
razones por las que estos supuestos teóricos aparentemente válidos no lograron generar una
estimación precisa sobre Irán: (1) Una o más de las condiciones iniciales planteadas por la
teoría no se aplicaron de hecho, por ejemplo, el Shah no era realmente un gobernante
autoritario. (2) La teoría es sólo parcialmente válida, en el sentido de que existen
determinadas circunstancias en las que se aplica y no se aplica. Es necesario especificar estas
condiciones limitantes. (3) La teoría es básicamente válida, pero no se puede esperar una
precisión del 100 por ciento de las teorías de las ciencias sociales. Las ciencias sociales, a
diferencia de las ciencias naturales, se ocupan de un entorno probabilístico.
36
resaltado en gris. Este es un enfoque típico de estudios de área. El análisis
teórico examina la evidencia relacionada con un solo tema en varios países,
como se muestra en la fila resaltada en gris. Este es un enfoque típico de las
ciencias sociales.
Sin embargo, la distinción entre teoría y lógica situacional no es tan clara
como puede parecer en este gráfico. El análisis de la lógica de la situación
también se basa en gran medida en supuestos teóricos. ¿Cómo selecciona el
analista los elementos más significativos para describir la situación actual, o
identifica las causas o consecuencias de estos elementos, sin alguna teoría
implícita que relacione la probabilidad de ciertos resultados con ciertas
condiciones antecedentes?
Por ejemplo, si el analista que estima el resultado de una elección inminente
no tiene datos de encuestas actuales, es necesario mirar hacia atrás en elecciones
pasadas, estudiar las campañas y luego juzgar cómo es probable que los votantes
reaccionen a las campañas actuales y a los eventos. que influyen en las actitudes de
los votantes. Al hacerlo, el analista opera a partir de un conjunto de supuestos
sobre la naturaleza humana y lo que impulsa a las personas y los grupos. Estos
supuestos forman parte de una teoría del comportamiento político, pero es un tipo
de teoría diferente al que se discutió en el análisis teórico. No ilumina toda la
situación, sino solo un pequeño incremento de la situación, y es posible que no se
aplique más allá del país específico de interés. Además, es
37
es mucho más probable que permanezca implícito, en lugar de ser un punto focal del
análisis.
40. Robert Jervis, "Hypotheses on Misperception", Politica mundial 20 (abril de 1968), pág. 471.
38
La tendencia a relacionar eventos contemporáneos con eventos anteriores
como guía para la comprensión es poderosa. La comparación ayuda a lograr la
comprensión al reducir lo desconocido a lo familiar. En ausencia de los datos
necesarios para comprender plenamente la situación actual, el razonamiento por
comparación puede ser la única alternativa. Cualquiera que adopte este enfoque,
sin embargo, debe ser consciente del significativo potencial de error. Este curso es
una admisión implícita de la falta de información suficiente para comprender la
situación actual por derecho propio, y la falta de teoría relevante para relacionar el
presente. situación a muchas otras situaciones comparables
La dificultad, por supuesto, está en estar seguro de que dos situaciones son
realmente comparables. Debido a que son equivalentes en algunos aspectos, hay
una tendencia a razonar como si fueran equivalentes en todos los aspectos y a
asumir que la situación actual tendrá el mismo resultado o similar que la situación
histórica. Esta es una suposición válida solo cuando se basa en un análisis en
profundidad de la situación actual y el precedente histórico para asegurar que sean
realmente comparables en todos los aspectos relevantes.
En un breve libro que debería ser familiar para todos los analistas de
inteligencia, Ernest May trazó el impacto de la analogía histórica en la política
exterior de Estados Unidos. 41 Descubrió que debido al razonamiento por
analogía, los políticos estadounidenses tienden a estar una generación atrás,
decididos a evitar los errores de la generación anterior. Siguen las políticas que
hubieran sido más apropiadas en la situación histórica, pero no
necesariamente se adaptan bien a la actual.
Los formuladores de políticas en la década de 1930, por
ejemplo, vieron la situación internacional como análoga a la
anterior a la Primera Guerra Mundial. ventile el segundo. La
agresión comunista después de la Segunda Guerra Mundial
se consideró análoga a la agresión nazi, lo que llevó a una
política de contención que podría haber evitado la Segunda
Guerra Mundial.
Más recientemente, la analogía de Vietnam se ha utilizado repetidamente durante muchos
años para argumentar en contra de una política exterior estadounidense activista. Por ejemplo,
Unidos en la Guerra del Golfo, una analogía errónea porque el terreno operativo sobre el cual
41. Ernest May, ` Lecciones del pasado: el uso y el mal uso de la historia en la política exterior estadounidense
(Nueva York: Oxford University Press, 1973).
39
Las batallas que se libraron fueron completamente diferentes en Kuwait / Irak y mucho
más a nuestro favor allí en comparación con Vietnam.
May sostiene que los formuladores de políticas a menudo perciben los problemas en
términos de analogías con el pasado, pero que por lo general usan mal la historia:
Inmersión de datos
Los analistas a veces describen su procedimiento de trabajo como
sumergirse en los datos sin ajustarlos a ningún patrón preconcebido. En
algún momento, un patrón aparente (o respuesta o explicación) surge
espontáneamente, y el analista luego vuelve a los datos para verificar qué
tan bien los datos apoyan este juicio. Según este punto de vista,
40
la objetividad requiere que el analista suprima cualquier opinión o
preconcepción personal, para guiarse únicamente por los “hechos” del caso.
Pensar el análisis de esta manera pasa por alto el hecho de que la
información no puede hablar por sí misma. La importancia de la información
es siempre una función conjunta de la naturaleza de la información y el
contexto en el que se interpreta. El analista proporciona el contexto en forma
de un conjunto de supuestos y expectativas sobre el comportamiento humano
y organizacional. Estas ideas preconcebidas son determinantes críticos de qué
información se considera relevante y cómo se interpreta.
Por supuesto, hay muchas circunstancias en las que el analista no tiene
más opción que sumergirse en los datos. Obviamente, un analista debe tener
una base de conocimientos con la que trabajar antes de comenzar el análisis.
Cuando se trata de un tema nuevo y desconocido, la acumulación y revisión de
información acrítica y relativamente no selectiva es un primer paso apropiado.
Pero este es un proceso de absorción de información, no de analizarla.
Se podría especular que el analista que busca una mayor objetividad suprimiendo el
reconocimiento de su propia entrada subjetiva en realidad tiene una entrada menos válida que
43. Arthur S. Elstein, Lee S. Shulman y Sarah A. Sprafka, Resolución de problemas médicos: un análisis
del razonamiento clínico ( Cambridge, MA: Harvard University Press, 1978), pág. 270.
44. Ibíd., Pág. 281. Para un análisis más extenso del valor de la información adicional, consulte
el Capítulo 5, "¿Realmente necesita más información?"
41
explícitos para que puedan ser examinados y cuestionados, no mediante vanos
esfuerzos por eliminarlos del análisis.
relevantes y hacer el máximo uso de toda la información potencialmente relevante, sería deseable
para hacerlo.
42
Estrategias para elegir entre hipótesis
45. Alexander George, Toma de decisiones presidenciales en política exterior: el uso efectivo de la
información y el asesoramiento ( Boulder, CO: Westview Press, 1980), Capítulo 2.
43
El analista de inteligencia tiene otra opción tentadora que no está
disponible para el legislador: evitar el juicio simplemente describiendo la
situación actual, identificando alternativas y dejando que el consumidor de
inteligencia juzgue cuál alternativa es más probable. La mayoría de estas
estrategias no se analizan aquí. Los siguientes párrafos se centran únicamente
en el que parece más frecuente en el análisis de inteligencia.
"Satisfactorio"
Sugeriría, basado en la experiencia personal y las discusiones con los
analistas, que la mayoría de los análisis se llevan a cabo de una manera muy
similar al modo satisfactorio (seleccionando la primera alternativa identificada
que parece “suficientemente buena”). 46 El analista identifica lo que parece ser la
hipótesis más probable, es decir, la estimación, explicación o descripción
tentativa de la situación que parece más precisa. Los datos se recopilan y
organizan de acuerdo con si apoyan este juicio tentativo, y la hipótesis se
acepta si parece proporcionar una base razonable a los datos. El analista
cuidadoso luego hará una revisión rápida de otras posibles hipótesis y de la
evidencia no contabilizada por el juicio preferido para asegurarse de que no ha
pasado por alto alguna consideración importante.
Este enfoque tiene tres debilidades: la percepción selectiva que resulta de
enfocarse en una sola hipótesis, no generar un conjunto completo de hipótesis en
competencia y un enfoque en la evidencia que confirma, en lugar de desconfiar, las
hipótesis. Cada uno de estos se analiza a continuación.
Percepción selectiva. Las hipótesis provisionales cumplen una función útil
para ayudar a los analistas a seleccionar, organizar y gestionar la información.
Limitan el alcance del problema para que el analista pueda concentrarse
eficientemente en los datos que son más relevantes e importantes. Las hipótesis
sirven como marcos organizativos en la memoria de trabajo y, por lo tanto, facilitan
la recuperación de información de la memoria. En resumen, son elementos
esenciales del proceso analítico. Pero su utilidad funcional también conlleva algún
costo, porque una hipótesis funciona como un filtro perceptivo. Los analistas, como
la gente en general, tienden a ver lo que buscan y a pasar por alto lo que no está
incluido específicamente en su estrategia de búsqueda. Tienden a limitar la
información procesada a la que es relevante para la hipótesis actual.
46. El concepto de "satisfacción", de buscar una solución satisfactoria en lugar de una solución óptima, fue
desarrollado por Herbert A. Simon y se usa ampliamente en la literatura sobre análisis de decisiones.
44
Si la hipótesis es incorrecta, se puede perder información que sugiera una
hipótesis nueva o modificada.
Esta dificultad puede superarse mediante la consideración simultánea de
múltiples hipótesis. Este enfoque se analiza en detalle en el capítulo
8. Tiene la ventaja de centrar la atención en los pocos elementos de evidencia
que tienen el mayor valor diagnóstico para distinguir entre la validez de
hipótesis en competencia. La mayor parte de la evidencia es consistente con
varias hipótesis diferentes, y este hecho se pasa por alto fácilmente cuando los
analistas se enfocan en una sola hipótesis a la vez, especialmente si su enfoque
está en buscar confirmar en lugar de refutar lo que parece ser la respuesta
más probable.
No generar hipótesis adecuadas. Si una hipótesis tentativa
Cuando se determinan los criterios para buscar información y juzgar su relevancia,
se deduce que se puede pasar por alto la respuesta adecuada si no se engloba
dentro de las diversas hipótesis que se están considerando. La investigación sobre
la generación de hipótesis sugiere que el desempeño en esta tarea es totalmente
inadecuado. 47 Cuando se enfrentan a un problema analítico, las personas no pueden
o simplemente no se toman el tiempo para identificar la gama completa de
posibles respuestas. El desempeño analítico podría mejorarse significativamente
con una atención más deliberada a esta etapa del proceso analítico. Los analistas
deben tomarse más tiempo para desarrollar un conjunto completo de hipótesis en
competencia, utilizando las tres estrategias discutidas anteriormente: teoría, lógica
situacional y comparación.
No considerar el diagnóstico de la evidencia. En ausencia de
un conjunto completo de hipótesis alternativas, no es posible evaluar la "diagnosis"
de la evidencia. Desafortunadamente, muchos analistas no están familiarizados con
el concepto de diagnóstico de evidencia. Se refiere a la medida en que cualquier
elemento de evidencia ayuda al analista a determinar la probabilidad relativa de
hipótesis alternativas.
Para ilustrarlo, una temperatura alta puede tener un gran valor para decirle a
un médico que un paciente está enfermo, pero relativamente poco valor para
determinar qué enfermedad padece el paciente. Debido a que una temperatura
alta es consistente con tantas hipótesis posibles sobre la enfermedad de un
paciente, tiene un valor diagnóstico limitado para determinar qué enfermedad
(hipótesis) es la más probable.
47. Charles Gettys y col., Generación de hipótesis: un informe final sobre los años de investigación del árbol.
Informe técnico 15-10-80. Universidad de Oklahoma, Laboratorio de Procesos de Decisión, 1980.
45
La evidencia es diagnóstica cuando influye en el juicio de un analista sobre el relativo
probabilidad de las diversas hipótesis. Si un elemento de prueba parece coherente
con todas las hipótesis, es posible que no tenga ningún valor diagnóstico. Es una
experiencia común descubrir que la mayoría de la evidencia disponible realmente
no es muy útil, ya que se puede conciliar con todas las hipótesis.
No rechazar hipótesis
El método científico se basa en el principio de rechazar hipótesis, aceptando
tentativamente sólo aquellas hipótesis que no pueden ser refutadas. El análisis
intuitivo, en comparación, generalmente se concentra en confirmar una hipótesis y
comúnmente otorga más peso a la evidencia que apoya una hipótesis que a la
evidencia que la debilita. Idealmente, lo contrario sería cierto. Si bien los analistas
generalmente no pueden aplicar los procedimientos estadísticos de la metodología
científica para probar sus hipótesis, pueden y deben adoptar la estrategia
conceptual de tratar de refutar las hipótesis en lugar de confirmarlas.
48. PC Wason, "Sobre la imposibilidad de eliminar hipótesis en una tarea conceptual", The Quarterly Journal
of Experimental Psychology, Vol. XII, Parte 3 (1960).
46
el mismo conjunto de pruebas también puede ser coherente con otras hipótesis.
Sin embargo, una hipótesis puede refutarse citando un solo elemento de prueba
que sea incompatible con ella.
PC Wason llevó a cabo una serie de experimentos para probar la opinión de que
la gente generalmente busca pruebas confirmadoras en lugar de desconfiables. 49
El diseño experimental se basó en el punto anterior de que la validez de
una hipótesis solo puede probarse buscando refutarla en lugar de
confirmarla. A los sujetos de prueba se les dio la secuencia de tres
números, 2 - 4 - 6, y se les pidió que descubrieran la regla empleada para
generar esta secuencia. Para hacerlo, se les permitió generar secuencias
propias de tres números y preguntar al experimentador si se ajustaban a
la regla. Se les animó a generar y preguntar acerca de tantas secuencias
como quisieran y se les indicó que se detuvieran solo cuando creyeran que
habían descubierto la regla.
Hay, por supuesto, muchas reglas posibles que podrían explicar la secuencia
2 - 4 - 6. Los sujetos de prueba formularon hipótesis tentativas como cualquier
secuencia ascendente de números pares o cualquier secuencia separada por dos
dígitos. Como era de esperar, los sujetos de prueba generalmente adoptaron el
enfoque incorrecto de tratar de confirmar en lugar de eliminar tales hipótesis. Para
probar la hipótesis de que la regla era una secuencia ascendente de números
pares, por ejemplo, podrían preguntarse si la secuencia 8 - 10 - 14 se ajusta a la
regla.
Los lectores que hayan seguido el razonamiento hasta este punto
reconocerán que esta hipótesis nunca puede probarse enumerando
ejemplos de secuencias ascendentes de números pares que se ajustan a la
regla buscada. Uno solo puede refutar la hipótesis citando una secuencia
ascendente de números impares y aprendiendo que esto también se
ajusta a la regla.
La regla correcta eran tres números ascendentes cualesquiera, ya sean pares o
impares. Debido a su estrategia de buscar evidencia confirmatoria, solo seis de los 29
sujetos de prueba en el experimento de Wason tenían razón la primera vez que
pensaron que habían descubierto la regla. Cuando este mismo experimento fue repetido
por un investigador diferente con un propósito algo diferente, ninguno
47
de los 51 sujetos de prueba tuvieron la respuesta correcta la primera vez que pensaron
que habían descubierto la regla. 50
50. Harold M. Weiss y Patrick A. Knight, "La utilidad de la humildad: autoestima, búsqueda de
información y eficiencia en la resolución de problemas", Comportamiento organizacional y desempeño
humano, Vol. 25, No. 2 (abril de 1980), 216-223.
48
Conclusión
Stech señala que en cada uno de estos esfuerzos de gran éxito, los
analistas emplearon procedimientos que “. . . facilitó la formulación y la
comprobación entre sí de estimaciones hipotéticas alternativas de las
intenciones enemigas. Cada uno de los tres relatos enfatizó este
enfrentamiento de hipótesis en competencia con la evidencia ". 5
51. Alexander George, Análisis de la propaganda: un estudio de las inferencias hechas a partir de la propaganda nazi
en la Segunda Guerra Mundial ( Evanston, IL: Row, Peterson, 1959); Patrick Beesly, Inteligencia muy especial: la historia
del Centro de Inteligencia Operacional del Almirantazgo 1939-1945 ( Londres: Hamish Hamilton,
1977); y RV Jones, WizardWar: Inteligencia científica británica 1939-1945 ( Nueva York:
Coward, McCann & Geoghegan, 1978).
52. Frank J. Stech, Estimación de intenciones políticas y militares: Un análisis taxonométrico, Informe final
para la Oficina de Investigación Naval (Bethesda, MD: MATHTECH, Inc., noviembre de 1979), p.
283.
49
50
Capítulo 5
******************
53. Esta es una versión editada de un artículo que apareció en Estudios en Inteligencia, Vol. 23, N ° 1
(primavera de 1979). Hacer encaje Estudios en Inteligencia El artículo se reimprimió más tarde en H. Bradford
Westerfeld, ed., Dentro del mundo privado de la CIA: artículos desclasificados del diario interno de la
agencia, 1955-1992 (New Haven: Yale University Press, 1995). Se publicó una versión ligeramente diferente
en El burócrata, Vol. 8, 1979, bajo el título "Mejorar el análisis de inteligencia: algunas ideas sobre datos,
conceptos y gestión en la comunidad de inteligencia". Para este libro, partes del artículo original que tratan
sobre la mejora del análisis de inteligencia se han trasladado al capítulo 14 sobre "Mejora del análisis de
inteligencia".
51
a la totalidad del material que un analista tiene disponible para trabajar al emitir un
juicio.
Los hallazgos clave de esta investigación son:
52
Estos hallazgos tienen una amplia relevancia más allá de la comunidad de inteligencia. El
análisis de la información para comprender mejor los desarrollos actuales y estimar los
resultados futuros es un componente esencial de la toma de decisiones en cualquier campo.
De hecho, los experimentos psicológicos más relevantes se han realizado con expertos en
campos tan diversos como el diagnóstico médico y psicológico, el análisis bursátil, la previsión
meteorológica y las carreras de caballos. Los experimentos reflejan los procesos humanos
básicos que afectan el análisis de cualquier tema.
54. Paul Slovic, “Behavioural Problems of Adhering to a Decision Policy”, manuscrito inédito,
1973.
53
se les pidió que clasificaran los cinco mejores caballos de cada carrera en orden de
finalización esperada. A cada handicap se le dieron los datos en incrementos de las
variables 5, 10, 20 y 40 que había considerado más útiles. Por lo tanto, predijo cada
carrera cuatro veces, una con cada uno de los cuatro niveles diferentes de
información. Para cada predicción, cada handicap asignó un valor de 0 a 100 por
ciento para indicar el grado de confianza en la precisión de su predicción.
54
La predicción de los cappers de los ganadores del primer lugar y la confianza de los
handicappers en sus predicciones se muestra en la Figura 5.
Con solo cinco elementos de información, la confianza de los discapacitados
estaba bien calibrada con su precisión, pero se volvieron demasiado confiados a medida
que se recibía información adicional.
Las mismas relaciones entre la cantidad de información, la precisión y la
confianza del analista han sido confirmadas por experimentos similares en otros
campos. 55 En un experimento con psicólogos clínicos, un archivo de caso psicológico
se dividió en cuatro secciones que representan períodos cronológicos sucesivos en
la vida de un individuo relativamente normal. Se pidió a 32 psicólogos con distintos
niveles de experiencia que emitieran juicios sobre la base de esta información.
Después de leer cada sección del archivo de caso, los psicólogos respondieron 25
preguntas (para las cuales se conocían respuestas) sobre la personalidad del sujeto
del archivo. Como en otros experimentos, el aumento de la información dio como
resultado un fuerte aumento de la confianza, pero un aumento insignificante de la
precisión. 56
Una serie de experimentos para examinar los procesos mentales de los médicos
que diagnostican enfermedades encontraron poca relación entre la minuciosidad de la
recopilación de datos y la precisión del diagnóstico. Los estudiantes de medicina cuya
estrategia de investigación autodescrita enfatizaba la recopilación completa de
información (en oposición a la formación y prueba de hipótesis) estaban
significativamente por debajo del promedio en la precisión de sus diagnósticos. Parece
que la formulación explícita de hipótesis encamina una búsqueda de información más
eficiente y efectiva. 57
55. Para obtener una lista de referencias, consulte Lewis R. Goldberg, “¿Modelos simples o procesos simples?
Algunas investigaciones sobre juicios clínicos ” Psicólogo estadounidense, 23 (1968), págs. 261-265.
56. Stuart Oskamp, "Overconfdence in Case-Study Judgments", Revista de Psicología
Consultiva, 29 (1965), págs. 261-265.
57. Arthur S. Elstein et al., Resolución de problemas médicos: un análisis del razonamiento clínico
(Cambridge, MA y Londres: Harvard University Press, 1978), págs.270 y 295.
55
Los ables son los más importantes y cómo se relacionan entre sí. Si los
analistas tienen una buena percepción de su propio modelo mental, deberían
ser capaces de identificar y describir las variables que han considerado más
importantes para emitir juicios.
Sin embargo, existe una fuerte evidencia experimental de que tal
auto-visión suele ser defectuosa. El experto percibe su propio proceso de
juicio, incluido el número de diferentes tipos de información que se tienen en
cuenta, como considerablemente más complejo de lo que en realidad es. Los
expertos sobreestiman la importancia de los factores que tienen un impacto
menor en su juicio y subestiman la medida en que sus decisiones se basan en
unas pocas variables importantes. En resumen, los modelos mentales de las
personas son más simples de lo que piensan, y el analista generalmente
desconoce no solo qué variables debería tienen la mayor influencia, pero
también qué variables Realmente están teniendo la mayor influencia.
Todo esto ha sido demostrado por experimentos en los que se pidió a los
analistas que hicieran estimaciones cuantitativas sobre un número relativamente
grande de casos en su área de especialización, cada caso definido por una serie de
factores cuantificables. En un experimento, por ejemplo, se pidió a los analistas del
mercado de valores que pronosticaran la apreciación del precio a largo plazo de 50
valores, y cada valor se describió en términos como la relación precio / ganancias,
la tendencia de crecimiento de las ganancias corporativas y el rendimiento por
dividendo. 58 Después de completar esta tarea, se pidió a los analistas que explicaran
cómo llegaron a sus conclusiones, incluido el peso que atribuían a cada una de las
variables. Se les indicó que fueran lo suficientemente explícitos para que otra
persona que pasara por la misma información pudiera aplicar las mismas reglas de
juicio y llegar a las mismas conclusiones.
Para comparar esta racionalización verbal con la política de juicio reflejada en
las decisiones reales de los analistas del mercado de valores, se pueden utilizar
análisis de regresión múltiple u otros procedimientos estadísticos similares para
desarrollar un modelo matemático de cómo cada analista realmente pesó y
combinó información sobre las variables relevantes. . 59 Se han realizado al menos
ocho estudios de este tipo en diversos campos, 60 incluyendo uno que involucra
58. Paul Slovic, Dan Fleissner y W. Scott Bauman, "Analyzing the Use of Information in Investment
Decision Making: A Methodological Proposal", The Journal of Business, 45 (1972), págs. 283-301.
59. Para un análisis de la metodología, véase Slovic, Fleissner y Bauman, op. cit.
60. Para obtener una lista de referencias, consulte Paul Slovic y Sarah Lichtenstein, "Comparación de enfoques
bayesianos y de regresión para el estudio del procesamiento de información en el juicio", Comportamiento
organizacional y desempeño humano, 6 (1971), pág. 684.
56
predicción del crecimiento socioeconómico futuro de las naciones subdesarrolladas. 61
El modelo matemático basado en las decisiones reales del analista es
invariablemente una descripción más precisa de la toma de decisiones de ese
analista que la descripción verbal del propio analista de cómo se hicieron los juicios.
Aunque la existencia de este fenómeno ha sido ampliamente
demostrada, sus causas no se comprenden bien. La literatura sobre estos
experimentos contiene solo la siguiente explicación especulativa:
Posiblemente nuestra sensación de que podemos tener en cuenta un sinfín
de factores diferentes surge porque, aunque recordemos que en algún momento u
otro hemos atendido a cada uno de los diferentes factores, no nos damos cuenta
de que rara vez se trata de más de uno. o dos que consideremos en cualquier
momento. 6
61. David A. Summers, J. Dale Taliaferro y Donna J. Fletcher, "Descripción subjetiva frente a
objetiva de la política de juicio", Ciencia psiconómica, 18 (1970) págs. 249-250.
62. RN Shepard, "Sobre la selección subjetivamente óptima entre alternativas de atributos
múltiples", en MW Shelly, II y GL Bryan, eds., Juicios humanos y Optimidad ( Nueva York: Wiley,
1964), pág. 166.
57
ment. Otros experimentos han empleado alguna combinación de variables
adicionales y detalles adicionales sobre las mismas variables. Descubrir
que los juicios se basan en unas pocas variables críticas en lugar de en
todo el espectro de evidencia ayuda a explicar por qué la información
sobre variables adicionales normalmente no mejora la precisión
predictiva. Ocasionalmente, en situaciones en las que existen lagunas
conocidas en la comprensión de un analista, un solo informe sobre algún
factor nuevo y previamente no considerado, por ejemplo, un informe
autorizado sobre una decisión política o un golpe de estado planificado,
tendrá un impacto importante en la opinión del analista. juicio. Dicho
informe se incluiría en una de las siguientes dos categorías de nueva
información.
58
capper analiza los datos disponibles; es decir, afecta su modelo
mental.
59
de análisis, en la medida en que las conclusiones se derivan lógicamente de la
aplicación del modelo acordado a los datos disponibles.
60
sobre la precisión del modelo mental, porque hay pocas otras bases para
juzgar.
Es necesario considerar cómo este modelo mental se prueba con la
realidad y cómo se puede cambiar para mejorar la precisión del juicio analítico.
Dos cosas dificultan el cambio de modelo mental. El primero es la naturaleza
de la percepción humana y el procesamiento de la información. El segundo es
la dificultad, en muchos campos, de aprender qué es realmente un modelo
exacto.
En parte debido a la naturaleza de la percepción humana y el procesamiento de la
información, las creencias de todo tipo tienden a resistir el cambio. Esto es especialmente
cierto en el caso de los supuestos implícitos y las verdades supuestamente evidentes por sí
mismas que juegan un papel importante en la formación de modelos mentales. Los analistas a
menudo se sorprenden al saber que lo que para ellos son verdades evidentes no lo son en
modo alguno para los demás, o que la verdad evidente en un momento dado puede
considerarse comúnmente como una suposición desinformada diez años después.
La información que es consistente con una mentalidad existente se percibe y
procesa fácilmente y refuerza las creencias existentes. Debido a que la mente se
esfuerza instintivamente por lograr la coherencia, la información que es inconsistente
con una imagen mental existente tiende a ser pasada por alto, percibida de manera
distorsionada o racionalizada para ajustarse a las suposiciones y creencias existentes. 63
63. Esto se refiere, por supuesto, a procesos subconscientes. Ningún analista distorsionará conscientemente la
información que no se ajuste a sus creencias preconcebidas. Los aspectos importantes de la percepción y el
procesamiento de nueva información ocurren antes e independientemente de cualquier dirección consciente, y las
tendencias descritas aquí son en gran parte el resultado de estos procesos subconscientes o preconscientes.
64. Se ha señalado algo similar al refutar la creencia en la sabiduría acumulada del maestro de aula.
“En realidad, es muy difícil para los profesores sacar provecho de la experiencia. Casi nunca se
enteran de sus éxitos o fracasos a largo plazo, y sus efectos a corto plazo no se remontan fácilmente
a las prácticas de las que presumiblemente surgieron ”. BF Skinner, La tecnología de la enseñanza ( Nueva
York: Appleton-Century Crofts, 1968), págs. 112-113.
61
Teoría del análisis en mosaico
62
Conclusiones
63
64
Capítulo 6
Las mentes son como paracaídas. Solo funcionan cuando están abiertos. Después de revisar
cómo y por qué el pensamiento se canaliza hacia rutinas mentales, este capítulo analiza las
herramientas mentales para ayudar a los analistas a mantener una mente abierta, cuestionar
suposiciones, ver diferentes perspectivas, desarrollar nuevas ideas y reconocer cuándo es el
momento de cambiar sus ideas. mentes.
Una nueva idea es el comienzo, no el final, del proceso creativo. Debe superar
muchos obstáculos antes de ser aceptado como un producto o solución
organizacional. El clima organizacional juega un papel crucial a la hora de
determinar si las nuevas ideas salen a la superficie o se suprimen.
******************
Las fallas de inteligencia importantes generalmente son causadas por fallas de análisis,
no fallas de recopilación. La información relevante se descarta, se malinterpreta, se ignora, se
rechaza o se pasa por alto porque no se ajusta a un modelo mental o mentalidad
predominante. sesenta y cinco Las "señales" se pierden en el "ruido". 66 ¿Cómo podemos asegurarnos
de que los analistas permanezcan abiertos a nuevas experiencias y reconozcan
65. Christopher Brady, “Fallos de inteligencia: más Ca Change. . . " Inteligencia y Seguridad Nacional, Vol. 8,
No. 4 (octubre de 1993). N. Cigar, "La mentalidad estratégica de Irak y la guerra del Golfo: Plan para la
derrota", La Revista de Estudios Estratégicos, Vol. 15, No. 1 (marzo de 1992). JJ Wirtz, Te Tet Ofensive: Fallo de
inteligencia en la guerra ( Nueva York, 1991). Efraín Kam, Ataque sorpresa ( Harvard University Press, 1988).
Richard Betts, Ataque sorpresa: lecciones para la planificación de la defensa ( Brookings, 1982). Abraham
Ben-Zvi, "El estudio de los ataques sorpresa", Revista Británica de Estudios Internacionales, Vol. 5 (1979). Irán:
Evaluación del desempeño de inteligencia antes de noviembre de 1978 ( Informe Staf, Subcomité de
Evaluación, Comité Permanente Selecto de Inteligencia, Cámara de Representantes de Estados Unidos, enero
de 1979). Richard Betts, "Análisis, guerra y decisión: por qué las fallas de inteligencia son inevitables", Politica
mundial, Vol. 31, N ° 1 (octubre
1978). Richard W. Shryock, “El programa post-mortem de la comunidad de inteligencia, 1973-
1975 " Estudios en Inteligencia, Vol. 21, N ° 1 (otoño de 1977). Avi Schlaim, "Failures in National
Intelligence Estimates: The Case of the Yom Kippur War", Politica mundial, Vol. 28 (abril de 1976).
Michael Handel, Percepción, engaño y sorpresa: el caso de la guerra de Yom Kippur ( Jerusalem:
Instituto Leonard Davis de Relaciones Internacionales, Jerusalem Paper No. 19, 1976). Klaus Knorr,
“Fallos en las estimaciones de la inteligencia nacional: el caso de los misiles cubanos”, World Politics,
vol. 16 (1964).
66. Roberta Wohlstetter, Pearl Harbor: advertencia y decisión ( Prensa de la Universidad de Stanford, 1962).
Roberta Wohlstetter, "Cuba y Pearl Harbor: retrospectiva y prospectiva", Asuntos extranjeros, Vol.
43, No. 4 (julio de 1965).
sesenta y cinco
¿Cuándo es necesario revisar las opiniones arraigadas o la sabiduría convencional en
respuesta a un mundo cambiante?
Las creencias, suposiciones, conceptos e información recuperada de la memoria
forman una forma de pensar o modelo mental que guía la percepción y el
procesamiento de nueva información. La naturaleza del negocio de la inteligencia nos
obliga a abordar los problemas en una etapa temprana cuando la información sólida
está incompleta. Si no hubiera lagunas en la información sobre un tema o situación, y no
hubiera ambigüedad, no sería un problema de inteligencia interesante. Cuando falta
información, los analistas a menudo no tienen más remedio que apoyarse en creencias y
suposiciones previas sobre cómo y por qué los eventos ocurren normalmente en un país
determinado.
Una mentalidad no es buena ni mala. Es inevitable. Es, en esencia, una
destilación de todo lo que los analistas creen saber sobre un tema. Forma una
lente a través de la cual perciben el mundo y, una vez formada, se resiste al
cambio.
66
sociated en una combinación nueva y útil. 67 Cuando se realiza el enlace, la luz
amanece. Esta capacidad de reunir información e ideas que antes no estaban
relacionadas de manera significativa es lo que marca al analista creativo,
imaginativo y de mente abierta.
Para ilustrar cómo funciona la mente, considere mi experiencia personal con
una especie de bloqueo mental familiar para todos los analistas: el bloqueo del
escritor. A menudo necesito romper un bloqueo mental al escribir. Todo va bien
hasta que llego a un párrafo y me quedo atascado. Escribo algo, sé que no está del
todo correcto, pero no puedo pensar en una mejor manera de decirlo. Sin
embargo, trato de cambiar el párrafo, sigue saliendo básicamente de la misma
manera. Mi pensamiento se ha canalizado y no puedo romper ese patrón de
pensamiento en particular para escribirlo de manera diferente.
Una respuesta común a este problema es tomar un descanso,
trabajar en algo diferente por un tiempo y volver a la parte difícil más
tarde. Con el paso del tiempo, el camino se vuelve menos pronunciado y se
hace más fácil hacer otras conexiones.
Encontré otra solución. Me obligo a hablar de ello en voz alta. Cierro
la puerta de mi oficina, me da vergüenza que alguien me escuche
hablando solo, y luego me levanto, camino y hablo. Yo digo, está bien,
“¿Cuál es el punto de este párrafo? ¿Qué intentas comunicar? Me respondo
en voz alta como si estuviera hablando con otra persona. “El punto que
estoy tratando de transmitir es ese. . . , ”Y luego simplemente viene.
Decirlo en voz alta rompe el bloqueo y las palabras comienzan a juntarse
de diferentes maneras.
Investigaciones recientes explican por qué sucede esto. Los científicos
han aprendido que el lenguaje escrito y el hablado se procesan en diferentes
partes del cerebro. 68 Activan diferentes neuronas.
67. SA Mednick, "Te Associative Basis of the Creative Process", Revisión psicológica, Vol. 69 (1962),
pág. 221.
68. Jerry E. Bishop, "Los pacientes con accidentes cerebrovasculares producen pistas sobre la capacidad del cerebro para
crear lenguaje", Wall Street Journal, 12 de octubre de 1993, página A1.
69. El rompecabezas es de James L. Adams, Blockbusting conceptual: una guía para mejores ideas. Segunda
edición (Nueva York: WW Norton, 1980), pág. 23.
67
Después de intentar resolver el rompecabezas por su cuenta, consulte el final de este
capítulo para obtener respuestas y más información. Diez consideran que el análisis de la
inteligencia con demasiada frecuencia está limitado por restricciones similares, inconscientes y
autoimpuestas o "jaulas de la mente".
No necesita estar limitado por la sabiduría convencional. A menudo está
mal. Tu no necesariamente deben estar limitados por las políticas existentes. A
veces se pueden cambiar si demuestra una buena razón para hacerlo. Tu no necesariamente
debe estar limitado por el requisito analítico específico que se le dio. Es posible
que el legislador que originó el requisito no haya pensado en sus necesidades
o que el requisito sea algo confuso a medida que pasa por varios escalones
hasta que usted haga el trabajo. Es posible que tenga una mejor comprensión
que el responsable de la formulación de políticas de lo que él o ella necesita, o
debería tener, o lo que es posible hacer. No debe dudar en volver a ascender
en la cadena de mando con una sugerencia para hacer algo un poco diferente
de lo que se pidió.
68
Herramientas mentales
Las personas utilizan diversas herramientas físicas, como un martillo y una sierra, para
mejorar su capacidad para realizar diversas tareas físicas. Las personas también pueden usar
herramientas mentales simples para mejorar su capacidad para realizar tareas mentales. Estas
herramientas ayudan a superar las limitaciones en la maquinaria mental humana para la
percepción, la memoria y la inferencia. Las siguientes secciones de este capítulo discuten las
herramientas mentales para abrir la mente de los analistas a nuevas ideas, mientras que la
siguiente (Capítulo 7) trata de las herramientas mentales para estructurar problemas analíticos
complejos.
Cuestionar supuestos
Es una obviedad que los analistas deben cuestionar sus supuestos. La
experiencia nos dice que cuando los juicios analíticos resultan incorrectos,
generalmente no es porque la información sea incorrecta. Fue porque un
analista hizo una o más suposiciones erróneas que no fueron cuestionadas. El
problema es que los analistas no pueden cuestionar todo, entonces, ¿dónde
enfocan su atención?
Análisis de sensibilidad. Un enfoque es hacer un análisis de sensibilidad
informal. ¿Qué tan sensible es el juicio final a los cambios en cualquiera de las
principales variables o fuerzas impulsoras del análisis? Estos supuestos
fundamentales que impulsan el análisis son los que deben ser cuestionados.
Los analistas deben preguntarse qué podría suceder para que cualquiera de
estas suposiciones sea obsoleta y cómo pueden saber que esto aún no ha
sucedido. Deben tratar de refutar sus suposiciones en lugar de confirmarlas. Si
un analista no puede pensar en nada que pueda causar un cambio de opinión,
su modo de pensar puede estar tan profundamente arraigado que el analista
no puede ver la evidencia en conflicto. Una ventaja del enfoque de hipótesis en
competencia analizado en el capítulo 8 es que ayuda a identificar los supuestos
fundamentales que llevan a una conclusión en una dirección u otra.
69
y que se han hecho en algunas oficinas en el pasado, para ayudar a superar
esta tendencia.
Al menos un componente de la Dirección de Inteligencia, por ejemplo, ha
tenido un proceso de revisión por pares en el que ninguno de los revisores era
de la rama que produjo el informe. La razón fundamental de esto fue que es
probable que los colegas inmediatos y los supervisores de un analista
compartan una mentalidad común. Por tanto, estos son los individuos menos
propensos a plantear cuestiones fundamentales que cuestionen la validez del
análisis. Para evitar este problema de mentalidad, cada informe de
investigación fue revisado por un comité de tres analistas de otras ramas que
se ocupaban de otros países o problemas. Ninguno de ellos tenía
conocimientos especializados sobre el tema. Sin embargo, eran analistas de
gran talento. Precisamente porque no se habían sumergido en el tema en
cuestión, estaban en mejores condiciones de identificar supuestos ocultos y
otras alternativas,
Tenga cuidado con las imágenes de espejo. Un tipo de suposición que un
analista siempre debe reconocer y cuestionar es la imagen en espejo: llenar los
vacíos en el conocimiento del propio analista asumiendo que es probable que la
otra parte actúe de cierta manera porque así es como Estados Unidos actuaría en
circunstancias similares. Decir, “si yo fuera un oficial de inteligencia ruso. . . " o “si
estuviera dirigiendo el gobierno indio. . . " es imagen de espejo. Los analistas
pueden tener que hacer eso cuando no saben cómo está pensando realmente el
oficial de inteligencia ruso o el gobierno indio. Pero la imagen en espejo conduce a
suposiciones peligrosas, porque las personas de otras culturas no hacer
piensa de la forma en que lo hacemos. La suposición frecuente de que lo hacen es lo que el
almirante David Jeremiah, después de revisar la falla de la Comunidad de Inteligencia para
predecir las pruebas de armas nucleares de la India, denominó "la mentalidad de que todos
piensan como nosotros". 70
70. JimWolf, "CIA Inquest Finds US Missed Indian" Mindset ", servicio de cable UPI, 3 de junio de
1998.
70
un arma, porque no hay enemigo en el que puedan usarla de manera efectiva ". 71
La perspectiva estadounidense sobre lo que es de interés nacional de otro país
suele ser irrelevante en el análisis de inteligencia. El juicio debe basarse en
cómo el otro país percibe su interés nacional. Si el analista no puede hacerse
una idea de lo que está pensando el otro país, la imagen en espejo puede ser
la única alternativa, pero los analistas nunca deben dejarse sorprender
poniendo mucha confianza en ese tipo de juicio.
71. Discusión con Robert Jaster, ex oficial de inteligencia nacional para África austral.
71
una probabilidad baja pero consecuencias muy graves en caso de que ocurran, como el
colapso o el derrocamiento de la monarquía saudí.
Bola de cristal. El enfoque de la bola de cristal funciona de la misma manera
que pensar al revés. 7 Imagine que una fuente de inteligencia "perfecta" (como una
bola de cristal) le ha dicho que cierta suposición es incorrecta. Luego debe
desarrollar un escenario para explicar cómo esto podría ser cierto. Si puede
desarrollar un escenario plausible, esto sugiere que su suposición está abierta a
alguna pregunta.
Juego de rol. El juego de roles se usa comúnmente para superar las restricciones e
inhibiciones que limitan el rango de pensamiento de uno. Interpretar un papel cambia
"dónde te sientas". También le da a uno la licencia para pensar y actuar de manera
diferente. Simplemente tratar de imaginar cómo pensará y reaccionará otro líder o país,
lo que los analistas hacen con frecuencia, no es un juego de roles. Uno debe realmente
representar el papel y convertirse, en cierto sentido, en la persona cuyo papel se asume.
Es sólo "vivir" el papel lo que rompe el sistema mental normal de un analista y le permite
relacionar hechos e ideas entre sí de maneras que difieren de los patrones habituales.
No se puede esperar que un analista haga esto solo; Se requiere cierta interacción
grupal, con diferentes analistas desempeñando diferentes roles, generalmente en el
contexto de una simulación o juego organizado.
72. Jon Fallesen, Rex Michel, James Lussier y Julia Pounds, “Practical Tinking: Innovation in Battle Command
Instruction” ( Informe técnico 1037, Instituto de Investigación del Ejército de EE. UU. Para las Ciencias
Sociales y del Comportamiento, Enero de 1996).
72
pero puede elegir o ser asignado para representarlo lo más enérgicamente posible. El
objetivo es exponer interpretaciones contradictorias y mostrar cómo las suposiciones e
imágenes alternativas hacen que el mundo se vea diferente. A menudo se requiere
tiempo, energía y compromiso para ver cómo se ve el mundo desde una perspectiva
diferente. 73
73. Para una discusión interesante de las fortalezas y debilidades potenciales del enfoque del
"abogado del diablo", ver Robert Jervis, Percepción y percepción errónea en la política internacional
(Princeton, Nueva Jersey: Princeton University Press, 1976), págs. 415-418.
73
Al negar, restar importancia o ignorar la desconfianza [de su punto de vista anterior],
los altos directivos exitosos a menudo lo tratan como amigable y de alguna manera
aprecian la incomodidad que crea la sorpresa. Como resultado, estos gerentes a
menudo perciben situaciones novedosas desde el principio y en un estado de ánimo
relativamente no distorsionado por nociones rígidas. 74
74. Daniel J. Isenberg, "How Senior Managers Tink", en David Bell, Howard Raifa y Amos Tversky, Toma
de decisiones: interacciones descriptivas, normativas y prescriptivas ( Cambridge University Press,
1988), pág. 535.
75. Abraham Ben Zvi, "Hindsight and Foresight: A Conceptual Framework for the Analysis of
Surprise Attacks", Politica mundial, Abril de 1976.
76. Transcripción de la conferencia de prensa del almirante David Jeremiah sobre el desempeño de la comunidad de
inteligencia en relación con la prueba nuclear de la India, párrafos cuarto y quinto y preguntas y respuestas iniciales, 2 de junio
de 1998.
74
Cuando existieron discrepancias entre indicadores tácticos y supuestos
estratégicos en los cinco casos analizados por Ben-Zvi, los supuestos
estratégicos siempre prevalecieron y nunca fueron reevaluados a la luz del
creciente flujo de información contradictoria. Ben-Zvi concluye que los
indicadores tácticos deben recibir un mayor peso en el proceso de toma de
decisiones. Como mínimo, la aparición de indicadores tácticos que contradigan
nuestro supuesto estratégico debería desencadenar un nivel más alto de alerta
de inteligencia. Puede indicar que se avecina una sorpresa mayor.
El Capítulo 8, “Análisis de hipótesis contrapuestas”, proporciona un
marco para identificar sorpresas y sopesar indicadores tácticos y otras
formas de evidencia actual con suposiciones y creencias de larga data.
innovadoras, pero también precisas y efectivas, de cumplir con cualquiera de los principales
presentar conclusiones. Aprovechar fuentes inusuales de datos, formular nuevas preguntas, aplicar
métodos analíticos inusuales y desarrollar nuevos tipos de productos o nuevas formas de adaptar el
análisis a las necesidades de los consumidores son todos ejemplos de actividad creativa.
La inteligencia de una persona, medida por las pruebas de CI, tiene poco
que ver con la creatividad, pero el entorno organizacional ejerce una gran
influencia. Es más probable que surjan ideas nuevas pero apropiadas en un
clima organizacional que nutre su desarrollo y comunicación.
75
La vieja visión de que la creatividad es algo con lo que uno nace y que no
puede enseñarse ni desarrollarse es en gran parte falsa. Si bien el talento nativo,
per se, es importante y puede ser inmutable, es posible aprender a emplear los
talentos innatos de manera más productiva. Con comprensión, práctica y esfuerzo
consciente, los analistas pueden aprender a producir un trabajo más imaginativo,
innovador y creativo.
Hay una gran cantidad de literatura sobre la creatividad y cómo estimularla. Se han
desarrollado al menos media docena de métodos diferentes para enseñar, facilitar o liberar el
pensamiento creativo. Todos los métodos para enseñar o facilitar la creatividad se basan en el
supuesto de que el
proceso de pensar puede separarse de la contenido de pensamiento. Uno aprende
estrategias mentales que se pueden aplicar a cualquier tema.
No es nuestro propósito aquí revisar los programas disponibles
comercialmente para mejorar la creatividad. Estos enfoques programáticos se
pueden aplicar de manera más significativa a problemas de desarrollo, publicidad o
administración de nuevos productos que al análisis de inteligencia. Sin embargo, es
relevante discutir varios principios y técnicas clave que estos programas tienen en
común, y que los analistas de inteligencia individuales o grupos de analistas
pueden aplicar en su trabajo.
Los analistas de inteligencia deben generar ideas sobre causas potenciales o
explicaciones de eventos, políticas que podrían ser aplicadas o acciones tomadas
por un gobierno extranjero, posibles resultados de una situación existente y
variables que influirán en el resultado que realmente suceda. Los analistas también
necesitan ayuda para sacarlos de las rutinas mentales, estimular sus recuerdos e
imaginación y percibir eventos familiares desde una nueva perspectiva.
Estos son algunos de los principios y técnicas del pensamiento creativo que se
pueden aplicar al análisis de la inteligencia.
Juicio diferido. El principio de juicio diferido es sin duda el más
importante. La fase de análisis de generación de ideas debe separarse de
la fase de evaluación de ideas, y la evaluación debe aplazarse hasta que se
hayan presentado todas las ideas posibles. Este enfoque es contrario al
procedimiento normal de pensar en ideas y evaluarlas al mismo tiempo.
Estimular la imaginación y el pensamiento crítico son importantes, pero no
combinan bien. Una actitud de juicio apaga la imaginación, ya sea que se
manifieste como autocensura de las propias ideas o miedo a la evaluación
crítica por parte de colegas o supervisores. La generación de ideas debe
ser un proceso libre, sin restricciones y acrítico.
76
Las nuevas ideas son, por definición, poco convencionales y, por lo tanto,
es probable que se supriman, ya sea consciente o inconscientemente, a menos
que nazcan en un entorno seguro y protegido. El juicio crítico debe
suspenderse hasta que se haya completado la etapa de análisis de generación
de ideas. Se debe escribir una serie de ideas y luego evaluarlas. Esto se aplica
tanto a la búsqueda de ideas por parte de individuos como a la lluvia de ideas
en grupo. Ponga todas las ideas sobre la mesa antes de evaluar cualquiera de
ellas.
La cantidad conduce a la calidad. Un segundo principio es que la cantidad
de ideas eventualmente conduce a la calidad. Esto se basa en el supuesto de que
las primeras ideas que nos vienen a la mente serán las más comunes o habituales.
Es necesario repasar estas ideas convencionales antes de llegar a otras originales o
diferentes. Las personas tienen formas habituales de pensar, formas que continúan
utilizando porque les han parecido exitosas en el pasado. Bien puede ser que estas
respuestas habituales, las que primero vienen a la mente, sean las mejores
respuestas y que no sea necesaria una búsqueda más profunda. Sin embargo, al
buscar nuevas ideas utilizables, se debe buscar generar tantas ideas como sea
posible antes de evaluar cualquiera de ellas.
Sin restricciones autoimpuestas. Un tercer principio es que se debe permitir
—de hecho alentar— que el pensamiento se extienda lo más libremente posible. Es
necesario liberarse de las limitaciones autoimpuestas, ya sea que provengan de un
hábito analítico, una perspectiva limitada, normas sociales, bloqueos emocionales o
lo que sea.
Fertilización cruzada de ideas. Un cuarto principio de la resolución creativa de problemas es
que la fertilización cruzada de ideas es importante y necesaria. Las ideas deben combinarse entre sí
para formar más y mejores ideas. Si el pensamiento creativo implica forjar nuevos vínculos entre
conceptos que anteriormente no estaban relacionados o que tenían una relación débil, entonces la
creatividad se verá estimulada por cualquier actividad que haga que más conceptos se yuxtapongan
entre sí de formas nuevas. La interacción con otros analistas es un mecanismo básico para ello. Como
regla general, las personas generan ideas más creativas cuando se asocian con otras; ayudan a
construir y desarrollar las ideas de los demás. La interacción personal estimula nuevas asociaciones
entre ideas. También induce un mayor esfuerzo y ayuda a mantener la concentración en la tarea.
77
Sesiones de brainstorming orientadas a generar nuevas ideas y en las que,
según el primer principio comentado anteriormente, se aplaza toda crítica y
evaluación hasta que finalice la etapa de generación de la idea.
Pensar las cosas por sí solo también tiene sus ventajas: el pensamiento individual
tiende a ser más estructurado y sistemático que la interacción dentro de un grupo. Los
resultados óptimos provienen de alternar entre el pensamiento individual y el esfuerzo
en equipo, utilizando la interacción grupal para generar ideas que complementen el
pensamiento individual. Un grupo diverso es claramente preferible a uno homogéneo.
Algunos participantes del grupo deben ser analistas que no estén cerca del problema, ya
que es más probable que sus ideas reflejen diferentes percepciones.
Ambiente organizacional
Una nueva idea no es el producto final del proceso creativo. Más bien, es
el comienzo de lo que a veces es un proceso largo y tortuoso de traducir una
idea en un producto innovador. La idea debe ser desarrollada, evaluada y
comunicada a otros, y este proceso está influenciado por el entorno
organizacional en el que se desarrolla. La nueva idea potencialmente útil debe
superar una serie de obstáculos antes de ser adoptada como un producto
organizacional.
Los siguientes párrafos describen con cierto detalle la investigación realizada
por Frank Andrews para investigar la relación entre la capacidad creativa, el
entorno organizativo y los productos de investigación innovadores. 77 Los sujetos de
esta investigación fueron 115 científicos, cada uno de los cuales había dirigido un
proyecto de investigación sobre los aspectos sociopsicológicos de la enfermedad.
Estos científicos recibieron pruebas estandarizadas que miden la capacidad creativa
y la inteligencia. También se les pidió que llenaran un extenso cuestionario
77. Frank M. Andrews, "Factores sociales y psicológicos que influyen en el proceso creativo", en
Irving A. Taylor y Jacob W. Getzels, eds., Perspectivas en la creatividad ( Chicago, Aldine
Publishing, 1975).
78
sobre el entorno en el que se llevó a cabo su investigación. Se pidió a un panel de
jueces compuesto por los principales científicos del campo de la sociología médica
que evaluara los principales resultados publicados de cada uno de los 115
proyectos de investigación.
Los jueces evaluaron los resultados de la investigación sobre la base de la
productividad y la innovación. La productividad se definió como la "medida en que la
investigación representa una adición al conocimiento a lo largo de líneas de
investigación establecidas o como extensiones de la teoría anterior". La innovación se
definió como “adiciones al conocimiento a través de nuevas líneas de investigación o el
desarrollo de nuevos enunciados teóricos de hallazgos que no eran explícitos en la teoría
anterior. 78 La innovación, en otras palabras, implicaba plantear nuevas cuestiones y
desarrollar nuevos enfoques para la adquisición de conocimientos, a diferencia de
trabajar de forma productiva dentro de un marco ya establecido. Esta misma definición
se aplica a la innovación en el análisis de inteligencia.
Andrews no encontró prácticamente ninguna relación entre la
capacidad creativa de los científicos y el carácter innovador de su
investigación. (Tampoco hubo relación entre el nivel de inteligencia y la
capacidad de innovación). Aquellos que obtuvieron puntajes altos en las
pruebas de capacidad creativa no necesariamente recibieron calificaciones
altas de los jueces que evaluaron la innovación de su trabajo. Una posible
explicación es que la capacidad creativa o la innovación, o ambas, no se
midieron con precisión, pero Andrews defiende de manera persuasiva otro
punto de vista. Varios factores sociales y psicológicos tienen un efecto tan
grande en los pasos necesarios para traducir la capacidad creativa en un
producto de investigación innovador que no existe un efecto medible que
pueda atribuirse únicamente a la capacidad creativa. Para documentar
esta conclusión,
Andrews descubrió que los científicos que poseían una mayor capacidad
creativa producían trabajos más innovadores solo en las siguientes condiciones
favorables:
79
• Cuando el científico tenía un control considerable sobre la toma de
decisiones sobre su programa de investigación, en otras palabras, la
libertad de establecer metas, contratar asistentes de investigación y
gastar fondos. En estas circunstancias, es menos probable que una nueva
idea se elimine antes de que pueda convertirse en un producto creativo y
útil.
80
En resumen, cierto grado de talento creativo innato puede ser una condición
previa necesaria para el trabajo innovador, pero es poco probable que sea de
mucho valor a menos que el entorno organizacional en el que se realiza ese trabajo
fomente el desarrollo y la comunicación de nuevas ideas. En circunstancias
desfavorables, los impulsos creativos de un individuo probablemente encontrarán
expresión fuera de la organización.
Hay, por supuesto, excepciones a la regla. Se produce algo de creatividad
incluso frente a una intensa oposición. Un ambiente hostil puede ser
estimulante, vivificante y desafiante. Algunas personas obtienen satisfacción al
verse a sí mismos como luchadores solitarios en el desierto, pero cuando se
trata de un conflicto entre una gran organización y un individuo creativo
dentro de ella, la organización generalmente gana.
Reconocer el papel del entorno organizacional para estimular o suprimir la
creatividad señala el camino hacia un conjunto obvio de medidas para mejorar el
desempeño organizacional creativo. Los gerentes de análisis, desde los
supervisores de primer escalón hasta el Director de Inteligencia Central, deben
tomar medidas para fortalecer y ampliar la percepción entre los analistas de que las
nuevas ideas son bienvenidas. No es fácil; la creatividad implica la crítica de lo que
ya existe. Por lo tanto, es intrínsecamente disruptivo de las ideas establecidas y las
prácticas organizacionales.
Particularmente dentro de su propia oficina, un analista necesita disfrutar de
una sensación de seguridad, de modo que las ideas parcialmente desarrolladas
puedan expresarse y rebotarse en otras como cajas de resonancia con un mínimo
de temor a la crítica o al ridículo por desviarse de la ortodoxia establecida. Al
principio, una nueva idea es frágil y vulnerable. Debe nutrirse, desarrollarse y
probarse en un entorno protegido antes de exponerse a la dura realidad de la
crítica pública. Es responsabilidad del supervisor inmediato del analista y de los
colegas de la oficina proporcionar este entorno protegido.
Conclusiones
81
El aprendizaje de técnicas creativas de resolución de problemas no cambia los
talentos nativos de un analista, pero ayuda a un analista a alcanzar su máximo potencial.
La mayoría de las personas tienen la capacidad de ser más innovadoras de lo que ellos
mismos creen. La eficacia de estos procedimientos depende, en gran medida, de la
motivación, el impulso y la perseverancia del analista para tomarse el tiempo necesario
para realizar un análisis minucioso a pesar de las presiones de las tareas diarias, el
correo y los informes de inteligencia actuales.
Una actitud inquisitiva es un requisito previo para una búsqueda exitosa de
nuevas ideas. Cualquier analista que esté seguro de que ya conoce la respuesta, y
que esta respuesta no ha cambiado recientemente, es poco probable que produzca
un trabajo innovador o imaginativo. Otro requisito previo para la creatividad es la
suficiente fuerza de carácter para sugerir nuevas ideas a otros, posiblemente a
costa de ser rechazados o incluso ridiculizados en ocasiones. "Las ideas de las
personas creativas a menudo los llevan a entrar en conflicto directo con las
tendencias de su tiempo, y necesitan el coraje para poder estar solos". 79
79. Robin Hogarth, Juicio y elección ( Nueva York: Wiley, 1980), pág. 117.
82
SOLUCIONES PARA ROMPECABEZAS PRESENTADAS EN LA FIGURA 6
83
Otra restricción inconsciente común es la suposición de que las líneas
deben pasar por el centro de los puntos. Esta restricción también existe sólo en
la mente del solucionador de problemas. Sin él, la solución de tres líneas en la
Figura 8 se vuelve bastante obvia.
84
Capítulo 7
******************
La discusión sobre la memoria de trabajo en el Capítulo 3 indicó que "El número mágico
siete: más o menos dos" 80 es la cantidad de cosas que la mayoría de las personas pueden
mantener en la memoria de trabajo al mismo tiempo. Para experimentar de primera mano
esta limitación en la memoria de trabajo mientras realiza una tarea mental, intente multiplicar
en su cabeza cualquier par de números de dos dígitos, por ejemplo, 46 por 78. En el papel,
este es un problema simple, pero la mayoría de la gente no puede realizar un seguimiento de
tantos números en su cabeza.
La capacidad limitada de la memoria de trabajo es la fuente de muchos
problemas al realizar análisis de inteligencia. Es útil considerar cuán
complicado puede llegar a ser el análisis y cómo la complejidad puede superar
su memoria de trabajo e impedir su capacidad para emitir juicios precisos. La
Figura 10 ilustra cómo la complejidad aumenta geométricamente a medida
que aumenta el número de variables en un problema analítico. El cuadrado de
cuatro lados muestra que cuando un problema tiene solo cuatro variables, hay
seis posibles interrelaciones entre esas variables. Con el pentágono, las cinco
variables tienen 10 posibles interrelaciones. Con seis y ocho variables,
respectivamente, hay 15 y 28 posibles interrelaciones entre las variables.
80. George A. Miller, "El mágico número siete, más o menos dos: algunos límites en nuestra
capacidad para procesar información". La revisión psicológica, Vol. 63, No. 2 (marzo de 1956).
85
Descomposición significa dividir un problema en sus partes componentes. Esa es, de
hecho, la esencia del análisis. El diccionario Webster define el análisis como la división de un
todo complejo en sus partes o elementos. 81
86
problema lítico. Cuando está escrito, uno puede manipular fácilmente una
parte del problema a la vez y, a menudo, ser más preciso que cuando se trata
de multiplicar los números mentalmente.
A esto le llamo dibujar una imagen de su problema. Otros lo llaman hacer un
modelo de su problema. Puede ser tan simple como hacer listas a favor y en contra.
Para superar esto, mi forma es dividir media hoja de papel por una línea en
dos columnas; escribiendo sobre uno Pro, y sobre el otro Con. Diez,
durante tres o cuatro días de consideración, pongo bajo los diferentes
encabezados breves insinuaciones de los diferentes motivos, que en
diferentes momentos se me ocurren, a favor o en contra de la medida.
Cuando los he reunido todos en una sola vista, me esfuerzo por estimar sus
respectivos pesos; y donde encuentro dos, uno a cada lado, que parecen
iguales, los tacho a los dos. Si encuentro una razón a favor igual a dos
razones en contra, tacho las tres. . . y procediendo así, encuentro a fondo
dónde está el equilibrio; y si, después de uno o dos días de consideración
adicional, no ocurre nada nuevo que sea importante en ninguno de los
lados, llego a una determinación en consecuencia.
87
Y, aunque el peso de las razones no puede tomarse con la precisión de
las cantidades algebraicas, cuando cada una de ellas se considera así,
por separado y comparativamente, y el conjunto está ante mí, creo
que puedo juzgar mejor y soy menos propenso a hacer un paso
precipitado y, de hecho, he encontrado una gran ventaja en este tipo
de ecuación. . . . 83
Es digno de mención que Franklin identificó hace más de 200 años el problema de
la memoria de trabajo limitada y cómo afecta la capacidad de uno para emitir juicios.
Como señaló Franklin, los problemas de decisión son difíciles porque las personas no
pueden tener en cuenta todos los pros y los contras al mismo tiempo. Primero nos
enfocamos en un conjunto de argumentos y luego en otro ”. . . de ahí los diversos
propósitos e inclinaciones que prevalecen alternativamente, y la incertidumbre que nos
deja perplejos ".
Franklin también identificó la solución: sacar todos los pros y los contras de su
cabeza y plasmarlos en papel en una forma visible y taquigráfica. El hecho de que este
tema fuera parte del diálogo entre individuos tan ilustres refleja el tipo de personas que
utilizan tales herramientas analíticas. Estas no son ayudas para que las utilicen los
analistas débiles, sino que no las necesitan los fuertes. Las limitaciones básicas de la
memoria de trabajo afectan a todos. Son los analistas más astutos y cuidadosos los que
son más conscientes de esto y los que más probablemente reconozcan el valor ganado
mediante la aplicación de estas herramientas tan simples.
Poner las ideas en forma visible asegura que durarán. Se acostarán
durante días incitándote a que tengas más pensamientos. Las listas son
efectivas porque explotan la tendencia de las personas a ser un poco
compulsivas; queremos seguir aumentando. Nos permiten sacar del camino
las respuestas obvias y habituales, para que podamos agregar a la lista
pensando en otras ideas más allá de las que primero se nos ocurrieron. Un
especialista en creatividad ha observado que "con el fin de mover la mente, los
lápices pueden servir como palancas" 84 —Sólo escribiendo cosas y haciendo
listas que estimulen nuevas asociaciones.
Con los elementos clave de un problema escritos en alguna forma
abreviada, es mucho más fácil trabajar con cada una de las partes sin perder
de vista el problema como un todo. Los analistas generalmente pueden tener
en cuenta más factores que cuando hacen un juicio global. Pueden manipular
83. J. Bigelow, ed., Las obras completas de Benjamin Franklin ( Nueva York: Putnam, 1887), pág.
522.
84. Alex Osborn, Imaginación aplicada, Edición revisada (Nueva York: Scribner's, 1979), pág. 202.
88
elementos individuales del problema para examinar las muchas alternativas
disponibles reorganizándolas, combinándolas o modificándolas. Se puede dar más
peso o eliminar a las variables, reconceptualizar las relaciones causales o redefinir
las categorías conceptuales. Tales pensamientos pueden surgir espontáneamente,
pero es más probable que ocurran cuando un analista observa cada elemento, uno
por uno, y hace preguntas diseñadas para alentar y facilitar la consideración de
interpretaciones alternativas.
Todo lo que tiene partes también tiene una estructura que relaciona estas
partes entre sí. Uno de los primeros pasos para realizar un análisis es determinar
una estructura apropiada para el problema analítico, de modo que luego se puedan
identificar las diversas partes y comenzar a reunir información sobre ellas. Debido a
que existen muchos tipos diferentes de problemas analíticos, también hay muchas
formas diferentes de estructurar el análisis.
Listas como las que hizo Franklin son una de las estructuras más simples. Un
analista de inteligencia puede hacer listas de variables relevantes, indicadores de
alerta temprana, explicaciones alternativas, posibles resultados, factores que un
líder extranjero deberá tener en cuenta al tomar una decisión, o argumentos a
favor y en contra de una explicación o resultado dado.
Otras herramientas para estructurar un problema incluyen esquemas, tablas,
diagramas, árboles y matrices, con muchas subespecies de cada uno. Por ejemplo, los árboles
incluyen árboles de decisión y árboles de fallas. Los diagramas incluyen diagramas causales,
diagramas de influencia, diagramas de flujo y mapas cognitivos.
La consideración de todas esas herramientas está más allá del alcance de este
libro, pero se analizan varias de estas herramientas. El Capítulo 11, “Sesgos en la
percepción de causa y efecto”, tiene una sección sobre Correlación ilusoria que usa una
tabla de contingencia (2x2) para estructurar el análisis de la pregunta: ¿Es más probable
el engaño cuando hay mucho en juego? El capítulo 8, “Análisis de hipótesis
contrapuestas”, es posiblemente el capítulo más útil de este libro. Recomienda usar una
matriz para ordenar la evidencia a favor y en contra de hipótesis en competencia para
explicar lo que está sucediendo ahora o estimar lo que puede suceder en el futuro.
89
estas herramientas a un tipo de decisión que se encuentra comúnmente en nuestra vida
personal.
90
A continuación, cuantifique la importancia relativa de cada atributo dividiendo el 100 por
ciento entre ellos. En otras palabras, pregúntese qué porcentaje de la decisión debería basarse
en el precio, el estilo, etc. Esto le obliga a hacer preguntas relevantes y tomar decisiones que
podría haber pasado por alto si no hubiera desglosado el problema de esta manera. ¿Qué
importancia tiene el precio frente al estilo? ¿Realmente te importa cómo se ve desde el
exterior, o estás buscando principalmente comodidad por dentro y cómo?
91
Luego, identifique los autos que está considerando y juzgue cómo se clasifica
cada uno en cada uno de los seis atributos que se muestran en la Figura 12.
Establezca una matriz como se muestra en la Figura 13 y trabaje en las filas de la
matriz. Para cada atributo, tome 10 puntos y divídalo entre los tres autos según
cuán bien cumplan con los requisitos de ese atributo. (Es lo mismo que tomar el
100 por ciento y dividirlo entre los autos, pero mantiene los números más bajos
cuando llega al siguiente paso).
Ahora tiene una imagen de su problema analítico: el valor
comparativo que atribuye a cada uno de los atributos principales de un
automóvil nuevo y una comparación de cómo varios automóviles
satisfacen esos atributos deseados. Si lo ha reducido a tres alternativas, su
matriz se parecerá a la Figura 13:
Cuando se hayan llenado todas las celdas de la matriz, puede calcular qué
automóvil se adapta mejor a sus preferencias. Multiplique el valor de
porcentaje que asignó a cada atributo por el valor que asignó a ese atributo
para cada automóvil, lo que produce el resultado en la Figura 14. Si los valores
de porcentaje que asignó a cada atributo reflejan con precisión sus
preferencias, y si cada coche ha sido analizado con precisión, el análisis
muestra que obtendrá más satisfacción con la compra del coche 3 que
cualquiera de las alternativas.
92
En este punto, realiza un análisis de sensibilidad para determinar si cambios
plausibles en algunos valores en la matriz cambiarían la decisión a un automóvil
diferente. Suponga, por ejemplo, que su cónyuge otorga valores diferentes que
usted a la importancia relativa del precio frente al estilo. Puede insertar los valores
porcentuales de su cónyuge para esos dos atributos y ver si eso hace una diferencia
en la decisión. (Por ejemplo, se podría reducir la importancia del precio al 20 por
ciento y aumentar el estilo al 30 por ciento. Eso todavía no es suficiente para
cambiar la opción al Coche 2, que tiene la calificación más alta en estilo).
93
Conclusiones
94
Capítulo 8
******************
85. El autor desarrolló el procedimiento de análisis de hipótesis en competencia para que lo utilicen los analistas
de inteligencia que se ocupan de un conjunto de problemas particularmente difíciles.
95
los analistas se dan una palmada en la espalda (“¡Mira, lo sabía todo el tiempo!”) y
no busques más. Si no es así, rechazan la evidencia como engañosa o desarrollan
otra hipótesis y vuelven a pasar por el mismo procedimiento. Los analistas de
decisiones llaman a esto una estrategia satisfactoria. (Consulte el Capítulo 4,
Estrategias para el juicio analítico). Satisfacer significa elegir la primera solución
que parece satisfactoria, en lugar de pasar por todas las posibilidades para
identificar la mejor solución. Puede haber varias soluciones aparentemente
satisfactorias, pero solo existe una mejor solución.
El Capítulo 4 discutió las debilidades de este enfoque. La principal
preocupación es que si los analistas se concentran principalmente en tratar de
confirmar una hipótesis que creen que es probablemente cierta, pueden ser
fácilmente desviados por el hecho de que hay tanta evidencia que respalda su
punto de vista. No reconocen que la mayor parte de esta evidencia también es
consistente con otras explicaciones o conclusiones, y que estas otras alternativas
no han sido refutadas.
La evaluación simultánea de múltiples hipótesis en competencia es muy difícil de
realizar. Retener de tres a cinco o incluso siete hipótesis en la memoria de trabajo y
observar cómo cada elemento de información encaja en cada hipótesis está más allá de
las capacidades mentales de la mayoría de las personas. Se necesita mucha más agilidad
mental que enumerar la evidencia que respalda una sola hipótesis que fue juzgada
previamente como la respuesta más probable. Sin embargo, se puede lograr con la
ayuda de los procedimientos simples que se describen aquí. El cuadro a continuación
contiene un esquema paso a paso del proceso de ACH.
Paso 1
86. Charles Gettys y col., Generación de hipótesis: un informe final sobre años de investigación,
Informe técnico 15-10-80 (Universidad de Oklahoma, Laboratorio de procesos de decisión, 1980).
96
Esquema paso a paso del análisis de hipótesis en competencia
8. Identifique los hitos para la observación futura que puedan indicar que los eventos
están tomando un rumbo diferente al esperado.
97
puede sacar a la luz posibilidades en las que los miembros individuales del grupo
no habían pensado. La discusión inicial en el grupo debe suscitar todas las
posibilidades, sin importar cuán remotas sean, antes de juzgar la probabilidad o
factibilidad. Solo cuando todas las posibilidades estén sobre la mesa, debería
centrarse en juzgarlas y seleccionar las hipótesis que se examinarán con mayor
detalle en el análisis posterior.
Al descartar las hipótesis aparentemente improbables en las que no
desea perder el tiempo, es necesario distinguir las hipótesis que parecen
ser refutado de los que son simplemente no probado. Para una hipótesis
no probada, no hay evidencia de que sea correcta. Para una hipótesis
refutada, existe evidencia positiva de que está equivocada. Como se
discutió en el Capítulo 4, “Estrategias para el juicio analítico”, y en el Paso 5
a continuación, debe buscar evidencia de que refuta hipótesis. El rechazo
temprano de hipótesis no probadas, pero no refutadas, sesga el análisis
posterior, porque luego no se buscan las pruebas que las puedan
sustentar. Las hipótesis no probadas deben mantenerse vivas hasta que
puedan ser refutadas.
Un ejemplo de una hipótesis que a menudo cae en esta categoría no
probada pero no refutada es la hipótesis de que un oponente está tratando de
engañarnos. Puede rechazar la posibilidad de la negación y el engaño porque
no ve evidencia de ello, pero el rechazo no está justificado en estas
circunstancias. Si el engaño se planifica bien y se implementa correctamente,
no se debe esperar encontrar pruebas a mano. La posibilidad no debe
rechazarse hasta que sea refutada o, al menos, hasta que se haya realizado
una búsqueda sistemática de pruebas y no se haya encontrado ninguna.
No hay un número "correcto" de hipótesis a considerar. El número
depende de la naturaleza del problema analítico y de lo avanzado que
esté en su análisis. Como regla general, cuanto mayor sea su nivel de
incertidumbre, o mayor sea el impacto político de su conclusión, más
alternativas puede considerar. Más de siete hipótesis pueden resultar
inmanejables; si hay tantas alternativas, puede ser aconsejable
agrupar varias de ellas para su corte inicial en el análisis.
98
Paso
Haga una lista de pruebas y argumentos significativos a favor y en contra de
cada hipótesis.
Al reunir la lista de pruebas y argumentos relevantes, estos términos deben
interpretarse de manera muy amplia. Se refieren a todos los factores que influyen en sus
juicios sobre las hipótesis. No se limite a evidencia concreta en los informes de
inteligencia actuales. También incluya sus propias suposiciones o deducciones lógicas
sobre las intenciones, metas o procedimientos estándar de otra persona, grupo o país.
Estas suposiciones pueden generar fuertes ideas preconcebidas sobre qué hipótesis es
más probable. Tales suposiciones a menudo impulsan su juicio final, por lo que es
importante incluirlas en la lista de "evidencia".
99
Paso 3
100
trix se llenan. La Figura 15 muestra un ejemplo de cómo podría verse una matriz de
este tipo. Utiliza como ejemplo la pregunta de inteligencia que surgió después del
bombardeo estadounidense de la sede de inteligencia iraquí en 1993: ¿Irak tomará
represalias? La evidencia en la matriz y cómo se evalúa son hipotéticos, fabricados
con el propósito de proporcionar un ejemplo plausible del procedimiento. La matriz
no refleja la evidencia real o los juicios disponibles en ese momento para la
comunidad de inteligencia de EE. UU.
101
El diagnóstico puede ilustrarse mediante una analogía médica. Una lectura de
alta temperatura puede tener un gran valor para decirle al médico que un paciente
está enfermo, pero relativamente poco valor para determinar qué enfermedad
padece una persona. Debido a que una temperatura alta es consistente con tantas
hipótesis posibles sobre la enfermedad de un paciente, esta evidencia tiene un
valor diagnóstico limitado para determinar qué enfermedad (hipótesis) es la más
probable.
La evidencia es diagnóstica cuando influye en su juicio sobre el
relativo probabilidad de las diversas hipótesis identificadas en el Paso 1. Si un
elemento de evidencia parece consistente con todas las hipótesis, puede que no
tenga valor diagnóstico. Una experiencia común es descubrir que la mayoría de la
evidencia que respalda lo que usted cree que es la hipótesis más probable
realmente no es muy útil, porque esa misma evidencia también es consistente con
otras hipótesis. Cuando identifique elementos que son altamente diagnósticos,
estos deben guiar su juicio. Estos son también los elementos para los que debe
volver a verificar la precisión y considerar interpretaciones alternativas, como se
discutió en el Paso 6.
En la matriz hipotética que trata de las intenciones iraquíes, observe que la
evidencia designada como “E1” se evalúa como consistente con todas las hipótesis.
En otras palabras, no tiene valor diagnóstico. Esto se debe a que no dimos crédito a
la declaración pública de Saddam sobre esta cuestión. Podría decir que no tomará
represalias pero luego lo hará, o afirmar que tomará represalias y luego no lo hará.
Por otro lado, E4 es diagnóstico: es más probable que se observe una mayor
frecuencia o duración de las transmisiones de radio de los agentes iraquíes si los
iraquíes están planeando represalias que si no lo hacen. El doble menos para E6
indica que esto se considera un argumento muy fuerte en contra de H1. Es una
suposición fundamental que impulsa la conclusión a favor de H2 o H3. Varios de los
juicios reflejados en esta matriz serán cuestionados en una etapa posterior de este
análisis.
En algunos casos, puede ser útil refinar este procedimiento utilizando
una probabilidad numérica, en lugar de una notación general como más o
menos, para describir cómo se relaciona la evidencia con cada hipótesis. Para
hacer esto, haga la siguiente pregunta para cada celda de la matriz: Si esta
hipótesis es cierta, ¿cuál es la probabilidad de que vea este elemento de
evidencia? También puede hacer una o más notaciones adicionales en cada
celda de la matriz, como:
102
• Agregar una escala para mostrar la importancia intrínseca de cada elemento
de prueba.
• Agregar una escala para mostrar la facilidad con la que las pruebas se
pueden ocultar, manipular o falsificar, o hasta qué punto una de las
partes podría tener un incentivo para hacerlo. Esto puede ser
apropiado cuando la posibilidad de negación y engaño es un
problema serio.
Paso 4
Paso 5
103
Al evaluar la probabilidad relativa de hipótesis alternativas, comience
por buscar evidencia o deducciones lógicas que le permitan rechazar
hipótesis, o al menos determinar que son poco probables. Un precepto
fundamental del método científico es proceder rechazando o eliminando
hipótesis, aceptando tentativamente sólo aquellas que no pueden ser
refutadas. El mtodo cientfico obviamente no se puede aplicar en Toto
al juicio intuitivo, pero el principio de tratar de refutar hipótesis,
en lugar de confirmarlas, es útil.
No importa cuánta información sea consistente con una hipótesis dada,
no se puede probar que la hipótesis sea verdadera, porque la misma
información también puede ser consistente con una o más hipótesis. Por otro
lado, un solo elemento de prueba que sea incompatible con una hipótesis
puede ser motivo suficiente para rechazar esa hipótesis. Esto se discutió en
detalle en el Capítulo 4, "Estrategias para el juicio analítico".
Las personas tienen una tendencia natural a concentrarse en confirmar
hipótesis que ya creen que son verdaderas, y comúnmente le dan más peso a
la información que apoya una hipótesis que a la información que la debilita.
Esto está mal; deberíamos hacer todo lo contrario. El paso 5 requiere
nuevamente hacer el opuesto de lo que viene naturalmente.
Al examinar la matriz, observe las desventajas o cualquier otra notación que
haya utilizado para indicar evidencia que puede ser inconsistente con una hipótesis.
La hipótesis con menos desventajas es probablemente la más probable. La
hipótesis con más desventajas es probablemente la menos probable. El hecho de
que una hipótesis sea incompatible con la evidencia es sin duda una base sólida
para rechazarla. Las ventajas, que indican evidencia que es consistente con una
hipótesis, son mucho menos significativas. De ello no se sigue que la hipótesis con
más ventajas sea la más probable, porque se puede hacer fácilmente una larga lista
de pruebas que sea coherente con casi cualquier hipótesis razonable. Lo que es
difícil de encontrar, y es más significativo cuando se encuentra, es evidencia sólida
que es claramente inconsistente con una hipótesis razonable.
104
Los analistas que siguen este procedimiento a menudo se dan cuenta de que
sus juicios se basan en realidad en muy pocos factores y no en la gran cantidad de
información que pensaban que influía en sus puntos de vista. El capítulo 5,
"¿Realmente necesita más información?", Establece este mismo punto basándose
en pruebas experimentales.
La matriz debe no dictarle la conclusión. Más bien, debe reflejar con
precisión su juicio sobre lo que es importante y cómo estos factores
importantes se relacionan con la probabilidad de cada hipótesis. Usted, no la
matriz, debe tomar la decisión. La matriz sirve solo como una ayuda para el
pensamiento y el análisis, para asegurar la consideración de todas las posibles
interrelaciones entre la evidencia y las hipótesis y la identificación de esos
pocos elementos que realmente influyen en su juicio sobre el tema.
Cuando la matriz muestra que una hipótesis dada es probable o
improbable, es posible que no esté de acuerdo. Si es así, es porque omitió de la
matriz uno o más factores que tienen una influencia importante en su
pensamiento. Regrese e introdúzcalos, de modo que el análisis refleje su mejor
juicio. Si seguir este procedimiento le ha llevado a considerar cosas que de otro
modo podría haber pasado por alto, o le ha hecho revisar su estimación
anterior de las probabilidades relativas de las hipótesis, entonces el
procedimiento ha cumplido un propósito útil. Cuando haya terminado, la
matriz sirve como un registro abreviado de su pensamiento y como una pista
de auditoría que muestra cómo llegó a su conclusión.
Este procedimiento lo obliga a dedicar más tiempo analítico del que de otra
manera dedicaría a lo que había pensado que eran las hipótesis menos probables.
Es deseable. Las hipótesis aparentemente menos probables generalmente implican
arar nuevos terrenos y, por lo tanto, requieren más trabajo. Lo que empezó
pensando que era la hipótesis más probable tiende a basarse en una continuación
de su propio pensamiento pasado. Una de las principales ventajas del análisis de
hipótesis en competencia es que te obliga a dar una sacudida más justa a todas las
alternativas.
Paso 6
105
En el Paso 3, identificó la evidencia y los argumentos que eran más
diagnósticos, y en el Paso 5, utilizó estos hallazgos para hacer juicios
tentativos sobre las hipótesis. Ahora, regrese y cuestione las pocas
suposiciones clave o elementos de evidencia que realmente impulsan el
resultado de su análisis en una dirección u otra. ¿Hay suposiciones
cuestionables que subyacen a su comprensión e interpretación? ¿Hay
explicaciones o interpretaciones alternativas? ¿Podría la evidencia ser
incompleta y, por lo tanto, engañosa?
Si existe alguna preocupación sobre la negación y el engaño, este es un
lugar apropiado para considerar esa posibilidad. Mire las fuentes de su
evidencia clave. ¿Alguna de las fuentes es conocida por las autoridades del país
extranjero? ¿Podría haberse manipulado la información? Póngase en la piel de
un planificador de engaños extranjero para evaluar el motivo, la oportunidad,
los medios, los costos y los beneficios del engaño, tal como podrían aparecer
en el país extranjero.
Cuando el análisis resulta ser incorrecto, a menudo se debe a supuestos
clave que no se cuestionaron y resultaron inválidos. Es una obviedad que los
analistas deberían identificar y cuestionar los supuestos, pero es mucho más
fácil decirlo que hacerlo. El problema es determinar qué supuestos merecen
ser cuestionados. Una ventaja del procedimiento ACH es que le indica lo que
debe volver a comprobar.
En el Paso 6, puede decidir que se necesita investigación adicional para
verificar los juicios clave. Por ejemplo, puede ser apropiado volver atrás para
verificar los materiales originales en lugar de depender de la interpretación de
otra persona. Al escribir su informe, es conveniente identificar los supuestos
críticos que se incluyeron en su interpretación y señalar que su conclusión
depende de la validez de estos supuestos.
Paso 7
106
solo la alternativa más probable. Es posible que se necesiten planes de contingencia o de
reserva en caso de que una de las alternativas menos probables resulte ser cierta.
Si dice que una cierta hipótesis es probablemente cierta, eso podría
significar entre un 55 por ciento y un 85 por ciento de probabilidades de que
eventos futuros demuestren que es correcta. Eso deja entre un 15 y un 45 por
ciento de posibilidades de que una decisión basada en su juicio se base en
suposiciones erróneas y resulte errónea. ¿Puede ser más específico acerca de
la confianza que tiene en su juicio? El Capítulo 12, “Sesgos en la estimación de
probabilidades”, analiza la diferencia entre dichos juicios de “probabilidad
subjetiva” y las probabilidades estadísticas basadas en datos de frecuencias
relativas.
Cuando uno reconoce la importancia de proceder eliminando en lugar de
confirmar hipótesis, se hace evidente que cualquier argumento escrito para un
determinado juicio está incompleto a menos que también discuta juicios
alternativos que fueron considerados y por qué fueron rechazados. En el
pasado, al menos, esto rara vez se hacía.
El ensayo narrativo, que es la forma de arte dominante para la presentación
de juicios de inteligencia, no se presta a la evaluación comparativa de hipótesis en
competencia. La consideración de alternativas aumenta la extensión de los
informes y muchos analistas lo perciben como algo que resta valor a la persuasión
del argumento a favor del juicio elegido. Los analistas pueden temer que el lector
se fije en una de las alternativas rechazadas como una buena idea. No obstante, la
discusión de hipótesis alternativas es una parte importante de cualquier evaluación
de inteligencia, y se pueden y deben encontrar formas de incluirla.
Paso 8
Identifique los hitos para la observación futura que puedan indicar que los
eventos están tomando un curso diferente al esperado.
Las conclusiones analíticas siempre deben considerarse provisionales. La
situación puede cambiar, o puede permanecer sin cambios mientras recibe
nueva información que altera su tasación. Siempre es útil especificar de
antemano las cosas que se deben buscar o estar alerta que, si se observan,
sugerirían un cambio significativo en las probabilidades. Esto es útil para
107
consumidores de inteligencia que siguen la situación de forma
continua. Especificar de antemano qué le haría cambiar de opinión
también le hará más difícil racionalizar tales desarrollos, si ocurren,
como si realmente no requieran ninguna modificación de su juicio.
Resumen y conclusión
Los elementos clave del árbol distinguen el análisis de hipótesis en
competencia del análisis intuitivo convencional.
87. Transcripción de la conferencia de prensa del almirante Jeremiah, última oración del tercer párrafo, 2 de junio
1998.
108
Si se hubiera utilizado el procedimiento ACH, una de las hipótesis ciertamente
habría sido que la India planea realizar una prueba a corto plazo, pero ocultará los
preparativos para la prueba para evitar la presión internacional para detener tales
preparativos.
Una consideración cuidadosa de esta hipótesis alternativa habría requerido
evaluar el motivo, la oportunidad y los medios de la India para ocultar su intención
hasta que fuera demasiado tarde para que Estados Unidos y otros intervinieran.
También habría requerido evaluar la capacidad de la inteligencia estadounidense
para ver a través de la negación y el engaño de los indios si se estuviera
empleando. Es difícil imaginar que esto no hubiera elevado la conciencia de la
posibilidad de un engaño indio exitoso.
Una lección principal es esta. Siempre que un analista de inteligencia se sienta
tentado a escribir la frase “no hay evidencia de eso. . . , ”El analista debería hacer esta
pregunta: Si esta hipótesis es cierta, ¿puedo esperar de manera realista ver evidencia de
ella? En otras palabras, si India estuviera planeando pruebas nucleares mientras
ocultaba deliberadamente sus intenciones, ¿podría el analista esperar de manera realista
ver evidencia de planificación de pruebas? El procedimiento ACH lleva al analista a
identificar y enfrentar este tipo de preguntas.
Una vez que haya adquirido práctica en la aplicación del análisis de hipótesis
en competencia, es muy posible integrar los conceptos básicos de este
procedimiento en su proceso de pensamiento analítico normal. En ese caso, el
procedimiento completo de ocho pasos puede ser innecesario, excepto en temas
muy controvertidos.
No hay garantía de que ACH o cualquier otro procedimiento produzca
una respuesta correcta. Después de todo, el resultado todavía depende de un
juicio intuitivo falible aplicado a información incompleta y ambigua. Análisis
de hipótesis en competencia, sin embargo, garantiza una adecuada
proceso de análisis. Este procedimiento lo lleva a través de un proceso racional
y sistemático que evita algunos errores analíticos comunes. Aumenta las
probabilidades de obtener la respuesta correcta y deja un rastro de auditoría
que muestra la evidencia utilizada en su análisis y cómo se interpretó esta
evidencia. Si otros no están de acuerdo con su criterio, la matriz se puede
utilizar para resaltar el área precisa de desacuerdo. La discusión posterior
puede entonces enfocarse productivamente en la fuente última de las
diferencias.
Una experiencia común es que el análisis de hipótesis en
competencia atribuye una mayor probabilidad a hipótesis alternativas que
el análisis convencional. Uno se vuelve menos seguro de lo que pensaba
109
supo. Al concentrar más atención en explicaciones alternativas, el procedimiento saca a relucir
toda la incertidumbre inherente a cualquier situación que sea pobre en datos pero rica en
posibilidades. Aunque tal incertidumbre es frustrante, puede ser un reflejo exacto de la
situación real. Como dijo Voltaire, "La duda no es un estado agradable, pero la certeza es
ridícula". 88
88. M. Rogers, ed., Citas contradictorias ( Inglaterra: Longman Group, Ltd., 1983).
110
PARTE III — SESIONES COGNITIVAS
Capítulo 9
******************
89. Gran parte de esta investigación fue estimulada por el trabajo fundamental de Amos Tversky y
Daniel Kahneman, "Judgment under Uncertainty: Heuristics and Biases", Ciencias, 27 de septiembre
1974, vol. 185, págs. 1124-1131. Robin Hogarth lo ha resumido, Juicio y elección ( Nueva York:
John Wiley & Sons, 1980), Richard Nisbett y Lee Ross, Inferencia humana: estrategias y
defectos del juicio humano ( Englewood Clifs, Nueva Jersey: Prentice-Hall,
1980) y Robyn Dawes, Elección racional en un mundo incierto ( Nueva York: Harcourt Brace
Jovanovich College Publishers, 1988). El libro Te Hogarth contiene una excelente bibliografía de
investigación en este campo, organizada por temas.
111
La distancia aparente de un objeto está determinada en parte por su
claridad. Cuanto más nítidamente se ve el objeto, más cerca parece estar.
Esta regla tiene cierta validez, porque en cualquier escena dada los objetos
más distantes se ven con menos nitidez que los objetos más cercanos. Sin
embargo, confiar en esta regla conduce a errores sistemáticos en la
estimación de la distancia. Específicamente, las distancias se sobrestiman a
menudo cuando la visibilidad es escasa porque los contornos de los objetos
están borrosos. Por otro lado, las distancias a menudo se subestiman
cuando la visibilidad es buena porque los objetos se ven con nitidez. Por
tanto, la confianza en la claridad como una indicación de distancia conduce
a sesgos comunes. 90
Esta regla de oro para juzgar la distancia es muy útil. Por lo general,
funciona y nos ayuda a lidiar con la ambigüedad y complejidad de la vida que
nos rodea. Sin embargo, bajo ciertas circunstancias predecibles, conducirá a
un juicio sesgado.
Los sesgos cognitivos son similares a las ilusiones ópticas en que el error
sigue siendo convincente incluso cuando uno es plenamente consciente de su
naturaleza. La conciencia del sesgo, por sí sola, no produce una percepción más
precisa. Los sesgos cognitivos, por lo tanto, son sumamente difíciles de superar.
Los psicólogos han realizado muchos experimentos para identificar las reglas
prácticas simplificadoras que la gente usa para emitir juicios sobre información
incompleta o ambigua y para mostrar, al menos en situaciones de laboratorio,
cómo estas reglas prácticas prejuzgan los juicios y las decisiones. Los siguientes
cuatro capítulos discuten los sesgos cognitivos que son particularmente
pertinentes para el análisis de inteligencia porque afectan la evaluación de la
evidencia, la percepción de causa y efecto, la estimación de probabilidades y la
evaluación retrospectiva de los informes de inteligencia.
Antes de discutir los sesgos específicos, es apropiado considerar la
naturaleza de dicha evidencia experimental y hasta qué punto se puede
generalizar a partir de estos experimentos para concluir que los mismos
sesgos prevalecen en la comunidad de inteligencia.
Cuando los experimentos psicológicos revelan la existencia de un sesgo, esto
no significa que todos los juicios de cada persona individual serán engañados.
Significa que en cualquier grupo de personas, el sesgo existirá en mayor o menor
grado en la mayoría de los juicios hechos por la mayor parte del grupo. Sobre la
base de este tipo de evidencia experimental, solo se puede generalizar sobre
112
las tendencias de grupos de personas, no hacer declaraciones sobre cómo
pensará un individuo específico.
Creo que las conclusiones basadas en estos experimentos de laboratorio se
pueden generalizar para aplicarlas a los analistas de inteligencia. En la mayoría de los
casos, aunque no en todos, los sujetos de prueba eran expertos en su campo. Eran
médicos, analistas del mercado de valores, handicappers de carreras de caballos,
maestros de ajedrez, directores de investigación y psicólogos profesionales, no
estudiantes de pregrado como en tantos experimentos psicológicos. En la mayoría de los
casos, las tareas mentales realizadas en estos experimentos fueron realistas; es decir,
eran comparables a los juicios que normalmente se les exige a los especialistas en estos
campos.
Siempre existe cierto margen de error cuando se extrapola del laboratorio
experimental a la experiencia del mundo real, pero las clases de analistas de la CIA
a quienes se les presentaron estas ideas las encontraron relevantes y
esclarecedoras. Repliqué varios de los experimentos más simples con oficiales
militares en el Departamento de Asuntos de Seguridad Nacional de la Escuela Naval
de Posgrado.
113
114
Capítulo 10
******************
91. Una versión anterior de este capítulo se publicó como artículo no clasificado en Estudios en
Inteligencia en verano de 1981, bajo el mismo título.
115
Reconocer y evitar los prejuicios en tales circunstancias es
particularmente difícil. La mayoría de los sesgos discutidos en este capítulo no
están relacionados entre sí y se agrupan aquí solo porque todos se refieren a
algún aspecto de la evaluación de la evidencia.
El criterio de viveza
El impacto de la información en la mente humana está sólo imperfectamente
relacionado con su verdadero valor como evidencia. 9 Específicamente, la información
vívida, concreta y personal tiene un mayor impacto en nuestro pensamiento que la
información pálida y abstracta que en realidad puede tener un valor sustancialmente
mayor como evidencia. Por ejemplo:
• Las historias de casos y las anécdotas tendrán un mayor impacto que los datos
agregados o estadísticos más informativos pero abstractos.
Los eventos que las personas experimentan personalmente son más memorables
que aquellos sobre los que solo leen. Las palabras concretas son más fáciles de recordar
que las abstractas, 93 y las palabras de todo tipo son más fáciles de recordar que los
números. En resumen, es más probable que la información que tenga las cualidades
citadas en el párrafo anterior atraiga y retenga nuestra atención. Es más probable que se
almacene y recuerde que el razonamiento abstracto o los resúmenes estadísticos y, por
lo tanto, se puede esperar que tenga un efecto inmediato mayor, así como un impacto
continuo en nuestro pensamiento en el futuro.
Los analistas de inteligencia generalmente trabajan con información de segunda
mano. La información que reciben los analistas está mediada por las palabras escritas de
otros en lugar de percibirse directamente con sus propios ojos y oídos. En parte debido a
las limitaciones impuestas por su empleo abierto en la CIA, muchos analistas de
inteligencia han pasado menos tiempo en el país en el que se encuentran.
92. La mayoría de las ideas y ejemplos de esta sección son de Richard Nisbett y Lee Ross,
Inferencia humana: estrategias y defectos del juicio social ( Englewood Clifs, Nueva Jersey:
Prentice-Hall, 1980), Capítulo 3.
93. A. Paivio, Procesos verbales y de imágenes ( Nueva York: Holt, Rinehart & Winston, 1971).
116
analizando y tuvo menos contactos con nacionales de ese país que sus colegas
académicos y otros del gobierno. Las ocasiones en las que un analista visita el
país cuyos asuntos está analizando, o habla directamente con un ciudadano de
ese país, son experiencias memorables. Estas experiencias son a menudo una
fuente de nuevos conocimientos, pero también pueden ser engañosas.
117
Nisbett y Ross etiquetan esto como el síndrome del "hombre-quién" y
proporcionan las siguientes ilustraciones: 94
• "Pero conozco un hombre que fumaba tres paquetes de cigarrillos al día y vivía
hasta los noventa y nueve ".
Huelga decir que un ejemplo de “hombre que” rara vez merece el peso
probatorio que pretende la persona que cita el ejemplo, o el peso que a
menudo le concede el destinatario.
La implicación más seria de la viveza como criterio que determina el impacto
de la evidencia es que ciertos tipos de evidencia muy valiosa tendrán poca
influencia simplemente porque son abstractos. Los datos estadísticos, en particular,
carecen de detalles ricos y concretos para evocar imágenes vívidas y, a menudo, se
pasan por alto, se ignoran o se minimizan.
Por ejemplo, el informe del Cirujano General que vincula el consumo de cigarrillos
con el cáncer debería haber provocado, lógicamente, una disminución en el consumo de
cigarrillos per cápita. No se produjo tal disminución durante más de 20 años. La reacción
de los médicos fue particularmente informativa. Todos los médicos conocían la evidencia
estadística y estaban más expuestos que la población en general a los problemas de
salud causados por el tabaquismo. La forma en que reaccionaran a esta evidencia
dependía de su especialidad médica. Veinte años después del informe del Cirujano
General, los radiólogos que examinan las radiografías de los pulmones todos los días
tenían la tasa más baja de tabaquismo. También era muy poco probable que los médicos
que diagnosticaban y trataban a las víctimas de cáncer de pulmón fumaran. Muchos
otros tipos de médicos continuaron fumando. La probabilidad de que un médico
continuara fumando estaba directamente relacionada con la distancia entre la
especialidad del médico y los pulmones. En otras palabras, incluso los médicos, que
estaban bien capacitados para comprender y apreciar los datos estadísticos, estaban
más influenciados por sus vívidas experiencias personales que por datos estadísticos
válidos. 95
118
a pesar de sus implicaciones lógicamente convincentes, tienen menos impacto que la
evidencia inferior pero más vívida ". 96 Parece probable que los analistas de inteligencia
también asignen un peso insuficiente a la información estadística.
Los analistas deberían dar poca importancia a las anécdotas e historias de casos
personales a menos que se sepa que son típicas, y quizás ninguna ponderación en absoluto si
se pueden obtener datos agregados basados en una muestra más válida.
Falta de prueba
Una característica principal del análisis de inteligencia es que a menudo falta
información clave. Los problemas analíticos se seleccionan sobre la base de su
importancia y las necesidades percibidas de los consumidores, sin tener mucho en
cuenta la disponibilidad de información. Los analistas tienen que hacer lo mejor
que puedan con lo que tienen, de alguna manera teniendo en cuenta el hecho de
que se sabe que falta mucha información relevante.
Idealmente, los analistas de inteligencia deberían ser capaces de
reconocer qué evidencia relevante falta y tenerla en cuenta en sus cálculos.
También deberían poder estimar el impacto potencial de los datos faltantes y
ajustar la confianza en su juicio en consecuencia. Desafortunadamente, este
ideal no parece ser la norma. Los experimentos sugieren que "fuera de la vista,
fuera de la mente" es una mejor descripción del impacto de las lagunas en la
evidencia.
Este problema se ha demostrado utilizando árboles de fallas, que son dibujos
esquemáticos que muestran todas las cosas que podrían salir mal con cualquier
esfuerzo. Los árboles de fallas se utilizan a menudo para estudiar la falibilidad de
sistemas complejos como un reactor nuclear o una cápsula espacial.
A varios grupos de mecánicos experimentados se les mostró un árbol de fallas que
mostraba todas las razones por las que un automóvil podría no arrancar. 97 El árbol tenía
siete ramas principales: carga de batería insuficiente, sistema de arranque defectuoso,
sistema de encendido defectuoso, sistema de combustible defectuoso, otros problemas
del motor, actos maliciosos o vandalismo y todos los demás problemas, y una serie de
subcategorías en cada rama. A un grupo se le mostró el árbol completo y se le pidió que
imaginara 100 casos en los que un automóvil no arranca. Luego se pidió a los miembros
de este grupo que estimaran cuántos de los 100 casos
119
atribuible a cada una de las siete ramas principales del árbol. A un segundo
grupo de mecánicas se le mostró solo una versión incompleta del árbol: se
omitieron tres ramas principales para probar cuán sensibles eran los sujetos
de prueba a lo que quedaba fuera.
Si el juicio de los mecánicos hubiera sido totalmente sensible a la
información faltante, entonces el número de casos de falla que normalmente
se atribuirían a las ramas omitidas debería haberse agregado a la categoría
“Otros problemas”. En la práctica, sin embargo, la categoría "Otros problemas"
se incrementó sólo a la mitad de lo que debería haber sido. Esto indica que los
mecánicos que muestran el árbol incompleto no pudieron reconocer por
completo e incorporar en sus juicios el hecho de que faltaban algunas de las
causas por las que un automóvil no arrancaba. Cuando se corrió el mismo
experimento con no mecánicos, el efecto de las ramas faltantes fue mucho
mayor.
En comparación con la mayoría de las preguntas del análisis de inteligencia, el
experimento de "el coche no arranca" implicó juicios analíticos bastante simples
basados en información que se presentó de manera bien organizada. El hecho de
que la presentación de las variables relevantes en el árbol de fallas abreviado fuera
incompleta podría y debería haber sido reconocida por los mecánicos
experimentados seleccionados como sujetos de prueba. Los analistas de
inteligencia suelen tener problemas similares. La falta de datos es normal en los
problemas de inteligencia, pero probablemente sea más difícil reconocer que falta
información importante e incorporar este hecho en juicios sobre cuestiones de
inteligencia que en el experimento más concreto de “el coche no arranca”.
Como antídoto para este problema, los analistas deben identificar
explícitamente aquellas variables relevantes sobre las cuales falta información,
considerar hipótesis alternativas sobre el estado de estas variables y luego
modificar su juicio y especialmente la confianza en su juicio en consecuencia.
También deben considerar si la ausencia de información es normal o es en sí
misma un indicador de actividad o inactividad inusual.
Hipersensibilidad a la consistencia
98. Amos Tversky y Daniel Kahneman, "Judgment under Uncertainty: Heuristics and Biases", Ciencias,
Vol. 185 (27 de septiembre de 1974), 1126.
120
Las personas formulan explicaciones o estimaciones alternativas y seleccionan la que
engloba la mayor cantidad de evidencia dentro de un escenario lógicamente consistente.
Sin embargo, en algunas circunstancias, la coherencia puede resultar engañosa. La
información puede ser coherente solo porque está muy correlacionada o es redundante,
en cuyo caso muchos informes relacionados pueden no ser más informativos que un
solo informe. O puede ser coherente solo porque la información se extrae de una
muestra muy pequeña o de una muestra sesgada.
Es más probable que estos problemas surjan en el análisis de inteligencia
cuando los analistas tienen poca información, por ejemplo, sobre las actitudes
políticas de los oficiales militares rusos o entre ciertos grupos étnicos africanos. Si
la evidencia disponible es consistente, los analistas a menudo pasarán por alto el
hecho de que representa una muestra muy pequeña y, por lo tanto, poco confiable
tomada de un grupo grande y heterogéneo. No se trata simplemente de una
necesidad, de tener que trabajar con la información disponible, por imperfecta que
sea. Más bien, existe una ilusión de validez causada por la consistencia de la
información.
La tendencia a confiar demasiado en muestras pequeñas se ha denominado
la "ley de los números pequeños". 99 Se trata de una parodia de la ley de los grandes
números, el principio estadístico básico que dice que las muestras muy grandes
serán muy representativas de la población de la que proceden. Este es el principio
que subyace en las encuestas de opinión, pero la mayoría de las personas no son
buenos estadísticos intuitivos. La gente no tiene mucha intuición sobre el tamaño
que debe tener una muestra antes de poder sacar conclusiones válidas de ella. La
llamada ley de los números pequeños significa que, intuitivamente, cometemos el
error de tratar las muestras pequeñas como si fueran grandes.
Se ha demostrado que esto es cierto incluso para los psicólogos matemáticos con
una amplia formación en estadística. Los psicólogos que diseñan experimentos tienen
nociones seriamente incorrectas sobre la cantidad de error y la falta de confiabilidad
inherentes a muestras pequeñas de datos, una confianza injustificada en las primeras
tendencias de los primeros puntos de datos y expectativas irrazonablemente altas de
poder repetir el mismo experimento. y obtenga los mismos resultados con un conjunto
diferente de sujetos de prueba.
¿Los analistas de inteligencia también confían demasiado en las conclusiones
extraídas de muy pocos datos, especialmente si los datos parecen ser consistentes?
Cuando se trabaja con un cuerpo de evidencia pequeño pero consistente, los analistas
deben considerar cuán representativa es esa evidencia del cuerpo total de potencial.
121
información disponible inicialmente. Si hubiera más informes disponibles, ¿qué
probabilidad hay de que esta información también sea coherente con la evidencia ya
disponible? Si un analista se queda atascado con solo una pequeña cantidad de
evidencia y no puede determinar cuán representativa es esta evidencia, la confianza en
los juicios basados en esta evidencia debe ser baja independientemente de la
consistencia de la información.
Hay muchas razones por las que la información a menudo es menos que
perfectamente precisa: malentendidos, percepciones erróneas o tener solo una parte de
la historia; sesgo por parte de la fuente última; distorsión en la cadena de presentación
de informes desde la subfuente hasta la fuente, el oficial de caso, el oficial de informes y
el analista; o malentendidos y percepciones erróneas por parte del analista. Además,
gran parte de la evidencia que los analistas aportan al realizar el análisis se recupera de
la memoria, pero los analistas a menudo no pueden recordar ni siquiera la fuente de
información que tienen en la memoria y mucho menos el grado de certeza que
atribuyen a la precisión de esa información cuando fue recibido por primera vez.
100. Véase Charles F. Gettys, Clinton W. Kelly III y Cameron Peterson, "Te Best Guess Hypothesis
in Multietage Inference", Comportamiento organizacional y desempeño humano, 10,
3 (1973), 365 - 373; y David A. Schum y Wesley M. DuCharme, "Comentarios sobre la relación
entre el impacto y la confiabilidad de la evidencia", Comportamiento organizacional y
desempeño humano, 6 ( 1971), 111-131.
122
luego reduzca la confianza en este juicio por un factor determinado por la validez
evaluada de la información. Por ejemplo, la evidencia disponible puede indicar que
probablemente ocurrirá un evento (75 por ciento), pero el analista no puede estar
seguro de que la evidencia en la que se basa este juicio sea totalmente precisa o
confiable. Por lo tanto, el analista reduce la probabilidad evaluada del evento
(digamos, hasta el 60 por ciento) para tener en cuenta la incertidumbre con
respecto a la evidencia. Se trata de una mejora con respecto a la estrategia de
mejor conjetura, pero en general todavía da como resultado juicios que son
demasiado confiados en comparación con la fórmula matemática para calcular
probabilidades. 101
plausible pero que desde el principio se sabe que tiene una autenticidad cuestionable. Las
canales de inteligencia. En muchos casos, no está claro si tal declaración privada de un embajador
extranjero, miembro del gabinete u otro funcionario es una declaración real de puntos de vista
privados, una indiscreción, parte de un intento deliberado de engañar al gobierno de los EE. UU. O
101. Edgar M. Johnson, “El efecto de la confiabilidad de la fuente de datos en la inferencia intuitiva”, artículo técnico 251
(Arlington, VA: Instituto de Investigación del Ejército de los Estados Unidos para las Ciencias Sociales y del Comportamiento,
1974).
123
plan probado para transmitir un mensaje veraz que el gobierno extranjero
cree que se transmite mejor a través de canales informales.
El analista que recibe un informe de este tipo a menudo tiene pocas bases
para juzgar la motivación de la fuente, por lo que la información debe juzgarse por
sus propios méritos. Al hacer tal evaluación, el analista se ve influido por vínculos
causales plausibles. Si estos son vínculos de los que el analista ya estaba al tanto, el
informe tiene poco impacto en la medida en que simplemente respalda las
opiniones existentes. Sin embargo, si existen nuevos vínculos plausibles, se
reestructura el pensamiento para tenerlos en cuenta. Parece probable que el
impacto en el pensamiento del analista esté determinado únicamente por la
sustancia de la información, y que la advertencia sobre la fuente no atenúe en
absoluto el impacto de la información. Saber que la información proviene de una
fuente incontrolada que puede estar tratando de manipularnos no necesariamente
reduce el impacto de la información.
Las impresiones tienden a persistir incluso después de que la evidencia que creó
esas impresiones haya sido completamente desacreditada. Los psicólogos se han
interesado por este fenómeno porque muchos de sus experimentos requieren que los
sujetos de prueba sean engañados. Por ejemplo, se puede hacer creer a los sujetos de
prueba que tuvieron éxito o no en la realización de alguna tarea, o que poseen ciertas
habilidades o rasgos de personalidad, cuando en realidad este no es el caso. La ética
profesional requiere que los sujetos de prueba sean desengañados de estas falsas
impresiones al final del experimento, pero esto ha resultado sorprendentemente difícil
de lograr.
Las impresiones erróneas de los sujetos de prueba con respecto a sus habilidades
lógicas para resolver problemas persistieron incluso después de que se les informó que
la manipulación de un buen o mal desempeño docente había garantizado virtualmente
su éxito o fracaso. 10 De manera similar, a los sujetos de prueba a los que se les pidió que
distinguieran entre notas de suicidio verdaderas y ficticias, se les dio retroalimentación
que no tenía relación con el desempeño real. Los sujetos de prueba se habían dividido al
azar en dos grupos, dando a los miembros de un grupo la impresión de un éxito
superior al promedio y al otro de relativo fracaso en esta tarea. Impresiones erróneas de
los sujetos sobre la dificultad de la tarea
124
y de su propio desempeño persistió incluso después de que fueron informados
del engaño, es decir, informados de que su presunto desempeño había sido
predeterminado por su asignación a uno u otro grupo de prueba. Además, se
encontró el mismo fenómeno entre los observadores del experimento, así
como entre los participantes inmediatos. 103
125
de impresiones sobre la base de los informes de esta fuente. Es fácil racionalizar el
mantenimiento de estas impresiones argumentando que la información era
verdadera a pesar de que la fuente estaba bajo control, o dudando de la validez del
informe que afirma que la fuente está bajo control. En el último caso, la
perseverancia de la impresión puede por sí misma afectar la evaluación de la
evidencia que supuestamente desacredita la impresión.
126
Capítulo 11
Los juicios sobre causa y efecto son necesarios para explicar el pasado, comprender el
presente y estimar el futuro. Estos juicios a menudo están condicionados por factores sobre
los cuales la gente ejerce poco control consciente, y esto puede influir en muchos tipos de
juicios hechos por analistas de inteligencia. Debido a la necesidad de imponer orden en
nuestro entorno, buscamos y a menudo creemos que encontramos las causas de lo que en
realidad son fenómenos accidentales o aleatorios. La gente sobreestima la medida en que
otros países están siguiendo un plan coherente, coordinado y racional y, por lo tanto, también
sobreestima su propia capacidad para predecir eventos futuros en esas naciones. Las
personas también tienden a asumir que las causas son similares a sus efectos, en el sentido de
que los efectos importantes o grandes deben tener causas grandes.
******************
Hay varios modos de análisis mediante los cuales se puede inferir causa y
efecto. En un análisis más formal, las inferencias se hacen a través de
procedimientos que comprenden colectivamente el método científico. El científico
presenta una hipótesis y luego la prueba mediante la recopilación y el análisis
estadístico de datos sobre muchas instancias del fenómeno en cuestión. Incluso
entonces, la causalidad no puede probarse más allá de toda duda posible.
127
El científico busca refutar una hipótesis, no confirmarla. Se acepta una
hipótesis sólo cuando no se puede rechazar.
La recopilación de datos sobre muchos casos comparables para probar
hipótesis sobre causa y efecto no es factible para la mayoría de las preguntas de
interés para la comunidad de inteligencia, especialmente las cuestiones de
importancia política o estratégica general relacionadas con las intenciones de otro
país. Sin duda, es factible con más frecuencia de lo que se hace, y se debe fomentar
un mayor uso de procedimientos científicos en la investigación política, económica
y estratégica. Pero el hecho es que el enfoque dominante del análisis de
inteligencia es necesariamente bastante diferente. Es el enfoque del historiador
más que del científico, y este enfoque presenta obstáculos para inferencias precisas
sobre la causalidad.
Los procedimientos y criterios que utilizan la mayoría de los historiadores para atribuir la
Las ideas clave aquí son la coherencia y la narrativa. Estos son los
principios que guían la organización de las observaciones en estructuras y
patrones significativos. El historiador suele observar un solo caso, no un
patrón de covariación (cuando dos cosas están relacionadas de modo que el
cambio en una se asocia con el cambio en la otra) en muchos casos
comparables. Además, el historiador observa cambios simultáneos en tantas
variables que el principio de covariación generalmente no es útil para clasificar
las complejas relaciones entre ellas. La historia narrativa, por otro lado, ofrece
un medio para organizar la rica complejidad de las observaciones del
historiador. El historiador usa la imaginación para construir una historia
coherente a partir de fragmentos de datos.
El analista de inteligencia que emplea el modo histórico de análisis es
esencialmente un narrador. Él o ella construye una trama a partir de la anterior.
105. WH Walsh, Filosofía de la historia: una introducción ( Edición revisada: Nueva York: Harper and
Row, 1967), pág. 61.
128
eventos, y esta trama luego dicta los posibles finales de la historia incompleta.
La trama está formada por los “conceptos dominantes o ideas principales” que
el analista usa para postular patrones de relaciones entre los datos
disponibles. El analista, por supuesto, no está preparando un trabajo de fcción.
Existen limitaciones en la imaginación del analista, pero la imaginación, no
obstante, está involucrada porque hay una variedad casi ilimitada de formas
en las que los datos disponibles pueden organizarse para contar una historia
significativa. Las limitaciones son la evidencia disponible y el principio de
coherencia. La historia debe formar un todo lógico y coherente y ser
internamente coherente y coherente con la evidencia disponible.
Reconocer que el modo de análisis histórico o narrativo implica contar una
historia coherente ayuda a explicar los muchos desacuerdos entre los analistas, en
la medida en que la coherencia es un concepto subjetivo. Asume algunas creencias
previas o un modelo mental sobre qué va con qué. Más relevante para esta
discusión, el uso de la coherencia en lugar de la observación científica como criterio
para juzgar la verdad conduce a sesgos que presumiblemente influyen en todos los
analistas hasta cierto punto. Los juicios de coherencia pueden estar influenciados
por muchos factores externos, y si los analistas tienden a favorecer ciertos tipos de
explicaciones como más coherentes que otras, estarán sesgados a favor de esas
explicaciones.
106. Ellen J. Langer, "Te Psychology of Chance", Revista para la teoría del comportamiento social, 7
(1977), 185-208.
129
La gente espera que los eventos con patrones se vean con patrones y que los
eventos aleatorios se vean al azar, pero este no es el caso. Los eventos aleatorios a
menudo se ven modelados. El proceso aleatorio de lanzar una moneda seis veces puede
resultar en seis caras consecutivas. De las 32 secuencias posibles resultantes de seis
monedas, pocas parecen "aleatorias". 107 Esto se debe a que la aleatoriedad es una
propiedad del proceso que genera los datos que se producen. En algunos casos, la
aleatoriedad puede demostrarse mediante análisis científicos (estadísticos). Sin
embargo, los eventos casi nunca se percibirán intuitivamente como aleatorios; se puede
encontrar un patrón aparente en casi cualquier conjunto de datos o crear una narrativa
coherente a partir de cualquier conjunto de eventos.
Debido a la necesidad de imponer orden en su entorno, las personas buscan y a
menudo creen que encuentran las causas de lo que en realidad son fenómenos
aleatorios. Durante la Segunda Guerra Mundial, los londinenses presentaron una
variedad de explicaciones causales del patrón de bombardeos alemanes. Estas
explicaciones guiaron con frecuencia sus decisiones sobre dónde vivir y cuándo
refugiarse en refugios antiaéreos. El examen de posguerra, sin embargo, determinó que
la agrupación de impactos de bombas estaba cerca de una distribución aleatoria. 108
Otro ejemplo más de imposición de explicaciones causales sobre eventos aleatorios se toma
130
cólogos. Cuando los resultados experimentales se desviaron de las
expectativas, estos científicos rara vez atribuyeron la desviación a la variación
en la muestra. Siempre pudieron encontrar una explicación causal más
persuasiva para la discrepancia. 110
Muy similar al sesgo hacia las explicaciones causales es la tendencia a ver las
acciones de otros gobiernos (o grupos de cualquier tipo) como el resultado
intencional de una dirección y planificación centralizadas. “. . .La mayoría de las
personas tardan en percibir accidentes, consecuencias no deseadas, coincidencias y
pequeñas causas que conducen a grandes efectos. En cambio, se ven acciones,
planes y conspiraciones coordinadas ”. 11 Los analistas sobreestiman la medida en
que otros países están aplicando políticas coherentes, racionales y que maximizan
los objetivos, porque esto genera explicaciones más coherentes, lógicas y
racionales. Este sesgo también lleva a analistas y políticos a sobrestimar la
previsibilidad de eventos futuros en otros países.
Los analistas saben que los resultados a menudo son causados por accidentes, errores,
coincidencias, la consecuencia involuntaria de una política bien intencionada, órdenes
ejecutadas incorrectamente, negociaciones entre empresas semiindependientes.
110. Amos Tversky y Daniel Kahneman, "Belief in the Law of Small Numbers", Boletín
psicológico, 72, 2 (1971), 105-110.
111. BF Skinner, "Superstition in the Pigeon", Revista de psicología experimental, 38 (1948), 168-172.
112. Robert Jervis, Percepción y percepción errónea en la política internacional ( Princeton, Nueva Jersey:
Princeton University Press, 1976), pág. 320.
131
entidades reaucráticas, o siguiendo procedimientos operativos estándar en
circunstancias inapropiadas. 113 Pero centrarse en tales causas implica un mundo
desordenado en el que los resultados están determinados más por el azar que por
el propósito. Es especialmente difícil incorporar estos elementos aleatorios y
usualmente impredecibles en una narrativa coherente, porque rara vez hay
evidencia disponible para documentarlos de manera oportuna. Es sólo en
perspectiva histórica, después de que se escriben las memorias y se publican los
documentos del gobierno, que la historia completa está disponible.
Este sesgo tiene consecuencias importantes. Asumir que las acciones de
un gobierno extranjero son el resultado de un plan lógico y centralizado lleva
al analista a:
132
similar a las propiedades del efecto ". 114 Las cosas pesadas hacen ruidos pesados; las cosas
delicadas se mueven delicadamente; los animales grandes dejan grandes huellas. Cuando se
trata de propiedades físicas, estas inferencias son generalmente correctas.
Sin embargo, la gente tiende a razonar de la misma manera en circunstancias
en las que esta inferencia no es válida. Por lo tanto, los analistas tienden a asumir
que los eventos económicos tienen principalmente causas económicas, que los
grandes eventos tienen consecuencias importantes y que los pequeños eventos no
pueden afectar el curso de la historia. Tal correspondencia entre causa y efecto
hace una narrativa más lógica y persuasiva —más coherente—, pero hay pocas
bases para esperar que tales inferencias correspondan a hechos históricos.
Fischer etiqueta la suposición de que una causa debe parecerse de alguna
manera a su efecto como la "falacia de la identidad", 115 y cita como ejemplo la
historiografía de la Armada Española. Durante un período de varios siglos, los
historiadores han escrito sobre las importantes consecuencias de la derrota inglesa
de la Armada española en 1588. Después de refutar cada uno de estos argumentos,
Fischer señala:
114. Harold H. Kelley, "Te Processes of Causal Attribution", Psicólogo estadounidense ( febrero
1973), pág. 121.
115. David Hackett Fischer, Falacias del historiador ( Nueva York: Harper Torchbooks, 1970), pág. 177.
116. Ibíd, p. 167.
117. Richard E. Nisbett y Timothy DeC. Wilson, "Telling More Tan We Can Know: Verbal Reports on
Mental Processes", Revisión psicológica ( Mayo de 1977), pág. 252.
133
por el efecto que supuestamente explica, en la mente de muchos no cumple con el
criterio de una explicación narrativa coherente. Si causas tan “pequeñas” como
errores, accidentes o el comportamiento aberrante de un solo individuo tienen
grandes efectos, entonces se deduce que los eventos mayores ocurren por razones
que no tienen sentido y son aleatorias en lugar de una dirección intencionada.
Gran parte de la investigación sobre cómo las personas evalúan las causas del
comportamiento emplea una dicotomía básica entre los determinantes internos y los
determinantes externos de las acciones humanas. Las causas internas del
comportamiento incluyen las actitudes, creencias y personalidad de una persona. Las
causas externas incluyen incentivos y limitaciones, requisitos de roles, presiones sociales
u otras fuerzas sobre las que el individuo tiene poco control. La investigación examina
las circunstancias bajo las cuales las personas atribuyen el comportamiento a
disposiciones estables del actor o a características de la situación a la que responde el
actor.
Las diferencias en los juicios sobre las causas del comportamiento de otra persona
o del gobierno afectan la forma en que las personas responden a ese comportamiento.
La forma en que las personas responden a las acciones amistosas o hostiles de otros
puede ser bastante diferente si atribuyen el comportamiento a la naturaleza de la
persona o el gobierno que si ven el comportamiento como resultado de restricciones
situacionales sobre las cuales la persona o el gobierno tienen poco control.
Un error fundamental que se comete al juzgar las causas de la conducta es
sobrestimar el papel de los factores internos y subestimar el papel de los factores
externos. Al observar el comportamiento de otra persona, la gente está demasiado
134
Se inclina a inferir que el comportamiento fue causado por amplias cualidades o
disposiciones personales de la otra persona y a esperar que estas mismas
cualidades inherentes determinarán el comportamiento del actor en otras
circunstancias. No se asigna suficiente peso a las circunstancias externas que
pueden haber influido en la elección de comportamiento de la otra persona. Esta
tendencia generalizada se ha demostrado en muchos experimentos en
circunstancias muy diversas. 118 ya menudo se ha observado en interacciones
diplomáticas y militares. 119
118. Lee Ross, "El psicólogo intuitivo y sus defectos: distorsiones en el proceso de atribución", en
Leonard Berkowitz, ed., Avances es la psicología social experimental, Volumen 10 (Nueva York:
Academic Press, 1977), pág. 184.
119. Jervis, ibid., Capítulo 2.
120. Edward E. Jones, "¿Cómo percibe la gente las causas del comportamiento?" Científico americano
64 (1976), pág. 301.
121. Daniel Heradstveit, El conflicto árabe-israelí: obstáculos psicológicos para la paz ( Oslo:
Universitetsforlaget, 1979), pág. 25.
135
entendido por otros actores y bien diseñado para obtener la respuesta
deseada. De hecho, un observador que interactúa con otro actor se ve a sí
mismo determinando la situación a la que responde el otro actor. Cuando el
actor no responde como se esperaba, la inferencia lógica es que la respuesta
fue causada por la naturaleza del actor más que por la naturaleza de la
situación.
Los analistas de inteligencia están familiarizados con el problema
de sopesar las causas internas y externas de la conducta en varios
contextos. Cuando un nuevo líder asume el control de un gobierno
extranjero, los analistas evalúan el impacto probable de un cambio de
liderazgo en la política gubernamental. Por ejemplo, ¿continuará el
exministro de Defensa que se convierte en Primer Ministro
presionando para aumentar el presupuesto de defensa? Los analistas
sopesan las predisposiciones conocidas del nuevo primer ministro,
basadas en el desempeño en puestos anteriores, frente a los requisitos
de la situación que limitan las opciones disponibles. Si se dispone de
información relativamente completa sobre las limitaciones
situacionales, los analistas pueden emitir un juicio preciso sobre tales
cuestiones. Careciendo de tal información,
Considere la invasión soviética de Afganistán. La percepción de los soviéticos de su
propio comportamiento fue sin duda muy diferente de la percepción estadounidense. La
teoría de la atribución causal sugiere que los líderes soviéticos verían la invasión como
una reacción a los imperativos de la situación en el sur de Asia en ese momento, como la
amenaza del nacionalismo islámico que se extiende desde Irán y Afganistán a la Unión
Soviética. Además, percibirían la falta de comprensión de los Estados Unidos de sus
intereses nacionales "legítimos" como causada por la hostilidad fundamental de los
Estados Unidos. 1
122. Véase Richards J. Heuer, Jr., "Analyzing the Soviet Invasion of Afghanistan: Hypotheses
from Causal Attribution Teory", Estudios de comunismo comparado, Invierno de 1980. Estos
comentarios sobre la invasión soviética de Afganistán se basan únicamente en los resultados
de la investigación psicológica, no en información sobre las acciones soviéticas en Afganistán o
la reacción de Estados Unidos a las mismas. La naturaleza de las generalizaciones sobre cómo
las personas procesan normalmente la información es que se aplican “más o menos” a muchos
casos, pero es posible que no ofrezcan un ajuste perfecto para un solo caso. Obviamente,
hubo muchos otros factores que influyeron en el análisis de las acciones soviéticas, incluidas
las ideas preconcebidas sobre las fuerzas impulsoras de la política soviética. La intención es
ilustrar la relevancia de la investigación psicológica en el proceso analítico, no debatir los
méritos de interpretaciones alternativas de la política soviética.
136
Por el contrario, los observadores de la invasión soviética se inclinarían a
atribuirla a la naturaleza agresiva y expansionista del régimen soviético. La aversión
a la Unión Soviética y la falta de información sobre las limitaciones situacionales
percibidas por los propios soviéticos probablemente exacerbarían el sesgo
atribucional. 1 3 Además, en la medida en que este sesgo se deba a un conocimiento
insuficiente de las presiones y limitaciones situacionales, cabría esperar que los
políticos que no eran expertos soviéticos tuvieran un sesgo más fuerte que los
analistas especializados en la Unión Soviética. Con su mayor base de información
sobre las variables situacionales, los especialistas pueden estar en mejores
condiciones de tener en cuenta estas variables.
En ocasiones, los especialistas se sumergen tanto en los asuntos del país que
analizan que comienzan a asumir la perspectiva —y los sesgos— de los líderes de
ese país. Durante la Guerra Fría, hubo una diferencia persistente entre los
especialistas de la CIA en asuntos soviéticos y los especialistas en asuntos chinos
cuando se trataba de las relaciones chino-soviéticas. Durante los enfrentamientos
fronterizos de 1969, por ejemplo, los especialistas de la URSS argumentaron que los
chinos estaban siendo “provocadores”. Estos especialistas tendieron a aceptar las
versiones del régimen soviético en cuanto a la historia y alineación de la frontera.
Los especialistas en asuntos chinos tendían a adoptar el punto de vista opuesto, es
decir, que los rusos arrogantes se comportaban como suelen hacerlo los rusos,
mientras que los chinos simplemente reaccionaban a la prepotencia soviética. 1 4 En
otras palabras, los analistas asumieron la misma perspectiva sesgada que los
líderes del país sobre el que estaban más informados. Una explicación objetiva de
las relaciones causales podría haber estado en algún lugar entre estas dos
posiciones.
Las negociaciones de paz entre Egipto e Israel en 1978-1979 ofrecieron otro
ejemplo de aparente sesgo en la atribución causal. En palabras de un observador
en ese momento:
123. Edward Jones y Richard Nisbett, "Te Actor and the Observer: Divergent Perceptions of Teir
Behavior", en Edward Jones et al., Atribución: percibir las causas del comportamiento ( Nueva
Jersey: General Learning Press, 1971), pág. 93.
124. Basado en una discusión personal con analistas de la CIA.
137
preferencia por la paz. Egipto, sin embargo, explica los compromisos
de Israel con respecto, por ejemplo, al Sinaí, como resultado de
presiones externas tales como incentivos positivos y amenazas de
sanciones negativas por parte de Estados Unidos. Además, algunos
egipcios atribuyen el comportamiento indeseable de Israel, como el
establecimiento de asentamientos judíos en la Ribera Occidental del
río Jordán, como resultado del expansionismo sionista. Si Israel no
coloca asentamientos en ese territorio, los egipcios podrían dar cuenta
de un comportamiento tan deseable que se debe a restricciones
externas, como la condena occidental de los asentamientos. Los
israelíes, por otro lado, explican el comportamiento indeseable, como
la tendencia pasada de Egipto a lanzar amenazas para arrojarlos al
mar, como resultado de la oposición inherente de Egipto a un estado
judío en el Medio Oriente. 125
125. Raymond Tanter, “Bounded Rationality and Decision Aids”, ensayo preparado para el
seminario Strategies of Confict, Mont Pelerin, Suiza, 11 a 16 de mayo de 1980.
126. Esta sección se basa en gran medida en Jervis, Capítulo 9.
138
Al estimar la influencia de la política estadounidense en las acciones de
otro gobierno, los analistas a menudo estarán al tanto de las acciones
estadounidenses y de lo que pretenden lograr, pero en muchos casos estarán
menos informados sobre los procesos internos, la política presiones calóricas,
conflictos de políticas y otras influencias sobre la decisión del gobierno
objetivo.
Este sesgo puede haber jugado un papel en el reciente fracaso de Estados Unidos
para anticipar las pruebas de armas nucleares de la India, a pesar de que el nuevo
gobierno indio fue elegido en parte con la promesa de que agregaría armas nucleares al
arsenal militar de la India. La mayoría de los analistas de inteligencia estadounidenses
aparentemente descartaron las promesas como retórica de campaña, creyendo que
India sería disuadida de unirse al club nuclear por sanciones económicas y presión
diplomática. Los analistas sobrestimaron la capacidad de la política estadounidense para
influir en las decisiones de la India.
Cuando las acciones de otro país son consistentes con los deseos de Estados
Unidos, la explicación más obvia, en ausencia de evidencia sólida en contra, es que la
política de Estados Unidos influyó de manera efectiva en la decisión. 1 7 Por el contrario,
cuando otro país se comporta de manera no deseada, esto normalmente se atribuye a
factores que escapan al control de Estados Unidos. Las personas y los gobiernos rara vez
consideran la posibilidad de que sus propias acciones hayan tenido consecuencias no
deseadas. Asumen que sus intenciones se han percibido correctamente y que las
acciones tendrán el efecto deseado a menos que se frustren por causas externas.
Otro ejemplo son los golpes de pecho que sufrieron algunos estadounidenses
después de la caída de la Unión Soviética. Según algunos, la desaparición de la
URSS fue causada por fuertes políticas estadounidenses, como el aumento de los
gastos de defensa y la Iniciativa de Defensa Estratégica, que hizo que los líderes
soviéticos se dieran cuenta de que ya no podían competir con los Estados Unidos.
127. Del mismo razonamiento se desprende que podemos subestimar las consecuencias de nuestras acciones en
naciones que no son destinado a objetivo de nuestra influencia.
139
Estados. Los medios de comunicación estadounidenses reprodujeron esta historia durante
varias semanas, entrevistando a mucha gente —algunos expertos, otros no— sobre por qué
colapsó la Unión Soviética. La mayoría de los estudiantes serios entendieron que había
muchas razones para el colapso soviético, las más importantes de las cuales fueron los
problemas internos causados por la naturaleza del sistema soviético.
Las personas y los gobiernos también tienden a sobrestimar su propia
importancia como blanco de las acciones de otros. Son sensibles al impacto que las
acciones de otros tienen sobre ellos, y generalmente asumen que las personas y los
gobiernos tienen la intención de hacer lo que hacen y pretenden que tenga el
efecto que tiene. Son mucho menos conscientes y, en consecuencia, tienden a
rebajar la importancia de otras causas o resultados de la acción.
Al analizar las razones por las que otros actúan de la manera en que lo hacen, es
común preguntarse: "¿Qué objetivos persigue la persona o el gobierno?" Pero las metas
generalmente se infieren de los efectos del comportamiento, y los efectos que se
conocen mejor y que a menudo parecen más importantes son los efectos sobre nosotros
mismos. Tus acciones que nos lastiman se interpretan comúnmente como expresiones
intencionales de hostilidad dirigidas a nosotros mismos. Por supuesto, esta será a
menudo una interpretación precisa, pero las personas a veces no reconocen que las
acciones que parecen dirigidas a ellos son en realidad la consecuencia no intencionada
de decisiones tomadas por otras razones.
Correlación ilusoria
140
Los juicios sobre la correlación son fundamentales para todo análisis de
inteligencia. Por ejemplo, las suposiciones de que el empeoramiento de las condiciones
económicas conduce a un mayor apoyo político para un partido de oposición, que los
problemas internos pueden conducir al aventurerismo extranjero, que el gobierno
militar conduce al desmoronamiento de las instituciones democráticas o que las
negociaciones son más exitosas cuando se llevan a cabo desde una posición de fuerza se
basan en juicios intuitivos de correlación entre estas variables. En muchos casos, estos
supuestos son correctos, pero rara vez se prueban mediante observación sistemática y
análisis estadístico.
Gran parte del análisis de inteligencia se basa en suposiciones de sentido común sobre cómo
se comportan normalmente las personas y los gobiernos. El problema es que las personas poseen
una gran facilidad para invocar “leyes” de comportamiento contradictorias para explicar, predecir o
justificar diferentes acciones que ocurren en circunstancias similares. “La prisa hace desperdiciar” y
“El que duda se pierde” son ejemplos de explicaciones y amonestaciones inconsistentes. Tienen
mucho sentido cuando se usan solos y nos dejan con un aspecto tonto cuando se presentan juntos.
“El apaciguamiento invita a la agresión” y “el acuerdo se basa en el compromiso” son expresiones
igualmente contradictorias.
Ante tales aparentes contradicciones, la defensa natural es que “todo depende de.
. . . " Reconocer la necesidad de tales enunciados calificadores es una de las diferencias
entre el procesamiento de información subconsciente y el análisis sistemático y
autoconsciente. El análisis informado puede identificarse por la capacidad de completar
la calificación; análisis cuidadoso por la frecuencia con la que uno recuerda hacerlo. 1 8
La correlación ilusoria ocurre cuando las personas perciben una relación que de hecho
no existe. Al observar una serie de casos, parece que las personas a menudo se centran en
instancias que respaldan la existencia de una relación, pero ignoran aquellos casos que no la
respaldan. Varios experimentos han demostrado que las personas no tienen una comprensión
intuitiva de qué información se necesita realmente para evaluar la relación entre dos eventos o
dos variables. No parece haber nada en la comprensión intuitiva de las personas que se
corresponda con el concepto estadístico de correlación.
128. Este párrafo se basa en gran medida en las ideas y la fraseología de Baruch Fischhof, "Para los
condenados a estudiar el pasado: Refecciones sobre el juicio histórico", en RA Shweder y DW Fiske, eds., Nuevas
direcciones para la metodología de la ciencia del comportamiento: Juicio falible en la investigación del
comportamiento ( San Francisco: Jossey-Bass, 1980).
141
agnosis de la enfermedad. 1 9 A las enfermeras se les mostraron 100 tarjetas a cada una;
cada tarjeta representaba ostensiblemente a un paciente. Las tarjetas tenían una fila de
cuatro letras en la parte superior que representaban varios síntomas y otra fila de cuatro
letras en la parte inferior que representaban los diagnósticos. Se instruyó a las
enfermeras para que se concentraran en una sola letra (A) que representaba un síntoma
y una letra (F) que representaba un diagnóstico, y luego juzgar si el síntoma A estaba
relacionado con el diagnóstico F. En otras palabras, sobre la base de de experiencia con
estos 100 “pacientes”, ¿la presencia del síntoma A ayuda a diagnosticar la presencia de la
enfermedad F? El experimento se realizó varias veces utilizando diferentes grados de
relación entre A y F.
Ponte brevemente en la posición de un sujeto de prueba. Ha
revisado las tarjetas y ha notado que en aproximadamente 25 de
ellas, o una cuarta parte de los casos, el síntoma y la enfermedad, A
y F, están presentes. ¿Dirías que hay una relación? ¿Por qué? ¿Es
apropiado emitir un juicio basándose únicamente en la frecuencia
de casos que apoyan la hipótesis de una relación entre A y F? ¿Qué
más necesitas saber? ¿Sería útil tener el número de casos en los
que el síntoma (A) estuvo presente sin la enfermedad (F)? Digamos
que esto también fue cierto en 25 tarjetas, de modo que de las 100
tarjetas, 50 tenían A y 25 de esas tarjetas con A también tenían F. En
otras palabras, la enfermedad estaba presente en la mitad de los
casos en los que el síntoma era observado. ¿Es esto suficiente para
establecer una relación,
En realidad, para determinar la existencia de tal relación, se necesita información para
llenar las cuatro celdas de una tabla de contingencia de 2 x 2. La Figura 16 muestra una tabla
de este tipo para una ejecución de prueba de este experimento. La tabla muestra el número
de casos de pacientes que tienen cada una de las cuatro combinaciones posibles de síntomas y
enfermedades.
Dieciocho de los 19 sujetos de prueba a los que se les dieron las 100 tarjetas
que representan esta combinación particular de A y F pensaron que había al menos
una relación débil, y varios pensaron que había una relación fuerte, cuando en
realidad no hay correlación en absoluto. Más de la mitad de los sujetos de prueba
basaron su juicio únicamente en la frecuencia de los casos en los que tanto A como
F estaban presentes. Esta es la celda superior izquierda de la tabla. Estos sujetos
estaban tratando de determinar si había una relación entre A y F. Al mirar las
tarjetas, el 25 por ciento de los casos que miraron eran
142
coherente con la creencia de que el síntoma y el diagnóstico estaban
perfectamente correlacionados; esto parece ser mucha evidencia para apoyar la
relación hipotetizada. Otro grupo más pequeño de sujetos de prueba utilizó un
razonamiento algo más sofisticado. Observaron el número total de casos A y luego
preguntaron en cuántos de estos casos F también estaba presente. Este es el lado
izquierdo de la tabla en la Figura 16. Un tercer grupo se resistió al concepto básico
de hacer una generalización estadística. Cuando se les pidió que describieran su
razonamiento, dijeron que a veces había una relación, mientras que en otros casos
no.
De los 86 sujetos de prueba involucrados en varias ejecuciones de este
experimento, ni uno solo mostró comprensión intuitiva del concepto de
correlación. Es decir, nadie entendió que para hacer un juicio adecuado sobre
la existencia de una relación, uno debe tener información en las cuatro celdas
de la tabla. La correlación estadística en su forma más elemental se basa en la
relación de las sumas de las frecuencias en las celdas diagonales de una tabla
de 2 x 2. En otras palabras, un predominio de entradas a lo largo de cualquiera
de las diagonales representa una fuerte relación estadística entre las dos
variables.
Consideremos ahora una cuestión similar de correlación sobre un tema
de interés para los analistas de inteligencia. ¿Cuáles son las características del
engaño estratégico y cómo pueden detectarlo los analistas? Al estudiar el
engaño, una de las preguntas importantes es: ¿cuáles son los correlatos del
engaño? Históricamente, cuando los analistas estudian casos de engaño, ¿qué
más ven que lo acompaña, que de alguna manera está relacionado con el
engaño y que podría interpretarse como un indicador de engaño? ¿Hay ciertas
prácticas relacionadas con el engaño, o circunstancias bajo las cuales es más
probable que ocurra el engaño, que permitan decir que, debido a que hemos
visto xoy o z, esto probablemente significa que un plan de engaño está bajo
¿camino? Esto sería comparable a un médico que observa ciertos síntomas y
143
concluyendo que una determinada enfermedad puede estar presente. Se trata esencialmente de un
problema de correlación. Si uno pudiera identificar varios correlatos del engaño, esto ayudaría
130. Robert Axelrod, "Te Rational Timing of Surprise", Politica mundial, XXXI (enero de 1979), págs.
228-246.
131. Barton Whaley, Estratagema: Engaño y sorpresa en la guerra, ( Cambridge, MA: Massachusetts
Institute of Technology, manuscrito inédito, 1969), pág. 247.
144
¿Qué tan común es el engaño cuando no hay mucho en juego? Esta es la celda
superior derecha de la Figura 17. Las entradas para esta celda y la celda inferior
derecha son difíciles de estimar; requieren definir un universo de casos que incluya
situaciones de bajo riesgo. ¿Qué es una situación de bajo riesgo en este contexto?
Las situaciones de alto riesgo son definibles, pero hay un número y variedad casi
infinitos de situaciones de bajo riesgo. Debido a esta dificultad, puede que no sea
factible utilizar la tabla completa de 2 x 2 para analizar la relación entre el engaño y
las apuestas altas.
Quizás sea necesario contentarse con solo el lado izquierdo de la tabla de la
Figura 17. Pero entonces no podemos demostrar empíricamente que uno debería
estar más alerta al engaño en situaciones de alto riesgo, porque no hay base para
comparar casos de alto y bajo riesgo. Si el engaño es aún más común en
situaciones tácticas que en situaciones estratégicas de alto riesgo, entonces los
analistas no deberían estar más inclinados a sospechar un engaño cuando hay
mucho en juego.
No está realmente claro si existe una relación entre el engaño y las
situaciones de alto riesgo, porque no hay suficientes datos. Intuitivamente, su
instinto puede decirle que sí, y este sentimiento puede ser correcto. Pero
puede tener este sentimiento principalmente porque tiende a concentrarse
solo en aquellos casos en la celda superior izquierda que sugieren tal relación.
La gente tiende a pasar por alto los casos en los que la relación no existe, en la
medida en que estos son mucho menos importantes.
La lección que se debe aprender no es que los analistas deban hacer un
análisis estadístico de cada relación. Por lo general, no tendrán los datos, el tiempo
ni el interés para eso. Pero los analistas deben tener una comprensión general de
lo que se necesita para saber si existe una relación. Definitivamente, esta
comprensión no forma parte del conocimiento intuitivo de las personas. No surge
de forma natural. Hay que aprenderlo. Al lidiar con estos problemas, los analistas
deben esforzarse por pensar en las cuatro celdas de la tabla y los datos que se
requerirían para llenar cada celda.
Incluso si los analistas siguen estas advertencias, hay varios factores que
distorsionan el juicio cuando uno no sigue procedimientos científicos rigurosos
para hacer y registrar observaciones. Estos son factores que influyen en la
capacidad de una persona para recordar ejemplos que encajan en las cuatro celdas.
Por ejemplo, las personas recuerdan los sucesos con más facilidad que los no
sucesos. "La historia es, en general, un registro de lo que hizo la gente, no de lo que
dejó de hacer". 13
132. EH Carr, ¿Qué es la Historia? ( Londres: Macmillan, 1961), pág. 126, citado por Fischhof, op. cit.
145
Por lo tanto, los casos en los que ocurrió el engaño son más fáciles de recordar
que los casos en los que no ocurrió. Los analistas recuerdan los sucesos que apoyan la
relación que están examinando mejor que los que no lo hacen. En la medida en que la
percepción esté influenciada por las expectativas, los analistas pueden haber pasado por
alto o descartado las instancias contrarias. Las personas también tienen una mejor
memoria para eventos recientes, eventos en los que estuvieron involucrados
personalmente, eventos que tuvieron consecuencias importantes, etc. Estos factores
tienen una influencia significativa en las percepciones de correlación cuando los
analistas hacen un juicio instintivo sin intentar conscientemente pensar en las cuatro
celdas de la tabla.
Muchas teorías erróneas se perpetúan porque parecen plausibles y porque
las personas registran su experiencia de una manera que las respalda en lugar de
refutarlas. Ross describe este proceso de la siguiente manera:
146
Capítulo 1
******************
Regla de disponibilidad
Una regla empírica simplificada que se usa comúnmente para hacer estimaciones
de probabilidad se conoce como regla de disponibilidad. En este contexto,
"disponibilidad" se refiere a la imaginabilidad o recuperabilidad de la memoria. Los
psicólogos han demostrado que dos señales que la gente usa inconscientemente para
juzgar la probabilidad de un evento son la facilidad con la que pueden imaginar
instancias relevantes del evento y el número o frecuencia de tales eventos que pueden
recordar fácilmente. 134 Las personas utilizan la regla de oro de la disponibilidad siempre
que estiman la frecuencia o la probabilidad sobre la base de la facilidad con la que
pueden recordar o imaginar instancias de lo que sea que estén tratando de estimar.
134. Amos Tversky y Daniel Kahneman, "Disponibilidad: una heurística para juzgar la frecuencia y la
probabilidad", Psicología cognitiva, 5 (1973), págs. 207-232.
147
Normalmente esto funciona bastante bien. Si una cosa ocurre con más
frecuencia que otra y, por lo tanto, es más probable, probablemente podamos
recordar más casos de ella. Los eventos que pueden ocurrir por lo general son más
fáciles de imaginar que los eventos poco probables. Las personas constantemente
hacen inferencias basadas en estos supuestos. Por ejemplo, estimamos nuestras
posibilidades de promoción recordando casos de promoción entre nuestros
colegas en puestos similares y con experiencia similar. Estimamos la probabilidad
de que un político pierda una elección imaginando formas en las que puede perder
el apoyo popular.
Aunque esto a menudo funciona bien, las personas se extravían con frecuencia
cuando la facilidad con la que las cosas les vienen a la mente está influenciada por
factores que no están relacionados con su probabilidad. La capacidad de recordar
instancias de un evento está influenciada por qué tan recientemente ocurrió el evento, si
estuvimos involucrados personalmente, si hubo detalles vívidos y memorables asociados
con el evento y qué tan importante pareció en ese momento. Estos y otros factores que
influyen en el juicio no están relacionados con la probabilidad real de un evento.
Piense en dos personas que fuman. Uno tenía un padre que murió de cáncer
de pulmón, mientras que el otro no conoce a nadie que haya tenido cáncer de
pulmón. Aquel cuyo padre murió de cáncer de pulmón normalmente percibirá una
mayor probabilidad de consecuencias adversas para la salud asociadas con el
tabaquismo, aunque un caso más de cáncer de pulmón es estadísticamente
insignificante al sopesar dicho riesgo. ¿Qué tal dos oficiales de la CIA, uno de los
cuales conocía a Aldrich Ames y el otro que no conocía personalmente a nadie que
hubiera resultado ser un traidor? ¿Cuál es más probable que perciba el mayor
riesgo de traición de información privilegiada?
Era difícil imaginar la desintegración de la Unión Soviética porque tal
evento era muy ajeno a nuestra experiencia de los 50 años anteriores. ¿Qué
tan difícil es ahora imaginar un regreso a un régimen comunista en Rusia? No
es tan difícil, en parte porque todavía tenemos vívidos recuerdos de la antigua
Unión Soviética. Pero, ¿es esa una base sólida para estimar la probabilidad de
que suceda? Cuando los analistas hacen juicios rápidos e intuitivos sin analizar
realmente la situación, es probable que se vean influidos por el sesgo de
disponibilidad. Cuanto más concuerda un escenario prospectivo con la
experiencia de uno, más fácil es imaginarlo y más probable parece.
Los analistas de inteligencia pueden estar menos influenciados que otros por el sesgo
de disponibilidad. Los analistas están evaluando toda la información disponible, no haciendo
inferencias rápidas y fáciles. Por otro lado, los formuladores de políticas y las revistas
148
Los istas que carecen de tiempo o de acceso a pruebas para entrar en detalles
deben necesariamente tomar atajos. El atajo obvio es utilizar la regla empírica de
disponibilidad para hacer inferencias sobre la probabilidad.
Numerosos eventos que preocupan a los analistas de inteligencia
149
En resumen, la regla empírica de disponibilidad se utiliza a menudo para
emitir juicios sobre la probabilidad o la frecuencia. A la gente le resultaría difícil
hacer lo contrario, ya que es un ahorro de tiempo en los muchos casos en que no
se justifica o no es factible un análisis más detallado. Los analistas de inteligencia,
sin embargo, deben ser conscientes cuando están tomando atajos. Deben conocer
las fortalezas y debilidades de estos procedimientos y ser capaces de identificar
cuándo es más probable que se desvíen. Para los analistas de inteligencia, el
reconocimiento de que están empleando la regla de disponibilidad debería generar
una advertencia. Un análisis serio de la probabilidad requiere la identificación y
evaluación de la fuerza y la interacción de las muchas variables que determinarán
el resultado de una situación.
Fondeo
Otra estrategia que la gente parece usar intuitiva e inconscientemente
para simplificar la tarea de emitir juicios se llama anclaje. Algún punto de
partida natural, tal vez de un análisis previo del mismo tema o de algún cálculo
parcial, se utiliza como una primera aproximación al juicio deseado. A
continuación, se ajusta este punto de partida, basándose en los resultados de
información o análisis adicionales. Normalmente, sin embargo, el punto de
partida sirve como un ancla o arrastre que reduce la cantidad de ajuste, por lo
que la estimación final permanece más cerca del punto de partida de lo que
debería estar.
El anclaje se puede demostrar de manera muy simple en un ejercicio en el aula
pidiendo a un grupo de estudiantes que calculen una o más cantidades conocidas, como
el porcentaje de países miembros de las Naciones Unidas que se encuentran en África.
Dé a la mitad de los estudiantes un número de porcentaje bajo y a la mitad un número
de porcentaje alto. Pídales que comiencen con este número como una respuesta
estimada y luego, mientras piensan en el problema, que ajusten este número hasta que
se acerquen lo más posible a lo que creen que es la respuesta correcta. Cuando se hizo
esto en un experimento que usó esta pregunta, aquellos que comenzaron con un ancla
del 10 por ciento produjeron estimaciones ajustadas que promediaron el 25 por ciento.
Aquellos que comenzaron con un ancla del 65 por ciento produjeron estimaciones
ajustadas que promediaron el 45 por ciento. 137
137. Amos Tversky y Daniel Kahneman, "Judgment under Uncertainty: Heuristics and Biases", Ciencias, Vol.
185, 27 de septiembre de 1974, págs. 1124-1131.
150
los que empezaron con una estimación demasiado baja. Incluso los puntos de partida
totalmente arbitrarios actuaron como anclas, provocando un arrastre o inercia que
inhibió el ajuste completo de las estimaciones.
Siempre que los analistas se mueven a una nueva área analítica y asumen
la responsabilidad de actualizar una serie de juicios o estimaciones hechas por
sus predecesores, los juicios anteriores pueden tener un efecto de anclaje.
Incluso cuando los analistas hacen su propio juicio inicial y luego intentan
revisar este juicio sobre la base de nueva información o análisis adicionales,
hay mucha evidencia que sugiere que por lo general no cambian el juicio lo
suficiente.
El anclaje proporciona una explicación parcial de los experimentos que
muestran que los analistas tienden a estar demasiado seguros de sí mismos al
establecer rangos de confianza. Un analista militar que estima la producción futura
de misiles o tanques a menudo no puede dar una cifra específica como estimación
puntual. Por lo tanto, el analista puede establecer un rango de mayor a menor y
estimar que hay, digamos, un 75 por ciento de probabilidad de que la cifra de
producción real caiga dentro de este rango. Si se realizan varias de estas
estimaciones que reflejan un grado apropiado de confianza, la cifra real debe estar
dentro del rango estimado el 75 por ciento de las veces y fuera de este rango el 25
por ciento de las veces. En situaciones experimentales, sin embargo, la mayoría de
los participantes confían demasiado. La cifra real cae fuera del rango estimado un
porcentaje mucho mayor del tiempo. 138
138. Los experimentos que utilizaron un rango de confianza del 98 por ciento encontraron que el valor real
estaba fuera del rango estimado entre el 40 y el 50 por ciento de las veces. Amos Tversky y Daniel
Kahneman, “Anchoring and Calibration in the Assessment of Uncertain Quantities” (Boletín de investigación
del Instituto de Investigación de Oregón, 1972, 12 de noviembre, No. 5), y M. Alpert y H. Raifa, “A Progress
Report on Te Training of Probability Assessors ”, manuscrito inédito, Universidad de Harvard,
1968.
151
Hay alguna evidencia de que la conciencia del problema del anclaje no es un
antídoto adecuado. 139 Este es un hallazgo común en los experimentos que tratan
con sesgos cognitivos. Los sesgos persisten incluso después de que los sujetos de
prueba son informados de ellos y se les indica que intenten evitarlos o
compensarlos.
Una técnica para evitar el sesgo de anclaje, para sopesar el ancla, por así
decirlo, puede ser ignorar los juicios anteriores propios o ajenos y repensar un
problema desde cero. En otras palabras, evite conscientemente cualquier juicio
previo como punto de partida. No hay evidencia experimental que demuestre que
esto es posible o que funcionará, pero parece que vale la pena intentarlo.
Alternativamente, a veces es posible evitar el error humano empleando
procedimientos estadísticos formales. El análisis estadístico bayesiano, por ejemplo,
se puede utilizar para revisar juicios previos sobre la base de nueva información de
manera que se evite el sesgo de anclaje. 140
Expresión de incertidumbre
152
puede referirse a cualquier cosa, desde un 1 por ciento hasta un 99 por ciento de probabilidad. Para
expresarse con claridad, los analistas deben aprender a comunicar de manera rutinaria la
141. Para otra interpretación de este fenómeno, consulte el Capítulo 13, "Sesgos retrospectivos en la
evaluación de informes de inteligencia".
142. Scott Barclay y otros, Manual para el análisis de decisiones. ( McLean, VA: Decisions and Designs, Inc.
1977), pág. 66.
153
Sherman Kent, el primer director de la Oficina de Estimaciones Nacionales de la CIA, fue
uno de los primeros en reconocer los problemas de comunicación causados por
declaraciones imprecisas de incertidumbre. Desafortunadamente, varias décadas después de
que Kent se sorprendiera por primera vez por la forma en que los formuladores de políticas
interpretaron el término “posibilidad seria” en una estimación nacional, esta falta de
comunicación entre analistas y formuladores de políticas, y entre analistas, sigue siendo un
hecho común. 143
143. Sherman Kent, "Words of Estimated Probability", en Donald P. Steury, ed., Sherman Kent y la Junta de
Estimaciones Nacionales: Ensayos recopilados ( CIA, Centro para el Estudio de la Inteligencia,
1994).
144. Scott Barclay y col., Pág. 76-68.
145. Los rangos de probabilidad atribuidos a Kent en esta tabla son ligeramente diferentes de los de
Sherman Kent, "Words of Estimated Probability", en Donald P. Steury, ed., Sherman Kent y la Junta de
Estimaciones Nacionales: Ensayos recopilados ( CIA, Centro para el Estudio de la Inteligencia,
1994).
154
155
La ambigüedad puede ser especialmente preocupante cuando se trata de peligros de baja
probabilidad y alto impacto contra los cuales los responsables de la formulación de políticas pueden
156
x .70 o un poco más del 34 por ciento. Agregar un cuarto evento probable (70
por ciento) al escenario reduciría su probabilidad al 24 por ciento.
La mayoría de la gente no tiene una buena comprensión intuitiva del
razonamiento probabilístico. Un enfoque para simplificar tales problemas es
asumir (o pensar que) uno o más eventos probables ya han ocurrido. Esto
elimina parte de la incertidumbre del juicio. Otra forma de simplificar el
problema es basar el juicio en un promedio aproximado de las probabilidades
de cada evento. En el ejemplo anterior, el procedimiento de promediado da
una probabilidad estimada del 70 por ciento para todo el escenario. Por lo
tanto, el escenario parece mucho más probable de lo que es en realidad.
Cuando se emplea la estrategia de promediado, los eventos altamente probables
en el escenario tienden a contrarrestar los eventos menos probables. Esto viola el
principio de que una cadena no puede ser más fuerte que su eslabón más débil.
Matemáticamente, el evento menos probable en un escenario establece el límite
superior de la probabilidad del escenario en su conjunto. Si se emplea la estrategia de
promediado, se pueden agregar detalles adicionales al escenario que son tan plausibles
que aumentan la probabilidad percibida del escenario, mientras que, matemáticamente,
eventos adicionales deben necesariamente reducir su probabilidad. 146
146. Paul Slovic, Baruch Fischhof y Sarah Lichtenstein, "Cognitive Processes and Societal Risk
Taking", en JS Carroll y JW Payne, eds., Cognición y comportamiento social ( Potomac, MD:
Lawrence Erlbaum Associates, 1976), págs. 177-78.
147. Esta es una versión modificada, desarrollada por Frank J. Stech, de la pregunta del taxi azul y
verde utilizada por Kahneman y Tversky, "On Prediction and Judgement", Oregon Research
Institute Research Bulletin, 12, 14, 1972.
157
con una muestra de peleas (la mitad con marcas vietnamitas y la otra mitad con
camboyano), el piloto hizo identifcaciones correctas el 80 por ciento de las veces y se
equivocó el 20 por ciento de las veces.
(b) Datos de tarifas base: el 85 por ciento de los aviones de pasajeros en esa área son
vietnamitas; El 15 por ciento son camboyanos.
Pregunta: ¿Cuál es la probabilidad de que la pelea fuera camboyana
en lugar de vietnamita?
Un procedimiento común para responder a esta pregunta es razonar de la
siguiente manera: Sabemos que el piloto identificó la aeronave como camboyana.
También sabemos que las identifcaciones del piloto son correctas el 80 por ciento de las
veces; por lo tanto, existe una probabilidad del 80 por ciento de que la lucha fuera
camboyana. Este razonamiento parece plausible pero incorrecto. Ignora la tasa base:
que el 85 por ciento de los combatientes en esa área son vietnamitas. La tasa base, o
probabilidad previa, es lo que puede decir sobre cualquier lucha hostil en esa área antes
de saber algo sobre el avistamiento específico.
En realidad, es más probable que el avión fuera vietnamita que camboyano a
pesar de la identificación "probablemente correcta" del piloto. Los lectores que no
estén familiarizados con el razonamiento probabilístico y no comprendan este
punto deben imaginar 100 casos en los que el piloto tenga un encuentro similar.
Según el párrafo (a), sabemos que el 80 por ciento o 68 de los 85 aviones
vietnamitas se identificarán correctamente como vietnamitas, mientras que el 20
por ciento o 17 se identificarán incorrectamente como camboyanos. Con base en el
párrafo (b), sabemos que 85 de estos encuentros serán con aviones vietnamitas, 15
con camboyanos.
De manera similar, el 80 por ciento o 12 de los 15 aviones camboyanos se
identificarán correctamente como camboyanos, mientras que el 20 por ciento o tres se
identificarán incorrectamente como vietnamitas. Esto hace un total de 71 avistamientos
vietnamitas y 29 camboyanos, de los cuales solo 12 de los 29 avistamientos camboyanos
son correctos; los otros 17 son avistamientos incorrectos de aviones vietnamitas. Por lo
tanto, cuando el piloto afirma que el ataque fue realizado por un combatiente
camboyano, la probabilidad de que la nave fuera realmente camboyana es solo 12/29 o
41 por ciento, a pesar de que las identifcaciones del piloto son correctas el 80 por ciento
de las veces.
Puede parecer un truco matemático, pero no lo es. La diferencia se debe a la
fuerte probabilidad previa de que el piloto observe un avión vietnamita. La dificultad
para comprender esto surge porque el juicio intuitivo no entrenado no incorpora
algunos de los principios estadísticos básicos del razonamiento probabilístico. La
mayoría de la gente no incorpora
158
Incluyen la probabilidad previa en su razonamiento porque no parece
relevante. No parece relevante porque no existe una relación causal entre la
información de antecedentes sobre los porcentajes de aviones de combate en
la zona y la observación del piloto. 148 El hecho de que el 85 por ciento de los
combatientes de la zona fueran vietnamitas y el 15 por ciento camboyanos no
causa el ataque sería realizado por un camboyano en lugar de un vietnamita.
Para apreciar el impacto diferente que tiene la información de fondo
causalmente relevante, considere esta formulación alternativa del mismo
problema. En el párrafo (b) del problema, sustituya lo siguiente:
(b) Aunque las fuerzas de combate de los dos países son aproximadamente iguales en número
en esta área, el 85 por ciento de todos los incidentes de acoso involucran a combatientes vietnamitas,
148. Maya Bar-Hillel, "Te Base-Rate Falacy in Probability Judgments", Acta Psychologica,
1980.
159
las tasas no son bien conocidas, pero deben inferirse o investigarse, es incluso
menos probable que se utilicen. 149
149. Se citan muchos ejemplos de la vida cotidiana en Robyn M. Dawes, Elección racional en un
mundo incierto ( Harcourt Brace Jovanovich College Publishers, 1988), Capítulo 5.
160
Capítulo 13
******************
150. Este capítulo se publicó por primera vez como artículo no clasificado en Estudios en Inteligencia, Vol. 22,
No. 2 (verano de 1978), bajo el título "Cognitive Biases: Problems in Hindsight Analysis". Posteriormente se
publicó en H. Bradford Westerfeld, editor, Dentro del mundo privado de la CIA: artículos desclasificados del
diario interno de la agencia, 1955-1992 ( New Haven: Yale University Press, 1995.)
161
Lo inesperado es que estos sesgos no sean solo producto del interés propio y
la falta de objetividad. Son ejemplos de un fenómeno más amplio que está
integrado en los procesos mentales humanos y que no puede superarse con la
simple advertencia de ser más objetivo.
Los psicólogos que llevaron a cabo los experimentos que se describen a
continuación intentaron enseñar a los sujetos de prueba a superar estos sesgos. A los
sujetos experimentales sin interés personal en los resultados se les informó sobre los
sesgos y se les animó a evitarlos o compensarlos, pero no pudieron hacerlo. Al igual que
las ilusiones ópticas, los sesgos cognitivos siguen siendo convincentes incluso después
de que nos damos cuenta de ellos.
El analista, el consumidor y el supervisor que evalúan el desempeño
analítico tienen una cosa en común. Están ejerciendo una visión retrospectiva.
Ellos toman su estado actual de conocimiento y lo comparan con lo que ellos u
otros hicieron o pudieron o deberían haber sabido antes de recibir el
conocimiento actual. Esto está en marcado contraste con la estimación de la
inteligencia, que es un ejercicio de previsión, y es la diferencia entre estos dos
modos de pensamiento, retrospectiva y prospectiva, lo que parece ser una
fuente de sesgo.
La cantidad de buena información disponible obviamente es mayor en
retrospectiva que en prospectiva. Hay varias explicaciones posibles de cómo
esto afecta los procesos mentales. Una es que la información adicional
disponible para retrospectiva cambia las percepciones de una situación de
manera tan natural e inmediata que la gente no se da cuenta del cambio.
Cuando se recibe nueva información, se asimila inmediata e
inconscientemente en nuestro conocimiento preexistente. Si esta nueva
información se suma de manera significativa a nuestro conocimiento, es decir,
si dice el resultado de una situación o la respuesta a una pregunta sobre la
cual no estábamos seguros anteriormente, nuestras imágenes mentales se
reestructuran para tener en cuenta la nueva información. Con el beneficio de
la retrospectiva, por ejemplo, los factores que antes se consideraban
relevantes pueden volverse irrelevantes,
Una vez que se ha reestructurado una vista para asimilar la nueva información, prácticamente
no hay forma de reconstruir con precisión el conjunto mental preexistente. Una vez que ha sonado la
162
Lo hemos pensado, inevitablemente está influenciado por nuestros patrones de
pensamiento actuales. Conocer el resultado de una situación hace que sea más
difícil imaginar otros resultados que podrían haberse considerado.
Desafortunadamente, el simple hecho de comprender que la mente funciona de
esta manera no ayuda a superar la limitación.
El mensaje general que se debe aprender de la comprensión de estos sesgos,
como se muestra en los experimentos que se describen a continuación, es que los
juicios de inteligencia de un analista no son tan buenos como los analistas creen
que son, o tan malos como otros parecen creer. Debido a que los sesgos
generalmente no se pueden superar, parecerían ser hechos de la vida que los
analistas deben tener en cuenta al evaluar su propio desempeño y al determinar
qué evaluaciones esperar de los demás. Esto sugiere la necesidad de un esfuerzo
más sistemático para:
• Mide qué tan bien los analistas están a la altura de las expectativas definidas.
163
La evidencia experimental sugiere una tendencia sistemática hacia la memoria
defectuosa de estimaciones pasadas. 151 Es decir, cuando ocurren los eventos, las
personas tienden a sobrestimar el grado en el que previamente habían esperado que
ocurrieran. Y a la inversa, cuando los eventos no ocurren, las personas tienden a
subestimar la probabilidad que previamente habían asignado a su ocurrencia. En
resumen, los eventos en general parecen menos sorprendentes de lo que deberían
sobre la base de estimaciones anteriores. Esta evidencia experimental concuerda con la
experiencia intuitiva de los analistas. Los analistas raras veces aparecen, o se permiten
aparecer, muy sorprendidos por el curso de los acontecimientos que están siguiendo.
En experimentos para probar el sesgo en la memoria de estimaciones
pasadas, se pidió a 119 sujetos que estimaran la probabilidad de que una serie de
eventos ocurrieran o no durante los viajes del presidente Nixon a Pekín y Moscú en
1972. Se identificaron quince posibles resultados para cada viaje, y cada sujeto
asignó una probabilidad a cada uno de estos resultados. Los resultados se
seleccionaron para cubrir la gama de posibles desarrollos y para obtener una
amplia gama de valores de probabilidad.
En distintos períodos de tiempo después de los viajes, se pidió a los
mismos sujetos que recordaran o reconstruyeran sus propias predicciones con
la mayor precisión posible. (No se hizo mención de la tarea de memoria en el
momento de la predicción original). Se pidió a diez sujetos que indicaran si
pensaban que cada evento había ocurrido o no durante estos viajes.
Cuando se permitió que transcurrieran de tres a seis meses entre las
estimaciones de los sujetos y su recuerdo de estas estimaciones, el 84 por ciento de
los sujetos exhibió el sesgo al tratar con eventos que creían que realmente
sucedieron. Es decir, las probabilidades que recordaban haber estimado eran más
altas que sus estimaciones reales de eventos que creían que realmente ocurrieron.
De manera similar, para los eventos que creían que no ocurrieron, las
probabilidades que recordaban haber estimado eran más bajas que sus
estimaciones reales, aunque aquí el sesgo no fue tan grande. Para ambos tipos de
eventos, el sesgo fue más pronunciado después de transcurridos de tres a seis
meses que cuando se pidió a los sujetos que recordaran las estimaciones que
habían dado solo dos semanas antes.
En resumen, el conocimiento de los resultados afectó de alguna manera la memoria de
la mayoría de los sujetos de prueba de sus estimaciones previas de estos resultados, y cuanto
más tiempo se permitió para que los recuerdos se desvanecieran, mayor será la
151. Esta sección se basa en una investigación informada por Baruch Fischof y Ruth Beyth en "I Knew It
would Happen: Remedered Probabilities of Once-Future Tings", Comportamiento organizacional y
desempeño humano, 13 (1975), págs. 1-16.
164
efecto del sesgo. Los acontecimientos durante los viajes del presidente se
percibieron como menos sorprendentes de lo que hubieran sido si las estimaciones
reales se compararan con los resultados reales. Para el 84 por ciento de los sujetos
que mostraron el sesgo anticipado, su evaluación retrospectiva de su desempeño
estimado fue claramente más favorable de lo que justificaban los hechos.
152. Los experimentos descritos en esta sección se informan en Baruch Fischhof, La informatividad
percibida de la información fáctica, Informe técnico DDI-I (Eugene, OR: Oregon Research Institute,
1976).
165
sería comparable con los otros dos grupos. Las respuestas correctas se
marcaron en el cuestionario y se pidió a los sujetos que respondieran a las
preguntas como habrían respondido si no se les hubiera dicho la respuesta.
Esto puso a prueba su capacidad para recordar con precisión cuánto sabían
antes de aprender la respuesta correcta. La situación es comparable a la de los
consumidores de inteligencia a los que se les pide que evalúen cuánto han
aprendido de un informe y que sólo pueden hacerlo tratando de recordar el
alcance de sus conocimientos antes de leer el informe.
Los resultados más significativos provienen de este tercer grupo de
sujetos. El grupo claramente sobrestimó lo que había sabido originalmente
y subestimó lo mucho que aprendió de haber recibido la respuesta. Para
19 de 25 ítems en una ejecución del experimento y 20 de 25 ítems en otra
ejecución, este grupo asignó probabilidades más altas a las alternativas
correctas de lo que es razonable esperar que hubieran asignado si no
hubieran conocido las respuestas correctas.
En resumen, el experimento confirmó los resultados del experimento
anterior que mostraba que las personas expuestas a una respuesta tienden a
recordar haber sabido más de lo que realmente sabían. También demuestra
que las personas tienen una tendencia aún mayor a exagerar la probabilidad
de que hubieran sabido la respuesta correcta si no se les hubiera informado.
En otras palabras, las personas tienden a subestimar tanto cuánto aprenden
de la nueva información como hasta qué punto la nueva información les
permite hacer juicios correctos con mayor confianza. En la medida en que los
consumidores de inteligencia manifiesten estos mismos sesgos, tenderán a
subestimar el valor que tienen para ellos los informes de inteligencia.
166
¿Deberían haber podido los analistas prever lo que iba a suceder? La
evaluación imparcial del desempeño de la inteligencia depende de la
capacidad de proporcionar una respuesta imparcial a esta pregunta. 153
153. Los experimentos descritos en esta sección se informan en Baruch Fischhof, "La retrospectiva no es
igual a la previsión: el efecto del conocimiento del resultado en el juicio bajo incertidumbre",
Journal of Experimental Psychology: Human Perception and Performance, 1, 3 (1975), págs. 288-
299.
167
basado únicamente en la información disponible antes de que se conociera el resultado. Los
resultados se muestran en la Figura 18.
El grupo al que no se le informó de ningún resultado juzgó la probabilidad del
Resultado 1 como 33,8 por ciento, mientras que el grupo dijo que el Resultado 1 era el
resultado real percibió la probabilidad de este resultado como 57,2 por ciento. La
probabilidad estimada estuvo claramente influenciada por el conocimiento del resultado.
De manera similar, el grupo de control sin conocimiento de los resultados estimó la
probabilidad del Resultado 2 en un 21,3 por ciento, mientras que los que informaron que
el Resultado 2 era el resultado real lo percibieron como si tuviera un efecto negativo.
38,4 por ciento de probabilidad.
influenciada por qué resultado, si lo había, se les había dicho que era cierto. Como ha escrito Roberta
Wohlstetter: “Después del hecho, es mucho más fácil separar las señales relevantes de las
irrelevantes. Después del evento, por supuesto, la señal siempre es clara como el cristal. Ahora
168
el desastre ha ocurrido, pero antes del evento es oscuro y está preñado de significados
en conflicto ”. 154 El hecho de que el conocimiento de los resultados reestructura
automáticamente los juicios de una persona sobre la relevancia de los datos disponibles
es probablemente una de las razones por las que es tan difícil reconstruir cómo eran o
hubieran sido nuestros procesos de pensamiento sin este conocimiento de los
resultados.
En varias variaciones de este experimento, se pidió a los sujetos que
respondieran como si no supieran el resultado, o como otros responderían si no
supieran el resultado. Los resultados fueron un poco diferentes, lo que indica que
los sujetos desconocían en gran medida cómo el conocimiento del resultado
afectaba sus propias percepciones. El experimento mostró que los sujetos eran
incapaces de empatizar con la forma en que otros juzgarían estas situaciones. Las
estimaciones de cómo otros interpretarían los datos sin conocer el resultado fueron
virtualmente las mismas que las propias interpretaciones retrospectivas de los
sujetos de prueba.
Estos resultados indican que los supervisores que realizan evaluaciones
post morteme de lo que los analistas deberían haber podido prever, dada la
información disponible, tenderán a percibir el resultado de esa situación como
más predecible de lo que, de hecho, era el caso. Debido a que son incapaces de
reconstruir un estado mental que ve la situación solo con previsión, no en
retrospectiva, los supervisores tenderán a ser más críticos con el desempeño
de la inteligencia de lo que se justifica.
Discusión de experimentos
154. Roberta Wohlstetter, Pearl Harbor: advertencia y decisión ( Stanford, CA: Stanford
University Press, 1962), pág. 387. Citado por Fischhof.
169
Mi propio esfuerzo imperfecto por replicar uno de estos
experimentos utilizando analistas de inteligencia también respalda la
validez de los hallazgos anteriores. Para probar la afirmación de que los
analistas de inteligencia normalmente sobreestiman la precisión de sus
juicios pasados, hay dos condiciones previas necesarias. En primer lugar,
los analistas deben hacer una serie de estimaciones en términos
cuantitativos, es decir, deben decir no solo que una determinada
ocurrencia es probable, sino que existe, por ejemplo, una probabilidad del
75 por ciento de que ocurra. En segundo lugar, debe ser posible realizar
una determinación inequívoca de si el evento estimado ocurrió o no.
Cuando se dan estas dos condiciones previas, se puede volver atrás y
comprobar los recuerdos de los analistas de sus estimaciones anteriores.
Debido a que las estimaciones de la CIA rara vez se expresan en términos
de probabilidades cuantitativas,
Sin embargo, identifiqué a varios analistas que, en dos temas muy diferentes, habían
hecho estimaciones cuantitativas de la probabilidad de eventos para los que se conocía
claramente el resultado posterior. Fui a estos analistas y les pedí que recordaran sus
estimaciones anteriores. Las condiciones para este mini-experimento estaban lejos de ser
ideales y los resultados no fueron claros, pero tendieron a apoyar las conclusiones extraídas
de los experimentos más extensos y sistemáticos descritos anteriormente.
Todo esto lleva a la conclusión de que los tres sesgos se encuentran tanto en
el personal de la Comunidad de Inteligencia como en los sujetos de prueba
específicos. De hecho, uno esperaría que los sesgos fueran aún mayores en los
profesionales de asuntos extranjeros cuyas carreras y autoestima dependen de la
presunta precisión de sus juicios.
El interés propio de los sujetos experimentales no estaba en juego, pero mostraban el mismo
tipo de sesgo con el que los analistas están familiarizados. Además, en estas situaciones
170
tante a los esfuerzos para superarlos. Se instruyó a los sujetos para que hicieran
estimaciones como si no supieran ya la respuesta, pero no pudieron hacerlo. Un
grupo de sujetos de prueba fue informado específicamente sobre el sesgo, citando
los resultados de experimentos anteriores. Este grupo recibió instrucciones de
intentar compensar el sesgo, pero no pudo hacerlo. A pesar de la máxima
información y las mejores intenciones, el sesgo persistió.
Esta intratabilidad sugiere que el sesgo tiene sus raíces en la naturaleza
de nuestros procesos mentales. Analistas que intentan recordar una
estimación previa después de conocer el resultado real de los eventos,
consumidores que piensan en cuánto ha agregado un informe a su
conocimiento y supervisores que juzgan si los analistas deberían haber podido
evitar una falla de inteligencia. todos tienen una cosa en común. Están
inmersos en un proceso mental que implica una visión retrospectiva. Están
tratando de borrar el impacto del conocimiento, para recordar, reconstruir o
imaginar las incertidumbres que tenían o habrían tenido sobre un tema antes
de recibir información más o menos definitiva.
Sin embargo, parece que la recepción de lo que se acepta como información
definitiva o autorizada provoca una reestructuración inmediata pero inconsciente
de las imágenes mentales de una persona para hacerlas coherentes con la nueva
información. Una vez que se han reestructurado las percepciones pasadas, parece
muy difícil, si no imposible, reconstruir con precisión cuáles eran o habrían sido los
procesos de pensamiento de uno antes de esta reestructuración.
Hay un procedimiento que puede ayudar a superar estos sesgos. Se trata
de plantear preguntas como las siguientes: Los analistas deberían
preguntarse: "Si hubiera ocurrido el resultado opuesto, ¿me habría
sorprendido?" Los consumidores deberían preguntar: "Si este informe me
hubiera dicho lo contrario, ¿lo habría creído?" Y los supervisores deberían
preguntar: "Si hubiera ocurrido el resultado opuesto, ¿habría sido predecible
dada la información disponible?" Estas preguntas pueden ayudar a recordar o
reconstruir la incertidumbre que existía antes de conocer el contenido de un
informe o el resultado de una situación.
Este método de superar el sesgo puede ser probado por los lectores de este
capítulo, especialmente aquellos que creen que no les dijo mucho que aún no
sabían. Si este capítulo hubiera informado que los experimentos psicológicos no
muestran un patrón consistente de analistas que sobrestiman la precisión de sus
estimaciones, o de consumidores que subestiman el valor de nuestro producto, ¿lo
habría creído? (Respuesta: Probablemente no.) Si hubiera informado que los
experimentos psicológicos muestran que estos sesgos son
171
causado sólo por el interés propio y la falta de objetividad, ¿habrías creído esto?
(Respuesta: Probablemente sí). ¿Y lo habría creído si este capítulo hubiera
informado que estos sesgos pueden superarse mediante un esfuerzo consciente en
la evaluación objetiva? (Respuesta: probablemente sí).
Estas preguntas pueden llevarlo a usted, el lector, a recordar el estado de sus
conocimientos o creencias antes de leer este capítulo. Si es así, las preguntas
resaltarán lo que aprendió aquí, es decir, que los sesgos significativos en la
evaluación de las estimaciones de inteligencia son atribuibles a la naturaleza de los
procesos mentales humanos, no solo al interés propio y la falta de objetividad, y
que son , por lo tanto, sumamente difícil de superar.
172
PARTE IV — CONCLUSIONES
Capítulo 14
Este capítulo ofrece una lista de verificación para analistas, un resumen de consejos sobre
cómo navegar por el campo minado de problemas identifcados en capítulos anteriores. También
identifica los pasos que los gerentes de análisis de inteligencia pueden tomar para ayudar a crear un
entorno en el que la excelencia analítica pueda fortalecerse.
******************
173
Definiendo el problema
Empiece asegurándose de que está haciendo, o se le están formulando, las
preguntas correctas. No dude en volver a ascender en la cadena de mando con una
sugerencia para hacer algo un poco diferente de lo que se pidió. Es posible que el
responsable de la formulación de políticas que originó el requisito no haya pensado
en sus necesidades, o el requisito puede estar algo confuso como pasa por varios
escalones de gestión. Es posible que tenga una mejor comprensión que el
responsable de la formulación de políticas de lo que él o ella necesita, o debería
tener, o lo que es posible hacer. Al principio, también asegúrese de que su
supervisor esté al tanto de cualquier intercambio entre la calidad del análisis y lo
que puede lograr dentro de un plazo específico.
Generando hipótesis
Identifique todas las hipótesis plausibles que deben considerarse. Haga una
lista de tantas ideas como sea posible consultando a colegas y expertos externos.
Haga esto en un modo de lluvia de ideas, suspendiendo el juicio durante el mayor
tiempo posible hasta que todas las ideas estén sobre la mesa.
Diez reduce la lista a un número viable de hipótesis para un análisis más
detallado. Con frecuencia, una de estas será una hipótesis de engaño: que otro
país o grupo está participando en la negación y el engaño para influir en las
percepciones o acciones de Estados Unidos.
En esta etapa, no descarte hipótesis razonables solo porque no hay
evidencia que las respalde. Esto se aplica en particular a la hipótesis del
engaño. Si otro país está ocultando su intención mediante la negación y el
engaño, probablemente no debería esperar ver evidencia de ello sin
completar un análisis muy cuidadoso de esta posibilidad. La hipótesis del
engaño y otras hipótesis plausibles para las que puede no haber evidencia
inmediata deben llevarse a la siguiente etapa de análisis hasta que puedan
ser consideradas cuidadosamente y, si es apropiado, rechazadas con una
buena causa.
Recabando información
Confiar solo en la información que se le entrega automáticamente probablemente no
resolverá todos sus problemas analíticos. Para hacer bien el trabajo, probablemente será necesario
buscar en otra parte y buscar más información. El contacto con los recolectores, otro personal de la
174
Recopile información para evaluar todas las hipótesis razonables, no solo
la que parece más probable. Explorar hipótesis alternativas que no se han
considerado seriamente antes a menudo lleva al analista a un territorio
inesperado y desconocido. Por ejemplo, evaluar la posibilidad de engaño
requiere evaluar los motivos, oportunidades y medios de negación y engaño
de otro país o grupo. Esto, a su vez, puede requerir la comprensión de las
fortalezas y debilidades de las capacidades de recolección técnica y humana de
los Estados Unidos.
Es importante suspender el juicio mientras se ensambla
información sobre cada una de las hipótesis. Es fácil formarse
impresiones sobre una hipótesis sobre la base de muy poca
información, pero es difícil cambiar una impresión una vez que se ha
arraigado. Si se da cuenta de que ya sabe la respuesta, pregúntese qué
le haría cambiar de opinión; luego busque esa información.
Trate de desarrollar hipótesis alternativas para determinar si alguna
alternativa, cuando se le da una oportunidad justa, podría no ser tan
convincente como su propia visión preconcebida. El desarrollo sistemático de
una hipótesis alternativa generalmente aumenta la probabilidad percibida de
esa hipótesis. “La voluntad de jugar con material desde diferentes ángulos y en
el contexto de hipótesis impopulares y populares es un ingrediente esencial de
un buen detective, ya sea que el fin sea la solución de un crimen o una
estimación de inteligencia”. 155
Evaluación de hipótesis
No se deje engañar por el hecho de que tanta evidencia respalde su idea
preconcebida de cuál es la hipótesis más probable. Esa misma evidencia puede
ser consistente con varias hipótesis diferentes. Centrarse en desarrollar
argumentos en contra cada hipótesis en lugar de intentar confirmarlas. En
otras palabras, preste especial atención a la evidencia o suposiciones que
sugieran que una o más hipótesis son menos probablemente que los demás.
155. Roberta Wohlstetter, Pearl Harbor: advertencia y decisión ( Stanford: Stanford University
Press, 1962), pág. 302.
175
y analiza la sensibilidad de sus conclusiones a esos supuestos. Pregúntese,
¿diferentes suposiciones llevarían a una interpretación diferente de la
evidencia y a diferentes conclusiones?
Considere utilizar el formato de matriz discutido en el Capítulo 8, “Análisis de
hipótesis en competencia”, para realizar un seguimiento de la evidencia y cómo se
relaciona con las diversas hipótesis.
Protéjase de los diversos sesgos cognitivos. Especialmente peligrosos son los
prejuicios que se producen cuando no se comprende suficientemente cómo
aparece una situación desde el punto de vista de otro país. No llene las lagunas en
su conocimiento asumiendo que es probable que la otra parte actúe de cierta
manera porque así es como actuaría el gobierno de los EE. UU., O actuarían otros
estadounidenses, en circunstancias similares.
Reconozca que la percepción de Estados Unidos del interés nacional y los
procesos de toma de decisiones de otro país a menudo difiere de cómo ese
país percibe sus propios intereses y cómo se toman realmente las decisiones
en ese país. En 1989-1990, por ejemplo, muchos analistas de asuntos de
Oriente Medio asumieron claramente que Irak desmovilizaría parte de sus
fuerzas armadas después de la prolongada guerra Irán-Irak para ayudar a
rehabilitar la economía iraquí. También creían que Bagdad vería que atacar a
un país árabe vecino no sería lo mejor para Irak. Ahora sabemos que estaban
equivocados.
Al hacer un juicio sobre lo que es probable que haga otro país,
invierta el tiempo y el esfuerzo necesarios para consultar con los expertos
que mejor comprendan lo que el gobierno de ese país está pensando
realmente y cómo es probable que se tome la decisión.
No asuma que cada acción de un gobierno extranjero se basa en una decisión
racional en la búsqueda de objetivos identificados. Reconozca que las acciones del
gobierno a veces se explican mejor como producto de la negociación entre
entidades burocráticas semiindependientes, siguiendo procedimientos operativos
estándar en circunstancias inapropiadas, consecuencias no deseadas,
incumplimiento de órdenes, confusión, accidente o coincidencia.
176
juicio, pero también justifique brevemente por qué otras alternativas fueron rechazadas o
consideradas menos probables. Para evitar la ambigüedad, inserte una razón de probabilidades o un
rango de probabilidad entre paréntesis después de las expresiones de incertidumbre en los juicios
clave.
Monitoreo continuo
En un mundo probabilístico que cambia rápidamente, las conclusiones analíticas
son siempre provisionales. La situación puede cambiar, o puede permanecer sin cambios
mientras recibe nueva información que altera su comprensión de la misma. Especifique
cosas para buscar que, si se observan, sugerirían un cambio significativo en las
probabilidades.
Preste especial atención a cualquier sentimiento de sorpresa cuando la nueva
información no se ajusta a su comprensión previa. Considere si esta sorprendente
información es consistente con una hipótesis alternativa. Una o dos sorpresas, por
pequeñas que sean, pueden ser la primera pista de que su comprensión de lo que
está sucediendo requiere algún ajuste, en el mejor de los casos es incompleta o
puede estar bastante equivocada.
Gestión de análisis
Los problemas cognitivos descritos en este libro tienen implicaciones tanto
para la gestión como para la realización del análisis de inteligencia. Esta sección
final analiza lo que los gerentes de análisis de inteligencia pueden hacer para
ayudar a crear un entorno organizacional en el que se fortalezca la excelencia
analítica. Estas medidas se dividen en cuatro categorías generales: investigación,
formación, exposición a modos de pensar alternativos y productos analíticos
orientadores.
Apoyo a la investigación
La gerencia debe apoyar la investigación para obtener una mejor comprensión de
los procesos cognitivos involucrados en la formulación de juicios de inteligencia. Existe la
necesidad de comprender mejor las habilidades de pensamiento involucradas en el
análisis de inteligencia, cómo evaluar a los solicitantes de empleo para estas habilidades
y cómo capacitar a los analistas para mejorar estas habilidades. Los analistas también
necesitan una comprensión más completa de cómo las limitaciones cognitivas afectan el
análisis de inteligencia y cómo minimizar su impacto. Necesitan herramientas y técnicas
sencillas que les ayuden a protegerse de errores evitables. Hay tanta investigación por
hacer que es difícil saber por dónde empezar.
177
Los académicos seleccionados para períodos de servicio en la Comunidad de
Inteligencia deben incluir psicólogos cognitivos u otros académicos de diversos
orígenes que estén interesados en estudiar los procesos de pensamiento de los
analistas de inteligencia. También debería haber becas postdoctorales para
académicos prometedores que podrían ser alentados a hacer una carrera de
investigación en este campo. Con el tiempo, esto contribuiría a construir una mejor
base de conocimiento sobre cómo los analistas hacen y / o deberían hacer juicios
analíticos y qué herramientas o técnicas pueden ayudarlos.
La gerencia también debe apoyar la investigación sobre las mentalidades y los modelos
mentales implícitos de los analistas de inteligencia. Debido a que estas mentalidades o
modelos sirven como una “pantalla” o “lente” a través de la cual los analistas perciben los
desarrollos extranjeros, la investigación para determinar la naturaleza de esta “lente” puede
contribuir tanto a juicios precisos como la investigación que se enfoca más directamente en las
propias áreas extranjeras. 156
Capacitación
La mayor parte de la formación de los analistas de inteligencia se centra en los
procedimientos organizativos, el estilo de redacción y las técnicas metodológicas. Se
supone que los analistas que escriben con claridad piensan con claridad. Sin embargo,
es muy posible seguir un proceso analítico defectuoso y escribir un argumento claro y
persuasivo en apoyo de un juicio erróneo.
Se debe dedicar más tiempo de capacitación a los procesos de pensamiento y
razonamiento involucrados en la formulación de juicios de inteligencia, y a las
herramientas del oficio que están disponibles para aliviar o compensar los
problemas cognitivos conocidos encontrados en el análisis. Este libro está
destinado a apoyar dicha formación.
La formación será más eficaz si se complementa con asesoramiento y
asistencia continuos. Un entrenador experimentado que pueda monitorear y guiar
el desempeño continuo es un complemento valioso para la instrucción en el aula.
156. El trabajo de Graham Allison sobre la crisis de los misiles en Cuba (Essence of Decision, Little, Brown &
Co., 1971) es un ejemplo de lo que tengo en mente. Allison identificó tres supuestos alternativos sobre
cómo funcionan los gobiernos: el modelo de actor racional, el modelo de proceso organizacional y el
modelo de política burocrática. Luego mostró cómo las suposiciones implícitas de un analista sobre el
modelo más apropiado para analizar el comportamiento de un gobierno extranjero le hacen enfocarse en
diferentes evidencias y llegar a diferentes conclusiones. Otro ejemplo es mi propio análisis de cinco caminos
alternativos para hacer juicios de contrainteligencia en el controvertido caso del desertor de la KGB Yuriy
Nosenko. Richards J. Heuer, Jr., "Nosenko: Five Paths to Judgment", Estudios en Inteligencia, Vol. 31, No. 3
(otoño de 1987), originalmente clasificado como secreto pero desclasificado y publicado en H. Bradford
Westerfeld, ed., Dentro del mundo privado de la CIA: artículos desclasificados de la revista interna de la
agencia 1955-1992 ( New Haven: Yale University Press, 1995).
178
en muchos campos, probablemente incluido el análisis de inteligencia. Se supone que este es
el trabajo del jefe de sucursal o del analista senior, pero estos funcionarios a menudo están
demasiado ocupados respondiendo a otras demandas urgentes de su tiempo.
Valdría la pena considerar cómo se podría formar un equipo de coaching analítico
para entrar a nuevos analistas o consultar con analistas que trabajen en temas
particularmente difíciles. Un modelo posible es la organización SCORE que existe en
muchas comunidades. SCORE son las siglas de Senior Corps of Retired Executives. Es una
organización nacional de ejecutivos jubilados que ofrecen voluntariamente su tiempo
para asesorar a jóvenes emprendedores que inician sus propios negocios. Debería ser
posible formar un pequeño grupo de analistas jubilados que posean las habilidades y los
valores que deberían impartirse a los nuevos analistas y que estarían dispuestos a
ofrecerse como voluntarios (o ser contratados) para venir varios días a la semana para
asesorar a los analistas jóvenes.
Se podría requerir que los nuevos analistas lean un conjunto específico de
libros o artículos relacionados con el análisis, y que asistan a una reunión de medio
día una vez al mes para discutir la lectura y otras experiencias relacionadas con su
desarrollo como analistas. Se podría realizar un programa voluntario comparable
para analistas experimentados. Esto ayudaría a que los analistas sean más
conscientes de los procedimientos que utilizan para realizar análisis. Además de su
valor educativo, las lecturas y discusiones requeridas darían a los analistas una
experiencia común y un vocabulario para comunicarse entre sí y con la gerencia
sobre los problemas de hacer análisis.
Mis sugerencias de escritos que calificarían para un programa de lectura
obligatorio incluyen: Robert Jervis Percepción y percepción errónea en la
política internacional ( Princeton University Press, 1977); GrahamAllison's
Esencia de la decisión: explicando la crisis de los misiles cubanos ( Pequeño, marrón,
1971); Ernest May's " Lecciones ”del pasado: el uso y el mal uso de la historia en
la política exterior estadounidense ( Oxford University Press, 1973); Ephraim
Kam's, Ataque sorpresa ( Harvard University Press, 1988); "Análisis, guerra y
decisión: por qué las fallas de inteligencia son inevitables" de Richard Betts,
Politica mundial, Vol. 31, No. 1 (octubre de 1978); De Tomas Kuhn La estructura
de las revoluciones científicas ( University of Chicago Press, 1970); y de Robin
Hogarth Juicio y elección ( John Wiley, 1980). Aunque todos estos fueron escritos
hace muchos años, son clásicos de valor permanente. Sin duda, los analistas
actuales tendrán otros trabajos que recomendar. Los análisis post mortem de
la CIA y de la comunidad de inteligencia sobre fallas de inteligencia también
deberían ser parte del programa de lectura.
179
Para facilitar la memoria institucional y el aprendizaje, se deben realizar
análisis exhaustivos a posteriori de todas las fallas de inteligencia signifcativas.
También deben estudiarse los éxitos analíticos (a diferencia de la recopilación).
Estos análisis deben recopilarse y mantenerse en una ubicación central, disponible
para su revisión a fin de identificar las características comunes del fracaso y el éxito
analíticos. Un metaanálisis de las causas y consecuencias del éxito y el fracaso
analítico debería distribuirse ampliamente y utilizarse en los programas de
formación para aumentar la conciencia de los problemas analíticos.
Para fomentar el aprendizaje de la experiencia, incluso en ausencia de una
falla de alto perfil, la administración debe requerir una evaluación retrospectiva
más frecuente y sistemática del desempeño analítico. No se debe generalizar a
partir de un solo caso de un juicio correcto o incorrecto, pero una serie de juicios
relacionados que están, o no, confirmados por eventos posteriores pueden revelar
la exactitud o inexactitud del modelo mental del analista. Obtener una
retroalimentación sistemática sobre la exactitud de los juicios pasados es
frecuentemente difícil o imposible, especialmente en el campo de la inteligencia
política. Los juicios políticos normalmente se expresan en términos imprecisos y
generalmente están condicionados a otros desarrollos. Incluso en retrospectiva, no
existen criterios objetivos para evaluar la precisión de la mayoría de los juicios de
inteligencia política tal como están escritos actualmente.
En los campos económico y militar, sin embargo, donde las estimaciones se
refieren con frecuencia a cantidades numéricas, es factible una retroalimentación
sistemática sobre el desempeño analítico. La evaluación retrospectiva debería ser
un procedimiento estándar en aquellos campos en los que las estimaciones se
actualizan de forma rutinaria a intervalos periódicos. Sin embargo, el objetivo de
aprender de la evaluación retrospectiva solo se logra si se logra como parte de una
búsqueda objetiva de una mejor comprensión, no para identificar chivos
expiatorios o evaluar la culpa. Este requisito sugiere que la evaluación retrospectiva
debe realizarse de forma rutinaria dentro de la unidad organizativa que preparó el
informe, incluso a costa de cierta pérdida de objetividad.
gerencia debe realizar esfuerzos conscientes para garantizar que las opiniones contrapuestas bien
necesitan disfrutar de una sensación de seguridad, de modo que las nuevas ideas parcialmente
180
otros como cajas de resonancia con mínimo temor a las críticas por desviarse
de la ortodoxia establecida.
Gran parte de este libro se ha ocupado de las formas de ayudar a los analistas a permanecer
más abiertos a puntos de vista alternativos. La gerencia puede ayudar promoviendo los tipos de
actividades que confrontan a los analistas con perspectivas alternativas: consulta con expertos
externos, debates analíticos, análisis competitivo, defensores del diablo, juegos y lluvia de ideas
interdisciplinaria.
157. Transcripción de la conferencia de prensa del almirante David Jeremiah en la CIA, 2 de junio de 1998.
181
Señala que los pensadores críticos cuya experiencia se encuentra en otras
áreas hacen una contribución significativa. A menudo ven cosas o hacen
preguntas que el autor no ha visto o hecho. Debido a que no están tan
absortos en la sustancia, son más capaces de identificar los supuestos y
evaluar la argumentación, la consistencia interna, la lógica y la relación de la
evidencia con la conclusión. Los revisores también se benefician de la
experiencia aprendiendo estándares para un buen análisis que son
independientes del tema del análisis.
182
juicio del consumidor. Esta ambigüedad puede ser especialmente preocupante cuando se trata de
peligros de baja probabilidad y alto impacto contra los cuales los responsables de la formulación de
Los gerentes de análisis de inteligencia deben transmitir a los analistas que está
bien tener incertidumbre, siempre que informen claramente a los lectores sobre el
grado de incertidumbre, las fuentes de incertidumbre y los hitos a tener en cuenta que
podrían aclarar la situación. Insertar razones de probabilidades o rangos de probabilidad
numérica entre paréntesis para aclarar los puntos clave de un análisis debería ser una
práctica estándar.
La probabilidad de sorpresas futuras puede reducirse si la administración
asigna más recursos para monitorear y analizar eventos aparentemente de baja
probabilidad que tendrán un impacto significativo en la política de los Estados
Unidos si ocurren. Los analistas a menudo se muestran reacios, por iniciativa
propia, a dedicar tiempo a estudiar cosas que no creen que sucedan. Por lo general,
esto no promueve la carrera de un analista, aunque puede arruinar una carrera
cuando sucede lo inesperado. Dadas las presiones diarias de los eventos actuales,
es necesario que los gerentes y analistas identifiquen claramente qué eventos poco
probables pero de alto impacto deben analizarse y asignen los recursos para
cubrirlos.
Una pauta para identificar eventos poco probables que ameriten la asignación específica
de recursos es hacer la siguiente pregunta: ¿Son las posibilidades de que esto suceda, por
pequeñas que sean, suficientes para que, si los responsables de la formulación de políticas
entendieran completamente los riesgos, podrían querer hacer planes de contingencia o tomar
alguna forma? de acción preventiva o preventiva? Si la respuesta es afirmativa, se deben
asignar recursos para analizar incluso lo que parece ser un resultado poco probable.
183
Te Bottom Line
¡El análisis se puede mejorar! Ninguna de las medidas discutidas en este libro
garantizará que se saquen conclusiones precisas de la información incompleta y
ambigua con la que suelen trabajar los analistas de inteligencia. Se deben esperar
fallas de inteligencia ocasionales. Sin embargo, colectivamente, las medidas
discutidas aquí ciertamente pueden mejorar las probabilidades a favor de los
analistas.
184