Está en la página 1de 175

 

 
 
 
 
JUAN PABLO SOMIEDO
 
 
 
 
 
 
 
 

 
TÉCNICAS DE ANÁLISIS
EN
INTELIGENCIA ESTRATÉGICA
 
 
MANUAL PARA ANALISTAS DE INTELIGENCIA
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Primera edición: Octubre de 2019
ISBN KDP: 9781695570405
Copiright © 2019 Juan Pablo Somiedo
Impreso en la UE – Printed in the UE
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
A mis padres, Luis e Inés, que me regalaron el don de la vida

A mi esposa, Raquel, por su amor y su apoyo incondicional

A mi hija, Ana Daniela, lo más grande y bonito que me ha pasado en la vida

Al CESEDEN, lugar de cultura y pensamiento militar

A Jose Antonio Bernal,  Alberto Martínez, Luis Ignacio Zanón, Alfonso Vega, Carlos Baró, Jose Ramón
Merino, José Lucas Egea y José Carlos Rodríguez,  agentes del CNI asesinados en  Irak .

 
 

 
 

 
 

 
 

INDICE
PREFACIO…………………………………………………………...…………………….1

INTRODUCCIÓN……………………………………………………………………….….5

BLOQUE I: FUNDAMENTOS DEL ANÁLISIS DE INTELIGENCIA…………….…11

1. ¿QUÉ ES EL ANÁLISIS DE INTELIGENCIA?........................................11


2. TIPOS DE INTELIGENCIA SEGÚN SU FUNCIÓN……………….………20
3. LA OBTENCIÓN Y EVALUACIÓN DE LA INFORMACIÓN: DOS DARDOS PARA TRES
DIANAS…………………………………………….22
4. LAS ETAPAS DEL ANÁLISIS……………………………………………….37
 
BLOQUE II: CUESTIONES EPISTEMOLÓGICAS VINCULADAS AL ANÁLISIS DE
INTELIGENCIA…………………………………………………........………....…..39
 
5. COMPLEJIDAD EN DETALLE Y COMPLEJIDAD DINÁMICA: ¿FOTO FIJA O
PELÍCULA?.................................................................................42
6. LA CARGA TEÓRICA DE LA OBSERVACIÓN EN INTELIGENCIA…..48
7. LAS DOS VÍAS DE CONOCIMIENTO CLÁSICAS………………………..51
8. CORRELACIÓN Y CAUSALIDAD: POST HOC ERGO PROPTER
HOC……………………………………………………………………………..52
9. LOS RIESGOS DE LA METRIZACIÓN DE INFORMACIÓN CUALITATIVA………………………………………………...
……………….53
 
BLOQUE III: MÉTODOS DE RAZONAMIENTO BÁSICOS PARA EL ANALISTA DE
INTELIGENCIA…………………………………………………………..…………..55
 
10. RAZONAMIENTO LÓGICO………………………………………….………55
11. RAZONAMIENTO SISTÉMICO………………………………………….…..62
12. RAZONAMIENTO POR ANALOGÍA……………………………………..…65
13. PENSAMIENTO LATERAL Y CREATIVO…………………………………68
 
BLOQUE IV: TÉCNICAS DE ANÁLISIS………………………………………..…….72
 
14. ANÁLISIS BAYESIANO……………………………...………………………72
14.1. ¿Qué es el análisis bayesiano?..............................................72
14.2. La CIA y el análisis bayesiano: cronología y documentación de interés para el      analista de
inteligencia…………………….….79
14.3. El ACH y el análisis bayesiano……………………….…………83
14.4. Implementación de la técnica: método básico y método
simplificado……………………………………………….……………..87
 
15. ANÁLISIS DE PATRONES EN INTELIGENCIA……………………..……93
15.1. Tipos de patrones…………………………………..……………..93
15.2. Geocodificación y visualización de Hot Spots utilizando R-
Studio……………………………………………….…………………….95
15.3. Cálculo del centro de gravedad………………………...……..100
15.4. Predicción de pautas espaciales (PAI)………………….……103
15.5. Patrones temporales………………………………...…………..105
 
16. CASOS HISTÓRICOS DE ANÁLISIS……………………………………..107
16.1. Lanzamiento de cohetes V-2 sobre Londres………….…….107
16.2. Estimación de la producción de tanques Panzer V nazis...110
 
17. LINK ANALYSIS: Análisis organigrama grupo terrorista utilizando i2 Analyst´s
Notebook……………………………………………….………..114
 
18. ANÁLISIS GEOPOLÍTICO-MILITAR…………………………….………..119
18.1. Estudio de factores………………………………………………119
18.2. Matriz PMESII-PT y Matriz ASCOPE……………………….….138
18.3. Estructuras de causalidad útiles para el análisis
geopolítico……………………………………………………..……….141
 
19. RELACIÓN ENTRE VARIABLES………………………………………….153
19.1. Introducción………………………………………...…………….153
19.2. Regresión Lineal Simple…………………………………….….155
19.3. Regresión Múltiple……………………………………………….168
19.4. Tablas de contingencia en contraterrorismo o como estimar     probabilidades en base a hechos
pasados………………..……..173
 
20. TÉCNICA DE MODELIZACIÓN: El Análisis de Riesgos Adversarios (ARA) aplicado a la lucha
contraterrorista…………………..…………176
20.1. Marco teórico del Análisis de Riesgos Adversarios…...….176
20.2. Modelo secuencial Defensa-Ataque-Defensa……………….180
20.3. Estudio de Caso: Secuestro terrorista de un convoy de ayuda
humanitaria……………………………………………...……..191
20.4. Implementación en R-Studio…………………………………..210
 
BLOQUE V: EL ANALISTA DE INTELIGENCIA Y SU PROFESIÓN………..….214
 
21. LAS TRES ACOTACIONES CLÁSICAS AL TRABAJO DEL
ANALISTA………………………………………………………………...….214
22. ELABORACIÓN DE INFORMES…………………………………………..216
23. EL MEMO ANALÍTICO………………………………………………..…….221
24. LA PSICOLOGÍA DEL ANALISTA……………………………………..…224
25. EL DECÁLOGO DEL ANALISTA DE INTELIGENCIA………………….234
 
ANEXO: CUADERNO DE EJERCICIOS…………………………………………….237
 
BIBLIOGRAFÍA………………………………………………………………..……….247
 
SOBRE EL AUTOR…………………………………………………………………….252
 
 
PREFACIO
El libro que el lector tiene entre sus manos es el fruto de varios años de investigación, trabajo,
estudios y esfuerzo a partes iguales para, finalmente, alumbrar este hijo de papel y tinta que
pretende ser una llama de esperanza e ilusión renovadas para el campo de estudio de la
inteligencia en España y para todos los profesionales que día a día le dedican todas sus energías.
Esperanza de borrar, de una vez por todas, los mitos, sombras y estigmatizaciones varias que pesan
sobre este campo de estudio e ilusión por contribuir, con este pequeño granito de arena, a la
sistematización del análisis de inteligencia y a la consolidación de la Comunidad de Inteligencia
española, formada por el Centro Nacional de Inteligencia (CNI), el Centro de Inteligencia de las
Fuerzas Armadas (CIFAS), el Centro de Inteligencia contra Terrorismo y Crimen Organizado (CITCO) y
la Comisión Delegada del Gobierno para Asuntos de Inteligencia (CDGAI), pero también por
grandes profesionales de diversas áreas que, colaborando, a veces codo con codo, con estos
organismos oficiales, contribuyen a la seguridad, la defensa y la salvaguarda de los intereses de
nuestro país bajo cualquier circunstancia y en cualquier lugar, en un mundo cargado de amenazas
y riesgos, unos muy visibles y otros que no lo son tanto.

Este libro está escrito por un analista y está dirigido a analistas o a aquellas personas que esperan
llegar a serlo en un futuro cercano. En él están condensados años de experiencia docente tanto en
el Curso de Experto de Análisis en Inteligencia de la Universidad Autónoma de Madrid, que se
imparte dentro del área de Estudios Estratégicos e Inteligencia de la misma universidad, como en el
Curso de especialización en Técnicas de Análisis del Lisa Institute y muchos de los contenidos de las
conferencias impartidas durante este tiempo. Con un lenguaje claro y sencillo, se desarrollan paso a
paso un amplio abanico de técnicas y métodos de análisis salpicándolas con algunos consejos
prácticos para el desempeño de la labor del analista.

El objetivo fundamental de este manual es hacer las veces de guía del lector por los diferentes
senderos del análisis de inteligencia y, quizás, servir de punto de apoyo a sus propias investigaciones
en este terreno. No encontrarás, pues, amigo lector, en estas páginas, tramas de espías, ni oscuros
secretos codificados ni una historia novelada de los servicios de inteligencia sino un manual que te
sumergirá de lleno en el rigor y la técnica analítica que son compañeros obligados del trabajo bien
hecho, pero sin olvidar los conceptos epistemológicos y filosóficos subyacentes a todas esas
técnicas.

Los capítulos del libro tienen diferentes orígenes, algunos han sido redactados expresamente para el
libro, otros han servido como material para la elaboración de mi trabajo final de estudios en el
Centro Superior de Estudios de la Defensa Nacional (CESEDEN), una idea germinal de otros ha sido
publicada previamente por el autor en el Instituto Español de Estudios Estratégicos (IEEE) o en revistas
especializadas para analistas y otros han servido como material para mis conferencias. Pero todos
los capítulos han sido aquilatados, amoldados y mejorados posteriormente con actualizaciones
para incluirlos en el libro.

El libro tiene un enfoque eminentemente práctico. Leyéndolo se pueden aprender los fundamentos
teóricos del análisis de inteligencia, pero también cómo realizar correctamente un amplio abanico
de técnicas analíticas tanto tradicionales como más recientes en el tiempo. Se combina, así, lo
tradicional y lo moderno tratando de lograr una síntesis adecuada para el estudiante. Todas las
técnicas están explicadas paso a paso y con indicaciones concretas sobre el manejo del software y
la interpretación de los resultados. También se pueden encontrar en este manual algunos consejos
prácticos para los analistas como por ejemplo cuáles son las acotaciones que se van a encontrar
en su trabajo o qué aspectos y posibles patologías psicológicas deben tener en cuenta.

Respecto al software utilizado, he creído conveniente combinar software especializado como el i2


Analyst´s Notebook de IBM con software genérico. De igual manera he combinado el uso de
software comercial y software libre dando prioridad al segundo. Los software comerciales utilizados
han sido el Statgraphics y el SPSS, mientras que en la categoría de software libre he utilizado R. Este
hecho proporcionará al lector un abanico más amplio de conocimiento sobre el funcionamiento y
las posibilidades de los diferentes software estadísticos disponibles.

En uno de los anexos del libro figura un cuaderno de ejercicios concebido para que los analistas
puedan practicar y poner a prueba sus conocimientos sobre los diferentes temas del análisis de
inteligencia. El cuaderno está pensado para que los formadores puedan utilizarlo libremente con sus
alumnos escogiendo aquellos ejercicios que consideren más oportunos según el nivel. Todos los
ejercicios están estructurados de la misma forma: comienzan con una pequeña introducción en la
que se explica el propósito y el objetivo del ejercicio, a continuación, aparece el enunciado del
ejercicio y finalmente su solución detallada y comentada.

El lector encontrará a lo largo del texto varios recuadros que contienen información adicional
interesante y que, sin ser parte del cuerpo del texto principal, sin duda le aportarán algunos tips
interesantes a tener en cuenta.

Son muchos los autores responsables de los conceptos y resultados expuestos en este libro; a lo largo
del texto se hace referencia explícita a sus trabajos. Entre el material expuesto, el lector familiarizado
con la literatura especializada reconocerá varias contribuciones originales. Mi especial
agradecimiento a los profesores David Ríos Insua del ICMAT y Juan Carlos Sevillano Moro de la
Universidad Complutense.

Casi de forma obligada encaro este estudio desde la “diáspora disciplinaria” acuñada por Gregory
Bateson y también como él busco poner en evidencia que la acción de pensar sobre nuestro
pensamiento apoyado en la información no es ni mucho menos un asunto simple o trivial. El lector
juzgará finalmente si las expectativas han sido o no cumplidas.

Madrid, 31 de Julio 2019, Festividad de San Ignacio de Loyola.


 
Juan Pablo Somiedo
 
 
 
 
INTRODUCCIÓN
“La adquisición de una profunda preparación técnica constituirá
una aspiración permanente de los miembros del Centro Nacional de
Inteligencia, a fin de lograr un desempeño excelente de los servicios
que les sean asignados. Para ello, procurarán desarrollar, mantener
y mejorar de manera continuada su competencia profesional
mediante la formación y el estudio.”

Artículo 11 del Código Ético del CNI

 
Fue Santa Teresa de Jesús quien escribió en uno de sus poemas que “la paciencia todo lo alcanza”.
Si esto es cierto en casi todos los ámbitos de la vida, lo es mucho más en la figura del analista de
inteligencia. Paciencia y perseverancia van a menudo de la mano si hablamos de un analista
porque su curva de aprendizaje es muy grande. Las dos son cualidades imprescindibles. Si me
obligaran a elegir otras dos, elegiría la capacidad de introspección para conseguir hacer realidad
el célebre aforismo griego del “Gnosce te ipsum” (conócete a ti mismo) y porque, como escribía
Miguel Delibes, "un hombre habituado a la vida interna debe enraizar esta vida en los hechos
externos que le afectan y que se repiten" y, junto a esta, la resiliencia o capacidad para
sobreponerse a las dificultades y los fracasos.
 
Por otro lado, se ha escrito abundantemente sobre las capacidades y conocimientos que debe
tener un buen analista de inteligencia. Personalmente siempre he sostenido que,
independientemente de su especialización o campo de trabajo cualquier analista de inteligencia
debería dominar un verbo de cada una de las tres conjugaciones:
 
Primera conjugación (Verbos terminados en -ar): Pensar
Puede parecer, a priori, algo obvio, pero no lo es tanto si tenemos en cuenta las lagunas de nuestro
sistema educativo. La especialización en el campo del análisis es muy amplia. Podemos encontrar
analistas políticos, analistas militares, analistas económicos, analistas estadísticos, analistas
metodológicos, analistas de imágenes y un largo etc. Pero todos ellos, aparte de los conocimientos
en su área o campo de especialización, comparten o debieran compartir una misma base, esto es,
están habituados a razonar y conocen los métodos de razonamiento básicos o debieran
conocerlos. Pero, ¿quién enseña hoy métodos de razonamiento? La respuesta es: unos pocos
especialistas y en unos pocos lugares. En la mayoría de sistemas educativos campos como la lógica
informal, la epistemología y la probabilidad han desaparecido casi por completo de los programas
de estudio reduciendo su presencia a algún tema de alguna asignatura. Craso error. De esta forma,
podemos encontrarnos con gente que en su vida ha oído hablar de qué es la abducción (o en el
peor de los casos cree que es algo que tiene que ver con los ovnis) o que no entiende por qué
razón el pensamiento lógico no sirve para todo.
Segunda conjugación (Verbos terminados en -er): Leer
Se entiende aquí por supuesto saber leer, pero también interpretar y analizar lo que se lee y saber
leer entre líneas. Entender y analizar correctamente tanto información cualitativa como cuantitativa
no es tan sencillo y suele requerir largos años de formación. Una de las cosas que diferencia a un
buen analista de uno que es excelente es que éste último realiza mejores análisis con la misma
información disponible. Un ejercicio muy habitual en la formación de analistas es suministrarles
información para que realicen un determinado análisis. Dentro de toda esta información hay
informaciones que son ciertas y pertinentes, otras que son falsas y que pueden conducir a error y
otras que, aun siendo ciertas, no son pertinentes. El analista debe saber diferenciarlas y aprender a
descartar la "paja".
Tercera conjugación (Verbos terminados en -ir): Escribir
Decían los antiguos profesores que para saber escribir bien había que "estar muy leído". Hoy en día,
a poco que escarbemos, podemos encontrarnos con universitarios con grandes faltas de ortografía.
La causa es, sin lugar a dudas, la falta de hábito de lectura. La lectura es la madre de la escritura.
Saber escribir implica saber resumir y sintetizar en pocas líneas lo que se quiere expresar, pero
también saber utilizar giros retóricos cuando es necesario suavizar el contenido de lo que se dice
mediante la forma. Implica también lograr expresar con claridad sólo lo que quieres que los demás
entiendan y ni una coma más para no aportar información que pudiera comprometer a tus fuentes
(cuando hablamos de inteligencia, claro).
 
Dominar cada uno de estos verbos no se consigue fácilmente y normalmente requiere años de
formación, pero, sin lugar a dudas, es el factor diferenciador. El camino puede ser duro, pero, a la
larga, seguro que es gratificante. Sea como fuere, al final del camino, como escribe Constantino
Cavafis en su célebre poema: “Tan sabio que te has hecho, con tanta experiencia, que habrás ya
comprendido lo que las Ítacas son”.
 
La visión tradicional que tenemos de un analista es la de un “experto” en una determinada área. Así
hablamos de analistas políticos, económicos, militares y un largo etc. La importancia de un analista,
hasta la irrupción de Internet y las modernas TICs, residía en su conocimiento experto en una
determinada área que, al menos en teoría, le proporcionaba una posición ventajosa para analizar
la información de esa área y “tener ojo” para distinguir lo esencial de lo anecdótico o, por utilizar
una expresión más vulgar, distinguir el trigo de la paja. La curva de formación de cualquier analista
era bastante grande, pues se basaba en la lectura de toda aquella bibliografía o información
interesante para su especialización, una información y un conocimiento que hace apenas
cincuenta años no estaba tan fácilmente accesible como en estos momentos. Actualmente esa
curva de formación sigue siendo muy prolongada pero no tiene que ver con los conocimientos sino
con las capacidades. Lo importante para el analista ya no es el conocimiento en una determinada
área, conocimiento que hoy es muy accesible, sino las herramientas epistémicas necesarias para
lograrlo. Paradójicamente, como afirma Hiroshima Tanaka, la sociedad del conocimiento es aquella
sociedad en la que el conocimiento deja de tener valor en sí mismo. Esto hace que la importancia
bascule cada vez más hacia el terreno de las capacidades. Esto es, la capacidad para analizar
cualquier tipo de información ya sea ésta cualitativa o cuantitativa y la capacidad para establecer
inferencias correctas para llegar a conclusiones útiles. Podemos afirmar, sin temor a equivocarnos,
que lo determinante hoy para el analista de inteligencia no es ser un especialista en un
determinado campo sino las posibilidades y los conocimientos necesarios para convertirse en uno
en el menor tiempo posible y, junto a esto, la versatilidad de poder trabajar indistintamente en varias
áreas. Una versatilidad que, lejos de ser negativa, ejerce influencia positiva en todos los campos
pues aumenta la capacidad de relación del analista, aunque sólo sea por razonamiento mediante
analogías.

Otro de los cambios tiene que ver con la forma de trabajar del analista. Hasta hace no demasiado
tiempo, los analistas trabajaban de forma individual aunque luego compartieran sus resultados e
intercambiaran opiniones de forma conjunta. El profesor Benjamin F. Jones, de la Kellog School of
Management de la Northwestern University, en su artículo The burden of knowledge and the “death
of the Renaissance man”: Is innovation getting harder? sostiene que el crecimiento en la cantidad
de conocimiento existente en una disciplina junto con el crecimiento exponencial de la información
disponible y la necesidad de procesarla, reduce la capacidad de un sólo individuo para manejarlo
y comprenderlo hasta hacer inviable esta opción. Este proceso incentiva a los investigadores,
analistas y organizaciones a organizar el trabajo en grupos colaborativos. Prueba de esto es el
aumento de la duración de las tesis doctorales que acompaña al desarrollo de una disciplina y
cómo el tamaño de los grupos de investigación crece con el grado de madurez de sus disciplinas.
Ante la enorme cantidad de información sobre los temas más variados que es necesario procesar y
analizar, los distintos canales por los que se puede obtener (buscadores tradicionales de Internet,
Deep web, bibliografía tradicional, revistas científicas y redes sociales, entre otros) y los distintos tipos
de información (cualitativa o cuantitativa, imágenes, etc.) se crean equipos de analistas lo más
versátiles posibles, con conocimientos diferentes.

El trabajo en equipo y en red favorece la lluvia de ideas, la eliminación de sesgos en el análisis y


reparte la responsabilidad ante los posibles errores. Además, hay que tener en cuenta que el factor
tiempo es otro de los elementos que se ve notablemente mejorado no sólo por la capacidad del
equipo para repartirse las tareas, sino por el feedback que dimana de una comunicación fluida y
que facilita enormemente la superación de escollos aunque sólo sea por el dicho popular de que
un par de ojos ven más que uno solo.  También posibilita la implementación de herramientas y
mecanismos incrementales en los que el conocimiento aportado por unos favorece que otros, a su
vez, mejoren el suyo y aporten nuevos conocimientos.

En este contexto, siguiendo los consejos de Surowiecki, la idea del “analista experto” individualizado
y sólo, al igual que la del genio solitario en los proyectos de investigación, son claramente
anacrónicas y desfasadas. Hoy, ante una “complejidad siempre creciente” como le gustaba definir
la vida al jesuita y paleontólogo Teilhard de Chardin, se trabaja en equipo, en colaboración y en
coopetición  y esto posibilita el alcanzar los objetivos deseados. Los “genios” deben aprender a
colaborar y trabajar juntos, algo que no siempre es sencillo de lograr.

BLOQUE I: FUNDAMENTOS DEL ANÁLISIS DE INTELIGENCIA


 

“We don´t know what we don´t know”

Donald Rumsfeld

 
1. ¿QUÉ ES EL ANÁLISIS DE INTELIGENCIA?
Hay un cuento que relata cómo algunas tribus indias se disponían a emprender el “sendero de la
guerra”. Los jefes de las diferentes tribus se reunieron para planificar la operación y seguir las
instrucciones de su líder “Cabeza de Toro”. Éste le pidió al hechicero llamado “Antílope Blanco” que
utilizara sus artes para averiguar la potencia y capacidades del enemigo. Dos días después,
“Antílope Blanco” regresó con su valoración. Los dioses le habían brindado una visión en la que
había visto un cuervo solitario posado sobre el esqueleto de un venado muerto. Como el cuervo
estaba concentrado en su festín, no vio una urraca que se deslizó hasta un árbol que se extendía
sobre el mar, desde donde efectuó algunas observaciones, ni notó el cuervo que la urraca daba la
señal para la concentración de sus fuerzas desplegadas. Cuando la concentración de urracas fue
suficiente, cayeron sobre el cuervo en formación de ataque. El cuervo luchó valientemente, pero,
como las cosas empeoraban, decidió retirarse a posiciones defensivas. “Antilope Blanco”
interpretaba que el cuervo representaba a las fuerzas aliadas de las tribus indias y las urracas al
enemigo, luego las posibilidades enemigas eran enormes y, seguramente, los aliados saldrían
perdiendo en la confrontación. Pero “Cabeza de Toro”, que era el comandante supremo y el líder
de todas las tribus indias alzó la voz y dijo: “Lo que acaba de expresarnos el hechicero no significa
más que esto: la fuerza expedicionaria estará en peligro. Ya lo sabíamos. En cuanto al cuervo y las
urracas, es mi creencia que nosotros somos las urracas y el enemigo es el cuervo. Mañana
atacaremos”. La interpretación del hechicero no había sido aceptada. (Kent, 1966, p.219).

Es importante señalar que “Antílope Blanco” había hecho todo como mejor sabía y había aplicado
los procedimientos usuales para aquellos casos, y que “Cabeza de Toro” no rechazó su análisis de la
situación basándose en un análisis razonado sino sobre la base de una idea subjetiva y,
probablemente, una idea que inconscientemente deseaba que fuera realidad.

Este relato, escrito por James Willard Schulz y sacado de las páginas del clásico manual de
inteligencia estratégica de Sherman Kent, considerado por muchos como el padre del análisis de
inteligencia moderno, pretende reflejar la antítesis del trabajo y la función de la inteligencia
estratégica. En primer lugar, el análisis de inteligencia se basa no en apreciaciones basadas en el
azar o en interpretaciones personales y subjetivas de la información, sino en la implementación de
una metodología científica sistematizada que nos conduce a unas conclusiones. En segundo lugar,
si alguna vez las decisiones se tomaron basándose únicamente en la intuición del decisor, esto ya
no es así en la actualidad o, al menos, no debiera serlo. Es por eso que los decisores necesitan
disponer no sólo de información, sino de la inteligencia accionable en tiempo y forma oportunos
que el análisis de la primera proporciona. Sin embargo, hay una constante que se ha mantenido a
lo largo del tiempo y que no es otra que la no aceptación por parte de los superiores o los políticos
de los juicios dimanados de inteligencia cuando estos contradicen abiertamente sus intereses u
objetivos. Llegado a este punto, en el mejor de los casos, los políticos ignoran las apreciaciones
suministradas por la inteligencia y en el peor de los casos las tergiversan en su propio beneficio para
cubrirse las espaldas ante posibles complicaciones posteriores. Nihil novum sub sole.

La información es acéfala, no piensa por nosotros. En efecto, la disponibilidad de información


carece de utilidad práctica si no somos capaces de razonar y establecer las inferencias necesarias
para transformarla en un conocimiento útil para la toma de decisiones. Muy al contrario, puede
tener el efecto inverso y llegar a colapsarnos por completo convirtiéndonos en meros sujetos pasivos
sin la capacidad suficiente para procesarla en tiempo y en forma. La única solución a esto es su
análisis pormenorizado en tiempo y forma convenientes.

El análisis es una fase crucial del tradicional Ciclo de Inteligencia. A grandes rasgos, el análisis es la
fase en la que la información se transforma en conocimiento que se suministra a la autoridad
correspondiente para apoyar y facilitar la toma de decisiones. Los datos se transforman en
información y ésta en conocimiento. Por ejemplo, si escribimos 28911 estamos escribiendo
simplemente una sucesión de números desordenados. Son datos, sin más. Pero si a esos datos les
añadimos un significado como por ejemplo que los dos primeros dígitos de ese número
corresponden a una provincia y los últimos tres hacen referencia a una zona dentro de esa
provincia, estamos creando información. Y si, por último, llegamos a la conclusión de que el 28911 es
el código postal de una zona en concreto de Madrid, estamos generando conocimiento o
inteligencia.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
La piedra angular del análisis de inteligencia no lo constituye el software, por muy avanzado que
éste sea, sino el elemento o factor humano, esto es, el analista y sus capacidades y conocimientos.
 
Fue Sherman Kent quien definió el análisis de inteligencia como un proceso y como un producto.
Efectivamente, el análisis de inteligencia es un proceso sistematizado que logra transformar la
información en conocimiento, pero también es un producto que se presenta como un informe de
inteligencia. De ambas cosas hablaremos en este libro.
 
En el glosario de inteligencia publicado por el Ministerio de Defensa, en la voz de “Análisis”,
podemos leer:

“El análisis que realizan los servicios de inteligencia participa de los rasgos propios del análisis
científico y hace uso de las mismas técnicas y recursos epistemológicos. El análisis emplea, por igual,
procesos de razonamiento deductivos e inductivos; elabora diagramas, esquemas y mapas de
conceptos; establece y valida o desestima hipótesis; mide el grado de asociación entre conjuntos
de datos y variables mediante técnicas de correlación y regresión; construye escenarios; recurre a
modelos teóricos y matemáticos; utiliza herramientas informáticas como programas estadísticos o de
minería de información…” (Esteban Navarro, 2007)

En 1949 un profesor de historia graduado en la universidad de Yale, irónico y bromista a partes


iguales, publicó un manual destinado a marcar un hito en la disciplina de inteligencia. En esa obra,
Sher, como cariñosamente le apodaban sus compañeros, sistematizó todo una metodología
denominada el Ciclo de Inteligencia[1]. Aunque, como acertadamente escribe el profesor Diego
Navarro, las operaciones englobadas y definidas por Sherman Kent bajo el término Ciclo de
Inteligencia en realidad ya estaban delineadas y poniéndose en práctica desde hacía tiempo, le
debemos al profesor su sistematización. (Navarro Bonilla 2007, p.49). Desde entonces se han
publicado muchos más manuales, pero el nombre de Sherman Kent ha quedado vinculado para
siempre al del Ciclo de Inteligencia.

El ciclo de inteligencia puede definirse como “la serie de fases sistematizadas a través de las cuales
se desarrolla el trabajo intelectual de generación de nuevo conocimiento, útil, veraz y ajustado a los
requerimientos de inteligencia delimitados previamente por un usuario o destinatario final”. (Navarro
Bonilla, 2009, p.116).

El modelo de ciclo de inteligencia de la estadounidense Central Intelligence Agency (CIA), muestra


cinco fases, identificadas como planificación, recopilación, procesamiento, análisis y producción, y
diseminación. El Centro Nacional de Inteligencia (CNI), sigue un esquema de cuatro fases,
correspondientes a la dirección, obtención, elaboración y difusión. El CNI unifica en su fase de
elaboración las fases de procesamiento y análisis de la CIA. Sin embargo, la importancia creciente
del procesamiento previo de la información, refuerza la necesidad de una etapa dedicada al

procesamiento.

 
 

 
Las distintas fases del ciclo establecen una relación simbiótica entre ellas, de tal forma que unas
podrían desarrollarse sin el concurso de otras. Así, el planeamiento marca los objetivos del análisis y
éste sería imposible de realizar sin la obtención de la información. De igual forma, a menudo, el
análisis y la difusión posterior generan nuevas necesidades de inteligencia que reflejan de nuevo el
planeamiento. Por esta razón suele hablarse de ciclo de inteligencia.

El análisis conforma sólo una de las sub-fases de la secuencia estructurada de acciones que
conforman la fase de elaboración. Dicha secuencia estructurada está configurada por las
siguientes sub-fases:

Compilación: Se agrupan los elementos de información (documentos, imágenes, videos)


relacionados con un tema y se registran en una base de datos, facilitando su posterior
procesamiento.
Evaluación: calificación otorgada a un elemento de información en base a la fiabilidad
de la fuente de la que proviene y la credibilidad de su contenido. Explicaremos en
profundidad esta sub-fase en el capítulo dedicado a la obtención y evaluación de la
información.
Análisis: se descompone la información en hechos significativos para ser interpretados
posteriormente. Se detectan patrones y tendencias.
Integración: la información se relaciona y se combina con la ya existente para formar un
modelo coherente que ha de ser posteriormente interpretado. La transición del análisis a
la integración se produce sin solución de continuidad. A todos los efectos, ambos
procesos se tratan como uno solo.
Interpretación: paso final del proceso en el que se valora la importancia de la información
analizada en relación con el conjunto actual de conocimientos, extrayendo conclusiones
y presentando una panorámica general de la situación. Las conclusiones pueden
considerarse como hipótesis que serán confirmadas o rechazadas a la luz de la
información recibida posteriormente.
 
En la actualidad el ciclo de inteligencia pensado por Sherman Kent, está siendo puesto en duda.
Algunos analistas dudan de su utilidad en un mundo que ha evolucionado hacia notas y
características muy diferentes de las que pudo ver aquél profesor.  Ciertamente desde el punto de
vista de Kent, el ciclo de inteligencia es, a priori, un enfoque convencional de resolución de
problemas, es decir, opera desde la pregunta (problema) hacia la respuesta (solución). El flujo que
establece es lineal y resoluble y esto no se corresponde con los procesos cognitivos que ocurren en
el razonamiento humano ni con una visión compleja de la realidad que, desde luego, es no lineal y
no resoluble. En el intento de linealizar problemas no lineales a través del ciclo de inteligencia están
muchas de las carencias que plantea la metodología. Conviene aclarar que lo que se pone en
duda no es la arquitectura del ciclo de inteligencia, que puede ser más o menos viable, sino los
contenidos y la manera de proceder en cada paso del ciclo. Los antiguos procedimientos deben
dejar paso a los nuevos, pero esto no significa que el ciclo ya no sirva como marco estructural.
Ilustraré mi idea con un ejemplo. En los planos de casi todas las casas el arquitecto deja un espacio
dedicado al salón, otro a la habitación, la cocina, etc. El arquitecto lo hace así porque la mayoría
de la gente quiere tener esas estancias en su casa. Podrían dedicar ese espacio a otras cosas, pero
ven más práctico y útil que sea así. Ahora bien, cada una de las diferentes estancias puede
decorarse de diferente forma conforme a los gustos personales o a los propósitos que se persigan.  El
salón puede ser más o menos grande, estar unido a la cocina, hacer las veces de salón-comedor,
etc. Además, puede tener un estilo clásico, moderno, minimalista, etc. De esta forma una misma
sala puede contener un tipo u otro de salón según nuestra necesidad o gusto. Dicho de otra forma,
es necesario adaptar las fases de la inteligencia a los objetivos y diseñarlas de acuerdo a las
particularidades de cada caso. Esencialmente esta es la idea desarrollada por Robert M. Clark y su
Target Centric Intelligence Model (Modelo de Inteligencia centrado en el objetivo).
 
2. TIPOS DE INTELIGENCIA SEGÚN SU FUNCIÓN

Según el momento de su utilización podemos distinguir, al menos, tres tipos de inteligencia


diferentes:

• Inteligencia básica: tiene un carácter general y es de relativa permanencia, obedece a las


necesidades generales y estratégicas de la organización, por lo que intenta conocer todos los
aspectos de cada uno de los objetivos fijados por las directrices de inteligencia, con el fin de
permitir responder a demandas de información concretas.

• Inteligencia actual: tiene dos funciones básicas: mantener al día la inteligencia básica con datos
nuevos, para lo que adopta la forma de boletines periódicos, generalmente diarios, sobre
cuestiones específicas de interés habitual; y responder de modo rápido y preciso a una petición de
información sobre una cuestión de actualidad o hechos concretos que se deben conocer para la
toma de una decisión, con los datos disponibles o mediante un proceso de búsqueda “ad hoc” con
los recursos que se poseen[2]

• Inteligencia estimativa: se dedica a determinar, ante una situación concreta y a petición del
usuario del servicio, la posible evolución de esa situación y las posibilidades de actuación de los
elementos involucrados en ella, a partir de los datos de los que se dispone, con el fin de que el
destinatario realice su propia predicción y, de acuerdo con ella, tome una decisión.
Ahora vamos a detenernos un momento para explicar cómo funcionan en conjunto todos estos
tipos de inteligencia en la integración, que, como hemos visto, es una subfase dentro de la fase de
elaboración del tradicional Ciclo de Inteligencia. En el proceso de integración de la información se
parte de una inteligencia básica que se completa con una inteligencia actual en cada momento y
a partir de la fusión entre ambas se generan hipótesis de trabajo para establecer un modelo
coherente. Algunas de estas primeras hipótesis se descartarán más adelante, pero en otras se
continuará trabajando hasta llegar a unas conclusiones.

3. LA OBTENCIÓN Y EVALUACIÓN DE LA INFORMACIÓN: DOS DARDOS PARA TRES DIANAS

En la noche del 20 de Marzo de 1935, Berthold Jacob , un periodista alemán residente en Londres,
fue secuestrado de un restaurante en Basel, Suiza (que era territorio neutral en la II Guerra Mundial),
y llevado al cuartel general de la Gestapo en Berlín. ¿Cuál había sido el delito de Jacob?. Haber
publicado un libro sobre los generales alemanes, un libro tan detallado que incluso identificaba las
nuevas divisiones panzer de tanques alemanes.

¿Cómo había conseguido Jacob esa información?, ¿Cuáles eran sus fuentes?. Estas preguntas
fueron formuladas a Jacob por los agentes de la Gestapo. La respuesta de Jacob, para profunda
consternación de los agentes, fue que la fuente de información era el German Press. Durante meses
y años Jacob anotó, recordó y compiló noticias del periódico sobre obituarios, anuncios de enlaces
matrimoniales y artículos de periodistas militares. No había fugas de información, ni agentes, ni
informes secretos, sólo material de fuentes abiertas y la mente analítica de Jacob.

La denominada OSINT (Open Source Intelligence) es un tipo de inteligencia proveniente de fuentes


abiertas, es decir, fuentes públicas o accesibles: medios de comunicación, leyes, presupuestos,
declaraciones, etc.  Dentro de este análisis de información abierta también podrían incluirse los
análisis sociológicos, o el perfil psicológico de jefes de estado y de gobierno, análisis grafológicos,
monografías, literatura gris, etc. Este tipo de fuentes representan hasta el 85% de la información
bruta que recibe un servicio de inteligencia. El resto de información lo constituyen la HUMINT
(inteligencia de fuentes humanas), IMAGINT (inteligencia de imágenes) y COMINT (inteligencia de
comunicaciones).

La actual y creciente reivindicación de la importancia de las fuentes abiertas de información se


debe a la confluencia de dos fenómenos. En primer lugar, la aparición del concepto de
Multinteligencia (Multi-Int), por el que se entiende el rechazo del uso de una única autoridad
informativa para crear inteligencia y la consiguiente exigencia de utilizar, integrar y analizar datos
procedentes de todo tipo de fuentes y haciendo uso de toda clase de tecnologías. Y, en segundo
lugar, la obligación de los servicios de inteligencia de recabar, analizar y evaluar información de
índole muy variada y en materias donde las fuentes abiertas son imprescindibles.

El principal documento de la OTAN sobre OSINT (OTAN, 2001), considerado hasta el momento como
un estándar de facto en este dominio, identifica cuatro categorías en las fuentes abiertas:

• OSD (Open Source Data; Datos de fuentes abiertas): impresión en bruto, radiodifusión, informe oral
u otra forma de información de una fuente primaria, como una fotografía, una grabación, una
imagen de satélite comercial, etc.
• OSIF (Open Source Information; Información de fuentes abiertas): integrada por datos que se
agrupan generalmente por medio de un proceso de edición que proporciona algún tipo de filtrado
y validación, así como una gestión de su presentación.

• OSINT (Open Source Intelligence; Inteligencia de fuentes abiertas): información que


deliberadamente ha sido obtenida, discriminada, extraída y deseminada a personas seleccionadas,
todo ello con objeto de responder a una pregunta o tema específico.

• OSINT Validada (OSINT-V): información a la que se puede atribuir un muy alto grado de
certidumbre. Puede ser producida por un profesional de inteligencia de todo tipo de fuentes, con
acceso a las clasificadas, trabajando para una nación o como personal de una coalición.

Entre las herramientas de búsqueda y recuperación de información en la web empleados por los
analistas destacan:

• Motores de búsqueda horizontales: Google, Bing o Yahoo entre otros

• Motores de búsqueda especializados: Google Scholar para publicaciones académicas, Google


Directorio para búsqueda temática,  Zanran para datos estadísticos, Quandl para datos
económicos,  Nationmaster para comparar datos estadísticos entre países, entro otros.

• Metabuscadores: Copérnic (todo un clásico), Dogpile o DeeperWeb para la  web profunda, entre
otros.

• Imaginería (Imágenes de satélite): en esto el analista puede elegir trabajar con recursos gratuitos
como pueden ser los mapas de google. Pero existen otros recursos que, aunque no son
completamente gratuitos, son baratos y marcan la diferencia en algunas ocasiones. ¿Por qué elegir
recursos de pago?. Porque hay determinadas zonas que, sencillamente, no están disponibles en los
mapas de Google por motivos defensivos o de seguridad. Tal es el caso, por ejemplo de las bases
aéreas. Entre los recursos a escoger tenemos, por supuesto, Google Earth, pero también Bing Maps,
HERE, USGS o Digital Global Foundation.

En esto cada analista tiene sus inclinaciones o gustos particulares a la hora de elegir una u otra
herramienta de búsqueda. El mejor modo de buscar una determinada información en Internet es
preguntarse quién puede ser su creador y dónde puede estar publicada. Una vez contestada esa
pregunta, se utilizan modos de búsqueda avanzada por palabras (booleanos), como puede ser la
búsqueda avanzada de Google. Es importante señalar que la búsqueda a menudo aporta mejores
resultados si se realiza la en varios idiomas, habitualmente español, francés e inglés pero en
ocasiones recurriendo a otras lenguas como el árabe o el chino. Aquí radica, entre otras razones, la
importancia de que el analista sea capaz de leer y comprender varios idiomas.

HUMINT (Human Intelligence)

La Inteligencia humana, es la más antigua y tradicional. Es lo que el novelista Graham Green acuñó
en su famosa obra con el término “factor humano”.

La información suministrada por fuentes humanas es muy útil porque puede proporcionar
información imposible de adquirir por otros medios. Una fuente humana situada en el lugar y el
momento adecuados puede dar a conocer los procesos de deliberación y las intenciones reales de
un determinado adversario. También puede proporcionar las claves necesarias para interpretar
datos conseguidos mediante medios tecnológicos. Sin embargo, dentro de este amplio campo
conviene hacer distinciones. Se hace necesario distinguir entre oficial de inteligencia y agente de
inteligencia a la hora de la aplicación del estatuto del combatiente. El oficial de inteligencia tiene
condición de combatiente y, por ello, está amparado por los Convenios de Ginebra de 1949 y por
el Protocolo Adicional de 1977. Sin embargo, algunos de los agentes de inteligencia, como
consecuencia de sus funciones, entran dentro del colectivo de lo que tradicionalmente se ha
denominado espías. Los espías están incluidos dentro del colectivo de combatientes ilegales y, en
consecuencia, se les excluye de la Protección de los Convenios y Protocolos de Ginebra.

En cualquier caso, incluso los espías, que si bien al caer en manos del enemigo van a ser puestos a
disposición judicial y les va a ser de aplicación el ordenamiento jurídico interno del país detenedor,
también tienen unos mínimos de protección, expresados en la denominada Cláusula Martens,
contemplada en el párrafo 2º del artículo 1º del Protocolo Adicional I, y que se pueden sintetizar en
la aplicación del Principio de Derecho de Gentes, con la presunción de inocencia y la prohibición
de maltratos, vejaciones y humillaciones; de los Principios de Humanidad, con el socorro a los
necesitados y la evitación de daños innecesarios, y de los Principios de la Conciencia Pública, con
la igualdad ante la ley, y la aplicación de un juicio previo”  (Guisández, Septiembre 2003, p.665). Ni
que decir tiene que la aplicación de estos principios depende del país en cuestión.

IMAGINT (Inteligencia de imágenes):

Los analistas de imágenes buscan las relaciones entre los elementos y de éstos con el entorno. Para
realizar sus análisis utilizan, entre otros, el criterio de “multitemporalidad”, es decir, examinan los
cambios y las evoluciones de los elementos con imágenes tomadas en diferentes días o meses para
tratar de sacar conclusiones o estimaciones que le sean útiles al decisor. Las etapas básicas en el
análisis de imágenes son tres:

• Detección: se descubre la existencia del objeto a estudiar dentro de su contexto

• Reconocimiento: en esta etapa se diferencia el objeto de otros y se precisa su ubicación espacial

• Identificación: Describe la pertenencia del objeto a una clase en concreto. Para ello suelen
consultarse las bases de datos de conocimiento.

La inteligencia de imágenes es también especialmente útil en el seguimiento de objetivos y sirve


como material adicional a la hora de elaborar patrones de actividad.

SIGINT (Inteligencia de señales):

Inteligencia de señales, la gran oreja de nuestros días, con redes como ECHELON, engloba una serie
de recursos:

a) COMINT: Communications Intelligence

En el caso particular de España tenemos a SITEL (Sistema Integrado de Interceptación de


Telecomunicaciones), que permite la captación total de las comunicaciones móviles y virtuales en
España. Actualmente la Policía Nacional, la Guardia Civil y el CNI tienen acceso a tan extraordinaria
como polémica herramienta. SITEL es un sistema informático desarrollado por Ericsson y utilizado por
el Ministerio del Interior, capaz de almacenar todas las conversaciones telefónicas y mensajes entre
móviles y a través de Internet, e identificar los datos relativos a las mismas. No es puramente un
sistema de interceptación de comunicaciones sino un auténtico programa de seguimiento y control
de las comunicaciones y de las personas. El sistema puede controlar números de teléfono de origen
y destino de llamada, o hacia los que se transfieren las llamadas; nombres y direcciones de
abonados o usuarios registrados de origen y destino. Si se trata de datos de acceso a Internet,
correo electrónico por Internet y telefonía por Internet: identificación de usuario asignada, números
de teléfono asignados a toda comunicación que acceda a la red pública de telefonía y nombre y
dirección del abonado o del usuario registrado al que se le ha asignado en el momento de la
comunicación una dirección de Protocolo de Internet (IP), una identificación de usuario o número
de teléfono; identificación de usuario o número de teléfono del destinatario o de los destinatarios de
una llamada telefónica por Internet. Los nombres y direcciones de los abonados o usuarios
registrados y la identificación de usuario del destinatario de la comunicación.

b) ELINT:Electromagnetic Intelligence

Búsqueda y transmisión de señales electromagnéticas en cualquier onda (tipo de modulación) y


frecuencia. Se dividen en dos tipos:

• De interceptación, desencriptación y análisis de comunicaciones por ondas radiotelefónicas y


radiotelegráficas mediante estaciones receptoras desconocidas por el emisor y la aplicación de
tecnología de reconocimiento de voz con el fin de averiguar su identidad. La localización definitiva
que permitió la captura del narco Pablo Escobar se produjo gracias a la interceptación de una
comunicación por un teléfono móvil enviada a su hijo. Como relató Mark Bowden en los detalles de
la espectacular
 

 
 

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
operación montada para capturarle, “la radio de Juan Pablo Escobar funcionaba en una gama de
frecuencias entre 120 y 140 megahercios. Con esa información y con una idea aproximada de
cuándo hablaban padre e hijo, las tres unidades móviles de rastreo se dispusieron a interceptar
llamadas y a encontrar a Pablo Escobar, que sabedor de que lo seguían, cambiaba continuamente
de lugar en su barrio de Medellín. Finalmente fue abatido a tiros en el tejado de su casa en el Barrio
de América en Medellín.
 
Cuando buscamos información, nos encontramos con el dilema siguiente: sólo disponemos de dos
dardos para hacer tres dianas. Las tres dianas son una información de bajo coste, de alta calidad y
obtenida rápidamente. Así pues, deberemos elegir entre dos de las tres dianas y renunciar a una:
• Si deseamos una información de alta calidad y barata, su obtención no será rápida
• Si deseamos que sea barata y rápida, muy frecuentemente será de baja calidad
• Si deseamos obtener información de alta calidad rápidamente, ésta nos resultara costosa.
 
Sherman Kent fue el creador de un sistema de valoración de información en términos de fiabilidad y
credibilidad que aún a día de hoy sigue vigente en la mayoría de los servicios de inteligencia. Según
Sherman Kent, para proteger a las fuentes y poder proteger sus informaciones, se puede utilizar un
sistema estándar que permite graduar la credibilidad de sus informaciones tanto desde el punto de
vista de la confianza de la fuente como de la fiabilidad de la información.
 
Para determinar la fiabilidad de la fuente se emplearían las letras de la A a la F, de manera que la
fuente que merece más confianza se califica con la letra A y la que merece menos confianza, con
la D. Para valorar el grado de credibilidad de la información emplearíamos números del 1 al 6. El
uno marcaría la información más creíble y el 6 la menos creíble.
Fiabilidad y credibilidad hay que considerarlos como aspectos independientes. De esta forma, una
información valorada como B2 significa que procede de una fuente normalmente fiable y que
probablemente sea cierta.
Pero el grado de fiabilidad de la fuente y la credibilidad de la información, además, necesita
cuantificarse. Que yo diga que cierta fuente es medianamente fiable ¿qué significa? No deja de ser
una afirmación muy subjetiva. Sherman Kent abordó la necesidad de precisión en los juicios de
inteligencia en un artículo que se clasificó originalmente como confidencial y que luego vería la luz
en una publicación de Studies in Intelligence en otoño de 1964. El artículo, titulado Words of
Estimative Probability, comienza con la presentación de un oficial de inteligencia sobre una misión
de reconocimiento fotográfico. El oficial, señalando el mapa, hizo tres declaraciones:
• “Y en este lugar hay un nuevo campo de aviación. Su pista más larga es de 10.000 pies”
• “Es casi seguro que es un campo de aviación militar”
• "El terreno es tal que los espacios en blanco podrían alargar fácilmente las pistas de aterrizaje,
mejorar las instalaciones, e incorporar este campo en su sistema de bases estratégicas. Es muy
posible que lo hagan. Sería lógico pensar que, tarde o temprano, lo harán”.
Los puntos anteriores representan de los tres tipos de declaraciones que pueblan el denso mundo
de la inteligencia. La primera está lo más cerca que se puede llegar a una declaración de un
hecho indiscutible. Describe algo cognoscible y conocido con un alto grado de certeza. La posición
del avión de reconocimiento se conoce con precisión y su cámara reproduce casi exactamente lo
que había allí.
 
El segundo es un juicio o estimación. En él se describe algo que es cognoscible en cuanto a la
comprensión humana, pero no conocido de forma precisa por el hombre que está hablando de
ello. Hay una fuerte
evidencia para sostener su juicio: el único avión en el campo son aviones militares, muchos están
estacionados en hangares cubiertos, el área de soporte tiene todas las características de las
instalaciones militares conocidas similares, y así sucesivamente. Convincente como es, esta
evidencia es circunstancial. No se puede justificar una afirmación plena de que se trata de un
campo de aviación militar. Esto hace que podamos hablar de una probabilidad del 90%, pero no
de un 100%. Esta es la razón por la que dijo "casi seguro".
La tercera declaración es otro juicio o estimación, este hecho casi sin ninguna prueba directa o
indirecta. Puede ser una estimación de algo que ningún hombre vivo puede saber, porque los
espacios en blanco bien pudieran tener otra justificación.
En términos generales, el análisis de inteligencia está poblado más de los tipos estimativos de la
segunda y tercera declaración que de la primera. Esto es debido a la carga de incertidumbre con
la que usualmente se trabaja en inteligencia. Y éste es también el motivo por el que muchos análisis
son confidenciales. Un conocimiento imperfecto publicado puede tener consecuencias desastrosas
no sólo para el propio país sino también para otros. La prudencia aconseja no comunicar algo de lo
que no se tiene certeza más o menos razonable.
Kent ridiculiza en el citado artículo a los analistas que no estaban dispuestos a comprometerse con
el rigor de estimaciones cuantitativas llamándolos “poetas”. Parece, pues aconsejable, cuantificar
el grado de fiabilidad y credibilidad de la fuente. Los siguientes cuadros muestran una forma de
hacerlo.

 
 
FIABILIDAD DE LA PORCETAJE
 
FUENTE ASIGNADO  
A Completamente 100% El peso de la validez de las fuentes es un
punto clave de cualquier razonamiento
fiable
analítico. El análisis de la calidad de la
B Normalmente 80% información es un proceso continuo en
fiable inteligencia. El tener disponibles muchas
fuentes de información no podrá sustituir
C Medianamente 50% nunca una buena información y de
fiable calidad.
 
D Normalmente no <50%
El manual Structured Analytic Techniques
fiable for improving intelligence Analysis,
E No fiable 0% preparado por el U.S. Government describe
una serie de técnicas de diagnóstico de la
F Fiabilidad ¿? información con las que un analista o
desconocida equipo de analistas pueden comenzar a
chequear la calidad de la información
CREDIBILIDAD DE GRADO DE COINCIDENCIA
desarrollando una base de datos en la que
LA INFORMACIÓN CON HIPÓTESIS FORMULADAS
la información es almacenada de acuerdo
1 Confirmada por  
con el tipo de fuente y la fecha, con
otras fuentes
anotaciones que indican las fortalezas o
2 Probablemente Coincide con la hipótesis más
debilidades de las fuents.
cierta probable
3 Posiblemente Coincide con una de las Para ello los analistas necesitarán toda la
cierta hipótesis información de las fuentes que puedan
4 Dudosa Coincide con la hipótesis obtener. Conocer las circunstancias en las
menos probable que fue realizado un informe es, a menudo,
crítico para entender su validez. Con estos
5 Improbable No coincide con ninguna
datos en la mano el analista puede:
hipótesis
a) Revisar sistemáticamente todas las
6 Certeza No se puede determinar
fuentes buscando una mayor precisión en
desconocida
el análisis final
b) Identificar las fuentes de información que parecen ser las más críticas
c) Volver a examinar la información a la luz de nuevos hechos o circunstancias que pueden aportar
otro punto de vista diferente
d) Indicar el grado de fiabilidad dado a la fuente para futuros análisis.
 
 
 
 
 
4. ETAPAS DEL ANÁLISIS
 
Podemos distinguir tres etapas diferentes en el análisis:
• Etapa descriptiva: en esta fase el analista descompone el asunto tratado en elementos
primarios de análisis y describe de forma exhaustiva las variables y actores que intervienen en la
problemática tratada.
• Etapa explicativa: en esta fase va un poco más allá y elabora un marco explicativo de los
hechos o situación en cuestión. Esto, a menudo, implica establecer relaciones entre variables y
actores y descartar aquellas y aquellos que no tienen una influencia directa en el marco explicativo.
• Etapa interpretativa: a partir de la fase anterior, el analista establece inferencias y conexiones
causales. Es importante que no vierta opiniones subjetivas que no estén respaldadas por las
evidencias.
 
El análisis debe contener necesariamente una fase descriptiva del tema o asunto tratados, pero
esto no es lo que lo define. Analizar no es sólo unir las informaciones disponibles de una manera más
o menos ordenada o resumida. Un informe que sólo contenga elementos descriptivos de la
información es un informe sin calidad, es solo un simulacro de análisis, y es algo que los analistas
metodológicos distinguen a la primera.
El buen análisis requiere que el analista realice inferencias desde las premisas a las conclusiones. Un
análisis sin inferencias no es verdaderamente un análisis. Pero realizar esas inferencias a partir de las
premisas requiere no sólo una formación en los métodos de razonamiento lógicos, sino un amplio
conocimiento de la materia tratada.
 
Uno de los errores comunes en inteligencia estimativa o la prospectiva es empeñarse en pasar
directamente de la descripción de variables a la predicción o estimación sin solución de
continuidad.
Algo que, dicho sea de paso, es a veces favorecido por el empeño de los software de prospectiva
de metrizar la información cualitativa mediante el uso de matrices. Es un error que nunca cometería
un estadístico, pues en estadística está claro que no puedes pasar de la descripción de los datos a
la predicción sin antes aportar elementos explicativos. Esta es la razón por la que la modelización es
la fase final de cualquier proyecto de minería de datos. Por ejemplo, si observamos unas huellas en
el suelo de pies humanos, podemos deducir lógicamente que fueron producidas por seres humanos
(estamos realizando una inferencia, y por tanto, en la fase explicativa). Esta explicación conduce a
la predicción de la presencia de seres humanos en ese lugar.
 
 
 
 
 
 
 
 
 
 
 
 
 
BLOQUE II: CUESTIONES EPISTEMOLÓGICAS VINCULADAS AL ANÁLISIS DE
INTELIGENCIA
 
“El trabajo en inteligencia no consiste tanto en unir los
puntos como en decidir qué es un punto y qué no lo es”
Robert Baer “La vida en la Compañía”
 
Vivimos inmersos en lo que se ha venido a llamar la era de la información y la sociedad del riesgo,
cuyo sistema nervioso lo constituyen fundamentalmente la información y las comunicaciones.
Nunca, a lo largo de la historia, la información ha sido tan accesible al ciudadano. Además, cada
vez van tomando mayor peso específico las fuentes abiertas de información. Hay redes
internacionales de datos, millones de sitios y páginas web abiertas al análisis, pero el tiempo
disponible para procesarlos es siempre superado por el vórtice de nuevos datos que aparecen. Tal
es así que podemos hablar de una verdadera «infoxicación», es decir, una intoxicación de
información. Sin embargo, esta realidad contrasta con el hecho de que esa información requiere
una formación previa para poder seleccionarla, procesarla y utilizarla para los fines que se persigan.
 
En un mundo así, Kurt Gödel nos enseña en teorema de la incompletitud algo que los jueces suelen
vivir muy de cerca, esto es, que las ideas de verdad y demostrabilidad son lógicamente distintas. En
este sentido, Popper considera que la ciencia nunca alcana la verdad, sino que se aproxima a ella
proponiendo sistemas hipotéticos, teorías, que son falsables. Y Duhem va más allá aun cuando
afirma que se puede mantener la verdad de cualquier enunciado, suceda lo que suceda, si
realizamos ajustes lo bastante drásticos en otras partes del sistema.
. El método científico es una especie de brújula en la que no se produce automáticamente el saber,
pero que evita perdernos en el caos aparente de los fenómenos, aunque sólo sea porque nos
indica cómo no plantear los problemas y cómo no sucumbir en el embrujo de nuestros prejuicios
predilectos. Algo importante, esto último, cuando nos referimos al trabajo de cualquier analista
(Somiedo, 2012, p. 247).
 
Como acertadamente señala James Bruce, la mejora del análisis de inteligencia requiere un
entendimiento de la epistemología, la rama de la filosofía que trata del origen y naturaleza del
conocimiento humano (George, R. y Bruce, J. 2008, p.171). Dado que la inteligencia busca producir
conocimiento, el análisis de inteligencia debe ser entendido como una actividad de construcción
de conocimiento.
 
La epistemología profundiza el sustrato sobre el que se asientan las diferentes técnicas de análisis y
nos ayuda a saber plantear el problema que debemos analizar y a escoger la técnica de análisis
adecuada. A un buen analista puede faltarle el último programa informático de análisis, extracción
de conocimiento o minería de datos, pero jamás pueden faltarle sus herramientas mentales y
epistémicas. Éstas deben formar parte de su equipaje dondequiera que vaya y dondequiera que
trabaje.
 
El papel que desempeña la epistemología dentro del trabajo cotidiano de un servicio de
inteligencia está estrechamente relacionado con la formación de los futuros analistas y también de
aquellos agentes especialmente involucrados en el servicio clandestino.
Muy a menudo, tanto unos como otros, deben adquirir un hábito de pensamiento riguroso que les
ayude a tomar decisiones incluso con una gran carga de incertidumbre. Los primeros deben lidiar,
frecuentemente, con un tiempo reducido para sus análisis y una incertidumbre muy elevada. Los
segundos, más a pie de campo, deben ser capaces de aprender a buscar y discriminar la
información útil de aquella que no lo es y luchar contra los mecanismos de decepción y engaño.
 
Toda esta formación queda circunscrita a la Escuela de Formación interna de cada servicio de
inteligencia y bajo la supervisión del responsable del Directorio de Inteligencia. Pero los
epistemólogos también realizan una labor de investigación que abarca dos funciones: por un lado,
crean nuevas técnicas o modelos de razonamiento o estudian las ya existentes para desarrollarlas y
mejorarlas buscando entender el sustrato lógico sobre el que se fundamentan las diferentes
técnicas de análisis; por otro, buscan y estudian los fallos en la gestión del conocimiento e intentan
solucionarlos o realizar una labor preventiva con los fallos potenciales. Matthew Herbert es una de
las tantas voces que señala la importancia de contar con epistemólogos en estas organizaciones
cuando escribe que la comunidad de inteligencia debería reclutar talento epistemológico y cultivar
las herramientas epistemológicas en todas sus organizaciones (Herbert, 2006, p. 681).
 
 
 
 
5. COMPLEJIDAD EN DETALLE Y COMPLEJIDAD DINÁMICA: ¿FOTO FIJA O PELÍCULA?
 
Nos han acostumbrado a funcionar y operar desde el problema o pregunta a la solución o
respuesta. Lo que ocurre en inteligencia es que, normalmente, debemos situarnos un paso antes, es
decir, es tan importante encontrar el problema y plantearlo bien como buscar la solución. La
solución de ciertos problemas puede no ser directa y exigir la solución anterior de otros problemas
para afrontar con éxito el problema principal. Es lo que recibe el nombre de solución iterativa,
concepto tomado prestado de la matemática computacional. Es por eso que, algunas veces, los
servicios de inteligencia realizan acciones que, desde un punto de vista externo, pueden parecer
carentes de sentido o incluso contradictorias.
La tarea de análisis de información se asemeja a intentar unir y desunir las piezas de un puzle para
desvelar lo que estaba velado u oculto (al menos de una forma primaria), pero al fin y al cabo
estaba. No nos inventamos nada.  No se trata, pues, de recopilar y unir la información, por muy
importante que esta sea, sino de ir un paso más allá y tratar de desvelar los significados y el
conocimiento que permanecía oculto y velado.
Ante este gran reto nos encontramos ante dos dificultades. La primera es que no siempre tenemos
todas las piezas del puzle y suele suceder que no encontramos mayor sentido a las que tenemos. En
este sentido, podemos considerarnos como una especie de “chapuceros habilidosos” que explotan
al máximo todas las posibilidades de la información disponible en cada momento para generar
conocimiento.
La segunda es que la imagen del puzle no es una imagen fija, sino que es dinámica, va cambiando
y transformándose. Imaginemos un puzle que forma el rostro de una niña pequeña ¿Qué pasará
con el rostro de esa niña cuando hayan transcurrido 20 años más? Cambiará. Comenzarán a
aparecer las primeras arrugas fruto del paso los años y la morfología del rostro irá evolucionando.
Pero si dejamos a un lado la variable tiempo, ineludiblemente presente, también puede verse
influida por otras variables no esperadas. Imaginemos un trágico accidente doméstico con
salpicaduras de aceite en el rostro.
Para complicarlo todo aún un poco más, cuando trabajamos en inteligencia, rara vez en nuestra
caja tenemos piezas de un solo puzle, sino que tenemos piezas de varios puzles y debemos saber
escoger aquellas que nos sirven para el puzle que estamos formando y desechar la información que
no es oportuna o no es relevante.
 
El análisis divergente consiste en descomponer n problema para realizar un análisis pormenorizado
de las diferentes variables y actores involucrados. A menudo esto favorece el análisis detallado y, en
ocasiones, nos ayuda a percibir cosas que habíamos pasado por alto y también el descubrimiento
de nuevas variables o actores a tener en cuenta.
La regla de oro es no tratar de sacar nunca conclusiones precipitadas. Hazte a la idea de qué solo
estás desgranando los diferentes elementos. El análisis en profundidad vendrá después cuando
tengas una visión de conjunto lo suficientemente fuerte. Tampoco elimines variables o actores sin
más, porque pudiera ser que, visto después el conjunto, pudieran servirte de utilidad.
 
El análisis convergente consiste en volver a colocar juntas todas las piezas para estudiar las
relaciones entre ellas. De esta forma, una vez que has estudiado en profundidad cada una de las
variables y actores, puedes establecer las posibles relaciones entre ellas de una forma más segura y
certera. Si lo hicieses al revés posiblemente obviarías detalles importantes. Es la hora también de
escoger las técnicas de análisis adecuadas para plantear y resolver el problema de forma
adecuada y de comenzar a elaborar las primeras hipótesis que luego serán aceptadas o
rechazadas en función de la información disponible.
 
Como se puede observar, ambos análisis son complementarios y establecen sinergias entre ellos casi
de una forma simbiótica pues sería difícil establecer relaciones sin el conocimiento previo en
profundidad de variables y actores que nos facilita el análisis divergente y sería imposible observar
variables o actores emergentes sin el concurso del análisis convergente.
 
Hacer inteligencia puede ser, a veces, conseguir una imagen o foto fija en un determinado lugar,
tiempo y circunstancia, pero otras veces significa intentar construir una película completa y esto es
más laborioso y difícil. Uno de nuestros puntos débiles cuando trabajamos como analistas es que
resulta complicado sintetizar en un informe toda la película de un determinado acontecimiento o
tema. Hacerlo bien es todo un arte que requiere años de experiencia. Los superiores raramente
quieren leer (ni tienen tiempo, añadiría yo) informes extensos en el que se explique la película
completa con pelos y señales. Por ello, el analista debe sintetizar
y en este resumen forzado corre el riesgo de obviar cosas importantes. Hoy en día está de moda
criticar informes a toro pasado, esto es, cuando los hechos evolucionan de una forma que no refleja
el informe en cuestión o, en el peor de los casos, cuando el tema evoluciona en la dirección
contraria a la señalada. Pero hay que tener en cuenta que el analista elabora su informe con la
información disponible en cada momento y que, a menudo, una nueva pieza informativa que llega
puede cambiar por completo el escenario. Pero el informe ya ha sido redactado y enviado.
Imaginaros que os muestran una imagen de una película en la pantalla de vuestro ordenador y os
piden que manifestéis vuestra opinión de la temática de la película. En la imagen aparece una
pareja besándose. Bien, algunos podrían pensar que se trata de una película romántica, pero esto
no tiene forzosamente por qué ser así. Esa es, en modo simple, la incertidumbre en la que se mueve
el análisis de inteligencia.
 
La información adopta una importancia diferente según el contexto y de lo que busca el
investigador. Por ejemplo, la media de edad de los componentes de un grupo terrorista no sería
algo importante, al menos en principio, para un servicio de seguridad del Estado, pero sí lo sería
para un sociólogo. Alejandro Sobrino, escribiendo a propósito de la lógica borrosa, propone otro
ejemplo quizás más ilustrativo. Dice Sobrino: “Obama es joven” es parcialmente verdadero;
verdadero en algún contexto (veteranos del Vietnam) pero quizás falso en otro (adolescentes
norteamericanos)” (Sobrino, 2011, p.83). Así que tenemos una misma pieza informativa que sigue
siendo la misma, pero que varía en importancia y veracidad según el
contexto y la intencionalidad de la investigación.
 
Algo parecido sucede con los elementos químicos, donde dos átomos de hidrógeno unidos a uno
de oxígeno dan como resultado H2O o agua. En cambio, esos dos átomos de hidrógeno unidos a
cuatro de oxígeno y uno de azufre forman el H2SO4 o ácido sulfúrico. Avanzando un poco más
podemos descubrir que, a menudo, la información evade las jerarquías y el orden preestablecido y
establece conexiones con los diferentes niveles del sistema. Así si analizamos determinada
información en el contexto específico de dicha información pronto observaremos conexiones de
mayor o menor importancia con un entorno más genérico. La lógica binaria aristotélica y sus
inferencias resulta muy útil para establecer conclusiones a partir de las premisas cuando nos
movemos en un entorno específico, pero no nos ayuda a descifrar las conexiones con el entorno
más genérico que frecuentemente nos aporta más evidencias para soportar nuestro análisis
inferencial.
 
También descubrimos que, ese carácter dinámico de la información, implica que no siempre va a
aparecer estructurada u organizada, más bien somos nosotros quienes la organizamos para tratar
de analizarla en un proceso creativo que se asemeja al modelado de una pieza de arcilla. Somos
nosotros quienes damos la forma a una materia prima que, en sí misma, no presenta forma alguna
predeterminada. Por tanto, como sostiene la ciencia de la complejidad, el caos procede al orden y,
en el caso particular de la información, somos nosotros los que hacemos emerger la armonía del
caos. Lo que estamos dibujando, por tanto, es un cuadro cuyos colores se transforman ellos mismos
hasta transformar el cuadro completo.
 
 
Estamos frente a lo que Wolfgang Hofkirchner define, dentro de su visión emergentista de la
información, como un proceso de auto-organización, pero no solo eso, pues a la vez que se da esta
auto-organización también acontece una organización propia de cada sujeto observador. Los
colores del cuadro serían nuestras secuencias informacionales. Por eso descubrir los patrones se
torna fundamental y no podemos encarar este nivel de complejidad solamente desde la
perspectiva de la lógica clásica.
 
Como el lector seguramente habrá observado, con esto estamos intentando establecer un puente
entre la incertidumbre asociada a la complejidad de la realidad y la incertidumbre asociada a la
toma de decisiones o la investigación social, si se prefiere. El cemento de ese puente no es otro que
la información y los ladrillos su correcto análisis nido a la toma de conciencia de la imposibilidad de
certidumbre completa y la validez de aquellos métodos que no intentan acabar con la
incertidumbre sino acotarla a terrenos donde vaya perdiendo peso paulatinamente.
Como veremos uno de esos métodos es el trabajo compartido en entornos colaborativos, toda vez
que la metrización de la información cualitativa o su asociación a determinas probabilidades o
valores numéricos no está exenta de algunas dificultades.
 
 
 
 
 
 
6. LA CARGA TEÓRICA DE LA OBSERVACIÓN EN INTELIGENCIA
Se atribuye a Ramón de Campoamor el popular verso: “En este mundo traidor, nada es verdad, ni
mentira, todo es según el cristal con que se mira”. Bien podríamos decir que esta popular humorada
resume la idea fundamental del concepto de la carga teórica de la observación junto con el de
sesgo cognitivo.
Imaginemos a un pintor, un botánico y un leñador se encuentran observando un mismo paisaje en
el campo. Los tres están observando el mismo paisaje, pero los tres ven cosas diferentes.
Probablemente el pintor se fijará en el espectro cromático, en los colores; el botánico prestará más
atención a las diferentes especies de plantas y flores y el leñador volcará su atención en la clase de
madera que puede obtenerse de los árboles. Es decir, nuestras observaciones están mediadas en
gran parte por nuestros conocimientos previos. A esto el filósofo de la ciencia Kart Popper lo
denominó la carga teórica de la observación. Al estudiar este concepto nos alineamos también
con Duhem y Quine y su idea sobre la sobredeterminación de las teorías por la observación y con
ello, por qué no decirlo, con una de las corrientes contemporáneas de la idea de información. La
tesis de la subdeterminación de las teorías por la observación inhabilita el isomorfismo entre las
teorías como artefactos explicativos y la realidad como fenómeno explicado.
 
Este concepto es sumamente importante para los analistas a la hora de discriminar información útil
de la que no lo es. La experiencia y el conocimiento en nuestra área de especialización hace que
nos fijemos en aspectos que pueden pasar desapercibidos para otros e interpretarlos.
Pero también es una capacidad innata en todo buen analista. Para el analista ver sin mirar es
pecado o debiera serlo. Es una pérdida de tiempo acompañada de una pérdida de información
que puediera resultar útil. El analista es curioso por naturaleza, busca los giros en lo que mira y no se
contenta con las causas próximas de los fenómenos.
El observador no es un papel en blanco en el que se refleje de una vez toda la realidad tal y como
es, con sus características observables, sus conceptos y sus significados, no es un espejo, sino que
cuando, por ejemplo, observamos un automóvil con personas a bordo, necesariamente tenemos
que poseer previamente el concepto de automóvil y el significado del mismo y toda una teoría
acerca de qué es y cómo funciona, de modo que entendamos, al verlo, que es un coche que se
aleja y no otra cosa. Además, poseemos conocimiento teórico que privilegiamos y contradice lo
que podríamos concluir basándonos solamente en lo observado: sabemos que el automóvil que
vemos a lo lejos en un tamaño pequeño, en realidad es más grande, sabemos que esa pequeña
cabeza corresponde a una persona que lo conduce… en fin, mucha teoría previa.
Las aportaciones de Floridi al respecto no dejan de ser interesantes. Para Floridi, un Level of
Abstraction o LOA es una colección de observables, cada uno con un posible conjunto de valores
definidos. Es un conjunto finito pero no vacío de observables moderados por ciertas normas de
transición. Un observable es una variable tipo con una etiqueta, que representa el nombre asignado
por el agente epistémico a una característica del sistema bajo consideración (VV.AA, 2013, p.37).
 
De una manera científica podemos afirmar que tanto el pintor como el botánico o el leñador del
ejemplo anterior, utilizan diferentes niveles de abstracción para centrarse en características o
variables diferentes del sistema.
Así pues, realizan diferentes análisis del sistema obteniendo diferentes modelos del mismo.
Evidentemente podemos observar que las variables del sistema varían con el tiempo. Precisamente
lo que explica o lo que nos dice cómo o de qué forma esas variables evolución a lo largo del
tiempo es lo que Floridi define como normas de transición que son las que suelen preocupar y
ocupar a los científicos.
Llegamos a la conclusión de que un mismo sistema puede ser observado y modelado con diferentes
características o variables a partir de diferentes niveles de abstracción. Floridi introduce el concepto
de “gradiente de abstracción” para referirse a la relación que puede establecerse entre diferentes
niveles de abstracción según tengan relación (conectados) o no la tengan (disjuntos) (VV.AA, 2013,
p.38). En nuestro ejemplo, los niveles de abstracción del botánico y del leñador estarían conectados
porque la visión sobre el tipo de madera del leñador está anidada en la visión de las especies
plantas del botánico, mientras que el LOA del pintor sería disjunto con cada uno de los otros dos.
Los LOA implican una cierta forma de pluralismo más que de relativismo. Esta pluralidad también
tiene implicaciones ontológicas sobre nuestra visión del mundo, puesto que un cierto LOA
determinará un modelo y una teoría y ésta a la postre tendrá influencia directa sobre nuestra visión
de la realidad y del mundo en el que vivimos.
 
 
7. LAS DOS VÍAS DE CONOCIMIENTO CLÁSICAS
Hay muchas formas de dibujar un círculo. A bote pronto se me ocurren tres diferentes. La primera de
ellas, la más simple, consiste en dibujar la línea exterior del círculo, la segunda consiste en colorear el
interior del círculo pero sin dibujar ninguna línea externa y la tercera consiste en sombrear el exterior
para lograr el espacio en blanco que forme el círculo interior. Llegados a este punto podríamos
preguntarnos cuál de ellas es la más apropiada. La respuesta no es sencilla pues todas ellas
cumplen de sobra el propósito buscado. En las dos primeras empleamos la via catafática, esto es
buscamos dibujar directamente el círculo. En la última, en cambio, utilizamos la vía apofática, esto
es, llegamos al círculo sombreando lo que no es el círculo.
Lo que acabo de explicar es algo, a priori sencillo, pero tremendamente útil en el análisis de
inteligencia. La complejidad dinámica de las variables y los actores en el sistema hace. que,
frecuentemente, sepamos menos de lo que son las cosas que de lo que no son. Y este hecho se
acentúa si hablamos de contrainteligencia. Lo que no son las cosas pueden alumbrar nuestro
conocimiento sobre lo que verdaderamente son. A veces, las distracciones, la propaganda o las
banderas falsas pueden hacer que nuestros mecanismos lógicos flaqueen y nos conduzcan a error.
En estas circunstancias, la vía apofática se torna un valioso aliado de nuestra mente porque
mediante la exclusión podemos desemborronar todo el escenario.
Las dos vías que acabo de mencionar son una aportación clásica del pensamiento teológico, es
decir, de Dios podemos decir muchas menos cosas de lo que es que de lo que no es.
 
 
8. CORRELACIÓN Y CAUSALIDAD: POST HOC ERGO PROPTER HOC
Casi con toda seguridad no haya un solo analista que no se haya tropezado en su vida con una
correlación espuria, aunque solo sea por la abundancia de éstas en el discurso político cotidiano. La
teoría nos dice que la correlación entre dos variables no implica necesariamente causalidad y
puede darse el caso de que dos variables estén relacionadas pero una no sea la causa de la otra.
El problema de creerse que una fuerte correlación implica una cierta relación causal entre las
variables es que esa creencia se puede usar (malintencionadamente o no) para engañarnos
 
Para cualquier analista de inteligencia resulta relativamente fácil, partiendo de una muestra
reducida, hallar na correlación sustancial entre un par de variables, características o hechos
cualquiera. Por ejemplo, podríamos decir que el descenso de piratas en el mundo está provocado
por la subida de la temperatura en nuestro planeta. La gráfica resultante se parece bastante a una
línea recta que implica una correlación muy próxima a uno. Ahora bien, se trata de una correlación
espuria. Y sería un error, además, el tratar de buscar una conexión causal que realmente es
inexistente.
 
 
 
 
 
 
 
9. LOS RIESGOS DE LA METRIZACIÓN DE INFORMACIÓN CUALITATIVA
La lucha contra la incertidumbre y la, al menos en apariencia, eficaz seguridad aportada por el
análisis cuantitativo, hicieron que los encargados de lidiar con información cualitativa volvieran sus
ojos a lo cuantitativo. ¿Y si se pudiera, de alguna forma, transformar la información cualitativa en
cuantitativa?. Dicho y hecho. Siguiendo la máxima de Galileo Galilei “mide lo que sea medible y
haz medible lo que no lo sea”, los programas de software encargados de realizar esta
transformación fueron, en principio, una novedad y también una esperanza.
Muchos de estos programas se desarrollaron a partir de las llamadas matrices de impactos cruzados
para metrizar la información cualitativa y después asociar probabilidades.
 
Pero, como escribió Sorokin, muchas veces estas metrizaciones se convierten en una forma de
cuantificar nuestras opiniones subjetivas minando irremediablemente todo el proceso posterior de
análisis. Por tanto, parece evidente la necesidad de establecer un mecanismo colaborativo que nos
permita poner cotos a la subjetividad. Siguiendo esta línea se ha desarrollado CACHE (Collaborative
Analysis of Competing Hypotheses Environment), un sistema que apoya las tareas de análisis
colaborativo sobre la base del Análisis de Hipótesis en Competencia o ACH y que permite a los
analistas mantener su atención en problemas individuales o sub-problemas a la vez que colaboran
a solucionar problemas más complejos, ayudando al mismo tiempo a reducir los sesgos cognitivos
(Covertino, Billman y Pirolli, 2006, p.2).
El proceso de CACHE se basa en la llamada inferencia de múltiples etapas, que aglutina una serie
de inferencias donde la salida de cada etapa anterior se convierte en la entrada de la siguiente. Se
observó que cuando los analistas tienen un gran número de pasos lógicos entre las pruebas y las
hipótesis, su proceso de razonamiento se puede representar en el marco de la inferencia bayesiana.
En síntesis, podemos afirmar que CACHE es un ACH colaborativo que permite la colaboración entre
analistas superando las barreras del espacio y el tiempo.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
BLOQUE III: MÉTODOS DE RAZONAMIENTO BÁSICOS PARA EL ANALISTA DE
INTELIGENCIA
 
"La Inducción sin abducción es ciega, la abducción sin
inducción es vacía"
Alfred Ayer
 
10. RAZONAMIENTO LÓGICO
 
Como es sabido, el método científico se basa en la lógica. Esta ciencia formal busca traducir en
lenguaje simbólico el modo en que las personas razonan. Una de las operaciones del razonamiento
es inferir ciertas consecuencias a partir de ciertos hechos. Estos hechos se traducen en enunciados
verbales, llamados premisas. Las formas típicas de razonamientos que estudia la lógica son la
deducción, la inducción y la abducción. Pero al lado del pensamiento lógico coexisten otros tipos
de pensamiento que han logrado conducir a nuestra civilización hasta las cotas de desarrollo y
avance tecnológico y cultural de las que ahora disfrutamos. El pensamiento analógico ha aportado
su particular contribución a muchos de los grandes descubrimientos científicos. De la misma
manera, el pensamiento sistémico nos ha ayudado a comprender realidades multirrelacionales
complejas. No hay que olvidar, tampoco, el importante papel de la creatividad como elemento
dinamizador y germinador de todos estos métodos de razonamiento. El pensamiento lateral intenta
profundizar en los aspectos que nos ayudan a pensar de una manera creativa. Todas estas maneras
y formas de pensar se conjugan en el quehacer cotidiano de cualquier analista ayudándole a sacar

el máximo rendimiento del conocimiento y la experiencia atesorados en su área de trabajo.

Le debemos al filósofo y naturalista Aristóteles el haber colocado las columnas de nuestro moderno
pensamiento científico. El filósofo griego formuló en sus obras Primeros Analíticos y Segundos
Analíticos unos métodos de razonamiento que siguen teniendo plena vigencia hoy en día.
Posteriormente, Francis Bacon, René Descartes, David Hume y Charles Sanders Pierce introdujeron
mejoras y matizaciones. Éste último distinguía entre lo que él llamaba lógica utens o sentido
rudimentario de la lógica en el uso cotidiano por el que las personas llegan a la verdad sin ser
conscientes del método empleado y la lógica docens, que es una lógica que puede enseñarse
autoconscientemente y un método desarrollado teóricamente para descubrir la verdad. Algo así
como el sentido común sistematizable, pero recordando, no obstante, que el sentido común suele
ser el menos común de los sentidos. (Sebeok, 1994, p.75).

Mención aparte merece la lógica informal. Nacida en los años sesenta del siglo pasado, es una
rama de la lógica entendida como estudio analítico y normativo del lenguaje y el pensamiento
discursivos. Es una disciplina muy útil para el analista a la hora de analizar la información de los
medios de comunicación en busca de falacias y errores de argumentación (Vega, 2011: pp. 308-
313). La profesora Monserrat Bordes, en su última obra publicada, escribe: «Como las trampas de
Circe, venenosas pero de aspecto inocuo, muchos usos argumentativos falaces domestican la
mente de la audiencia crédula, que olvida la tierra natal de la justificación racional, la lógica,
sacrificada a favor de la confortable aceptación de una retórica sin ética... Y ser capaz de detectar
falacias es el primer paso para conseguir evitar los peligros de las creencias acríticas» (Bordes, 2011,
p. 31).

Deducción: Reasoning down


 
El pensamiento deductivo parte de categorías generales para hacer afirmaciones sobre casos
particulares. Es una forma de razonamiento donde se infiere una conclusión a partir de una o varias
premisas. El filósofo griego Aristóteles, con el fin de reflejar el pensamiento racional, fue el primero en
establecer los principios formales del razonamiento deductivo, aunque su inventor fue Parménides
como bien apunta Karl Popper (Popper, 1999: p. 164). En la deducción, las premisas apoyan
totalmente la conclusión, son necesarias y suficientes y, por lo tanto, nada que añadamos al
razonamiento lo cambiará (propiedad de monotonía). Esta propiedad no se cumple en la
inducción.  Como señala Salmon, los argumentos deductivos no pueden aumentar nuestro
conocimiento, pues toda la información de la conclusión está ya presente, al menos de forma
implícita, en las premisas (Salmon,  2013, p.81). La deducción trabaja mejor en sistemas cerrados
como las matemáticas, la lógica formal o ciertos tipos de juegos (los war-games de ordenador, por
ejemplo), pero el analista rara vez trabaja con sistemas cerrados. Por eso el método deductivo debe
ser utilizado cuidadosamente y el analista debe ser consciente de las limitaciones del proceso y los
errores potenciales en las premisas. Podemos concluir diciendo que, en el razonamiento deductivo,
se parte de lo general para llegar a lo particular, que la conclusión está siempre contenida en las
premisas de las que se parte y que además las conclusiones obtenidas corresponden con la lógica;
sin embargo, en el razonamiento inductivo, se parte de lo particular para llegar a lo general y se
obtienen conclusiones que sólo resultan probables a partir de las premisas.
 
Inducción: Reasoning up
 
Como señala Manuel Garrido, un argumento es deductivo cuando el paso de las premisas a la
conclusión es analítico (necesario), y es inductivo cuando ese paso es sintético (no necesario)
(Garrido, 2005: p. 61). La generalización de los eventos es un proceso que sirve de estructura a todas
las ciencias experimentales, ya que éstas (como la física, la química y la biología) se basan en la
observación de un fenómeno (un caso particular) y posteriormente se realizan investigaciones y
experimentos que conducen a los científicos a la generalización. La base de la inducción es la
suposición de que si algo es cierto en algunas ocasiones, también lo será en situaciones similares
aunque no se hayan observado. En el razonamiento inductivo aprendemos desde la experiencia.
Por ejemplo, llamamos inducción al proceso por el cual una persona aprende a asociar el color rojo
con el calor y el calor con dolor, y generaliza esas asociaciones a nuevas situaciones. Obviamente,
la inducción no es sólo esencial para la transmisión del conocimiento, sino también para sobrevivir.
La inducción ocurre cuando un analista o investigador comienza a ver ciertas relaciones en los
fenómenos que él observa. La imaginación y el poder de observación son elementos esenciales en
el proceso inductivo y, por tanto, en los analistas (Clauser, 2008: p. 52).
 
Abducción
 
Si hiciéramos una encuesta a pie de calle sobre el significado de la abducción probablemente nos
llevaríamos una sorpresa. Y es que la mayoría de las personas asocian esa palabra con los
extraterrestres o los ovnis y, sin embargo, forma parte sustancial del razonamiento lógico y, como
veremos, del andamiaje mental de todo buen analista. En el inconsciente colectivo también figura
otra gran laguna, esto es, tradicionalmente se asocia el personaje de ficción del famoso detective
Sherlock Holmes con la deducción cuando, en realidad, lo que él utilizaba y queda plasmado en las
novelas es la inducción abductiva. La utiliza, por ejemplo, cuando, a partir de una serie de
características físicas y detalles sobre un individuo ofrece un bosquejo de su personalidad y su forma
de vida.

Charles Sanders Pierce resucitó la reflexión sobre esta antigua forma de argumentar que ya
Aristóteles había observado, pero sobre la cual no se había prestado mucha atención. En uno de
sus abundantes artículos, «Guessing», escrito alrededor de 1907 y publicado póstumamente en un
journal elaborado por estudiantes de Harvard, Peirce se propuso exponer sus ideas acerca del
conocimiento humano. «Guessing» está dividido en dos partes. En la primera, Peirce explica cómo
formamos opiniones que aciertan a explicar lo que ocurre. En la segunda, intenta demostrar que
tenemos una especie de instinto para adivinar las cosas. Según la definición del propio Pierce, la
abducción “es el proceso por el que se forma una hipótesis explicativa. Es la única operación lógica
que introduce una idea nueva”. El argumento abductivo es aquel cuyo enlace entre las premisas y
la conclusión es de tipo hipotético. Pierce lo considera como una forma de sacar «una predicción
general sin certeza positiva», pero lo justifica, porque cree que este método permite indagar las
causas de un fenómeno, con la esperanza de descubrirlas mediante el uso de una hipótesis. Si la
deducción explica y la inducción evalúa, en la abducción suponemos que un hecho sorprendente
es un caso de una regla general. Mediante la imaginación, en la abducción somos nosotros los que
introducimos esa regla general o situación más amplia que explicaría el hecho sorprendente
observado. La abducción es, por tanto, un tipo de inferencia cuya conclusión es siempre una
hipótesis o una conjetura, algo probable, pero es precisamente el carácter plausible o razonable de
esa hipótesis la que lleva a aceptarla y no su probabilidad efectiva. Abducir es adivinar, y es el
único razonamiento que genera nuevo conocimiento, porque añade a los datos de la percepción
una explicación plausible.
La abducción es una especie de «paradigma indiciario» que proporciona claves de interpretación
valiosa cada vez que la deducción y la inducción no son aplicables o, al menos, se muestran
insuficientes para indagar un hecho. La naturaleza de verdad que se extrae de la actividad
abductiva se basa en la regla de conjeturas dentro de una gama de posibilidades adivinatorias,
pero no totalmente arbitrarias, sino en referencia a intuiciones razonables. Para Pierce existían tres
clases elementales de razonamiento. La primera, que llamó abducción, consiste en examinar una
masa de hechos y permitir que esos hechos sugieran una teoría. De este modo ganamos nuevas
ideas, pero el razonamiento no tiene fuerza. La segunda clase de razonamiento es la deducción, o
razonamiento necesario. Sólo es aplicable a un estado ideal de las cosas, o a un estado de cosas
en tanto que puede conformarse con un ideal. Simplemente da un nuevo aspecto a las premisas. El
tercer modo de razonamiento es la inducción o investigación experimental. Su procedimiento es
éste. Cuando la abducción sugiere una teoría, empleamos la deducción para deducir a partir de
esa teoría ideal una variedad de consecuencias a tal efecto que, si realizamos ciertos actos, nos
encontramos a nosotros mismos enfrentados con ciertas experiencias. Cuando procedemos a
intentar esos experimentos, y si las predicciones de la teoría se verifican, tenemos una confianza
proporcionada en que los experimentos que aún no se han intentado confirmarán la teoría. Como
se puede observar, para Pierce, la diferencia básica entre abducción e inducción es que la primera
forma parte del proceso de descubrimiento y la segunda forma parte del proceso de probar esos
descubrimientos. La abducción, a diferencia de la inducción, usa el mecanismo de la hipótesis para
descubrir la causa. En cambio, aquélla indaga por medio del experimento a fin de extraer una ley.
Es claro que ambos métodos no se excluyen: se puede hacer a la vez abducción e inducción, pero
es necesario distinguir ambos procesos, porque no tiene la misma fuerza probatoria el desarrollo
inductivo que apunta a ensanchar continuamente el campo de verificación, que hacer conjeturas
acerca de las causas que han provocado un hecho particular

11. RAZONAMIENTO SISTÉMICO


La década de los noventa, de la mano de la obra de Peter Senge, asistió a la popularización del
pensamiento sistémico que, introducido en los años cincuenta por el alemán Ludwig von
Bertalanffy, había quedado restringido a los círculos académicos. El pensamiento sistémico aparece
formalmente en los años cincuenta a partir de los cuestionamientos que, desde el campo de la
biología, hizo Ludwing Von Bertalanffy. El biólogo y epistemólogo alemán cuestionó la aplicación
del método científico en los problemas de la Biología, debido a que éste se basaba exclusivamente
en una visión mecánica y causal, lo que lo hacía débil como esquema para la explicación de los
grandes problemas que se dan en los sistemas vivos. Este cuestionamiento lo llevó a plantear una
reformulación global en el paradigma epistemológico, para entender mejor el mundo que nos
rodea, surgiendo formalmente el paradigma de sistemas.
 

Según Bertalanffy, la Teoría General de Sistemas debía tener un carácter básico o fundamental y
ofrecer un riquísimo instrumental conceptual para la elaboración de todas las demás ciencias Sus
ideas no comenzaron a tener audiencia hasta el año 1954. A partir de ahí, en diversos campos
científicos se empieza a utilizar el mismo pensamiento. Por ejemplo, en la física cuántica, donde las
partículas subatómicas no poseen significado aisladas y no pueden ser comprendidas sino como
interconexiones o correlaciones, pues las partículas no son cosas, sino conexiones entre cosas que a
su vez son interconexiones entre otras cosas.

Cuanto más percibimos los problemas globales más notamos que están interconectados y son
interdependientes, son todos diferentes facetas de una misma crisis. La visión que teníamos del
mundo hasta hoy está obsoleta, inadecuada para trabajar con un mundo globalizado,
superpoblado y lleno de dificultades para mantenerse. El pensamiento sistémico es integrador, tanto
en el análisis de las situaciones como en las conclusiones que nacen a partir de allí, proponiendo
soluciones en las cuales se tienen que considerar diversos elementos y relaciones que conforman la
estructura de lo que se define como «sistema», así como también de todo aquello que conforma el
entorno del sistema definido. La base filosófica que sustenta esta posición es el Holismo (del griego
holos=todo ).

En una primera aproximación sencilla se puede decir que un sistema es una entidad cuya existencia
y funciones se mantienen como un todo por la interacción de sus partes. El pensamiento sistémico
contempla el todo y las partes, así como las conexiones entre las partes, y estudia el todo para
poder comprender las partes. Es lo opuesto al reduccionismo, es decir, la idea de que algo es
simplemente la suma de sus partes. De nuestra simple definición de sistema se infieren algunas
implicaciones. En primer lugar, un sistema funciona como un todo, luego tiene propiedades distintas
de las partes que lo componen.

Estas propiedades se conocen con el nombre de propiedades emergentes, pues emergen del
sistema mientras está en acción. No se pueden predecir las propiedades emergentes de un sistema
dividiéndolo y analizando sus partes; sólo poniendo en funcionamiento el sistema podremos saber
cuáles son sus propiedades emergentes. Dado que las propiedades de un sistema surgen del
conjunto del sistema, y no de sus partes, si lo descomponemos perderemos sus propiedades. Por
ejemplo, si desmontamos un piano, no sólo no encontraremos el sonido, sino que será imposible
reproducirlo hasta que no esté montado otra vez. Si forzamos la división de un sistema en dos, no
tendremos dos sistemas más pequeños, sino un sistema defectuoso o muerto. Nos han enseñado a
pensar de manera lógica y cartesiana, a comprender mediante el análisis, descomponiendo los
sucesos en partes para luego volver a unirlas. En algunos casos, este método funciona, pero surgen
problemas cuando intentamos aplicarlo de forma indiscriminada. No funciona cuando lo que
manejamos son sistemas. Ni las personas ni los acontecimientos se rigen por las reglas de la lógica,
no son tan fáciles de predecir o resolver como las ecuaciones matemáticas. Se escapan a las
soluciones rápidas, lógicas, ordenadas. La razón por la que el pensamiento habitual resulta
insuficiente para manejar sistemas es que tiende a ver secuencias simples de causa y efecto,
limitadas en espacio y tiempo, en lugar de una combinación de factores que se influyen
mutuamente. En un sistema, la causa y el efecto pueden estar muy distanciados en el tiempo y en
el espacio. Pero nosotros tenemos que actuar aquí y ahora. El pensamiento lineal es lo opuesto al
pensamiento sistémico. Pensamos linealmente cuando buscamos culpables o cuando, en general,
buscamos la causa inmediata de algún evento. El pensador lineal no alcanza a ver las
consecuencias no intencionadas posibles de sus acciones, ni tampoco las limitaciones lógicas y
naturales que otros sistemas impondrán en las acciones lineales implementadas.
 
12. RAZONAMIENTO POR ANALOGÍA
 
Como observa Jerome Clauser, la analogía es uno de los métodos de razonamiento más usados en
inteligencia estratégica. La analogía apoya el método abductivo porque sirve para establecer
hipótesis y modelos predictivos (Clauser,2008, p.130). Por ejemplo, en geopolítica suelen utilizarse la
analogía de Múnich de 1938[3] para sugerir contemporización y la analogía de Vietnam para
defender el aislacionismo y la no intromisión en asuntos internos de otros países. Para resolver un
problema por analogía, en primer lugar, recuperamos las similitudes entre el caso conocido y el
problema planteado.
Las similitudes pueden ser estructurales (más abstractas) o superficiales (más físicas). Cuando los dos
casos mantienen no sólo similitudes estructurales, sino también similitudes superficiales, la
recuperación se ve enormemente facilitada. En segundo lugar, establecemos las correspondencias.
La fuerza de este tipo de argumentos por analogía está en función de lo bien o mal que
establezcamos las conexiones o correspondencias entre los elementos tratados.
Resolver un problema por analogía consiste, pues, en desarrollar un establecimiento de
correspondencias entre los elementos de dos problemas (el problema base, cuya solución ya
conocemos, y el problema meta, cuya solución buscamos) y en la posterior adaptación de la
solución del problema base al problema meta (Gabucio Cerezo, 2005, p.184). Pasemos ahora a
explicar un ejemplo histórico y real.
Los antiguos indígenas aztecas se sorprendieron cuando vieron por primera vez los caballos que
montaban los españoles de Hernán Cortés a su llegada a México. Después de mirar atentamente
ese extraño animal, los aztecas, por analogía, lo llamaron simplemente macatl, término que en la
lengua náhuatl se usaba para designar a todos los animales cuadrúpedos en general. A medida
que los aztecas fueron familiarizándose con la figura del caballo y lo conocieron mejor, lo
distinguieron de otros animales, copiaron la palabra usada por los españoles y empezaron también
a denominarlo «caballo». Como se observa, los indígenas, después de la primera percepción,
echaron mano de algún conocimiento anterior que les sirviera de punto comparativo para designar
este nuevo animal. Este modo de razonar también se ve refrendado desde la moderna psicología
cognitiva.

Así como trasladamos propiedades físicas, podemos trasladar modelos implicados o estructuras
enteras hacia los objetos desconocidos que tenemos en análisis. El secreto es emplear como objeto
de base algo bien conocido, muy familiar a nosotros que, sin embargo, posea algunas notas
similares con el objeto que buscamos «enriquecer». Lo que hemos desarrollado con la fría
terminología de la lógica tiene más aplicaciones e implicaciones. Todas las personas realizan
comparaciones, que son una forma de analogía. Si bien no siempre se busca inferir una hipótesis, es
un recurso muy empleado en la vida diaria.

Por ejemplo, fácilmente podríamos establecer, como se ha hecho en más de una ocasión, una
analogía entre pescar y vender. En ambas necesitamos desarrollar una “estrategia de captación”
sin la cual no tendríamos peces o clientes. Utilizando la analogía comparamos el cliente con un pez.
Para ciertos peces necesitamos ciertos cebos. ¿Qué es un cebo en el ámbito de las ventas? ¿Son
argumentos de venta? ¿Podemos pensar en diferentes “señuelos-argumentos” para diferentes tipos
de “clientes-peces”? Si los clientes se espantan ante nuestras intervenciones, ¿por qué los peces se
espantan? Respuesta: por el ruido desacostumbrado. ¿Qué es ese ruido desacostumbrado en el
ámbito de las ventas?.¿Será la falta de amabilidad en la atención?, ¿serán colores desagradables
del local de ventas?, ¿serán disposiciones incómodas del mobiliario?, etc.

Muchos grandes inventores se valieron de este método de razonamiento para realizar sus
descubrimientos. Éstos son sólo algunos ejemplos:

• Es sabido que Leonardo Da Vinci observaba la naturaleza como fuente de inspiración para sus
inventos y pinturas.

• Los hermanos Wright estudiaron los zopilotes en vuelo para resolver problemas sobre el equilibrio
de los aviones.

• Kekülé usó la imagen de una serpiente persiguiendo su cola para desarrollar su modelo de la
molécula de benceno. De esta manera concibió la molécula como un anillo, en vez de la usual
cadena de átomos de carbono e hidrógeno.

• Pasteur usó la función de la piel rota de la uva durante el proceso de fermentación para poder
entender el proceso de infección.

13. PENSAMIENTO LATERAL Y CREATIVO


 
Si los métodos de la lógica parten de las categorías establecidas, el pensamiento creativo trata de
superar y subvertir esas categorías. Los dibujos animados de la Pantera Rosa (Pink Panther) pueden
ser un buen ejemplo de lo que pretendemos explicar. A modo de ilustración también nos puede
servir un libro del siglo XVIII escrito por Rudolph E. Raspe y que lleva por título Las aventuras del barón
de Munchausen. En el libro, el personaje del barón lleva la lógica del absurdo al extremo y no teme
nada. Por ejemplo, en una ocasión en que el barón había caído en el fondo de un profundo lago,
se le ocurrió escapar tirando de los cordones de sus propias botas[4].

En esencia, el pensamiento creativo se basa en dos pilares. Por un lado la lógica informal y por otro
el método mayeútico socrático. Este último se basa en adquirir conocimiento a través de la
formulación de preguntas.

Uno de los mayores expertos mundiales en la materia es Edward De Bono. El doctor Edward De Bono
es el creador del concepto de pensamiento lateral, que hoy forma parte oficialmente de la lengua
inglesa y ha sido incluido en el Oxford English Dictionary. El pensamiento lateral es una aproximación
sistemática al pensamiento creativo por medio de técnicas formales que pueden emplearse
deliberadamente. Esas técnicas se basan en las raíces del comportamiento del cerebro humano.
Existe la creencia tácita de que las nuevas ideas dependen de una combinación fortuita de hechos
y circunstancias y que tales confluencias no pueden ser planificadas. A esto han contribuido las
leyendas sobre los grandes inventores y la forma de alcanzar sus descubrimientos, unas leyendas
que, aún a dia hoy, siguen encontrándose en no pocos manuales escolares. Un ejemplo es la
manzana de Newton y la Teoría de la Gravedad. Tal y como es explicado comúnmente, hace
pensar que el azar jugó un papel crucial en el descubrimiento, que fue algo completamente
improvisado. Pero en este descubrimiento, como en casi todos, la causalidad (los años de estudios y
trabajos y el método de razonamiento de Newton como causa del descubrimiento) desempeñó un
papel mucho más importante que la casualidad. En rigor científico es importante no confundir
causalidad con casualidad. En el nivel más simple, ser creativo significa confeccionar algo que
antes no existía. En cierto sentido, crear un desorden es un ejemplo de creatividad. El desorden no
existía antes en ese lugar, y se le ha dado origen, se le ha hecho nacer. Un ejemplo es la tendencia
del hiperrealismo metafísico tan cultivada por nuestro genio de la pintura Salvador Dalí. Su manera
de plasmar objetos modificando sus características físicas es un ejemplo de cómo se pueden crear
nuevas realidades. Los dibujos animados de la Pantera Rosa utilizan esto, es decir, la modificación
de las características de los objetos, de una forma humorística e infantil.

De Bono hace una distinción fundamental entre sistemas pasivos y activos. Entre otros ejemplos
explicativos, utiliza el de una toalla sobre la que se vierten cucharadas de tinta y una fuente plana
de gelatina sobre la que se vierten cucharadas de tinta caliente. La toalla representa los sistemas
pasivos, porque las manchas de tinta quedan exactamente donde cayeron. Pero en la gelatina la
tinta caliente se disuelve formando canales. La gelatina permite que la tinta se organice a sí misma
en canales o secuencias. Otro sencillo ejemplo de cómo el ingreso de información establece
estructuras que tienen que ser desmoronadas para ordenar las cosas de otro modo es el conocido
juego infantil de formar palabras con sílabas y consonantes tomadas al azar.

Una de las técnicas más conocidas de De Bono es la de los “Seis sombreros para pensar”, muy
utilizada a la hora de formar a los ejecutivos de las grandes empresas. Básicamente se trata de
intentar ver los problemas desde diferentes perspectivas asumiendo para ello diferentes roles.

Así pues, y como colofón a este capítulo, diremos que un analista ayuda a resolver problemas
(pensamiento lógico), un buen analista logra, además, identificar los problemas en el sistema
(pensamiento sistémico), pero los mejores analistas son capaces de actuar sobre el sistema
(pensamiento creativo y analógico).
 
 
 
BLOQUE IV: TÉCNICAS DE ANÁLISIS
Cuando una ama de casa decide estirar su presupuesto,
cuando un médico diagnostica una dolencia, cuando
cualquier persona toma una decisión con respecto a un
problema, por lo general
efectúa un trabajo preliminar de inteligencia
Sherman Kent
 
14. ANÁLISIS BAYESIANO
14.1. ¿Qué es el análisis bayesiano?
 
El análisis bayesiano es una técnica que pertenece al grupo de las técnicas más tradicionales en
inteligencia, pero que no por ello ha dejado de ser utilizada, pues, en algunas cuestiones de
inteligencia, tanto su pertinencia como sus resultados han quedado más que demostrados a lo
largo del tiempo.
En honor a la verdad, el enfoque bayesiano fue olvidado en el baúl de los recuerdos durante
mucho tiempo hasta que fue rescatado por unos pocos visionarios que vieron en él un potencial del
que carecía el enfoque frecuentista tradicional. Desde entonces ha cosechado muchos y probados
éxitos. En lo que al ámbito de Seguridad y Defensa se refiere jugó un papel relevante y destacado
durante la II Guerra Mundial y más tarde, como veremos en este trabajo, la CIA lo utilizó como una
de sus técnicas de análisis innovadoras dentro del Directorio de Inteligencia.
Más allá de sus orígenes y posterior desarrollo, hoy en día el análisis bayesiano es un contenido de
obligada referencia en la mayoría de los programas universitarios serios dedicados a formar nuevos
analistas en el ámbito de inteligencia, tanto a nivel nacional como internacional . 
Aunque la ecuación del Teorema de Bayes es relativamente sencilla, sus resultados no son nada
intuitivos porque juega con probabilidades condicionadas. Para una buena parte de los analistas, el
Teorema de Bayes es difícil de aprender y aplicar. Y esto también incluye a los superiores que,
frecuentemente, no terminan de creerse los resultados porque, al ser tan poco intuitivos,
simplemente parecen equivocados y aparecen como un gran galimatías estadístico
incomprensible. Para demostrar esta característica contraintuitiva del Teorema de Bayes bastará
con ilustrar un sencillo problema tomado de Bar-Hillel y Falk (Bar-Hillel y Falk, 1982: 109):
Los Smith tienen dos bebés. Uno de ellos es una niña. ¿Cuál es la probabilidad de que el otro sea
también una niña?
La respuesta mis frecuente es 1/2. Pero es errónea. La teoría de los modelos mentales explica este
error aduciendo que las personas interpretan que el problema pide “la probabilidad de que un
bebé sea niña” y en consecuencia, construyen los modelos:
Niño    Niña
y a partir de ahí, deducen que la probabilidad de que sea niña es de 1/2. Pero, realmente lo que el
problema pide es una probabilidad condicionada: P(Las dos sean niñas/ Una es niña).
Una sencilla justificación matemática de la solución sería la siguiente:
El espacio muestral se expresaria asi:
Ω  = {(niño, niño), (niño, niña), (niña, niño), (niña, niña)}
pero, al decirnos que uno de ellos es niña, quedaria así:
Ω  = {(niño, niña), (niña, niño), (niña, niña))
por tanto (admitiendo que ambos sexos son igualmente probables), tendríamos:
P(Dos niñas/ Al menos uno es niña)= 1/3.
 
Como observamos, es fácil caer en errores cuando lidiamos con la probabilidad condicionada
debido al funcionamiento cognitivo de nuestros patrones mentales. Pero ¿por qué resulta tan útil el
análisis bayesiano en inteligencia? Sencillamente porque nos permite actualizar el grado de certeza
de nuestras hipótesis actualizando continuamente nuestra información, característica ésta que le
diferencia de otras muchas herramientas y técnicas de análisis y que resulta ser fundamental en el
análisis de inteligencia, como analizaremos más adelante en este mismo trabajo.
 
Hay tres características principales que diferencian a los métodos bayesianos de otros métodos y
técnicas convencionales en análisis de inteligencia. La primera es que el analista es obligado a
cuantificar sus juicios en términos numéricos, algo que normalmente no suele hacer. Desde este
punto de vista, el análisis bayesiano nos ayuda a cuantificar lo que Polya denominó como
razonamiento plausible que surge de forzar los argumentos de la lógica clásica para dar lugar a los
patrones heurísticos y que guarda una estrecha relación con la lógica abductiva.
La segunda es que el analista no toma la información disponible como dada y elabora a partir de
ahí sus conclusiones sobre los méritos relativos de hipótesis opuestas, más bien investiga por etapas
la verdad de cada hipótesis de trabajo centrándose solo en la verosimilitud de cada nuevo
elemento de evidencia para cada hipótesis de trabajo si éstas fueran ciertas. De esta forma, el
analista es menos sensible a su propio ego y no se siente inclinado a reforzar posiciones previamente
asentadas.
La tercera característica distintiva del método bayesiano es que el analista va construyendo sus
juicios sobre las piezas de evidencia. No es como el resumen de evidencias que él tendría que
hacer si tuviera que juzgar su significado para las conclusiones finales. Las matemáticas hacen ese
resumen por él diciéndole: si ésta es la lectura de las evidencias individuales que tienes, ésta es la
conclusión que se sigue de ellas. Las personas, generalmente, son mucho mejores evaluando una
sola evidencia que construyendo inferencias a partir del cuerpo conjunto de todas las evidencias
(Zlotnick, 1970: 44-45).
 
A primera vista, la regla de Bayes es un sencillo teorema cuyo enunciado, en román paladino, se
reduce a lo siguiente: al actualizar la opinión que inicialmente teníamos sobre algo por disponer de
nueva información objetiva, llegamos a un planteamiento mejor. Pero algo realmente explosivo se
deriva de esta simple afirmación, a saber, el teorema de Bayes nos indica que no sólo es posible
adquirir conocimiento aunque nos falten datos o estos resulten inadecuados sino que ese
conocimiento puede obtenerse a partir de aproximaciones o incluso de la ignorancia total como
punto de partida (Bertsch, 2012:12).
 
La estadística bayesiana, al contrario que la estadística frecuentista que se fundamenta en la idea
de cuantificar la probabilidad de un suceso a partir de la frecuencia relativa de aparición, parte de
la noción de que la probabilidad representa el grado de creencia que otorgamos al suceso en
cuestión. La diferencia entre ambas, pues, es una cuestión de concepto de probabilidad. Para la
estadística clásica o frecuentista la probabilidad es un concepto objetivo, que se encuentra en la
naturaleza, mientras que para la estadística bayesiana se encuentra en el observador, siendo así un
concepto subjetivo. De este modo, en la estadística clásica solo se toma como fuente de
información las muestras obtenidas, mientras en caso bayesiano, además de la muestra, también
juega un papel fundamental la información previa o externa que se posee en relación a los
fenómenos que se pretenden modelizar.
Para introducir al lector no iniciado por los senderos bayesianos trataremos de ir desglosando los
diferentes conceptos. Sin ánimo de ser exhaustivos, dos de los conceptos más importantes son el de
probabilidad inversa (estrechamente relacionado con la probabilidad condicional) y el axioma de
verosimilitud.
 
Probabilidad Inversa
Este principio asevera que la probabilidad de una causa dado un efecto es distinta de la
probabilidad de un efecto dada una causa. Por ejemplo, supongamos que denotamos con A el
evento o suceso de que una persona es mujer y con B el suceso de que esté embarazada.
Intuitivamente podemos observar que:
P(A/B) o probabilidad de que una persona sea mujer dado que está embarazada es de un 100%
pues todas las personas embarazadas son mujeres. Sin embargo, la P(B/A) o probabilidad de estar
embarazada dado que se es mujer, según las estadísticas es de un 2%.  Bayes encontró una relación
entre estas dos probabilidades, lo cual es sumamente importante porque únicamente conociendo
una de las dos probabilidades podemos llegar a conocer la otra.
Siguiendo con las probabilidades condicionadas, tenemos que:
P(A/B)=P(A ᴖ B)/P(B)
 
Es decir, la probabilidad de un suceso A dado otro suceso B es igual a la probabilidad de la
intersección de ambos sucesos dividido por la probabilidad del suceso B.
Despejando en esta expresión llegamos a:
P(A ᴖ B)=P(A/B)*P(B) (1)
De igual forma tenemos que:
P(B/A)= P(B ᴖ A)/P(A
Y, por tanto:
P(B ᴖ A)= P(B/A)*P(A) (2)
Como sabemos que la probabilidad de la intersección es siempre la misma, es decir, P(A ᴖ B)=
P(B ᴖ A) e igualando las expresiones 1 y 2 obtenemos:
P(A/B)*P(B)=  P(B/A)*P(A) 
Y despejando en esta expresión, llegamos al resultado:
P(B/A)= P(A/B)*P(B)/P(A), que es el célebre Teorema de Bayes.
En esta expresión:
P(A) es la probabilidad total
P(B) es la probabilidad “a priori”
P(A/B) es la probabilidad condicional de un suceso A condicionado a otro sucedo dado B
P(B/A) es la probabilidad “a posteriori”
Hasta aquí la explicación más conocida y también más simple del Teorema de Bayes.
 
 
 
Axioma de verosimilitud
A partir de estos conceptos simples podemos adentrarnos ya en la forma compleja del Análisis
bayesiano, es decir, la que tiene que ver con la relación entre probabilidad y verosimilitud. Dicha
relación queda expresada mediante la siguiente ecuación:

 
 
Donde:
Pr(H) es la probabilidad a priori de que la hipótesis H sea cierta
Pr(H/D) es la probabilidad a posteriori de que la hipótesis H sea cierta, es decir, la probabilidad de
que la hipótesis sea cierta una vez que se han observado los datos.
Pr(Datos/H) es la verosimilitud, es decir, la probabilidad de haber observado esos datos si la hipótesis
H es cierta.
Pr(Datos) es la verosimilitud marginal, la probabilidad de haber observado esos datos
independientemente de que la hipótesis H sea cierta o no.

De manera alternativa también podemos expresarlo a la manera de Zlotnick:


 
 
 
Donde:
R es la probabilidad a posteriori
P es la probabilidad a priori
L es la verosimilitud
El axioma de verosimilitud surge de la combinación de la Ley de Verosimilitud y el Principio de
Verosimilitud. La Ley de Verosimilitud afirma que, en el marco de un modelo estadístico, un conjunto
particular de datos apoya a una hipótesis estadística mejor que a otra si la probabilidad de la
primera hipótesis, sobre los datos, es superior a la probabilidad de la segunda hipótesis.
El Principio de Verosimilitud establece que la función de verosimilitud contiene toda la información
relevante para la evaluación de la evidencia estadística.  Otras facetas de los datos que no tienen
en cuenta la función de verosimilitud son irrelevantes para la evaluación de la fuerza de la
evidencia estadística aunque pueden ser significativos para la planificación de estudios o para el
análisis de decisiones, pero están separados de la fuerza de la evidencia estadística.
El lector no iniciado entenderá mucho mejor estos conceptos cuando lea el apartado dedicado a
la mecánica del análisis bayesiano.
 
14.2. La CIA y el análisis bayesiano: cronología y documentación de interés para el      analista de
inteligencia
La aplicación del Teorema de Bayes al análisis de inteligencia no es algo novedoso. De hecho, la
Central Intelligence Agency (CIA) comenzó a investigar la utilidad de este tipo de análisis como
herramienta para los analistas a partir de 1967. De esas fechas son documentos tempranos de la CIA
como The sino-soviet border dispute: a comparison of the conventional and bayesian methods for
intelligence warning de Noviembre de 1967 y Bayes Theorem in the Korean War de Julio de 1968.
Poco tiempo después, en 1970, Jack Zlotnick escribió para la CIA un informe, que se convertiría en
una referencia obligada, titulado Bayes theorem for intelligence analysis sobre su uso y
potencialidades que hoy, ya desclasificado, puede consultarse en la web. Finalmente todos estos
avances cristalizarían en un manual, el Handbook of bayesian analysis for intelligence , también
desclasificado. Publicado en Junio de 1975 por el Directorio de Inteligencia y más concretamente
por la Oficina de Investigación Política, su lectura estaba reservada para las oficiales de
inteligencia.

Teniendo en cuenta que a algunos lectores les puede resultar útil profundizar en estas cuestiones,
repasaremos brevemente el contenido y las aportaciones de cada uno de estos documentos:

• The sino-soviet border dispute: a comparison of the conventional and bayesian methods for
intelligence warning
Este informe, clasificado en su tiempo como secreto, de apenas ocho páginas, explica y describe
los resultados de un experimento que fue diseñado para probar la superioridad del método
bayesiano con respecto a otros métodos de análisis convencionales. El experimento fue llevado a
cabo con varios analistas de diferentes departamentos del directorio de inteligencia.
 
• Bayes Theorem in the Korean War
Informe de 22 páginas clasificado en su tiempo como secreto y que hoy en día también está
desclasificado. Según aparece señalado en sus primeras
páginas, su finalidad es la de describir un test para determinar la aplicabilidad del cálculo de
probabilidades (y más concretamente del
Teorema de Bayes) al campo de la inteligencia prospectiva o predictiva. El test simula las
estimaciones de inteligencia de la posible intervención de la China Comunista en la Guerra de
Corea en 1950.
El informe explica cómo se simuló la situación histórica, cómo se formó el escenario de evidencias,
qué hipótesis de cabecera se escogieron y cómo se desarrolló el test.
Cabe destacar el apartado final de notas técnicas que explica la mecánica del modelo y los
cálculos probabilísticos empleados.
 
• Bayes theorem for intelligence analysis
El documento es un “paper” académico que su autor, Jack Zlotnick, presentó en una conferencia
en Michigan el 18 de Junio de 1970. A lo largo de sus nueve páginas, Zlonick desgrana los
componentes teóricos y metodológicos del análisis bayesiano señalando de forma nítida sus
ventajas pero también algunos de los problemas metodológicos que tienen estrecha relación,
como por ejemplo el tema de la evidencia causal o de la falsa evidencia. El mismo autor insiste en
que lo contenido en ellas no tiene un carácter oficial, pero es evidente que leyéndolas podemos
hacernos una idea de cómo estaba el estado de la cuestión en la CIA en aquellas fechas y
hasta qué punto el análisis bayesiano se había desarrollado. Esas páginas demuestran que la CIA ya
había superado y dejado atrás la forma simple del análisis bayesiano y había comenzado a estudiar
las posibilidades de su forma más avanzada, esto es, las aplicaciones al análisis de inteligencia de lo
relacionado con el axioma de verosimilitud.
• Handbook of bayesian analysis for intelligence
El manual, publicado en Junio de 1975 y hoy desclasificado es muy recomendable para los analistas
que quieran introducirse en este tipo de análisis. Un auténtico monográfico de 28 páginas que
describe el uso general de la metodología bayesiana en la práctica, paso a paso y de forma
sencilla. Lógicamente el apartado estrella es el dedicado a describir los posibles caminos para
realizar los cálculos necesarios. Incluye, incluso, el código de sintaxis para ejecutar los modelos de
árboles bayesianos, claro está, en unos lenguajes de computación antiguos y hoy en día en desuso
como el BASIC o el APL. El ejemplo que se propone para explicar la mecánica es un caso de
inteligencia geopolítica pero el mismo manual explica que la aplicación de la técnica puede ir
mucho más allá de ese campo particular y puede ser adaptada con unos pocos cambios a otras
áreas temáticas.
Se advierte la importancia de las llamadas “3 w” de la inteligencia, a saber:

• ¿Cuál es la naturaleza del problema?

• ¿Cuál es la pregunta?

• ¿Qué datos hay disponibles o so posibles de obtener?

Además, en el proceso de inteligencia, la naturaleza del problema dicta que metodología y


técnicas son apropiadas para encararlo. Y no siempre los métodos bayesianos pueden resultar ser
los más apropiados.

A continuación, se describe en qué tipo de cuestiones es aconsejable utilizar el análisis bayesiano.


En este sentido, Bayes es solo útil cuando la cuestión puede ser expresada con un conjunto
reducido de resultados como, por ejemplo, guerra versus no guerra, desarrollo de capacidad
nuclear versus desarrollo de mecanismos de paz versus no desarrollo de capacidad nuclear. De
hecho, Bayes resulta inútil cuando se intenta predecir algo demasiado genérico como, por ejemplo,
el futuro de las relaciones entre ambas coreas. Para ser factible, dicha cuestión, debería ser
reformulada en términos de alternativas específicas y escenarios más o menos excluyentes. También
debe existir un flujo de datos e información relacionados, al menos periféricamente, con la cuestión.

El manual también refleja una serie de reflexiones sobre la conveniencia de la utilización de gráficos
descriptivos en los informes finales.

14.3. El ACH y el análisis bayesiano


 
En la actualidad, la aplicación directa del análisis bayesiano en el ámbito de inteligencia tiene que
ver con el análisis de indicadores y las alertas estratégicas[5] que pretenden, básicamente, descubrir
cualquier patrón de
actividad de un país extranjero que pueda influir directa o indirectamente en los intereses de la
seguridad nacional. Un ejemplo hipotético y muy básico sería la probabilidad del comienzo de una
guerra civil en un país, probabilidad que debe ser actualizada continuamente a la luz de nuevos
sucesos o eventos.
 
Si hay una técnica de análisis famosa entre los analistas de inteligencia, esa es, sin lugar a dudas, el
análisis de hipótesis en competencia (ACH). Esta técnica fue desarrollada entre los años 1978 y 1986
por el prestigioso analista de la CIA Richards J. Heuer y se dio a conocer por primera vez con la
publicación del libro, ahora un clásico, de Heuer titulado “La psicología del análisis de inteligencia”.
En el directorio de inteligencia de la CIA pronto se dieron cuenta de que muchos analistas tenían
problemas a la hora de aplicar el análisis bayesiano, pues sus conocimientos en cálculo de
probabilidades eran limitados. Hay que tener en cuenta que estamos hablando de finales de los
años 70. Se intentó buscar una solución más amigable e intuitiva para que los analistas pudieran
implementarlo sin tener que tener muchos conocimientos en el campo de la probabilidad. Y de ahí
surgió el software del ACH.
 
Se ha escrito mucho sobre esta técnica, pero aquí únicamente nos interesa en relación al tema que
hemos tratado, esto es, desde una perspectiva puramente metodológica.
Efectivamente, esta técnica de análisis está enmarcada en un marco probabilístico bayesiano y
trata de estudiar simultáneamente todas las hipótesis posibles y relacionarlas con las evidencias
existentes para clasificarlas por orden de probabilidad. Es decir, en esencia, es el desarrollo de la
mecánica que previamente hemos desarrollado realizando los cálculos a mano y sin ayuda del
software.
Desde un punto de vista epistemológico, podemos decir que la matriz del ACH trata de metrizar o
cuantificar la información cualitativa. Desde una perspectiva más cercana a la lógica el análisis es
una aplicación de varias clases de inferencia, inferencia abductiva, inferencia inductiva e
inferencia de la mejor explicación, logrando con ello la síntesis clásica de la investigación científica.
En la generación de hipótesis se sigue al pie de la letra la primera regla de Pierce que dice que la
hipótesis debe ser formulada claramente como una pregunta antes que se hagan las
observaciones que han de comprobar su verdad. Respecto a las evidencias, Heuer recomienda
incluir no sólo las evidencias que creamos más claras, sino todo el conjunto de factores relacionados
con el objetivo y que podrían tener impacto a la hora de elaborar la hipótesis final. No se debe caer
en el error o la tentación de tomar sólo aquellas observaciones que apoyan las hipótesis de trabajo.
En el siguiente paso, el análisis adopta la forma de una inferencia inductiva, evaluando las hipótesis
a la luz de las evidencias. Se aconseja reconsiderar o reformular las hipótesis para reflejas todas las
alternativas importantes. Puede ser necesario combinar algunas hipótesis con otras.
 
Finalmente se revisa cada hipótesis para sacar conclusiones provisionales sobre la probabilidad
relativa de cada una. Este estadio final se desarrolla a través de la inferencia de la mejor
explicación, que nos ayuda a elegir la mejor hipótesis de las que tenemos, mediante la ayuda de la
probabilidad establecida por el programa para cada hipótesis.
La inferencia de la mejor explicación (IME) se ocupa de los criterios de selección que deben
aplicarse para determinar cuál es la hipótesis correcta. No se afirma que la hipótesis escogida sea la
verdadera, sino solo que es bastante seguro o probable que lo sea. Podemos afirmar que la
justificación de IME es una justificación inductiva, aunque debamos distinguir la inferencia inductiva
y la IME como dos tipos diferentes de inferencia (Vega y Olmos, 2011:301-304).
Dado que los eventos son dinámicos y están sujetos a una variedad de influencias, las conclusiones
son siempre o casi siempre provisionales. Por tanto, se especifican en el informe aquellos hechos que
podrían causar cambios significativos en la probabilidad de la hipótesis aceptada. El informe
también puede sugerir posibilidades que pueden desarrollarse en el futuro.

Si dejamos a un lado el ámbito de las alertas tempranas y los indicadores, el análisis bayesiano
también es utilizado en otras áreas de la inteligencia estrechamente vinculadas a la predicción o la
prospectiva. Una de ellas es el análisis de series temporales, donde se introducen parámetros
bayesianos que condensan la información de los expertos para completar la información de los
datos en los modelos ARMA o ARIMA. Una vez estimado el modelo, éste arroja unos resultados en
términos de parámetros bayesianos “a posteriori” que sirven como nuevos “a priori” en la siguiente
ocasión.

14.4. Implementación de la técnica: método básico y método simplificado


 
Una vez que una determinada problemática o cuestión ha sido seleccionada como candidata
para la utilización del análisis bayesiano, la primera etapa consiste en formular categorías que sean
más o menos excluyentes que cubran las posibilidades más relevantes que envuelven el problema
tratado. Cuando la formulación puede expresarse en términos dicotómicos, esto simplifica y facilita
mucho las cosas. Pero a menudo habrá más de dos posibilidades o hipótesis encima de la mesa.
 
Aunque el análisis puede ser realizado por una única persona, dependiendo de la naturaleza más o
menos interdisciplinar de la cuestión tratada, es conveniente incluir un grupo de analistas con
diferentes especialidades: geopolítica, militar, económica, etc[6]. En el encuentro inicial se
explicarán el formato y los procedimientos a todos los participantes. Además, se elaborará una lista
de participantes donde se señalará el nombre del participante, posición, número de años de
servicio, número de teléfono de la oficina y las probabilidades que asigna a cada hipótesis al
comienzo del análisis.
Una vez iniciado el análisis, un analista o un pequeño grupo de analistas pueden escribir una lista de
cada una de las evidencias individuales y asignarles las probabilidades. Esto puede ser revisado
diaria, semanal, mensualmente o cuando aparezcan nuevas evidencias que anotar. Las
probabilidades asociadas pueden ser revisadas en cualquier momento.

La tercera etapa consiste en determinar cuánto debe prolongarse el análisis en el tiempo y cuantos
informes y con qué cadencia será necesario realizar.

A continuación, expondremos de una manera sencilla y concisa la mecánica del análisis bayesiano
en inteligencia teniendo como base los contenidos del manual de la CIA ya citado.

El manual señala que hay dos posibles caminos: uno básico y otro simplificado. Ambos se basan en
las mismas relaciones matemáticas, pero se diferencian en que uno trabaja con ratios de
probabilidad y el otro con probabilidades directamente. El método simplificado solo puede trabajar
con cuestiones dicotómicas mutuamente excluyentes. El método básico, por el contrario, puede
usarse en cualquier caso, tanto dicotómico como múltiple. Ambos métodos requieren unas
probabilidades iniciales aportadas por el juicio de cada analista.

Método Básico

Supongamos que se plantean tres hipótesis sobre el conflicto de las dos Coreas (Corea del Norte y
Corea del Sur):
A. Agresión a gran escala de Corea del Norte dentro de seis meses

B. Agresión a pequeña escala como provocación dentro de seis meses

C. Corea del Norte no planea agresiones

Supongamos ahora que el analista asigna al comienzo del análisis un 25% de probabilidad a las
hipótesis A y B y un 50% a la C. Nótese que todas las hipótesis juntas deben sumar el 100%. Después,
durante el desarrollo del análisis, los analistas evaluaran como se relaciona cada una de las nuevas
evidencias con cada una de las hipótesis. Para ello utilizarán el razonamiento abductivo[7], y se
formularan la siguiente pregunta para cada hipótesis de trabajo: ¿Con que probabilidad ocurriría
esa evidencia si la hipótesis A fuera verdadera?. Como el lector observará, se trata de una
probabilidad condicional de la evidencia dado que se toma por cierta la hipótesis A. Lo mismo para
las otras dos hipótesis.
En el caso que examinamos supongamos que se recibe una información de un agente de que el
líder de Corea del Norte está redactando un discurso muy belicoso que pretende leer en público en
los próximos días. Esa evidencia sería cierta al 90% para la hipótesis A y B y un 80% para la C. Como
se observa, en este caso, las probabilidades no necesariamente deben sumar el 100%.

La fórmula general para calcular la probabilidad revisada con la introducción de cada nueva
evidencia es:
 
Donde:

P(Si) es la probabilidad inicial para el escenario i

P(I/Si) es la probabilidad condicional de cada nuevo evento

P(Si/I) es la probabilidad revisada para el escenario i

m es el número de escenarios

Escenario A revisado:

P(I/S1)= 0,25*0,90 / (0,25*0,90)+(0,25*0,90)+(0,50*0,80)= 0,225/0,85 = 0,2647 = 26,47%

Escenario B revisado:

P(I/S2)= 0,25*0,90 / (0,25*0,90)+(0,25*0,90)+(0,50*0,80)= 0,225/0,85 = 0,2647 = 26,47%

Escenario C revisado:

P(I/S3)= 0,50*0,80 / (0,25*0,90)+(0,25*0,90)+(0,50*0,80)= 0,4/0,85 = 0,4705 = 47,05%

Como podemos observar, las probabilidades revisadas deben seguir sumando el 100%. Estas nuevas
probabilidades se tomarán como probabilidades de inicio cuando introduzcamos nuestra segunda
evidencia.

Imaginemos ahora la entrada de una nueva evidencia cuyas probabilidades condicionadas son:

Para Hipótesis A: 60%

Para Hipótesis B: 20%

Para Hipótesis C: 10%

Volvemos a realizar cálculos para esta nueva evidencia:


 
 
 
 
 
 
 
 
 
 
 
Evidentemente, todos los cálculos aquí implementados a mano pueden realizarse con la ayuda de
los modernos software de computación.

Método Simplificado

Se utiliza el método simplificado cuando las circunstancias lo permiten, esto es cuando hablamos de
hipótesis dicotómicas excluyentes. El uso de este método reduce enormemente los esfuerzos de los
analistas, siendo incluso factible realizar los cálculos a mano, como veremos a continuación.

Se comienza estableciendo las probabilidades iniciales para cada hipótesis. Como en el método
anterior, cada nueva evidencia es evaluada asignándole dos números, uno para cada hipótesis
(recordemos que aquí trabajamos solo con dos hipótesis). Pero el resultado cambia, porque si bien
en el primer método básico el resultado era un número en porcentaje aquí va a ser una razón de
una hipótesis sobre otra. Por ejemplo, si una determinada evidencia se valora como un 10% de
verosimilitud con la hipótesis A y un 90% de verosimilitud con la hipótesis B y la evaluación se realiza
en términos de la hipótesis A sobre la B, el resultado sería 10/90.

Imaginemos ahora que la valoración inicial de los analistas para las dos hipótesis A y B es de 25% y
75% respectivamente. Que se valoran cinco evidencias diferentes como especifica el siguiente
cuadro y que se quiere obtener la razón de la hipótesis B sobre la hipótesis A

 
 
 
 
 
Los cálculos se efectuarían como sigue:

El resultado obtenido en términos de razón debe ser convertido después en porcentaje de


probabilidad. Para ello, nuestro nuevo denominador será la suma del numerador y el denominador
del resultado inicial y nuestro nuevo numerador será 100. En este caso obtendríamos 100/16 o, lo que
es lo mismo, 6.25. El siguiente paso es multiplicar el numerador y denominador de nuestro resultado
inicial por esta cantidad recién obtenida. El resultado final sería:

Hipótesis A: 15* 6.25 = 93.75

Hipótesis B: 1* 6.25 = 6.25

15. ANÁLISIS DE PATRONES EN INTELIGENCIA


 
15.1. Tipos de patrones
Un patrón es una regularidad perceptible en el mundo natural o en un diseño hecho por el ser
humano. Los patrones naturales pueden observarse directamente con nuestros sentidos. Tal es el
caso, por ejemplo, de meandros, simetrías, espirales, ondas y un largo etcétera. Por otro lado,
existen patrones artificiales que sólo pueden ser observados mediante el análisis profundo.
Evidentemente la búsqueda de este tipo de regularidades es importante en el análisis de
inteligencia porque nos ayuda a predecir eventos y sucesos.

Existen muchos tipos de patrones, pero, desde un punto de vista metodológico, podemos dividirlos
en dos grupos: patrones básicos y patrones híbridos. La conjunción de dos o más patrones básicos
da como resultado un patrón híbrido.

En inteligencia normalmente se busca conseguir un patrón híbrido llamado patrón de actividad,


que, a su vez, es la fusión de dos patrones básicos: el patrón espacial y el temporal. Otro ejemplo
podría ser el patrón clima que es, a su vez, la conjunción de patrones básicos como la temperatura,
las precipitaciones o incluso la humedad. Evidentemente la forma de estudiar cada patrón viene
determinada por su propia naturaleza y la naturaleza de los datos. Así por ejemplo, para analizar un
patrón de actividad nos vemos obligados a recurrir a la estadística espacial y para analizar un
patrón clima debemos recurrir obligatoriamente a las series temporales.

Hoy en día los patrones híbridos se han hecho populares entre muchos analistas. Pero debemos
tener en cuenta que el estudio de estos patrones está siempre restringido por el tipo de información
de la que disponemos y su utilización práctica. Elaborar y pensar en complejos patrones híbridos
cuando la dificultad de implementarlos es elevada debido a la falta de información no deja de ser
un juego teórico que no nos conduce a soluciones prácticas.

El estudio y análisis de patrones es una parte esencial en la formación de cualquier analista de


inteligencia. Su espectro de aplicación abarca desde el diseño de operaciones de la guerra
convencional hasta los conflictos asimétricos como la lucha de guerrillas, el terrorismo o diferentes
tipos de insurgencia.

La finalidad de esta técnica es realizar una labor prospectiva a corto o medio plazo que ayude a la
toma de decisiones y a la implementación de una táctica precisa y acertada maximizando la
utilidad de los medios materiales y humanos disponibles. De igual forma, suministran información
para mantener en todo momento una orientación proactiva y no reactiva. Entre otras utilidades
podemos destacar la predicción de futuros ataques o emboscadas, posibles rutas, el
establecimiento de índices de riesgo zonal y los cálculos de tiempos de respuesta estimados.

Tradicionalmente el análisis y la visualización de patrones ha sido un campo abonado para los SIG
(Sistemas de Información Geográfica) y los diferentes software de inteligencia convencionales. El
hecho de poder realizar dichos análisis con un software libre como R, no ha sido explorada hasta
épocas recientes y es poco utilizada hasta el momento, pero puede servir de alternativa eficaz para
el oficial de inteligencia.
 
 
 
 
 
 
 
 
 
15.2. Geocodificación y visualización de Hot Spots utilizando R-Studio
Parece claro que, a día de hoy, R se ha convertido en la herramienta OPEN SOURCE de referencia
para análisis estadístico. R es conocido como un potente lenguaje extensible y relativamente rápido
de programación estadística, también como proyecto de software de código abierto con una
interfaz de  línea de  comandos  multiplataforma y, en definitiva, como un entorno consistente para
el desarrollo de procesos de cálculo estadístico y análisis de datos. 

Lo que es menos conocido es que R es también una herramienta que, debido a su extensibilidad,
puede comportarse como un sistema de información geográfica (SIG) con todas las funciones de
análisis en el sentido pleno de la palabra, aunque sus capacidades de visualización y
representación sean bastante más limitadas que las de los SIG tradicionales como es el caso del
ArcGIS de ESRI. 

El paquete ggmap y su uso combinado con los mapas estáticos de Google Maps o de Cartociudad
(éste último para el caso concreto de España) permiten la visualización de información espacial. La
idea básica que subyace en el ggmap es tomar una imagen de un mapa descargado y trazar en
primera instancia una capa de contexto utilizando ggplot2 para, a continuación, trazar capas de
contenido adicionales de datos o estadísticas en la parte superior del mapa. El proceso, pues, se
divide en dos fases. En una primera fase se descarga la imagen y se le da formato para el posterior
trazado con la función get_map. En la segunda fase se construye la trama con ggmap y qmap
(Kahle y Wickham, 2013, p.146).

Los Hot Spot son una técnica de análisis popular que tuvo su origen en el ámbito policial y se utiliza
para ayudar a identificar dónde dirigir los recursos policiales en aras de la reducción de la
delincuencia. En esencia, es una técnica predictiva que, basándose en datos retrospectivos, nos
ayuda a identificar las áreas con una alta concentración de la delincuencia. Básicamente, y tal y
como lo define Lawrence W. Sherman, un “Hot Spot” o punto caliente es un área reducida donde la
frecuencia de los delitos o eventos estudiados es lo suficientemente grande como para establecer
predicciones, al menos durante un período de un año. (Sherman, 1995, p.36). Su aplicación al
ámbito militar parece obvia y más aún cuando hablamos de los modernos conflictos asimétricos.

Un punto importante a tener en cuenta a la hora de la interpretación es que los Hot Spot no
necesariamente se identifican con los valores más altos, sino que se basa en la proximidad entre
sucesos o eventos.

Aunque normalmente en inteligencia se proporcionan directamente las coordenadas de longitud y


latitud, me parece interesante recordar al lector que R también dispone de paquetes para la
geocodificación de direcciones. Existen, al menos, dos opciones para la geocodificación. La
primera de ellas se basa en utilizar el paquete ggmap junto con los mapas de Google y la segunda
utiliza el paquete RJSONIO junto con los mapas de Cartociudad (éste último para el caso concreto
de España).

 
 
 
 
 
 
 
Una vez obtenidas las coordenadas de longitud y latitud mediante una de las dos formas de
geocodificación, estamos en condiciones de poder dibujar los mapas y visualizar los “Hot Spots”.
Para ello podemos apoyarnos en los paquetes ggmap y ggplot2.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
El primer mapa es una visualización sencilla de los casos mediante puntos, el segundo, en cambio,
incorpora un gradiente a color, que nos indica el Hot Spot propiamente dicho. En este caso se sitúa
claramente en uno de los lados de la ría de Vigo
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
15.3. Cálculo del centro de gravedad
Antes de continuar se hace necesaria una pequeña aclaración para aquellos lectores más
familiarizados con el vocabulario de la estrategia militar, pues el término utilizado puede prestarse a
confusión. Aquí entendemos el centro de gravedad en términos de localización y no en el sentido
que ya le diera Clausewitz, que definió el centro de gravedad como “el centro de todo el poder y
movimiento de lo cual todo depende…el punto sobre el cual deben ser dirigidas todas nuestras
energías”.
El cálculo del centro de gravedad es una técnica comúnmente utilizada en investigación de
operaciones militar con el fin, por ejemplo, de elaborar una estrategia de localización para una
base logística o un hospital militar (Role 3)[8] teniendo en cuenta la distancia a los diferentes frentes
de batalla y los tiempos de llegada y ponderándolos según su importancia relativa.
Pero más allá de sus usos en estrategia de localización, el centro de gravedad también puede dar
al comandante en el área de operaciones una idea precisa de donde se sitúa el centro geográfico
de todas las incidencias o cuánto de dispersas están.
Básicamente hay dos procedimientos para calcular el centro de gravedad: utilizando la media o la
mediana. El primer procedimiento identifica el centro geográfico de un conjunto de observaciones
y el segundo identifica la localización que minimiza la distancia euclídea de un conjunto de
observaciones.
Hay que tener en cuenta que la selección del procedimiento no es ni mucho menos arbitrario, pues
la presencia de “outliers” hace que la media arroje unos resultados completamente distorsionados
(recordemos que la media es muy sensible a la presencia de datos atípicos) y, por tanto, se hace
necesaria la implementación de la mediana.
Hay ocasiones en las que basarse estrictamente en las coordenadas geográficas no siempre resulta
útil o significativo porque el número de incidentes puede ser muy elevado en una coordenada y
prácticamente insignificante en otra y, por tanto, lo lógico es asignar diferentes pesos o
ponderaciones.
A modo de ejemplo, siguiendo con el análisis anterior, se han calculado y graficado el centro de
gravedad mediante ambos procedimientos para poder observar así las diferencias.
Provincia Procedimiento Coordenada1 Coordenada2  
    Longitud Latitud  
PONTEVEDRA Media -8.72835 42.2856  
  Mediana -8.73273 42.236  
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Como podemos observar, los resultados aplicando uno y otro método difieren bastante por la
presencia de datos extremos o outliers. En concreto, el caso que hemos visto anteriormente es
significativo porque, a pesar de que el centro de gravedad calculado mediante la media no está
muy alejado del centro de gravedad calculado mediante la media hablando en términos de
distancias, sí es significativamente diferente en términos geográficos porque se trataría de escoger
un lado u otro de la Ría de Vigo. Y esto, hipotéticamente, para un comandante en un área de
operaciones fronteriza bien podría suponer pasar de un país a otro.
 
 
 
15.4. Predicción de pautas espaciales (PAI)
La predicción de pautas espaciales es una de  las  técnicas  emergentes  en  el  campo  del análisis
de patrones espaciales. Aunque originariamente proviene del ámbito del análisis criminal su
aplicación a otros campos como los escenarios bélicos parece coherente y útil para proporcionar
inteligencia accionable en tiempo y forma adecuados para la toma de decisiones del comandante
en el terreno de operaciones.
Para la elaboración  de  este  apartado  se  ha  seguido  la  línea  del  trabajo  de  Spencer Chainey,
Lisa Tompson y Sebastian Uhlig, que, basándose en las ideas de Browers, desarrollan la  elaboración 
de  una  metodología, proponiendo un índice de predicción basado en los hot spots; el
denominado Prediction Accuracy Index (PAI).
En los últimos años, los analistas de inteligencia han comenzado a estudiar medidas que se pueden
utilizar como complemento de los Hot Spots. Una medida obvia sería la tasa de éxito, esto es, el
porcentaje de nuevos ataques que se producen dentro de las áreas donde se ha predicho que
ocurrieran gracias a ataques anteriores. Pero es fácil de entender que esta medida no toma en
cuenta el tamaño de las áreas en las que se prevé que se produzcan esos ataques. Esto hace que
las conclusiones sean de poca utilidad para los profesionales que, entre otras cosas, tienen la
necesidad de construir una planificación táctica a corto plazo y  saber dónde dirigir sus recursos
para maximizar su utilidad en términos de optimización.
La utilización de esta técnica hace necesario el haber calculado antes los Hot Spots. Se trata, pues,
de una técnica dependiente de la anterior.
El Prediction Accuracy Index (PAI) queda formulado de la siguiente manera:
 

PAI=
Donde:
n = número de incidentes dentro del hot spot objeto de estudio,
N = número de incidentes dentro de la zona de estudio,
a = área del hot spot objeto de estudio y
A = área de la zona de estudio.  
 

PAI= =
El resultado del proceso se resume en un total de seis ataques en el periodo de estudio, de los
cuales 4 se dieron dentro del Hot Spot, con un área (a) de 3.314,40Km2 dentro de una zona de
estudio (A) de 14.926 Km2. Finalmente podemos proceder al cálculo de la ecuación PAI.
Este valor PAI nos indica que se ha conseguido predecir ((n/N)*100) un 66,66% de los incidentes
totales, dentro del 22,20% ((a/A)*100) del área total de la zona de estudio.
 
 
 
15.5. Patrones temporales
La contextualización temporal y horaria puede realizarse de una forma simple con R que, además
de graficar los descriptivos, nos da la oportunidad de recodificar nuestras variables originales si esto
fuese necesario. Es decir, por poner solo un ejemplo, puede que al comandante en el teatro de
operaciones no le interese saber la hora exacta de las observaciones sino si estás se han producido
en horario de mañana, tarde o noche. Ello implicaría tener que recodificar nuestra variable original
horaria en otra con tres categorías.

No obstante, las capacidades de visualización en R en este tipo de patrones son más limitadas que
en un SIG tradicional. Hay que tener en cuenta que los Hot Spots pueden tener un componente
dinámico que los haga variar de un periodo temporal a otro. Los incidentes en el teatro de
operaciones pueden sufrir cambios significativos en cuestión de semanas. En los SIG podemos
observar esas variaciones temporales en forma de animaciones. Esto último es de especial utilidad a
la hora de realizar presentaciones o un briefing informativo para los superiores encargados del nivel
estratégico. Con la ayuda de R solo podemos ir presentando las imágenes de los diferentes mapas
en diferentes periodos de tiempo, pero básicamente la información es la misma.

 
 
 
 
 
 
 
 
 
 
 
También se pueden realizar patrones temporales con la ayuda de Excel pero esto solo sirve para los
casos más sencillos en los que, muchas veces, ni tan siquiera es necesario tratar los datos o
recodificar las variables. Debajo aparece la frecuencia de número de número de llamadas
interceptadas durante las cuatro semanas de un mes

 
 
 
 
 
 
 
 
 
16. CASOS HISTÓRICOS DE ANÁLISIS
16.1. Lanzamiento de cohetes V-2 sobre Londres
Durante el bombardeo intensivo de los alemanes en el sur de Londres con los temidos cohetes V2,
en la II Guerra Mundial, unas cuantas zonas fueron alcanzadas repetidamente, mientras que otras
quedaron indemnes. En un principio, este hecho hizo sospechar a la inteligencia británica que los
lugares alcanzados habían sido escogidos premeditadamente así como descartados aquellos que
no habían sufrido los bombardeos.  Basándose en esta premisa, elaboraron la hipótesis de los
alemanes tenían espías que informaban sobre las coordenadas exactas de los potenciales
objetivos.
Sin embargo, gracias al cálculo de probabilidades, la inteligencia británica se dio cuenta de que
había caído en un grave error. Había sido presa de la “falacia del tirador de Texas” intentando
buscar patrones en sucesos completamente aleatorios. ¿Cómo pudo llegar la inteligencia británica
a esta conclusión?
 
“Profesor universitario se ofrece al Gobierno de Su Majestad para predecir dónde los aviones de la
Lutwaffe descargarán sus bombas en su próxima incursión”. Firmado, John Haldane. Para ello,
precisaba en su anuncio, publicado en 1940, necesitaría tres días y una mínima información
estratégica por parte del Alto Estado Mayor Británico. Este anuncio en el periódico hizo que
rápidamente la inteligencia británica se pusiera a investigar. El padre de Haldane había prestado
servicios eficaces al Ejército británico durante la I Guerra Mundial y eso era un punto a su favor. Tras
hacer sus deberes y una investigación en profundidad la inteligencia británica contactó con el
profesor Haldane.
 
Haldane dividió el mapa de Londres en cuadrículas y realizó un conteo de las bombas que habían
caído dentro de cada sector. Típicamente la caída de una bomba podía interpretarse como un
experimento tipo Bernoulli donde p significaba la probabilidad de éxito y (1-p) o q la probabilidad
de fracaso. La repetición de bombardeos hacia que la distribución originaria de Bernoulli se
convirtiese en una distribución Binomial. La probabilidad de que una bomba cayera en uno de los
300 cuadrantes era de 1/100. Además, se sabía que el número de proyectiles que había impactado
era de 200. Asi que los parámetros de la distribución binomial serían n=200 y p=1/300.
Ahora bien, la teoría de las relaciones entre distribuciones de probabilidad nos dice que una
distribución tipo Binomial que modela éxitos o fracasos puede aproximarse a una distribución
Poisson siempre que el número de casos sea suficientemente elevado y la probabilidad
suficientemente pequeña. En tal caso el parámetro λ de la distribución vendría dado por:
λ= np= 200*1/300= 200/300=0.666

Si la distribución de los datos de las bombas que habían impactado en Londres se asemejaban a la
de una distribución de Poisson de parámetro λ=0.666, significaría que los bombardeos eran
completamente aleatorios.

A continuación, mostraré con la ayuda del software estadístico R el procedimiento. Es importante


tener en cuenta que por aquél entonces no se disponía de este tipo de software y los cálculos
debían realizarse, en su mayoría, a mano.

Sectores Número de  
Bombas V2
A1 109  
A2 65
A3 22  
A4 3  
A5 1
 
 
 
 
 
 
 
El programa arroja los siguientes resultados:

 
 
 
 
 
 
 
 
 
Como podemos observar, los datos se ajustan perfectamente a una distribución de poisson con lo
que la inteligencia británica pudo concluir que los bombardeos eran completamente aleatorios y
no obedecían a ningún patrón ni objetivos predeterminados.
 
16.2. Estimación de la producción de tanques Panzer V nazis
¿Cuál era el problema?
Corrían los años 1942-1943, y aunque eran bastante menos en número y capacidad económica, la
imagen que se tenía era que los alemanes y sus partidarios eran imparables y que su capacidad
militar era imbatible. Los Aliados (EE.UU., Reino Unido, Francia los días impares, etc.) no terminaban
de reducir al bando nazi y, sobre todo, habían perdido el relato de la guerra (mucho más
importante a veces que ganar la guerra, que se lo digan a la pobre URSS), por lo que la sensación y
el ánimo, tanto de las tropas como de la población, era de absoluta derrota. Dado que la
maquinaria de propaganda alemana se afanaba en hacer gala de su supuesta capacidad militar,
el principal objetivo de los servicios de inteligencia aliados era, amén de ser capaces de optimizar
recursos humanos y económicos, el de ser capaces de cuantificar cuáles eran los verdaderos
recursos y efectivos militares con los que contaba Hitler.
A finales de 1942 e inicios de 1943, la unidad de inteligencia llamada “Economic Warfare Division of
the American Embassy” se percató de que la metodología con que las unidades de inteligencia
estaban intentando ganar una guerra del siglo XX eran propias del siglo XIX. Entre otros tantos
errores, los modelos de estimación que estaban usando para cuantificar el potencial militar alemán
eran muy poco precisos, basados en HUMINT (información de espías sobre el terreno, interrogatorios
y rumores), hacía que la maquinaria alemana pareciese un monstruo mucho más grande de lo que
era en realidad. Ingleses y americanos habían sido capaces de mejorar técnicamente los tanques
“Panzer” nazis pero estaban atemorizados por la capacidad militar que Alemania decía estar
desarrollando con su nuevo modelo Panzer V. En concreto, la inteligencia aliada estaba muy
interesada en conocer la capacidad de producción de dichos tanques y de llantas de neumáticos
que Alemania era capaz de producir en un periodo de tiempo, ya que habían observado que
dichos tanques eran muy pesados (por el blindaje que llevaban) y sospechaban que Alemania
tardaría bastante tiempo en producir cada unidad.

¿Y si pudiesen realizar una estimación “aceptable”? En ese caso, podrían ser capaces de trazar una
estrategia conjunta (como así hicieron en la Conferencia de Casablanca en 1943, con algunas de
estas estimaciones) para decidir dónde atacar, con qué frecuencia debían realizar los ataques y
que respuesta podían esperar de los alemanes.

¿Cómo lo hicieron?

Imaginemos que tenemos apuntados en un cuaderno los números de serie ordenados de varios
tanques panzer que nos han sido proporcionados, donde X1 es la menor y Xm la mayor. La primera
observación que podemos hacer es que, lógicamente, N (que es el número real de tanques),
probablemente será mayor que Xm. El número total real de tanques siempre va a ser mayor o igual
al número de fabricación más alto observado. Es decir Xm, multiplicado por alguna cantidad que lo
haga más grande. Expresado matemáticamente, una idea podría ser la siguiente:

 
 
Esta fórmula nos dice que, según vamos apuntando cada vez más números de fabricación de
tanques (es decir, m va creciendo y Xm probablemente  también lo haga), el número (m+1)/m va
siendo cada vez más pequeño. ¿Qué sucedería si pudiésemos apuntar todos los tanques, el número

total real de tanques alemanes?

 
 

¡Maldición! Lo que significa la fórmula de arriba es que, aun


apuntando el número real total de tanques, nuestra estimación siempre será deficiente. En
estadística, todo estimador que merezca la pena debería cumplir que, si estuviera en nuestra mano
poder medir todo lo medible, el estimador y el valor real deberían coincidir. A esto se le llama
estimador insesgado. ¿Cómo lo solucionamos? Simple. Restándole ese exceso de una unidad. El
estimador del número total de tanques quedaría así:
 
 

 
Después de la guerra, los aliados tuvieron acceso a los datos reales de fabricación y comprobaron
que, efectivamente, la estimación que habían realizado basándose en los números de serie de
fabricación de los tanques era más precisa que la que estaba basada en información de fuentes
humanas.
FECHA ESTIMACIÓN NUEVA NÚMERO  
ANTERIOR DE ESTIMACIÓN REAL DE
LA BASADA EN TANQUES
INTELIGENCIA NÚMEROS Como observamos en la tabla, en
junio de 1940 la inteligencia aliada
ALIADA DE SERIE
creía que los alemanes habían
jun-40 1000 169 122 fabricado 1000 tanques. Esa
cantidad, sumada a la que
jun-41 1550 244 271 pensaban que habían fabricado
ago- 1550 327 342 en junio de 1941 y en agosto de
1942, hacían pensar a los aliados
42
en la capacidad casi
indestructible del III Reich. La estimación estadística hizo que se tuviese una aproximación mucho
más precisa, como luego se pudo comprobar al incautar los documentos oficiales de las fábricas
alemanas. Fueron estas estimaciones las que permitieron saber en febrero de 1944, meses antes del
desembarco de Normandía, la cantidad de tanques Panzer V que los alemanes podían
movilizar hasta aquella zona. Gracias a una simple fórmula, gracias a un simple conteo de tanques,
supieron que Hitler podía ser derrotado.
 
17. LINK ANALYSIS: Análisis organigrama grupo terrorista utilizando i2 Analyst´s Notebook
 
El link analysis es una de las técnicas de análisis más conocidas aunque solo sea por sus apariciones
en el cine. Habitualmente podemos observar en las películas cómo los agentes colocan en una
pizarra las caras de los sospechosos de pertenecer a una organización criminal y van situando a
cada cual en su puesto dentro de la organización y las relaciones entre ellos. Aunque, para ser
sinceros, lo de la pizarra se ha quedado antiguo y ahora todos los software de inteligencia permiten
realizar un link análisis incluyendo las fotos de los sospechosos, las relaciones y diversos atributos.
 
La finalidad del link analysis es ilustrar gráficamente las asociaciones conocidas y presuntas de
individuos entre sí y entre o con otras entidades u organizaciones. Este tipo de técnica proporciona
una visión panorámica de las relaciones entre sujetos en una organización y nos ayuda a
comprender sus capacidades estratégicas, tácticas y operativas. A partir de esta visión de conjunto
podemos obtener inteligencia en tiempo y forma oportunos para mantener una posición proactiva.
 
Por describir solo un ejemplo de la utilización de esta técnica, la cuarta división de infantería del
Ejército de los EE.UU logró capturar a Saddam Hussein gracias al link analysis realizado por dos
jóvenes analistas de inteligencia , que elaboraron dicho análisis sin apenas medios y sin la ayuda de
ninguno de los modernos software en inteligencia. Realizaron el trabajo de forma tediosa, con el uso
de post-it en un gran mural, pero el tiempo y la energia dedicados podrían haberse reducido
sustancialmente con el uso de los modernos software y las bases de datos actuales.
Según describe Jerome Clauser, la técnica requiere la preparación de una matriz de asociación y
un diagrama basado en dicha matriz. Una línea continua indica la relación confirmada entre dos
sospechosos y una línea puntuada representa la sospecha de relación pero no su confirmación. La
carencia de líneas indica, como es evidente, la ausencia de relación. Este tipo de análisis es
particularmente útil cuando se trata de vincular varias organizaciones. (Clauser, 2008, p.133) Por
supuesto el link analysis puede ir modificándose en función de la nueva información que va
entrando.
 
Hubo una época que, para los servicios de inteligencia, la interceptación de comunicaciones junto
con la utilización de esta técnica era la panacea. Lo grupos terroristas aparecían como una mina
esperando a que se le extrajera el metal precioso. Interceptar sus comunicaciones y analizar su
estructura jerárquica mediante el Link análisis para saber quién era quién y qué lugar ocupaba en la
cadena de mando no era muy difícil con la ayuda de los modernos sistemas de interceptación de
comunicaciones como los de la NSA. De esta forma resultaba más fácil atacar su estructura y
organización hasta el punto de dejarla en una situación cercana a la inoperatividad. El mismo
Osama Bin Laden aprendió a dejar a un lado el móvil y el ordenador para utilizar correos humanos.
 
Para realizar correctamente un link analysis debemos seguir las siguientes pautas:
 
1. Dibujar un organigrama completo de la organización a partir de la información
disponible. En el i2 se escogen entidades, esto es, iconos de individuos, que luego se
arrastran a nuestro organigrama. A cada individuo, además, se le pueden añadir
diferentes atributos que condensan toda la información que tenemos sobre él. Algunos
atributos son el alias, tenencia o no de armas, drogas, número de pasaporte, etc.
2. Las relaciones confirmadas entre individuos se grafican con una línea y las que no están
confirmadas con una línea punteada. En el i2 se llaman flechas de asociación y hay de
diferentes tipos.
3. Identificar a los sujetos que toman decisiones en la organización y a aquellos que, aún no
teniendo poder de decisión, proporcionan información y acceso a los primeros. Se suelen
señalan con una estrella los primeros y con un rombo los segundos, aunque,
evidentemente, esta tipología puede variar dependiendo de la organización.
4. Establecer tipos de influencia (alta, media o baja) con flechas de diferentes colores. Las
flechas en doble sentido suelen señalar que un individuo tiene influencia directa sobre
otro y viceversa.
5. Identificar a los miembros clave de la organización, esto es, aquellos encargados de la
logística, las operaciones, la información, etc.
 
 
 
 
 
 
 
 
 
Visualizar el organigrama de una organización criminal o terrorista puede ayudarnos a tener una
visión de conjunto de la misma, pero, desde luego, no nos va a proporcionar por sí sola la
inteligencia que necesitamos. Para poder obtenerla, el analista debe saber hacerse a sí mismo las
preguntas adecuadas teniendo siempre en cuenta que el propósito final es actuar de algún modo
sobre esa organización para lograr los intereses que se persiguen. La primera pregunta e inevitable
(añadiría yo) es quién la dirige y quién da las ordenes. ¿Es la misma persona? A veces puede
suceder que alguien dirige en la sombra y otro es el que realmente da las ordenes. En caso de que
esta persona dejará de dirigirla, ¿Quién ocuparía su lugar? ¿Alguién de la propia organización o
alguien externa a ella?
La lógica subyacente detrás de la “estrategia del líder” o kingpin strategy es que la eliminación o
captura de éste debe, al menos a corto plazo, dificultar el funcionamiento operativo y estratégico
del grupo terrorista. Además, dependiendo de las características del líder y su pensamiento
estratégico, el proceso de aprendizaje de la organización puede introducir importantes
modificaciones en el ciclo o verse severamente comprometido[9]. Dependiendo del caso, las
reacciones a la desaparición del líder pueden inducir a la desconfianza, las luchas internas, el paso
del terrorismo a otras formas de criminalidad y la captación de “descontentos” por los servicios de
inteligencia. Todo esto puede llevar finalmente al colapso de la organización con numerosas vías de
agua e incapaz, ya, de mantenerse a flote. Pero no siempre sucede así ni todo se reduce a eliminar
una pieza del puzle. De hecho, a principios de los 90, los servicios de inteligencia y las distintas
agencias antidroga creyeron haber encontrado la panacea con esta nueva estrategia. Los cantos
de sirena afirmaban por todos lados que bastaba con eliminar unos cuantos líderes para dar al
traste con cualquier organización bien fuera ésta de carácter terrorista o criminal. A veces,
funcionó, pero los acontecimientos posteriores confirmaron que aquellos cantos de sirena eran solo
eso y que las organizaciones se mostraban resistentes a desaparecer incluso sin tener un líder bien
definido. De hecho, los grupos terroristas comenzaron a idear un plan B para que la maquinaria de
la organización siguiera en funcionamiento aun careciendo de una cabeza claramente definida.
(Somiedo, 2015, p.19).
Otra pregunta que debemos hacernos es cuál es el centro de gravedad de la organización, es
decir, aquellos elementos que permiten a la organización continuar operando. En algunos casos
puede ser la logística, en otros la economía, en otros la información o quizás una mezcla de todos.
Esto es importante para los servicios de inteligencia de cara a desarticular una red u organización.
Por ejemplo, imaginemos que en el organigrama tenemos un sujeto que se encarga de los
explosivos en una organización que se dedica a poner artefactos explosivos. Está claro que, si
eliminamos o dejamos fuera de juego a ese individuo, aseguraremos la inoperatividad de la
organización, al menos por un tiempo. A veces basta tocar la pieza adecuada, el centro de
gravedad, para dejar inoperativa cualquier organización delictiva. Éstas y otras muchas preguntas
son las que deben hacerse los analistas para lograr sacar provecho de esta técnica. Aquí entrarán
en juego no solo los conocimientos del analista sino también la experiencia atesorada.
 
18. ANÁLISIS GEOPOLÍTICO-MILITAR
18.1. Estudio de factores
Para elaborar este apartado me he basado y he sintetizado las ideas contenidas en el Método de
Análisis Geopolítico-Militar del Centro Superior de Estudios de la Defensa Nacional (CESEDEN). Para
un estudio de mayor profundidad recomiendo al lector acudir a la fuente original.
 
El estudio geopolítico de una zona determinada, que puede ser una región o una suma de regiones
un país o conjunto de países, es un documento que suele estar integrado en el marco general de la
información estratégica.
 
La responsabilidad de su elaboración puede recaer sobre los servicios de inteligencia estratégica o
directamente sobre las Fuerzas Armadas. El objeto de esta información puede responder a varios
motivos, desde el mantenimiento actualizado de datos de aquellos países comprendidos dentro de
un área geopolítica de interés, a la preparación de un dossier que responda a una necesidad
concreta de información del Mando en un momento determinado (por ejemplo, una visita al país a
estudiar), pasando por la realización de Estudios Geopolíticos en determinadas zonas calientes del
mundo.
En esencia, el método geopolítico-militar debe proporcionar un conocimiento sistémico (sistema de
relaciones tanto políticas como militares) de un estado con el resto de su área geopolítica. En un
caso real (no académico) los datos necesarios serían proporcionados por toda clase de fuentes,
incluyendo los Servicios de Inteligencia y pasando por todo  tipo  de  anuarios  y trabajos
estadísticos, estudios económicos, geográficos, etc. Dentro de los análisis realizados deben
considerarse dos casos diferenciados, el primero de ellos responde a lo que podríamos considerar
estudios de carácter permanente, en los cuales se valorarán, sobre  todo, aquellos  factores  que 
tengan  permanencia  en  el tiempo. En cambio, en el segundo caso, de carácter temporal, lo que
deberá primar será la “actitud” en un momento dado del país en cuestión como consecuencia de
factores temporales y de ciertas variables.
En este capítulo sintetizamos y resumimos las ideas de los manuales de geopolítica militar clásicos,
en especial los elaborados en el Centro Superior de Estudios de la Defensa de España, que nos
sirven de referencia. Para ello, haremos referencia a cinco factores: factor geográfico, social,
político, económico y militar.
• Factor geográfico
Este aspecto, con claras connotaciones geoestratégicas y geopolíticas, es el que nos proporciona
el cuadro del  espacio  geográfico  en  el  que  se  desarrolla  y  promociona  la actividad humana.
(entorno, ubicación, posición, vecindades, conflictividad, etc.). En Geopolítica se entiende por
Espacio el ámbito geográfico, el territorio en que vive un Estado, constituyendo uno de los factores
de su potencial.  Pero esta extensión no debe ser considerada únicamente por su  mayor  o  menor 
magnitud,  sino  influida  por  la influencia  recibida  por  la  acción  de  otros  factores,  que  como 
la  posición,  el  clima,  la configuración,  etc,  condicionan  el  desenvolvimiento  más  o  menos 
favorable  o desfavorable  de las agrupaciones humanas y, por ende, de los Estados. 
Así,por  ejemplo,  Zambia,  Mongolia,  Afganistán  o  Bolivia  son  cuatro  países interiores de
extensión similar (excepto Mongolia). Sin embargo, el denominador común se disuelve dentro de su
marco geopolítico específico:
Zambia es un país políticamente joven con vecinos      sumamente conflictivo (Angola,
Namibia, Zaire) y situado en el corazón de una "zona caliente": El Cono Sur Africano.
Mongolia es un país políticamente estable pero con un innegable carácter de "colchón" o "Tierra
de nadie" entre China y la Federación Rusa, entre los que debe mantener un exquisito equilibrio.
Afganistán era el flanco sur de la expansión soviética, acaba de sufrir la terrible prueba de un
enfrentamiento armado que le ha debilitado y dividido políticamente y está flanqueado por dos
vecinos, Irán y Pakistán, inmersos  en  crisis  permanentes.
Bolivia se halla rodeado de países de similar lengua e idiosincrasia pese a lo cual mantiene con sus
vecinos el viejo conflicto de su salida al mar.
 
Similares diferencias geopolíticas podemos encontrar entre países cuyo nexo común sea su carácter
insular: Gran Bretaña, Japón, Nueva Zelanda o Filipinas. Esta particularidad geopolítica, que
podríamos considerar como una "tercera dimensión" es extensible asimismo a Zonas o Áreas y
Regiones geográficas determinadas, incluso de carácter multinacional, que presentan similitudes
geográficas y en los que la geopolítica aporta notables diferencias de apreciación. Tal es el caso
de los mares interiores: Mediterráneo, Mar del Japón, Espacio Báltico Norte, Mar de Hudson, Mar de
las Célebes y Caribe. Si nos detenemos unos minutos y pensamos sobre estos ejemplos nos
aparecerán sustanciales diferencias.
Por Zona o Área  geográfica entendemos  un  territorio,    generalmente  extenso,  delimitado  por 
su  situación  o  por  su  Historia,    por  ejemplo,    Europa  Occidental,  Oriente  Medio. Por Región
entendemos un  territorio  en  el  cual  existen  marcadas condiciones  de  homogeneidad,      es 
decir,    una  situación  análoga  de  su  medio ambiente,    en  todas  las    partes  de  la  misma,   
que  permite  que  los  hombres,    el armamento  y  el  material  de  un  Ejército  se  encuentren,   
teóricamente,    en las mismas condiciones en toda ella.
 
La posición en el globo terrestre no es indiferente, puesto que su situación en la esfera indica, por
ejemplo, su ubicación en una zona climática determinada que va a influir en su vegetación,
actividades de sus habitantes y en su carácter.
Además, y  según  la latitud,    existirán  circunstancias,    tales  como  la  duración  del  día  y  de  la 
noche,    y variaciones de las horas de orto y ocaso,  que combinadas con los restantes factores, 
tendrán influencia en muchas cuestiones importantes,  como la planificación y desarrollo de
operaciones militares,  aclimatación de las tropas,  etc.
A  este  respecto,    apuntaremos  que  Cohen al  estudiar  los  "Nudos  de  Poder"  de  los últimos
3000 años señala los siguientes: Mesopotamia, Nilo, Persia Occidental, Atenas, Cartago , Roma,
Bizancio, Bagdad, España, Portugal, Francia, Inglaterra y Alemania y concluye con la afirmación de
que dichos nudos se entrelazan y sustituyen pero  siempre  en  el  hemisferio  septentrional  y  en  la 
faja  de  los  30º  a  los  60º  de latitud.
La extensión de un estado,  en términos políticos y económicos no hace,  por sí sola que sea  más  o 
menos  fuerte,    ya  que  la  dimensión  territorial,    en  sí,    es  una  noción completamente  relativa 
y  no  existe  una  relación  automática  entre  la  extensión  del territorio  y  la  fuerza  política  del 
estado.  La  importancia  de  ese  estado  requiere  la combinación  de  la  extensión,  con  una 
población  suficiente  y  unos recursos que cubran la mayor parte de sus necesidades,  o una
posición privilegiada. 
En  términos  estratégicos,    los  grandes  territorios  políticos  gozan  de  una  cierta  ventaja que 
podríamos  calificar  de  "defensa  en  profundidad".  La  URSS  en  la  II  G.M.  pudo practicar  la 
retirada  sistemática  y  política  de  "tierra  quemada",    y  apoyándose posteriormente en Siberia, 
planear la reconquista. China,  de 1937 a 1945,  practicó la misma estrategia respecto al Japón.
Por otra parte,  la pequeña dimensión del territorio aumenta los problemas políticos de algunos 
estados.  Los  recursos  son  limitados  y  una  parte  de  la  población  tiende  a emigrar.  Algunos 
estados  de  pequeño  tamaño,      superan  esta  dificultad  mediante  la creación  de  un 
estructura  jurídica-económica  que  los  eleva  al  rango  de  "paraísos fiscales".
Otros estados de pequeña extensión logran mantenerse mediante la unión económica con  otro 
estado  vecino  de  mayor  dimensión,    lo  cual  les  permite  superar  las  propias dificultades,   
como  son  los  casos de San Marino (61 km2),  Liechtenstein (160 km2) y Mónaco (1, 89 km2) con
Italia,  Suiza y Francia. (VV.AA, 2001, p.159).
La situación continental u oceánica de la zona estudiada tiene también máximo interés. La
disposición de los continentes y de los océanos crea puntos de paso obligado,  zonas críticas para
las comunicaciones o para el acceso de una región a otra,  etc. La posesión de una de tales zonas
o puntos puede ser la principal baza con la que el país en cuestión puede  intervenir  en  el 
concierto  mundial.  Recordemos  el  caso  de  Turquía,      cuya posesión  de  los  estrechos  del 
Bósforo  y  de  los  Dardanelos  valora extraordinariamente su importancia en la OTAN,  por ser
dichos pasos el camino obligado de Rusia hacia el Mediterráneo.
 
En el sudeste asiático la actual disputa de las islas Spratley por Vietnam, Filipinas y China ha cobrado
importancia ante la posibilidad de controlar desde allí los pasos del Mar de China Meridional. Este
control afectaría a Japón, puesto que se realizaría sobre su ruta principal de petróleo procedente
de Oriente Medio.
El  mismo  comentario podemos hacer del dominio iraní sobre las islas del estrecho de Ormuz. En este
caso la repercusión  puede  ser  mundial.  La  antigua  Unión  Soviética  tuvo  tradicionalmente  un
carácter Continental a pesar de sus extensas fachadas marítimas. Pero éstas daban a mares 
helados  gran  parte  del  año.  Las políticas exterior y de defensa soviéticas estuvieron
condicionadas en gran medida por este aspecto
Una  Región  o  Zona  Clave  es  aquélla  que  tiene  un  singular  peso  específico  en  la valoración
militar de un país. En general,  los estrechos son zonas claves por su valor estratégico desde el punto
de vista del Factor Físico,  pues quien controla un estrecho controla  sus  comunicaciones.  Otros 
puntos claves son los istmos,  regiones estrechas por donde se aproximan las influencias de dos
mares y por consiguiente,  a menudo de dos mundos,  y por donde transcurren necesariamente las
comunicaciones terrestres.
Los Reductos son barreras que originan zonas de operaciones estáticas donde puede extremarse y
prolongarse una resistencia a ultranza,  como puede ser el caso de Asturias a nivel de España,  y la
Península Ibérica y Gran Bretaña,  a escala europea,  que sirven a  la  vez  de  cabezas  de  puente 
para  una  acción  posterior  hacia  el  resto  de  la  más continental.
Vistas  cuales  son  las  zonas  o  regiones  claves  desde  el  factor  físico,    al  analizar  los restantes
factores veremos que también pueden definir la existencia de otras regiones claves,  por su riqueza
económica,  por su concentración humana o por la concentración de los Órganos de Estado. Una
superposición de ellas nos dará como resultado una zona de excepcional valor, mientras que una
dispersión producirá la necesidad de elegir y ponderar su importancia relativa para dar una
prioridad a los posibles objetivos.
Se describirá la Red de Carreteras, la forma predominante (radial, reticular,  circular,  etc.) de las
principales carreteras,  analizando los puntos importantes que enlazan y el tipo  de  terreno  que 
atraviesan.  Es  también  importante  estudiar  las  conexiones  con carreteras de países vecinos, 
analizando su influencia como vía de penetración a una posible operación ofensiva enemiga. Hay
que recordar la gran importancia que tienen las carreteras para la alimentación logística de las
operaciones.
La  red  de  carreteras  debe  ser  analizada  en  su  conjunto,    siendo  posteriormente estudiada
por zonas. De las carreteras se determinará,  su tipo (Autopista,  autovía,  carreteras,  pistas,  etc) su
ancho,  trazado en general,  su naturaleza,  pendientes y su vulnerabilidad y, sobre todo, su
recuperabilidad o posibilidad de utilizar itinerarios alternativos. Del  tipo  de  red  deduciremos  los 
principales  nudos  de  comunicación  que  pueden constituir puntos críticos para la defensa.
La red de ferrocarriles también debe ser estudiada en detalle por su importancia para el transporte
logístico en grandes recorridos,  especialmente alejados del frente a pesar de la gran vulnerabilidad
que tiene este medio. Estudiaremos los diferentes tipos de vías,    tramos  electrificados  y  las 
posibilidades  de  enlazar  con  la  red  de  ferrocarriles  de  los países con frontera común.
Analizando el trazado de la red ferroviaria,  obtendremos los puntos clave de la red y la   
vulnerabilidad de la misma.
De la confrontación de los puntos clave ferroviarios con los de la red de carreteras se deducirán
cuales  son  puntos  fundamentales  para  el  transporte  terrestre,  indicando posibles zonas de
concentración de reservas, depósitos, etc.
También deben ser objeto de estudio los aeropuertos y aeródromos,  su situación,  su capacidad 
de  tráfico  aéreo,    sus  limitaciones  para  determinados  tipos  de  aviones,  número de pistas y
orientación de las mismas.
No se debe  olvidar  la  red  de  oleoductos,    describiendo  la  importancia  militar  de  los puntos
que une y determinando su interés y vulnerabilidad en tiempos de paz y en caso de conflicto tanto
por su trazado como por su procedencia.
Debe  hacerse  una  breve  reseña  sobre  la  posibilidad  de  emplear  las  cuencas  fluviales
navegables como vías de comunicación,  estableciendo su importancia en función de sus
posibilidades y de las zonas o puntos que unen. Por  último  se  estudiará  el  sistema  de 
comunicaciones  en  su  conjunto,    analizando  su complementariedad y los posibles enlaces entre
las diferentes redes.
La importancia que tienen las redes de comunicaciones para las operaciones militares por su
empleo para el movimiento  de  unidades,    apoyo  logístico  de  las  operaciones,    evacuación 
de  la población  civil, etc., deberá  tenerse  en    cuenta  a  la  hora  de  obtener  conclusiones
referidas a este aspecto del factor físico.

También consideraremos la red hidrográfica. Centraremos nuestra atención en las aguas interiores, 
los cursos de agua y las corrientes subterráneas  tanto  desde  el  punto  de  vista  de  las  aguas 
nacionales  como internacionales.

El estudio se efectúa de manera muy similar al de la Orografía,  es decir,  se hará,  en primer lugar, 
un estudio global que defina las grandes cuencas fluviales o lacustres, su  orientación general,  su
procedencia,  su estructura y sus rasgos peculiares,  y luego se abordará con más detalle el estudio
de cada unidad hidrográfica por separado. Tanto en el  estudio  global  como  en  el  de  detalle,   
se  irán  extrayendo  las  posibles conclusiones militares en relación con ellos. Es muy importante el
tener presente el doble valor de los cursos fluviales,  tanto en el aspecto de vías de comunicación, 
como en el de obstáculos para el movimiento.

Se verá también,  de una forma general,  la existencia o escasez de agua y su influencia en el


desarrollo de las distintas zonas,  los tipos de divisorias,  que pueden ser claras o difusas,  y las
características generales de caudal,  evaporaciones y aprovechamiento de la hidrografía. (VV.AA,
2001, pp. 20-36).

• Factor social
Se analizará  la  raza, etnia, religión, cultura,  idioma, es decir,  los rasgos iniciales que han
conformado al componente humano. En esta breve referencia histórica  se  aludirá  solamente  a 
los  hechos  que  hayan  tenido  influencia  en  la conformación  de  la  comunidad  política,    en 
su  articulación  interna  y  externa,    sus relaciones  con  otras  naciones,    vecinas  o  no,    para 
deducir  si  existen  constantes históricas de actuación.              
Tal vez el elemento más importante a analizar en este factor sea la población. Deben analizarse en
el tiempo su aumento o disminución, junto con sus porcentajes de crecimiento o decrecimiento, los
cambios en la media y la mediana de edad, la ocupación laboral y las costumbres de consumo,
ocio o moda. Se debe tomar nota de las migraciones dentro del país y de las emigraciones fuera de
él. La inmigración reviste una importancia especial en la actualidad por diferentes razones. También
se debe prestar atención a los cambios sociales correspondientes a ciertas fases del ciclo
económico. De igual forma se examina la política educativa y los cambios relativos a las
instituciones educativas así como las coberturas sanitarias de la población, en caso de que existan,
y los costes médicos usuales en caso de no existir dicha cobertura.

• Factor político
En esta faceta nos ocuparemos del poder real y soberano y de su estructuración, ámbito y
relaciones. Analizaremos,  en  primer  lugar,  el  tipo  de  sistema  político,    clasificándolo  de  una
forma  clásica  y  con  la  denominación  "oficial",    si  existe.  Definido  el  tipo  de  régimen político
se matizarán las características y peculiaridades y si se ha accedido a él a través de una evolución, 
una revolución o una ruptura. Se señalarán las relaciones de poder, el grado de participación
política y si existe regulación de la actividad económica.
A  continuación,  se  hará  una  referencia  a  los  aspectos  principales  de  la  constitución, 
matizando su inspiración,  ideales,  articulación estatal que preconiza,  papel reservado a las FAS., 
relaciones,  dependencias,  etc . Se  tendrá  en  cuenta  la  forma  de  articulación  de  los  poderes 
ejecutivo,    legislativo  y judicial,    lo  que  ayudará  a  concretar  aún  más  el  tipo  de  sistema 
político,    según  las atribuciones,  preponderancias y dependencias de cada uno de ellos.
Los partidos políticos, asociaciones de personas que profesan una ideología común, son entidades
de actividad política que sirven para movilizar a los ciudadanos, organizándolos para acceder al
poder con objeto de influir en la dirección política  del  país,    obrando  a  modo  de  intermediarios 
entre  las  bases  sociales  y  dicho poder.
Los elementos fundamentales de un partido político son su composición,  su ideología y su
organización. Actualmente, podemos distinguir cuatro sistemas de partidos políticos que
predominan en nuestro planeta:
• El  primero,    penetra  totalmente  en  la  estructura  social  del  país,    y  se  refleja  en  los partidos
políticos comunistas o en los partidos únicos con un líder carismático,  que,  por lo general,  es un
antiguo jefe de guerrillas o un político que ha arrancado  al país de un prolongado letargo.
• Los partidos dominantes no autoritarios,  que se presentan frecuentemente en los países de
soberanía reciente,  son,  por lo general,  movimientos nacionalistas transformados en partidos
políticos una vez alcanzada la independencia.
• El bipartidismo,  sistema tradicional de los países anglosajones,  y que solamente puede funcionar 
dentro  de  una  cultura  política  homogénea  y  con  una  oposición  leal.
• El multipartidismo o pluripartidismo, cuya eficacia depende del nivel de unidad político-cultural de
la sociedad nacional.
Es necesario  comprobar  y  matizar  la  actuación  de  los  distintos  partidos  en  el  juego político de
la nación,  que papel desempeñan,  cuál es su comportamiento,  actuación de la oposición con
una crítica constructiva o destructiva,  el poder paralelo que poseen y su oportunismo. Apuntar,
también, la  existencia  de  tensiones  y  divergencias,    la  cohesión  interna,  tendencias  en  el 
seno  de  los  partidos,    compromisos  con  otras  fuerzas,    disciplina  y comportamiento electoral.
Se  entiende  por grupos de presión a aquellos cuyo objetivo es la defensa directa e inmediata de
un interés concreto. Su intención no es la de dirigir el aparato  estatal,    sino  la  de  obtener  de  él 
determinadas  medidas  que  les  favorecen,  como subvenciones económicas,  permisos y
concesiones,  orientación de las leyes,  etc.
Estos  grupos  de  presión  pueden  ser culturales,    financieros,    religiosos,    políticos, etc  y en  ello 
engloban, generalmente, bancos, empresas  multinacionales, prensa, iglesias, movimientos
ecologistas,  profesionales,  estudiantes,  etc. Es  necesario  estudiar  su  origen,    motivaciones,   
tendencia,    apoyos  y  relaciones,  situación e ideología,  es decir,  en qué ámbito actúan,  quién
los apoya o impulsa,  y de qué  medios  se  valen  para  la  consecución  de  sus  fines 
(propaganda,    corrupción,  violencia,  etc.)
Dentro de los grupos de presión,  analizarse con especial atención los medios de comunicación
social, incluyendo sus inclinaciones políticas y sus accionistas mayoritarios.
 
• Factor económico
Este factor es, con diferencia, el más extenso y trabajoso de todos y requiere no sólo la obtención y
comparación de diversas fuentes informativas, sino, a menudo, el concurso de especialistas en
economía para analizarlos. Una explicación concienzuda y pormenorizada de todos los apartados
a tener en cuenta sobrepasaría, con mucho, los límites de este trabajo. Aquí nos limitamos a señalar
aquellos aspectos que consideramos más importantes.
Conviene recordar que No olvidemos que el factor económico es, a juicio de Bouthoul, fundador
del instituto francés de polemología, la principal causa de los conflictos bélicos. Y que como decía
Napoleón, la guerra se hace con tres cosas: dinero, dinero y dinero.
Aun rechazando el materialismo histórico y su concepción de la economía como fin y leitmotiv de la
vida de las personas y los estados, es  necesario reconocer  que  la  mayor  parte  de  las 
actividades  humanas  se  relacionan  directa  o indirectamente con la esfera económica. Es más, la
historia nos demuestra con repetida insistencia cómo la potencia económica de  un  país 
condiciona  su  capacidad  de  decisión  en  sus  relaciones internacionales y su grado de
dependencia su triunfo o derrota en un conflicto.
Se estudia el tipo de economía del país y el sistema económico en el que  se  apoya:  si  es  una 
economía  libre,    o  si  es  de  planificación  controlada  o centralizada,    grado  de  intervención 
del  Estado,      etc.  Se  debe  señalar  el  tipo  de planificación existente,  los organismos que la
controlan y la regulan. También se debe valorar  la  economía  estatal  y  la  privada,     
comparando  sus  volúmenes  respectivos  y relativos. Otro  aspecto  a  considerar  serán  las 
organizaciones  internacionales  de  carácter económico a las que pertenece el país objeto del
estudio y el marco general de su dependencia económica (créditos,  respaldos,  etc.).
 
Se examinarán el producto nacional, la renta nacional y el producto material neto. También los
Presupuestos del Estado para ver de qué forma y en qué sentido se emplean los esfuerzos
económicos, en qué sectores hay trato preferente, hacia qué campos se orientan y para observar
el lugar que ocupa la Defensa en el contexto general.
Es una faceta que puede parecer compleja ya que en los presupuestos existen multitud de partidas
que influyen en otros departamentos además de aquél en la que figuran.
A continuación se pasa a estudiar lo que el país o zona de estudio tiene,  sus fuentes de riqueza
primaria o recursos naturales. Se valorarán sucesivamente la agricultura y la ganadería,  la minería
(excepto minerales energéticos) y la pesca,  sin perder de vista que en un estudio geopolítico-militar
interesa a veces más sacar una conclusión concreta,  de alto valor militar,  que exponer una serie
de  cifras  o  datos  fríos  de  los recursos. Normalmente indicarán unas carencias o unos excesos que
limitarán o facilitarán las acciones exteriores. Una dependencia excesiva o un monopolio de
determinado recurso tiene un alto valor político y militar.
Es  conveniente  separar  las  fuentes  de  energía  de  los  recursos  básicos,    por  la importancia
creciente que la energía tiene en el marco económico actual. Se  estudiarán  las  fuentes  de 
energía  analizando  su  procedencia  y  la  suficiencia  o insuficiencia en cada caso,  aludiendo a
su participación porcentual. Al  final  se  hará  un  juicio  de  futuro,      basado  en  las  reservas 
energéticas  y  en  el aprovechamiento de nuevas fuentes,  para tratar de evaluar el grado de
cobertura de la demanda.
 
Se considera muy interesante y de especial importancia el análisis de la industria militar. En ella
conviene conocer una serie  de  puntos  imprescindibles para obtener unas conclusiones militares lo
suficientemente fiables de este aspecto. En esta  línea  debemos  saber:  ¿Dónde  está  localizada 
la  industria  militar?,      ¿Está concentrada o dispersa?,  ¿Qué capacidad tiene? ¿Qué tipo de
producción existe? ¿Es pesada (sofisticado o elemental) o ligera?,  ¿Si importa o exporta?.
¿Qué sistema de producción    utiliza  (obreros  militarizados,    obreros  controlados  con  posibilidad 
de militarización,      obreros  libres  con  fuertes  sindicatos,      soldados,      mixtos,      técnicos
extranjeros)?.
Respecto al comercio es conveniente realizar su estudio analizando separadamente el interior y el
exterior. Del primero deduciremos la  existencia de corrientes comerciales de gran  densidad,     
materializadas  en  núcleos  de  comunicaciones,    puertos, etc., que matizarán zonas clave desde
este punto de vista. El estudio  del comercio exterior nos llevará hacia un análisis de la balanza
comercial y por  extensión de la balanza de  pagos. Se concretará qué países son abastecedores y
de      qué  y  cuales  son  clientes  y  de  qué  productos,      lo  cual  señalará  servidumbres  o
posiciones fuertes en otro tipo de relaciones (VV.AA, 2001, pp. 85-147)
 
• Factor militar
Normalmente, las fuerzas armadas de los diferentes países suelen tener una inteligencia básica
actualizada sobre los recursos militares de otros países. Una de sus obligaciones es mantenerse al
tanto de la adquisición de nuevo material militar o la construcción de armamento en el propio país
como aviones, barcos de guerra, nuevos dispositivos para mejorar la eficacia del combate, etc.
También deben conocerse la legislación y los presupuestos que establecerán el tamaño y la calidad
anualmente. Las normas de reclutamiento y los cambios efectuados en el adiestramiento y
enseñanza militar de soldados y oficiales son otro factor a tener en cuenta. Los sueldos y el estado
económico de soldados y oficiales también se examinan.
El  análisis  del  presupuesto  de  defensa  permitirá  conocer   detalles importantes,  como vitalidad
económica de las FAS, porcentaje del PIB dentro de los presupuestos del estado, distribución  de 
estos  fondos,      programas  de  adquisición, dificultades para la modernización, etc.  Se verá  la 
distribución  del  presupuesto  en  las  tres  partidas clásicas de personal,  material y servicios,  para
tratar de definir el tipo de esfuerzo que se  realiza y las posibles distorsiones. 
Al estudiar el presupuesto de defensa  y su distribución habrá que considerar que las estadísticas, a
veces, pueden tener escaso valor pues  es relativamente  frecuente que muchas partidas, 
exclusivamente de defensa,  estén incluidas en otros departamentos (Obras Públicas,  Enseñanza, 
Asuntos Exteriores,  etc.), con lo cual  queda bastante deformado el esfuerzo real del país en
cuestión,  en materia de Defensa. Otro aspecto a tener  en cuenta al analizar esta faceta,  es que
no  todas las  FAS del mundo  son  iguales.  Existen  profundas  diferencias  de  matiz    y  orgánicas 
que  pueden invalidar  ciertas cifras a la hora de un análisis comparativo.
Los  datos  numéricos  publicados  por  SIPRI  (Instituto  Internacional  de  la  Paz  de Estocolmo)  o  el 
IEE  de  Londres son  naturalmente aproximados pero muy válidos para estimaciones de fuerzas en
activo, si bien , lo son menos para las estimaciones de fuerzas de reservas,  milicias o elementos
paramilitares que  son  mucho  más  difícilmente  verificables.  También  es  útil el recurso a
embajadas,  agregados,      publicaciones  oficiales  u  oficiosas,      delegaciones  culturales,     
gacetas,  boletines oficiales,  servicio de información e inteligencia,  etc.
En algunas ocasiones también resulta particularmente útil el estudio del perfil psicológico y de
personalidad de determinados líderes políticos o militares. Para ello, con la información disponible,
se intenta elaborar un recorrido vital completo que incluye los orígenes, la formación profesional y
académica y su círculo de amistades más próximas y que ejercen cierta influencia sobre la persona.
Junto a esto también se elabora un perfil psicológico del individuo que busca identificar su
personalidad dentro del amplio abanico de posibilidades y detectar posibles psicopatologías. Este
perfil psicológico suele completarse con otro psicográfico realizado por un grafoanalista.
Con el análisis de los cuatro factores anteriores y la exposición al final de cada uno de ellos  de  los 
resúmenes  adecuados  de  conclusiones  militares,      habremos  finalizado  la parte más larga y
compleja del Método Geopolítico-militar pero que nos permite conocer las  posibilidades  y 
vulnerabilidades  del  país  estudiado. Este  conocimiento,  unido  al estudio  del  factor  militar,  nos 
permitirá  estar  en  condiciones  de  obtener  conclusiones sobre cualquier aspecto referente a
aspectos militares del país estudiado.
De esta forma,  se habrá de llegar a elaborar un esquema final en el que,  antes de analizar  y 
estudiar  el  factor  militar,    podamos  saber  lo  que  puede  dar  de  sí  la  nación estudiada en el
campo tan primordial como el de la Defensa. En este segundo paso se considerarán dos caminos.
1)  Como deberían ser las FAS para adaptarse de manera idónea a lo que la realidad exige.
2)  Como  podrían  ser, si  se  consigue  el  máximo  provecho  militar  de  sus posibilidades.
El  primer  camino se  orienta  claramente  hacia  las  vulnerabilidades encontradas,  que se habrán
deducido,  primordialmente,  del ambiente y factores físico y sociopolítico,    aunque  esto  no  es 
tajante  y  exclusivo.  En  los  otros  factores  pueden descubrirse vulnerabilidades: en el humano
algunas características concretas (población vieja,  nivel cultural bajo,  varios idiomas, etc) y en el
económico lagunas y dependencias que pueden ser importantes. Es importantísimo en este
aspecto considerar el nivel de las FAS  de  los  países  vecinos  y,    sobre  todo,    del  que  se  haya 
deducido  como  enemigo potencial.
El  segundo  camino está  íntimamente  ligado  con  las  posibilidades descubiertas,  con el
potencial,  que se habrá  deducido,  principalmente,  de los factores humano  y  económico 
aunque  el  ambiente  y  los  componentes  físico  y  sociopolítico podrán aportar posibilidades, 
aunque en grado menor.
Por último, y no por ello menos importante, también se habrán de localizar y estudiar en profundidad
los diferentes centros de gravedad del país analizado. Clausewitz definió el  centro de gravedad
como “el centro de todo el poder y movimiento de lo cual todo depende…el punto sobre el cual
deben ser dirigidas todas nuestras energías”. Ejemplos de centro de gravedad pueden ser  la  masa 
del  ejército  enemigo,  un  área  geográfica  en  particular,  un  recurso estratégico crucial, el
liderazgo o la voluntad nacional. El análisis del centro de gravedad del enemigo requiere de una
constante reevaluación pues puede ir cambiando durante el desarrollo de la campaña.
 
 
 
18.2. Matriz PMESII-PT y Matriz ASCOPE
Hasta aquí hemos sintetizado y resumido los factores más importantes que se analizan en un análisis
geopolítico-militar clásico. Pero podemos distinguir dos tipos de análisis geopolíticos. Uno de ellos, el
que acabamos de describir, tiene un carácter más remoto y se elabora incluso en tiempos de paz,
el otro, más operacional, suele desarrollarse cuando existe la proximidad o inmediatez de un
conflicto bélico teniendo como base el primero, pero con elementos diferenciadores. Este último
análisis, llamado por sus siglas PMESII-PT[10] fue inventado por John Waldron del USAF y forma parte
del diseño operacional militar denominado SOSA (System of Systems Analysis), que explota la lógica
causal a través de cinco categorías de estructuras interconectadas (política, social, económica,
militar e informacional). A pesar de las críticas recientes a su metodología lineal como insuficiente
para evaluar y transmitir la comprensión del, a menudo, complejo ambiente de operaciones, lo
cierto es que este método sigue siendo utilizado en diseño operacional. Ésta, junta otras críticas,
están sintetizadas en una monografía del Mayor Brian M. Ducote titulada Challenging the
Application of PMESII-PT in a Complex Environment[11]  escrita para el School of Advanced Military
Studies de Fort Leavenworth, en Kansas.
 
Cuando los soldados son enviados a campaña, una síntesis de la parte más general se les entrega
en forma de un pequeño manual en el que explican las particularidades más generales sobre el
lugar donde van a realizar su labor militar así como algunos consejos prácticos. Entre otras cosas
incluye información sobre el clima, la política, la cultura y la religión.
Este manual va acompañado generalmente de unas sesiones informativas pocos días antes del
desplazamiento hacia la zona del conflicto. Son famosos y todavía pululan por ahí los manuales
entregados a los soldados aliados antes del desembarco de Normandía (que, entre otras cosas,
aconsejaban a los soldados de que no se extrañaran si la población civil francesa había
confraternizado y entablado relaciones amistosas y de otro tipo con los invasores alemanes) o los
entregados a los soldados americanos en la invasión de Irak. Pero la parte más específica del
PMESII-PM, junto con los apuntes y recomendaciones de los analistas se entrega a los mandos
encargados del diseño operacional y, normalmente, es considerada como información
confidencial o secreta.
El PMESII-PT[12] analiza las variables política, militar, económica, social, informacional, infraestructura,
medio físico o clima del país o región en la que se va a desarrollar el conflicto. Este análisis ayuda a
determinar las fortalezas y debilidades del enemigo y localizar sus centros de gravedad, así como a
estimar los posibles efectos o consecuencias que tendrán determinadas acciones bien sean éstas
de carácter diplomático, político, económico, militar o actividades clandestinas. Este tipo de
análisis, más que descomponer el sistema en ocho grandes variables y analizarlas separadamente
como compartimentos estancos al estilo cartesiano, intenta establecer relaciones entre ellas para
llegar a una comprensión lo más holística posible del enemigo y su entorno. Un ejemplo de este tipo
de análisis realizado sobre Afganistán podemos encontrarlo en la siguiente dirección web:
http://lancecrowe.hubpages.com/hub/PMESII-Analysis-Aghanistan-June-2010-Political-Analysis

Frecuentemente el análisis PMESII-PT se acompaña del ASCOPE, que estudia las áreas, estructuras,
capacidades, organizaciones, eventos y personas, formando una matriz que conjunta ambos
análisis.

  ASCOPE
POLITICA Sistemas de gobierno
formales e informales con
influencia significativa en la
población.
MILITAR Elementos clave que
influencian la situación de
seguridad y estabilidad en
el área.
ECONÓMICA Elementos clave de la
actividad económica en el
área estudiada
SOCIAL Elementos clave de la
dinámica social en el área
INFRAESTRUCTURA Agua, Electricidad, salud,
transporte, etc
INFORMACIÓN Facilitadores de la
transmisión de información
en la población
 
18.3. Estructuras de causalidad útiles para el análisis geopolítico
Este apartao ha sido elaborado a partir de los apuntes del profesor Rafael Calduch en su Manual de
Métodos y Técnicas de Investigación en Relaciones Internacionales.
 
Por importantes que sean los conceptos, los postulados, los axiomas y los teoremas a la hora de
formular una teoría científica, por sí solos no bastan para lograr una explicación satisfactoria de la
realidad. Hace falta establecer las relaciones que vinculan entre sí, de un modo general y estable,
ciertos sucesos (constantes o variables) de la realidad, es decir por encima de las circunstancias
particulares de cada caso concreto. A estas relaciones las denominamos relaciones de causalidad
que, obviamente, son distintas de las relaciones de casualidad o coincidencia precisamente en
virtud del carácter particular y ocasional de éstas últimas. En otras palabras, las relaciones de
causalidad sólo se producen entre los elementos sistemáticos, es decir aquellos que se repiten, de
distintos sucesos o fenómenos.
 
Por estructuras de causalidad entendemos las diversas formas en que pueden articularse las
relaciones de causalidad. Existen varios modelos para representar las estructuras de causalidad:
Causalidad única y directa
Un mismo y único suceso o variable, denominado causa originaria, provoca directamente uno o
varios sucesos denominados efectos.
 
 
 

 
 
 
 
 
 
 
 
La causalidad única y directa constituye la forma más sencilla de relación causal y, por tanto, es
también la que ha logrado un tratamiento más exhaustivo en el ámbito de la lógica formal y
matemática. Como tendremos ocasión de comprobar, las aportaciones de la estadística
descriptiva bivariable resultan esenciales para la descripción, comparación y verificación de todos
aquellos sucesos internacionales que podamos cuantificar en su evolución ya sea mediante la
observación directa o por medio de indicadores. Con frecuencia, la utilización del método
descriptivo nos permite determinar de una forma precisa este tipo de relaciones causales. Sin
embargo, obsérvese que el modelo B al mostrar dos efectos diferentes como resultados de una
misma causa puede inducir a explicaciones insuficientes en la medida en que el investigador sólo
haya demostrado la relación entre la causa y uno de los efectos pero no con el/los otro(s).
 
Ejemplos de este tipo de causalidad serían los siguientes:
 
 
- modelo A -
Las variaciones del comercio de mercancías entre dos países (causa) origina la variación de las
transacciones financieras entre ellos (efecto).
- modelo B -
El desencadenamiento de un conflicto bélico entre dos países (causa) provoca el desplazamiento
de la población civil (efecto 1) y víctimas entre las fuerzas beligerantes (efecto2) y la destrucción de
recursos productivos (efecto3).
Multicausalidad Directa
Se produce cuando varias causas concurren originariamente en la producción directa de uno o
varios efectos.

 
 
 
 
 
Este tipo de relación de causalidad resulta más complejo que el anterior ya que obliga a determinar
para cada una de las causas concurrentes en el desencadenamiento de un efecto el cumplimiento
de las condiciones de necesidad y suficiencia. La condición de necesidad significa que si la causa X
no se da, tampoco se producirá el efecto Y aunque concurran el resto de causas. La condición de
suficiencia significa que si se produce la causa X el efecto Y se producirá también aunque no
concurran otras causas, sin embargo la ocurrencia de la causa X puede producirse o no. A este
respecto en la obra de Selltiz; Jahoda; Deutsch y Cook se afirma:
"En la ciencia moderna, el énfasis se carga más bien sobre una multiplicidad de 'condiciones
determinantes', las cuales, en conjunto, hacen probable la ocurrencia de un determinado
acontecimiento. Tanto el sentido común como el pensamiento científico se ocupan del
descubrimiento de las condiciones necesarias y suficientes. (...)”
 
Una condición necesaria, como el término implica, es la que debe ocurrir si el fenómeno del que es
'causa', se da en efecto. Si X es una condición necesaria de Y, entonces Y nunca sedará a menos
que ocurra la condición X. Una condición suficiente es la que siempre es seguida por el fenómeno
del que es 'causa'. Si X es una condición suficiente de Y, siempre que se dé X, ocurrirá Y. Una
condición puede ser a la vez necesaria y suficiente para la ocurrencia de un fenómeno. En tal caso,
Y nunca se dará a menos que ocurra X y siempre que ocurra X, también se dará Y. En otras
palabras, no habrá ningún caso en que X o Y aparezcan solos.
Si en lugar de un solo efecto se derivan varios, la comprobación de las condiciones señaladas debe
realizarse para todos y cada uno de dichos efectos.

Este modelo de relación causal sigue siendo todavía relativamente simple pues existe una conexión
directa o inmediata entre las causas y el/los efecto(s). Por esta razón, si logramos encontrar una
causa que cumpla las dos condiciones señaladas, necesidad y suficiencia, en realidad nos hallamos
en el modelo de causalidad única y directa, siendo las demás causas concurrentes simples
fenómenos circunstanciales o, si se prefiere, causas aparentes. La forma más simple de aplicar este
modelo consiste en determinar la necesidad y suficiencia del conjunto de causas concurrentes para
la ocurrencia de los efectos.

Veámoslo con un ejemplo concreto:

El crecimiento económico (causa 1 -necesaria pero no suficiente -) y la redistribución de la riqueza


(causa 2 - necesaria pero no suficiente -) generan el desarrollo económico (efecto 1) y la mejora del
nivel cultural de la población (efecto 2).

Cadena de causalidad sucesiva

Una serie de sucesos o variables


relacionados entre sí de forma sucesiva (causas intervinientes), producen ciertos resultados o
efectos en la realidad a partir de un suceso o variable inicial considerado como causa originaria.

 
 
 
 
En el modelo de cadenas de causalidad sucesiva en la que existe una sola causa originaria y una o
varias causas intervinientes, el principal problema que se plantea a la hora de realizar la
investigación consiste en determinar los criterios que nos permitan diferenciar estas últimas de
aquella otra. Semejante tarea no es fácil en el ámbito de las ciencias sociales, en general, y de las
Relaciones Internacionales, en particular pues todas estas disciplinas están sometidas a una relación
de causalidad histórica. Dicho de otro modo, los actores internacionales, como cualquier otra
colectividad humana, están sujetos a la relación de causalidad que impone la sucesión temporal.
Siempre hay un suceso histórico anterior necesario para poder explicar algunos de los sucesos
posteriores.

Llegados a este punto conviene establecer algunos criterios prácticos para diferenciar las causas
intervinientes de la causa originaria. Para ello emplearemos, de nuevo, las condiciones de
necesidad y suficiencia y agregaremos la condición de temporalidad. Las causas intervinientes
siempre son necesarias, pero nunca son suficientes, para la ocurrencia particular del efecto y
además deben ser sucesivas en el tiempo respecto de la causa originaria (diacrónicas), lo que las
diferencia del modelo anterior en el que la multicausalidad podía ser simultánea en el tiempo
(sincrónica). En cambio, la causa originaria debe ser necesaria y suficiente para que exista la
posibilidad de ocurrencia de la categoría general de sucesos a los que pertenece el efecto
particular que se investiga y, además, debe ser temporalmente anterior a alguna de las causas
intervinientes (diacronismo), aunque no necesariamente a todas ellas, La concurrencia de las
condiciones de suficiencia y diacronismo temporal resultan claves para determinar cuándo nos
encontramos ante la causa originaria que, directa pero no inmediatamente, nos explica el o los
efectos finales.

Por ejemplo, la causa originaria de la crisis de los misiles de Cuba la encontramos en la proliferación
de los arsenales nucleares, tanto americanos como soviéticos o de terceros países. Naturalmente
este fenómeno por sí solo no explica el cómo y el cuándo de esta crisis particular pero sí nos explica
la posibilidad de una crisis nuclear. Con anterioridad a la disponibilidad de arsenales nucleares por
ambas superpotencias, sencillamente habría sido imposible una crisis de las características de la de
los misiles de Cuba, es decir con amenaza nuclear directa. Pero también es cierto que sólo si
agregamos las causas intervinientes (régimen castrista, despliegue de misiles soviéticos en Cuba,
espionaje aéreo norteamericano, etc.) podemos obtener una explicación completa de esta crisis,
con todas sus particularidades históricas, y deiferenciarla de otras crisis nucleares, por ej. entre
Pakistán y la India o entre la URSS y la R.P. de China.

Podríamos haber tomado como causa originaria la rivalidad entre Estados Unidos y la URSS que,
históricamente, es anterior tanto a la crisis cubana como a la proliferación de arsenales nucleares,
pero entonces observaríamos que dicha causa no podía explicar por sí sola la  posibilidad general
de una crisis nuclear y, por tanto, tampoco esta crisis nuclear, como lo demuestra el hecho de que
entre 1947 y 1949-50, es decir con anterioridad a las  primeras experiencias nucleares soviéticas, la
rivalidad entre ambas potencias era ya oficial (doctrina Truman) pero resulta obvio que la URSS
nunca habría podido amenazar a los Estados Unidos con el despliegue de unas armas que no
poseía. En resumen, la rivalidad USA-URSS fue una de las causas intervinientes, históricamente
anterior, pero no la causa originaria de esta crisis. Evidentemente, a nadie se le ocurriría buscar
como causa originaria de la crisis cubana a la revolución bolchevique de 1917, aunque sin que se
hubiese producido dicho suceso histórico es imposible que la URSS hubiese existido y, por tanto, que
hubiese desarrollado los arsenales nucleares que con posterioridad desplegó en Cuba.

Observemos que en la cadena de causalidad sucesiva, las causas intervinientes pueden


desaparecer sin que por ello desaparezca la posibilidad de ocurrencia del efecto mientras subsista
la causa originaria.
 

En ese caso simplemente pasaríamos a un modelo de causalidad única y directa. Por el contrario, si
suprimimos la causa originaria, las causas intervinientes por sí solas nunca producirán el efecto., ello
significa que este modelo en realidad es una cadena de modelos de causalidad única y directa.
Ello le confiere una especial idoneidad para ser utilizado en el análisis histórico de fenómenos de
microinternacionalidad, pues en este caso, la sucesión temporal nos determina el encadenamiento
causal desde la causa originaria hasta el efecto que deseamos explicar o pronosticar.

Desde el punto de vista de la aplicación del método analítico, el problema queda reducido a
encontrar los sucesos o variables históricas que cumplan los requisitos de necesidad y suficiencia
respecto del efecto y a estudiar con detenimiento los elementos esenciales que los explican y que,
por tanto, también nos aclaran las relaciones históricas particulares que se desarrollaron entre ellos.

La facilidad de aplicación del análisis histórico a través de la cadena de causalidad sucesiva,


explica su amplia difusión entre los historiadores. Sin embargo, debemos prevenir sobre las
dificultades que provocan los resultados de este método a la hora de emplearlos como datos o
informaciones que debemos utilizar con otros métodos científicos, por ej. en el método
comparativo. En efecto, al emplear la causalidad sucesiva para analizar un suceso históricamente
singular e irrepetible, la condición de necesidad de las causas intervinientes que, no lo olvidemos,
también son sucesos históricos irrepetibles complica la comparación con aquellos fenómenos que
aparentemente podrían parecernos similares pero cuyas sucesiones de causas intervinientes nunca
podrán ser idénticas. Por esta razón, la búsqueda de analogías históricas a través del método
comparativo, difícilmente puede superar los límites de la analogía de las causas originarias y/o de
las causas intervinientes de carácter estructural, relativizando por tanto el valor de generalización
que podemos obtener con tales analogías.

Cadena de multicausalidad
sucesiva

 
 
 
Este es un modelo de causalidad más complejo, pero también más común en la realidad
internacional, que exige aplicar los criterios prácticos señalados en el modelo anterior para dirimir las
diferencias entre las causas originarias y las causas intervinientes. Sin embargo, la multicausalidad en
ambas categorías, impone la necesidad de aplicar algunas reglas para ponderar la importancia de
cada una de las causas originarias.
 
En primer término, las diversas causas originadas deben concurrir simultáneamente, pues, en caso
contrario, nos hallaríamos en una situación propia del modelo anterior, es decir, en el de la cadena
de causalidad sucesiva, ya que las causas originarias no simultáneas tendrían que ser o causas
previas, ya fuesen originarias o intervinientes o, por el contrario,
 
pasaría(n) a formar parte de la(s) causa(s) posterior(es) a las originarias, es decir de la(s) causa(s)
interviniente(s) de la realidad particular que estamos investigando. En segundo lugar, la suficiencia
respecto de la posibilidad de la categoría general de sucesos a los que pertenece el efecto
particular que se está investigando, debe predicarse para el conjunto de las causas originarias. En
efecto, de no ser así, aquella causa originaria que no cumpliera esta condición de suficiencia no
sería tal y deberíamos considerarla simplemente como una causa aparente o mera circunstancia
secundaria, sin valor de causalidad alguno.
 
De las dos reglas anteriores se desprende un tercer criterio: desde el punto de vista del
conocimiento científico basta con abordar las causas originarias en su conjunto para establecer las
relaciones con el conjunto de las causas intervinientes y poder explicar así el efecto o efectos
resultantes. El estudio de las relaciones entre las diversas causas originarias, de una parte, o entre las
diversas causas intervinientes, de otra, que puede fácilmente realizarse mediante la utilización del
método analítico, no resulta imprescindible para explicar los sucesos particulares de la realidad que
se ajustan a este modelo causal, sino sólo para ampliar los conocimientos sobre cada uno de los
sucesos o variables que estamos considerando en cada una de las dos categorías causales
señaladas.
Pongamos un ejemplo para ilustrar este modelo de causalidad. Si consideramos el proceso de
desintegración soviética que se produce durante 1991, observamos claramente que, al menos,
pueden mencionarse tres causas originarias:
a) la presión de las fuerzas políticas independentistas en varias repúblicas federadas (repúblicas
bálticas; Moldavia, Azerbaidjan; Armenia)
b) la división interna y el progresivo debilitamiento del control del Partido Comunista sobre la
Administración del Estado
c) el fracaso de las reformas económicas introducidas con la "perestroika".
 
Junto a ellas se podrían citar numerosas causas intervinientes: el desprestigio político en el interior de
la Unión Soviética de la figura de Gorbachov; el fracasado intento de golpe de Estado; la presión
de las fuerzas políticas democratizadoras; etc.
Respecto de las tres causas originarias mencionadas se puede demostrar que efectivamente cada
una de ellas es causa suficiente para provocar la posibilidad de ocurrencia de la categoría general
de fenómenos a la que pertenece el suceso que analizamos. Esta categoría general es la de la
desaparición de un Estado y no sólo la del cambio de régimen político o económico del mismo.
 
En efecto, que la presión de las fuerzas independentistas puede provocar la desaparición de un
Estado lo ilustran todos aquellos casos de división de Estados provocados por este tipo de
fenómenos; por ejemplo, la división de la India y más tarde de Pakistán o la propia desintegración
yugoslava, por citar un caso mucho más reciente y próximo. Análogamente, el debilitamiento del
control de partido comunista sobre el aparato del Estado constituyó una de las causas originarias
decisivas para lograr la desaparición de la República Democrática Alemana y la unificación en la
República Federal de Alemania. Finalmente, la crisis de las reformas económicas constituyó una de
las causas originarias del proceso de desintegración de Checoslovaquia en dos Estados
independientes.
Si cada una de estas causas originarias, considerada de forma independiente, resulta suficiente
para explicar la categoría general de fenómenos que designamos como desaparición de Estados,
necesariamente la concurrencia de todas ellas simultáneamente deben explicar el origen del
proceso de desintegración soviética. No obstante, ni en Alemania, ni en la antigua Yugoslavia, ni,
por supuesto, en Checoslovaquia, existieron golpes de Estado fracasados, ni apareció la figura de
Gorbachov, aunque sí se dieron la formación de fuerzas políticas democratizadoras. En otras
palabras, algunas de las causas intervinientes que hemos señalado para el caso soviético se
demostraron necesarias para este fenómeno particular pero no para el resto de sucesos de la
misma categoría o naturaleza.
La consideración conjunta de las tres causas originarias señaladas nos permite explicar el caso de
desaparición estatal, como fenómeno general, y por tanto también el caso soviético, pero además
nos permite utilizar el método comparativo para contrastarlo con otros casos de la misma categoría.
En cambio, el análisis de las causas intervinientes, sólo nos permite comprender y explicar mejor la
singularidad histórica e irrepetible de la desintegración soviética.
 
 
 
 
 
 
19. RELACIÓN ENTRE VARIABLES
19.1. Introducción
Los métodos estadísticos constituyen una herramienta de trabajo cada vez más importante en el
campo de la inteligencia estratégica y en el campo de la seguridad y la defensa. Difícilmente hoy
en día puede ser considerada completa la formación de un analista sin la asimilación de unos
conceptos básicos de metodología estadística y probabilidad que le permitan analizar
adecuadamente los datos sobre los que trabaja y asesorar de forma racional la toma de decisiones
de sus superiores. La estadística y la probabilidad mostraron todo su potencial en inteligencia
estratégica durante la II Guerra Mundial especialmente en el campo de la Investigación Operativa
Militar.
 
Nuestro propósito es proporcionar al lector una introducción a las técnicas básicas para estudiar la
relación entre variables. Estas técnicas son de uso común y se utilizan frecuentemente en diversos
análisis. En análisis de inteligencia muchas veces es necesario establecer relaciones entre variables
que se presupone que tienen relación con el objeto de estudio. Si estas relaciones existen y son
comprendidas, podemos entender el funcionamiento del sistema y, consecuentemente, prever su
comportamiento futuro, incluso si las condiciones varían. Existen dos tipos de relaciones claras entre
variables:
1. Relaciones deterministas: si conocemos el valor que toma la variable independiente X, el valor de
la variable dependiente Y queda  perfectamente establecido. Típico de algunos procesos en
ciencias técnicas.
2. Relaciones no deterministas: Si conocemos el valor de la variable dependiente X, el valor de la
variable independiente Y no queda perfectamente establecido. Procesos típicos en ciencias
sociales, en análisis estratégico y en análisis de criminalidad. La regresión lineal estudia este tipo de
relaciones.
 
Sin embargo, el hecho de que dos variables presenten una relación lineal no significa que una sea
la causa de la otra, esto es, correlación no implica causación. Y esto debe grabarse a fuego en el
cerebro de los analistas.
Ejemplo de relación no determinista: Conocemos peso y altura de 117 estudiantes y realizamos una
regresión simple. El ordenador nos arroja este gráfico como resultados:

 
 
 
 
 
 
 
 
Peso=-100.22+0.97*Altura.
Según la ecuación de la recta de regresión una persona con 1.80 de altura pesará:
Peso=-100.22+0.97*180=74,38 Kg.
Indudablemente no todas las personas de 1.80 m pesan 74,38 Kg. Si un individuo de altura 1.80 tiene
un peso de 76 Kg, el error o residuo del modelo será:
E=76-74.38=1.62 Kg.
En los siguientes apartados hablaremos de la regresión simple y de la múltiple, es decir, cuando las
variables estudiadas son numéricas y de las tablas de contingencia cuando trabajamos con
variables.

 
 
 
 
 
 
 
 
 
 
19.2. Regresión Lineal Simple
La ecuación de la recta de regresión viene dada por:

 
Donde:
Yi representa el valor de la variable respuesta para la observación i-ésima.
Xi representa el valor de la variable explicativa para la observación i-ésima
Los valores i y o son los parámetros que hay que estimar con los datos
Ui representa el error.
Para poder realizar el modelo de regresión simple es obligatorio que se cumplan varias hipótesis.
Para comprobarlo se realizará un examen gráfico de los datos antes del ajuste (preferiblemente un
X-Y Plot) y, posteriormente, se comprobará que se cumplen mediante el análisis de los residuos.
1. Linealidad: Es una hipótesis fundamental. Para ajustar una línea recta a un conjunto de datos es
preciso que éstos tengan un aspecto razonablemente recto.

 
 
 
 
 
2. Homocedasticidad: La varianza de los errores es constante y no depende del nivel de las
variables. Esta hipótesis implica que la nube de puntos de los datos tiene una anchura semejante a
lo largo de la recta de regresión. Si lo datos cumplen esta hipótesis se dice que son
Homocedásticos. Por el contrario, datos cuya variablidad no es constante se denominana
Heterocedásticos. La heterocedasticidad es algo muy corriente en numerosos fenómenos: Así, por
ejemplo en economía cabe esperar que cuanto mayor sea el nivel de ingresos, mayor será la
variabilidad en el gasto efectuado en consumo a lo largo del año para diversas unidades familiares.
 
 
 
 
 
 
 
 
 
 

 
 
 
 
 
 
 
3. Independencia: Esta hipótesis implica que las observaciones son independientes. Es decir una
observación (Peso, Altura) no ofrece información sobre los valores de la siguiente. Esta hipótesis
invalida el análisis de regresión, al menos en sus versiones más simples, con datos de tipo temporal
en los que exista autocorrelación. No es por tanto adecuado el análisis de regresión simple para
estudiar cómo se relaciona la inflación en España con los tipos de interés a través del tiempo.

4. Normalidad: Esta hipótesis se refiere a que los errores se distribuyen normalmente, es decir
siguiendo una campana de Gauss. Es una hipótesis razonable en virtud del Teorema Central del
Límite que dice que cuando una variable (Peso) es el resultado de muchas cosas pequeñas tenderá
a distribuirse normalmente.
Si los datos no cumplen alguna de estas hipótesis cabe la posibilidad de transformarlos mediante la
transformación logarítmica, el cuadrado o la exponencial, entre otras.
 
La correcta interpretación de una regresión ha de tener en cuenta cuatro puntos:
• El valor del estadístico T, que en valor absoluto debe ser mayor que 2 para que la variable se
considere significativa. Esto es, T debe ser siempre menor que -2 o mayor que 2. Los valores
comprendidos entre -2 y 2 indicarán que la variable no es significativa.
• Estudio del signo de la Beta.
• Cuantificación. Hay que tener especial cuidado cuando aplicamos la transformación logarítmica
• Coeficiente de determinación R^2 que explica que tanto por ciento es explicado por el modelo.
A continuación, señalamos varios ejemplos de interpretación de regresiones lineales:
 
 

 
 
 
 
 
 
 
 
 

 
 
 
 
 

 
 
 
 
 
A continuación, se explican los pasos a seguir realizar una regresión simple utilizando los software
estadísticos Statgraphics y SPSS.
Vamos a trabajar con el archivo que contiene datos sobre los hogares españoles.  En los datos
podemos encontrar dos variables que queremos estudiar, una de ellas es GTINE, que es la variable
que queremos explicar y la otra es ITOTAL, que utilizaremos como variable explicativa.
Lo primero que debemos hacer es un scartterplot para visualizar la relación entre ambas variables.
Para ello vamos a la pestaña Plot, dentro seleccionamos Scatterplots y dentro X-Y Plot como se
muestra en la imagen:
 

 
 
 
 
 
 
A continuación, escogemos en el panel de variables la variable que queremos explicar como Y,
que en nuestro caso es GTINE y a continuación la variable explicativa como X, que en nuestro caso
es ITOTAL:
 
 
 
 
 
 
 
 
 
 
 
 
 
 

En un primer vistazo podemos observar que la


regresión puede ser mala, pues presenta mucha heterocedasticidad.
 
 
 
 
 
 
 
 
 
 
 
 

La solución es transformar los datos


utilizando logaritmos en ambas variables. Para ello, primero comprobamos con un ScatterPlot.
Volvemos a introducir las variables y escribimos a mano log delante de ellas y ponemos las variables
entre paréntesis:
 
 
 
 
 
 
 
 
 
Se aprecia que los datos tienen un aspecto mucho más lineal aplicando
logaritmos
 
 
 
 
 
 
 
 

Ahora implementamos la regresión lineal


manteniendo los logaritmos en las variables y observamos el resultado.
 
 
 
 
 
 
 
 
 
 

 
 
 
 
 
 
 
 
 
 
Log GTINE=1.9+0.85 logITOTAL
T:        2.3            12.8
R^2: 69.29%
Interpretación:
• Una t>2, de 12.8, nos indica que la variable ITOTAL es significativa
• Signo:  Positivo, esto es, si aumenta x también aumenta Y
• Cuantificación: Si los ingresos aumentan en un 1%, los gastos aumentan un 0.85%
• R^2: El modelo explica un 69,29% del total de la varianza
 
Para trabajar la regresión lineal con SPSS hemos escogido unos datos de una encuesta realizada a
los alumnos para estudiar las variables que influyen en la satisfacción con los profesores. Queremos
observar la relación entre la variable satisfacción profesor (Satispro) y las variables Organización
(Organiza) y Entusiasmo (Entusias). Para ello, como hicimos con el programa anterior, lo primeros es
realizar un gráfico descriptivo de la relación entre las dos variables. Para ello seleccionamos la
pestaña gráficos y dentro de ella Cuadros de diálogo antiguos y Dispersión/Puntos:
 

 
 
 
 
 
 
 
 
 
A continuación, seleccionamos como variable Y o explicada la de “Satispro” y como variable X o
explicativa la de “Organiza” y le damos a aceptar:
 
 
 
 
 
 
 
 
 
 
 
El programa arroja este resultado. Como vemos, los datos, a primera vista, parecen buenos para
aplicar una regresión lineal. Por ello, no vamos a necesitar aplicar ninguna transformación a los
datos y, por ende, la interpretación posterior de los resultados va a ser más sencilla que en el caso
anterior.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Ahora implementamos la regresión lineal. Para ello nos vamos a la pestaña Analizar, dentro de ella a
Regresión y finalmente a Lineales:
 
 
 
 
 
 
 
 
 
 
 
 
 
Seleccionamos las variables a estudiar:
 
 
 
 
 
 
 
 
 
 
El programa arroja el siguiente resultado:
 

 
 
 
 
 
 
 
 
 
Satispro= 0.33 + 0.92 org
T=               (5)          (44.2)
R^2: 92.5%
 
Interpretación:
• Una t>2, de 44.2, nos indica que la variable org es significativa
• Signo:  Positivo, esto es, si aumenta x también aumenta Y
• Cuantificación: Si la variable org aumenta en un punto, la variable satispro aumenta en 092
• R^2: El modelo explica un 92.5% del total de la varianza
 
19.3. Regresión Múltiple
 
Si en la regresión simple trabajábamos con dos variables, esto es, una independiente y otra
dependiente, ahora vamos a trabajar con una variable dependiente, que queremos explicar, pero
muchas independientes o explicativas. Vamos a trabajar en Statgraphics con un archivo de datos
denominado “Turistas” donde figura información acerca de varias variables. Nuestra intención es
hacer una regresión múltiple con la variable “visitantes” como variable Y o variable a explicar en
función de las variables “Habitantes”, “Distancia” y “Renta” como variables X o variables
explicativas.
Para la visualización previa de los datos vamos a hacer un Scatterplot Matrix. Para ello
seleccionamos la pestaña Plot y después multivariante visualization y dentro de ella Scartterplot
Matrix.
 
 
 
 
 
 
 
 
 
 
 
 
 
El programa arroja el siguiente resultado:
 
 
 
 
 
 
 
 
 
 
 
 
 
Como podemos observar, los datos no parecen ajustarse demasiado a lo que queremos hacer. Lo
indicado para estos casos es probar a utilizar una transformación de los datos. La más usual es utilizar
logaritmos. Vamos a hacerlo. Primero hacemos una descripción de los datos tomando logaritmos.
Para ello, introducimos las variables y delante de cada una de ellas escribimos “log” y encerramos
entre paréntesis las variables. De esta forma, el programa transformará los datos
 
 
 
 
 
 
 
 
 
 
 
 
 
A simple vista podemos observar la mejora de los datos con respecto a la situación anterior
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Una vez realizada la transformación de los datos,
intentaremos implementar el modelo de regresión múltiple.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Finalmente podemos probar a ir quitando variables e ir buscando el mejor modelo. Esto podemos
hacerlo automáticamente haciendo click en el botón derecho del ratón, eligiendo Analysis Options
y BlackWar Stepwise Selection
 
 
 
 
 

 
 
 
 
 
 
 
 
 
 
 
19.4. Tablas de contingencia en contraterrorismo o como estimar    probabilidades en base a hechos
pasados
 
Cuando tenemos variables cualitativas y queremos estudiar su relación, debemos recurrir a las
tablas de contingencia. Además, también podemos saber las probabilidades asociadas a
determinados eventos. Voy a describir como ejemplo un análisis realizado en uno de mis artículos
para el Instituto Español de Estudios Estratégicos (IEEE).
Para realizar este análisis he utilizado la base de datos de la Global Terrorism Database (GTD),
disponible en  http://www.start.umd.edu/gtd/. Para la realización del análisis estadístico se han
importado los datos (que originalmente estaban en formato Excel) en el SPSS y  después se han
limpiado.
Utilizando la información sobre las frecuencias de cada evento y creando una sencilla tabla de
contingencia, podemos establecer las probabilidades, en términos frecuentistas, de varios eventos.
En particular, si sabemos de antemano que el target u objetivo es un diplomático, podemos
establecer las probabilidades “a priori” de que el tipo de ataque escogido por los terroristas sea una
bomba.

Observando la tabla, sabemos que la probabilidad, a priori (basándose en frecuencias) de que si el


objetivo es un diplomático, la forma de ataque sea el uso de explosivos es de un 51.5%. Un riesgo
elevado. De igual forma, si el objetivo es un empresario o un hombre de negocios, hay un 24.3% de
probabilidades de que la intención sea capturarlo como rehén. El analista puede así calcular otras
probabilidades similares. Lógicamente estas probabilidades nunca serán estáticas e irán
modificándose conforme se introduce nueva información.
 
Para realizar la tabla de contingencia debemos seleccionar la pestaña Analizar, dentro de ella la de
Estadísticos descriptivos y dentro de ésta Tablas de contingencia
 
 
 
 
 
 
 
A continuación, escogemos una variable para la fila y otra para la columna

 
 
 
 
 
 
 
 
 
Antes de aceptar, si queremos que el programa nos arroje las frecuencias, debemos seleccionar la
pestaña “casillas” y dentro de ella seleccionamos porcentajes por fila o por columna según sea
nuestro interés:
 
 
 
 
 
20. TÉCNICA DE MODELIZACIÓN: El Análisis de Riesgos Adversarios (ARA) aplicado a la
lucha contraterrorista
 
20.1. Marco teórico del Análisis de Riesgos Adversarios
 
“Cada resquicio puede, eventualmente, ser explotado; cada laguna finalmente se cerrará”. Esta
frase, escrita por David Gelernter en un artículo titulado “The law of the loopholes in action” para los
Angeles Times, bien podría resumir la constante lucha de las fuerzas y cuerpos de Seguridad del
Estado con los terroristas. Los terroristas encuentran lagunas en la seguridad vía continua
exploración, que, una vez descubiertas, requieren medidas defensivas para cubrirlas por parte de
las fuerzas y cuerpos de seguridad. El problema, por supuesto, es que es imposible defender todos
los posibles objetivos todo el tiempo y precisamente por esto es imprescindible implementar también
estrategias ofensivas para intentar lograr la inoperatividad del adversario. La cuestión es cómo
identificar las estrategias defensivas y ofensivas y las tácticas más efectivas.
 
La metodología que, en primera instancia, nos puede permitir obtener una modelización para
luchar contra el terrorismo es la del Análisis de Riesgos. El Análisis de Riesgos proporciona una
método cuantitativo de tratamiento de riesgos que engloba, por un lado, una formulación de todos
los elementos del problema: es necesario recabar información sobre la posible situación a la que
nos vamos a enfrentar identificando claramente los sucesos que pudieran tener un impacto
negativo en los resultados que se podrían obtener, determinar las probabilidades asociadas a esos
sucesos y establecer las posibles consecuencias que se derivarían de los mismos. A esto lo
podríamos llamar evaluación del riesgo. Por otro lado, hay que usar esa información y combinarla
de manera que la acción que se considere llevar a cabo sea la más adecuada; sería el análisis
propiamente dicho. Si los riesgos se consideran excesivos, se puede optar por seguir una estrategia
de gestión del riesgo con ayuda de métodos del análisis de decisiones. Si consideramos que los
rivales están dispuestos a incrementar nuestros riesgos, podemos incorporar metodologías de la
teoría de juegos.
 
El modelo de “Adversarial Risk Analysis for Counterterrorism Modeling” (ARA) tuvo su origen en el
esfuerzo conjunto de tres profesores mientras participaban en el programa “Risk analysis, extreme
events and decisión theory” en el SAMSI (Statistical and Applied Mathematical Sciencies Institute)[13],
un proyecto colaborativo de varias universidades de Estados Unidos . Los resultados se plasmaron en
un artículo publicado en el Jasa (Journal of the American Statistical Association). Los autores son
David Banks, Jesús Ríos y el profesor español David Ríos Insúa[14]. Se ha estudiado su aplicación a
protección de infraestructuras críticas como aeropuertos y redes de transporte, a casos de
secuestro de buques pesqueros por parte de piratas en Somalia y a la ciberseguridad.
 
Una característica clave cuando nos enfrentamos con problemas que tiene que ver con la lucha
contraterrorista es la presencia de dos o más oponentes inteligentes que buscan completar sus
objetivos y que tienen que tomar decisiones cuyos resultados están cargados de incertidumbre. La
teoría de los juegos asume que los jugadores se comportan de una forma racional, lo cual no
siempre sucede. En el famoso documental-entrevista “The fog of the war”, Robert Macnamara, que
fue secretario de Defensa del gobierno de los EE.UU durante siete años, sostiene: “Tanto Fidel Castro
como Kennedy eran personas racionales, pero ambos estuvieron a punto de iniciar una guerra
nuclear”. La conclusión a esta reflexión es que los seres humanos somos animales racionales, pero
no siempre nos comportamos racionalmente. La teoría de los juegos no está diseñada para predecir
nada que se escape a la pura racionalidad. Pero esto, más que una crítica, es una delimitación
válida de sus propósitos y objetivos.
 
El modelo ARA trata de modelizar esta incertidumbre en un marco teórico bayesiano a través de la
utilización de dos herramientas diferentes y complementarias: el análisis de riesgos y la teoría de los
juegos. El análisis de riesgos permite la evaluación de riesgos mediante la formulación de todos los
elementos del problema, identificando diferentes eventos y asociándoles probabilidades. La teoría
de los Juegos es un área de la matemática aplicada destinada a estudiar procesos de toma de
decisiones en donde dos o más actores racionales compiten por lograr sus intereses de un espacio
de decisión común. Por lo demás, cabe señalar que hay tres tipos de juegos de suma cero que han
demostrado ser de interés militar y se han utilizado extensamente en la planeación y en la
evaluación de armamento. Estos juegos son: juegos de asignación, duelos y juegos de persecución
o búsqueda. El ejemplo más popular y que frecuentemente se usa como ejemplo es el “juego del
Coronel Blotto”.
 
ARA se sirve de tres importantes modelos utilizados en contraterrorismo: el modelo Defensa-Ataque
simultáneo, el modelo secuencial Defensa-Ataque-Defensa y el modelo secuencial Defensa-Ataque
con información privada. Para cada uno de estos modelos se elaboran diagramas de árbol para
evaluarlos en la teoría de juegos estándar y en una etapa posterior se propone la solución ARA
correspondiente. (Ríos y Ríos, 2012, p.3). Examinaremos a continuación el modelo Defensa-Ataque-
Defensa secuencial para ilustrar la metodología general seguida. Lo haremos de forma resumida,
pero el lector puede encontrar el desarrollo de cada uno de los modelos de forma ampliada en los
trabajos del profesor David Ríos que figuran en el apartado bibliográfico.
 
Aplicaremos la metodología ARA en un contexto de lucha contra el terrorismo basado en un
secuestro de los cooperantes de un convoy de ayuda humanitaria. La situación que proponemos es
la siguiente: el convoy podrá ser atacado o no por los terroristas una vez haya considerado una
acción defensiva. El resultado será un posible secuestro de ese convoy y los cooperantes por el que
se pedirá un rescate. El gobierno decidirá posteriormente como responder a esa situación. En este
escenario podemos hablar del gobierno como el Defensor y de los terroristas como los Atacantes.
Utilizaremos el método secuencial Defensa-Ataque-Defensa para evaluar y resolver la situación de
conflicto planteada.
 
En la siguiente sección desarrollamos el modelo Defensa-Ataque-Defensa que posteriormente
utilizaremos para resolver el problema planteado. Se analizará e indicará cómo obtener una
solución desde el punto de vista de la Teoría de Juegos cuando consideramos como hipótesis el
conocimiento común por parte del defensor y el atacante y mediante la metodología del Análisis
de Riesgos sin esa hipótesis previa. Se planteará el problema a resolver así como se indicarán todos
los datos precisos para poder enfrentarnos a ese problema. Después se llegará a una solución
realizando una simulación. Agradezco al profesor David Ríos Insúa y al profesor Juan Carlos Sevillano
Moro el material proporcionado que sirve de base a estos apartados
 
20.2. Modelo secuencial Defensa-Ataque-Defensa
 
Planteamiento del modelo

En esta sección, desarrollamos uno de los tres modelos principales que se pueden utilizar a la hora
de modelizar una determinada situación de lucha contra el terrorismo: el modelo secuencial
Defensa-Ataque-Defensa. En este modelo, el Defensor despliega en primer lugar recursos
defensivos; realiza una determinada elección encaminada a posicionarse ante la posible amenaza
terrorista, sentando las bases para una futura acción defensiva frente a los resultados de un posible
ataque. Esas acciones pueden reducir también la vulnerabilidad del Decisor ante el ataque
terrorista. El Atacante, después, habiendo observado tal decisión, evaluará sus opciones y llevará a
cabo un ataque. Finalmente, el Defensor intentará recuperarse de ese ataque llevando a cabo una
segunda acción defensiva.

Suponemos que el Defensor tiene inicialmente un conjunto discreto de posibles decisiones

y que el Atacante puede responder con alguno de sus posibles ataques

. Como consecuencia de esas acciones se produce un resultado. Ese


resultado será la única incertidumbre del problema y dependerá probabilísticamente de

. Para simplificar la discusión, consideramos sólo dos posibles valores para el

resultado, , que representarán el fracaso o el éxito del ataque. Una vez conocido el
resultado, el Defensor puede responder para recuperarse del ataque recibido con una de las

acciones del conjunto .

Para visualizar la situación, construiremos el diagrama de influencia y el árbol de decisión


correspondientes a nuestro problema; dos herramientas del análisis de decisiones que nos ayudan a
tener una visión más clara de las decisiones secuenciales que han de tomarse.

Un diagrama de influencia (DI) es un grafo acíclico dirigido con tres clases de nodos: nodos de
decisión, que se muestran como cuadrados; nodos de azar o incertidumbre, mostrados como
círculos; y nodos de valor, que se muestran mediante hexágonos. Además, un DI puede tener tres
tipos de arcos en función del destino de los mismos: si llega a un nodo de decisión, indica que la
decisión se toma conociendo el valor del antecesor; a un nodo de azar, que la incertidumbre

depende del nodo antecesor mediante probabilidad condicionada; o a un nodo


de valor, que la utilidad reflejada en ese nodo de valor depende de los
valores de los antecesores.
 

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Análisis mediante teoría de juegos

El enfoque de la teoría de juegos para resolver el problema planteado requiere la obtención de la

función de utilidad del Defensor y la función de utilidad del Atacante así

como de la evaluación de las probabilidades del suceso , para cada uno de los
participantes, y que designaremos como y , para el Defensor y el
Atacante respectivamente. La teoría de juegos requiere como suposición inicial que las utilidades y
probabilidades del Atacante sean conocidas por el Defensor y que el Atacante conozca también
las probabilidades y utilidades del Defensor, siendo todo esto conocimiento común. Si esto sucede,
puede obtenerse una solución del problema mediante inducción hacia atrás como sigue:

• En el nodo , la mejor respuesta del defensor para cada par es la que maximice
su utilidad:

• Bajo la hipótesis de conocimiento común, el atacante puede anticipar el comportamiento del

defensor en el nodo . Por tanto, en el nodo S es de conocimiento común para ambos

participantes tanto la utilidad esperada del Defensor asociada a cada par

como la utilidad esperada del Atacante asociada a

Conociendo lo que el Defensor hará en el nodo de decisión , el Atacante puede determinar


cual es su mejor ataque en el nodo , después de observar la primera acción defensiva del

Defensor resolviendo el problema:

• Conocido esto también por el Defensor, debido a la hipótesis de conocimiento común, el

Defensor puede encontrar su mejor decisión en el nodo de decisión , resolviendo el problema:

Así, bajo la hipótesis de conocimiento común, la teoría de juegos predice que el Defensor elegirá

en el nodo ; entonces el Atacante responderá eligiendo el ataque , y,

finalmente, el Defensor después de observar , escogerá en el nodo . La

terna determina una solución del juego que es un equilibrio de Nash.

Análisis mediante análisis de riesgos adversarios


Ahora abandonamos la hipótesis de conocimiento común pues en un problema donde los
adversarios desean incrementar los riesgos del Defensor no se tiene, en general, un conocimiento
pleno de sus objetivos, intenciones o posibles movimientos. Del mismo modo, los adversarios
tampoco conocen plenamente los objetivos, intenciones o posibles movimientos del Defensor.
Teniendo en cuenta eso proporcionamos un análisis ARA como apoyo al Defensor.

Para ello, tratamos el comportamiento del Atacante en el nodo como de incertidumbre desde el
punto de vista del Defensor y modelizamos esa incertidumbre añadida.. Necesitamos ahora obtener

, la probabilidad que el Defensor asignará al ataque que escogerá el Atacante, una vez

haya observado cada primer movimiento defensivo suyo. El Defensor también necesita

evaluar y  , ya descritos anteriormente.

Evaluados estos datos, el Defensor puede resolver su problema de decisión por inducción hacia

atrás teniendo en cuenta el árbol de decisión (Figura 4). Puede determinar en el nodo la acción

que le proporcione mayor utilidad esperada para cada par , de la misma forma que
en el enfoque anterior:

Después, el Defensor obtendrá su utilidad esperada en el nodo S, , para cada par

de la misma forma que en el enfoque anterior. Es en este momento cuando el


Defensor puede utilizar la evaluación de la probabilidad sobre lo que el Atacante hará ante cada
primera elección suya, , para determinar su utilidad esperada en el nodo para cada

Finalmente, el Defensor puede encontrar la decisión que maximice su utilidad esperada en el nodo

resolviendo el problema

Así, la mejor estrategia del Defensor para el modelo Defensa-Ataque-Defensa es elegir primero

en el nodo y, posteriormente, elegir en el nodo después de haber


observado .

Así, la clave ahora está en cómo evaluar . Para hacerlo el Defensor puede utilizar algún
método estadístico si se disponen de datos históricos sobre el comportamiento del Atacante es
situaciones similares y, para complementar esa evaluación, podría también incorporar la opinión de
expertos. Sin embargo, proponemos modelizar la incertidumbre que el Defensor tiene sobre la
decisión del Atacante suponiendo que el Atacante desea maximizar su utilidad esperada y
suponiendo también que la incertidumbre del Defensor para evaluar esa probabilidad se deriva de
la incertidumbre que el Defensor tiene sobre las probabilidades y utilidades del Atacante asociadas

al problema de decisión del Atacante. En definitiva, la evaluación de se limita a analizar


el problema de decisión del Atacante desde el punto de vista del Defensor (Figuras 5 y 6). La
evaluación de las probabilidades y utilidades del Atacante desde la perspectiva del Defensor
estarán basadas en toda la información que el Defensor tenga disponible, la cual puede incluir
datos previos de situaciones similares y la opinión de expertos. Si el Defensor no dispone de esta
clase de información podría usar una distribución no informativa o de referencia para describir
.

Por lo tanto, para obtener , el Defensor necesita evaluar , y,

además, . Los dos primeros son las utilidades y probabilidades del Atacante, que son
desconocidas por el defensor. La última refleja la probabilidad que para el Atacante tiene que el

Defensor escoja una determinada alternativa en el nodo para cada par . Esto es
necesario porque el Atacante no puede determinar de forma precisa cuál será la mejor opción en

el nodo para el Defensor, al no conocer su función de utilidad.

Si el Defensor pudiera acceder a las probabilidades y utilidades del Atacante llegaría a conocer,
por el mismo procedimiento que en el enfoque de teoría de juegos, la acción que al Atacante le

daría mayor utilidad esperada, , para cada , y, por lo tanto, .


Esto implicaría que la decisión del Atacante sería adivinada por el Defensor y, por tanto, no sería

necesaria la evaluación de por su parte.

Partimos, por tanto, de que el defensor no conoce esas tres cantidades, pero sí puede reconocer su
incertidumbre sobre ellas mediante una distribución de probabilidad

                              

y resolver el problema de decisión del Atacante usando inducción hacia atrás sobre el árbol de
decisión de la Figura 6 como sigue:

• En el nodo

• En el nodo
• En el nodo A, suponiendo que el Atacante desea maximizar su utilidad esperada, la distribución

del Defensor sobre la elección del Atacante cuando el Defensor ha considerado su defensa es

Esta distribución podría aproximarse usando métodos de simulación Montecarlo generando n


valores

A partir de esos datos, en el nodo hacemos

En el nodo S

generando y aproximando mediante:

Hemos visto cómo podemos evaluar mediante inducción hacia atrás en el árbol de
decisión del Atacante a partir de la distribución F sugerida por el Defensor. Sin embargo, la

evaluación de en F podría ser problemática. Para ello, el Defensor puede utilizar la


información disponible que tenga sobre como el Atacante analizará su problema de decisión. Por
supuesto, si no hay información que el Defensor pueda utilizar para hacer esto, siempre podrá

asignar una distribución no informativa, o de referencia, sobre . Es posible que el


Defensor pueda continuar un análisis recursivo hasta que ya no disponga de información para pasar
al siguiente nivel recursivo del problema de decisión. El análisis recursivo siempre terminará en algún
punto en el que el Defensor carezca de la información necesaria para evaluar las distribuciones
asociadas al siguiente nivel.
El algoritmo que utilizaremos para resolver el problema planteado es el siguiente

1. Desde k = 1 , 2, . . ., n, repetir

Generar

En el nodo , obtener

En el nodo S, obtener

En el nodo de decisión A, obtener

2. Para cada , aproximamos

3. Determinar

  

4. Obtener

 
 
20.3. Estudio de Caso: Secuestro terrorista de un convoy de ayuda humanitaria
En esta sección resolveremos, mediante el modelo Defensa-Ataque-Defensa, a través de la
metodología ARA, un caso real de ataque terrorista. Consideraremos la situación de un secuestro
de cooperantes con un convoy de ayuda humanitaria. Para la elaboración del análisis me he
basado en el magnífico trabajo académico de Juan Carlos Sevillano Moro tutorizado por el mismo
profesor David Ríos Insúa y titulado “Una aplicación del análisis de riesgos adversarios: Secuestro de
un barco pesquero por piratas somalíes”, que he modificado para el caso de estudio que nos atañe
aprovechando los cálculos ya realizados. He decidido hacerlo a partir de este trabajo para
simplificar el trabajo con cálculos y fórmulas y aprovechar un trabajo que creo que resume bien la
implementación del modelo.
 
Escenario del caso a estudiar
En primer lugar, el Defensor despliega sus opciones de defensa preventiva en el conjunto D1={d11,,
d12, d13}. Estas posibles opciones son:
 
• d11 : no llevar a cabo ninguna acción defensiva preventiva
• d12  : recurrir a un hombre armado
• d13  : recurrir a la seguridad privada contratando un equipo armado
 
Una vez que el Defensor ha desplegado sus defensas preventivas, el Atacante (en este caso el
grupo terrorista) decide entre dos posibles cursos de acción (atacar o no atacar) en el conjuto A=
{a1,  a2 }. Las posibles consecuencias son dos, éxito en el secuestro (S=1) o secuestro fallido (S=0). En
caso de éxito en el procedimiento de secuestro, los terroristas pedirán un rescate económico
destinado a financiar sus actividades. En este momento, el Defensor ha de intervenir otra vez,
eligiendo una opción reactiva ante este hecho de entre un conjunto posible D2 ={d21,  d22,  d23 }:
• d21 : No responder de ninguna manera a la demanda de los secuestradores teniendo en cuenta
el coste humano que esto supondría.
• d22   : Pagar la cantidad exigida por los secuestradores y liberar así a los cooperantes.
• d23   : Planificar una acción de rescate apoyándose en los Cuerpos Especiales de las Fuerzas de
Seguridad del Estado, teniendo en cuenta el posible coste en vidas humanas y también el
económico.
 
Para visualizar la situación a la que nos enfrentamos, presentamos el árbol de juego del problema a
estudiar. Representamos el árbol pues el problema que surge no es simétrico. En el árbol quedan
establecidas todas las posibles situaciones que se pueden presentar teniendo en cuenta los tres
nodos de decisión y el nodo de azar, así como sus posibles decisiones o resultados. Queda reflejada
también la naturaleza secuencial de las decisiones por parte de ambos actores: Defensor y
Atacante. Al final de cada rama aparecen dos ternas que indican las consecuencias que se
derivan de la misma para el Defensor (en primer lugar) y el Atacante (en segundo lugar). Estas
consecuencias se analizarán posteriormente.
 
Las consecuencias asociadas al Defensor en cada situación representan, en primer lugar, la posible
pérdida de la ayuda humanitaria debido al secuestro; en segundo lugar, el coste asociado y en
tercer lugar, el número de vidas humanas. En cuanto a las consecuencias del Atacante son: si se
que quedan con la ayuda humanitaria, la ganancia obtenida en la operación y el número de
pérdidas humanas por parte de los terroristas.

 
 
 
 
 
 
 
 
Una vez determinado el escenario y, por lo tanto, conocidas todas las posibles decisiones que se
han de tomar de forma secuencial, pasamos a completar ese escenario especificando los datos
requeridos por el modelo Defensa-Ataque-Defensa.
 
Datos asociados al escenario planteado
Datos asociados al DEFENSOR
El Defensor tiene que asignar una función de utilidad para cada consecuencia, , además de una
probabilidad, 
Consecuencias para el Defensor
La función de utilidad dependerá de tres factores. A cada terna   le asociamos tres consecuencias:
 
a) (1) si se pierde la ayuda humanitaria, (0) en caso contrario
b)El coste asociado en millones de euros
c) El número de víctimas mortales al que nos puede llevar cada situación
 
A la hora de asignar un coste, únicamente tendremos en cuenta los costes adicionales debidos de
forma directa a la situación de conflicto: el posible secuestro. Los costes propios que lleva asociados
una actividad de esta envergadura no serán considerados pues son los mismos haya, o no, intento
de secuestro. En esta línea, hemos de tener en cuenta los costes asociados a cada una de las

posibles acciones previas defensivas incluidas en el conjunto y los costes debidos a las posibles
acciones desplegadas por el Defensor, una vez haya actuado el Atacante, recogidas en el

conjunto .
Consideramos que los costes debidos a las acciones de son:
 

Decisiones del Coste asociado


conjunto

“no hacer nada” 0 millones de


euros

= “hombre 0,05 millones de


armado” euros

“equipo 0,15 millones de


armado” euros
 
 
• La presencia de un hombre armado supone un sueldo durante el tiempo que tarde el convoy en
llegar a su destino, además de su manutención y el equipamiento adecuado para realizar
correctamente su trabajo.
• Un equipo armado está formado por varias personas y tiene un mayor equipamiento
 
El coste asociado a las decisiones que pueden tomarse para recuperarse del posible secuestro son:
 

Decisiones del Coste


conjunto asociado

“no hacer 0 millones de


nada” euros

“pagar el 2,3 millones de


rescate pedido” euros

“grupo de
0,2 millones de
operaciones 
euros
especiales”
 
El pago del rescate se ha considerado de 2,3 millones de euros. El envío del ejército
supone unos 0,2 millones de euros.

Para establecer el número de vidas humanas, consideramos que si el covoy es atacado por los
terroristas y se repele el ataque, bien por el hombre o por el equipo armado, no hay víctimas
humanas. En cambio, si el ataque tiene éxito y el convoy es secuestrado, consideramos que el
hombre armado o el equipo armado que defendían el convoy han muerto como consecuencia del
ataque. El número de muertos puede aumentar. En este caso, podrían ser cooperantes, si una vez
secuestrado el convoy la decisión defensiva por la que se opta como respuesta al secuestro fuera
no hacer nada, o enviar al ejército para rescatar a los cooperantes y el convoy por la fuerza. En el
primer caso, los terroristas, como respuesta y mensaje ante futuros secuestros, pueden asesinar a
algún cooperante. En el segundo caso se pueden producir muertes como daños colaterales, o
porque los terroristas se ven en una situación complicada y pueden actuar contra quienes tienen
más cerca: los cooperantes.
 
En la siguiente tabla queda reflejada la situación a la que nos lleva cada terna indicando
pérdida o no de la ayuda humanitaria, coste y número de vidas humanas.
 

(pérdida
ayuda, coste,
nº vidas)
nada , éxito ,
( 1 , 0 , 4)
nada
nada , éxito ,
(0 , 2’3M , 0)
pagar
nada , éxito ,
(0 , 0’2M , 2)
ejército
nada (0, 0, 0)
hombre , éxito , (1 , 0’05M ,
nada 1+4)
hombre , éxito ,
(0 , 2’35M , 1 )
pagar
hombre , éxito , (0 , 0’25M , 1 +
ejército 2)
hombre (0 , 0’05  ,0)
equipo , éxito , (1 , 0’15M , 2 +
nada 4)
equipo , éxito ,
(0 ,  2’45M , 2 )
pagar
equipo, éxito, (0 , 0’35M ,
ejército 2+2 )
equipo ( 0, 0’15M, 0 )
 

Cuando no hay éxito, sólo consideramos el coste asociado a la maniobra defensiva , y, al no


materializarse el secuestro, se considera un coste cero en vidas humanas.
 

Función de utilidad para el Defensor


 
La función de utilidad del Defensor se obtendrá en función de los costes asociados a cada
situación. En la tabla anterior quedan reflejados los costes económicos consecuencia de las
acciones llevadas a cabo, pero también el coste en vidas humanas y, en algunos casos, la pérdida
de la ayuda humanitaria. Es necesario, por tanto, cuantificar en términos de costes, tanto las vidas
humanas como la pérdida de la ayuda.
 
Primero debemos cuantificar la ayuda humanitaria. Consideraremos un coste de 7 millones de
euros, incluidos los medios de transporte y el trabajo asociado.
 
Cuantificar el valor de una vida no es algo sencillo. Para ello, en este Proyecto, consideramos lo que
se conoce como Valor Estadístico de la Vida (VEV) para asociar un coste a una vida humana. Se
denomina VEV, a la valoración monetaria que la sociedad atribuye a evitar que uno cualquiera de
sus miembros fallezca. Esa cifra resulta imprescindible para evaluar y hacer una provisión eficiente
de programas de gasto público que tienen entre sus beneficios potenciales el de salvar vidas
humanas como, por ejemplo, los programas de seguridad vial o de prevención de riesgos laborales.
El VEV en España, es de, aproximadamente, 2,04 millones de euros .Teniendo en cuenta que el
coste de pérdida de la ayuda humanitaria es de 7 millones de euros y el valor de la vida lo
estimamos en 2,04 millones, el coste para el Defensor asociado a cada terna es:
 

Coste
(millones de
euros)
nada , éxito , 15,16
nada
nada , éxito ,
2,3
pagar
nada , éxito ,
4,28
ejército
nada 0
hombre , éxito ,
17,25
nada
hombre , éxito ,
4,39
pagar
hombre , éxito ,
6,37
ejército
hombre 0,05
equipo , éxito ,
19,39
nada
equipo , éxito ,
6,53
pagar
equipo , éxito
8,51
,ejército
equipo 0,15
 
 
 
 
Para determinar la función de utilidad del Defensor hemos de tener en cuenta que el menor coste
tendrá una utilidad de 1 y al mayor coste se le asociará una utilidad de 0. Por tanto, la función
buscada ha de pasar por los puntos (0, 1) y (19’39, 0).
 
Por otro lado, al Defensor se le supone una actitud de aversión al riesgo. Esto lleva, al estar en

costes, a una función de utilidad exponencial de la forma .


Imponiendo las condiciones anteriores expuestas, obtenemos:
A partir de ahí,

donde la función de
utilidad depende del parámetro c. Para cada valor de ese parámetro, tenemos una función
distinta.
 
Estudiaremos entre qué valores se mueve ese parámetro:

▪ que es una función lineal


decreciente que pasa por los puntos (0, 1) y (19’39, 1). Es el caso que refleja neutralidad frente al
riesgo, al ser la función de utilidad una lineal.
 

▪ . Este límite refleja que en el infinito la función de utilidad es la


función de ecuación y =0; el otro caso extremo.
 
Para realizar un análisis de sensibilidad, y así poder analizar de forma más adecuada los resultados
que se obtengan, consideramos tres posibles funciones de utilidad para el Defensor.

Para c = 0.1, la función de utilidad es

Para c = 0.4, la función de utilidad

Para c = 2, la función de utilidad es

Se consideran esos valores de c, pues reflejan distinto grado de aversión por parte del Defensor.
 

3.3.1.3 Probabilidad condicionada para el Defensor


 
Fijaremos ahora la probabilidad que para el Defensor tiene cada posible resultado: éxito o fracaso,
condicionada a cada par formado por la acción defensiva inicial y el ataque.
 
Se establecen las siguientes probabilidades  y . De esta
última, se especifica que, y . Si llevamos esas
probabilidades a suma 1, pues ambas son complementarias, podemos establecer que las
probabilidades, cuando en primera instancia no se hace nada, son:

Si la acción defensiva inicial, , es distinta a no hacer nada, esas probabilidades son menores, pues
hay una acción defensiva inicial que disminuye la vulnerabilidad del convoy ante un posible
secuestro. Esas probabilidades podemos considerarlas como:
 

 
 
Datos asociados al ATACANTE
estimados por el DEFENSOR
“hombre 0,1 0,9  
Para aplicar el modelo DAD, el
armado”
Defensor ha de ponerse en la
situación del Atacante y, a partir
de informaciones que conozca
“equipo 0,05 0,95
sobre él, ha de estimar
armado” distribuciones de probabilidad
sobre la utilidad del Atacante, la probabilidad que el Atacante asigna a cada resultado

condicionado a y la probabilidad que el Atacante determina sobre la elección por

parte del Defensor de . Es decir, hay que asignar una distribución de probabilidad sobre

.
Consecuencias para el Atacante
 
La función de utilidad del Atacante dependerá de tres factores:
 
a) Si se queda con la ayuda humanitaria (1) o no (0).

b) La ganancia obtenida como consecuencia de la operación.

c) El número de pérdidas humanas por parte de los terroristas.

 
En cuanto a las ganancias obtenidas se tendrá en cuenta siempre una pérdida de 0,03 millones de
euros como consecuencia de la operación de ataque al convoy. Como ganancia real, está el
cobro del rescate que se ha establecido en 2,3 millones de euros. En relación a la pérdida de vidas
humanas, si hay fracaso consideramos dos terroristas muertos como consecuencia de repeler el
ataque y, si hay éxito, no consideramos ninguna pérdida humana por parte de los terroristas,
aunque si se envía al ejército podemos considerar cinco terroristas muertos, pues se produce el
rescate de los cooperantes por la fuerza.
En la siguiente tabla queda reflejada la situación a la que nos lleva cada terna indicando

obtención o no de barco, ganancia y número de vidas humanas .


 

(obtención
ayuda
humanitaria,
ganancia, nº
vidas)
atacar, éxito ,
(1 , -0’03M , 0)
nada
atacar, éxito,
(0 , 2’27M , 0)
pagar rescate
atacar, éxito,
(0 , -0’03M , 5)
enviar ejército
atacar, fracaso (0 , -0’03M , 2)
no atacar (0 , 0 , 0)
 

Estimación por el Defensor de la función de utilidad del Atacante 


 
De forma similar a como hemos hecho para determinar la función de utilidad del Defensor,
procedemos ahora a realizar la estimación de la utilidad del Atacante. Consideramos que depende
de las ganancias que supone para el Atacante cada una de las posibles situaciones.
 
Hemos determinado ya la ganancia en cada una de las situaciones. Ahora tenemos que
determinar cómo afecta a la ganancia la obtención de la ayuda humanitaria y la pérdida de vidas
humanas.
 
Si los terroristas, debido a que la respuesta por parte del Defensor no es según ellos la adecuada, se
quedan con la ayuda humanitaria secuestrada, no podemos considerar que el valor que tenga
para ellos sea el coste que supone esa ayuda humanitaria al Defensor. En este caso, quedarse con
la ayuda les puede aportar una cantidad económica como consecuencia de la venta de esa
ayuda y la utilización de los transportes del convoy. Consideramos que el beneficio que pudieran
obtener es de un millón de euros.
 
Con respecto al valor de la vida de un terrorista hay que tener en cuenta la situación en la que
viven. Consideramos que el coste de una vida, en este caso, es de 0,25 millones de euros.
 
Una vez tenido en cuenta todo lo anterior, establecemos la ganancia para cada una de las
posibles situaciones desde el punto de vista de los terroristas, que recogemos en la siguiente tabla:
 

Ganancia (en
millones de euros)
atacar, éxito ,
0,97
nada
atacar, éxito,
2,27
pagar rescate
atacar, éxito,
-1,28
enviar ejército
atacar, fracaso -0,53
no atacar 0
 
En este caso el Defensor ha de estimar la función de utilidad del Atacante. Para ello dispone de las
ganancias de los terroristas asociadas a cada una de las posibles situaciones que se pueden dar. A
partir de esa información hemos de tener en cuenta que la menor ganancia tendrá asociada una
utilidad de 0 y a la mayor ganancia se le asociará una utilidad de 1. Así, la función buscada ha de
pasar por los puntos (-1,28, 0) y (2,27, 1). Por otro lado, se puede suponer una actitud de afición al
riesgo. Esto lleva, al estar en ganancias, a una función de utilidad exponencial de la forma

.
Como ha de pasar por los puntos determinados anteriormente:
 

A partir de ahí,

. La función de utilidad es una


función en x que depende de un parámetro c, de manera que para cada valor de ese parámetro
tendremos una función de utilidad diferente.
 
 
Determinamos ahora entre qué valores se mueve ese parámetro:
 

Por tanto, cuando c tiende a cero, la función de utilidad que resulta es , que es una
función lineal creciente que pasa por los puntos (-1,28, 0) y (2,27, 1). Es el caso que refleja
neutralidad frente al riesgo, por ser la función de utilidad lineal.
 

▪ . Este límite refleja que, en el infinito, la función de utilidad es y


=0.
 
Por lo analizado hasta el momento, podemos decir que, en principio, el parámetro c varía entre 0 e
. Pero si representamos esa función para distintos valores de c vemos que a partir de un cierto
valor la gráfica de la función se corresponde prácticamente con el caso en el que c tiende a .
Fijaremos que el parámetro c varía entre 0 y 20.
 
Como esta es la función del Atacante que debe ser estimada mediante una distribución de
probabilidad por el Defensor, asociamos la distribución al parámetro c, a partir del cual obtenemos
las distintas posibles funciones de utilidad. Podemos considerar que el parámetro c sigue una
distribución uniforme entre 0 y 20; es decir, .
 
 
 
 

Estimación del Defensor de la probabilidad condicionada del Atacante


 
Como el Atacante también tiene acceso a la misma información a partir de la que hemos

determinado , podemos considerar que las correspondientes probabilidades para el


Atacante tienen una media igual a la probabilidad del Defensor en la misma situación. La
probabilidad toma valores entre cero y uno, por lo que parece aceptable considerar para estimar

una distribución beta cuya media sea . Es decir,

con media .
 
Para cada situación asociamos la correspondiente distribución beta:
 
cuya media es

cuya media es

cuya media es

 
 

Estimación del Defensor de la probabilidad condicionada del Atacante


 
Para la estimación de esta probabilidad, el Defensor ha de ponerse en la situación del Atacante y
establecer la correspondiente distribución de probabilidad en función de lo que el Atacante
pudiera pensar de la respuesta d2 del Defensor.
 
La decisión por la que el Defensor opta en segundo lugar, una vez conocido el resultado: secuestro
o no del barco, podemos considerar que estará en la misma línea que la acción defensiva que
desplegó en primer lugar para evitar el posible secuestro. Si, en primer lugar, apuesta por una
defensa donde intervengan las armas, cuando tenga que decidir en segundo término, lo hará de
forma similar. Lo mismo sucederá en caso contrario.
 
Por ello, a la hora de asignar una distribución a esa probabilidad condicionada lo haremos
mediante una distribución conjunta asociada a las tres probabilidades que llevan el mismo suceso

condicionado ;

 
La distribución que asignaremos a cada vector aleatorio de probabilidades será una distribución de

Dirichlet  cuyos parámetros nos llevan a distintas medias marginales para cada una de las

tres probabilidades, reflejando de este modo cuál de las decisiones del conjunto es más acorde

con la decisión considerada en .


 

a) Si la primera acción es no hacer nada ( “nada”), una vez atacado el convoy, y


si se llega a un resultado de éxito (es decir, el barco es secuestrado), cualquier segunda
defensa es factible pues no se pensaba de forma seria en un posible secuestro y una vez
que éste se ha producido es necesario reaccionar. Esta distribución nos lleva a medias
marginales iguales: no se considera una alternativa más probable que otra
 
b) Si como acción defensiva previa, el Defensor decide enviar junto con el convoy un

hombre armado ( “hombre armado”), indica que hay deseos de evitar el secuestro
y, por lo tanto, en caso de producirse, se espera una respuesta por parte del defensor: no
se contempla la posibilidad de no hacer nada. Más bien, se piensa que se enviará al
ejército en lugar de pagar el rescate, pues esa acción estaría más acorde con la acción
defensiva inicial. En este caso, La media marginal asociada a enviar al ejército es mayor,
aunque no se descarta la opción de pagar el rescate.
 

c) Si inicialmente se envía junto con el convoy un equipo armado ( “equipo


armado”), la respuesta tras el éxito estará más acertada en la línea de la lucha con las
armas: mandar al ejército para liberar el convoy por la fuerza. En este caso, La media
marginal es, por tanto, mucho mayor en el caso de enviar al ejército que en los otros dos
casos.
 
20.4. Implementación en R-Studio
 
 
contad11=0
contad12=0
contad13=0
for (i in 1:1000) {
c=runif(1,0,20)          # generamos c #
u=function(x) (exp(c*x)-exp(-1.28*c))/(exp(2.27*c)-exp(-1.28*c))
# obtenemos utilidad del defensor que depende de c #
 
p111=rbeta(1,40,60)
p112=rbeta(1,10,90)          # generamos aleatoriamente pA(S=1|d1,a1) #
p113=rbeta(1,50,950)
 
y2111=rgamma(1,1,1)
y2211=rgamma(1,1,1)
y2311=rgamma(1,1,1)
sum1=y2111+y2211+y2311       # generamos pA(d2|d11,a1)-Dir(1,1,1) #
p2111=y2111/sum1
p2211=y2211/sum1
p2311=y2311/sum1
 
y2112=rgamma(1,0.1,1)
y2212=rgamma(1,4,1)
y2312=rgamma(1,6,1)
sum2=y2112+y2212+y2312      # generamos pA(d2|d12,a1)-Dir(0.1,4,6) #
p2112=y2112/sum2
p2212=y2212/sum2
p2312=y2312/sum2
 
 
 
y2113=rgamma(1,0.1,1)
y2213=rgamma(1,1,1)
y2313=rgamma(1,10,1)
sum3=y2113+y2213+y2313      # generamos pA(d2|d13,a1)-Dir(0.1,1,10) #
p2113=y2113/sum3
p2213=y2213/sum3
p2313=y2313/sum3
 
utD21=u(0.97)*p2111+u(2.27)*p2211+u(-1.28)*p2311
utD22=u(0.97)*p2112+u(2.27)*p2212+u(-1.28)*p2312     # Nodo D2 #
utD23=u(0.97)*p2113+u(2.27)*p2213+u(-1.28)*p2313
 
us1=utD21*p111+u(-0.53)*(1-p111)
us2=utD22*p112+u(-0.53)*(1-p112)    # Nodo S #
us3=utD23*p113+u(-0.53)*(1-p113)
 
if (us1>=u(0)) contad11=contad11+1
if (us2>=u(0)) contad12=contad12+1    # Nodo A #
if (us3>=u(0)) contad13=contad13+1 }
 
pad11=contad11/1000
pnad11=1-pad11
pad12=contad12/1000
pnad12=1-pad12
pad13=contad13/1000
pnad13=1-pad13
print(pad11)              # Obtención de las probabilidades pD(A|d1) #
print(pad12)
print(pad13)
print(pnad11)
print(pnad12)
print(pnad13)
 
 
c=0.1
uD=function(x) (exp(-19.39*c)-exp(-c*x))/(exp(-19.39*c)-1)
 
k1=max(uD(15.16),uD(2.3),uD(4.28))           # obtener mejor d2 #
k2=max(uD(17.25),uD(4.39),uD(6.37))        #para par (d1,S=1) #
k3=max(uD(19.39),uD(6.53),uD(8.51))        # utilidad defensor para nodo D2 #
 
ut11a=k1*0.4+uD(0)*0.6
ut12a=k2*0.1+uD(0.05)*0.9             # utilidades defensor nodo s #
ut13a=k3*0.05+uD(0.15)*0.95
 
ut11=ut11a*pad11+uD(0)*pnad11
ut12=ut12a*pad12+uD(0.05)*pnad12       # utilidades defensor nodo A #
ut13=ut13a*pad13+uD(0.15)*pnad13
ut14=uD(0.5)
print(ut11)
print(ut12)
print(ut13)
print(ut14)
 
 
c=0.4
uD=function(x) (exp(-19.39*c)-exp(-c*x))/(exp(-19.39*c)-1)
 
k1=max(uD(15.16),uD(2.3),uD(4.28))      # obtener mejor d2#
k2=max(uD(17.25),uD(4.39),uD(6.37))     #para par (d1,S=1) #
k3=max(uD(19.39),uD(6.53),uD(8.51))       # utilidad defensor para nodo D2 #
 
ut11a=k1*0.4+uD(0)*0.6
ut12a=k2*0.1+uD(0.05)*0.9                        # utilidades defensor nodo s #
ut13a=k3*0.05+uD(0.15)*0.95
 
ut11=ut11a*pad11+uD(0)*pnad11
ut12=ut12a*pad12+uD(0.05)*pnad12       # utilidades defensor nodo A #
ut13=ut13a*pad13+uD(0.15)*pnad13
ut14=uD(0.5)
print(ut11)
print(ut12)
print(ut13)
print(ut14)
 
 
c=2
uD=function(x) (exp(-19.39*c)-exp(-c*x))/(exp(-19.39*c)-1)
 
k1=max(uD(15.16),uD(2.3),uD(4.28))        # obtener mejor d2#
k2=max(uD(17.25),uD(4.39),uD(6.37))      #para par (d1,S=1) #
k3=max(uD(19.39),uD(6.53),uD(8.51))       # utilidad defensor para nodo D2 #
 
ut11a=k1*0.4+uD(0)*0.6
ut12a=k2*0.1+uD(0.05)*0.9                        # utilidades defensor nodo s #
ut13a=k3*0.05+uD(0.15)*0.95
 
ut11=ut11a*pad11+uD(0)*pnad11
ut12=ut12a*pad12+uD(0.05)*pnad12         # utilidades defensor nodo A #
ut13=ut13a*pad13+uD(0.15)*pnad13
ut14=uD(0.5)
print(ut11)
print(ut12)
print(ut13)
print(ut14)
 
 

 
BLOQUE V: EL ANALISTA DE INTELIGENCIA Y SU PROFESIÓN
 
“Dijo, pues, Dios a Noé: Hazte un arca de
madera de gofer… He aquí que yo traigo un
diluvio de aguas sobre la tierra”
Génesis 6, 14-17.
 
21. LAS TRES ACOTACIONES CLÁSICAS AL TRABAJO DEL ANALISTA
 
Raras veces un analista trabaja sin ser influenciado por el contexto en el que desarrolla su labor.
Tanto si lo hace para un organismo oficial como si lo hace para una empresa o consultoría privada,
frecuentemente se ve influenciado por factores externos.
 
En primer lugar, un analista en muy pocas ocasiones analiza lo que a él le apetece o considera
mejor, sino que es su director de departamento o superior quien decide sobre qué temas hay que
centrar la atención. Ahí tenemos la primera acotación.
En segundo lugar, aunque durante sus análisis e investigaciones aparezcan nuevos hilos o líneas de
investigación, en muchas ocasiones no es él quien decide si deben seguirse o no. En principio
podríamos buscar una justificación económica para este hecho, pero lo cierto es que el 90% de las
ocasiones depende de otros muchos factores e intereses que seguramente el lector ya se está
imaginando. Ahí tenemos la segunda acotación.
 
En último lugar, y no por ello menos importante, algunas hipótesis de trabajo son descartadas por el
analista, aun teniendo evidencias y un porcentaje de probabilidad lo suficientemente elevado para
ser tenido en cuenta. Por ejemplo, hasta no alcanzar al menos un punto-ocho (en argot estadístico
significa 80% en alguna de las hipótesis) no parece aconsejable descartar otras a no ser que
desciendan hasta el punto-dos o el 20%. De esta forma, nunca descartaremos una hipótesis con un
30% si no alcanzamos una probabilidad suficiente grande con otra y consideremos que ésta es la
acertada. ¿Por qué descartan hipótesis que pueden ser válidas los analistas?.Porque habitualmente
su superior también acota las hipótesis de trabajo descartando las que, por cualquier motivo,
habitualmente político si se trata de temas de seguridad y defensa y de cuestiones relacionados
con la eficacia de los departamentos si se trata de una empresa privada y de inteligencia
competitiva, no parecen las más adecuadas.
 
Finalizo diciendo que algunos analistas senior con renombre y experiencia son capaces de escapar
de estas restricciones y de imponer sus puntos de vista. Pero también se han dado casos de analistas
senior que han perdido su empleo por defender determinadas líneas o hipótesis de trabajo. Desde
luego, si eres un analista junior o estás comenzando no se te ocurra decirle al director del
departamento qué líneas deben seguirse o descartarse porque seguramente te pasarás lo que
queda hasta finalizar el mes sirviendo el café hasta que llegue el día 30 y te despidan. Y eso
independientemente de tu talento, tus conocimientos o tus capacidades para analizar ¡Bienvenido
al mundo real!
 
Los analistas deben aprender a trabajar con estas restricciones. Como analistas debemos siempre
maximizar la utilidad sean cuales sean las circunstancias y el contexto. Y recordad: ¿Cuándo
preparó Noé el arca? Antes del diluvio.
 
22. ELABORACIÓN DE INFORMES
 
La fase de difusión del Ciclo de Inteligencia consiste en la distribución y puesta a disposición del
documento creado al demandante de la información o, por iniciativa propia del analista, al
responsable de su departamento o del servicio, de modo seguro.  Es conveniente que muchos tipos
de documentos sometidos a los niveles más bajos de protección se difundan también de manera
horizontal entre otros analistas y departamentos, con el fin de facilitar la circulación de información
elaborada en beneficio del cruce de datos.
 
En el caso particular de España, el CNI genera tres tipos de documentos:
• Informes: constan de entre 100 y 200 páginas, se remiten con periodicidad diversa y para su
elaboración se emplean varios meses. Abarcan temas de carácter más estratégico y se basan en la
reflexión, revisión, coordinación y sensato juicio. Se convierten en el bagaje con el que algunos
decisores afrontan ciertos temas de largo recorrido.
• Notas generales: constan de entre 2 y 3 páginas y versan sobre temas concretos y de difusión
semanal sobre asuntos que sigue el Centro y que corresponden a necesidades expresadas por el
político.
• Notas específicas: cuando la urgencia de la situación así lo requiere, se producen notas con una
cadencia de entre 2 y 6 horas. Se basan en lo ajustado de los hechos y la rapidez para suministrarlos
al decisor político. Aquí el principal elemento es la información frente a cualquier tipo de
estimación.
En el caso de la inteligencia militar, según el OR5-009 (Procedimientos de Inteligencia,
Contrainteligencia y Seguridad), el CIFAS genera varios tipos de documentos:
• INTREP (Informe de Inteligencia): Documento que se distribuye espontáneamente para la difusión
de inteligencia que se considere urgente para el destinatario. Su texto deberá incluir tanto la
información como las deducciones pertinentes a las que se pueda llegar en el tiempo disponible.
• SUPINTREP (Informe Suplementario de Inteligencia): Documentos que pueden producirse
periódicamente y que están concebidos para proporcionar revisiones y análisis detallados de
inteligencia sobre uno o más temas específicos, con los datos que se han acumulado en un periodo
de tiempo.
• SITREP (Informe de Situación): Documento sobre el estado y la situación de la unidad.
• INTSUM (Resumen de Inteligencia): Síntesis breve de inteligencia elaborada durante un periodo
específico de tiempo. Se utiliza para auxiliar a los mandos en su valoración de la situación actual y
para actualizar otros informes de inteligencia y reflejar las conclusiones e interpretaciones respecto a
las posibles líneas de acción del enemigo.
 
Los mismos modelos siguen los informes de Contrainteligencia, y así podemos distinguir: CI-INTREP
(Informe de Contrainteligencia). CI-INTSUM (Resumen de Contrainteligencia), CI-SUPINTREP (Informe
suplementario de Contrainteligencia).
 
En cuanto al contenido del informe es conveniente tener presentes las siguientes indicaciones:
a) Todas las conclusiones deben estar basadas en unas premisas, siguiendo la lógica de
enunciados. Se deben evitar los entimemas (supresión de las premisas por considerarse obvias o
implícitas en el enunciado) y las falacias (errores en el razonamiento).
b) Separar los hechos del análisis. Separar el qué, cómo, cuándo, dónde y quién del por qué o para
qué.
c) Ser ordenado y esquemático para facilitar la lectura del informe por parte del decisor. Dar
recomendaciones antes que justificaciones, preguntas antes que explicaciones y conclusiones
antes que detalles. El analista no es un escritor de novelas de misterio. Lo bueno, si breve, dos veces
bueno.
d) Escribir el informe de tal forma que sea fácil de leer y de escuchar.
e) Evitar los acrónimos. El decisor no tiene por qué estar familiarizado con el lenguaje técnico de
inteligencia.
f) Usar gráficos si se considera útil para hacer más clara y comprensible la información al decisor.
En cuanto al estilo es de referencia obligada el manual de estilo de la CIA , preparado por el
Directorio de Inteligencia como un estándar para todos los analistas de la agencia. Como
complemento también pude consultarse The Analyst,s Style Manual elaborado por el Mercyhurst
College y el Institute for Intelligence Studies que figura en el apartado bibliográfico de este trabajo.
Entre otras cosas contiene consejos sobre el uso de determinadas palabras, el uso de la puntuación
en el texto, los acrónimos y abreviaturas y el uso de frases cortas y la voz en activo en lugar de
pasivo.
En cuanto a la estructura, según el manual de entrenamiento de análisis de la CIA (Analysis training
handbook), el párrafo de pirámide invertida es una de las estructuras básicas a tener en cuenta
cuando se trata de redactar un informe. Cada párrafo debe comenzar con el núcleo de una
afirmación seguida de las frases destinadas a explicar o dar soporte a esa afirmación en orden
decreciente de mayor a menor importancia o de la generalidad al detalle. De forma coloquial
suele decirse que un párrafo debe comenzar con una explosión y acabar con un quejido. Cada
párrafo debe contener un solo punto principal, dejando los restantes puntos para otros párrafos.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
La pirámide invertida tiene tres versiones diferentes según el soporte que se pretenda dar a la
afirmación principal:
 
La primera versión sitúa al comienzo del párrafo las evidencias, que son las que soportan la
afirmación principal, en orden decreciente de importancia y al final del párrafo, si es necesario, la
información de contexto.
 
La segunda versión sitúa al comienzo del párrafo la afirmación principal que es el juicio principal,
seguidos de los juicios secundarios en orden decreciente. Éstos últimos normalmente son conjeturas
o interpretaciones y por eso conviene advertir al lector con frases de aviso que dejen claro esto
como por ejemplo "En mi opinión".
 
La tercera versión es una mezcla de las dos anteriores, donde la afirmación principal del párrafo es
seguida de los juicios secundarios y la información contextual.
 
La comunicación de informes de inteligencia no supone el final de un proceso. Los resultados
obtenidos permiten replantear las conclusiones obtenidas con las acciones seguidas durante la fase
de planificación e incluso condicionan los futuros procesos de adquisición de información. Henry
Kissinger, Secretario de Estado de los Estados Unidos, decía que desconocía qué productos de la
inteligencia necesitaba, pero que los reconocía cuando los veía en la mesa de su despacho.
 
 
 
23. EL MEMO ANALÍTICO
 
Tanto el memo analítico como el análisis de informes son dos herramientas para lograr introducirse,
en la medida de lo posible, en la mente del analista y calibrar y valorar su trabajo. A ser posible, una
correcta interpretación de las labores del analista debería basarse en ambos aspectos, esto es, no
solo en el análisis del informe que el analista ha redactado sino en el camino seguido para llegar a
él.
 
El memo analítico es un instrumento de apoyo al análisis muy importante. Goza de mala fama entre
los analistas, porque supone un trabajo extra para el analista  (con  el  consiguiente tiempo
invertido) y hace las veces de pequeño "chivato" de si trabajamos  duro  o  nos  dedicamos  a otras
cosas. Además, su mala fama viene asociada a que los superiores suelen recurrir a los memos
analíticos cuando algo ha salido desastrosamente mal o los informes del analista en cuestión
resultaron ser completamente erróneos. En realidad, la mayoría de las veces, funciona como un
mecanismo de control “a posteriori” del trabajo de los analistas.
 
Los memos analíticos se elaboran con fines de triangulación entre analistas o investigadores, para
que otras personas puedan ver lo que hicimos y cómo lo hicimos. El analista refleja en este
documento los pasos que ha seguido para realizar sus análisis, así como el por  qué  ha  escogido
determinadas técnicas de análisis en lugar de otras. La bitácora analítica refleja lo que
“transpiramos” al analizar la información y nos apoya al establecer la credibilidad del método de
análisis. Además, facilita el hecho de que si, por cualquier motivo (incluida la enfermedad, el
periodo vacacional o el temido despido), abandonamos ese análisis, otro analista pueda continuar
donde nosotros lo dejamos. Aunque hay distintas formas de realizar los memos analíticos y cada
organización adopta las suyas, para la elaboración del memo analítico se sugiere seguir las
siguientes indicaciones:
 
● Registrar la fecha de anotación
● Incluir cualquier referencia o fuente importante. Por ejemplo, si consultamos a un colega, anotar
quién es él, su puesto y su comentario. Señalar material de apoyo localizado (fotografías,videos,
etc).
● Marcar los memos con encabezados que sinteticen la idea, categoría o concepto analizado.
● No restringir el contenido de los memos o anotaciones, permitirnos el libre flujo de ideas. Por
ejemplo, incluir anotaciones o comentarios sobre los problemas durante el proceso.
● Usar  diagramas  y  esquemas para explicar ideas, hipótesis y conceptos
● Cuando uno piense que una categoría o concepto haya sido lo suficientemente definido, crear
un memo adicional y etiquetarlo con la palabra “saturación”.
● Registrar las reflexiones que ayuden a pasar de un nivel descriptivo a otro interpretativo.
● Guardar una copia de todos los memos.
 
Una de las maneras de aprender a redactar un informe es viendo y analizando cómo lo han hecho
otros. El análisis de informes reales forma parte de la mayoría de los cursos especializados para
formar analistas de inteligencia.
 
Para realizar dicho análisis examinaremos un informe real párrafo a párrafo indicando para cada
uno el tipo de inteligencia utilizado en su elaboración, así como la etapa de análisis involucrada.
Como ya hemos visto en el capítulo primero existen tres tipos de inteligencia: Inteligencia básica,
actual y estimativa. Ya las hemos descrito y explicado así que no volveré otra vez sobre ello.
 
El examinar el tipo de inteligencia utilizado nos ayuda a saber en qué información se basa el
analista, esto es, si es una información y unos conocimientos que el servicio de inteligencia poseía ya
hace tiempo en su base de datos o si, por el contrario, ha basado su informe en información
reciente. De igual manera podremos distinguir si el informe contiene o no estimaciones sobre la
posible evolución de los acontecimientos en el futuro cercano.
 
De igual forma podemos distinguir tres tipos de análisis diferentes que ya hemos visto en el capítulo
dedicado al análisis y sus fases:
• Análisis descriptivo: se describen sucesos, hechos o acontecimientos, así como las principales
variables y actores involucrados
• Análisis explicativo: se elabora una explicación de los hechos relacionando variables y actores
• Análisis interpretativo: se establecen las posibles causas o efectos mediante inferencias
explicativas soportadas por la información disponible
 
Esto nos ayuda a valorar tanto el valor del análisis efectuado como el grado de riesgo e
incertidumbre con el que lidia el analista. En muchas ocasiones, la ausencia de análisis interpretativo
nos indica una alta incertidumbre en la que el analista no ve factible establecer inferencias o no
puede hacerlo con las premisas o evidencias que maneja.
 
De esta forma, podemos observar párrafo a párrafo los diferentes tipos de análisis involucrados en la
realización del informe, así como el tipo de inteligencia utilizada en cada caso. Si además contamos
con el apoyo del memo analítico elaborado por el analista podremos hacernos una idea más o
menos clara de los pasos seguidos por éste que, finalmente, se plasmaron en el informe.
 
En el anexo de ejercicios, el lector podrá encontrar una aplicación práctica de lo que se acaba de
exponer teóricamente.
 
24. LA PSICOLOGÍA DEL ANALISTA
 
Los analistas, por lo general, no suelen ser individuos superficiales ni conformistas, pero esa misma
característica, en algunas ocasiones, puede perjudicarles, pues la búsqueda continua de nuevas
metas que superar puede conducirles a una especie de infelicidad y ansiedad continuas. Cuando
alcanzan una meta u objetivo ya están pensando en la siguiente.
 
Una de las necesidades que siempre afloran es la necesidad de reconocimiento que va muy ligado
a la propia autoestima del analista. Pero dependiendo del lugar en el que desempeñe su labor, ese
reconocimiento puede darse en contadas ocasiones. Por ejemplo, en un servicio de inteligencia, el
reconocimiento por la labor realizada, si llega, lo hace dentro del propio servicio y en secreto. La
opinión pública o incluso la misma familia no llegan a saberlo. Pero, tristemente, lo que sí sucede
más frecuentemente es la otra cara de la moneda, es decir, que el analista en cuestión llega a
considerar que sus informes nunca se leen o que si se leen no se toman en cuenta. Abro aquí un
pequeño inciso para decir que, generalmente, bien sea en una organización de seguridad y
defensa o en cualquier otra, el decisor tiene varias fuentes para asesorarse, lo cual le hace muchas
veces, visto el conjunto, descartar determinados informes o puntos de vista. Esto, que parece
sencillo de entender, a veces no es asimilado muy bien por el analista que llega a creer que se le
está haciendo el vacío o que se le está marginando desde un punto de vista personal.
 
Llegados a este punto es fácil que el analista pierda motivación o, más grave aún, que entre en una
espiral de depresión exógena (factores o causas externas) que requiere tratamiento psicológico o
psiquiátrico. Este estado de ánimo se refleja también en su vida personal y familiar. Y entonces un
problema aparece encima de la mesa del jefe o del empresario correspondiente porque ahora
tiene en nómina un analista desmotivado, con problemas psicológicos y un estado de ánimo por los
suelos. En honor a la verdad hay superiores y jefes que saben utilizar la inteligencia emocional y otros
que no lo hacen en absoluto. A veces, basta con mostrar cierta empatía con el individuo o
simplemente tomarse unas cañas con él o invitarlo a comer un día para que su autoestima vuelva a
subir. Con estas simples medidas el jefe en cuestión se está ahorrando un montón de dinero en
ausencias de laborales y está ahorrándole a su empleado tiempo de recuperación.
 
Es importante trabajar en equipo, no sólo como requisito metodológico, sino porque el equipo de
análisis, si está bien configurado y no aparece la temida incompatibilidad de caracteres, puede
ayudar a cada uno de los miembros individuales a superar estos escollos y animarle cuando las
cosas no van demasiado bien o cuando cree que su trabajo no es considerado adecuadamente.
 
Los analistas, como cualquier otro profesional de cualquier otro campo, pueden padecer ciertas
patologías vinculadas con su actividad laboral. Me ha parecido interesante resaltar dos:
"Workaholics"  y "Burn out".
 
-Básicamente un "workaholic" es un adicto al trabajo. Esta patología puede detectarse cuando el
sujeto realiza jornadas laborales exhaustivas descuidando su vida familiar y personal sin que haya
razones objetivas para ello. El origen de esta patología está en la búsqueda de reconocimiento
personal y profesional excesivo, el querer demostrar la capacidad para afrontar retos
continuamente. Es una patología que puede darse en los analistas porque además sus "excusas"
para su larga jornada laboral suelen rodearse de coartadas como que la seguridad del país puede
estar en juego, la necesidad de aportar recursos al hogar, las "obligaciones" del servicio al país y un
largo etc. Algunas parejas e hijos han vivido en sus propias carnes lo que significa tener un papa o
una mama "abducida" por el trabajo. En honor a la verdad debemos decir que hay servicios que sí
pueden requerir esta dedicación, como pueden ser los agentes infiltrados o el servicio clandestino,
pero suelen ser circunstancias determinadas y por un espacio de tiempo limitado.
 
-Burn out se produce en aquellas profesiones que son altamente vocacionales como la educación,
la sanidad y la seguridad y se traduce en una pérdida de motivación, de autorrealización, falta de
interés por el trabajo que suele somatizarse en términos de fatiga o depresión. De hecho, en algunas
ocasiones pasa completamente desapercibida bajo la apariencia de una depresión. Suele decirse
que se trata de "agentes quemados".
 
Por todo lo dicho, resulta evidente la importancia de trabajar en equipo, no solo por razones de
eficacia en los análisis, sino también porque se pueden detectar todas estas patologías en los
compañeros y tratar de ayudar en lo posible o remitir a los psicólogos de la organización. Y también
resulta evidente la importancia de tener los memos analíticos al día en previsión de que puedas
ausentarte por un tiempo de tu puesto y otro tenga que seguir tus análisis donde los dejaste la última
vez.
 
Otro de los enemigos fatales del analista es la ansiedad. Todo el personal de un servicio de
inteligencia, bien sea personal civil o militar, del servicio clandestino, de operaciones o del directorio
de Inteligencia, trabajando en España o en el extranjero, conoce y seguramente ha experimentado
en sus propias carnes lo que es la ansiedad. Aunque no sólo afecta a los miembros de un servicio de
inteligencia. Un estudio del SEAS (Sociedad Española para el estudio de la ansiedad y el estrés)
estima que un 13,8% de la población sufre trastornos de ansiedad. De éstos un 7,3% padece lo que
se llama ansiedad generaliza, un 3% trastorno de pánico y un 3% trastorno obsesivo compulsivo.
 
La gran mayoría de los servicios de inteligencia tienen psicólogos en su plantilla dedicados a hacer
funciones de counselling (asesor psicólogico) a petición de los propios agentes o de la institución.
Los futuros aspirantes a trabajar en un servicio de inteligencia deben pasar los test psicológicos
usuales, donde se intentan detectar trastornos que pudieran ser perjudiciales para el desarrollo
normal de su labor profesional. Normalmente se detectan bien los trastornos más graves como
trastorno bipolar, obsesivo compulsivo, depresión endógena, etc. Pero un candidato puede no
tener ansiedad al ingresar y empezar a padecerla después de un tiempo. Es algo normal. Incluso un
poco de ansiedad puede ser buena, dependiendo de la labor que realices. Pero cuando la
ansiedad logra dominar al sujeto y domina su conducta, entonces comienzan los problemas. 
Comienza a decirse, entonces, que el agente infiltrado o analista en cuestión está "quemado"
(también se utiliza esta expresión y la de "copiado" cuando un agente infiltrado es descubierto).
Normalmente estas situaciones de ansiedad y estrés logran superarse con un periodo de descanso y
un tratamiento psicológico o psiquiátrico adecuado. Pero, por desgracia, hay veces en las que no
sucede así.
 
Por último y no por ello menos importante, hablaremos de los fracasos de la voluntad en su función
controladora. Es importante prestar atención a este tipo de mecanismos psicológicos porque
subyacen en muchos de los fallos de inteligencia individuales que, posteriormente, se ven
tristemente reflejados en el trabajo de equipo. Usualmente suelen detectarse cuando el analista
pasa los test psicológicos habituales y esto constituye para la persona una poderosa herramienta no
ya para su trabajo en inteligencia, sino para su propia vida personal. Aquí el lema socrático del
“Gnosce te ipsum (conócete a ti mismo) se nos manifiesta con toda su crudeza. Conocernos a
nosotros mismos es el primer paso para establecer un conocimiento válido de la realidad que nos
envuelve. La tipología que aparece a continuación está elaborada a partir de un capítulo de la
obra La inteligencia fracasada del filósofo español José Antonio Marina.
 
1.   Deficiencias del deseo
La voluntad es la motivación dirigida por la inteligencia. Si no existe deseo, falta la materia prima de
la voluntad, como sucede en los cuadros depresivos. La desgana, el desánimo y el cansancio son
fenómenos de enorme complejidad (a medio camino entre la biología y la psicología) que estudian
los expertos. El deseo es una llamada a la acción, por eso otra de sus deficiencias aparece cuando
el deseo no va seguido del impulso de actuar. La palabra desidia significa, etimológicamente,
“pródigo en deseos”. La falta de motivación en un analista puede tener muchas causas: falta de
reconocimiento por parte de sus superiores, rutina, cansancio, problemas personales y un largo etc.
Pero todo esto puede influir de una forma muy negativa e inconsciente en su trabajo. Por eso una
de las ventajas de formar equipos de analistas es que unos pueden caer en la cuenta del estado de
ánimo de los otros e intentar paliar, en la medida de lo posible, ese déficit.
 
2.   Esclavitud de la voluntad
Aparece cuando las posibilidades de elección son limitadas drásticamente por elementos
fisiológicos o psicológicos. Las adicciones, los lazos emocionales y algunas emociones como el
miedo, sirven de ejemplo. Algunos de ellos ejercen tal influencia que crean el espejismo de que sin
ellos no se puede sobrevivir. El término adicción procede de una palabra inglesa tomada prestada
del viejo francés. Es un término legal drásticamente expresivo. Significaba el poder disponer del
cuerpo ajeno en pago de una deuda.
Este tipo de vulnerabilidades son investigadas en el aspirante a ingresar en un servicio de
inteligencia, porque pueden poner en peligro la seguridad del Estado.
 
3.   La impulsividad
Es la falta de control de los impulsos. Muchos autores consideran que es un factor que aumenta la
probabilidad de comportamientos delictivos, antisociales o criminales. Conviene distinguir tres
fenómenos diferentes: impulsividad, compulsión y automatismo. Conviene distinguir tres fenómenos
diferentes: conducta impulsiva, compulsiones y automatismo.
En la conducta impulsiva hay motivación, idea directriz, conciencia lúcida, pero falta deliberación.
Se pasa directamente al acto. La acción es involuntaria, violenta, imperiosa y explosiva. La
impulsividad es un rasgo temperamental, es decir, se nace con ella, pero mediante el aprendizaje
puede fomentarse o amortiguarse.
Las compulsiones se diferencian de la impulsividad porque son acciones reflexivas y van
acompañadas de una lucha interior.
Los automatismos son involuntarios, no hay idea consciente ni conciencia reflexiva ni discernimiento.
Los tics son un ejemplo.
 
4.   La procrastinación
Significa dejar algo para mañana. En castellano tenemos dos palabras vecinas: “postergar” que
significa “dejar algo para hacerlo más tarde o después de otra cosa a la que en orden normal
precedería” y “diferir” que significa “no hacer algo en el momento en que se había pensado, sino
dejarlo para más tarde”. Son significados muy semejantes pero no son sinónimos de procrastinación
porque ésta no es un simple aplazamiento ni es negarse a hacer una cosa. La procrastinación es
desidia, pero una desidia acompañada de complejas tácticas dilatorias. El procrastinador toma la
firme decisión de hacer una cosa mañana, decisión que volverá a ser aplazada con la misma
resolución al día siguiente. Tiene, pues, una gran fuerza de voluntad para actuar en el futuro, pero
una débil voluntad para el presente. Es como si se diera a sí mismo un talón con fecha renovable. El
procrastinador tiene su propia concepción del tiempo. Suele pensar que realizar una tarea va a
ocupar más tiempo de lo que en realidad ocupa, que no vale la pena iniciar una cosa si no se va a
terminar del tirón y que poco tiempo es ningún tiempo. Manejan el tiempo al por mayor y no al
menudeo, que es como de hecho lo vivimos. Gregorio Marañón se consideraba un “trapero del
tiempo”. En efecto, hay pequeños retales, huecos de tiempo entre una ocupación y otra, que el
procrastinador despilfarra.
 
Una técnica que nos será muy útil para combatir esta deficiencia será la Técnica del Pomodoro . La
técnica fue creada por el sociólogo italiano Francesco Cirillo a finales de los años 80 y básicamente
divide el tiempo dedicado al trabajo en intervalos de 25 minutos (llamados pomodoros) con un
break o descanso de 5 minutos hasta completar cuatro pomodoros (o una hora y 40 minutos de
trabajo), momento en el que se realiza un descanso más amplio de 20 o 25 minutos. Es muy
importante que esos 25 minutos estemos completamente centrados en la tarea evitando
distracciones (el móvil debe estar apagado o en silencio en su defecto, no debemos consultar
nuestro correo personal ni nada que nos distraiga de nuestra tarea).
 
5.   La indecisión
Es un corte, una separación, un salto. Etimológicamente, procede de caedere, que significa cortar.
Después de la deliberación, tengo que elegir una cosa u otra. Este acto supone para muchas
personas un obstáculo casi insalvable. En algunos casos es un fenómeno patológico. La indecisión
casa muy mal con el trabajo cotidiano de un servicio de inteligencia, pues a menudo deben
tomarse decisiones rápidamente con poca información (puzle incompleto) y que conllevan riesgos.
 
6.   La inconstancia y la obcecación
Los proyectos largos, en los que hay que vencer obstáculos, requieren una renovación de la
decisión, una persistencia en el empeño. Un fracaso de la inteligencia es cesar en el esfuerzo antes
de tiempo. Eso es la inconstancia. Según los psicólogos la causa estriba en una dificultad para
soportar el esfuerzo o para aplazar la recompensa. Es también una característica temperamental
que puede fortalecerse o debilitarse mediante los hábitos oportunos. Las sociedades determinan en
cada momento histórico, y por procedimientos sutiles y complejos, el nivel de molestia soportable.
Los psicólogos han estudiado técnicas para el aprendizaje del aguante o “toughness”. Cualquier
persona puede entrenarse, siguiendo estas técnicas, para soportar el esfuerzo.
En el polo opuesto se sitúa la obcecación. Quienes han realizado un sacrificio en dinero, tiempo o
esfuerzo para hacer algo tienden a continuar haciéndolo a pesar de que les suponga más perdidas
que ganancias. Es lo que se conoce con el nombre de “error del inversionista”. Los generales son
famosos por insistir en emplear estrategias cuya inutilidad está claramente demostrada. En la
Primera Guerra Mundial era evidente, aunque sólo fuera por Verdún, que en la guerra de trincheras
los ataques directos no sólo estaban condenados al fracaso, sino que suponían más pérdidas para
los atacantes que para los defensores. Sin embargo, en la batalla de Somme, el general Haig, que
en las primeras horas ya había perdido 57.000 hombres, siguió atacando las posiciones alemanas
con nuevas y terribles pérdidas de tropas. Como el lector podrá imaginar tanto la inconstancia
como la obcecación son peligrosas amistades para el analista de inteligencia. A veces, una
investigación puede durar meses o incluso años, puede estancarse cuando las líneas de
investigación llegan a un callejón sin salida y volver a retomarse casi por azar. En este caso la
constancia se torna imprescindible. De igual forma, la obcecación en seguir una determinada línea
de investigación cuando no aporta resultados, puede ser tremendamente peligrosa.
 
 
 
 
 
 
 
 
 
 
25. EL DECÁLOGO DEL ANALISTA DE INTELIGENCIA
 
I. No idealices la figura del analista. Estamos acostumbrados a ver series y películas en la TV que la
idealizan con el estereotipo del tipo guapo e inteligente que siempre acierta en sus análisis. Nada
más lejos de la realidad. Personalmente no soy demasiado inteligente y te puedo asegurar que
tampoco soy un "adonis" y, sin embargo, soy analista.

II. Olvídate del rol del "genio solitario". Ante la enorme cantidad de información sobre los temas más
variados que es necesario procesar y analizar, los distintos canales por los que se puede obtener y
los distintos tipos de información, se suelen crear equipos de analistas lo más versátiles posibles, con
conocimientos diferentes. Hoy en día, tanto en el sector público como en el privado, se trabaja en
equipo, en colaboración y en coopetición. Los "genios" deben aprender a trabajar juntos, algo que
no siempre es sencillo de lograr.

III. No existen los analistas perfectos. Como seres humanos, somos entidades biológicas falibles.
Recuerda la paradoja del analista. A todo analista le pagan por ser certero en sus análisis, pero
para llegar a ser un analista senior necesitas experiencia y ésta, frecuentemente, se obtiene a partir
de los errores. No confundas el error con el fracaso. Fracasar es tirar la toalla. Debes mostrar siempre
resiliencia ante los fallos, reconocerlos y convertirlos en un instrumento para seguir mejorando. A eso
se le llama "tener madera de analista".

IV. Ten presente que la formación de un analista se basa, cada vez más, en capacidades no en
conocimientos. Lo importante para el analista ya no es el conocimiento en una determinada área,
conocimiento que hoy es muy accesible, sino las herramientas epistémicas necesarias para lograrlo.
Lo determinante hoy para el analista de inteligencia no es ser un especialista en un determinado
campo o área sino las posibilidades y las capacidades necesarias para convertirse en uno en el
menor tiempo posible y, junto a esto, la versatilidad de poder trabajar en varios campos.

V. No olvides el lema socrático del "Gnosce te ipsum" (conócete a tí mismo). Hay numerosas trabas
psicológicas y psicopatologías varias que pueden afectar a tu trabajo. Si las conoces y te conoces
a tí mismo puedes reducir su influencia negativa en gran medida. Si, por ejemplo, eres un
procastinador siempre puedes utilizar la técnica del Pomodoro. Otros peligros son convertirte en un
"workaholic" o adicto al trabajo o tener el síndrome "burn out" y sentirte completamente
desmotivado.

VI. Ten siempre presentes los diferentes niveles y etapas del análisis. Un análisis meramente
descriptivo o explicativo nunca es arriesgado, el interpretativo siempre lo es. Pero
fundamentalmente te pagan por hacer lo segundo. Tú mismo debes evaluar cuando debes
quedarte en los dos primeros o puedes avanzar hasta el tercero calibrando los riesgos y las
probabilidades de acierto. Y cuando la jugada salga mal recuerda el tercer mandamiento.

VII. Puede que las cucarachas te den asco, pero son el ejemplo a seguir en inteligencia. Saben ver
los huecos y adaptan su cuerpo para pasar por ellos, es decir, ponen en juego y adaptan todos los
recursos que poseen para solucionar el problema. Un buen analista resuelve y afronta problemas ya
planteados, pero solo los mejores son capaces de localizar dónde está el problema o ver las
oportunidades. ¡¡¡Seamos cucarachas y detectemos los huecos y las lagunas!!!.
VIII. El memo analítico no es tu enemigo, sino tu aliado. No lo dejes para última hora y tómate tu
tiempo para hacerlo lo más completo posible. La bitácora analítica refleja lo que "transpiramos" al
analizar la información y facilita que si, por cualquier motivo, nos vemos obligados a abandonar ese
análisis, otro analista pueda continuar donde nosotros lo dejamos. Ya sé que piensas que el memo
analítico es solo el "chivato" del jefe pero, créeme, no es así.

IX. "Musement" deriva del verbo inglés muse que significa meditar, ponderar, estar absorto en los
pensamientos. El musement es un estado en el que la mente vaga libre, suelta, de una cosa a otra,
sin seguir regla alguna. Se trata, pues, de un estado mental de especulación libre en el que la
mente juega con las ideas. El musement requiere trabajo previo, la anemia intelectual solo se cura
estudiando y trabajando, la idea feliz suele ser el resultado causal del conocimiento previo
enfocado desde la perspectiva adecuada, pero jamás de la inactividad o la apatía.

X. Tanto si trabajas en el ámbito público o en el privado debes tener en cuenta la cultura de la


organización o empresa en la que estés trabajando. Las diferentes instituciones o compañías
(servicios de inteligencia incluidos) varían en cuanto a culturas organizacionales y éstas, a veces,
son más importantes que las propias normas internas. Son reglas no escritas que debes aprender. Si
eres un recién llegado no se te ocurra la idea de ir de “analista estrella”, pues la experiencia es un
grado y siempre hay gente mucho más lista que tú aunque tú no lo creas o no te des cuenta de
ello.

ANEXO: CUADERNO DE EJERCICIOS

Ejercicio práctico 1

Integración de la información: Trabajando conceptos de información redundante e información no


pertinente.

Objetivos y justificación del ejercicio:

La intención y finalidad del ejercicio es que el alumno compruebe por sí mismo cómo una misma
pieza informativa puede asumir diferentes roles dependiendo del objetivo de la investigación y del
contexto de otras informaciones. Más adelante en el curso, en el apartado de análisis bayesiano,
aprenderá a cuantificar esas piezas informacionales respecto a diferentes hipótesis.

Este ejercicio también enseña a los futuros analistas de un servicio de inteligencia que raramente se
tienen todas las piezas del puzle y que es frecuente tener que “cambiar cromos”, es decir,
intercambiar y compartir información con otros servicios de inteligencia en aras del objetivo
buscado.

Enunciado

Imagina que, como analista de inteligencia, hipotéticamente, recibes encargo de tus superiores de
averiguar el resultado de un partido de futbol entre el Real Madrid y el F.C. Barcelona. Antes de
continuar es preciso remarcar que éste es el objetivo buscado y no otro, para evitar posibles
confusiones. Para averiguar el resultado no dispones de tv, ni radio ni ningún otro medio de
comunicación, pero sí tienes información de cinco fuentes distintas. Dicha información aparece
reflejada en las siguientes tarjetas de la A a la E.
Conforme al objetivo buscado, como analista, debes saber establecer las posibles combinaciones
de tarjetas y diferenciar qué información es redundante y cual es no pertinente. ¿Qué información
no resulta pertinente conforme el objetivo marcado? ¿Qué combinaciones posibles de tarjetas se
pueden realizar para llegar al resultado? ¿Qué información es redundante conforme a las distintas
combinaciones?

 
 

 
 
 
Solución:

Si echamos un vistazo a las tarjetas, salta a la vista que tengo información redundante, pues la
información que contiene la tarjeta A puede obtenerse a partir de la B y la C. La información de la
tarjeta B puede obtenerse mediante una simple inferencia inductiva a partir de la información
contenida en A y C. Lo mismo sucede con la tarjeta C. Ahora bien, si yo tirase cualquiera de ellas
(A,B o C) no perdería información y, al mismo tiempo, no tendría información repetida, con lo que
me ahorraría tiempo. Pero si yo descartase la tarjeta D estaría perdiendo información y, al mismo
tiempo, seguiría teniendo información repetida.
La información que aporta E no nos sirve para nuestro objetivo que, no olvidemos, es
exclusivamente conocer el resultado del partido. Por tanto, podría ser considerada información no
pertinente. Aunque, dependiendo del caso, es claro que podría generar por sí sola otra línea de
investigación.

Ejercicio práctico 2

Análisis de informe real

Objetivos y justificación del ejercicio:

El análisis del contenido de un informe real ayudará al alumno a observar de qué manera se
entretejen los diferentes tipos de inteligencia así como las diferentes fases del análisis a la hora de
redactar un informe.

Enunciado

Se les facilita a los estudiantes un informe real que tendrán que analizar párrafo a párrafo
distinguiendo el tipo de inteligencia utilizado (básica, actual o estimativa) en cada caso, así como
el tipo de análisis empleado (descriptivo, explicativo o interpretativo). En nuestro caso trabajaremos
con una nota informativa desclasificada del Centro Nacional de Inteligencia de España (CNI) sobre
la valoración del presunto comunicado de Al Qaeda reivindicando el atentado en Madrid y que
fue remitido por correo electrónico al diario árabe editado en Londres Al Quds. Desglosaremos
algunos párrafos e iremos indicando tanto el tipo de inteligencia como el tipo de análisis utilizados

Solución:

“Las referencias religiosas que se efectúan como introducción al comunicado se corresponden


literalmente con el texto coránico de las Suras 16:126 (Las Abejas) y 2:191/194 (La Vaca). Estos textos,
entre otros, constituyen referencia habitual en las jutbas de tono radical cuando se trata de justificar
actos de violencia cometidos contra presuntos adversarios del Islam”

Al escribir que esos textos constituyen “referencia habitual” el analista nos está indicando que
conoce otros casos en los que se han utilizado. Está echando mano, pues, de la inteligencia básica
guardada y almacenada por el servicio de inteligencia en su base de datos. Realiza además un
análisis descriptivo de las Suras y uno explicativo de en qué ocasiones son utilizadas.

“El hecho de haber utilizado con precisión párrafos concretos de dichas Suras demuestra la
militancia islámica y los conocimientos del autor del comunicado”

El analista sabe, mediante la consulta de la inteligencia básica, que la precisión en la utilización de


los párrafos de las Suras es un aspecto importante. Y a partir de ahí establece una inferencia y
realiza un análisis interpretativo afirmando la militancia islámica del autor del comunicado.

“Por otra parte, las referencias que efectúa a los últimos atentados cometidos en Estambul (también
reivindicados en nombre de las Brigadas Abu Hafs Al Masri) contienen errores en cuanto a las
víctimas habidas e imprecisiones que permiten deducir un escaso conocimiento, por parte del
autor, de las circunstancias y resultados de dichos atentados”

El analista, mediante la inteligencia básica almacenada, tiene en sus manos o conoce el número
de víctimas y otros detalles sobre los atentados de Estambul. A partir de ahí establece una
inferencia y realiza un análisis interpretativo afirmando el escaso conocimiento del autor de dichos
atentados.
“El nombre Abu Hafs Al Masri es el alias de Muhammad Atef y comienza a ser utilizado por
seguidores de la Jihad Internacional a raíz de su muerte, durante el bombardeo norteamericano de
Afganistán en noviembre de 2001. Atef era uno de los lugartenientes de Osama Ben Laden que
siguió a Ayman Al Zawahiri cuando éste integró su grupo, la Jihad Islámica Egipcia, en las estructuras
de Al Qaeda”

Aquí de nuevo el analista echa mano de la inteligencia básica para realizar un análisis
estrictamente descriptivo.

En el apartado de las conclusiones predominan, lógicamente los análisis interpretativos. No


olvidemos que el analista no se gana el sueldo con análisis descriptivos y explicativos, por
importantes que éstos sean, sino con el análisis interpretativo que es el que orienta las decisiones de
los superiores.

Este análisis estructural se completaría con las aportaciones metodológicas y líneas de análisis
seguidas por el analista que contiene el memo analítico. Ambos nos permiten adentrarnos en la
mente, las circunstancias y los recursos del analista y valorar su trabajo.

Ejercicio práctico 3:

Tipos de inferencias

Objetivos y Justificación del ejercicio: El objetivo de este tipo de ejercicios es ir amueblando la


cabeza del analista de tal forma que sea capaz de ser consciente de los mecanismos lógicos que
emplea en sus análisis y elaboración de informes.

Enunciado: Señalar en cada caso si se trata de un argumento deductivo o inductivo

1. Todos los pájaros pueden volar. Nunca he visto uno que no lo pueda hacer

2.  Mis tres cisnes son blancos; así que, todos los cisnes son blancos.

3.  Le envié una carta hace tres semanas y aún no he recibido contestación, por tanto, la carta se
ha debido perder en el correo

4. Pedro es un militante antinuclear ya que todos los miembros de Greenpeace son militantes
antinucleares y Pedro pertenece a Greenpeace.

5.  Luis tiene dolor de cabeza de nuevo. No se está cuidando muy bien

6.  Los números pares no pueden ser impares. El ocho es un número par, así que el ocho no es impár.

7. María y José tienen, los dos, ojos azules. Así que la niña que están esperando tendrá ojos azules7.
Hoy es jueves y tú llegaste hace tres días, así que llegaste el lunes

8. Ricardo debe ser conservador ya que la mayoría de los que apoyan a Berlusconi son
conservadores y Ricardo lo apoya.

9. Ningún Vulcaniano es un Klington. Mr.Spock es un Vulcaniano. Por tanto, él no es un Klingon.


 

Solución:

1. La premisa es "Nunca he visto uno que no lo pueda hacer" y la conclusión es "Todos los pájaros
pueden volar". Es un argumento inductivo porque va de una premisa particular a una conclusión de
carácter general.

2. La premisa es "Mis tres cisnes son blancos" y la conclusión "Todos los cisnes son blancos". Se va de
una premisa particular a una conclusión de carácter general, luego se trata de una inducción.

3. En este caso tenemos dos premisas: "Le envié una carta hace tres semanas" y "Aún no he recibido
contestación". La conclusión es: "La carta se ha debido perder en el correo". Se parte de dos
premisas de carácter particular para llegar a una conclusión de carácter general. Inductivo.

4. Hay dos premisas: "Todos los miembros de Greenpeace son militantes antinucleares" y "Pedro
pertenece a Greenpeace". La conclusión a la que se llega es que "Pedro es un militante
antinuclear". A partir de dos premisas de carácter general se llega a una conclusión con carácter
particular. Deducción.

5. La premisa es que "Luis tiene dolor de cabeza de nuevo" y la conclusión es que "No se está
cuidando muy bien". A partir de una premisa de carácter particular se llega a una conclusión de
carácter general. Inductivo.

6. Las premisas son premisas generales: los números pares no pueden ser impares y el ocho es un
número par. La conclusión es que el ocho no es impár, que es una conclusión de carácter
particular. Deducción.

7. La premisa es que "María y José tienen los ojos azules". Es una premisa de carácter particular. La
conclusión es que la niña tendrá los ojos azules, que es de carácter general. Inducción.

8. La conclusión es que "Ricardo debe ser conservador" y es una conclusión de carácter particular.
Las premisas son: "La mayoría de los que apoyan a Berlusconi son conservadores" y "Ricardo lo
apoya". Son premisas generales. Por tanto, se va de lo general a lo particular. El argumento es
deductivo.

9. Las premisas son de carácter general: "Ningún vulcaniano es un Klingon" y "Mr. Spock es un
vulcaniano". La conclusión es de carácter particular: "Mr. Spock no es un Klingon". Por tanto, se va
de lo general a lo particular y el argumento es deductivo.

Ejercicio práctico 4
Introducción al uso de patrones
Objetivo y justificación del ejercicio:

Este ejercicio ha sido ideado con el propósito de adentrar al futuro de analista, de una forma
sencilla y didáctica, en el uso y la utilización de patrones en el análisis. Esta introducción debe
completarse con los ejercicios más técnicos de construcción de patrones espaciales y temporales y
las diferentes métricas asociadas a dichos patrones

Enunciado:

Un agente debe visitar a sus contactos en lugares diferentes de una misma ciudad, pero algunos
accesos de unos lugares a otros pueden ser imposible por falta de carretera que los una o bien
puede estar cortados, es decir, con puestos de control que descubrirían al agente infiltrado. Desde
el cuartel general, con la información obtenida de imágenes de satélite e interceptación de
comunicaciones, elaboran un pequeño esquema para ayudar al agente a elegir la mejor ruta para
visitar a sus contactos. Imagina que tú eres ese agente. Dada la siguiente matriz y el siguiente dibujo.
Descubre las claves que ayudarán al agente a moverse por la ciudad.

 
Solución: Las claves son:

0: De un punto al mismo punto

1: Camino abierto

2: Camino Cerrado

Ejercicio práctico 5: Cálculo del centro de gravedad con ponderaciones

Objetivo y justificación del ejercicio

El objetivo de este ejercicio es que el alumno se familiarice con el cálculo del centro de gravedad
utilizando ponderaciones

 
Enunciado

Se le proporcionan al analista un eje de


coordenadas donde aparecen situadas distintas ciudades de EE.UU y un cuadro de frecuencias de
número de robos por ciudad. Se pide calcular el centro de gravedad.

 
Solución:

BIBLIOGRAFÍA:
AGUADO, J. M. (2008). Información, Observación y Autorreferencia en DÍAZ, Jose María y
SALTO, Francisco (Coord.) ¿Qué es información?. Actas del Primer Encuentro Internacional
de Expertos en Teorías de la Información. Un enfoque interdisciplinar, pp.(467-
487)Universidad de León, León
ALISEDA, A. (1998),  La abducción como cambio epistémico: C.S.Peirce y las teorías
epistémicas en inteligencia artificial, Analogía nº 12, nº 1, pp. 125-144.
BARRENA, S. (2007). La razón creativa. Crecimiento y finalidad del ser humano según C.S.
Peirce. Editorial Rialp, Madrid.
BATESON, G. (1985). Pasos hacia una ecología de la mente. Una aproximación
revolucionaria a la autocomprensión del hombre. Ediciones Lohle-Lumen, Buenos Aires
BERTALANFFY, L. (1993). Teoría General de los Sistemas. Fondo de Cultura Económica,
Madrid.
BORDES, M. (2011). Las trampas de Circe: falacias lógicas y argumentación informal.
Cátedra, Madrid.
CALDUCH, R. (2000). Métodos y técnicas de investigación en Relaciones Internacionales
(Curso de Doctorado)
CAPURRO, R. (2008). Pasado, presente y futuro de la noción de información en DÍAZ, Jose
María y SALTO, Francisco (Coord.). ¿Qué es información?. Actas del Primer Encuentro
Internacional de Expertos en Teorías de la Información. Un enfoque interdisciplinar, pp.(1-
26). Universidad de León, León.
CARRASCO, P. (2010). Análisis masivo de datos y lucha contraterrorista, pp. 485-499 en
VELASCO, F., NAVARRO, D., ARCOS,R., (2010). La inteligencia como disciplina científica,
Plaza y Valdés: Madrid.
CHAINEY, S., TOMPSON, L. y UHLIG, S. (2008). The Utility of Hotspot Mapping for Predicting
Spatial Patterns of Crime, Security Journal, Nº 21, pp. 4-28. Disponible en:
http://www.palgrave-journals.com/sj/journal/v21/n1/pdf/8350066a.pdf con fecha
22/04/2016

CLAUSER, J. (2008). An introduction to intelligence research and análisis. Scarecrow


professional intelligence education series, nº 3, The scarecrow press, INC, Lanham,
Maryland

COHEN, S.B. (1980). Geografía y política de un mundo dividido. Ediciones Ejército, Madrid.
COVERTINO, G.; BILLMAN, D.; PIROLLI, M. (2006). Collaborative Intelligence Análisis with
CACHE: Bias Reduction and Information Coverage. Disponible en la web:
http://www2.parc.com/istl/groups/uir/publications/items/UIR-2006-09-Billman-CACHE.pdf

DAVIS, J.(2002). Sherman Kent and the Profession of Intelligence Analysis, The Sherman Kent
Center for Intelligence Analysis Occasional Papers: Volume 1, Num 5,
https://www.cia.gov/library/kent-centeroccasional papers/pdf/OPNo5.pdf

DUCOTE, B. (2010). Challenging the Application of PMESII-PT in a Complex Environment,


School of Advanced Military Studies, Fort Leavenworth, Kansas.

ESTEBAN, M.A. (2007). Glosario de Inteligencia. Ministerio de Defensa, Centro de


Publicaciones, Madrid.

GARRIDO, M. (2005). Lógica Simbólica. Tecnos, Madrid.


GEORGE, R y BRUCE, J (Editores) (2008). Analyzing intelligence. Origins, Obstacles and
innovations. Georgetown University Press, Washington, D.C.
GODET, M. (2007).  Prospectiva estratégica: problemas y métodos, Cuadernos de LIPSOR,
Cuaderno nº 20.
GUISÁNDEZ, J. “Inteligencia, Contrainteligencia y Derecho humanitario”, Revista de
aeronaútica y astronaútica, n. 726, Septiembre 2003

HERBERT, M. (2006). The Intelligence Analyst as Epistemologist. International Journal of


Intelligence and CounterIntelligence, vol 18, nº3.
HEUER ,R. J. (1999). Psychology of intelligence analysis. Center for the study of intelligence. 
HEUER, R.J. y PHERSON, R.H. (2015). Técnicas Analíticas Estructuradas para el análisis de
inteligencia. Plaza y Valdes, Madrid.
JIMENEZ, F. (2012). Manual de Inteligencia y Contrainteligencia. Editorial CISDE, Madrid.
KAHLE, D. y WICKHAM, H. (2013). Ggmap: Spatial visualization with ggplot2, The R Journal,
Vol 5/1. Disponible en: https://journal.r-project.org/archive/2013-1/kahle-wickham.pdf

KENT, S. (1966). Inteligencia Estratégica. Editorial Pleamar, Buenos Aires.


KENT,S.(1964). Words of Estimative Probability. Studies in Intelligence. Journal of the
American Intelligence Professional.
MARINA, J.A. (2004). La inteligencia fracasada.Teoría y práctica de la estupidez.
Anagrama, Barcelona.
MARRIN, S. (2007). Intelligence Analysis Theory: Explaining and Predicting Analytic
Responsibilities. Intelligence and National Security, v. 22, nº6.

MARRIN, S. (2003). CIA´s Kent School: Improving training for new analysts. International
Journal of Intelligence and Counterintelligence, vol. 16, nº4.

NAVARRO, D. El ciclo de inteligencia y sus límites. Cuadernos Constitucionales de la


Cátedra Fadrique Furió Ceriol nº 48.

   NAVARRO, D. y ESTEBAN, M. A. (Coords) (2007). Terrorismo global. Gestión de información


y servicios de inteligencia. Ed. Plaza y Valdés, Madrid
NAVARRO, D. y VELASCO, F. (2009) El alma de la victoria. Estudios de inteligencia
estratégica. Ed. Plaza y Valdés, Madrid.

POPPER, K R. (1999). El mundo de Parménides. Ensayos sobre la ilustración presocrática.


Paidós, Barcelona.

RIOS INSUA, David, RIOS, Jesús (2012) Adversial Risk Análisis for counterterrorism modeling,
Risk Analysis, vol 32, issue 5. Disponible en la web en:
http://zenodo.org/record/6885/files/Adversarial_Risk_Analysis_for_Counterterroris
m_Modeling.pdf

RIOS INSUA, David, RIOS, Jesús y BANKS, D. (2009). Adversarial Risk Analysis, Journal of the
American Statistical Association, 104, 841–854

RUÍZ, A. (2011). SIG, crimen y seguridad. Análisis, previsión y prevención del fenómeno
criminal. Universidad Complutense de Madrid, Madrid.

SALMON, M.H. (2013). Introduction to Logic and Critical Thinking. Wadsworth Cengage
Learning, EE.UU.

SEBEOK, T.A. y UMIKER-SEBEOK, J. (1994). Sherlock Holmes y Charles S.Pierce. El método de


la investigación. Paidós, Barcelona.

SEVILLANO, J.C. (2010). Una aplicación del análisis de riesgos adversarios: secuestro de un
barco pesquero por piratas somalíes. Trabajo Final de Máster en Ingeniería de Sistemas de
Decisión. Universidad Rey Juan Carlos.

SOBRINO, Alejandro (2011). Lógica borrosa en Compendio de Lógica, Argumentación y


Retórica, pp. 83-87, VV.AA. Trotta, Madrid
SOMIEDO, J.P. (2014). El análisis de información en entornos colaborativos. Universidad
Nacional de Educación a Distancia (UNED), Madrid.
SOMIEDO, J.P. (2012). El papel de la epistemología en el análisis de inteligencia.
Inteligencia y seguridad: Revista de análisis y prospectiva, nº12, pp. 241-272.
SOMIEDO, J.P. (2012). Bitácora de análisis o memo analítico. Foreknowledge nº 2, Pretoria
(South Africa):  4Knowledge Analysis Solutions.
SOMIEDO, J.P. (2014). Una aproximación al análisis de riesgos adversarios (ARA) aplicado a
la lucha contraterrorista. Instituto Español de Estudios Estratégicos, Madrid. Disponible en:
http://www.ieee.es/en/Galerias/fichero/docs_opinion/2014/DIEEEO05-
2014_AnalisisdeRiesgos_JuanPabloSomiedo.pdf
 
SOMIEDO, J.P. (2016). El papel de los catalizadores de transformación política en los golpes
de estado suaves. Instituto Español de Estudios Estratégicos, Madrid. Disponible en:
http://www.ieee.es/Galerias/fichero/docs_marco/2016/DIEEEM07-
2016_Catalizadores_GolpesEstado_JPSomiedo.pdf
SOMIEDO, J.P. (2018). El análisis bayesiano como piedra angular de la inteligencia de
alertas estratégicas. Revista de Estudios de Seguridad Internacional (RESI), Vol 4.
 
THOMAS, G. (2009). Al servicio de su majestad. Cien años de espionaje británico. Ediciones
B, Barcelona.
VEGA, L. y OLMOS, P. (Coord) (2011).  Compendio de Lógica, Argumentación y
Retórica. Trotta, Madrid
VV.AA.(2013). Philosophy of Information: An Introduction. Society for the Philosophy of
Information (SPI). Disponible en la web: http://socphilinfo.org/
VV.AA. (2008). The Analyst’s Style Manual. Mercyhurst College Institute for Intelligence
Studies Press.
VV.AA. (2001). Método de análisis geopolítico-militar. Centro Superior de Estudios de la
Defensa Nacional (CESEDEN), Madrid.
VV.AA. (2009). A tradecraft primer: Structured Analytic Techniques for improving
Intelligence Analysis, U.S. Government: https://www.cia.gov/library/center-for-the-study-of-
intelligence/csi-publications/books-and-monographs/Tradecraft%20Primer-apr09.pdf
WHEATON, K.J., LEE, J., DESHMUKH, H. (2009). Teaching Bayesian Statistics To Intelligence
Analysts: Lessons Learned. Journal of Strategic Security, vol 2, nº 1, Article 3.
ZLOTNICK, J. (1972). Bayes theorem for intelligence analysis. Center for the study of
intelligence, vol 16, nº2.
 
 
 
 
 
 
 
 

SOBRE EL AUTOR

Juan Pablo Somiedo es analista metodológico y profesor de Secundaria en las asignaturas de


Matemáticas y Filosofía. Es Licenciado en Estudios Eclesiásticos por la Universidad Pontificia de
Salamanca, Grado en Estadística por la Universidad Carlos III de Madrid, Máster en Seguridad y
Defensa en la especialidad de inteligencia por el CESEDEN (becado por el Ministerio de Defensa),
Máster en Analista de Inteligencia por la Universidad Rey Juan Carlos y Carlos III de Madrid y Máster
en Formación de profesorado de Secundaria por la Universidad Complutense de Madrid.
 
Es analista externo del IEEE (Instituto Español de Estudios Estratégicos) y profesor de metodología en
análisis de inteligencia en diversos cursos universitarios sobre análisis de inteligencia.
 
Ha sido capellán militar con la consideración de capitán ocupando destinos en el EMAD, el
CESEDEN y el Ministerio de Defensa. Actualmente está casado y tiene una hija.
 

 
 
[1]
El lector se preguntará, no sin motivo, cómo pudo aquél irónico y bromista profesor de Historia
sistematizar toda una metodología en inteligencia. La respuesta está en su especialización. Sherman
Kent no fue un profesor convencional de historia, sino que enseñaba la historia como una serie de
cambios metodológicos y cognitivos. Explicaba a sus alumnos la importancia de verificar sus fuentes
y dejar atrás sus predilecciones y prejuicios personales. Como el lector podrá comprobar eso no está
muy lejos del trabajo de cualquier analista (Davis, 2002, p.3).
[2]
La CIA denomina a este tipo de inteligencia como “Current Intelligence” o inteligencia actual o
corriente. Este tipo de inteligencia queda reflejada en el “The President's Daily Brief”. Es un
documento secreto que se produce cada mañana para mantener informado al Presidente de los
Estados Unidos. Se entrega al Presidente seis días a la semana, y está redactado sobre la
inteligencia del momento y destinado a proporcionar información a determinados altos cargos,
desarrollando los acontecimientos sucedidos en las últimas 24 horas y avanzando lo que pude pasar
en las próximas 24 horas. Hecho para ser leído en diez o quince minutos, este documento es una
poderosa herramienta para centrar la atención del Presidente en un tema determinado. Se
distribuye por los correos de la CIA sobre las 7.00 horas de la mañana. La comunidad de inteligencia
se refiere a este documento como “El Santo Grial” de los secretos de la nación.
[3]
Se refiere a la contemporización con el Hitler de Múnich en 1938 se utilizó, por ejemplo, para
acusar a Occidente de hacer lo mismo con Slobodan Milosevic, que tras la caída el muro de Berlín,
para garantizar la supervivencia de su partido y la suya propia junto con otros beneficios
económicos, no dudó en adoptar el papel de un nacionalista serbio radical e inició una especie de
segundo Holocausto.
[4]
Esta narración fantástica está en el origen del nombre de las técnicas de remuestreo estadísticas
denominadas bootstrap, que derivan de la frase “to pull oneself up by one’s bootstrap”.
[5]
Aconsejo al lector interesado en el tema de las alertas estratégicas la lectura del manual de
Cynthia M. Grabo titulado “A handbook of Warning Intelligence”. A pesar de su antigüedad sigue
siendo uno de los mejores manuales al respecto.

[6]
En 1906 Francis Galton bautizó el concepto de regresión a la media. Su tesis era que la predicción
de un grupo de persona expresada como un todo, mejora la precisión de cualquier experto
individual. James Suroweicki señala de nuevo recientemente esta idea en su libro “The wisdom of
crowds”. A nivel estadístico, lo que ocurre es que si se agregan apropiadamente la visión de
muchas personas, el ruido queda compensado con el ruido, y nos quedamos con la señal. Es una
teoría realmente útil y eficiente, pero que requiere de la heterogeneidad de las fuentes, la toma de
decisiones independientes y un buen proceso de agregación de información. (Somiedo, 2014:29).

[7]
 
 

[8]
El término “Role” se emplea para nombrar los cuatro niveles que pueden tener las capacidades
médicas de una unidad sanitaria militar. El hospital de campaña está catalogado como Role 3. Esto
quiere decir que tiene todos los servicios propios de un hospital en el mismo terreno de operaciones,
por lo que no resulta necesario que el paciente sea evacuado, ya que puede ser intervenido,
tratado, medicado y pasar la convalecencia en estas instalaciones sin necesidad de ser trasladado.

 
[9]
En realidad esta estrategia, al menos en sus aspectos fundamentales, tuvo su origen en el campo
de la lucha antidroga. Se le atribuye a Robert Bonner, al frente de la DEA en 1990. Pero, de hecho,
Bonner no hizo más que seguir la doctrina militar establecida sobre la importancia de los centros de
gravedad del enemigo. 11Ya en 1994 el analista y ex piloto de combate de la Fuerza Aérea Rex
Rivolo, puso de manifiesto en un informe que, lejos de impedir el flujo de cocaína a la calles de
Estados Unidos, la eliminación de los capos de la droga, la estaba acelerando. La eliminación de los
capos aumentaba la oferta. Más recientemente y en el ámbito de Defensa, el Pentágono ha
criticado la excesiva dependencia de la administración Obama de esta estrategia en la lucha
contraterrorista y ha puesto en duda su eficacia contra Daesh calificándola de “demasiado
aséptica” y contraponiéndola a los beneficios del envío de tropas sobre el terreno.
[10]
Puntos en común con este tipo de análisis, pero obviamente con objetivos diferentes, se pueden
establecer con el análisis del entorno genérico o análisis PEST, muy utilizado en análisis estratégico
de la empresa y en inteligencia competitiva.

[11]
La obra figura en el apartado bibliográfico de este trabajo
[12]
El lector interesado podrá encontrar un video en la web en la que un oficial explica esta técnica
de forma resumida: https://www.youtube.com/watch?v=MGQ1FQwbz0M

[13]
http://www.samsi.info/
[14]
El profesor David Ríos, hijo del profesor Sixto Ríos, (eminente matemático que colaboró en su día
en la formación de los oficiales de la Armada en Investigación Operativa), es actualmente el
responsable de la Cátedra AXA ICMAT-CSIC en la Universidad Autónoma de Madrid.

También podría gustarte