Está en la página 1de 214

I Seminario sobre Gestión del Conocimiento y Servicios de

Inteligencia en el siglo XXI (Colmenarejo, abril de 2003).

Diego Navarro Bonilla

(Universidad Carlos III de Madrid)

Miguel Ángel Esteban Navarro

(Universidad de Zaragoza)

(eds.)

Universidad Carlos III de Madrid. Boletín Oficial del Estado

Instituto Español de Estudios Estratégicos (Ministerio de Defensa)

Madrid

2003

1
Presentación

La necesidad y el uso de la información por parte de los Estados para tomar sus
decisiones y su aplicación para protegerse contra amenazas internas o externas es una
constante histórica. Sin embargo, es en la actualidad cuando la información se ha convertido
en un elemento estratégico clave de los cambios sociales, económicos, políticos, culturales y
militares, gracias a una revolución tecnológica sin precedentes que permite producir, reunir,
organizar, gestionar y transmitir ingentes cantidades de información para su transformación
en conocimiento. La expresión sociedad de la información y del conocimiento quiere recoger
este fenómeno histórico de nuestro tiempo.

Dentro del ámbito estricto de la seguridad y la defensa nacional, la diversidad y el


carácter no convencional de las nuevas amenazas del siglo XXI: proliferación de armas de
destrucción masiva, infoguerra, ciberterrorismo, guerra y terrorismo bacteriológico, redes
mafiosas de tráfico de armas y narcóticos, etc. frente al tradicional enfrentamiento de
ejércitos nacionales con grandes efectivos humanos y materiales que se despliegan sobre el
territorio, refuerzan aún más si cabe la necesidad y la importancia de disponer de
información y conocimiento de muy diversa procedencia y naturaleza, por parte de las
Fuerzas Armadas y los Cuerpos y Fuerzas de Seguridad del Estado. La información posee
una dimensión estratégica de primera magnitud, bien como medio activo de defensa:
conocer para prevenir, o reactivo: conocer para atacar.

El año 2001 marcará posiblemente un punto de inflexión en los servicios de inteligencia


para la seguridad y defensa nacional. En la sociedad de la información fueron precisamente
la falta de información o la no integración de los datos disponibles por una defectuosa
gestión, algunas de las causas que permitieron los atentados del once de septiembre en
Washington y Nueva York.

Se necesitan soluciones concretas capaces de controlar y convertir en conocimiento útil


las ingentes cantidades de información que deben procesar los organismos responsables de
la inteligencia de un país. Se trata de convertir los servicios de inteligencia, según el director
del Plan Maestro de la Inteligencia Militar de los Estados Unidos Keith Masback, en “una
fuerza basada en el conocimiento, rápidamente desplegable y globalmente enfocada”
(2002). Sólo esto permitirá que la inteligencia nacional cumpla el objetivo de “ver primero,
2
comprender primero, actuar primero y terminar con decisión”. Pero en una sociedad y un
Estado democrático los medios para lograr este objetivo deben realizarse dentro del marco
definido por la ley y presidido por el respeto de los derechos humanos y del ordenamiento
jurídico internacional.

Poner de manifiesto estos hechos y, en especial la función y la utilidad de la gestión del


conocimiento para la creación de inteligencia estratégica para la seguridad y la defensa, así
como reflexionar sobre algunos de los elementos tecnológicos, documentales, jurídicos y
militares relacionados con ellos, más que responder a preguntas o dar directrices de cómo
actuar, fue el objetivo que nos animó a impulsar el Primer Seminario sobre Gestión del
Conocimiento y Servicios de Inteligencia en el siglo XXI, cuyas intervenciones se recogen en
este libro.

El Seminario se ofreció como Curso de Humanidades de la Universidad Carlos III de


Madrid y se celebró durante el mes de abril de 2003 en el Colegio Mayor Residencia de
Estudiantes “Antonio Machado” en el campus de Colmenarejo de la citada universidad. Fue
organizado por el Instituto Universitario Agustín Millares Carlos de Documentación y Gestión
de la Información de la Universidad Carlos III de Madrid y por el Instituto Español de
Estudios Estratégicos del Ministerio de Defensa, bajo la coordinación de los profesores
Diego Navarro Bonilla (Departamento de Biblioteconomía y Documentación de la
Universidad Carlos III de Madrid) y Miguel Ángel Esteban Navarro (Departamento de
Ciencias de la Documentación de la Universidad de Zaragoza).

La participación en este seminario de documentalistas, informáticos, militares y juristas


configuró el marco apropiado para reivindicar la importancia de los procesos documentales
de obtención, procesamiento y análisis de información para la elaboración de conocimiento
que contribuya a la toma de decisiones, mediante su integración en el ciclo de producción de
inteligencia estratégica para la seguridad y la defensa. Asimismo, se insistió en los retos y
cambios organizativos y tecnológicos que deben asumir los servicios de inteligencia
nacionales para adaptarse a un panorama internacional convulso que plantea no pocos retos
y sugerentes reflexiones en torno a su estructura, funcionamiento y capacidades operativas
y tecnológicas.

El importante número de asistentes al seminario, así como la magnífica acogida que tuvo
por parte de los organizadores y los ponentes, nos permite contemplar la posibilidad de

3
repetir la experiencia en una próxima edición y nos anima a emprender nuevos proyectos en
este campo.

No queremos concluir esta breve presentación sin hacer una mención expresa de
reconocimiento a todas las instituciones, órganos universitarios y personas que hicieron
posible con su apoyo, sugerencias y ayuda económica para que nuestra iniciativa viese la
luz. En particular, transmitimos nuestro más sincero agradecimiento al Excmo. Sr. Rector
Magnífico de la Universidad Carlos III de Madrid Don Gregorio Peces-Barba Martínez, al
Instituto Universitario Agustín Millares Carlo de Documentación y Gestión de la Información
de la Universidad Carlos III de Madrid, al Instituto Español de Estudios Estratégicos del
Ministerio de Defensa y a los siguientes centros y órganos de la Universidad Carlos III de
Madrid: Vicerrectorado de Actividades Culturales, Deportivas y Residencias, Vicerrectorado
del campus de Colmenarejo, Colegio Mayor Residencia de Estudiantes “Antonio Machado”,
Facultad de Humanidades, Comunicación y Documentación, Vicedecanato de Cursos de
Humanidades de esta Facultad y Departamento de Biblioteconomía y Documentación.
También queremos agradecer a Dña. Irene Martínez Martínez su amabilidad y su labor de
apoyo en la organización.

Diego Navarro y Miguel A. Esteban, Colmenarejo, julio 2003.

4
Conflictos bélicos e Información: nuevas perspectivas para nuevos escenarios1

José Antonio Moreiro González


Departamento de Biblioteconomía y Documentación
Universidad Carlos III de Madrid
jamore@bib.uc3m.es

La Sociedad de la Información ha extendido poderosamente las actividades cognitivas


a cuantas actividades desarrollamos los humanos. De forma que la gestión de lo abstracto,
del conocimiento, da ventajas a quien la atiende debidamente. Este proceder no ha sido
ajeno a la mejora del rendimiento de los ejércitos, es más, podemos considerar que es un
campo pionero en la aplicación de los métodos más avanzados. La información al servicio
bélico sigue un tratamiento a través de las mismas fases que los tradicionales sistemas
documentales, con mayor proximidad aún a los datawarehouses empresariales, si bien con
unas exigencias de exactitud y disponibilidad muy superiores, y mostrando una potentísima
combinación de recursos de información propios y ajenos, así como valiéndose de
avanzadísimas herramientas tecnológicas.

La información militar siempre ha buscado unos elevados niveles de rigor y calidad


para garantizar una aplicación correcta. Son estos unos rasgos que no evitan un tratamiento
similar al seguido en otros sistemas de información, aunque se haga mediante unos
procesos muy particulares. La selección de fuentes es al mismo tiempo retrospectiva, sobre
materiales almacenados, sin olvidar la alimentación de los sistemas en tiempo real, es
también múltiple en recursos tanto ajenos como propios, pero son estos los que se
convierten en el factor decisivo. La distribución debe realizarse de forma instantánea, por
múltiples medios que certifiquen un acceso que debe ser restringido y bajo sigilo. Aunque
podemos determinar como su elemento decisivo la fusión de recursos y una recuperación
inmediata y segura para la toma de las oportunas decisiones. Más que nunca se hace
realidad aquí el aserto de que la información es poder.

1
Esta conferencia tiene su origen en el texto presentado al Homenaje a Juan Antonio Sagredo Fernández: Estudios de
bibliografía y fuentes de información, Madrid, Universidad Complutense, 2001, pp. 409-440.

5
1. La causa de la guerra en el origen y la consolidación de la Ciencia de la
Información.

No hay duda de que los grandes conflictos bélicos han servido de oportunidad para el
replanteamiento de actividades en casi todos los sectores productivos, y han motivado
muchas renovaciones técnicas. En este mismo sentido, han sido decisivos para la
introducción de cambios en Ciencia de la Información, alcanzando incluso a los
planteamientos epistemológicos. Haciendo una breve revisión histórica se evidencia la
importancia de la guerra en la modificación de los conceptos y en la mejora de los
procedimientos documentales.

Acabándose el siglo XIX, el acceso a la bibliografía existente planteaba serias


dificultades, lo que sirvió a los belgas La Fontaine y Otlet para desarrollar una rotunda obra
científica dedicada a investigar la naturaleza y el tratamiento de la información. En su
ambicioso proyecto sirvió de motivación su mentalidad internacionalista. Les tocó vivir en un
mundo muy dividido, y se habían hecho firmes defensores de la comprensión entre los
pueblos, y desde ahí solo había un paso a la participación común de la información. Su
postura ideológica suponía estar a favor de la circulación y del intercambio de los
conocimientos, lo que acabaría cristalizándose en una concepción informativa nueva a la
que respondía el nombre de Documentación, cuando la Gran Guerra Europea fuese
superada. La información, que había multiplicado su presencia tras la revolución industrial,
encontraba así una finalidad ética y una justificación social: "en cuanto medio apropiado para
la transmisión, comunicación y difusión de información académica y datos en documentos de
todo tipo que contuviesen textos o imágenes" (Otlet: 1990).

¿Pero, qué tiene que ver la aparición de la corriente conceptual y terminológica que
acabó dando nombre a la Documentación con la guerra? Para responder, permítaseme
describir algo del proyecto inicial del que partieron las actividades documentales. El Instituto
Internacional de Bibliografía, dirigido por Otlet, planteó la realización de un Repertorio
Bibliográfico Universal, con el fin de hacer disponible la información registrada por la
imprenta en todo tiempo, lugar y sobre cualquier asunto. Aspiraba a ser el catálogo de una
Biblioteca universal ideal, convirtiéndose así en el punto de referencia de cuantas acciones
pretenden hasta hoy poner a disposición de los usuarios toda la información existente. Fue
el primer intento global de sistematizar el almacenamiento y la recuperación de la
información (Ayuso: 1997). Si se quería que una tentativa tan ambiciosa cuajase había que

6
contar con la más estrecha colaboración internacional y profesional. Y aquí está el punto de
enlace con el objeto de nuestra exposición.

Enfrentarse a este trabajo requería de una organización mundial en la que participasen


todos los países. Pero este propósito chocó con una deficiente infraestructura tecnológica y
sobre todo con la falta de convicción de sus contemporáneos. En los años inmediatos a la II
Guerra Mundial, el Repertorio contaba con 16.000.000 millones de fichas. Pero Bélgica vivía
demasiado de cerca los avatares por los que pasaban sus vecinas Alemania y Francia. El
mundo estaba dividido y no se iba a unir para un proyecto común de carácter cognitivo.
Somos hijos, pues, de una frustración, de una incapacidad humana de entendimiento, de la
insolidaridad y de la sospecha. Algo hemos debido heredar de aquellos inicios.

Ya hemos comentado cómo la pareja de perspicaces belgas eran convencidos


internacionalistas, inmersas, pues, sus ideas en la doctrina que preconizaba el examen de
los problemas políticos y económicos en el marco de organismos comunes a diversos
Estados, buscando la solidaridad entre los pueblos. La filosofía del internacionalismo era de
anti-intervencionismo. Oponiéndose, además, con su defensa del derecho a la libre
autodeterminación de los pueblos, al colonialismo y al imperialismo, que habían marcado la
actuación política durante el siglo XIX. Con el internacionalismo se relacionan estrechamente
el pacifismo, el idealismo y el humanismo (Renouvin: 1990). Fue sobre todo con motivo de la
Primera Guerra Mundial cuando el pacifismo enlazó con el idealismo político, con los
proyectos de organización internacional y con una esperanza resurgida en el derecho de
gentes, para constituir el moderno idealismo político internacional.

La Carta de la Sociedad de Naciones señalaba que las naciones deben basar sus
relaciones en la igualdad de derechos y en la libre determinación de los pueblos. Fue esta
perspectiva de colaboración internacional la que más afectó a cuantas iniciativas
emprendieron Otlet y La Fontaine. Sólo desde este contexto podemos entender su
convencimiento en utilizar métodos de participación mundial para sacar adelante el
Repertorio Bibliográfico Universal, el mismo nombre de Mundaneum dado a la sede donde
situaron sus proyectos, y su propia postura política que llevó a La Fontaine a obtener el
Premio Nóbel de la Paz. Parece como si ser belgas, siempre bajo la amenaza expansionista
de los vecinos alemanes y franceses, les hubiese facilitado estar convencidos de lo
desastroso que era para los pueblos estar sujetos a una dominación y explotación

7
extranjeras, por lo que se sentían inclinados hacia cualquier proyecto que se comprometiese
con la causa de la paz y de la cooperación mundiales.

Estados Unidos salió de la II Guerra Mundial convertida en la potencia hegemónica.


Esta nueva situación transcendió también al campo de la información-documentación. Al
servicio de las necesidades informativas que generó ese enfrentamiento bélico, se empezó a
utilizar en Estados Unidos la tecnología de las microcopias que, aplicada al almacenamiento
masivo de la información, supuso el primer gran cambio en los hábitos seculares que habían
mantenido al papel como soporte principal de la comunicación escrita. La preocupación por
la reproducción documental venía a romper los límites de las bibliotecas como centros
conservadores, pues buscaba poner los conocimientos en disposición universal de uso. Se
abría así el camino de la intervención tecnológica en el manejo de los significantes, que
desembocaría dos décadas después en las aplicaciones informáticas.

La aparición de las microformas generó una mayor preocupación por la recuperación


física de los documentos que por la recuperación de la información que contenían. Estas
tecnologías fotográficas coincidieron con las máquinas selectoras de fichas perforadas. Los
selectores fotográficos del tipo Rapid Selector o Kodak Minicard System tuvieron su inicial
campo de actuación en la documentación militar (Shera: 1977). Mientras Europa
desarrollaba la CDU, y el mundo veía aparecer nuevos sistemas clasificatorios como Bliss, o
la Colon Classification,..., en Estados Unidos los intereses se ponían en nuevos métodos y
técnicas de análisis de los registros, a los que se refería el término Information Retrieval
(Vickery: 1958).Fue este el momento en que se inició el camino hacia la utilización de los
lenguajes naturales controlados para recuperar la información (Taube: 1953-1958),
estableciéndose como uno de los rasgos principales de los años de transición hacia la
Information Science, y que supuso la progresiva superación de los lenguajes sistemáticos.

Mayor trascendencia que el uso del microfilm, tuvo el apoyo que dieron algunas
agencias del Gobierno norteamericano, durante la II Guerra Mundial, a los análisis temáticos
de documentos utilizando tarjetas perforadas y equipos IBM: Shera y sus colegas
experimentaban técnicas para interceptar códigos de señales; al mismo tiempo que el Farm
Security Administration indizó su colección de fotografías usando tarjetas IBM con
microfilmes añadidos. Eran los primeros pasos en la automatización de los procesos
documentales. Al acabar la Guerra las distintas Agencias gubernamentales no dudaban del
enorme interés que para ellas tenían los asuntos referentes a la información.

8
Los sistemas de recuperación de la información se habían potenciado durante la II
Guerra Mundial, pues se había multiplicado abrumadoramente el número de informes
técnicos a manejar. Su importancia estratégica exigió a los servicios de documentación una
administración más eficaz de la ingente cantidad de datos que contenían. El final victorioso
puso en manos de los Estados Unidos no sólo los informes y documentos generados en su
propia actividad, sino los de los vencidos. El almacenamiento de esa información y su
análisis tenían que ser efectivos ante cualquier demanda planteada. Empezaron así a
aplicarse técnicas pre-informáticas a la gestión automatizada de la información. Así las
cosas, debemos situar en la II Guerra Mundial el inicio de las tecnologías de la información,
la aparición de una industria de equipos criptográficos, y, en definitiva, la irrupción de los
ordenadores electrónicos analógicos. En todo ello estuvo implicada la figura de Vannevar
Bush (Burke: 1994).

No hay duda de las dificultades que la enorme cantidad de información acumulada


planteó a los métodos de transmisión y acceso a los resultados de las investigaciones
científicas. El papel jugado durante la guerra por la información, junto al convencimiento de
su futura importancia socio-económica generó en Vannevar Bush una visión prospectiva
sobre las soluciones al problema de aquel aumento desmesurado de la información, que le
llevó a diseñar planteamientos desde de la Investigación y Desarrollo (Bush: 1945). En ese
contexto se sitúa la segunda gran aportación de Bush, como fue la de diseñar un sistema
hipotético de almacenamiento de amplísima capacidad con un mecanismo de recuperación
rápida de los documentos. No llevado a la práctica, el MEMEX (Memory extender) ha sido
sin embargo, impulsor de investigaciones tecnológicas aplicables a la recuperación y
almacenamiento de documentos. De esta manera, introducía también los índices asociativos
y adelantaba la implantación de los sistemas de bases de datos, hipertextos e hipermedia
(Bush: 1988).

A la mitad del siglo pasado surgían los sistemas de recuperación de la información. En


adelante, las operaciones de control y recuperación no se podrían comprender sin contar
con las tareas automatizadas. El contexto de actuación se daba dentro de:
- Un desarrollo consecuente a las peticiones militares de información para cubrir
necesidades muy concretas, (por más que aún predominase la recuperación de documentos
sobre la recuperación de la información).

9
- A lo que se sumó el interés de muchos científicos, de los ámbitos más diversos por los
problemas derivados de la comunicación de información.

Bajo estos presupuestos, el área técnico-profesional de la Ciencia de la Información fue


desplazando a la que se conocía como Documentación. El desarrollo masivo que conoció la
información al servicio de la industria y la investigación bélica y militar es, sin duda, el punto
de partida para la aparición de la corriente conceptual que está actualmente vigente en el
campo que en España llamamos Biblioteconomía y Documentación. El requerimiento de
análisis de los documentos subsiguiente a las necesidades de información de la guerra y
posguerra mundiales, implicó a la firma IBM en experiencias aplicadas a la recuperación de
la información.

Coincidió el inicio de la Guerra Fría con los comienzos de la utilización científica e


industrial de las fichas perforadas primera de las aplicaciones de los procesos preinformáticos a
nuestro campo (Casey: 1951). Desde los años cuarenta la práctica documental vino utilizando
los selectores fotográficos (localizaban documentos microfotografiados mediante
combinaciones binarias de carácter magnético), junto a las tarjetas perforadas (cada tarjeta
representaba un documento, cuyas palabras-clave se codificaban mediante perforaciones en
determinadas filas o columnas), y a las fichas superpuestas para la selección visual como
formas rápidas y mecanizadas de recuperar la información.

El interés por la información implicó incluso al Gobierno norteamericano. Acabada la


Segunda Guerra Mundial, era necesario potenciar las investigaciones científicas y
tecnológicas si se quería asegurar el desarrollo económico y la seguridad militar. Se
establecía como prioridad nacional el patrocinio y la coordinación de programas que
persiguiesen el crecimiento tecnológico del país con rapidez. La guerra fría fue motor
suficiente para que científicos y gobierno se dispusiesen a colaborar. Debemos recordar
cómo el éxito del Sputnik manifestó el progreso soviético en la organización de las
actividades documentales. A partir de ese hecho, el gobierno americano se volcó en el
desarrollo de las infraestructuras, la organización y la recuperación de la información
científica, a través de la National Science Foundation (U.S. Congress: 1963). Al comenzar la
década de los sesenta, la administración pública norteamericana era ya el principal
contratante de proyectos de Investigación y Desarrollo sobre almacenamiento, recuperación,
y procesamiento automatizado de la información. En 1963 esta evidencia generaba el
informe Weinberg, respuesta decidida a la sacudida de la conciencia nacional americana

10
que supuso verse por detrás en el control y manejo de la información que había hecho
posible la anticipación de los soviéticos. Desde las propuestas de este informe se
organizaron los programas federales de información durante dos largas décadas. Las
subvenciones oficiales subsiguientes a esta declaración política de intenciones fueron de tal
importancia que determinaron en Estados Unidos las tendencias de investigación en el
nuevo campo hasta el momento presente.

Asimismo, hemos de ver causada en una empresa militar la promoción de los sistemas
en línea, ideados por Roger Summit, quién se dedicaba a hacer posibles los archivos
legibles y recuperables por computador. Con sus colegas de la Lockheed instalaron en 1967
el sistema DIALOG en los centros de la NASA para la recuperación a distancia de las
informaciones contenidas en los archivos de la propia Lockheed. Como último escalón en
esta exposición esquemática hemos de destacar la intervención del ejército estadounidense
en la creación de Internet. La primera descripción documentada acerca de las interacciones
sociales que podrían ser propiciadas a través del trabajo en red está contenida en una serie
de memoranda escritos por Licklider, del MIT en 1962. Concibió una red interconectada
globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y
programas. Licklider fue el principal responsable del programa de investigación en
ordenadores de la DARPA. A finales de 1966 la DARPA comenzó a desarrollar el concepto
de red de ordenadores y rápidamente confeccionó su plan para ARPANET. Al mismo
tiempo, el grupo RAND había escrito un documento sobre redes de conmutación de
paquetes para comunicación vocal segura en el ámbito militar (Leiner: 1998). A finales de
1969, cuatro host fueron ya conectados conjuntamente a la ARPANET inicial y se hizo
realidad una embrionaria Internet. Este trabajo formó originalmente parte de un programa de
paquetería por radio, pero más tarde se convirtió por derecho propio en un programa
separado, el Internetting. La clave para realizar el trabajo del sistema de paquetería por radio
fue un protocolo extremo a extremo seguro que pudiera mantener la comunicación efectiva
frente a los cortes e interferencias de la radio y que pudiera manejar las pérdidas
intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local.
La ARPANET original evolucionó hacia Internet, que se basó en la idea de que habría
múltiples redes independientes, de diseño casi arbitrario, empezando por ARPANET como la
red pionera de conmutación de paquetes, pero que pronto incluiría redes de paquetes por
satélite, redes de paquetes por radio y otros tipos de red.

2. La información documental al servicio de la guerra digital.

11
El auténtico fin de esta reflexión estriba en considerar la función reservada a la
Documentación en el apoyo y el desarrollo de los aspectos más militares de los conflictos
bélicos actuales. Veremos, sin duda en ellos, el reflejo del papel que la Información-
Documentación cumple en la sociedad contemporánea. Hemos de empezar resaltando que
el papel que asume es fundamental en la reconsideración de la defensa y de la guerra, que
se hizo notable socialmente a partir de la del Golfo. Si nuestra civilización, llamada de la
información, se caracteriza por crear y explotar conocimiento, las guerras que se dan en ella
no pueden ser ajenas a la necesidad perentoria de los ordenadores, de su conexión
mediante redes, de los enlaces mediante las telecomunicaciones digitales, y de los nuevos
medios de información, al servicio de una transmisión efectiva de información y datos.

A lo largo del siglo XX asistimos a la entrada en la madurez de la era industrial,


mientras íbamos metiéndonos en la era de la información, cuyo rasgo más importante es
que las tecnologías pasaron a intervenir en todos los aspectos de la vida. Si el conocimiento
es el recurso esencial de la producción en el mundo actual, también lo será de la
destrucción. Así pues, los ejércitos se han rediseñado lógicamente también alrededor de la
información, con la idea de actuar más deprisa y con mayor efectividad. Todos los cambios
que podemos apreciar en la tecnología, la organización, la estrategia, la táctica, el
adiestramiento, la doctrina y la logística militares tiene que ver con la información, como una
faceta más de una sociedad a la que así denominamos, cuyo recurso principal es el
conocimiento: datos, información, imágenes, símbolos, cultura, ideología y valores.
Contando con ellos es posible reducir las demás aportaciones empleadas para la creación
de riqueza.
Una nueva forma de hacer la guerra se apreció desde la del Golfo: misiles y bombas
guiadas buscaban y alcanzaban objetivos con precisión. La importancia de las armas
guiadas mediante datos y, por ello, de la información se hizo evidente, mientras era llevada
por la comunicación digital a millones de hogares del mundo en tiempo real. La información
que fluye por las comunicaciones se mostró vital para los contendientes. Recoger, analizar y
distribuir información, así como destruir la capacidad de información y de comunicación del
enemigo se había vuelto tan importante como el armamento y las tácticas. Por otra parte, la
automatización afectó a todos los aspectos bélicos, siempre persiguiendo el fin de transmitir
datos. En un mundo informatizado también la guerra tiene que apoyarse en ordenadores y
en robots. La digitalización del campo de batalla (que sobre todo supone enlazar
electrónicamente cada sistema de armamento) permite a los generales sincronizar todos los

12
elementos de combate con las variantes externas que forman su circunstancia. La guerra y
la sociedad van por el mismo camino, buscando y utilizando las estrategias competitivas del
conocimiento.

¿Dónde están esos datos que permiten tener un conocimiento competitivo?¿quién los
selecciona, trata y difunde? ¿quién garantiza su actualidad y pertinencia? ¿quién compila la
información logística y de personal? ¿quién los protege? La información se obtiene por
medios muy diversos: desde los sistemas de satélites; o contando con todo tipo de
profesionales como empresarios, periodistas, funcionarios de embajadas; o mediante los
servicios de inteligencia militar. La adquisición selectiva de información se hace también
desde fuentes ajenas: medios de comunicación social, centros de investigación, bibliotecas y
centros de documentación generales y especializados, así como desde fuentes propias:
investigación y desarrollo militares, contratos concretos con empresas, servicios de
inteligencia, información y espionaje. Curiosamente se observa una menor importancia del
espionaje en número, pero decisivo para dar sentido a lo que las demás circunstancias
indican. Es un trabajo que puede hacer incluso un documentalista, rastreando las
informaciones que delatan a un grupo de terroristas, buscando relaciones ocultas en
múltiples bases de datos (lugares frecuentados, cuentas bancarias, tarjetas de crédito, listas
de suscripciones, ventas de armas en el mundo,...). De esta manera, la selección de
información se ha establecido como un aspecto crucial. La cantidad de información es
enorme, por lo que resulta casi imposible valorarla toda:

- Los satélites y otros sensores envían de continuo imágenes.


- La exploración de las líneas telefónicas, buscando palabras claves, es una tarea
inmensa.
- Las máquinas que trabajan con la información (ordenadores, fotocopiadores, faxes,
televisión por cable y vía satélite) nos bombardean sin piedad con mensajes de todo
tipo.
- Las fuentes abiertas al público ofrecen también información que necesitan saber
quienes toman las decisiones. El conocimiento distribuido al que se puede acceder
libremente requerirá análisis de la información oficial, de la información competitiva en
empresas, de la proveniente de los medios de comunicación, incluso de fuentes
particulares.

13
Este universo en continua expansión de conocimientos necesita hacerse accesible y
para cumplirlo están los documentalistas. Esos analistas conocerán el contexto cultural de
referencia, serán expertos en la organización de las tecnologías de la información de un
país, conocerán las redes formales y las informales por las que la información se
intercambia, sabrán la organización política y los diferentes niveles que tiene en su territorio,
conocerán el sistema de formación, en fin serían documentalistas, profesionales del manejo
de la información de la sociedad en la que viven y a la que sirven. Su misión en la guerra
será adaptar la información a la realidad, igual que hacen en tiempo de paz. Esos datos
enviados por los satélites, como los mosaicos fotográficos con las posiciones del enemigo y
la construcción de fortificaciones, tienen que ser analizados, fusionados y comprobados por
contraste con diferentes bases de datos. Los ordenadores determinan y analizan las
formaciones y fuerzas del enemigo, y simulan las posibles acciones mediante programas de
Inteligencia Artificial. Como resultado aparece una documentación sintética que elaboran los
servicios de información, los centros de análisis, o los sistemas, en fin, de recogida y
procesamiento de la información, de la que surge la capacidad de adaptación, de hacer la
guerra pensando (Toffler: 1998).

Para hacerlo se utilizan programas informáticos diseñados ex profeso. Sistemas para


almacenar y procesar grandes cantidades de datos que se transformarán en información y
conocimiento prácticos. La informática militar se caracteriza por su complejidad, flexibilidad y
seguridad de programación. En lo tocante a la distribución, hay que disponer de capacidad
de enlace mediante redes, donde la coordinación de los factores intervinientes es la cuestión
clave. Permutar información, intercambiar datos, promover el flujo con los aliados, es una de
las tareas profesionales, junto a la difusión de información engañosa, desinformación,
propaganda, material gráfico para los medios, y hasta verdad cuando conviene. Los
elementos que se combinan en una guerra moderna (Mando, Control, Comunicaciones,
Inteligencia y Munición de precisión guiada), si se quiere que sean eficaces se han de utilizar
bien:
- Disponiendo de fuerzas móviles y flexibles (con alta capacidad de despliegue y
movilización).
- Con interoperabilidad e integración de fuerzas que en muchos casos serán
multinacionales, lo que obliga a una organización descentralizada, pero en constante
comunicación.

14
- Además de tener una utilización apropiada de las tecnologías avanzadas y la
superioridad en la información, con plena utilización de las nuevas tecnologías y de
las infraestructuras de comunicación y de interconexión de redes.
- Así como disponiendo de una información e inteligencia superior a la del adversario
valiéndose de gran variedad de bases de datos interconectadas.
- En fin, en asociación, cooperación y diálogo (comunicación) entre los diferentes
países (por ejemplo del área Euro-Atlántica) y entre los militares y la población civil.

Sólo las fuerzas que adopten las realidades de la era de la información podrán explotar
sus ventajas. La Guerra de la Información obliga a que los Mandos de Comunicaciones
electrónicas se vuelquen en el desarrollo de nuevas tecnologías para mejorar la capacidad
de sus ejércitos respecto a:
- La identificación y detección de blancos, en especial de noche. La selección de los
blancos se hace mediante imágenes almacenadas. Esta operatividad nocturna está
permitida en la navegación aérea mediante bases de datos exactas del terreno sobre
el que vuelan los aviones acopladas al GPS y a los datos del altímetro.
- La digitalización del campo de batalla, que capacita a los generales para tomar
decisiones en tiempo real, así como una vista del mismo continuamente actualizada
(JCD del ejército norteamericano), información del terreno, meteorológica, y
localización de los elementos activos.
- La distribución automática de los datos integrados provenientes de diversas redes:
Sistemas de radios de posición (EPLRS), Sistema de distribución de información
táctica (JTIDS), comunicaciones de las alas aéreas (FAAD), sistemas de radio tierra-
aire (SINCGARS).
- Como en las empresas y en las organizaciones, en la guerra también tienen que
integrarse los distintos aspectos cuya agrupación concede el conocimiento necesario
para actuar con ventaja.

Ganar en la guerra de la Información supone la digitalización de los soportes de


información y unos sistemas propios que actúen con total seguridad (Counterm: 1994). Voz,
datos e imagen deben hacer fluir su información por caminos no interceptables, además de
transmitirla en integración de enlaces aprovechando la posibilidad de actuación unificada
que permiten las comunicaciones digitales. Esta integración posibilitará la diseminación
rápida de avisos a las unidades y a la población civil de áreas en peligro. Es de destacar la
seguridad que deben tener los archivos de datos. Es evidente que se debe contar, en

15
actuación simultánea, con información textual, visual y de audio, que testifique de continuo
los efectos del armamento, en la que se presente el estado anterior y posterior a un ataque,
con vídeos de todo el proceso, junto a mapas y esquemas técnicos.
Digitalizar el campo de batalla requiere la actuación simultánea de una serie de
elementos:
- La integración del procesamiento informático.
- Un software avanzado.
- Interfaces hombre- máquina.
- Sensores y comunicaciones.
- Identificación del combate y componentes de posición y navegación.

Los sensores electrónicos tienen que aplicarse a los radares, sistemas de visión
nocturna, reconocimiento, sistemas de orientación por satélite, vigilancia y simuladores.
Funcionan directamente relacionados con los sistemas de procesamiento, recuperación y
distribución de la información, con la radiodifusión global y exigen modificaciones en las
aeronaves. En este sentido la firma de software Verity surte a la McDonnell Douglas de un
sistema inteligente de información y procesamiento automático de los mensajes, que permite
a los aviones acceder a una red de información global para normalizar y manejar los
mensajes de inteligencia militar.
Uno de los aspectos más importantes de la digitalización del campo de batalla son las
Interfaces de información con el soldado: haciendo que disponga de una ventana en el
campo de batalla a otros sistemas externos. Su aprovechamiento no es sólo a la hora del
rendimiento mejor de su poder personal, si no en ejercicios de entrenamiento, en el acceso a
consejos sobre su salud física, e incluso como guía de seguridad y de supervivencia.

Pero nada puede hacerse sin bases de datos que posibiliten recuperar la información
apropiada, ni sin sistemas de inteligencia que utilicen códigos compatibles en la
transferencia de los datos. Resulta evidente la exigencia de contar con colecciones de datos
acerca de miles de sitios que se pueden convertir en blancos posibles sobre los que se
sintetizarán los reconocimientos por radar en todo tiempo, lo cual requiere una altísima
capacidad de almacenamiento, recuperación y distribución de la información, que se servirá
a múltiples usuarios y sistemas de inteligencia y permitirá operaciones en toda la variedad
de conflictos. Incluso se han desarrollado sistemas interactivos de recuperación en línea,
experimentados en laboratorio, por los que se reciben imágenes por satélite de las

16
posiciones del enemigo que se devuelven analizadas, junto a las instrucciones superiores,
en menos de una hora (Parker: 1999).

Fue precisamente tras la Guerra del Golfo cuando se comprendió que se habían
cometido muchos fallos, entre los que destacaban un apoyo insuficiente a los generales en
jefe, una dificultosa distribución del conocimiento, y una lenta e inadecuada estimación de
los daños infligidos al enemigo. Para subsanarlos se ideó el sistema JWICS, que distribuiría
información competitiva las 24 horas del día a los generales jefes de una misión,
enlazándoles con las bases de datos en Estados Unidos y con la información proveniente de
los satélites. Se mejoraron las lagunas de información fotográfica cuyo procesamiento
demoraba más de un día y medio, consiguiéndose su retransmisión y tratamiento inmediato
cuando se tratase de objetivos preferentes como aeródromos y estaciones de misiles, así
como de los daños causados por un bombardeo, en los que destacan los detalles de interés
mediante un procesamiento en tierra y la inmediata devolución a las aeronaves de
reconocimiento (ATARS).

Las redes de datos digitales buscan ordenar y repartir rápidamente la información


crítica durante la batalla. Esta información permite al comandante ver el campo de batalla a
través de los sensores de sus helicópteros y otros medios de reconocimiento, tanques y
sistemas de fuego directo, así como coordinar mejor sus fuerzas. Con el éxito en la guerra
de la información tienen que ver muchos programas militares concretos, como el Army Data
Distribution System, pero todos ellos buscan integrar los sistemas para lograr la
interoperatividad en tiempo real de la información de situación con la proveniente de las
bases de datos de cada sistema automático que describe el campo de batalla y las
circunstancias por las que atraviesa.

Incluso de han desarrollado sistemas de recuperación de la información corporativa


(COBA de la USAF, CIRAS de la CIA) para aplicaciones basadas en la Red, en los que se
mezcla información clasificada y desclasificada, lo que permite a los analistas acceder a la
vez a todos los recursos de información de esa organización. Incluso supera los diferentes
niveles de seguridad que le hacen ser accesible con garantía mediante Internet. Un
avanzado motor de búsqueda capacitará a los usuarios para extraer y hacer minería de
datos, seleccionar textos mediante lenguaje natural, por descripción de hechos, o por la
organización de los pixels en las imágenes.

17
Un factor clave que convierte a la información en poder letal es la capacidad para
seleccionar, procesar, difundir y usar información sobre el enemigo a la vez que nos
prevenimos para que él no obtenga la misma información sobre nuestras fuerzas. Por ello
hay que destruir, cortar y controlar las fuentes y la distribución de información si se quiere
garantizar la posesión de los datos relevantes a tiempo de usarlos. La información no se
limita, pues, al abastecimiento de datos sobre el campo de batalla o sobre ataques tácticos a
blancos vitales, si no que llega a manipular el flujo de informaciones para conformar las
acciones enemigas. Lo que se oculta, degrada, destruye o influye es información,
alcanzando incluso a operaciones psicológicas que alteran la conducta de otros. Destruir al
enemigo antes de entrar en combate. Saberlo todo del contrario y evitar que él sepa de
nosotros, y saber buscar que el equilibrio de información y conocimiento se incline de parte
de uno. El profesional de la información de guerra tiene también que defender la información
con la que trabaja, protegerla de quienes quieran apropiársela. Terrorismo informático, virus
inteligentes que pueden capturar una contraseña, robar una información o destruir un disco
duro determinado.

Consideramos así el concepto de ciberguerra en cuanto ataque a los sistemas


informáticos vitales de un país, con el manejo de unas contramedidas para anular los
radares del enemigo, introducir virus en sus ordenadores, destruir con bombas inteligentes
sus centros de mando e información, o enviarle mensajes engañosos. Para prevenir el
acceso en red a la información clasificada por usuarios no autorizados se utilizan
encriptadores que como los de UNISYS previenen automáticamente la transmisión de
información clasificada a quien no esté autorizado a recibirla.

Asimismo hay que reconsiderar la multifuncionalidad de un ejército moderno y, por tanto,


también de la información que le capacita: la globalización generada por la tecnología de la
información incrementará la interacción entre terroristas, narcotraficantes, traficantes de
armas y delincuencia organizada que en un mundo interconectado tendrán más acceso a
información, tecnología, financiación, y técnicas avanzadas. Se nombran aquí unos riesgos
hasta ahora no considerados dentro del ámbito militar, y que van a caracterizar las misiones
de los nuevos ejércitos, sin considerar la cada vez más común contribución al apoyo
humanitario (Moreiro: 2001). Podemos proponer, pues, como nuevos centros de interés:
- El terrorismo.
- El crimen organizado, en especial el tráfico de drogas.
- Los ataques a los sistemas de información (ciberataques).

18
- Los sabotajes, incluido el del medio ambiente.
- La interrupción del flujo de recursos vitales.
- Las migraciones masivas.

3. La información como primera herramienta de guerra en la actualidad.

Ante las amenazas y respuestas cambiantes de la guerra actual, la información ha


pasado a desempañar un papel predominante, sin duda más destacado aún tras el 11 de
septiembre, al verse destinada a luchar en especial contra el terrorismo, pero también contra
otros enemigos hasta ahora inéditos como el tráfico y la explotación de personas, y el
narcotráfico. Hay un convencimiento general de que con bombas solamente no se ganará
ninguna guerra. La historia está llena de ejemplos donde las campañas más intensas de
bombardeo no han alterado la resolución de la población civil y solo han supuesto daños,
que no desaparición, de las máquinas bélicas o de la voluntad de un país y de su gobierno
para continuar la lucha. En los conflictos actuales, las municiones y las fuerzas tácticas
desempeñan papeles significativos, pero es la información la única llave del éxito. De hecho,
la información es el factor más importante en cualquier discusión que quiera comprender la
guerra contra el terrorismo. Puede considerarse, pues, la información y la teoría de
información como la herramienta más eficaz de la guerra – junto a la autoridad legal y
política para su uso secreto (Strickland: 2002).

Las circunstancias subsiguientes al 11 de septiembre enfrentaron a Estados Unidos


contra un enemigo (el gobierno talibán de Afganistán y las fuerzas de Bin Laden), sin
blancos estratégicos en las infraestructuras, ni blancos esenciales de carácter
gubernamental o militar. Incluso el blanco terrorista se mostró en esa ocasión ambiguo y
oculto. En suma, no ha sido un enfrentamiento clásico entre fuerzas simétricas, contra las
que pudiesen utilizar con eficacia los métodos y los mecanismos militares históricos. Se ha
tratado de una guerra asimétrica que requiere nuevos instrumentos y nuevas estrategias. En
la estela de los ataques terroristas del 11 de septiembre en Estados Unidos, el equilibrio ya
complejo entre la seguridad interna, la libertad científica, y los derechos humanos se ha
hecho aún más complicado. En los meses siguientes a los ataques, la comunidad científica,
como otros grupos y organizaciones profesionales, comenzó un proceso la reflexión sobre
las circunstancias cambiantes que afectan a la conducta de su trabajo, así como en torno a
sus responsabilidades ante el gobierno y la sociedad. No podía ser de otro modo, pues la
aplicación del terrorismo tiene dimensiones científicas significativas. El terrorismo implica el

19
uso de tecnología y la manipulación del miedo, por eso, la prevención de los ataques del
futuro y la gestión de las actuales amenazas implica a la comunidad científica. Y de manera
muy especial a cuantos tienen que ver con los sistemas de información. Si nos preguntamos
¿qué instrumentos y estrategias podemos considerar nuevos en la guerra de hoy?, la
respuesta vendrá, sin duda alguna, desde aplicaciones provenientes de la Teoría de la
información, de las redes de información y de las tecnologías de la información.

Entre las muchas estrategias que cabe aplicar, una se aprecia como crítica, aquella
que se deriva de la Sociedad de la información en la que vivimos. No podemos mirar a los
sistemas y redes de información como entes amorfos. Desde una perspectiva militar, deben
ser elementos dinámicos, pues se han vuelto elementos decisivos para cumplir los fines de
la Defensa y de la Guerra. Así las cosas, en la actuación de los servicios de documentación
militar, se perciben tres asignaciones de funciones determinantes:

1. Entender los elementos básicos de los sistemas y redes de información, al igual


que del flujo de información en esos sistemas y redes.

2. Descubrir los detalles de un sistema o red determinados.

3. Utilizar las teorías sobre la organización de los sistemas de información para


interrumpir el flujo informativo en los sistemas y en las redes contrarias.

Es común que quienes integran una organización no piensen que están inmersos en una
red, no entienden las formas de una red y el flujo que sigue la información, y no comprenden
que, como personal de un sistema, son auténticos nodos de información. Pero, en la vida
actual, es fundamental hacerlo así tanto en los negocios como en la guerra, y disponemos
hoy de los centros y de las herramientas adecuadas para conseguirlo. En la actualidad nos
valemos de esta teoría para ayudar a entender y a manejar mejor las organizaciones,
especialmente en épocas de constreñimiento o cuando se realizan esfuerzos para aumentar
la eficacia. Por todo ello, no hay razón para que esta teoría no pueda utilizarse para
desintegrar una organización; ya que nos permite producir intencionalmente conflictos
internos o introducir en ella procesos ineficaces para degradarla. Desde este contexto, no se
necesita ya arrestar o acabar con cada miembro de una organización terrorista; puesto que
se puede apuntar hacia las claves dominantes para quitarlas o interferir de alguna manera
en el flujo de información y actuar en la organización a través de las personas dominantes.
Siguiendo este modo de aproximación, la tarea se hace considerablemente más liviana, a la

20
vez que el trabajo de reemplazo se vuelve un esfuerzo difícil y cargante para el enemigo. De
modo que la organización terrorista no podrá sobrevivir por mucho tiempo.

Así pues, la información y la teoría de información pueden considerarse herramientas


eficaces de guerra en este nuevo siglo y contra unos enemigos nuevos, en especial a la hora
de interrumpir las operaciones y las actividades de una red de información. Es un concepto
que viene muy de atrás. Maquiavelo habló elocuentemente sobre cómo interrumpir
organizaciones sembrando las semillas de la discordia (es decir, divide y vencerás) o
eliminando elementos necesitados de ayuda. Así, si uno comprende la organización de una
red de información, puede hacer muchas cosas para reducir su eficacia:

• Interrumpir los enlaces de las comunicaciones.


• Hacer la cooperación demasiado costosa.
• Explotar lo mejor y lo peor.
• Debilitar la historia de los terroristas
• Aprovechar los recursos de gobiernos extranjeros.
• Apoyar a los opositores internos.
• Y, desde luego, aprender del pasado.

Dicho esto, la cuestión invariablemente se dirige a las implicaciones legales y políticas,


en especial cuando el uso de la información y de la inteligencia muestra aplicaciones tan
letales. Se pueden recordar al efecto las investigaciones del Congreso en 1974, relativas a
los complots de asesinato por la CIA de cinco líderes extranjeros durante las
administraciones de Eisenhower, Kennedy y Nixon. La conclusión principal fue que las
decisiones que autorizaron tales acciones eran "tan ambiguas que es difícil tener certeza
sobre el nivel en el cual estas actividades eran conocidas y autorizadas" (Pfaltzgraff: 1997).
En consecuencia, el presidente Reagan firmó una orden en 1981, por la que se regulaban
las actividades de la inteligencia, prohibiendo específicamente el asesinato; esta orden
continua vigente. Más recientemente, de acuerdo con informes aparecidos en la prensa,
como que ("La CIA protagoniza misiones de 'Muerte dirigida'” en el Washington Post, del 28
de octubre del 2001), el presidente Bush ha debido recibir opiniones legales en el sentido de
que esta orden no imposibilita su mortal aplicación contra terroristas específicos bajo su
autoridad y responsabilidad constitucional para la defensa nacional.

21
Al menos parcialmente, esas opiniones legales estarían basadas en la autoridad de un
presidente para modificar cualquier orden ejecutiva en cualquier momento. Esta autoridad
plantea la cuestión de cómo ejecutarla: ¿contra qué nodos terroristas y usando qué
instrumentos? De nuevo, según los mismos informes, se cuenta con una ayuda primordial
para la aproximación aquí mostrada: la identificación de los nodos dominantes de entrada,
como pueden ser los financieros, en una organización terrorista, como ETA o Al-Qaeda.
Respecto a los instrumentos, el problema es más complejo. Ya que, simplemente, el empleo
de la fuerza mortal no es para lo que se entrenan los servicios de inteligencia. Por lo que
resulta indispensable la colaboración con los servicios de inteligencia de otros países, así
como con el resto de servicios de seguridad internos, y, desde luego, con un gran
entrenamiento, y con familiaridad y acceso a los objetivos en cuestión.

4. La interrupción de los flujos informáticos en la guerra contra Irak.

Tres meses antes de comenzar la invasión de Irak, el periódico Washington Post


afirmaba que la guerra había empezado ya. Se refería, en concreto, a la guerra considerada
desde el contexto informativo-informático. El ejército norteamericano había empezado a
actuar sobre los servidores de la red informática iraquí valiéndose de avezados hackers que
mantenían en su nómina. Si esto fuera así, indicaría que el primer paso de una guerra
consistiría ahora en dejar fuera de servicio la inteligencia del contrario. Hace solo unos años,
este lugar estaba ocupado por el deseo de inutilizar los aviones enemigos antes de que los
pudiesen usar. En el nuevo estado de cosas podemos percibir la primera consecuencia
emanada de la directiva que el presidente Bush aprobó en julio del 2002 sobre la guerra
electrónica. Con ella quería alcanzar una doble meta: en primer lugar, potenciar las
capacidades de los sistemas y redes informáticos propios ante la posibilidad de ser atacados
por el enemigo y, además, poner en marcha un dispositivo de tal potencia que estuviese
capacitado para interferir e inutilizar los sistemas informáticos de Irak.

Esta iniciativa recibió la denominación de Estrategia Nacional para la Seguridad del


Ciberespacio. Fue definida de forma oficial como un proyecto para desarrollar un "protocolo
de actuaciones" al servicio de la administración gubernamental y militar, cuyo objetivo
consistía en proteger de un ciberataque los "sistemas de información críticos"
estadounidenses. Entre otros aspectos, la directiva firmada por Bush en el verano del 2002,
que fue ratificada en febrero del año 2003, aludía a la vulnerabilidad de los sistemas
informáticos ante nuevos posibles virus, de eficacia mucho más dañina que los hasta

22
entonces conocidos, y cuya infiltración en los sistemas norteamericanos podría generar unas
terribles consecuencias en especial para los servicios bancarios y el tráfico aéreo, pero que
alcanzarían, asimismo, a los sistemas de información e inteligencia. La idea de este proyecto
debe situarse en el contexto de las respuestas y precauciones subsiguientes a los atentados
del 11 de septiembre. Los temores que entonces se engendraron quedaron definitivamente
ratificados. en lo relativo a las redes informáticas, cuando se produjo la agresión del virus
"Saphire".

Entre las medidas proyectadas para alcanzar la necesaria seguridad de la red y de los
sistemas usados hay que situar la organización de un centro con la capacidad suficiente
para saber en tiempo real cual es la situación de la red. Para canalizarlo se ha diseñado el
sistema GEWIS (Global Early Warning Information System) desarrollado por la agencia
National Communications System (NCS), que fundada en 1962 trata de asegurar que el
gobierno cuente siempre con acceso garantizado a los sistemas de comunicación básicos, y
de modo especial cuando acontezca una situación de emergencia. Volvemos aquí a
encontrar una aplicación muy similar a la perseguida por ArpaNet en la década de 1960.
Como complemento del programa GEWIS, el Departamento de Defensa aportó otro
programa, conocido como TIA: Total Information Awareness, para actuar selectivamente en
la información contenida en cuantas bases de datos existen, conectadas en línea, con la
finalidad de encontrar en ellas cualquier información que sirviese para detectar y conocer el
funcionamiento de los grupos terroristas, y de quien pudiese suponer una amenaza para la
existencia y el funcionamiento correcto de las bases de datos

Este esfuerzo del gobierno norteamericano por controlar los posibles ataques piratas y
por tener ventaja en la guerra informática tiene como contrapartida la cierta limitación del
derecho a la privacidad, sin duda mermado en lo que se refiere al acceso a Internet desde la
puesta en marcha de estas medidas de respuesta a un posible ataque cibernético. Lo han
sufrido las empresas que prestan servicios de información, asimismo los proveedores de
software para el comercio electrónico, quienes difícilmente encuentran ámbito para su
negocio fuera de la seguridad que deben ofrecer sus bases de datos y los intercambios
económicos que posibilitan. Por otra parte, los propios usuarios, en especial los europeos,
recelan de cualquier transacción en Internet que requiera facilitar sus datos personales, sin
los cuales difícilmente puede producirse ningún negocio o actividad económica en línea.

23
En fin, acabados los días de actividad bélica directa, todo parece indicar que la decisión
estaba tomada y que los principales servidores iraquíes llevaban algún tiempo bajo control
antes del inicio de las operaciones militares, aunque podemos considerar que no estaban del
todo interferidos. Durante los meses anteriores al conflicto y en el tiempo en que este se
producía, se ha hablado de posibles medidas que iban desde la saturación de los buzones
electrónicos con propaganda bélica favorable a la rendición de Saddam, hasta la conjetura
de una especia de bomba informática presta a estallar de manera inminente. La posibilidad
de usar un elemento de destrucción, cuyos rasgos y eficacia se desconocen, ha inquietado a
los entendidos. Se ha debido en gran parte al temor de que su actuación no daría
preferencia a los objetivos informáticos militares o gubernamentales, si no que causaría
daños globales de forma indiscriminada, al alcanzar también a objetivos vitales de la red civil
de Irak, tales como los que garantizan la administración de los servicios hospitalarios, el
control del tráfico aéreo, las redes de distribución de la energía, y hasta los que posibilitan
que funcionen los pozos de petróleo. Un ataque masivo generaría, pues, daños excesivos a
un pueblo ya bastante castigado en su historia reciente.

Conclusión

La guerra actual presenta múltiples desafíos para los profesionales de la información.


Algunos se dedicarán principalmente a la recolección y explotación de la información
relevante - proporcionando ayuda directa a quienes combaten en el campo de batalla o en el
ciberespacio-. Otros continuarán investigando y desarrollando nuevas herramientas que
apoyen dichas recolección y explotación.

Como valoración general de las imbricaciones entre la Guerra y los servicios de


información podemos considerar algunos hechos acaecidos durante la década pasada: la
Academia de West Point introdujo la disciplina Gestión de la Información, a la vez que en
Washington, la Universidad de la Defensa Nacional impartía un curso sobre La guerra de la
información. Son hechos que demuestran que se ha vuelto común hablar emparejadamente
de la guerra y de la teoría de la información. Lo corrobora aún más que el ejército de los
Estados Unidos haya establecido un comando cuyo cometido son los sistemas de
información, y que es competente en todo lo que guarde relación con su gestión, desde los
sistemas de ingeniería y de señales, a los que nos quedan más próximos como la gestión
del conocimiento y de los contenidos de carácter militar, las publicaciones y la imprenta, los

24
centros de información de la imagen, así como cuanto tenga que ver con la investigación, el
desarrollo y la adquisición sobre los sistemas de información.

La fortaleza de un ejército digital será la que tenga la sociedad civil a la que sirve. La
estrategia del conocimiento de una sociedad marcará la que pueda seguirse en su ejército.
El modo con que el ser humano consigue la riqueza es el mismo con el que hace la guerra.
Los cambios radicales por los que pasa nuestra sociedad y nuestra economía tienen su
reflejo en los ejércitos y en la forma de entender y hacer la guerra. No podemos considerar a
la sociedad actual lejos de los sistemas de información, por ello no podemos analizar el
concepto de guerra sin una estrategia del conocimiento, aunque más hoy que nunca su
primer uso debe ser para construir la paz.

Bibliografía

Army Data Distribution System.- Common Database to Speed Battlefield Information, Defense, 1999, vol. 14: nº 3,
pp. 8-16.

Ayuso García, Mª D., (1996), Conceptos fundamentales de la teoría de la documentación. Estudio terminológico y
versión española del Traité de Documentation de Paul Otlet, Murcia, Universidad de Murcia.

Bourne, C.P. (1961), «The historical development and present state of mechanized information retrieval systems»,
American Documentation, vol. 12: nº 2, pp. 103-117.

Broadman, J.- The Broadman library on "war, peace and international relations”. New York: Joseph Broadman,
1941-1959. 3 v.

Burke, Colin B., (1994), Information and secrecy: Vannevar Bush, Ultra, and the other Memex. Metuchen (N.J.),
Scarecrow Press.

Bush, V., (1945), Science The Endless Frontier. A Report to the President by Vannevar Bush, Director of the Office
of Scientific Research and Development, Washington, United States Government Printing Office.

Bush, V., (1987), «MEMEX revisited», en Evolution of an information society, London, ASLIB, 1987, pp. 177-184.

Casey, R., y J. Perry, (1951), Punched Cards: Their applications to Science and Industry, New York, Reinhold; 2ª
ed. en New York, Reinhold, 1958.

Counterm, E., (1994), «Winning the Information War», Research, Development and Adquisition, vol. 94: nº 2, pp.
35-38.

25
Leiner; B. M; Cerf, V. [et al], (1998), «Una breve historia de Internet, Novática, 130-131.
http://www.ati.es/DOCS/internet/histint/histint1.html

Lincove, D. A., (1991), «Activists for internationalism: ALA responds to World War II and British requests for aid,
1939-1941», Libraries & Culture, 26, pp. 487-510.

Moreiro González, J. A., (2001), «Los servicios de documentación ante los conflictos bélicos», en Homenaje a
Juan Antonio Sagredo Fernández. Estudios de Bibliografía y Fuentes de Información, Madrid, Universidad
Complutense-Escuela Universitaria de Biblioteconomía y Documentación, pp. 409-440.

Otlet, P., (1990), «First part: facts, requirements, aimes», en Rayward, W. (ed.), International organisation and
dissemination of knowledge: selected essays of Paul Otlet, Amsterdam, Elsevier, pp. 175-184.

Parker, W., (1999), «The digital reference», Armor, 108, pp. 42-84.

Pfaltzgraff, R.L., y R. H. Shultz, (eds.), (1997), War in the Information Age: New Challenge for US Security
Policy. Brassey’s Inc (Association of the US Army Book Series).

Sable, M.H., (1985), Warfare and the Library: an international bibliography, New York, Haworth Press.

Strickland, L. S., (2002), «Information and War against Terrorism», Bulletin of the American Society for Information
Science and Technology, vol. 28: nº 2, pp. 33-45.

Renouvin, P., [et al], (1990), Historia de las relaciones internacionales: siglos XIX y XX. 2ª ed., Madrid, Akal.

Shera, J., y D. Cleveland, (1977), «History and Foundations of Information Science», en Annual Review of
Information Science and Technology, vol. 12, pp. 249-275.

Taube, M., [et al], (1953-1959), Studies in coordinate indexing, Washington, Documentation Inc., 5 vols.

Toffler, A., (1998), Las guerras del futuro. Barcelona: Plaza y Janés.

U.S. Congress. Subcomittee on Goverment Operations (1958), Hearings on the Science and Technology Act of
1958,. Washington, D.C., U. S. Government Printing Office.

Vickery, B., (1959), «The structure of information Retrieval Systems», en Proceedings of the International
Conference on Scientific Information, Washington, NAS, pp. 1270-1291.

Weinberg, A., (1963), Science, government and information: the responsabilities of the technical community and the
government in the transfer of information. A report of the PSAC, Washington, U. S. Government Printing Office.

26
Inteligencia para la seguridad y la defensa: el valor de la gestión del conocimiento

Miguel Ángel Esteban Navarro


Departamento de Ciencias de la Documentación
Universidad de Zaragoza
mesteban@unizar.es

Diego Navarro Bonilla


Departamento de Biblioteconomía y Documentación
Universidad Carlos III de Madrid
dnavarro@bib.uc3m.es

1. Introducción

Los servicios de inteligencia para la seguridad y la defensa son organismos dedicados a


la elaboración de conocimiento especializado y estructurado a partir de datos inconexos, una
vez debidamente procesados, para satisfacer los requerimientos de inteligencia por parte de
los Estados en esas dos áreas, especificados formalmente en las directivas nacionales de
inteligencia. Las actividades de obtención, tratamiento, análisis, evaluación y transmisión de
información que realizan para ello pueden entenderse como típicos procesos de gestión del
conocimiento. Sin embargo, son escasos los trabajos que ponen de manifiesto este hecho
(Berkowitz y Goodman: 2000; Jones, Kovacich y Luzwich: 2002; Esteban y Navarro: 2003), a
pesar de que su fin (suministrar información de valor estratégico) y su modo de operar (el
denominado ciclo de la inteligencia) no difieren en lo sustancial de los que caracterizan a
otros organismos dedicados a la obtención de una ventaja en el entorno en el que actúan
basada en la posesión de información sobre ese entorno, como los servicios de análisis de
información de las grandes corporaciones financieras, industriales, comerciales o de
servicios.
Por tanto, la dinámica y los resultados de los servicios de inteligencia para la seguridad y
la defensa mejorarán con la incorporación de los avances epistémicos, metodológicos y
tecnológicos que se producen dentro del ámbito de la gestión del conocimiento, y que están
sentando en los últimos años las bases para la formación y el desarrollo de una nueva y
autónoma disciplina científica del mismo nombre. Esto contribuirá, además, a superar la
tradicional separación entre el cerrado y reservado mundo de los servicios de inteligencia
para la seguridad y la defensa y el abierto universo de la gestión de la información
27
documental, poniendo de manifiesto muchas de sus coincidencias y semejanzas, con el fin
de facilitar la necesaria ósmosis de conocimientos y técnicas.
El origen de esa brecha se halla en el diverso ámbito de aplicación de sus trabajos, los
diferentes valores culturales que están detrás de los modos de adquisición, selección,
tratamiento, difusión y uso de la información e incluso la procedencia y el estatuto
profesional de sus miembros. Pero su superación mediante la comunicación, la colaboración
y la interacción entre sus protagonistas será un elemento positivo para el progreso de ambas
áreas. Por una parte, los avances en la disciplina gestión del conocimiento incidirán en la
mejora del funcionamiento de los servicios de inteligencia para la seguridad y la defensa. Y,
por otra parte, los continuos progresos en los modos de producción de inteligencia y
conocimiento que caracterizan estos servicios, sobre todo en el ámbito tecnológico, se
integrarán en el marco disciplinar de la gestión del conocimiento, favoreciendo su recepción
por otros ámbitos, como la empresa, la industria, las finanzas o la Administración Pública.

2. ¿Qué es la Gestión del Conocimiento?

No existe todavía una definición precisa y universalmente aceptada sobre el significado


del término gestión del conocimiento. Esto se debe a que su campo de acción no está
delimitado con nitidez, su fin no está trazado con precisión, su método de análisis de la
realidad sobre la que opera y de diseño y guía de sus actividades está en elaboración, sus
técnicas no están suficientemente contrastadas y sus principales resultados aún están por
llegar. De momento, la gestión del conocimiento en las organizaciones es más un proyecto y
un deseo que una realidad.
No obstante, de entre las múltiples y variadas aproximaciones al concepto de gestión del
conocimiento destacan tres rasgos comunes: la convicción de la existencia de información y
conocimiento en las organizaciones que se deben identificar y procesar; la incidencia en su
carácter dinámico (relación con otros procesos) y utilitario (mejora de procesos); y la
consideración del conocimiento como un factor estratégico clave en una organización para el
logro de sus objetivos, de modo que una gestión eficaz lo convierte en un activo que
aumenta el valor de la organización.
La gestión del conocimiento es, por tanto, la disciplina que se ocupa de la investigación,
el desarrollo, la aplicación y la innovación de los procedimientos y los instrumentos
necesarios para la creación de conocimiento en las organizaciones, con el fin de aumentar
su valor y ventaja competitiva. El objeto de su práctica es la construcción de un sistema de
producción de conocimiento útil en una organización para la toma de decisiones y la
28
resolución de sus procesos estratégicos de negocio, vinculado con sus objetivos y valores
corporativos y su plan estratégico, mediante el diseño, la implantación, el mantenimiento y la
evaluación de un programa de identificación, conservación, organización, integración,
análisis, valoración, protección, comparto y uso eficaz de los recursos de información de que
dispone y del capital intelectual de sus miembros, con el apoyo de las tecnologías de la
información y las comunicaciones (Esteban y Navarro: 2003).
Los recursos de información de una organización están formados por todos los
componentes de la escala ascendente que va desde el dato hasta el conocimiento pasando
por la información en bruto, los flujos de información, los documentos, la información
documental y la información evaluada producidos, reunidos o adquiridos por esa
organización (Davenport y Prusak: 1998, 1-6); así como las tecnologías y las personas que
participan en su elaboración, gestión, almacenamiento, análisis y difusión. Y el capital
intelectual de una organización es la reunión de todos los conocimientos que posee: las
competencias, las capacidades y el saber de sus miembros, las estructuras, los procesos y
las rutinas creadas por éstos durante su trabajo, que permanecen incluso sin su presencia, y
los datos e indicadores de las relaciones que la organización mantiene con su entorno. El
capital intelectual es intangible y dinámico, ya que se construye mediante la interacción de
las personas en el seno de una organización durante el ejercicio de sus funciones.
El conocimiento se produce y comunica en una organización mediante un ciclo que
comienza y finaliza con la creación de conocimiento tácito por los diferentes individuos que
la componen. El conocimiento tácito es de posesión personal, difícil de formalizar y de
compartir, sólo accesible a los otros de modo indirecto. Tiene dos dimensiones: una técnica,
formada por el conjunto del saber y las habilidades obtenidos mediante la experiencia y el
estudio, a partir del procesamiento de información; y otra cognoscitiva, compuesta por
valores, ideales y emociones. Este conocimiento se comparte con otros durante la
interacción mediante diversos medios: mensajes verbales y no verbales, actos y mensajes
documentales; que una vez recibido, procesado e interiorizado permite la creación de nuevo
conocimiento tácito y el inicio, de nuevo, del proceso descrito, generando un ciclo continuo.
El éxito del ciclo de producción y comunicación del conocimiento exige dos medidas
complementarias: lograr el pleno control de todos los datos y documentos existentes en una
organización; y, por tanto, explicitar el conocimiento tácito mediante su transformación en
información fijada en un documento, porque no se puede identificar, almacenar, tratar y
transmitir lo que previamente no se ha codificado. Únicamente estas medidas permiten
integrar en los mensajes que se emitan como respuestas a demandas de información, datos

29
de todo tipo y origen, estructurados o no en documentos. Todo lo cual sólo es posible
mediante la implantación de un sistema integrado de gestión de la información.

3. ¿Qué es la inteligencia para la seguridad y la defensa?

Tampoco existe una definición de inteligencia en el ámbito de la seguridad y la defensa


universalmente aceptada, a pesar de que se han ensayado numerosas (Warner: 2002).
Destaca la delimitación de inteligencia realizada por Thomas F. Troy (1991-92), a partir de la
crítica del trabajo pionero de Sherman Kent (1966), como conocimiento del enemigo
presidido por el secreto, para cuya creación se nutre de las informaciones obtenidas por
agentes de información, por medios técnicos o de fuentes y recursos de información
abiertos.
La creación de este tipo de inteligencia se debe regir, según Win L. Taplin (1989), agente
de la CIA retirado en 1981 tras 25 años de servicio, por seis principios. El primer principio
establece que las actividades de inteligencia derivan del estado de conflicto o de rivalidad en
el que se encuentran las potencias, por lo que la intensidad de las operaciones de
inteligencia desarrolladas por un país respecto a otro ha de ser inversamente proporcional al
grado de entendimiento y de amistad que se profesen dichos países. El segundo principio
fija el carácter secreto de la inteligencia, por lo que es redundante hablar de inteligencia
secreta, ya que el adjetivo se encuentra implícito en el sustantivo; lo cual no significa que no
se utilicen fuentes de información públicas o no puedan participar en su creación expertos
externos a los servicios de inteligencia, sino que en algún momento del proceso la
información elaborada debe ser clasificada como secreta y enviada por canales exclusivos.
Lo importante de este principio es la afirmación implícita de que la información, sea abierta u
obtenida por medios clandestinos, no es en sí misma inteligencia, sino solamente su materia
prima. El tercer principio, que en cierta forma se deriva del anterior, indica que la recogida
clandestina de información es la actividad fundamental de los servicios; si bien en la
actualidad se está valorando la importancia de la información procedente de fuentes abiertas
(Steele: 2001; Steele: 2002). El cuarto principio es que la verdad es la base de una buena
inteligencia: la certeza de los datos, la fiabilidad de su procedencia y la objetividad de los
analistas, dejando al margen sus perjuicios, son condiciones imprescindibles para que el
producto de inteligencia que se obtenga sea pertinente, válido y eficaz. El quinto principio
consiste en que la inteligencia es una actividad inútil y costosa si no tiene una aplicación que
justifique la inversión realizada: la inteligencia debe servir para algo, lo cual depende de su
relevancia. Y, por último, el sexto principio afirma que las actividades encubiertas deben
30
incluir el conocimiento proporcionado por grupos nativos, ya que sólo estos pueden dar e
interpretar un buen cúmulo de información sobre la región o el país en el que se opera.
De acuerdo con el ámbito directo del que se ocupa, se suele distinguir entre inteligencia
exterior: destinada a conocer las fortalezas, las debilidades y las posibles líneas de acción
de otras naciones; inteligencia interior: dedicada a obtener conocimiento sobre personas y
grupos organizados que actúan dentro de la nación, como organizaciones terroristas y
adversarios del estado; y contrainteligencia, orientada a descubrir y neutralizar la actividad
de los servicios de inteligencia extranjeros dentro del país.
Es erróneo identificar la información estratégica producida por los servicios de
inteligencia con la inteligencia militar, ya que esta sólo es una especie de la primera. Según
su finalidad, se debe distinguir entre información estratégica para la seguridad y la defensa,
es decir para proteger la independencia, la integridad territorial y los intereses nacionales y
la estabilidad de las instituciones del estado; e inteligencia militar, orientada a la
organización de la defensa por las fuerzas armadas, a la vigilancia del ejército de un
enemigo potencial o real y a la preparación y el desarrollo de operaciones bélicas. Las
diferencias no radican ni en las fuentes ni en el modo de trabajo ni en el carácter civil o
militar de los miembros de los servicios de inteligencia, sino en el ámbito de actuación y uso
de la inteligencia.
La inteligencia para la seguridad y la defensa tampoco se debe confundir con la
inteligencia económica y la inteligencia competitiva. Aunque todas tienen un fin
proteccionista, y la primera también se ocupa de obtener y evaluar información económica,
actúan en sectores diversos. La inteligencia económica se centra en el sector productivo y
comercial y los actores económicos, generalmente de un estado o una región, siendo una
evolución de las diferentes prácticas de vigilancia científica, tecnológica, comercial, jurídica...
y de protección del patrimonio ensayadas desde mediados del siglo XX (Clerc: 1997). La
inteligencia competitiva se circunscribe aun más al mundo empresarial como una práctica
destinada a recoger, seleccionar, archivar, analizar y distribuir información sobre el entorno
de una empresa concreta para obtener ventaja sobre su competencia (Tena y Comai: 2001;
Pollard: 1999).
La inteligencia no se construye mediante una suma de datos, sino a partir de un
determinado modo de analizar los datos sobre hechos. En consecuencia, las claves para su
logro se encuentran por igual tanto en la obtención de información como en el proceso de
transformación de esta en conocimiento estructurado, preciso y listo para ser utilizado como
sostén de una decisión, que adopta generalmente la forma documental de un informe, y en
su protección.

31
De acuerdo con esta concepción, el servicio de inteligencia se puede definir como un
organismo cuya razón de ser es crear un eficaz sistema de información, aplicando los
procedimientos e instrumentos de la gestión del conocimiento, con el fin de suministrar al
estado conocimiento para la comprensión de su entorno, el ajuste de su estrategia, la
adopción de medidas de intervención e influencia en la realidad y el desarrollo de
operaciones de información y desinformación y de contrainteligencia en el terreno de la
seguridad y la defensa nacional. A diferencia de la mayoría de los departamentos y oficinas
del estado donde la gestión de la información es un mero elemento auxiliar de su acción
principal, esta es la función y el instrumento fundamental de un servicio de inteligencia. Su
objetivo es generar información evaluada para los órganos de decisión política que
contribuya a despejar el escenario de incertidumbre intra e interestatal donde actúa el estado
(Fraguas: 1991).

4. El ciclo de la inteligencia

Pero la cuestión fundamental es, como ya planteaba Taplin (1989), ¿cuándo y mediante
qué medio la información se convierte en inteligencia? La respuesta se halla en el
denominado “ciclo de la inteligencia”, por el que el quehacer diario de un servicio de
inteligencia consiste en elaborar la información obtenida por diversos medios, a lo largo de
varias fases, divididas a su vez en diversas subfases, hasta conseguir inteligencia (Montero:
1998). Se trata de un proceso donde se debe distinguir entre el objeto (la información), los
medios posibles para su obtención y el producto (la inteligencia) que se entrega a la
autoridad política o militar decisoria tras evaluar la fiabilidad de los datos, analizarlos,
integrarlos e interpretarlos (Díaz: 2001).
La generación de inteligencia no es un proceso lineal, sino un ciclo donde se combinan
actividades sintéticas de discriminación, evaluación y construcción de información a partir de
la representación y el análisis de datos obtenidos por múltiples medios, identificados como
necesarios a partir del estudio de las necesidades y las demandas de información de los
usuarios y la evaluación de los resultados de la aplicación de inteligencia elaborada en
momentos anteriores. Este ciclo persigue la generación de conocimiento estratégico útil,
verdadero y ajustado a los requerimientos de información preestablecidos por un destinatario
final, a quien se difunde selectivamente el resultado plasmado en un documento, mediante
un proceso que consta de seis etapas: planificación, toma de datos, procesamiento, análisis
y producción y difusión, comunicación y evaluación.

32
Los principios que guían el ciclo de la inteligencia en los servicios para la seguridad y la
defensa, las actividades que se realizan y los resultados que se obtienen son, por tanto,
similares a los principios, las actividades y los resultados de los procesos de gestión del
conocimiento que se emprenden en otras organizaciones.
1. Planificación. Consiste en determinar las áreas de interés estratégico del
organismo para el que actúa el servicio de inteligencia y las necesidades de información
concretas requeridas por sus responsables. Es una etapa crucial, ya que la inteligencia es el
resultado de un proceso metódico que se origina en las necesidades de información de los
usuarios (Herman: 2001, 286).
Las áreas estratégicas se fijan mediante la identificación y clasificación en niveles de
prioridad de los ámbitos de actuación del servicio y sobre qué se desea información, de
modo conjunto por los responsables del servicio de inteligencia y de los órganos políticos y,
en su caso, militares, a los que sirven. Posteriormente, el servicio traduce esas prioridades
en necesidades generales de información, clasificadas en diversas áreas, y analiza los
rasgos de los entornos informativos externo e interno de la organización; atendiendo,
fundamentalmente, al tipo y el contenido de la información que se puede adquirir, la
disponibilidad y fiabilidad de las fuentes y los cauces de comunicación. Asimismo, se intenta
deducir a partir de esas necesidades generales posibles demandas concretas de
información, con objeto de poder responder en el tiempo más breve posible cuando se
produzcan e incluso de anticiparse a su formulación. Se trata de distinguir entre necesidad
de información, que existe en los usuarios siempre de carácter general, y demanda de
información, de carácter específico y planteada formalmente (Sanz: 1994, 23-31).
Esta distinción permite clasificar la inteligencia que se produce al final del ciclo en tres
tipos, según el momento de su utilización: básica, actual y estimativa. La inteligencia básica
tiene un carácter general y es de relativa permanencia, obedece a las necesidades
generales y estratégicas de la organización, por lo que intenta conocer todos los aspectos de
cada uno de los objetivos fijados por las directrices de inteligencia, con el fin de permitir
responder a demandas de información concretas. La inteligencia actual tiene dos funciones:
mantener al día la inteligencia básica con datos nuevos, para lo que adopta la forma de
boletines periódicos, generalmente diarios, sobre cuestiones específicas de interés habitual;
y responder de modo rápido y preciso a una petición de información sobre una cuestión de
actualidad o hechos concretos que se deben conocer para la toma de una decisión, con los
datos disponibles o mediante un proceso de búsqueda ad hoc con los recursos que se
poseen. Y la inteligencia estimativa se dedica a determinar, ante una situación concreta y a
petición del usuario del servicio, la posible evolución de esa situación y las posibilidades de

33
actuación de los elementos involucrados en ella, a partir de los datos de que se dispone, con
el fin de que el destinatario realice su propia predicción y, de acuerdo con ella, tome una
decisión (Ford: 1993).
2. Toma de datos. Consiste en la adquisición, selección, autentificación y reunión de
datos e información en bruto mediante medios tecnológicos, humanos o documentales, cuya
tipología y caracteres se exponen más adelante. Los datos que se obtienen son el resultado
de una tensión dialéctica entre lo que se desea, lo que se puede conseguir con los medios
de que se dispone y el producto de la reflexión sobre los datos que han sido de utilidad tras
su proceso y análisis.
3. Procesamiento. Consiste en el control y la conservación de los datos recopilados por
medios diferentes para su conversión e integración en conjuntos estructurados de
información que puedan adoptar la forma de mensajes documentales tras su recuperación.
La ingente cantidad de datos, información en bruto y documentos con los que se trabaja
exige recurrir a los más avanzados sistemas electrónicos de gestión de datos, sistemas de
apoyo para la toma de decisiones (Decision Supports Systems)2 y a técnicas y herramientas
como los sistemas de indización automática, la minería de datos, los agentes inteligentes de
búsqueda y recuperación..., cuya investigación es un área prioritaria para los servicios de
inteligencia3. Porque la sobreabundancia de información, si no se controla eficazmente,
puede originar un colapso del servicio o, cuanto menos, dificultar su necesario comparto
entre los diversos departamentos y con otros servicios de inteligencia del país o de naciones
amigas.
Las actividades documentales de identificación, análisis formal o catalogación y análisis
de contenido (indización y resumen) de las fuentes de información constituyen una parte
sustancial de esta fase del proceso de producción de inteligencia. La creación de bases de
datos propias es su principal resultado.
La conservación de la información electrónica en óptimas condiciones para su acceso y
uso es otra decisiva acción de la etapa de procesamiento. Debe responder
fundamentalmente a tres retos. En primer lugar, es necesario la creación de depósitos de
conservación adecuados y seguros, tanto físico-lógicos (discos compactos, videodiscos

2
Los servicios de inteligencia cuentan con los DSS más avanzados para el filtrado y la integración de múltiples datos para
permitir la toma de decisiones con gran rapidez. Destacan el software de comunicaciones y de gestión de información en
campaña del cuerpo de Marines de las USAF (Kenyon: 2001) y el programa EKP (The Brain Entrerprise Knowledge Platform)
creado por la empresa The Brain Technologies Corporation (www.thebrain.com) en colaboración con el Joint Experimentation
Directorate (J-9) dependiente del Joint Forces Command (JFCOM) de las USAF. Estas aplicaciones integran y gestionan
múltiples elementos de información de modo conjunto y en tiempo real, simulan hipotéticos escenarios con situaciones del tipo
“what if...” y sustituyen la presentación jerárquica de la información por asociaciones de datos basadas en parámetros mentales
(Lawlor: 2002).
3
La CIA va a invertir en los próximos años 27 millones de dólares para el desarrollo de sistemas avanzados de minería de datos
y técnicas de análisis automático de información electrónica (Matthews: 2002).
34
digitales, etc.) para los originales y las copias como contenedores y almacenes de estos
depósitos. En segundo lugar, es imprescindible la adopción de nuevas y urgentes medidas
de prevención del deterioro, ya que el soporte de lo digital es más vulnerable al paso del
tiempo que el papel. Y, en tercer lugar, se debe garantizar a lo largo del tiempo el acceso y
la legibilidad de la información contenida en los soportes, haciendo frente a la obsolescencia
técnica de los depósitos, del hardware y del software. Estas acciones se deben recoger en
un programa de intervención que consta de tres partes: un plan de preservación con
medidas de seguridad física y lógica y de actuación ante desastres, un conjunto de
soluciones de conservación preventiva contra agentes de deterioro y virus informáticos y un
plan de lucha contra la obsolescencia (Esteban: 2001).
4. Análisis y producción. Consiste en extraer con precisión y rapidez información a
partir de los depósitos de datos, que induzca a la construcción de conocimiento. Esta fase
marca la frontera entre información e inteligencia, que se manifiesta dentro de la estructura
de los servicios de inteligencia en la separación entre los órganos responsables de la
obtención de información y los encargados de su elaboración en función de sus áreas de
actuación (nacional, internacional, etc.) mediante el trabajo de analistas que aplican todo su
capital intelectual. Se realizan tres operaciones: evaluación de los datos, integración de
datos procedentes de diversas fuentes e interpretación.
La evaluación de los datos trata de discriminar cuales contribuyen a la satisfacción de los
requerimientos de información formulados, en términos de fiabilidad de las fuentes, validez,
oportunidad, pertinencia, relevancia y utilidad.
La integración de datos de diversas procedencia se basa en un principio fundamental de
los servicios de inteligencia: no aceptar nunca una única autoridad informativa (Berkowitz y
Goodman: 2000, 22). Se trata de conseguir una sinergia donde la combinación de
información procedente de los diferentes medios de obtención constituye un todo de mayor
relevancia y alcance que cada una de las informaciones por separado (Isaacson y
O´Connell: 2002). Su aplicación ha permitido incluso la aparición del concepto de Multi-Int
(multinteligencia) para denominar el trabajo de los departamentos de análisis (Pappas y
Simon: 2002).
Posteriormente, se procede a la interpretación de los datos, cuyo resultado se recoge en
un producto documental, cuya tipología (dossier, resumen, estadística...) se establece de
acuerdo con la mayor o menor elaboración de la información que transmite. En la cumbre se
encuentra el informe de inteligencia: un documento elaborado por un experto en el área
concreta de análisis, no muy extenso, altamente estructurado, con orientaciones para la

35
interpretación de la información que se recoge, con valoración de los hechos que se analizan
y con una calificación del grado de protección que se le debe aplicar.
5. Comunicación. Consiste en la distribución y puesta a disposición del documento
creado al demandante de información o, por iniciativa propia del analista, al responsable de
su departamento o del servicio, de modo seguro.
También es conveniente que muchos tipos de documentos sometidos a los niveles más
bajos de protección se difundan también de modo horizontal entre otros analistas y
departamentos, con el fin de facilitar la circulación de información elaborada en beneficio del
cruce de datos. Esto supone salirse de los canales de comunicación jerárquicos de los
servicios de inteligencia, tan criticados en los últimos años por su lentitud y poca
operatividad cuando la carga de trabajo es muy elevada, las fuentes muy variadas y el
volumen de datos a controlar y analizar muy numeroso.
Este fenómeno, provocado en origen por el elevado número y diversidad de fuentes y
datos, ha generado la aparición de un nuevo concepto de integración que va más allá de la
reunión de datos de diversa procedencia descrita más arriba, para entender la integración
como la circulación de los datos entre los diferentes órganos, secciones y oficinas de un
servicio de inteligencia, con el fin de que se puedan aplicar allá donde se necesiten, con
independencia de su responsabilidad en su obtención y procesamiento. Detrás de esta idea
se encuentra el intento de superar los rígidos modelos de estructura jerárquica
característicos de los servicios de inteligencia heredados de la época de la Guerra Fría,
donde la información y la inteligencia procedentes de diversas fuentes se integraban en los
niveles superiores, a costa de separar e incomunicar los departamentos y unidades del
mismo nivel y de los dependientes de distinta sección; situación que era incluso propiciada
conscientemente por parte de sus responsables con el fin de garantizar la seguridad interna
y el filtrado de información hacia el exterior.
Berkowitz y Goodman (2000) han criticado la utilidad de este sistema en un entorno
dominado por la amenaza de grupos hostiles y redes terroristas que demuestran una gran
capacidad organizativa basada en la flexibilidad y la ausencia de estructuras rígidas,
fácilmente manejables y unidas por medios telemáticos, lo que les convierte en muy
resistentes. Así, propugnan la adaptación de los servicios de inteligencia a modelos de
inteligencia implantados con éxito en el mundo empresarial, basados en la reunión de
expertos en diversas áreas y pertenecientes a diversas oficinas en equipos de trabajo no
permanentes para resolver asuntos transitorios. Proponen incluso la asignación de un
analista de inteligencia principal a los órganos de decisión, concebido como aquel experto
responsable de la elaboración de inteligencia mediante la coordinación de un equipo

36
encargado de confeccionar un producto final ajustado a los requerimientos específicos de un
peticionario; con esto se mejoraría la conexión entre los productores y los usuarios de
inteligencia. Claro está que esto es más sencillo formular que llevar a la práctica.
6. Evaluación. La comunicación de informes de inteligencia no supone el final de un
proceso iniciado con una petición general o específica de información. Es necesario analizar
las reacciones de los usuarios ante la información suministrada (Herman: 2001, 293-296),
identificar los objetivos cumplidos con las decisiones adoptadas sobre su base y valorar la
importancia que la información ha tenido en el logro de esos objetivos. Sus resultados
permiten replantear las conclusiones obtenidas con las acciones seguidas durante la fase de
planificación e incluso condicionan los futuros procesos de adquisición de información,
marcando los tipos de datos a conseguir y sus modos de obtención. Henry Kissinger,
Secretario de Estado de los Estados Unidos, decía que desconocía qué productos de la
inteligencia necesitaba pero que los reconocía cuando los veía en la mesa de su despacho.
Un recurso de información no tiene un valor inherente, sino que lo adquiere en un
contexto determinado y de acuerdo con el que le asigne el usuario, atendiendo a su
capacidad para generar conocimiento útil y aplicable en el ámbito de acción de la
organización. Su valor se calcula de acuerdo con los objetivos y las necesidades
corporativos; y, cómo estos son variables, resulta que los recursos de información sólo
tienen un valor potencial, cuya evolución en el tiempo es además imprevisible: depende de
quién, cómo, cuándo y para qué lo use.
La evaluación debe descubrir también cuales han sido las principales dificultades con las
que se ha topado el ciclo de inteligencia, con objeto de corregirlas. No obstante, hay que
tener en cuenta que existen unas dificultades consustanciales a los propios servicios de
inteligencia para la seguridad y la defensa, como la urgencia impuesta por los usuarios para
disponer del análisis aun antes de que se haya conseguido suficiente información, la
incapacidad del analista para controlar todas las variables a estudio, el desconocimiento de
la calidad de los datos debido a imperfecciones en el proceso de colecta, el énfasis que se
debe dar a la predicción y el enfoque utilitario de los resultados (Marrin: 2002).

5. Medios de obtención de información


5.1. Medios tecnológicos
Se cuenta con numerosos y variados medios tecnológicos para la obtención de
información:
1. Sistemas de búsqueda y transmisión de señales electromagnéticas en cualquier
onda y frecuencia. Se dividen en dos tipos: de interceptación, desencriptación y
37
análisis de comunicaciones por ondas radiotelefónicas y radiotelegráficas mediante
estaciones receptoras desconocidas por el emisor y la aplicación de tecnología de
reconocimiento de voz con el fin de averiguar su identidad; y de recogida y
reconocimiento de información por medios electrónicos como radar, sensores
microfónicos y ultrasónicos, aviones espías dotados de sistemas de control y alerta
aerotransportado (AWAC), aviones de detección y seguimiento de objetivos terrestres
móviles y fijos (JSTARS) provistos de videografía y termografía, satélites de
reconocimiento electrónico (“hurones”) destinados a captar comunicaciones, vigilancia
telemétrica de lanzamiento de mísiles...
Cuando estos sistemas se aplican en el ámbito militar, el acopio de datos puede
tener una dimensión táctica: localización e identificación de emplazamientos de armas
y de efectivos concretos de un ejército enemigo real o potencial; o estratégica:
vigilancia continua de la totalidad de un ejército y su despliegue. (Richardson: 1987,
50).
2. Sistemas de vigilancia de radiaciones procedentes de equipos o sistemas, tales
como motores de ignición, líneas de conducción de energía eléctrica, etc.
3. Sistemas de obtención y análisis de imágenes de objetivos fijos o móviles mediante
aviones y satélites y estaciones avanzadas de procesamiento. La actual precisión y
resolución de los imágenes permite localizar efectivos militares, fábricas y
emplazamientos de armas, maniobras... Las cámaras del satélite espía Big Bird
puede identificar objetos de tan sólo treinta centímetros. La organización y análisis del
ingente material fotográfico por los servicios de inteligencia es un área de
investigación pujante, de gran interés para otros ámbitos documentales (Bewley:
1999).
4. Sistemas de interceptación y análisis de comunicaciones electrónicas como
programas de rastreo de mensajes electrónicos (por ejemplo, Carnivore), ruptura de
sistemas de seguridad de servidores de información telemáticos, control de
transacciones de comercio electrónico... El desarrollo de estos sistemas es
considerado prioritario dentro del programa Total Information Awareness
(Conocimiento Total de la Información) creado por los Estados Unidos el pasado año
como medio de lucha antiterrorista (Koch: 2002).
5. Sistemas de información geoespacial destinados a proporcionar una representación
geográfica ajustada de las zonas involucradas en una acción militar (Payton: 2002)4.

4
Existe un proyecto de realización de un mapa inteligente de toda la superficie terrestre a partir de estándares de digitalización
denominado Mapa Vectorial Mundial (VMAP), liderado por la National Imagery and Mapping Agency de los Estados Unidos y
con la participación de diferentes países aliados, que dispondrán de toda la cartografía mundial a cambio de aportar la
38
5.2. Medios humanos
Por medios humanos de obtención de información se entiende aquellos donde la
presencia y la acción del hombre tiene una función preponderante en la observación y
recogida de datos. El espionaje, la infiltración, el contacto con informantes y el interrogatorio
por agentes de los servicios de inteligencia son sus principales manifestaciones.
El incuestionable protagonismo de la tecnología de la información para la seguridad y la
defensa no debe invitarnos a sobrevalorar y sacralizar su importancia en detrimento de otras
fuentes de información. Muchas voces se alzan en pro de una reflexión sobre sus resultados
en el marco general de la gestión del conocimiento, para fijar su eficacia y aplicación real
frente a otros medios (Ackerman: 2001). La apuesta por una inteligencia de base tecnológica
en detrimento de una tradicional centrada en los recursos humanos, con agentes rastreando
información y procesando conocimiento sobre el terreno, ha destapado, sobre todo a partir
de los fallos de seguridad que están detrás de los atentados del 11 de septiembre de 2001,
carencias de disponibilidad y formación de hombres y mujeres capaces de enfrentarse a las
amenazas terroristas.

5.3. Recursos documentales abiertos


El tercer medio de obtención de información está formado por fuentes de información o
recursos documentales abiertos: obras de referencia (enciclopedias, anuarios, quién es
quién, directorios...), monografías, publicaciones seriadas, bases de datos, literatura gris,
fotografías y cualquier otro documento impreso o electrónico de acceso y uso público en
cualquier idioma, con datos políticos, geográficos, económicos, militares, científicos,
técnicos, sociológicos, etc. Su uso recibía escasa atención hasta hace poco tiempo pero su
análisis mediante el cruce de datos constituye ahora una parte sustancial del trabajo de
inteligencia, donde la aplicación de los conocimientos y las habilidades de los
documentalistas son necesarios para su búsqueda y selección y para la representación y
organización de su contenido5.

6. Un futuro ya presente: infoguerra y dominio informacional


La aplicación de las tecnologías de la información para la toma y el proceso de datos
sobre el entorno de amenaza o en el que se planifica una operación constituye una de las

digitalización cartográfica de su territorio y de algunas de sus zonas de influencia histórica colonial. La Carta Militar Digital de
España vector-raster editada en CD-ROM por el Ministerio de Defensa en 2002 es la contribución de nuestro país al proyecto.
5
Existen incluso compañías que se dedican por encargo al análisis de información para la seguridad y la defensa a partir de
fuentes abiertas, como la Open Source Solutions (www.oss.com), dirigida por el ex-agente de la CIA, Robert David Steele
(2001). Steele es también miembro fundador de la asociación Council on Intelligence (www.council-on-intelligence.com) ,
destinada a reflexionar sobre el papel de los recursos de información libres para la generación de inteligencia.
39
señas de identidad de la denominada Revolución en los Asuntos Militares (Mackrell: 1997;
Ortíz: 2000; Latham: 2002). Los Estados financian con generosidad numerosos proyectos de
investigación y desarrollo a empresas, universidades e institutos de investigación públicos y
privados, participados en mayor o menor medida, como la empresa filial de la CIA In-Q-Tel
(www.in-q-tel.com) (Ackerman: 2002).
El control de las tecnologías de la información y la protección del espacio telemático se
convertirán en un futuro próximo en los principales caballos de batalla, ya que de ellos
dependen la operatividad de los sistemas de seguridad y los ejércitos actuales (Rapetto y Di
Nuncio: 2001). Hasta tal punto se prevé que su importancia será decisiva, que ha dado lugar
al nacimiento de una utopía bélica donde la guerra del futuro se limitará a una lucha
incruenta entre sistemas informáticos y de telecomunicaciones destinada a colapsar los
ordenadores del enemigo, provocando la neutralización de sus armas, la parálisis de su
actividad económica y el caos en la vida cotidiana, hasta conseguir su rendición sin apenas
bajas humanas y las desastrosas consecuencias de las guerras actuales. La infoguerra no
se dirigirá a la ocupación del país enemigo, sino al dominio o destrucción de sus redes de
información y flujos electrónicos, provocando la desaparición progresiva de las guerras de
conquista (Echeverría: 1999, 197-198). Perry Smith (1991), analista militar de la CNN en la
primera guerra del Golfo Pérsico, es uno de sus principales teóricos.
La guerra de Irak muestra cuan lejos se está de este horizonte. Pero nadie puede negar
que el ciberespacio es un nuevo frente, también con terribles efectos, sobre todo cuando
afecta al control y manejo de armas de destrucción, que surge junto a los frentes clásicos de
campos, ciudades y economía. La defensa y los combates militares ya se producen en el
entorno telemático por el dominio de los códigos secretos, las conexiones, los servidores, los
programas y los datos. La captación de los mensajes y las actividades económicas que
realizan por medios electrónicos los miembros de un grupo terrorista ya es un objetivo
estratégico de la lucha antiterrorista. Todo esto provoca un aumento espectacular de la
importancia de la información, ya que la lucha misma se produce con información por el
dominio de información.
El dominio informacional se convierte en un objetivo estratégico clave, más cercano al
análisis y uso inteligente de la información que a una mera superioridad tecnológica, aunque
ésta sea un elemento necesario. El concepto fue acuñado por el director de la DIA (Defense
Intelligence Agency de la USAF) general Minihyan: “No consiste en que mi pila de
información sea mayor que la tuya. Es un modo de aumentar nuestras capacidades
utilizando la información para tomar decisiones correctas y ponerlas en práctica más
rápidamente que el enemigo. Es un modo de alterar la entera percepción que pueda tener el

40
enemigo de la realidad. Es un método para usar toda la información de que disponemos y
predecir e influir en lo que sucederá mañana, antes de que el enemigo se haya levantado
siquiera de la cama para pensar sobre lo que hará hoy” (citado por Johnson: 1994, en
Guisnel: 1997, 179).
En este marco se debe entender la presentación de la infoguerra, con una perspectiva
más amplia y menos militarista, como el conjunto de operaciones de obtención, proceso y
uso de información desarrolladas en un entorno real o virtual destinadas a que un país, una
organización o un individuo logren sus objetivos y consigan una situación de predominio
sobre sus posibles competidores (Jones, Kovacich y Luzwick: 2002). Evidentemente, la
posesión de un servicio de inteligencia eficaz es indispensable para el logro de ese dominio
informacional en el ámbito de la seguridad y la defensa, tanto para prevenir como para
actuar.

REFERENCIAS BIBLIOGRÁFICAS

Ackerman, Robert, (2001), “The information technology community may be driving the land
warriors of the next conflict”, Signal Magazine, agosto. Consultado en: 20/11/2002.
http://www.us.net/signal/Archive/Aug01/electronics-aug.html

Ackerman, Robert, (2002), “Intelligence Technology Development Accelerates: New


directions spur in-house research, industry outreach”. Signal Magazine, junio. Consultado en:
25/11/2002. http://www.us.net/signal/Archive/June02/intelligence-june.html

Berkowitz, Bruce D.; Goodman, Allan E., (2000), Best Truth: Intelligence in the Information
Age, Yale University Press.

Bewley, Robert, (1999), Archiving Aerial Photography and Remote Sensing Data: A Guide to
Good Practice, Oxford, Oxbow Books; David Brown Book Company.

Clerc, Phillippe, (1997), “Inteligencia económica: retos actuales y perspectivas”, en Informe


mundial sobre la información 1997/98, Madrid, UNESCO; CINDOC, pp. 322-335.

Davenport, Thomas H.; Prusak, Lawrence Prusak (1998), Working Knowledge: How
Organizations Manage What They Know, Boston, Harvard Business School Press.

41
Díaz Fernández, Antonio Manuel, (2001), “La función de los servicios de inteligencia”, en
Cueto, Carlos; Jordán, Javier, coords., Introducción a los estudios de seguridad y defensa,
Albolete (Granada), Comares, pp. 155-173.

Echeverría, Javier, (1999), Los señores del aire: Telépolis y el Tercer Entono, Barcelona,
Destino.

Esteban Navarro, Miguel Ángel, (2001), “Los archivos de documentos electrónicos”, El


profesional de la información, vol. 10: nº 12, pp. 41-45.

Esteban Navarro, Miguel Ángel y Diego Navarro Bonilla, (2003), “Gestión del conocimiento y
servicios de inteligencia: la dimensión estratégica de la información”, El profesional de la
información, vol. 12: nº 5, pp. 269-281.

Ford, Harold P., (1993), Estimative intelligence: the purposes and problems of national
intelligence estimating, Lanham (Maryland), University Press of America; Washington:
Defense Intelligence College.

Fraguas, Rafael, (1991), “Servicios secretos y razón de Estado”, Claves de Razón Práctica,
vol. 14, pp. 64-68.

Guisnel, Jean, (1997), Cyberwars. Espionage on the Internet, Nueva York, Plenum Trade,
(ed. or. en francés, 1995).

Herman, Michael, (2001), Intelligence power in peace and war, Cambridge University Press.

Isaacson, Jeffrey A., y Kevin M. O´Connell, (2002), Beyond Sharing Intelligence, We must
generate Knowledge. Consultado: 7/11/2002.
www.rand.org/publications/randreview/issues/rr.08.02/intelligence.html

Johnson, Craig L., (1994), “Information war is not a paper war”, Journal of Electronic
Defense, agosto.

Jones, Andy; Kovacich, Gerald L.; Luzwick, Perry G., (2002), Global Information Warfare:
How Businesses, Governments, and Others achieve Objectives and Attain Competitive
Advantages, Boca Raton (Florida), Auerbach.

Kent, Sherman, (1966), Strategic Intelligence for American World Policy, Princeton University
Press. (Existe edición en castellano: Madrid, Pleamar, 1978).
42
Kenyon, Henry S, (2001), “Bent Pipes, Intelligent Agents Aid Corps: cunning devices,
solutions help Marines fight smarter”, Signal Magazine, mayo. Consultado en: 20/11/2002.
http://www.us.net/signal/Archive/May01/bent-may.html

Koch, Andrew, (2002). “US Department of Defense seeks radical information network”,
Jane´s Defense Weekly, vol. 38: nº 3, p. 6.

Latham, Andrew, (2002), “Warfare Transformed: A Braudelian Perspective on the Revolution


in Military affaires”, European Journal of Internacional Relations, vol. 8: nº 2, pp. 231-266.

Lawlor, Maryann, (2002), “Information plus Context equals Knowledge: Software tool
connects the dots between related pieces of data”, Signal Magazine, marzo. Consultado en:
22/11/2002. www.us.net/signal/Virtual/March02/information-feb.html

Mackrell, Eileen, (2002), “Combined forces support: The evolution in military (intelligence)
affairs”, Nato Review, vol. 45: nº 6, pp. 20-22. Consultado en: 31/10/2002.
http://www.nato.int/docu/revue/1997/9706-06.htm

Marrin, Stephen, (2002), CIA´s Kent School: A Step in the Right Direction. Consultado en:
31/10/2002. http://www.isanet.org/noarchive/marrin.html

Matthews, William, (2002), Squeezing out the sparks: CIA to invest millions in developing
software to sift through digital data. Consultado en: 5/11/2002.
http://www.fcw.com/fcw/articles/2002/0805/tec-cia-08-05-02.asp

Montero Gómez, Andrés, (1998), “Valor de inteligencia”, Ejército: revista ilustrada de las
armas y servicios, nº 686, pp. 28-36.

Ortiz, Román, (2000). “Más rápido, más lejos, más letal”, Revista Española de Defensa, vol.
13: nº 151, pp. 42-49.

Pappas, Aris A.; Simon, James M., (2002), “Daunting Challenges, Hard Decisions: The
Intelligence Community: 2001-2015”, Studies in Intelligence, vol. 64: nº 1. Consultado en:
10/11/2002. http://www.odci.gov/csi/studies/vol46no1/article05.html

Payton, Sue C., (2002), “Maps to Information Superiority: The Rapid Terrain Visualization
Advanced Concept Technology Demonstration”, Intelligence, Surveillance and
Reconnaissance Journal, vol 3. Consultado en: 5/10/2002.
http://www.afji.com/ISR/Mags/2002/Issue3/maps.html.
43
Pollard, A., (1999), Competitor Intelligence. Londres, Financial Times.

Rapetto, Humberto; Di Nuncio, Roberto, (2001), Le nuove guerre: dalla cyberwar ai Black
Bloc, dal sabotaggio mediatico a Bin Laden. Milán, RCS.

Richardson, Doug, (1987), Guía ilustrada de técnicas y equipos de la guerra electrónica.


Barcelona, Orbis.

Sanz Casado, Elías, (1994), Manual de estudios de usuarios, Madrid, Fundación Germán
Sánchez Ruipérez; Pirámide.

Smith, Perry, (1991), How te he CNN fought the war, Nueva York, Birch Lane.

Steele, Robert David (2001), On intelligence: spies and secrecy in an open world, Oakton
(Virginia), OSS International Press.

Steele, Robert David (2002), The new craft of Intelligence: Personal, Public, and Poltical,
Oakton (Virginia), OSS International Press.

Tena Millán, Joaquín; Comai, Alessandro, (2001), “Los propósitos de la inteligencia en la


empresa: competidora, cooperativa, neutral e individual”, El profesional de la información,
vol. 10: nº 5, pp. 4-10.

Taplin, Winn L., (1989), “Six General Principles of Intelligence”, International Journal of
Intelligence and Counterintelligence, vol. 3: nº 4, pp. 475-491.

Troy, Thomas F., (1991-92), “The correct Definition of Intelligence”, International Journal of
Intelligence and Counterintelligence, vol. 5: nº 4, pp. 433-454.

Warner, Michael (2002), “Wanted: A Definition of Intelligence”, Studies in Intelligence, vol. 46:
nº 3. Consultado en: 13/11/2002. http://www.cia.gov/csi/studies/vol46no3/article02.html

44
Fuentes abiertas de información (OSINT) e inteligencia estratégica

Diego Navarro Bonilla


Departamento de Biblioteconomía y documentación.
Universidad Carlos III de Madrid
dnavarro@bib.uc3m.es

1. Introducción

La pasada cumbre europea de Salónica (junio 2003) ha definido la nueva concepción


de la seguridad y la defensa comunitaria a partir de tres ejes fundamentales que constituyen
otras tantas amenazas para los Estados miembros: terrorismo, armas de destrucción masiva
y estados en descomposición. Junto a esta cumbre, la de Sevilla tuvo lugar pocos días
después y congregó a los quince Estados miembros de la Unión Europea más los diez
candidatos a su ingreso. En ella se concretó la Política Exterior de Seguridad y Defensa
Común que pasa por definir una estrategia clara: utilizar la capacidad y los medios militares
de los Estados miembros contra estas amenazas a la vez que se potencia la cooperación
UE-USA-OTAN-ONU. Los resultados y las conclusiones alcanzadas en el seno de la Unión
Europea relativos a la seguridad y la defensa comunitaria han tenido su plasmación en el
proyecto de la futura Constitución Europea. Al hilo de estas reflexiones incluidas ya en el
informe Morillon (2003) sobre la nueva arquitectura europea de seguridad y defensa
(http://europa.eu.int/futurum/documents/other/oth100403_es.pdf) tampoco podemos olvidar
la creación de organismos que tratarán de mejorar la capacidad militar de los Estados
miembros, como es el caso de la proyectada Agencia Europea de Armamento, Investigación
y Capacidades Militares (Sorroza Blanco: 2003). Finalmente, ese reforzamiento de las
relaciones UE-EEUU en materia de seguridad y defensa ha sido recientemente puesto de
manifiesto en la mesa de las conversaciones de la cumbre de Washington, escenario elegido
a renglón seguido de Sevilla para celebrar la última cumbre del mes de junio entre Estados
Unidos y la Unión Europea, con el objetivo final de concluir el proceso de reconciliación a
consecuencia de las divergencias en las posiciones frente a la guerra de Irak.

Las nuevas amenazas del siglo XXI (bioterrorismo, narcotráfico, information warfare,
etc.) nacidas del concepto de guerra asimétrica y alejadas por tanto del tradicional

45
enfrentamiento entre bloques mediante fuerzas convencionales hacen peligrar la seguridad
nacional y refuerzan aún más si cabe el papel jugado por las capacidades tecnológicas en la
obtención, procesamiento y puesta a disposición de información en cualquier formato,
soporte y forma de transmisión para su eficaz utilización en la defensa de los estados
(Herman: 2001), (Jones, Kovacich y Luzwick: 2002), (Schwartau: 1997). Hoy en día, la
dimensión estratégica de la gestión del conocimiento adquiere especial relevancia en el
momento en que ya no hay duda de su consideración como eje fundamental de los procesos
de toma de decisiones en cualquier ámbito de la actividad humana. Como recurso
característico de la sociedad contemporánea, la información y las actividades conducentes a
su obtención, control, organización, utilización y conversión en conocimiento operativo
extienden su necesidad a todos los sectores económicos, políticos, militares o sociales. Esta
afirmación renueva la importancia del papel que los profesionales de la información y de la
gestión de la documentación están llamados a jugar como eslabones de la cadena
informativa aplicada a la seguridad y la defensa nacional (Esteban y Navarro: 2003). La
formidable reflexión mundial en torno al papel de la información como recurso vital en las
políticas de seguridad y defensa como consecuencia de los acontecimientos de septiembre
de 2001, ha marcado el inicio del siglo que contempla una nueva y trágica dimensión de la
sociedad de la información, en la que los esfuerzos por adquirirla como principal recurso
para la defensa, se ven contrarrestados por su empleo con fines terroristas en una dialéctica
incierta. La eficaz utilización de las redes de información unida a una estructura flexible,
móvil y con gran capacidad de adaptación y resistencia a las medidas contraterroristas y el
singular apoyo recibido de Estados abiertamente protectores del terrorismo hacen de grupos
como Al-Qaeda organizaciones basadas en una profunda motivación religiosa extremista
que utilizan los medios de comunicación electrónica fácilmente accesibles a la globalidad del
planeta para definir sus actuaciones, cohesionar a sus miembros y mantener canales de
comunicación que les permitan cumplir sus objetivos (Jordán: 2002). Aunque no siempre,
pues el empleo de los medios tradicionales de comunicación postal o por mensajeros
personales trata de burlar la interceptación tecnológica del mensaje.

Este paradigma de la denominada “amenaza asimétrica” ha aprovechado el entorno y


la estructura red a la vez que ha adoptado una forma de combate como es el terrorismo en
todas sus variantes, dimensiones e incremento cuantitativo de sus trágicos resultados en
pérdida de vidas humanas que, a pesar de ser una actividad surgida con especial virulencia
en la segunda mitad del siglo XX nunca antes había adoptado carta de identidad como forma
asentada de ataque masivo hasta 2001. Todo ello presupone en primer lugar un cambio en

46
la concepción y significación del trabajo de identificación, alerta y prevención de esos riesgos
y amenazas citados, desarrollado por los servicios de inteligencia de un estado: “We cannot
predict specific asymmetric threats (unless we have excellent intelligence) and therefore we
cannot protect everything at risk)” (Colin S. Gray: 2002). Actualmente se tiende hacia
modelos de inteligencia alejados de la jerarquía y la falta de flexibilidad que había
caracterizado el modus operandi de dichos servicios durante décadas. Por el contrario, los
centros de inteligencia se encaminan hacia un profundo cambio que afectará a su estructura,
funcionamiento y planificación, tal y como sugieren expertos procedentes de la comunidad
de inteligencia norteamericana como es el caso de Ruth David y su modelo AIE (Agile
Intelligence Enterprise), prototipo de la concepción de un servicio de inteligencia bajo la
denominación KBB (Knowledge-based Business) (Nauth: 1999). En suma, los antiguos
esquemas heredados de la guerra fría se han mostrado notablemente perfectibles pues la
amenaza convencional de un bloque enemigo orgánicamente identificado y con un orden de
batalla determinado se ha trasladado hacia amenazas que desarrollan una estructura no
convencional, ramificada, inestable y flexible pero dotada de una gran voluntad de actuación,
que hacen de esta volatilidad estructural su principal medio de ocultación (Berkowitz y
Goodman: 2000), (Steele: 2002), (Herman: 2001 b).

Las inversiones millonarias efectuadas por la Comunidad de Inteligencia


Norteamericana para poner en marcha proyectos de gestión de información y
documentación muestran de forma reiterativa la poderosa fuerza que todo lo referido a la
información tiene en el ámbito de la seguridad y la defensa nacional. Como muestras de ello,
los programas de gestión de información vinculados a la agencia DARPA (www.darpa.mil)
(Defense Advanced Research Projects Agency) (Information Awareness Office Programs;
Information Processing Technology Programs; Information Exploitation Office Programs), se
suman a iniciativas gubernamentales de amplio alcance como la creación a mediados de
noviembre de 2002 de la denominada Total Information Awareness, que pretendía ser una
solución de carácter “absoluto, global y determinante” para rastrear, localizar y controlar
billones de comunicaciones electrónicas diarias, transacciones comerciales y en definitiva,
cualquier rastro de información intercambiada que permita aportar datos fiables para la lucha
antiterrorista (Koch: 2002). La controversia jurídica suscitada por su implantación obligó a su
definitivo abandono a favor del Terrorism Information Awareness Program) Hoy en día más
que nunca, las actuaciones en materia de conocimiento estratégico desarrolladas por
fuerzas armadas y cuerpos de seguridad del Estado refuerzan su protagonismo e
intensifican el valor de los resultados derivados de la investigación y el desarrollo científico.

47
La aplicación de las tecnologías de la información (TI) es una de las señas de identidad de la
denominada Revolución en los Asuntos Militares (RMA). Este concepto, nacido en el seno
del poder militar soviético a finales de los años 70 y primeros 80 fue definido por Fitzgerald
como: «Radical changes in the development of the armed forces and methods of conducting
military operations that are generated by scientific-technical progress in weaponry and
military technology». (FitzGerald: 1992, 98-131), (Vickers: 1997). Los incesantes esfuerzos
desarrollados por los departamentos de I+D de filiales tecnológicas de servicios de
inteligencia y ministerios de defensa como la estadounidense In-Q-Tel (www.in-q-tel.com) o
la británica DSTL (www.dstl.gov.uk/nn4index.htm) hacen de las divisiones y departamentos
de TI unos de los principales sectores de actividad. Sin embargo, la tecnología por sí sola no
asegura la obtención ni la disponibilidad de una inteligencia de calidad, oportuna y decisiva.

Por otra parte, la decidida intervención ejecutada para involucrar en el proceso de


inteligencia a sectores de especialistas externos a las propias Fuerzas Armadas o a las
agencias de inteligencia nacionales hace de universidades, centros de investigación,
empresas tecnológicas, etc., canteras para la incorporación de especialistas externos al
trabajo de inteligencia nacional creando una “reserva de inteligencia” (Galvache Valero:
2004). Este fenómeno, especialmente observado en Estados Unidos, está lejos de
implantarse en el seno de agencias y centros que han desarrollado una tradición operativa
ajena a la participación exterior. La inclusión de sectores de la sociedad civil, con una alta
capacidad de investigación en apoyo de objetivos de la inteligencia nacional es una realidad
que algunos especialistas consideran altamente beneficiosa y que define el nuevo modelo
de servicio de inteligencia (Nauth: 1999). Además de organismos veteranos en la reflexión
política, militar y tecnológica al servicio de los intereses norteamericanos como la
corporación RAND (www.rand.org) algunos de estos centros se encuentran en
Universidades como la de Columbia y el proyecto de generación automática de resúmenes a
partir de noticias, e-mails o mensajes de voz; o la National Science Foundation (NSF), que
ha obtenido recientemente ocho millones de dólares del Intelligence Technology Innovation
Center (ITIC), dependiente de la CIA, con el fin de llevar a cabo proyectos de investigación
para la obtención de patrones de información obtenidos de la minería de datos masiva.

En este panorama, es probablemente el ámbito de la obtención, gestión, integración,


análisis y comunicación de información abierta uno de los más propicios para aplicar esa
colaboración, a nuestro juicio, muy positiva entre sociedad tecnológica y capitales
intelectuales y servicios de inteligencia. Máxime cuando el incremento en la producción

48
documental mundial convierte a los especialistas en el filtrado, refinamiento y síntesis de
ingentes volúmenes de información en todo tipo de soportes y formas de transmisión
elementos fundamentales en el tratamiento de la información procesada a través de los
servicios de inteligencia nacionales (Strickland: 2002).

Information Exploitation Office, dependiente de DARPA (www.darpa.mil)

Como síntoma inequívoco de todo lo que llevamos dicho, las revisiones estratégicas
de los principales países occidentales (Quadrennial Defence Review de Estados Unidos,
Strategic Defence Review del Reino Unido, Revisión Estratégica de la Defensa de España o
el concepto militar de defensa frente al terrorismo de la OTAN) remarcan el protagonismo de
las actividades de inteligencia e integración conjunta de información procesada mediante la
potenciación de los sistemas C4ISR (Command, Control, Communications and Computers +
Intelligence, Surveillance and Reconnaissance). El papel de las tecnologías de la
información y las ciencias de la documentación en la preparación de la nueva defensa fue un
argumento ya analizado en el seno de organismos como la OTAN a través de sus Scientific
Commmittee Advanced Study Institutes (Debons y Horne: 1998). Pero por otra parte, la cada
vez más profunda reflexión sobre las fuentes de información abiertas (OSINT) como recurso
en la elaboración de inteligencia básica otorga un protagonismo evidente a los profesionales
de la información y la documentación que refuerza la creación de un perfil especializado de
estos profesionales en el seno de los servicios de inteligencia (Steele: 2000). Este marco
explicativo de las claves del conflicto futuro desde el punto de vista de la información
tampoco minusvalora aspectos esenciales como la superioridad de la información, la
interoperabilidad o la visualización de la misma en entornos adaptados a las necesidades de

49
los diferentes clientes/usuarios que garantizan la defensa de un país, elementos que en
conjunto constituyen la piedra angular en la dirección de la guerra futura (McCarthy: 1997),
denominada ya de cuarta generación (Wilcox: 2003).

Robert David Steele, miembro fundador de Open Sources Solutions (www.oss.net) y


reputado especialista en la utilización de fuentes de información abiertas para la generación
de inteligencia (Open Sources Intelligence, OSINT), aporta en su último trabajo The new
craft of Intelligence (2002) varios argumentos para la reflexión que permiten dibujar la
realidad del cambio producido en el contexto internacional y cómo afecta a los servicios de
inteligencia de un país. A su juicio, es fundamental comprender que el trabajo de la
Inteligencia nacional no es robar secretos, sino responder preguntas y para conseguir sus
objetivos, se debe apostar por una integración de habilidades, potencialidades y juicio
experto proporcionado por el conocimiento no sólo de los especialistas en fuentes abiertas,
sino también de expertos externos. Para Steele el trabajo de inteligencia se compone
básicamente de hombres y mujeres, más que tecnología, a pesar de que, como veremos en
estas líneas, las cuantiosas inversiones en tecnologías de la información para la defensa
encumbren a las partidas destinadas a estos conceptos a los primeros puestos en el ranking
de inversión y gasto en I+D militar. El objetivo ideal de conseguir una “smart nation”, pasa
por el beneficio de la integración de recursos de información debidamente procesada y
también por la denominada “intelligence sharing”, o hacer que con ayuda tecnológica, la
información disponible lo sea sin restricción para los agentes implicados en la seguridad
nacional en una dinámica de recursos compartidos. En suma, definir procesos de
coordinación que permitan compartir inteligencia y garanticen una eficacia de resultados.

Por nuestra parte, más allá de polémicas surgidas en torno a la eficacia o no de la


inteligencia occidental para prever acontecimientos como los atentados de Nueva York y
Washington o el controvertido papel jugado por los servicios de inteligencia occidentales en
la planificación de la guerra de Irak de 2003 o la discrepancia surgida entre los informes
aportados por el Departamento de Estado norteamericano y la CIA y la DIA (Fresneda: 2003,
29) o la inclusión de noticias falseadas en torno a la compra de uranio por parte de Irak en
Níger, el propósito de estas líneas es otro: aportar una reflexión en torno a la actividad
desarrollada por los organismos de inteligencia y más concretamente sobre las fuentes de
información abiertas como recursos utilizados en la elaboración de productos de inteligencia.
Estas fuentes y recursos documentales abiertos generados y transmitidos en cualquier
soporte, impreso o electrónico, en cualquier idioma y relativo a cualquier aspecto que suscite

50
un legítimo interés en el seno de un servicio de inteligencia para cumplir con sus objetivos
constituyen en su conjunto una parte notable del trabajo de un centro y pone de relieve la
vinculación entre gestión de la información y la documentación y la elaboración de
inteligencia estratégica. Sin embargo, su consideración, valoración y utilidad, prácticamente
defendidas de manera unánime en todo el mundo, también encuentra determinadas
reticencias nacidas de su excesiva abundancia y su necesario filtrado para garantizar la
credibilidad de los contenidos (especialmente en el entorno web).

2. Información abierta: creación de inteligencia a través de medios y recursos


universalmente accesibles

Sherman Kent, en su tratado clásico sobre la inteligencia estratégica afirmaba que


parte del conocimiento indispensable para la seguridad y el bienestar de una nación podía
ser adquirido por medios clandestinos. Sin embargo, un gran porcentaje de ese
conocimiento depurado tras un proceso de planificación, toma de datos, procesamiento,
análisis y producción, comunicación y evaluación, identificado con el tradicional ciclo de
inteligencia procedía de la observación e investigación con fuentes abiertas y directas,
legales y disponibles para cualquier ciudadano (Kent: 1966, 1978).

«Aunque cueste creerlo, 90 por ciento de la información que nutre a los servicios proviene de
fuentes abiertas: documentos de gobierno, balances de empresa, organizaciones políticas,
estudios académicos, compendios estadísticos y, por supuesto, la prensa. Cada día se
acumulan cientos de toneladas, por cuantificar de alguna forma, de antecedentes e informes.
¿Cuáles son los relevantes y cuáles no? He aquí el dilema. Todo depende de lo que se busca
y de la evaluación de las fuentes».
(Raúl Sohr: 2003, 218)

Desde el punto de vista teórico se han ofrecido diversas reflexiones en torno a la


utilidad y pertinencia de la inteligencia obtenida a partir de recursos abiertos como elemento
integrante en el ciclo que conduce a su generación. A juicio de Abram Shulsky (1991, p. 35),
a la sazón director de la secreta (y tremendamente controvertida por su papel en la
justificación de la segunda guerra de Irak) Oficina de Planes Especiales del Departamento
de Defensa, existe una visión tradicional que, a pesar de otorgar un importante protagonismo
a estas fuentes de información para obtener un contexto adecuado, mantiene en un plano de
inferior pertinencia e inmediatez a las fuentes abiertas frente a la calidad de la información
51
aportada por agentes sobre el terreno o informaciones captadas en procesos de vigilancia y
reconocimiento (HUMINT, SIGINT, ELINT). La elaboración de informes generales sobre
países, sectores económicos o focos de conflicto que son objeto de una especial vigilancia y
seguimiento, ha sido una tarea tradicionalmente encomendada a departamentos
encuadrados en servicios de inteligencia que operaron esencialmente con fuentes de
información abiertas. Por su parte, Herman insiste en la diferencia entre informaciones
obtenidas por medios clandestinos, reservados y comunicados de igual forma, y aquel otro
conocimiento que se genera tras controlar, analizar y describir fuentes de información
accesibles: desde Internet hasta la literatura gris (Herman: 1996, p. 119). El ideal del trabajo
de inteligencia en su fase de obtención y aprovechamiento de información para su posterior
proceso dentro del ciclo de inteligencia consiste en disponer de una “fuente directa del
conocimiento de los hechos” (Cabezudo Artero: 1993, 5), posición privilegiada que
tradicionalmente ha sido asignada a la inteligencia humana (HUMINT). Al constituir un
elemento fundamental en el proceso de toma de decisiones, la función de inteligencia
consiste en alcanzar el conocimiento real, certero y en tiempo adecuado para organizar una
actuación frente a un hecho que mantiene un interés informativo según la directiva de
inteligencia y los requerimientos y las áreas de interés informativo (globales, estratégicos o
tácticos) de un servicio de inteligencia. Este ideal no siempre se alcanza por la dificultad de
disponer de esas fuentes directas, muchas veces las únicas que permiten identificar una
amenaza real. En todo caso, los niveles de inteligencia básica y actual se basan en gran
medida en la generación de conocimiento mediante un proceso que presupone una
obtención, integración y análisis de fuentes de información de muy variada procedencia y
naturaleza siguiendo el formato del ciclo de inteligencia: «Los servicios de inteligencia para
obtener información necesaria que satisfagan las necesidades de los componentes de la
Inteligencia Estratégica, recurren en un 85% a un 90% a las fuentes abiertas (medios de
comunicación social, libros y publicaciones, informes oficiales, diplomáticos, agregados
militares, comisiones, mapas y guías turísticas, catálogos, turistas, etc.) y para el resto han
de acudir a las fuentes cerradas (agentes, reconocimiento aéreo electrónico y de imágenes,
sensores de superficie, etc)» (Sánchez Méndez: 1982, 1210).

En esta categoría de fuentes abiertas se incluyen todos aquellos recursos de


información impresos o electrónicos como obras de referencia, publicaciones seriadas
especializadas, colecciones y archivos digitales de prensa, bases de datos, bancos de
imágenes, estadísticas, literatura gris (patentes, informes, documentos de trabajo, etc.) y
cualquier otro recurso que públicamente accesible constituye una parte sustancial del trabajo

52
de inteligencia. La importancia creciente de estos recursos es reconocida por expertos
analistas como Robert David Steele (www.oss.net), quien proporciona análisis y estudios de
información para la defensa a partir de fuentes abiertas: «Open sources go well beyond the
Internet […] to include “gray literature” […] specialized market research, private investigations
and other information broker services; and geo-spatial information services including
commercial imagery and Russian military maps for all countries of the world (the U.S. does
not have military maps for 90% of the world. Open sources include experts on any subject in
any language» (Steele: 2002). Indudablemente, esta reflexión sobre fuentes y recursos de
información abiertos subraya la oportunidad para los gestores del conocimiento y para los
documentalistas especializados como miembros necesarios en la reducción a información
controlada y apta para su procesamiento de las ingentes masas informativas que cada día
invaden los depósitos de un servicio de información.

Sin embargo, sorprenden los datos aportados por Steele, quien subraya algunas
carencias demostradas por la inteligencia norteamericana en el tratamiento y
aprovechamiento del caudal aportado por las fuentes abiertas como instrumento útil en el
ciclo de inteligencia. A las quejas por falta de financiación de programas que revitalicen la
adquisición e inversión en procesamiento de la información obtenida de fuentes abiertas,
siguen interesantes iniciativas concretas que demuestran las importantes lagunas en el
control y análisis de fuentes comunicadas en lenguas minoritarias. De hecho, una de las
carencias más señaladas tras el balance y el análisis de las causas del 11 de septiembre fue
la incapacidad de los servicios secretos occidentales por desplegar en los países del entorno
Afgano (Afganistán, Pakistán, Irán) un número significativo de agentes experimentados en
lenguas como el pashtún, el farsi o incluso el árabe tradicional. Aldrich (2002) ya ha
resaltado el papel que el conocimiento idiomático o las herramientas tecnológicas para su
traducción inmediata juegan en el conflicto asimétrico contemporáneo. En parecidos
términos se expresó Betts (2002, 167) al considerar la limitación lingüística a la que se veían
afectados como una carencia notable de los servicios de inteligencia contemporáneos. Su
reflexión entraña una incertidumbre inquietante: «No sólo necesitamos gente que haya
estudiado árabe, pastún, urdu o farsi, sino personas que hablen fluidamente estos lenguajes
y también sus extraños dialectos».

Las propuestas ofrecidas por Steele, lejos de ser inalcanzables, apuestan por reforzar
positivamente el control de los recursos informativos abiertos con medios económicos y con
inversiones apropiadas. La formación específica en Gestión del Conocimiento, Sistemas de

53
Gestión de Bases de datos y en fuentes de información especializadas lleva camino de
convertirse en técnicas y habilidades requeridas para la gestión de la OSINT en la
actualidad. Por ello, Winn L. Taplin asegura que a pesar del importantísimo e insustituible
papel jugado por el analista de inteligencia, los resultados únicamente basados en fuentes
abiertas dejarían cualquier operación con vulnerabilidades muy graves. Se concibe pues la
inteligencia generada a partir de fuentes abiertas de información como necesaria y llamada a
jugar un papel fundamental, sobre todo a la hora de proporcionar un marco de conocimiento
sobre el contexto global de una situación concreta. Ahora bien, siempre complementaria a la
información altamente determinante en términos de relevancia y oportunidad transmitida por
un agente sobre el terreno.

Robert David Steele, indica que «OSINT, like all other intelligence sources, is more
than information. It represents a careful sifting, selecting, analyzing and presenting of open
source material on a timely basis. OSINT should be a valuable contributor to “all source”
intelligence […]». A su vez, distingue claramente entre Open Source Information y Open
Source Intelligence (Steele: 2001, 106-109). Algo que en definitiva pone el acento en el
proceso conducente a la explotación de las fuentes abiertas para crear inteligencia, más que
en el origen (información vs. conocimiento). Por ello, a su juicio este proceso se basa en
cuatro elementos clave:

1. Identificación: “Conocer quién conoce y saber dónde buscar”.

Las habilidades técnicas y el nivel alcanzado por un experto en fuentes de


información y documentación a la hora de definir requerimientos de información, desarrollar
estrategias de búsqueda a partir del profundo conocimiento de las fuentes y recursos de
información generales y plasmar los resultados en productos de información estructurados
son elementos que definen un perfil profesional indicado para la generación y mantenimiento
de inteligencia básica. El conocimiento de las principales fuentes primarias y secundarias del
trabajo bibliográfico resulta esencial a la hora de proporcionar información pertinente sobre
ámbitos temáticos relativos a un país, a su situación política, económica, geográfica, militar,
etc. Para ello, es imprescindible alcanzar un conocimiento y tratamiento eficaz de las fuentes
de información biográfica, geográficas, jurídicas, estadísticas, militares, literatura gris, etc.
(Martín Vega: 1995).

54
2. Discriminación y destilación.

La tarea de un especialista en fuentes de información abiertas resulta incompleta con


la mera acumulación de resultados obtenidos tras ejecutar estrategias de búsqueda. Se trata
de aportar un valor añadido al proceso de búsqueda por medio de la selección, valoración e
integración de datos que hace del producto de información un recurso no solamente eficaz
en términos cuantitativos (exhaustividad documental) sino también cualitativos (pertinencia
documental). El resultado final debe comunicar la esencia del conocimiento que transmite la
búsqueda, integración, valoración y síntesis de las fuentes de información abiertas. En
definitiva, un producto de valor añadido nacido de la integración de fuentes, formatos y
procedencias.

3. Entrega

La mejor inteligencia del mundo no es útil si no se comunica al órgano apropiado. A


pesar de la obviedad de esta afirmación, ésta se encuentra ya planteada en algunos de los
principios históricos de la inteligencia estratégica. El quinto principio definido por Winn L.
Taplin (1989) indica que «la inteligencia es una actividad inútil (y costosa) si no tiene una
aplicación que justifique su valor e inversión». Toda la actividad englobada en un servicio de
inteligencia que no se aprovecha para los fines que delimitan la razón de ser del servicio es
un esfuerzo gastado inútil. Desde una perspectiva económica, Inteligencia es optimización
de recursos. Es decir, los productos de inteligencia deben servir para superar una situación
concreta o satisfacer una demanda específica. Esta idea es paralela al concepto de
relevancia propugnado por la infonomía (Escorsa y Maspons: 2001, 57).

La inteligencia que se conserva “en el vacío”, sin utilidad práctica, sin que se deriven
consecuencias exitosas de su conversión en acciones, convierte el proceso por el que se
destinan recursos humanos y materiales en un esfuerzo estéril y peligroso: «Creation,
codification, and storage of new knowledge without its exploitation (i.e. application) leads to
its underutilization as a driver of performance» (Alavi y Tiwana: 2002, 1030). Taplin incide en
el concepto de utilidad de la información. La utilidad en términos informativos (pertinencia) se
encuentra ya incluso desde el mismo momento de la selección de fuentes que un recolector
de información efectúa antes de ofrecer su resultado al analista. También el analista realiza
su decisión al plasmar en un producto su conocimiento y el resultado del proceso intelectual
que analiza las fuentes con las que se opera. En definitiva, la información obtenida y

55
susceptible de convertirse en inteligencia ha de ser encauzada para que produzca efectos,
para que de todas las fases del proceso se derive una acción conducente a la obtención de
una ventaja o un activo (output) que justifique la inversión realizada (input). Dicho de otro
modo: la inteligencia que no se usa, se pudre y amenaza al propio sistema.

Por estas razones, se comprende que la obtención y procesamiento de fuentes y


recursos de información abierta es una característica aplicable a un determinado tipo de
inteligencia: esencialmente la básica y actual. Según el momento de utilización, la
inteligencia se divide en tres variedades:

A) INTELIGENCIA BÁSICA
• De carácter general, permanente en el tiempo y utilizada como banco de datos:
ficheros biográficos, características generales de un país, persona u organización,
etc.
B) INTELIGENCIA ACTUAL
• Mantiene actualizada la inteligencia básica; abarca información de actualidad sobre
un asunto, país o situación concreta.
C) INTELIGENCIA ESTIMATIVA
• Muy específica; orientada a orientar las posibilidades de actuación de un agente hostil
en una situación concreta; recoge un conjunto de posibilidades y las pone al
responsable de la decisión en disposición de tomar la que considera más apropiada.

A su vez, según la temática, se puede establecer la siguiente clasificación con algunos


recursos de información vinculados, de los que ofrecemos tan sólo una sucinta selección
general, remitiendo para un análisis exhaustivo a los trabajos sobre fuentes y recursos de
información especializada según la temática (Martín Vega: 1995):

• Inteligencia geográfica: Atlas especializados, recursos electrónicos de información


geográfica, cartografía militar, etc.
• Inteligencia de Imágenes (Comercial Imagery):
www.orincon.com, www.digitalglobe.com, www.autometric.com/index.cfm,
www.cartographic.com
• Inteligencia política: Revistas de relaciones internacionales, Derecho Internacional,
etc.

56
• Inteligencia sociológica: Reportajes periodísticos (bases de datos de prensa, radio y
televisión), Bases de datos de sociología, etnología y costumbres, etc.
• Inteligencia económica: Informes de balanza económica, Informes de comercio
exterior, Directorios de empresas, Boletines de cotización bursátil, etc.
• Inteligencia científica y técnica: Publicaciones del ISI, patentes, Literatura científica
www.european-patent-office.org
www.oepm.es
www.uspto.gov
www.delphion.com
• Inteligencia biográfica: Who´s who?, Bases de datos biográficas, etc.
• Inteligencia de transportes y telecomunicaciones: Anuarios, Informes, Estadísticas,
etc.
• Inteligencia de Fuerzas Armadas: Revistas especializadas en inteligencia, Anuarios
militares internacionales, grupo JANE´S, etc. USNI Military Database:
http://www.periscope1.com/usni.html

Las fuentes abiertas de información van a proporcionar el contexto necesario tanto


diacrónico como sincrónico de una variedad de aspectos sociales, económicos, religiosos,
militares, políticos, biográficos, geográficos relativos a un país, a una potencia o a una
posible amenaza. El documentalista será capaz de vincular a cada ámbito y a cada área de
interés para el sistema global un conjunto de fuentes y recursos disponibles. Existen puntos
de acceso generales en los que se indican los principales recursos de información abierta en
la generación de Inteligencia (http://www.2-sir.com/Victor/). En términos generales, a los
propios recursos de información (www.cia.gov/cia/publications/factbook/) y documentos
especiales aportados por los servicios de inteligencia (informes, documentos
desclasificados, análisis estratégicos, etc.:www.csis-scrs.gc.ca, www.official-
documents.co.uk, www.dea.gov/pubs/intel.htm,) por los organismos, grupos y centros de
investigación o reflexión sobre relaciones internacionales y conflictos (www.iiss.org,
www.realinstitutoelcano.org/default.asp, www.ugr.es/˜ceas, www.csis.org, www.ciss.ca) se
uniría la información sectorial proporcionada por grupos especializados como el británico
JANE´S (www.janes.com). Repertorios, anuarios, memorias, diccionarios especializados,
bio-bibliografías, informes, publicaciones periódicas, bases de datos on-line y en cd-rom,
etc., son los materiales que un documentalista selecciona, valora, utiliza y gestiona
diariamente. Por otra parte, recursos de información como los Citation Index, Citation
Reports, etc. elaborados por el ISI de Filadelfia (www.isinet.com) son instrumentos

57
ampliamente utilizados en los estudios métricos de información, especialmente en el campo
de la inteligencia económica (Escorsa y Maspons: 2001, 31, 88).

Informes desclasificados de los servicios de inteligencia australianos: www.csis-scrs.gc.ca

El ISI y sus productos de índices de citas son instrumentos fundamentales e


imprescindibles en las fases de vigilancia científica por áreas, personas o países. El
desarrollo de estudios bibliométricos está en la base de la identificación de áreas de
investigación, las relaciones científicas mantenidas entre países, el surgimiento de “colegios
invisibles”, etc. El resultado sintético pueden ser los mapas de conocimiento que relacionan
en un entorno gráfico axial las diferentes variables definidas por relaciones de proximidad o
lejanía. Indudablemente, los beneficios de la bibliometría aplicada a la inteligencia
competitiva ya han sido puestos de manifiesto (Giménez Toledo y Román Román: 2001, 12).
En el ámbito de la seguridad y la defensa, no cabe duda de que pueden ser un instrumento
complementario para la elaboración de inteligencia estimativa.

En suma, es fundamental tener acceso a los productos de información que las principales
empresas especializadas en su comercialización y distribución elaboran periódicamente.
Gale (www.gale.com/world), Chadwyck-Healey (www.chadwyck.com/pa-product.shtml),
Silver Platter (www.ovid.com), Bowker-Saur (www.bowker.com), etc., son sólo algunos de
los grandes productores de recursos de información. Pero también el ámbito cada vez más
pujante de la Inteligencia de imágenes a partir de empresas que explotan y comercializan

58
imágenes obtenidas de satélites (Comercial Imagery). En este sentido, conviene subrayar la
opinión experta de Peregrín Pascual (2003, 62), para quien: «la diferencia entre los satélites
de observación militar y los comerciales se está disolviendo. La calidad y la resolución de
estos últimos son tales que los productos comerciales representan un serio peligro para la
protección de ciertos secretos nacionales, pues proporcionan fotos de gran detalle que
pueden ser compradas por cualquiera, aunque no precisamente baratas».

Para cumplir con eficacia y eficiencia el objetivo planteado por la inteligencia a partir de
fuentes abiertas, el sistema de información y de documentación implica desarrollar en el
seno de los servicios de inteligencia actividades y pasos que no varían sustancialmente del
trabajo desarrollado en centros de información y documentación. La biblioteca especializada
de un servicio de inteligencia puede ser el centro que canalice toda la producción OSINT. De
ahí que la definición de una política de adquisición, utilización, control, y organización de las
fuentes de información bibliográfica o la suscripción a publicaciones periódicas, bases de
datos, informes de prensa, etc., sean operaciones esenciales para el servicio de biblioteca
de un centro de inteligencia. A grandes rasgos y siguiendo la teoría biblioteconómica, la
explotación eficaz de un sistema de información y biblioteca comprende la definición de
varios pasos que van desde la formación, desarrollo y mantenimiento de la colección
(selección, adquisición, etc.), tratamiento administrativo (registros, sellados) y tratamiento
técnico (catalogación, clasificación, conservación) hasta la planificación de los servicios a los
usuarios, la automatización integral o parcial y la evaluación de la calidad de los servicios de
la biblioteca (Carrión Gútiez: 1993), (Orera Orera: 1998), (Magan Walls: 2002).

Se entiende así que los fondos de la biblioteca de la CIA, únicamente accesibles al


personal de la agencia, asciendan a 125.000 volúmenes y se mantenga una suscripción a
1700 títulos de publicaciones seriadas. La biblioteca se divide en tres colecciones: referencia
(bases de datos, enciclopedias, diccionarios, estadísticas, directorios, etc.), corriente e
inteligencia histórica. La selección de los nuevos títulos se basa en los objetivos y
prioridades de la inteligencia en cada momento. En cualquier caso, muchos de los recursos
son electrónicos y pueden ser consultados por los usuarios desde sus propios ordenadores,
algo que presupone una planificación y organización biblioteconómica eficaz
(http://www.cia.gov/cia/publications/facttell/index.html)

«El analista lee los mismos libros que un licenciado o un profesor de Universidad. Se mantiene
al corriente en su especialidad leyendo periódicos y revistas. Al estar en Washington, D.C.

59
tienen una especial ventaja. Pueden ir y sacar libros de la mejor biblioteca del mundo, la
Biblioteca del Congreso […] Los analistas del DI –Directorio de Inteligencia, CIA- no sólo
tienen acceso a bibliotecas, revistas y periódicos, sino también a una información que está
fuera del alcance de las universidades. Por ejemplo, a informes de embajadas, informes de
oficinas de la CIA en el extranjero y de otros organismos que también disponen de cierta
información “indispensable” que es inaccesible para una universidad. Los analistas del DI
tienen acceso a la Verdad y no sólo a parte de ella. No te puedes considerar experto en un
tema hasta que no posees toda la información disponible». (Robert Baer: 2002, 33-34).

«También es cierto que la base fundamental de ese conocimiento que es la Inteligencia


proviene de fuentes abiertas y su obtención sólo requiere contar con personal, medios y
estructura adecuados, junto con propósitos certeros y oportunos, plasmados en los
correspondientes planes» (Sánchez Méndez: 1982, 1193).

«Por otra parte, en Madrid se estructuraron unos departamentos de documentación y análisis


realmente efectivos. Eran los encargados de valorar la información que enviaban los
delegados y los servicios extranjeros, y de sacar las conclusiones pertinentes. En algunos
casos, ni siquiera contaban con esa información, como ocurría por ejemplo con varios países
africanos. La suscripción a buenas revistas y periódicos, especialmente seleccionados y
escogidos, aportaba un material precioso que, pasado por los analistas y expertos en
Inteligencia, suministraba datos que a veces escapaban a los profesionales de los servicios.
Ya advirtió un director de la CIA que la agencia se nutría sobre todo “de una atenta y despierta
lectura de los periódicos”»
(Bardavío, Cernuda y Jáuregui: 2001, 269)

3. Final

Las variadas formas de obtener y procesar la información con la que operar para generar
inteligencia obligan a integrar un gran número de datos atendiendo a la temática
(geográficos, económicos, militares, científicos, etc.) o a la clase de información (textual,
gráfica, oral, etc.). La procedencia de la información no está limitada a un único canal, ni a
un único medio de transmisión, formato, idioma o soporte. La variedad de fuentes y orígenes
de la información abre las puertas a la sobreinformación que debe ser controlada por el ciclo
de inteligencia. Sin embargo, esta multitud de posibilidades hace que el usuario rompa con
el monopolio informativo y decida evaluar e integrar datos de diferente procedencia tratando
60
de hacer buena la máxima seguida en el mundo de la inteligencia: no aceptar una única
autoridad informativa (Berkowitz y Goodman: 2000, 22). De forma paralela, surge así el
concepto de Multi-Int como respuesta a la integración informativa, entendida ésta como uno
de los retos que deben acometer inevitablemente los departamentos de análisis de
inteligencia (Pappas y Simon: 2002). Se trata de conseguir la sinergia de inteligencia en la
que la combinación y cruzamiento de conocimiento procedente de los diferentes tipos de
fuentes (textuales, gráficas, etc.) y recursos constituye un todo de mayor relevancia y
alcance que cada una de las informaciones por separado (Isaacson y O´Connell: 2002). No
es casual que el Quadrennial Defense Review Report (30 de septiembre de 2001), publicado
por el Departamento de Defensa de los Estados Unidos estime muy conveniente la puesta
en marcha de un enfoque TPED (Tasking, Processing, Exploitation and Dissemination) en el
que el concepto de integración de multi-int (IMINT, SIGINT, HUMINT, etc.) dé respuesta a la
variada naturaleza de recursos informativos: «Migrating to a more integrated architecture that
takes advantage of multiple intelligence disciplines and robust networking will improve the
timeliness and quality of intelligence information needed by defense related consumers of
intelligence (Quadrennial: 2001). A la integración y explotación eficaz de la información
generada en diferentes soportes, y compuesta por datos de diversa naturaleza en
plataformas de recuperación multimedia, etc., contribuirán también los adelantos en materia
de Data Mining y Data Warehousing (Klösgen y Zytkow: 2002) como técnicas avanzadas en
el descubrimiento de patrones e inferencias obtenidas del análisis masivo de grandes
cantidades de información, especialmente en el entorno web, tal y como ha señalado el
reciente número monográfico sobre Web mining: Special Topic Section: Web retrieval and
mining del Journal of American Society for Information Science and Technology, vol. 54: nº 7
(2003). Finalmente, la puesta a disposición de los destinatarios de la inteligencia estratégica
busca en la organización, presentación y fácil comprensión de los resultados una forma de
comunicación sencilla y más intuitiva a través de los importantes avances en el campo de la
visualización, la presentación de información y la interacción hombre-máquina (HCI)
mediante herramientas que hacen posible la perseguida conectividad, integración e
interoperabilidad de la información (Kahn y Lenk: 2001). En suma, la puerta de la
colaboración entre arquitectos de la información, documentalistas, infotecnólogos, gestores
del conocimiento, expertos en sistemas de gestión de bases de datos, analistas de
información y especialistas en recursos de información en el ámbito de la seguridad y la
defensa no ha hecho más que entreabrirse hacia un futuro realmente sugerente.

Bibliografía

61
Alavi, Maryam y Amrit Tiwana, (2002), «Knowledge Integration in Virtual Teams: The Potential Role of KMS»,
Journal of the American Society for Information Science and Technology, vol. 53: nº 12, pp. 1029-1037.

Aldrich, Ray Lane, (2002), «The Growing Importance of Languages in the Fight Against Terror», Military
Intelligence Professional Bulletin (July-September), pp. 44-45.

Baer, Robert, (2002), Soldado de la CIA, Barcelona, Crítica.

Bardavío, Joaquín; Pilar Cernuda y Fernando Jáuregui, (2001), Servicios Secretos, Barcelona, Plaza y Janés.

Berkowitz, Bruce D. y Allan E. Goodman, (2000), Best Truth: Intelligence in the Information Age, Yale University
Press.

Betts, Richard K., (2002), «Un test de inteligencia: los límites de la prevención», en James F. Hoge, Jr., y
Gideon Rose (comps.), ¿Por qué sucedió?: el terrorismo y la nueva guerra, Barcelona, Paidós, pp. 163-180.

Cabezudo Artero, Pedro Manuel, (1993), Estudio de los diversos niveles de inteligencia en España y órganos
que los sirvan, Madrid, 29 de enero. Trabajo presentado a la Escuela de Estados Mayores Conjuntos.
Biblioteca del CESEDEN, 743/133.

Carrión Gútiez, Manuel, (1993), Manual de bibliotecas, 2ª ed., Madrid, Fundación Germán Sánchez Ruipérez;
Pirámide.

Debons, Anthony y Esther E. Horne, (1998), «NATO Advanced Study Institutes of Information Science and
Foundations of Information Science», en Trudi Bellardo Hahn y Michael Buckland, Historical Studies in
Information Science, Medford, American Society for Information Science, pp. 205-214.

Escorsa, Pere y Ramón Maspons, (2001), De la vigilancia tecnológica a la inteligencia competitiva, Madrid,
Prentice Hall.

Esteban, Miguel Ángel y Diego Navarro, (julio-agosto 2003), «Gestión del conocimiento y servicios de
inteligencia: la dimensión estratégica de la información», El profesional de la información, vol. 12: nº 4, pp. 269-
281.

FitzGerald, Mary C., (1992), «The impact of New Technologies on Soviet Military Thought», en Roy Allison
(ed.), Radical Reform in Soviet Defence Policy, N. York, St. Martin, pp. 98-131.

Fresneda, Carlos, (2003), «El Departamento de Estado discrepa de la CIA sobre los supuestos laboratorios de
Sadam», El Mundo, 27/06, p. 89.

Galvache Valero, Francisco, (2004), «La inteligencia compartida», Cuadernos de Estrategia. En prensa.

62
Gray, Colin S., (spring 2002), «Thinking Asymmetrically in Times of Terror», Parameters: US Army War College
Quarterly:
http://carlisle-www.army.mil/usawc/Parameters/02spring/gray.htm.
Consultado: 19/11/2002.

Herman, Michael, (2001), Intelligence power in peace and war, Cambridge University Press, pp. 284-286.

―, (2001 b), Intelligence services in the information age: theory and practice, Ilford Essex, Frank Cass.

Isaacson, Jeffrey A., y Kevin M. O´Connell, (2002), «Beyond Sharing Intelligence, We must generate
Knowledge»
www.rand.org/publications/randreview/issues/rr.08.02/intelligence.html. Consultado: 7/09/2002.

Jones, Andy; Gerald L. Kovacich y Perry G. Luzwick, (2002), Global Information Warfare: How businesses,
Governments, and Others achieve Objectives and Attain Competitive Advantages, Boca Raton (Florida),
Auerbach.

Jordán, Javier, (2002), «El terrorismo en la sociedad de la información: el caso de Al Qaida», El profesional de
la información, vol. 11: nº 4, pp. 297-305.

Kahn, Paul y Krzysztof Lenk, (2001), Mapping web sites, Crans-Près-Céligny (Suiza), Rotovision.

Kent, Sherman, (1966), Strategic Intelligence for American World Policy, Princeton University Press. Existe
edición en castellano, Pleamar, 1978.

Klösgen, Willi y Jan M. Zytkow, (eds.), (2002), Handbook of Data Mining and Knowledge Discovery, N. York,
Oxford University Press.

Koch, Andrew, (2002), «US Department of Defense seeks radical information network», Jane´s Defence
Weekly, vol. 38: nº 3, p. 6

Magán Wals, José Antonio, (coord.), (2002), Tratado básico de biblioteconomía, Madrid, Editorial Complutense.

Martín Vega, Arturo, (1995), Fuentes de información general, Gijón, Trea.

McCarthy, James P., (1997), «Managing Battlespace Information: The Challenge of Information Collection,
Distribution and Targeting», en Robert L. Pfaltzgraff Jr., y Richard H. Shultz Jr., (eds.), War in the Information
Age: New Challenges for U.S. Security Policy, Washington; London, Brassey´s, pp. 87-98.

Nauth, Kristin K., (June 1999), «In from The Cold», Knowledge Magazine.
Http://www.topsecretnet.com/knowmag.htm. Consultado: 7/07/2003.

Orera Orera, Luisa, (ed.), (1998), Manual de Biblioteconomía, Madrid, Síntesis.


63
Quadrennial Defense Review Report, (30 de septiembre de 2001):
http://www.defenselink.mil/pubs/qdr2001.pdf

René-Bazin, Paule, (2001), «Les sources de l´histoire du Renseignement aux Archives Nationales», en G.H.
Soutou, J. Frémaux y O. Forcade (dirs.), L´exploitation du Renseignement en Europe et aux États-Unis des
années 1930 aux années 1960, París, Commision Française d´Histoire Militaire ; Institut de Stratégie
Comparée ; Economica, pp. 17-26.

Revisión Estratégica de la Defensa, (2003), Madrid, Ministerio de Defensa. Suplemento de Revista Española de
Defensa, nº 180.

Sánchez Méndez, José, (1982), «Introducción a la inteligencia estratégica», Revista de Aeronáutica y


Astronáutica, Diciembre, pp. 1204-1221.

Schwartau, Winn, (1997), «An introduction to Information Warfare», en Robert L. Pfaltzgraff Jr., y Richard H. Shultz
Jr., (eds.), War in the Information Age: New Challenges for U.S. Security Policy, Washington; London, Brassey´s,
pp. 47-60.

Shulsky, Abram N., (1991), Silent Warfare: Understanding the World of Intelligence, Washington [etc.],
Brassey´s.

Sorroza Blanco, Alicia, (24/6/2003), «La política de seguridad y defensa en la futura Constitución
Europea».http://www.realinstitutoelcano.org/analisis/311.asp Consultado: 28/6/2003.

Steele, Robert David, (2000), On intelligence, spies and secrecy in an open world, Fairfax, Virginia, AFCEA
International Press.

―, (2002), The New Craft of Intelligence: Personal, Public and Political, OSS International Press.

―, (2002 b), «The New Craft of Intelligence: Making the most of Open Private Sector Knowledge», Time, 3.

Strickland, Lee S., (August/September 2002), «Information and the War Against Terrorism, Part V: The
Business Implications», Bulletin of the American Society for Information Science and Technology, vol. 28: nº 1,
pp. 18-21.

Taplin, Winn L., (1989), «Six General Principles of Intelligence», International Journal of Intelligence and
Counterintelligence, vol. 3: nº 4, pp. 475-491, en p. 475.

Vickers, Michael J., (1997), «The Revolution in Military Affairs and Military Capabilities», en Robert L. Pfaltzgraff Jr.,
y Richard H. Shultz Jr., (eds.), War in the Information Age: New Challenges for U.S. Security Policy, Washington;
London, Brassey´s, pp. 29-46.

64
Wilcox, Greg, (septiembre-octubre 2003), “La respuesta militar a la Guerra de la Cuarta Generación en Afganistán”,
Military Review, pp. 34-47.

65
Tecnologías para la gestión del conocimiento y la generación de inteligencia

Jesús Tramullas Saz


Departamento de Ciencias de la Documentación
Universidad de Zaragoza
jesus@tramullas.com

1. El entorno de la gestión del conocimiento

Los acontecimientos geopolíticos y estratégicos a los que hemos asistido desde


finales de la década de 1990 han puesto de manifiesto el verdadero valor de lo que se ha
dado en llamar sociedad de la información y/o del conocimiento. Valor que viene dado no por
la abundancia de información, ni por la facilidad de acceso a la misma, sino por la utilización
inteligente de la información disponible. Desde la perspectiva académica y empresarial, este
uso pretendidamente “inteligente” se ha enmarcado dentro de la denominación de “gestión
del conocimiento”, expresión que engloba gran cantidad de enfoques, métodos y técnicas,
aportadas desde diferentes campos y áreas de actividad, y cuya finalidad es desarrollar
políticas de información dentro de una organización, llevadas a cabo mediante un conjunto
de técnicas y herramientas, con el objetivo de dar apoyo a los objetivos de la organización
que se trate. Evidentemente, los tres componentes básicos de la gestión del conocimiento
son personas, tecnología, y “saber hacer/quién” (expresión que preferimos a términos como
información o conocimiento).

Como premisas básicas, podemos establecer que, en cualquier contexto, el


conocimiento, el “saber hacer o saber quién”, es generado y poseído por las personas. Parte
de este conocimiento se plasma en documentos, de diferentes tipos, a través de la
aplicación de un conjunto formalizado de principios y reglas, conformando lo que se ha dado
en llamar conocimiento explícito. De la misma forma, parte del conocimiento que poseen las
personas (tradiciones, sentimientos, sensaciones…) no puede formalizarse, dando lugar a lo
que se conoce como conocimiento implícito. La tensión entre ambos tipos de conocimiento,
y las relaciones con la generación de nuevo conocimiento, es uno de los principales objetos
de estudio de la gestión del conocimiento, desde que Nonaka y Takeuchi formularon su
propuesta de modelo de gestión del conocimiento. El segundo elemento clave son las
tecnologías de la información y comunicación, componente nuclear de la sociedad del
conocimiento. Sin embargo, no debe olvidarse que estas tecnologías son, en el estado
66
actual, facilitadoras de actividades, especialmente de las relacionadas con el tratamiento de
grandes volúmenes de información y con la comunicación de información. El conocimiento y
la inteligencia, en contraste con el título de este capítulo, no pueden generarse mediante
herramientas tecnológicas. La información se busca y se gestiona; el conocimiento se crea.
Esta diferencia se encuentra en el germen de la formulación de nuevos modelos acordes
con la situación actual: “At he heart of the new phase are two dependent but conflicting
trends:
1. Ongoing proliferation of data and information – in terms of both content and
technologies, which will not slow down but will speed up.
2. Need for knowledge – in terms of the need to distill information and to take actions
with predictable outcomes.” (Applehans, Globe y Laugero: 1999, 16).

Otro aspecto a considerar es el papel que desempeña la gestión de la información en las


organizaciones, que es una parte ineludible y necesaria, en un alto tanto por ciento, de la
gestión del conocimiento. En un número elevado de organizaciones, se ha tratado de
implementar directamente la gestión del conocimiento sin pasar por la fase de gestión de la
información. El resultado ha sido insatisfactorio, y es común encontrar iniciativas
identificadas como gestión del conocimiento, que resultan ser, en realidad, procesos
mejorados de gestión de recursos de información, o de formación y capacitación de
personal, pero lejanos todavía de la misión prioritaria de colaborar en la consecución de los
objetivos de la organización en la que se integra. Esta situación se produce porque se pierde
de vista que el conocimiento no se puede gestionar: lo que se puede gestionar son las
condiciones en las cuales se crea o se adquiere, se hace explícito, y se difunde y se
transfiere. Este planteamiento cobra especial relevancia cuando se trata de organizaciones
cuyo material de trabajo es precisamente la información, especialmente si se trata de
información económica, industrial, de investigación y desarrollo, y de inteligencia. Como
señaló T. Steward, “Knowledge assests, like money or equipment, exist and are worth
cultivating only in the context of strategy.”

2. El ciclo de inteligencia

Las actividades desarrolladas por las organizaciones y agencias encargadas de las


tareas de seguridad e inteligencia, en diferentes niveles, se encuentran íntimamente
relacionadas con la obtención, procesamiento y análisis de información, y su finalidad es

67
ofrecer los elementos necesarios para la toma de decisiones y la definición de políticas. Esta
importancia de la información ya fue destacada por los clásicos de la poliorcética, entre los
cuales el más citado ha sido Sun-Tzu, merced a un conocido párrafo de El Arte de la Guerra:
“Pues si el príncipe esclarecido y el general competente derrotan al enemigo cada vez que
pasan a la acción, si sus hazañas se salen fuera de lo común, es gracias a la información
previa... Lo que se ha llamado información previa no puede obtenerse de los espíritus, ni de
las divinidades, ni de la analogía con acontecimientos pasados, ni de los cálculos. Es
necesario obtenerlo de hombres que conozcan la situación del enemigo.” La actividad de
estos servicios de inteligencia durante la segunda mitad del siglo XX ha permitido establecer
un modelo genérico al que se ha llamado “ciclo de inteligencia”, y que debe compararse con
los modelos de gestión del conocimiento, con la finalidad de establecer las relaciones
existentes entre los mismos.

Fig.1. El ciclo de inteligencia del CNI (fuente http://www.cni.es)

El modelo propuesto por Nonaka y Takeuchi (1995), ampliamente adoptado, responde


a un proceso en espiral en el que participan los saberes epistemológico y ontológico. La
espiral muestra cuatro fases, correspondientes a Socialización (adquirir conocimiento tácito
de experiencias exteriores), Exteriorización (convertir el conocimiento del individuo en
conocimiento comunicado a la organización), Combinación (creación de nuevo conocimiento
explícito mediante la combinación de fuentes externas) e Interiorización (incorporación de
conocimiento externo hasta conseguir formular nuevo conocimiento interno del individuo). El
modelo de ciclo de inteligencia de la Central Agency of Intelligence (CIA), muestra cinco
fases en espiral, identificadas como planificación, recopilación, procesamiento, análisis y
producción, y diseminación. El Centro Nacional de Inteligencia (CNI), sigue un esquema de
68
cuatro fases, correspondientes a planificación, obtención, elaboración y difusión. EL CNI
unifica en su fase tres las fases tres y cuatro de la CIA. Sin embargo, la importancia
creciente del procesamiento previo de la información disponible, y sobre la que se ha
insistido en párrafos anteriores, refuerza la necesidad de una etapa enteramente dedicada al
procesamiento, especialmente a la detección, filtrado y refinamiento de la información
disponible.

Fig.2. Ciclo de inteligencia de la CIA (fuente http://www.cia.gov)

A pesar de esa cercanía entre modelos, en todos ellos cabe destacar que su enfoque
es eminentemente práctico, centrado en objetivos y tareas a corto y medio plazo. Es
necesario complementar estos modelos con un enfoque estratégico. La propuesta de
Bukowitz y Williams (2000) incorpora dos perspectivas en los procesos de gestión del
conocimiento. Por un lado, una perspectiva táctica, con fases de obtención, utilización,
aprendizaje y contribución, en un ciclo continuo de desarrollo. Sin embargo, para estas
autoras es necesario completar esta perspectiva táctica con una perspectiva estratégica, en
la cual el objetivo es alinear la estrategia de conocimiento de la organización con la propia
estrategia y objetivos de la organización, dentro de la cual tienen lugar las fases de
valoración, construcción/mantenimiento y desposesión. En este sentido, los modelos de ciclo
de inteligencia indicados deberían incidir más en los aspectos propiamente estratégicos de
la planificación de actividades de las agencias de seguridad.

69
3. La tecnología en la gestión del conocimiento

“It can be said that the goal of a knowledge management tool is not to manage knowledge by itself but to
facilitate the implementation of the knowledge process.” (Tyndale: 2002, 184).

Las herramientas tecnológicas son uno de los principales instrumentos para la gestión
del conocimiento. Resulta evidente que sin el desarrollo de la informática y las
telecomunicaciones desde la década de 1980, no sería posible abordar estos procesos de
forma óptima. En todo caso, estas herramientas sólo pueden ser comprendidas y utilizadas
en el marco del contexto que imponen la planificación y los métodos y técnicas de la gestión
del conocimiento. Sin embargo, hay que decir que no existen, por el momento, herramientas
tecnológicas específicas para la gestión del conocimiento. La mayoría de los productos que
se venden bajo tal denominación son desarrollos de herramientas preexistentes, sobre las
cuales se han añadido o potenciado funciones y capacidades de utilidad para los procesos
de gestión del conocimiento.

“Knowledge management tools are technologies, broadly defined, which enhance and
enable knowledge generation, codification, and transfer.... can be defined as tools, which
support the performance of applications, activities or actions such as knowledge generation,
knowledge codification or knowledge transfer" (Rugles: 1997). Esta definición, la más citada
y utilizada, es amplia y pragmática, en cuanto da cabida a casi cualquier tipo de herramienta,
atendiendo exclusivamente a su uso real. En contraste con ello, en el momento actual la
mayoría de las herramientas de gestión del conocimiento adoptan como fórmula la de un
servidor web interno que actúa como portal de conocimiento para la organización. Los
usuarios del mismo disponen de una interfaz integrada, generalmente a través de un cliente
o navegador web, mediante el cual interactúan con los contenidos del portal. El portal, a su
vez, es el encargado de distribuir las peticiones de los usuarios a otros subsistemas, que son
los que interrogan, consultan, envían y distribuyen las peticiones a su destino adecuado.
Cuando han resuelto la cuestión planteada, el portal transforma y devuelve los resultados al
usuario. Los sistemas de gestión de conocimiento adoptan la metáfora del documento para
ofrecer y entregar la información a sus usuarios. Esta es la razón por la cual muchos
productos software de gestión documental han ido especializándose y transformándose en
los cuatro o cinco últimos años en soluciones dedicadas a la gestión del conocimiento.
Aunque en la actualidad las prestaciones de estos sistemas tienden a integrar diferentes
servicios y aplicaciones, en realidad por debajo de la interfaz desempeñan su función otros
componentes, ajustados en una arquitectura más o menos común.
70
3.1. El modelo de seis capas

La implantación de las tecnologías necesarias para el desarrollo de procesos de gestión


de conocimiento debe llevarse a cabo desde un enfoque eminentemente estratégico. Este
tipo de proyectos no puede, ni debe, llevarse a cabo mediante la mera acumulación de
herramientas informáticas. La bibliografía especializada recoge como la propuesta más
común el modelo de seis capas (Applehans, Globe y Laugero: 1999). Este modelo ofrece un
marco general de arquitectura técnica de informática y de comunicaciones, en el cual
implementar de manera integrada los diferentes componentes. Las seis capas corresponden
a:

1. Acceso: capa encargada de establecer y ejecutar los controles de seguridad


necesarios para validar el acceso de los usuarios a la información de la organización.
2. Interfaz: la interfaz es la encargada de ofrecer la visión de la organización que tiene
que tener el usuario para desempeñar su actividad. La interfaz se adecuará a los
perfiles del usuario, y a su nivel de acceso, establecido mediante la capa anterior.
Debe ofrecer acceso integrado a las fuentes de información necesarias para la
organización
3. Inteligencia: es la capa encargada de personalizar la información y el contenido,
según las necesidades del usuario. En esta capa se desarrollan los procesos de
registro, suscripción y búsqueda. La combinación de estas actividades es la que
permite crear perfiles de necesidades de información, y ejecutarlos automáticamente
si es necesario
4. Aplicaciones: es la capa en la que se organizan e interaccionan las aplicaciones
informáticas básicas, que añaden valor a la información y a su procesamiento. En
esta capa es donde se encuentran las aplicaciones más comunes de gestión del
conocimiento, como los sistemas de gestión documental y de contenidos, las
herramientas de colaboración, o las de gestión de datos.
5. Transporte: encargada de asegurar la comunicación y acceso de datos e información,
en diferentes entornos de red.
6. Repositorio: es la capa en la que se encuentran los depósitos de datos y de
documentos. En principio, la actividad se centrará en los repositorios internos de la
organización, especialmente en el establecimiento de una arquitectura que facilite la

71
localización y acceso a los datos y la información que sean requeridos por las
aplicaciones y servicios ofrecidos en las capas superiores del modelo de arquitectura.

3.2. Herramientas informáticas

El usuario final de los sistemas de gestión del conocimiento tiene una percepción de
los mismos influenciada por las aplicaciones informáticas que utiliza. En consecuencia, las
clasificaciones de herramientas que se han propuesto en la bibliografía especializada han
tendido a diferenciar las mismas atendiendo a criterios de funciones y/o prestaciones, o de
utilización. Recientemente, Tyndale (2002) ha realizado un estudio comparativo de cinco
clasificaciones. En conjunto, ha detectado diecisiete tipos de aplicaciones, que divide en
nuevas herramientas (especialmente diseñadas para procesos de gestión del conocimiento),
y antiguas (aquellas preexistentes que han sido optimizadas y adecuadas para la gestión del
conocimiento), indicando en cada una de ellas si participa en procesos de creación,
organización, distribución o aplicación del conocimiento.

Aplicaciones específicas para gestión del


conocimiento
Intranets
Tecnologías push
Agentes
Portales
Gestión de contenidos
Gestión documental
Trabajo en grupo, groupware
Flujos de trabajo, workflow
Reingeniería de procesos de negocio, BPR
Motores de recuperación de información
Bases de datos relacionales y orientadas a
objeto
Sistemas de edición y publicación electrónica
Aplicaciones help-desk
Gestión de relaciones de clientes, CRM
Data warehousing
Minería de datos, data mining

72
Aplicaciones de creación de documentos

Tabla 1. Herramientas de gestión de conocimiento (Según Tyndale, 2002)

La propuesta de Marwick (2001) clasifica las herramientas tomando como criterio las
fases y actividades establecidas en el modelo de Nonaka y Takeuchi, indicadas en un
apartado anterior. Según este autor, las herramientas podrían clasificarse atendiendo a:
1. Socialización, tácito a tácito: trabajo en grupo (groupware), e-meetings, sistemas de
localización de expertos, comunidades virtuales.
2. Externalización, tácito a explícito: bases de datos de discusiones en línea y news.
3. Combinación, explícito a explícito: captura de conocimiento, publicación digital,
reconocimiento de voz, sistemas de búsqueda, taxonomías y clasificación de
documentos, sumarización de documentos, portales, sistemas de metadatos.
4. Internalización, explícito a tácito: generadores automáticos de metadatos, aprendizaje
en línea (e-learning), técnicas de visualización.

Una perspectiva más tecnológica es la adoptada por Liao (2002, en prensa), que
distingue siete categorías, correspondientes a marcos generales de gestión del
conocimiento, sistemas basados en el conocimiento, minería de datos, tecnologías de
información y comunicación, sistemas expertos, tecnologías de bases datos y modelización.
La propuesta de Grau (2001) es la más básica de todas, ya que clasifica las herramientas en
tres grupos principales, según sus funcionalidades:

1. Recuperación y vigilancia de información: aplicaciones utilizadas para localizar a la


información relevante para un usuario, acceder a la misma, y mantener una vigilancia
sobre su estado Lo más conocidos han sido los buscadores, aunque se imponen
ahora las herramientas basadas en agentes personales.
2. Trabajo en grupo: las clásicas aplicaciones de groupware, con sus prestaciones de
comunicación mediante correo electrónico, reuniones interactivas y foros…
3. Portales corporativos: es la integración, bajo el paraguas de un servidor web, de
métodos de acceso a toda la información disponible en la organización. Ofrece una
arquitectura de información que sirve como marco de referencia y organización para
el acceso y presentación de información presente en fuentes dispersas.

Software para Software y aplicaciones especialmente


trabajo en diseñadas para entornos distribuidos, en los
grupo, cuales los miembros de los equipos de trabajo
groupware se encuentran situados en lugares diversos.
Incluyen funciones especiales de comunicación

73
síncrona y asíncrona (teleconferencia y
videoconferencia, foros de discusión, pizarras
electrónicas compartidas, etc…).
Incorporan funciones para el trabajo compartido
en documentos distribuidos, normalmente
acompañados de flujos de trabajo y
mecanismos de control de versiones.
Software para Aplicaciones informáticas diseñadas para el
gestión tratamiento de gran cantidad de información
documental textual, poco estructurada, y organizada
alrededor de la metáfora del documento.
Aplican técnicas de indización y compresión de
la información textual, creando representaciones
de la misma (ficheros inversos, espacios
vectoriales…), sobre la cuales se desarrollan los
procesos de búsqueda y recuperación de
información, los cuales requieren capacidades
específicas.
Los últimos desarrollos integran información y
documentación multimedia e hipermedia, así
como la capacidad de acceder a recursos
heterogéneos
Software para Sistemas que controlan los procesos de
gestión de creación, edición y publicación de publicaciones
contenidos digitales, mediante prestaciones de edición
electrónica, acceso a fuentes heterogéneas de
datos, y definición de flujos de trabajo.
Muy relacionados con las aplicaciones de
trabajo en grupo y de gestión documental, ya
que la mayor parte han evolucionado desde las
mismas.
Minería de Software orientado al descubrimiento de
datos, siftware patrones ocultos en grandes volúmenes de
datos, tanto estructurados (data mining), como
textuales (text mining). Están apareciendo

74
nuevas herramientas orientadas a la minería del
web (web mining).
Utilizan diferentes tipos de aproximaciones
estadísticas y algorítmicas, y necesitan como
complemento herramientas de visualización.
Gestión de Algunas organizaciones utilizan las
proyectos herramientas de gestión de proyectos como
herramienta de gestión del conocimiento,
aprovechando sus prestaciones para la
planificación, control de actividades, y
asignación y uso de recursos humanos y de
otros tipos.
Recuperación Aplicaciones especialmente diseñadas para la
de información búsqueda y el rastreo de información en
entornos de redes, como Internet. Capaces de
acceder a información en diferentes formatos, y
de fuentes heterogéneas.
Desarrollan “trabajo delegado”, e incorporan
prestaciones de monitorización y control,
obtención de copias, etc. La principal dificultad
para su uso es la necesidad de conocer con
detalle las habilidades básicas de recuperación
de información.
Visualización de Desarrollan presentaciones gráficas para
información mostrar al usuario grandes volúmenes de
información de manera asequible. Se utilizan en
tareas de organización y de recuperación de
información.
Su uso se fundamenta en la técnica de “enfoque
y detalle.” Se integran con herramientas de
minería de datos y de recuperación de
información.
Aprendizaje Entornos digitales de aprendizaje, orientados a
virtual, e- la formación del personal de la organización.
learning Necesitan contenidos y funcionales aportadas

75
por otras herramientas. Especialmente
interesantes en comunidades de práctica.
Aplicaciones Herramientas orientadas a la indagación y
help-desk resolución de problemas, sobre una base de
datos documental que recoge problemas,
soluciones y recomendaciones. Utilizadas
principalmente en servicios de soporte a
usuarios
Portales e Sistemas de acceso a la información,
intranets organizada según diferentes criterios, y a las
herramientas básicas de la organización. Los
portales pretenden ofrecer una interfaz
integrada de acceso a los recursos de la
organización. Se estructuran alrededor de un
servidor web, que interactúa con el resto de
aplicaciones para ofrecer sus servicios y ofrecer
contenidos.
Sistemas de Sistemas complejos, formadas en numerosas
gestión del ocasiones por desarrollos específicos de
conocimiento aplicaciones sobre alguna de las herramientas
antes indicadas. Adoptan la forma de portales
especializados, con control de acceso y gestión
de usuarios, prestaciones de gestión
documental y de contenidos, flujos de trabajo y
recuperación de información

Tabla 2. Aplicaciones informáticas utilizadas en gestión del conocimiento

Si bien las clasificaciones y definiciones teóricas son muy claras, lo cierto es que la
realidad del mercado, y de los productos disponibles en el mismo, muestra una tendencia
contraria. Siendo posible identificar productos que corresponden estrictamente a las
categorías indicadas en la tabla 2, hay que señalar que, cada vez en mayor medida, se
encuentran disponibles productos que combinan prestaciones y características de las
diferentes categorías. Sistemas de gestión de contenidos con prestaciones documentales,
flujo de trabajo y trabajo en grupo, herramientas de data mining de soporte a la decisión;

76
aplicaciones que generan portales mediante integración y agregación de contenidos;
herramientas de recuperación de información que prestaciones avanzadas de
visualización… el desarrollo y la aparición de nuevos productos, con cada vez mayor
capacidad, es una constante que se mantendrá durante los próximos años.

4. Herramientas informáticas para la comunidad de inteligencia y seguridad

El desarrollo de una creciente actividad de información, relacionada con la seguridad


nacional y la lucha contra el terrorismo, ha incidido en la creciente utilización de
herramientas informáticas en el ciclo de inteligencia que desarrollan las organizaciones
responsables de esta actividad. Los programas puestos en marcha al amparo de la
Homeland Security Act norteamericana han implantado obligatoriamente la colaboración
entre numerosas agencias estatales, así como la extensión de las actividades de vigilancia
que, por desgracia, han supuesto un evidente recorte de los derechos y libertades de los
ciudadanos. Sin embargo, la aplicación de las herramientas informáticas de localización y
acceso a la información, y de vigilancia electrónica, en estos ámbitos no es reciente. Desde
finales de la década de 1970, y especialmente desde la década de 1980, los teóricos han
estado desarrollando y analizando lo que se ha dado en llamar Information Warfare
(Tramullas, 1998), al tiempo que se desarrollaban herramientas informáticas para ello, que
se encuentran en el estricto ámbito del secreto. La Information Warfare es un enfrentamiento
de alta tecnología, que puede ofrecer diferentes tipos y características: “Information
operations conducted during time of crisis or conflict to achieve or promote specific objectives
over a specific adversary or adversaries.” (Department of Defense: 2003). Para completar
esta definición, excesivamente amplia, es necesario disponer también de lo que se
consideran Information Operations, “Actions taken to affect adversary information and
information systems, while defending one’s own information and information systems.” Hay
que destacar que el DoD establece la existencia de operaciones defensivas (“The integration
and coordination of policies and procedures, operations, personnel, and technology to protect
and defend information and information systems. Defensive information operations are
conducted through information assurance, physical security, operations security, counter-
deception, counter-psychological operations, counterintelligence, electronic warfare, and
special information operations. Defensive information operations ensure timely, accurate, and
relevant information access while denying adversaries the opportunity to exploit friendly
information and information systems for their own purposes”) y ofensivas. La finalidad de

77
ambas es alcanzar la Information Superiority: “That degree of dominance in the information
domain which permits the conduct of operations without effective opposition.”

Tras los lamentables hechos del 11-S, la actividad de inteligencia se dirigió a analizar los
problemas de información que el nuevo campo de batalla digital presentaba, y a estudiar las
formas en las cuales podían detectarse en el mismo otras actividades que podían ocultar
intenciones hostiles y amenazas. La información pública disponible hasta el momento
permite apreciar varias líneas de actividad, todas ellas relacionadas con el desarrollo o
aplicación de herramientas informáticas especializadas:

1. Colaboración entre agencias e intercambio de información


2. Detección de actividades sospechosas en Internet
3. Acceso integrado e inmediato a fuentes y recursos de información digital
heterogéneos.
4. Análisis automático de textos y documentos sonoros en múltiples lenguajes.
5. Financiación de proyectos de investigación en tecnologías de la información
directamente relacionados con la seguridad y la inteligencia.

Se entraría de lleno con lo anterior es un aspecto de la Information Warfare, llamado


Cyberwarfare. Y además, éste tiene como característica que es asimétrico, en cuanto los
contendientes tienen estructuras, organizaciones, medios y objetivos diferentes. En los
aspectos que interesan a este texto, la gestión del conocimiento y la generación de
inteligencia, se estaría en un entorno de actividad preventiva, no agresiva, con la finalidad de
detectar para planear y actuar, en el caso de que fuera necesario. Las herramientas
informáticas empleadas en colaboración, vigilancia y detección responden a modelos de
aplicaciones utilizadas en el contexto de la gestión del conocimiento. De la misma forma, la
comparación con los ciclos de inteligencia indicados en un apartado anterior incide en esta
visión de vigilancia, análisis y producción de inteligencia, con vista a la toma de decisiones.
Los indicadores públicos disponibles (prensa, bases de datos, etc.) así lo muestran. La
revisión de los programas tecnológicos puestos en marcha en el marco de la Total
Information Access, por las diferentes agencias federales, inciden en este sentido. Por
ejemplo, la empresa Tacit (http://www.tacit.com) produce software para la gestión de la
colaboración, e incluye entre sus clientes a la comunidad de inteligencia, e incluso algunas
fuentes indican la participación de la CIA en la misma. In-Q-Tel es una iniciativa de
financiación de planes de negocio de tecnologías innovadoras para el tratamiento de la

78
información, como dice la página principal de su sede web, “Our mission is to deliver leading-
edge information technologies to the CIA and the Intelligence Community.”

Fig. 3.In-Q-Tel (http://www.inqtel.com)

5. Recuperación de información y minería de datos y textos

Las dos aplicaciones informáticas más utilizadas en las fases iniciales de los ciclos de
inteligencia, y que entran dentro del abanico de herramientas informáticas para la gestión del
conocimiento son los agentes para recuperación de información y las aplicaciones para
minería de datos o textos. Dado el interés que ambas tienen, especialmente para las fases
de obtención y procesamiento y análisis, serán objeto de un tratamiento más detallado en los
siguientes párrafos.

5.1. Agentes para recuperación de información

Los agentes de software han sido objeto de abundante investigación desde la pasada
década, y progresivamente se han ido incorporando aplicaciones de primera y segunda
generación a la nómina de aplicaciones disponibles, tanto gratuitas como comerciales, para
el usuario final. En principio, una breve definición diría que se trata de una aplicación a la
que se delega la ejecución automática de un conjunto de actividades cuando se detectan las
condiciones oportunas para ello, en un entorno o contexto dado. Unas de las características
clave de estas herramientas es que, teóricamente, serían capaces de aprender, y de tomar
decisiones propias si es necesario, en virtud de la información del contexto de la que
dispongan, y de las reglas que les hayan sido dadas. En un entorno de altísima densidad de
79
información, como pueden ser los sistemas de información de grandes organizaciones, o la
propia Internet, las tareas que este software puede desarrollar son muy variadas, y suponen
la posibilidad de automatizar tareas reiterativas y que demandan gran cantidad de recursos,
como pueden ser la consulta de múltiples bases de datos, la vigilancia de los recursos de
información, o el filtrado y resumen de grandes volúmenes de información. Este tipo de
herramientas se engloba bajo los nombres genéricos de search robots o searchbots.

Las principales funciones técnicas que un searchbot puede desempeñar (Tramullas y


Olvera: 2001) se resumen en:
1. Consulta autónoma y simultánea a fuentes de información: el usuario establece que
fuentes de información, principalmente motores de búsqueda, van a ser consultadas para
solucionar la cuestión planteada. La cantidad de motores puede ser mayor o menor,
dependiendo del programa. Con la finalidad de optimizar la conexión y el tiempo
disponible, los searchbots no lanzan las conexiones secuencialmente, sino que lo hacen
de forma simultánea, e informan del estado de la consulta y de las respuestas recibidas.
2. Filtrado de respuestas: Las respuestas recibidas pueden contener duplicados,
referencias a documentos que ya no existen, etc. Consecuentemente, tras la recepción
de las respuestas es necesario someterlas a un filtrado que elimine referencias
duplicadas, inexistentes, o subsecciones de documentos principales.
3. Criterios de ordenación y ponderación de respuestas: No todas las respuestas ofrecen el
mismo nivel de pertinencia a la cuestión planteada. Los searchbots incorporan algoritmos
capaces de analizar el contenido del documento, y dotarlo con una escala de valoración
de sus contenidos, ordenando el conjunto resultante según la misma.
4. Obtención del documento original o primario: Las prestaciones anterior y siguiente se
apoyan en la capacidad de ir a la localización del documento, y obtener una copia del
mismo que es recibida y almacenada en el ordenador del usuario. Esta característica le
permitirá, además, desarrollar una navegación fuera de línea (off-line), con el ahorro de
recursos que ello puede suponer.
5. Creación de recursos de información locales: con las respuestas recibidas, los
searchbots ofrecen la posibilidad de crear recursos de información en su propio
ordenador, que pueden adoptar la forma de bases de datos textuales, directorios e
índices en forma de páginas web, etc.
6. Definición de perfiles de usuario: las necesidades de información de un usuario se
plasman en un conjunto de expresiones o ecuaciones. Un perfil de usuario supone la

80
creación de un archivo permanente en el que almacenar esas ecuaciones, para su
ejecución cuando sea oportuno.
7. Temporalización de actividades: la aplicación debe ofrecer la posibilidad de establecer la
ejecución de perfiles de usuario a intervalos temporales, regulares o no, según los
intereses o la necesidad de información en cada momento.
8. Tareas de vigilancia, control y mantenimiento: en relación con la anterior se encuentran
las funciones de vigilancia, control y mantenimiento, Estas tareas suponen la revisión de
resultados de búsquedas ya realizadas, para mantener actualizadas las referencias
obtenidas en consultas anteriores, ya que la variabilidad espacial y temporal de los
recursos de información en Internet no hacen posible la utilización de resultados de tipo
estático.

Fig. 4. Copernic, un potente searchbot (http://www.copernic.com)

Otra de las ventajas de los searchbots es su rápida curva de aprendizaje, así como la
facilidad para integrar información heterogénea. El esquema básico de utilización de este
software sigue las siguientes fases:

1. Formulación de la expresión de búsqueda: a través de la interfaz de usuario se introduce


una expresión textual, o ecuación, que refleja la necesidad de información. El software se
81
encarga de adecuar la expresión a cada uno de los motores o recursos de información
que vayan a ser objeto de consulta.
2. Definición del dominio o dominios de búsqueda: se establecen los recursos de
información contra los cuales se enviará ésta. Estas aplicaciones suelen agrupar los
recursos disponibles por categorías temáticas.
3. Definición de criterios de selección y filtrado de respuestas: se pueden establecer
criterios de filtrado que se apliquen sobre las respuestas que se reciban, o sobre el
propio proceso de consulta.
4. Ejecución de la búsqueda: una vez definidos todos los parámetros, el usuario pone en
marcha la ejecución de la búsqueda, mediante un proceso de conexiones simultáneas a
los motores, de recepción de respuestas y de primer filtrado de la misma, para pasar
posteriormente a comprobar la presencia real del documento, y a obtener una copia del
original, si el usuario lo ha establecido así.
5. Tratamiento de los documentos resultantes: se procede a analizar los documentos
obtenidos como respuestas, para ordenar los mismos según una escala de pertinencia a
la consulta formulada. Algunos de estos programas son capaces de crear resúmenes e
índices de contenidos, una prestación de sumo interés para el usuario, aunque los
fabricantes casi nunca informan de cuales son los algoritmos y principios que aplican
pata tal fin.
6. Presentación de los documentos: las recopilaciones obtenidas como respuesta son
ofrecidas en formato de páginas HTML o XML, o bien en formatos de base de datos, o
incluso formatos de fichero propios de la aplicación. Lo más común es que adopten la
forma de índice de entradas, ordenado según los criterios definidos con anterioridad.

Los searchbots son especialmente útiles en entornos con fuentes de información


distribuidas, sobre las que es necesario ejecutar consultas cruzadas. Por ejemplo, Autonomy
(http://www.autonomy.com) ha sido seleccionado con esta finalidad por las agencias
estatales de seguridad norteamericanas.

82
Fig. 5. Autonomy, searchbot para las agencias norteamericanas (fuente
http://www.autonomy.com)

5.2. Minería de datos y textos

La minería de datos (data mining) es la denominación de conjunto que reciben las


técnicas y herramientas orientadas a descubrir patrones y reglas ocultos en grandes
volúmenes de datos. En origen, los millones de transacciones que se llevan a cabo mediante
sistemas de información quedan almacenados en millones de registros, normalmente en
bases de datos. Tras periodos de larga actividad, la información que contienen los mismos
alcanza un volumen inabarcable mediante técnicas clásicas de recuperación de datos.
Además, la explotación siempre se encuentra dependiente de la formulación de preguntas
específicas, lo que supone la fijación de premisas por parte del usuario, que pueden
encontrarse sujetas a numerosos factores que distorsionen el proceso. Es importante poder
descubrir otras asociaciones y patrones existentes, y que no son detectables por
aproximaciones de recuperación de información. La minería de datos y de textos se encarga
de ello, aplicando diferentes tipos de algoritmos para explorar y descubrir nueva información.
Esta clase de aproximación se encuentra también en la base de lo que se ha llamado
descubrimiento de información (Knowledge Discovery). La minería de datos y textos es un
proceso de descubrimiento y validación, tanto cualitativo como cuantitativo, de patrones
ocultos en grandes cantidades de datos formalizados y organizados, con la finalidad de
83
establecer reglas formales tomando como punto de partida los patrones identificados. Sin
embargo, hay que tener en consideración que, en otras concepciones, la minería de datos
es la parte central del proceso de descubrimiento de conocimiento en bases de datos. Las
aplicaciones informáticas que llevan a cabo este tipo de actividad se identifican en ocasiones
como siftware. Sin embargo, es necesario destacar que, al igual que en los entornos de
gestión de conocimiento, los procesos de minería de datos y textos suelen exigir la
integración de varias herramientas para obtener los mejores resultados (Klösgen y Zytkow:
2002).

La aplicación de un proceso de data mining (Tramullas: 1997) sobre un conjunto de


datos es una tarea compleja, que debe estar relacionada con la organización en la que se
aplique. Los cinco propósitos fundamentales para los que se aplica este tipo de técnicas son
la predicción, la descripción, la explicación, la optimización y la exploración. En primer lugar,
se trata de un trabajo que tiene como objetivo identificar y utilizar información oculta. Para
asegurar el éxito del proceso es necesario cumplir tres condiciones principales: en primer
lugar, el conjunto de datos debe integrarse en una visión completa de la organización; en
segundo lugar, los datos deben ser “minados”, y, por último, la información obtenida debe
ser organizada y presentada de forma que facilite la toma de decisiones complejas. Para
ofrecer soporte a la toma de decisiones, es necesario transformar los datos en información
elaborada. El proceso de data mining posee cuatro fases:

1. Selección: consiste en seleccionar los tipos de datos que van a ser utilizados. No todos
los datos existentes en un almacén pueden ser pertinentes para una actuación de este
tipo. Por lo tanto, la selección de los más adecuados agiliza el proceso y puede servir
como mecanismo previo de filtrado, evitando errores de desviación.
2. Transformación: una vez seleccionados, suele ser necesario transformar los datos
elegidos, cambiando su forma o presentación, o derivando nuevas categorías de las
existentes.
3. Mining o minado: es el proceso de minado en sí mismo, durante el cual se aplican
diferentes técnicas al conjunto de datos. Puede ser necesario realizar algún ajuste
adicional de los datos durante esta fase.
4. Interpretación: la información obtenida se analiza en términos del objetivo fijado. El
propósito de este análisis no se reduce a establecer una visualización o presentación
adecuada: también se trata de filtrar y validar la información obtenida.

84
En una perspectiva más actual, el proceso se considera más complejo, en cuanto debe
atender al contexto organizativo y a los objetivos del proceso de descubrimiento, y se
proponen las siguientes fases (Klösgen y Zytkow: 2002, 10):

1. Definición y análisis del problema


2. Comprensión y preparación de datos
3. Preparación del proceso de búsqueda
4. Ejecución del proceso de búsqueda
5. Refinamiento del conocimiento adquirido
6. Aplicación del conocimiento adquirido en la resolución del problema
7. Evaluación práctica de la soluciones

Esta secuencia corresponde, en líneas generales, al modelo CRISP-DM (CRoss-Industry


Standard Process For Data Mining, http://www.crisp-dm.org), iniciativa que pretende crear un
marco de trabajo y proceso general para la minería de datos y el descubrimiento de
conocimiento. Las seis etapas de CRISP-DM son compresión del negocio, comprensión de
los datos, preparación de datos, modelado, evaluación de resultados y despliegue. Las
cuatro fases indicadas en primer lugar se integrarían en las fases cuatro y cinco. En estas
etapas cobran especial importancia los algoritmos seleccionados. Los cuatro grupos
principales son los algoritmos de asociación, el análisis basado en secuencias, los análisis
cluster, la clasificación y la estimación. Los algoritmos de asociación intentan identificar
patrones de relación entre los datos, de forma que se puedan definir conjuntos. El análisis
basado en secuencias se basa en localizar e identificar patrones a lo largo de una secuencia
temporal, con la finalidad de poder establecer comportamientos en un tracto espacio-
temporal. Los análisis cluster se emplean para identificar grupos de datos similares, que
puedan utilizarse como punto de partida para otros análisis posteriores. Las técnicas de
clasificación es una de las aproximaciones más aplicadas, y utiliza patrones preconstruidos
para clasificar los registros analizados dentro de uno u otro grupo. Por último, la estimación
añade a la clasificación la posibilidad de utilizar diferentes escalas o dimensiones dentro de
los grupos.

Tareas Métodos
Clasificación Descubrimiento de árboles de decisión
Clasificación bayesiana
Aproximación de vecino más próximo

85
Regresión
Redes neuronales
Clasificación multicriterio
Descubrimiento de Rough set
reglas Reglas de caracterización
Reglas de asociación
Lógica inductiva
Descubrimiento de Análisis de desviación
subgrupos Análisis de cambio
Métodos de instrucción
Ajuste de ecuaciones Buscadores de ecuaciones
Análisis de regresión multidimensional
Clustering Clustering numérico
Clustering conceptual
Redes probabilísticas Redes probabilísticas y causales
y causales

Tabla 3. Tareas y métodos asociados en minería de datos

La segunda dimensión a incluir es la minería de textos, text/textual mining. Las


técnicas de minado se utilizan, en este contexto, para analizar el contenido textual de
documentos poco estructurados, a diferencia de la estructura formalizada que se usa en la
minería de datos. Las diferentes definiciones sobre minería textual inciden en la necesidad
de descubrir nueva información a partir de un corpus de documentos de gran tamaño, con la
finalidad de apoyar el análisis humano de los mismos. Sin embargo, parte de lo que se
considera minería textual entra de lleno en la concepción de recuperación de información
textual, que se encuentra en la base de las aplicaciones de recuperación de información y
tratamiento documental. Las herramientas para minería textual deben ser capaces de
localizar hechos particulares, agrupar documentos similares, determinar los temas de los
documentos, y realizar resúmenes y establecer relaciones entre los mismos. Relacionada
con la minería textual se encuentra la aplicación de las técnicas de minería al web. Esto ha
dado como resultado tres tipos de aproximaciones (Molina: 2002), correspondientes a web
content mining (minería sobre el contenido informativo de los documentos), web structure
mining (sobre la estructura hipertextual del web, usando sus enlaces), y web usage mining
(comportamiento de usuario utilizando la información de logs).

86
Fig. 6. Rosseta, software libre para minería de datos

Los agentes de tipo searchbot y las herramientas para minería de datos son
aproximaciones complementarias para la localización y acceso a la información, y también
son claves para los procesos de identificación y análisis de información, en múltiples
contextos, entre los que se incluyen las tareas de inteligencia. En ambos casos resulta
imprescindible atender a dos cuestiones emergentes, como son la visualización de
información y la utilización de ontologías.

La visualización de información es una de las áreas de desarrollo acelerado en los


últimos años. Las técnicas de presentación de información basadas en el listado de
respuestas y acceso de detalle al documento, todavía preponderantes en el mercado, van a
ir siendo sustituidas progresivamente con aplicaciones dotadas de interfaces gráficas que
sustituyan al listado. Los principios clásicos de “conjunto, enfoque y detalle”van a ofrecer a
los usuarios esquemas visuales de conjunto, que permitan integrar, con nuevas metáforas,
la gran cantidad de información resultante tras cualquier tipo de consulta. Véanse, por
ejemplo, los resultados que ofrece Kartoo (http://www.kartoo.com), o las herramientas de
organización de información, como TheBrain (http://www.thebrain.com), en las que los
usuarios no sólo podrán analizar los resultados de sus búsquedas, sino también las

87
relaciones lógicas, semánticas y de contenidos que puede haber entre ellas, así como las
posibles agrupaciones o núcleos de información asociada.

Fig. 7. Visualización de información con Inxight Star Tree

La utilización de ontologías en la organización y generación de conocimiento es otro


de los retos a abordar en los próximos años. Las limitaciones que muestra el enfoque
basado en “index everything” hacen necesario disponer de mecanismos más potentes de
descripción y recuperación de contenidos, fundamentalmente textuales. Precisamente una
de las principales capacidades de las ontologías es poder representar de forma homogénea
un dominio de conocimiento, y la comunicación del mismo entre sistemas e individuos.
Dadas las perspectivas de desarrollo del web semántico, y la cada vez mayor existencia de
fuentes y recursos de información dentro del mismo web, las ontologías serán necesarias
para la extracción automática de conocimientos y la clasificación de información, la
representación del contenido de documentos y las técnicas avanzadas de recuperación de
información.

Bibliografía

Applehans, W.; A. Globe, A. y G. Laugero, (1999), Managing Knowledge. A Practical Web-Based Approach,
Reading, Addison-Wesley.

Baeza-Yates, R. y B. Riberiro-Neto, (1999), Modern Information Retrieval, Reading, Addison-Wesley.

88
Berkowitz, B., (2003), “Failing to keep Up with the Information Revolution”, Studies in Intelligence, Journal of the
American Intelligence Professional, vol. 47: nº 1. Disponible en
http://www.cia.gov/csi/studies/vol47no1/article07.html (consultado 12-05-2003)

Bukowitz, W.R. y R. L. Williams, (2000), The Knowledge Management Fieldbook, London, Financial
Times/Prentice Hall.

Davies, J.; D. Fensel y F. Van Hermelen, (2003), “Introduction”, en J. Davies, D. Fensel y F. Van Hermelen,
(eds.) Towards the Semantic Web. Ontology-Driven Knowledge Management, Chichester, John Wiley, pp. 1-9.

Department of Defense, (2001-2003), Department of Defense Dictionary of Military and Associated Terms. Joint
Publication 1-02, 12 April 2001, amended 9 January 2003. Disponible en http://www.dtic.mil/doctrine/jel/doddict
(consultado 02-05-2003).

Fayyad, U., (ed.), (2001), Information Visualization in Data Mining and Knowledge Discovery, Morgan
Kaufmann, 2001.

Grau, A., (2001), Herramientas de Gestión del Conocimiento. Gestiondelconocimiento.com.


Disponible en http://www.gestiondelconocimiento.com/americagrau.htm (consultado 14-12-2002).

Klösgen, W. y J. M. Zytkow, (eds.), (2002), Handbook of Data Mining and Knowledge Discover,. New York,
Oxford University Press.

Liao, S.H., (2003), “Knowledge management technologies and applications – literature review from 1995 to
2002”, Expert Systems with Applications, en prensa.

Liao, S-H.; B-L, Sun, R-Y, Wang, (2002), “A knowledge-based architecture for planning military intelligence,
surveillance, and reconnaissance”, Space Policy, en prensa.

Libicki, M.C., (1997), ”Information Dominance.” Strategic Forum Index, vol. 132. Disponible en
http://www.ndu.edu/inss/strforum/forum132.html (consultado 12-11-2002)

Marwick, A.D., (2001), “Knowledge management technology”, IBM Systems Journal, vol. 40: nº 4, pp. 814-830.

Medina, C., (2002), “What To Do When Traditional Model Fail”, Studies in Intelligence, Journal of the American
Intelligence Professional, vol. 46: nº 3.
Disponible en http://www.cia.gov/csi/studies/vol46no3/article03.html (consultado 12-11-2002)

Molina Félix, L.C., (2002), Data Mining: torturando los datos hasta que confiesen, Universitat Oberta de
Catalunya. Disponible en http://www.uoc.edu/molina1102/esp/art/molina1102/molina1102.html
(consultado 08-02-2003)

Neilson, R.E. (ed.), (1997), Sun Tzu and Information Warfare, Washington, National Defense University Press.
89
Nonaka, I. Y H. Takeuchi, (1995), The Knowledge-Creating Company, Oxford University Press.

Ruggles, R., (1997), Knowledge management tools, Oxford, Butterworth-Heinemann.

Thuraisingham, B. M., (2003), Web Data Mining and Applications in Business Intelligence and Counter-
Terrorism, CRC Press.

Tramullas Saz, J., (1997), “Perspectivas en tratamiento y recuperación de información electrónica: el Data
Mining”, Scire, vol. 3: nº 2, pp. 73-83.

Tramullas Saz, J., (1998), “Concepto y fuentes para el estudio de la Information Warfare”, Anales de
Documentación, vol. 1, pp. 185-192.

Tramullas Saz, J. y Olvera Lobo, Mª.D., (2001), Recuperación de la información en Internet, Madrid, Ra-Ma.

Tyndale, P., (2002), “A taxonomy of knowledge management software tools: origins and applications”,
Evaluation and Program Planning, vol. 25, pp. 183-190.

Weber, R.O., y D. W. Aha, (2002), “Intelligent delivery of military lessons learned”, Decision Support Systems,
vol. 34, pp. 287-304.

90
Sistemas de Apoyo a la Decisión como herramientas de información en el ámbito
militar

José Manuel Molina López


Departamento de Ingeniería Informática.
Universidad Carlos III de Madrid
molina@ia.uc3m.es

1. Introducción a los Sistemas de Apoyo a la Toma de Decisiones en el ámbito


Militar

El paradigma C4ISR (Command, Control, Communications, Computers, Intelligence,


Surveillance y Reconnaisance) del que se habla en la actualidad no es más que un conjunto de
conceptos que deben tener una visión tecnológica y que aplicados a los sistemas militares
definen cuáles son los avances tecnológicos necesarios para obtener una mejora competitiva
respecto a sistemas anteriores. Según (T. Clark y T. Moon: 2000) el paradigma C4ISR puede
verse como una agregación de dos sistemas, uno centrado en Comando y Control y el otro en
la Inteligencia, Vigilancia y el Reconocimiento, que tienen a los computadores y a las
comunicaciones como facilitadores del sistema. En palabras de Clark y Moon C4ISR puede
definirse como: “an agregation of diverse command and control, intelligence, surveillance y
reconnaissance elements that provide military information to a Commander and, when brought
together with appropiate communication and computer networks, may be thought of as a virtual
enabling capability for military operations”.

Dentro de los avances tecnológicos se encuentran las herramientas de apoyo a la toma


de decisiones que históricamente se han relacionado con los sistemas C2 (Command and
Control) reflejando varios aspectos del ciclo OODA (Observe, Orient, Decide, Act). El desarrollo
de las herramientas de apoyo a las decisiones está íntimamente relacionado con la actual
evolución del paradigma C4ISR, donde se describen los requisitos de los ordenadores, la
evolución de las comunicaciones, la necesidad de una inteligencia capaz de evaluar las
situaciones de batalla, las funciones de fusión de datos heterogéneos y los modernos sistemas
de reconocimiento.

91
Los sistemas de apoyo a la toma de decisiones (Decision Support Systems, DSS) son
herramientas que permiten mejorar el proceso de toma de decisión de un operador humano.
Un sistema de “apoyo” o “mejora” del proceso de toma de decisión se puede analizar desde
dos perspectivas muy diferentes en función del tipo de decisión que estemos tratando. La
literatura de Sistemas de Apoyo a la Toma de Decisión o Sistemas Soporte a la Decisión suele
estar enfocada desde la perspectiva de los sistemas empresariales (Marakas: 2003). En el
ámbito empresarial se distingue entre los sistemas de información (Information Systems, IS)
que permiten al usuario disponer de la información adecuada en el momento preciso, de los
DSS que ayudan al decisor a seleccionar una estrategia que permita optimizar los parámetros
empresariales. Generalmente la teoría de los DSS se desarrolla desde esta perspectiva
táctica/estratégica, como apoyo a las decisiones de generación de planes a medio/largo plazo.
Sin embargo en el entorno militar la necesidad de tomar decisiones con una limitación temporal
importante en situaciones de batalla ha hecho que gran parte de los trabajos sobre toma de
decisiones se centren en sistemas de diagnóstico.

En el ámbito militar pueden distinguir dos niveles: el nivel operativo (o de batalla) y el


nivel táctico (o de operaciones). En el primer caso estamos hablando de la toma de decisiones
en el campo de batalla, en un tiempo limitado y con la necesidad de una capacidad de reacción
muy elevada. En el segundo caso estamos hablando de la planificación de una operación en la
que el tiempo no es una restricción y donde se busca analizar multiples posibilidades. El primer
tipo de sistema consiste básicamente en proporcionar al operador una imagen fiel de lo que
ocurre a su alrededor, no sólo en lo que respecta al movimiento y posición de tropas sino
realizando una interpretación de dichos movimientos buscando lo que se denomina
“descripción de la situación” (Situation Awareness) (Ballard y Ripley: 1994). Esta descripción de
la situación se obtiene a través de la fusión de los datos recibidos por los diversos sensores
desplegados y por la interpretación de estos datos en un entorno físico/temporal realizando una
interpretación de la sistuación y un análisis de las amenazas que pueden aparecer en el
entorno. La figura 1 muestra un esquema básico de este tipo de sistemas donde puede
observarse la conexión con el entorno real del sistema. El operador monitoriza el entorno a
través del Sistema de Apoyo a la Toma de Decisiones y a través de toda la información
recogida en el mismo toma las decisiones operativas oportunas.

92
IMAGEN DE USUARIO
DIAGNÓSTICO LA REALIDAD
DE LA TOMA LA DECISIÓN
SITUACIÓN

Sistema de Apoyo a la
Toma de Decisiones
ACCIÓN
DATOS

REALIDAD

Figura 1. Sistemas de Apoyo a la Toma de Decisiones a nivel operativo.

A diferencia de los sistemas de diagnóstico, el segundo tipo de sistemas de apoyo a la


toma de decisiones están relacionados con el planeamiento de acciones. En este caso el
operador debe decidir qué lineas de acción del enemigo son las más probables y cuáles las
lineas de acción defensivas son las más adecuadas para dar respuesta al enemigo. El sistema
de apoyo se utiliza para generar diversas estrategias (compuestas por varias lineas de acción
enemigas/amigas), evaluarlas (enemigas más probables/amigas más adecuadas) y priorizarlas
de manera que el operador disponga de una lista de estrategias de entre las que deberá
seleccionar una de varias posibles. En este tipo de sistemas se trabaja sobre una
representación simulada de la realidad que permite ejecutar las diversas estrategias y
evaluarlas. La Figura 2 muestra un esquema del conjunto de operaciones que realiza el DSS:
parte de una disposición inicial simulada sobre la que genera diversas alternativas que son
evaluadas sobre la representación de la realidad y que permite obtener un conjunto de
acciones priorizadas.

Sistema de Apoyo a la
GENERACIÓN DE EVALUACIÓN DE
ACCIONES POSIBLES ACCIONES Toma de Decisiones

ACCIONES LISTA DE ACCIONES


POSIBLES PRIORIZADAS

USUARIO
TOMA LA DECISIÓN
ENTORNO SIMULADO

93
Figura 2. Sistemas de Apoyo a la Toma de Decisiones a nivel táctico.

En este trabajo se presenta una introducción a los dos tipos de sistemas analizando los
subsistemas que los componen y las tareas que realizan, no entrando en las tecnologías sobre
las que se desarrollan.

1.1 Fusión de Datos y Sistemas de Diagnóstico

Los sistemas de vigilancia actuales han evolucionado hacia complejos sistemas de


información, siendo capaces de aportar al operador gran cantidad de datos obtenidos a
través de una red de sensores de características heterogéneas, distribuidos espacialmente.
Este tipo de sistemas de adquisición de datos aparecen en los sistemas de vigilancia aérea,
en los sistemas de vigilancia basados en cámaras móviles e incluso en los sistemas de
robótica de última generación (Manyika y Durrant-Whyte: 1994). Por ejemplo, los sistemas
de vigilancia aérea están compuestos por varios sensores (radares primarios y/o
secundarios, sensores de escucha pasiva, sensores acústicos, sensores de imágenes, etc.)
que proporcionan datos de cada móvil en el entorno (detecciones, atributos, pistas) que son
fusionados en el centro de fusión.

En el diseño de estos sistemas aparecen dos tipos de problemas dependientes entre


sí: el primer problema, denominado fusión de datos, define cómo se deben combinar de
forma óptima los datos provenientes de las distintas fuentes (Waltz y Llinas: 1990); el
segundo problema, denominado gestión de multisensores, parte de los resultados obtenidos
en el proceso anterior y determina cómo obtener el funcionamiento conjunto deseado del
sistema controlando el funcionamiento individual de cada sensor (Waltz y Llinas: 1990)
(Manyika y Durrant-Whyte: 1994). La gestión de un conjunto de sensores permite mejorar el
proceso de adquisición de datos del entorno vigilado considerando dos tipos de información:
la de carácter global o de alto nivel, de la que se dispone a través del proceso de fusión, y la
de carácter local, que es interna a cada sensor. La cantidad y variedad de información de los
modernos sistemas de vigilancia hace que la gestión sea irrealizable utilizando como núcleo
central del sistema a un operador humano. Para obtener una descripción del entorno más
compleja se realiza una interpretación conjunta de toda la información recibida mediante
técnicas de Inteligencia Artificial (Waltz y Llinas: 1990). El desarrollo tecnológico ha llevado
al aumento de la potencia de estos sistemas: por un lado se ha dotado a cada sensor de una

94
capacidad de decisión que permite suministrar al centro de proceso una información
semiprocesada localmente; y por otra parte se buscan estrategias de coordinación que
permitan al sistema global aprovechar conjuntamente la inteligencia que controla el
funcionamiento de cada sensor.

Arquitectura de la red de vigilancia

Una red de vigilancia está compuesta por un conjunto de sensores, todos ellos
conectados posiblemente a un único nodo al que envían los datos captados. Los sensores
que componen la red pueden ser a efectos de gestión pasivos o activos, es decir carecer o
no de un gestor. Los primeros no gestionan el conjunto de tareas por lo que no adaptan su
funcionamiento al entorno que los rodea. Los sensores activos son aquellos que permiten un
control sobre el funcionamiento del sensor, de este modo las tareas que debe realizar
dependen en gran medida del entorno actual en el que se encuentra el sistema. El nodo que
centraliza toda la información captada por cada sensor es el centro de fusión. El empleo de
varios sensores para realizar las tareas del sistema en aplicaciones de vigilancia ofrece una
serie de ventajas entre las que cabe destacar (Blackman y Popoli: 1999):
• El sistema es más robusto ya que la información sobre los blancos proviene de
diversas fuentes y, cuando uno de los sensores no es capaz de informar sobre ese
blanco, otros pueden aportar dicha información. Cuando uno de los sensores no
puede aportar datos del blanco puede ocurrir que, se encuentre fuera de cobertura o
que el blanco esté ocultándose de ese radar mediante la emisión de radiación a la
frecuencia de recepción del radar (jamming).
• La cobertura espacial del sistema global se incrementa al sumarse todas las
coberturas de los sensores individuales.
• La cobertura temporal se incrementa puesto que los sensores iluminan al blanco en
instantes de tiempo diferentes, de manera que el blanco resulta iluminado más
frecuentemente.
• La precisión de las pistas se ve incrementada al integrar medidas independientes
desde diferentes sensores.
• La ambigüedad sobre el comportamiento de las pistas se ve reducida puesto que las
hipótesis se reducen.
• La incertidumbre en las medidas se reduce al recibir información desde diversas
fuentes.

95
• La resolución espacial aumenta al considerar el conjunto de sensores como único
sensor con una apertura sintética mayor.
• La dimensionalidad del espacio de medida se aumenta ya que diferentes sensores
miden diferentes porciones del espectro, lo que reduce la vulnerabilidad del sistema
global frente a perturbaciones, ya sea por ruido o contramedidas, en una parte del
espectro.

En principio sin ningún tipo de coordinación entre los sensores cada sensor realizaría las
tareas que tiene asignadas:
• Los sensores sin gestión (pasivos) envían continuamente información al centro de
fusión de las pistas que se encuentran en su zona de cobertura.
• Los sensores inteligentes (activos) realizan las tareas que, en función del entorno que
les rodea y de la política de gestión que los controla, son más necesarias para dicho
sensor.

Fusión de Datos

En el centro de fusión se lleva a cabo la integración de los valores obtenidos por todos
los sensores. En el centro de fusión, por lo tanto, se tiene la visión más completa del entorno en
el que se encuentra el sistema, es por ello que a partir de los datos fusionados es posible
definir la situación que describe la configuración de los blancos y evaluar el potencial peligro de
la misma (Laurence y Garvey: 1983). Existen varias arquitecturas para representar el centro de
fusión (Waltz y Llinas: 1990), la Figura 3 representa los subsistemas que contiene entendiendo
cada nivel como un sistema que recibe información, la procesa y obtiene una nueva
información.

Sensor 1 Nivel 2
Nivel 1
Evaluación de la
Sensor 2 Situación
PRE- Bases de
ASOCIACIÓN Datos
PROCESADO
de Situación y
Ayuda a la
SEGUIMIENTO Decisión
Nivel 3

Evaluación de la
Sensor N
IDENTIFICACIÓN Peligrosidad

96
Figura 3: Arquitectura del centro de fusión.

El modelo de arquitectura del centro de fusión presentado se obtiene centrándose


fundamentalmente en los resultados que se producen. La generalidad de estos datos
aumenta a lo largo del proceso partiendo de una información concreta sobre la posición e
identidad de un blanco hasta llegar a la consideración de la peligrosidad del entorno global
que rodea el sistema. La arquitectura se estructura en tres niveles denominados :
• Procesado numérico de pistas.
• Evaluación de la situación (Situation Assesment).
• Evaluación de la peligrosidad (Threat Assesment).

En el primer nivel el procesado de la información se realiza mediante cálculos


numéricos, mejorando la información del blanco mediante la fusión numérica de los datos de
cada sensor. En los dos niveles siguientes se exige al sistema una evaluación subjetiva del
entorno en el que se encuentra, por lo que el procesado de la información se realizará
mediante técnicas de razonamiento simbólico.

Nivel 1 de la Fusión de Datos

En el primer nivel de la arquitectura se procesan los datos numéricos recibidos de los


distintos sensores. En este nivel se realiza el seguimiento y la identificación de los blancos a
partir de los datos de seguimiento e identificación reportados por los radares. El resultado del
proceso proporciona los parámetros cinemáticos y la estimación de la identidad de los blancos
que se encuentran en la zona extendida de cobertura, denominada así por ser la superposición
de las zonas de cobertura de los distintos sensores. Existen diversos diseños de arquitecturas
para representar el proceso de fusión a este nivel, (Blackman: 1986), (Reiner: 1985), (Yannone:
1985), (Waltz y Llinas: 1990). En general se puede decir que todos estos diseños se pueden
resumir en tres arquitecturas, como puede verse en la Figura 4, claramente diferenciadas:
• Centralizada. En este tipo de arquitectura el centro de fusión recibe el conjunto de
medidas sin procesar. Únicamente el centro de fusión realiza el proceso de filtrado
y de clasificación. El proceso de fusión se realiza a nivel de medida. La ventaja de
esta arquitectura es que permite optimizar la estimación de la posición para
cualquiera que sea la varianza en la medida del sensor. El problema es la
necesidad de un ancho de banda muy grande, necesario para la transmisión de
97
una gran cantidad de medidas por parte de todos los sensores, y un procesador
central muy potente, capaz de procesar toda la información recibida en tiempo real.
• Autónoma. En esta arquitectura cada uno de los sensores realiza el filtrado y la
clasificación de las pistas que aparecen en su zona de cobertura enviando al centro
de fusión la información de las pistas. En el centro de fusión se procede a fusionar
esta información. El proceso de fusión se realiza a nivel de pista. La ventaja
fundamental de esta arquitectura reside precisamente en el procesado distribuido
de los datos, que permite ajustar cada procesado a las particularidades específicas
del sensor y además descarga de trabajo al procesador central. La desventaja
fundamental es la disminución de la precisión de los datos fusionados.
• Híbrida. Esta arquitectura resulta de la combinación de las dos anteriores,
realizando el centro de fusión tanto la fusión a nivel de medida como a nivel de
pista, pudiendo seleccionar una u otra según el escenario. Las ventajas y
desventajas son la unión de las vistas para las anteriores arquitecturas.

a)
Sensor 1 Preproceso
CENTRO DE FUSIÓN
Sensor 2 Preproceso
ENVENTANADO ASOCIACIÓN FILTRADO

Sensor N Preproceso

b)
Sensor 1 Preproceso Seguimiento
CENTRO DE FUSIÓN
Sensor 2 Preproceso Seguimiento
ENVENTANADO ASOCIACIÓN FILTRADO

Sensor N Preproceso Seguimiento

c)
Sensor 1 Preproceso Seguimiento
CENTRO DE FUSIÓN
Sensor 2 Preproceso Seguimiento
ENVENTANADO ASOCIACIÓN FILTRADO

Sensor N Preproceso Seguimiento

SELECCIÓN
MUX Y
MEZCLA

Figura 4: Arquitecturas para la fusión de pistas: a) Centralizada, b) Autónoma y c) Híbrida.

Existen, asímismo, numerosos algoritmos para realizar el procesado numérico


necesario (Blackman: 1986) para la asociación, predicción y filtrado de pistas así como para

98
su clasificación. Cada uno de ellos es óptimo para una determinada situación. Se han
desarrollado sistemas basados en el conocimiento que permiten la elección de estos
algoritmos en función de la situación en la que se encuentra el sistema.

Nivel 2 de la Fusión de Datos. Establecimiento de Relaciones entre los distintos


Blancos.

En el nivel de evaluación de la situación, el centro de fusión genera información


acerca del entorno en el que se encuentra el sistema. Esta información se obtiene a partir de
los datos cinemáticos y de identidad obtenidos en el primer nivel de la fusión y de
información colateral como por ejemplo: evaluaciones de fuerzas enemigas, meteorológicas,
del terreno, socio-políticas, etc.

Para el nivel de evaluación de la situación no se pueden describir un conjunto de


arquitecturas posibles debido a la falta de definición de los conceptos a incluir en la función de
evaluación (Waltz y Llinas: 1990). En general las funciones incluidas, que se muestran en la
Figura 5, reflejan el contexto físico a través de informaciones meteorológicas y de terreno, el
contexto social a través de informaciones políticas y de costumbres, y el contexto estratégico a
través de informaciones obtenidas por los centros de inteligencia y el conocimiento de las
estrategias del enemigo.

Evaluación de la Situación

Evaluación de Contramedidas

Análisis de Perspectivas

Información del Información Socio- Información del


Enemigo Política Entorno Físico

FUENTES FUENTES

Reconocimiento de Central de Bases de Datos Bases de Datos de Información


Doctrina Enemiga Inteligencia sobre las Fuerzas Terreno Metereológica
Enemigas

Figura 5: Funciones para la evaluación de la situación.

99
La parte central de la función de evaluación es la consideración de distintas
perspectivas sobre la disposición de las fuerzas en el entorno basándose en los datos. Cada
uno de los puntos de vista formula una estrategia de batalla. La formulación se apoya en los
datos, de manera que por un lado es capaz de reflejar la verdadera situación en la que se
encuentra el sistema y por otra predecir cuáles van a ser las actividades futuras de las
fuerzas enemigas. La función de evaluación debe ser capaz de definir lo que ocurre y lo que
va a ocurrir, es decir, se encuentra centrada en aspectos de comportamiento, presentes y
futuros, del enemigo.

Nivel 3 de la Fusión de Datos. Intención de los Conjuntos de Entidades Identificadas

Al igual que ocurre con el nivel anterior, este nivel se encuentra definido vagamente,
aunque es usado asiduamente en la literatura (Cowan: 1987), (Dockery: 1982), (Llinas:
1993). La función central de este nivel es la evaluación de las fuerzas, amigas, enemigas y
neutrales, de la manera más cuantitativa posible. La función de evaluación en este caso
debe cuantificar la capacidad, la hostilidad del enemigo y la intención del mismo, así como la
capacidad de respuesta por parte del sistema. Por lo tanto, la evaluación del peligro no se
reduce únicamente a una descripción de las posibilidades de ataque del enemigo sino que
debe evaluar la respuesta apropiada a dicho ataque. La Figura 6 refleja la información sobre
la que se evalúa la capacidad y las intenciones.

Evaluación de la Peligrosidad

De la Evaluación de la
Evaluación de Contramedidas
Situación

Estimación de la Estimación de las


Capacidad del Intenciones del
Enemigo Enemigo

Funciones de Cuenta del Número de Análisis de la Análisis de la


Fuerzas del Enemigo Actividad Destreza

Figura 6: Funciones para la evaluación de la peligrosidad.

Las dos funciones básicas, evaluación de la capacidad y de las intenciones, utilizan


tanto procesos numéricos como razonamiento simbólico. A la hora de evaluar la capacidad
100
de las fuerzas se debe considerar información calculable mediante funciones numéricas
como son: el número de las fuerzas, el tamaño, la estimación de pérdidas, etc. La evaluación
de las intenciones considera información más subjetiva que requiere de procesamiento
simbólico.

1.1 Sistemas de Apoyo a la Decisión basados en el Diagnóstico de la Situación

Como se ha podido observar, la representación del entorno de batalla que se obtiene


mediante un sistema de apoyo a la toma de decisiones no es únicamente el resultado de
fusionar los datos de diversos sensores sino que implica la existencia de información
colateral que es integrada para obtener una imagen completa y comprensible de la realidad.
Una vez alcanzado el nivel 1 de fusión donde se realiza el procesado a nivel básico de los
datos, los siguientes niveles realizan interpretaciones de la realidad enfrentándola con los
datos obtenidos. Este nivel de interpretación es el nucleo del DSS que tiene como objetivos
principales:
• Estimar y agregar las capacidades de las fuerzas (amigas/enemigas). Esta tarea
implica la necesidad de herramientas que permitan realizar una interpretación conjunta de
las diversas unidades que se encuentran desplegadas. Esta interpretación no puede ser
meramente cuantitativa, es decir suma de fuerzas, sino que debe analizar las relaciones
entre las unidades para poder interpretar de forma real la capacidad de las fuerzas.
• Predecir las intenciones del enemigo. Si el punto anterior era más cuantitativo y se
centraba en la estimación de cantidades, situación, movilidad, etc., de fuerzas, este punto
se centra en interpretar dichas magnitudes en términos de la intención de esa disposición.
• Identificar las oportunidades de amenaza. Conjuntamente con los objetivos anteriores,
este objetivo persigue inferir a partir de las capacidades e intenciones predichas cuáles
son los puntos débiles de las fuerzas amigas permitiendo una toma de decisiones
adelantada a los movimientos enemigos.
• Estimar implicaciones. Este objetivo da un paso más realizando estimaciones de
futuro, de cómo va a evolucionar el instante actual y en qué situación nos vamos a
encontrar. De esta manera el decisor humano puede tomar medidas que se adelanten a
las situaciones futuras
• Calcular oportunidades de las fuerzas amigas. Exactamente igual que se han
identificado las oportunidades de las fuerzas enemigas, deben calcularse las
oportunidades de las fuerzas amigas.

101
• Analizar la vulnerabilidad de las fuerzas. Los objetivos anteriores permiten tener una
visión del instante actual y de su posible evolución, a partir de esa información se puede
estimar cuán vulnerable es una fuerza determinada.
• Predecir instantes de los eventos críticos. A partir de descripción de la situación y de
cómo va a evolucionar se podrán identificar eventos que según el resultado puedan
cambiar drásticamente el entorno de batalla. Este objetivo persigue identificar en qué
instantes se producirán dichos eventos.
• Calcular prioridades de los sistemas de amenazas. Uno de los objetivos de la
descripción de la situación debe ser la priorización de todos los resultados obtenidos
anteriormente de manera que una vez que se identifiquen las capacidades de las fuerzas,
sus intenciones, la oportunidad de las fuerzas, estimar las implicaciones, la vulneravilidad
y los instantes de los eventos críticos se tengan priorizados los resultados. Es necesario
filtrar de alguna manera la información al operador y la manera de simplificar toda la
información es determinar que información es más relevante (aquella que representa una
amenaza mayor) para el desarrollo de la batalla.

Todos estos objetivos deben analizarse desde múltiples perspectivas y considerando


diversos enfoques para permitir tener una visión global compuesta de la máxima cantidad de
información obtenida de los sensores y con multitud de posibles interpretaciones sobre lo que
está sucediendo. A modo de ejemplo un sistema de estas características da respuesta a
preguntas del estilo de:
• ¿Qué tipo de unidad se encuentra en una posición determinada?
• ¿Cuándo va a ocurrir el ataque?
• ¿Qué probabilidad existe de que un blanco determinado realice un ataque sobre una
posición determinada?
• ¿Qué tipo de ataque se va a producir?
• ¿Cuándo va a ocurrir un evento determinante?
• ¿Qué importancia para el sistema de vigilancia tiene la ejecución de una tarea de:
búsqueda de nuevos blancos, identificación de un blanco determinado y seguimiento de
un blanco determinado?

A modo de ejemplo se va a presentar dos problemas, uno centrado en la identificación de


aeronaves y el otro en el cálculo de la importancia de una aeronave en función de las
intenciones y de su identidad. Una de las tareas típicas en un sistema de diagnóstico es la
identificación. La identificación es un proceso de inferencia que parte de datos básicos de

102
identificación del nivel 1 de fusión y que va agregando información incierta para obtener una
identificación más abstracta pero más útil para el decisor. Las técnicas de identificación son
muy dependientes del sensor que se utilice (Waltz y Llinas: 1990): radar de microondas,
sensores acústicos, sensores de imágenes o sensores cooperativos. Un radar de
microondas recibe como señal de entrada la reflexión de la energía transmitida, y la
información que puede extraerse de dicha señal incluye:
• información temporal: perfil en distancia de reflectividad electromagnética y amplitud,
• información espectral: espectro doppler y respuesta en frecuencia del blanco,
• información espacial: imagen radar.

En el caso de los sensores cooperativos (IFFN) los blancos cooperan con el sistema de
identificación enviando un identificador de aeronave único, con lo que se obtiene información
directa de la naturaleza del blanco. A partir de los datos obtenidos por los sensores se suelen
utilizar conceptos interrelacionados, como los que aparecen en la figura 7 para obtener una
visión más abstracta (Waltz y Llinas: 1990). El resultado de la clasificación es una probabilidad
(o posibilidad) de pertenencia a cada uno de los tres grupos posibles: amigo, enemigo o
desconocido. La distribución de las probabilidades puede ser utilizada en el sistema de gestión
para la determinación de la prioridad de las tareas de identificación (Chang y Fung: 1997). Las
técnicas más habituales para el desarrollo de estos sistemas son los sistemas basados en el
conocimiento que hacen uso de técnicas de incertidumbre (Clark: 1990), (Dutta: 1985). De
entre ellos cabe destacar los sistemas que utilizan redes bayesianas ya que son los más
utilizados para realizar inferencias sobre identificación de situaciones (Kim y Pearl: 1985).

PISTA

NATURALEZA
DEL BLANCO Desconocido Enemigo Amigo

Bombardero-
CLASE DE Caza Desconocido Transporte Otros
BLANCO

Caza Aire Caza Aire y Bombardero Transporte


Tierra

3
Jet PROP EW C AWACS

BlackJack Bear
TIPO DE BLANCO BackFire
Bison
Badger
Blinder

Figura 7: Árbol de Identificación de aeronaves.


103
Respecto al cálculo de la importancia de una aeronave dentro de un espacio de
cobertura en función de las intenciones de la misma, ésta debe centrarse en el tipo de
trayectoria y en la identidad de la aeronave (Molina, García, Jiménez y Casar: 2003a). El tipo
de trayectoria que describe el blanco, sin considerar la identidad del mismo, debe aumentar
o disminuir la importancia de la tarea de seguimiento sobre el blanco. Se pueden distinguir
tres tipos de situaciones (ver Figura 8):
1. Trayectorias que en principio no son peligrosas pero en las que el blanco realiza una
evolución de su trayectoria que puede interpretarse como hostil. Es el caso de un blanco
que, encontrándose en una zona alejada del radar, se dirige directamente hacia el radar
con una velocidad alta.
2. Trayectorias en las que el blanco se encuentra en las cercanías del radar. Este concepto
se puede extender a blancos que se encuentran en una posición crítica, bien porque se
hayan definido una serie de posiciones prohibidas que determinan un camino fijo a seguir
por los blancos amigos o bien, porque los blancos se encuentren cerca de una posición a
defender, en particular el propio sistema sensor, aunque no se dirijan directamente hacia
ella.
3. Trayectorias que son realmente peligrosas, definidas por las trayectorias típicas de los
misiles, de los vuelos en picado, de los vuelos en formación de un conjunto de blancos o
por la ejecución de un cambio de rumbo sin objetivo aparente.

Trayectoria indiferente a efectos


del cálculo de importancia

Importancia por cercanía RADAR Importancia por


aproximación

Importancia por aproximación


y cercanía

Importancia por
maniobra

Figura 8: Trayectorias posibles de aeronaves.

Estas posibles trayectorias deben combinarse con la identidad del blanco para
obtener la importancia del mismo (Molina, Jiménez y Casar: 1998a). La manera de

104
representar todos los conceptos necesarios y sus relaciones suele ser mediante un árbol
como el mostrado en la figura 9.

Importancia del Blanco

Hostilidad Peligrosidad
Posición
Relativa
Grado de Amistad
Incertidumbre en la
Grado de Amistad
Declaración
Incertidumbre en la
Aproximación Declaración
Diving
Trayectoria
Peligrosa
Incremento de
Altura
Organización Misil Cambio de Incremento de
Rumbo Velocidad
Tamaño
Aproximación
Altura

Figura 9: Importancia de una blanco representada en un árbol.

La existencia de tres tipos de trayectoria debe quedar reflejada en el árbol mediante tres
conceptos distintos:
• Acercamiento del blanco a una posición defensiva: representada por el concepto
(Aproximación).
• Cercanía a una posición: representada por el concepto (Posición Relativa). Este
concepto informa al sistema de la posición del blanco respecto del sistema sensor y
respecto de la distancia a ciertas posiciones absolutas prohibidas para los blancos.
• Trayectoria desarrollada por el blanco considerada como peligrosa: representada por
el concepto (Trayectoria Peligrosa).

El concepto de (Aproximación) considera la velocidad a la que el blanco se acerca a las


distintas posiciones defensivas, en particular al propio sistema sensor. Esta variable es una
entrada numérica del sistema que debe evaluar numéricamente la velocidad de aproximación
del blanco a una posición. El concepto (Trayectoria Peligrosa) no es una variable calculada a
partir de ningún valor numérico de entrada sino que se encuentra representada por el grado de
posibilidad de que el blanco esté realizando una de las trayectorias definidas como peligrosas:
misil, diving, vuelo en formación y cambio de maniobra La inclusión de la identidad del blanco y

105
de la incertidumbre asociada se realiza mediante los conceptos (Grado de Amistad) e
(Incertidumbre en la declaración).

Para la realización de este tipo de sistemas suelen utilizarse o funciones de utilidad


basadas en funciones matemáticas o sistemas basados en técnicas de inteligencia artificial
como las redes bayesianas, los sistemas expertos o los sistemas borrosos (Molina, Jiménez
y Casar: 1995). Una red bayesiana es un conjunto de nodos interconectados entre los cuales
se propaga la incertidumbre. Los principales puntos de definición de una red bayesiana son
los nodos que representan los conceptos a parit de los cuales se realiza la inferencia y las
conexiones entre ellos que establecen la dependencia entre conceptos. La dependencia
entre conceptos se cuantifica mediante las probabilidades condicionadas que relacionan los
nodos de la red. Cada nodo se define mediante atributos y la matriz de transición entre
nodos refleja las probabilidades condicionadas de un nodo respecto de otro. En la Figura 10
se muestra un ejemplo sencillo de una red con cuatro nodos que se encuentran relacionados
en linea y se muestran también los atributos de cada nodo y las matrices de transición. La
utilización de las redes bayesianas es muy común en los sistemas de diagnóstico, un
ejemplo de aplicación práctica puede verse en (Hudson, Ware, Mahoney y Laskey: 2000).

Tamaño del blanco Grado Ataque


de actividad Cambio en
la Organización

Pequeña Alto Si Seguro


Media Medio No Posible
Alta Bajo Difícil

Alto Medio Bajo Seguro Posible Difícil


Pequeña 0.3 0.4 0.3 Si 0.7 0.2 0.1
Media 0.5 0.3 0.2 No 0.1 0.2 0.7
Alta 0.7 0.2 0.1

Si No
Alto 0.8 0.2
Medio 0.6 0.4
Bajo 0.4 0.6

Figura 10: Ejemplo de red bayesiana.

Los sistemas basados en reglas se definen mediante un conjunto de reglas definidas


mediante una parte de condiciones y otra de acciones (SI <la condición es verdad>
ENTONCES <realizar tal acción>) (González y Dankel: 1993). Cuando una regla se activa
(sus premisas son verdaderas) envía como salida la acción correspondiente. Los sistemas
de reglas tienen el problema de las bruscas transiciones que aparecen en los extremos de
106
los intervalos de definición de los conceptos de las condiciones. Este problema se soluciona
con la introducción de incertidumbre en el sistema que permite definir de forma borrosa y por
lo tanto continua la transición de unos conceptos a otros.

La base de reglas en un sistema de razonamiento borroso es esencialmente la misma


que en cualquier otro sistema de razonamiento. Las reglas borrosas se representan
mediante sentencias SI-ENTONCES. Una sentencia a partir de la verdad de sus premisas
establece la verdad de sus conclusiones. En un sistema borroso se incluyen los conceptos
referentes a la incertidumbre mediante la inclusión de variables lingüísticas, definidas por
conjuntos borrosos, que pueden verse como grado de verdad o como la función de
distribución de posibilidad de que un elemento del conjunto distancia pertenezca a esa
variable (Zadeh: 1988). Esa función es lo que se denomina función de pertenencia, y el
grado de verdad o posibilidad se denomina grado de pertenencia. Para el desarrollo de un
sistema de razonamiento borroso se deben definir los conceptos anteriormente expuestos, y
las particularidades de los datos sobre los que vamos a trabajar. En particular (Zimmermann:
1990):
• Se definen las variables de entrada y salida (Variables Lingüísticas).
• Se expresan mediante conjuntos borrosos (Funciones de Pertenencia).
• Se diseña la base de reglas.
• Se determina el modo de aplicación de las reglas.
• Se fija la manera de obtener una salida concreta a partir de su definición borrosa.

En sistemas de diagnóstico se emplea cualquiera de las técnicas comentadas y muy


habitualmente se utilizan de forma conjunta utilizando la técnica más apropiada para cada
problema concreto.

1.2 Sistemas de Diagnóstico de la Situación y Gestión de Sensores

En una red de multisensores, además de las ventajas obtenidas mediante la integración


de información proveniente de diversas fuentes, debe considerarse la posibilidad de
coordinar todos los sensores para optimizar la respuesta global del sistema. Las funciones
que pueden ser gestionadas para un sensor genérico son (Waltz y Llinas: 1990):
• Gestión espacial. En este caso la gestión se realiza sobre la dirección a la que debe
ser dirigido el haz de la antena. También puede delimitarse el área, dentro del área de
cobertura total, sobre la que debe trabajar el sensor.

107
• Gestión de modo. Para aquellos sensores que permiten varios modos de operación es
posible determinar en cuál debe funcionar. De esta manera se determinan niveles de
potencia, formas de onda y técnicas de procesado.
• Gestión temporal. A la hora de sincronizar el funcionamiento de los distintos sensores
puede ser necesario relacionar temporalmente los eventos entre ellos. Así por
ejemplo, la iluminación de un blanco puede realizarse en distintos instantes desde
cada sensor, de manera que la información no llegue al mismo tiempo al centro de
fusión.
• Gestión de datos a comunicar. Desde el gestor se puede determinar el tipo de
información que se desea envíe el sensor. Puede solicitarse información sobre las
pistas, como características cinemáticas o identificación de los blancos, sobre las
características físicas del sensor, como rango, máximo/mínimo del radar, o sectores
en los que se haya dividido el área de cobertura, y sobre los propios blancos, como
puede ser la prioridad en el caso de un radar multifunción que utiliza una priorización
de tareas para realizar la gestión del sensor.

El criterio de gestión se define de manera que se utilicen los sensores de forma óptima
para una determinada aplicación. El criterio de optimización se define en función de la
aplicación. El funcionamiento del gestor se basa en parámetros cuantificables como son:
probabilidad de detección, calidad de las pistas, identificación de los blancos, etc. Una de las
ventajas de la gestión coordinada de sensores es la posibilidad de establecer
comunicaciones entre los sensores, de manera que la información de un sensor fluya hacia
otro. En este sentido es necesario implementar un sistema que permita por un lado emplear
las detecciones realizadas en un sensor para dirigir la atención de otro sensor hacia ese
blanco, es lo que se denomina cueing, y por otro trasladar tareas desde un sensor hacia
otro, es lo que se denomina hand-off, (Bar-Shalom: 92). Estas dos operaciones son
necesarias en una serie de situaciones tácticas donde la comunicación entre los sensores
agiliza el proceso global de vigilancia del sistema, como son:
• Un blanco que se encuentra en el límite de la zona de cobertura de un radar y se va a
salir de la misma. En este caso el sensor puede transmitir a los radares, en cuya
cobertura va a entrar, las coordenadas del blanco de manera que el proceso de
seguimiento global sea continuo, sin necesidad de reiniciar la pista en los radares
donde aparece como nuevo blanco.
• Un sensor que únicamente es capaz de adquirir información limitada de un blanco,
por ejemplo sólo es capaz de realizar seguimiento pero no identificación, puede

108
realizar una petición a otro sensor más complejo, por ejemplo con capacidad para
realizar la identificación, para que le proporcione información de la que el carece.
• Un blanco que se encuentra en la zona de intersección de dos radares y está siendo
iluminado por uno de ellos puede ocultarse de dicho radar mediante contramedidas
electrónicas. Esto puede ser evitado mediante la petición, al otro radar, de la
ejecución de la tarea que anteriormente estaba realizando el radar inutilizado, y así el
sistema global no pierde la información del blanco.

Los procesos involucrados en la gestión del sistema dependen de las posibilidades de


gestión de los sensores y de la arquitectura del sistema. En general la arquitectura
implementada para la gestión coordinada se basa en la centralización de todas las
decisiones en el centro de fusión por ser éste el sistema con mayor información y por lo
tanto con capacidad de tomar decisiones que engloban a todos los sensores del sistema
(Leon y Heller: 1978). La existencia de sensores inteligentes capaces de desarrollar su
propio esquema de toma de decisiones abre la posibilidad de acometer la arquitectura desde
otro punto de vista, una arquitectura descentralizada. Este tipo de arquitecturas puede
aplicarse de forma directa sobre una red de sensores ya que la propia red es distribuida
espacialmente (Wesson: 1988). Un sistema multisensor es por propia definición un sistema
distribuido ya que existe una distribución:
• Espacial, ya que cada uno de los nodos de la red de vigilancia se encuentra en una
situación física distinta.
• De información, ya que la información es interna a cada nodo, de manera que no toda
la información es común a todos los nodos. La información más completa de la
situación global se encuentra localizada en el centro de fusión, pero en cada sensor
se encuentra la información local necesaria para la ejecución de cada tarea.
• De toma de decisiones, ya que la decisión última sobre la tarea a realizar es siempre
interna al sensor que en función de su situación interna ejecuta las tareas. Las
decisiones que involucran a todo el sistema no se toman en un único punto sino que
aparecen como agregación de todas las decisiones locales a los sensores. El proceso
de toma de decisiones en el sistema es tanto más distribuido cuanto mayor es la
capacidad de decisión existente en cada nodo de la red, desde organizaciones
centralizadas a descentralizadas.

Las arquitecturas de gestión que se pueden desarrollar sobre un sistema multisensor se


diferencian básicamente en la capacidad de gestión interna del sensor. No existe una

109
diferenciación exacta entre arquitectura centralizada y descentralizada, ya que el paso de
una a otra es gradual a medida que se dota al sensor de mayor autonomía (Kamel y
Ghenniwa: 1994). En general, se pueden definir los sistemas centralizados como aquellos en
los que las decisiones que afectan a todo el sistema se toman en un único nodo y los
descentralizados como aquellos donde estas se toman entre todos los nodos sin que exista
una supeditación de unos nodos a otros.

En los sistemas centralizados, uno de los nodos es el líder del grupo, las decisiones
fluyen desde él al resto de nodos y son aceptadas en el proceso de decisión de cada nodo.
Este es el caso de redes multisensores donde los sensores tienen una capacidad limitada en
la toma de decisiones. Esta limitación conduce a la existencia de un nodo que toma las
decisiones que afectan a todo el sistema, el centro de fusión, que debe realizar un gasto de
recursos en la evaluación del entorno al sistema, calculando la importancia de las tareas de
sistema, y la posterior asignación de tareas a sensores, en función de la capacidad y la
importancia que representa cada tarea para cada sensor. En este caso, el centro de fusión
informa a cada uno de los sensores de las tareas que debe realizar, asignándoles un grado
de importancia que cada sensor aplicará a la hora de ejecutar las tareas.

A medida que se permite a los sensores una mayor capacidad de autonomía y por lo
tanto se les dota de una mayor capacidad para la toma de decisiones, resulta menos
necesario centralizar la toma de decisiones del sistema en un punto. Esta autonomía
redunda en la arquitectura de gestión al permitir que las decisiones se tomen mediante la
puesta en común de decisiones locales (Molina, Jiménez y Casar: 1998b). En cualquier
caso, el centro de fusión será siempre el nodo que posea la información más completa del
entorno y por lo tanto el más influyente en la red. Este tipo de arquitecturas descentralizadas
es a lo que se denomina arquitecturas multiagente (Molina, García, Jiménez y Casar:
2003b).

Gestión Centralizada en el Centro de Fusión

El objetivo último de la gestión en un entorno de vigilancia mediante sensores activos


es la consecución, mediante la coordinación, de un máximo en una función objetivo que
incluye las características buscadas para el sistema completo respecto a detección,
seguimiento e identificación. En esta arquitectura, el gestor se encuentra situado en el
centro de fusión ya que es en este sistema donde se encuentra centralizada toda la
110
información del sistema. Por un lado se encuentra la información cuantitativa de los blancos
y los sectores, resultado de aplicar la fusión sobre los datos suministrados por los sensores,
y por otro la evaluación de la situación y del peligro en que puede encontrarse el sistema. En
la gestión centralizada todas las decisiones se toman en el centro de fusión y se envía a
cada sensor la tarea que debe realizar con los parámetros adecuados. La capacidad de
decisión del sensor queda limitada a la gestión de sus recursos físicos para satisfacer las
tareas que le han sido asignadas.

La asignación de las tareas a los sensores, así como la búsqueda de los parámetros con
los que debe realizarse ha sido enfocada desde distintas perspectivas (Blackman: 1986),
(Waltz y Llinas: 1990), (Bar-Shalom: 1992). En todas ellas el sistema gestor debe realizar el
cálculo de la prioridad de la tarea de sistema y, partiendo de esa prioridad y de la estimación
de carga de los sensores, realizar un reparto de tareas a sensores. En este caso es el gestor
el sistema encargado de realizar la coordinación entre sensores mediante la asignación de
los blancos existentes y de los sectores a sensores de la red. De forma genérica las
funciones que realiza el gestor centralizado son:
• Evaluación de blancos y sectores. Para poder realizar una asignación de los recursos
del sistema global el gestor de coordinación debe realizar un cálculo sobre la
importancia relativa para el sistema de cada blanco y zona del espacio. Para realizar
este cálculo la función evaluará la situación actual y la futura de cada blanco y zona,
obteniendo como resultado la posibilidad de que ocurra algún evento o el peligro que
puede conllevar.
• Predicción de eventos. A partir del conocimiento de la situación actual y de las
posibles decisiones que pueden tomar los blancos se pueden predecir las situaciones
futuras, permitiendo al sistema adelantar la respuesta. En este caso, mediante la
función de predicción se adelanta el sistema al entorno.
• Predicción de la situación de los sensores. La posibilidad de realización de tareas por
parte de un sensor debe ser predicha antes de la asignación de una tarea a dicho
sensor. El gestor de coordinación debe gestionar los recursos de manera que las
tareas sean realizadas por aquellos sensores que tengan más posibilidades de éxito
en la realización de esa tarea, ya sea por la disponibilidad del sensor o por la
capacidad del mismo.

111
Las funciones anteriormente descritas proporcionan al gestor los datos adecuados
mediante los cuales distribuir las tareas entre sensores. La función de asignación debe
asegurar:
• El seguimiento de todos los blancos que se encuentren en el espacio vigilado por la
red de sensores.
• La vigilancia de todos los sectores garantizando una determinada probabilidad de
detección.
• El mantenimiento y actualización de las pistas formadas, de una manera continua y
con una determinada calidad.
• El control de la cantidad de energía radiada al espacio de manera que se evite la
detección de los sensores por los blancos, es decir, realizar un control de las
emisiones de los radares.
• La reducción de la ambigüedad en la identidad de los blancos llegando, en el límite, a
la clasificación de los mismos.

El problema de la asignación ha sido visto por algunos autores (Waltz y Llinas: 1990)
como un problema de transporte o asignación y resuelto con técnicas de investigación
operativa. Para aplicar técnicas de programación lineal es necesario definir el problema
mediante una función objetivo lineal que debe ser maximizada o minimizada y que
representa el beneficio de la elección de un conjunto de asignaciones tarea-sensor. Así
mismo, se deben definir un conjunto de restricciones sobre los sensores y considerar que los
recursos de los sensores son finitos y cuantificables. Sobre cada sensor se define un valor
de coste asociado a la realización de cada tarea, este coste está relacionado con la
capacidad de cada sensor. El coste total de las tareas asociadas a cada sensor no debe
superar un límite relacionado con la capacidad máxima del sensor. Además de la restricción
sobre el coste máximo, para cumplir con las premisas de cobertura total de blancos y
sectores, es necesario que cada tarea sea asignada al menos a un sensor. Con estas
definiciones es posible generar una matriz donde se consideran las tareas, los sensores, los
costes de asociación de cada tarea a cada sensor, las restricciones sobre el total de costes
asociados a un sensor y la restricción sobre cobertura total de las tareas.

Una vez formulado el problema individualmente para los sensores, se debe considerar la
posibilidad de asignación múltiple, es decir, que una tarea de sistema sea realizada
mediante la conjunción de varios sensores. Para considerar todas las posibles

112
configuraciones de sensores la matriz anterior se expande, resultando una matriz sobre la
que aplicar un algoritmo que minimice el coste cumpliendo las restricciones.

Otro enfoque distinto se basa en el estudio de la utilidad que para cada sensor
representa la realización de una tarea concreta (Bar-Shalom: 1992), (Manyika y Durrant-
Whyte: 1994). En (Manyika y Durrant-Whyte: 1994) la gestión de los sensores se lleva a
cabo buscando la maximización de la utilidad de las acciones a realizar para cada uno de los
sensores. La utilidad de las acciones se calcula basándose en el aumento de información
que se producirá en el sistema al realizar dicha acción, de tal modo que la maximización de
la utilidad conduce a la maximización de la información contenida en todo el sistema. La
arquitectura de este sistema considera que la información se encuentra distribuida entre
todos los nodos y cada nodo toma sus propias decisiones.

En ambos casos el proceso de decisión pasa por la consideración de una cuantificación


numérica de las posibles actividades de los sensores. Esta cuantificación se hace posible en
el primer caso mediante la estimación numérica del coste de la asignación y, en el segundo
caso mediante la medida de la entropía de la información del sistema. No todas las
informaciones pueden ser reducidas a cantidades cuantificables, de hecho un operador
humano que gestione el sistema evalúa los datos de manera subjetiva. Para poder replicar el
proceso de razonamiento de un experto en este tipo de problemas, las técnicas de
Inteligencia Artificial resultan de gran ayuda, (Luger y Stubblefield: 1993). Sistemas
ayudados de técnicas extraídas de la Inteligencia Artificial pueden encontrarse en (Bar-
Shalom: 1992), (Leon y Heller: 1978). En estos trabajos, la asignación de tareas se ha
llevado a cabo mediante sistemas basados en reglas. La asignación se obtiene directamente
a partir del conjunto de reglas, es decir las reglas contienen la información necesaria para
realizar la gestión de la asignación de tareas a sensores.

Gestión Descentralizada

Considerando sensores con capacidad de decisión local, el problema de gestionar una red
de sensores heterogéneos distribuidos espacialmente se puede caracterizar por las siguientes
particularidades (Molina, García, Jiménez y Casar: 2003b):
• Existe un conjunto de objetos moviéndose en el entorno. Se considera la posibilidad
de que los sensores puedan moverse también.

113
• De cada objeto se obtiene una información distinta en cada uno de los sensores, bien
porque los sensores son distintos y captan una información distinta, bien porque la
situación física de los sensores hace que algunos detalles sean captados de forma
distinta por sensores del mismo tipo colocados en diferentes posiciones.
• Cada sensor se encuentra explorando una parte del espacio por lo que recibe una
parte de la información contenida en el espacio global de vigilancia. El nodo de fusión
de datos recopila toda la información y debe obtener a partir de las informaciones
parciales la visión global más completa posible.
• El entorno vigilado cambia a gran velocidad por lo que la información recibida ha de
ser procesada y se debe tomar una decisión rápidamente, ya que los datos, pasado
cierto tiempo, dejan de ser válidos/útiles.
• Se debe tratar de restringir lo más posible la cantidad de datos que se comunican
entre sí los distintos nodos, tratando de transmitir la información más relevante para
evitar redundancias innecesarias y costosas.
• El escenario de operación contiene una gran cantidad de datos que son necesarios
para la toma de decisiones.
• Cada sensor hace uso de su inteligencia local para la toma decisiones. Estas
decisiones se basan en los datos de la cobertura explorada por el sensor y en las
informaciones suministradas por otros nodos.

Los sensores dotados de sistemas de representación del conocimiento complejos propios


pueden considerarse como sistemas con capacidad para autogestionarse por lo que, el
problema de la gestión se puede abordar desde una perspectiva de cooperación
coordinada/negociada entre los sensores (Molina, Jiménez y Casar: 2001). En este caso, el
problema se puede plantear como un objetivo (el de la representación del entorno del sistema
global) que no puede ser alcanzado por un único sensor y necesita de la colaboración de los
demás para obtener la información que por sí mismo no puede alcanzar (Cammarata, McArthur
y Steeb: 1988). Este es un problema asimilable a los problemas de sistemas multiagentes
cooperantes (Wesson: 1988), cuyas características son:
• Existe una colección de agentes, definido cada uno de ellos por sus propias
habilidades: adquisición de datos, comunicación, planificación y actuación.
• El conjunto de todos los agentes tiene asignada una misión. La misión puede
descomponerse en diferentes tareas independientes, de forma que se puedan
ejecutar en paralelo. El conjunto de agentes debe ser capaz de asignarse las tareas

114
apropiadas a cada uno en función de la adecuación del agente a esa tarea y la
realización de la misión en común.
• Cada agente tiene un conocimiento limitado. Esta limitación puede ser tanto del
conocimiento del entorno, como de la misión del grupo, como de las intenciones de
los demás agentes a la hora de realizar sus propias tareas.
• Cada agente tiene una mayor facilidad para hacer determinadas tareas, en función de
lo que conoce, la capacidad de proceso y la habilidad requerida.

La distribución de las decisiones entre los distintos nodos de la red fundamentalmente


permite:
• Mantener la autonomía de cada nodo de la red. Los nodos no dependen de la
comunicación con otros nodos para realizar una priorización de las tareas de sensor.
Cada uno de los nodos decide en función de su propio entorno las tareas más
relevantes.
• Las decisiones internas se toman individualmente con los datos internos propios del
nodo. No es necesario que toda la información del sistema se encuentre en un único
nodo.
• Se descarga al centro de fusión de la gestión de todo el sistema a nivel de sensor. En
el centro de fusión se pueden tomar decisiones que involucran a todos los sensores e
incluso planificar de manera coordinada un conjunto de tareas. El proceso de
comunicación deberá atender a estas necesidades dotando de especial importancia a
algunas de las decisiones del centro de fusión, pero la mayoría de las decisiones
deberán ser consensuadas entre los nodos y no determinadas a priori.
• En el centro de fusión no es necesario mantener una información pormenorizada de
qué sensores ejecutan qué tareas. Únicamente se lleva a cabo una supervisión de los
objetivos globales, actuando allí donde es preciso, y dejando a los propios sensores la
configuración de la ejecución compartida entre sensores de una tarea de sistema.
• La cooperación entre los distintos nodos se realiza de manera explícita mediante la
comunicación de las necesidades de cada nodo.
• La organización entre los nodos es dinámica, lo que permite una rápida adecuación
de los nodos a la situación real de todo el sistema.
• La información no estará centralizada en un único punto lo que hace que el sistema
sea más robusto frente a situaciones de fallos y contramedidas.

115
Una arquitectura multiagente permite gestionar una red de sensores inteligentes sin la
necesidad de centralizar en un único punto el sistema gestor. La comunicación de las
decisiones entre nodos provocará que la solución global sea encontrada mediante sucesivas
propuestas en el tiempo (Molina, Jiménez y Casar: 1998b). En el problema de coordinación
de agentes, tan importante es el proceso de razonamiento interno como el proceso de
comunicación. El proceso de razonamiento interno consistirá en la toma de decisiones y en
la determinación de la información que debe ser compartida. El proceso de comunicación
debe prefijar cómo y cuando debe producirse la comunicación entre los nodos. El proceso de
comunicación en arquitecturas más centralizadas se limita a comunicar cada sensor con el
centro de fusión. De este modo, la única comunicación posible entre los sensores se
produce a través del centro de fusión. En la gestión descentralizada, sin embargo, cada
sensor es capaz de gestionar la información que recibe, bien del centro de fusión, bien de
otro sensor. Es decir, se establecen comunicaciones entre los sensores de manera que
pueden tomarse decisiones entre los sensores en las que no toma parte el centro de fusión.

La definición de las tareas en una arquitectura multiagente es igual que en aquellas con
un grado mayor de centralización, existen tareas de sistema y de sensor. Las tareas de
sistema son aquellas tareas que deben ser realizadas mediante la cooperación de varios
sensores, mientras que las tareas de sensor son las internas a cada sensor. Cuando se
trabaja con agentes, las tareas de sistema pueden ser enviadas por cualquier nodo cuando
este infiere la necesidad de realizar una tarea de forma colectiva. Aunque el centro de fusión
tiene la visión más completa del problema no se restringe al centro de fusión la capacidad de
decidir las tareas de sistema.

En resumen, la comunicación, el qué y el cómo, entre los diversos agentes es muy


importante a la hora de definir un sistema multiagente. En el caso de los multisensores toda
la información que se puede transferir entre los nodos de la red es de dos tipos: de bajo
nivel, numérica, resultado de las tareas de sensor correspondientes (medidas) o datos
internos del sensor; de alto nivel, negociación de tareas (peticiones/aceptaciones para/de la
realización de tareas de sistema) o evaluación de la situación del sensor (Molina, Matellán y
Fernández: 1996), (Molina, Matellán y Sommaruga: 1996).

1.3 Sistemas de Apoyo a la Decisión para la Generación de Planes

116
Los sistemas de Apoyo a la Toma de Decisiones para la generación de planes se
centran en reproducir el proceso de toma de decisiones de un usuario para generar alternativas
y analizar la bondad de dichas alternativas. Para poder reproducir el proceso de decisión debe
analizarse en primer lugar qué pasos tienen lugar en la toma de una decisión por parte de un
ser humano para valorar cuáles de estos pasos son susceptibles de ser apoyados mediante un
sistema software. En general podemos decir que el proceso de decisión se compone de varios
pasos (Marakas: 2003):
• El primer paso está relacionado con la generación de un estímulo que recibe el
decisor y que genera en éste la idea de que debe tomar una decisión. Este estímulo
se genera a partir de las oportunidades que se pueden alcanzar en un momento
determinado si se toma una decisión o de las amenazas que se producen en el
entorno.
• El segundo paso del proceso está relacionado con el sujeto que debe tomar la
decisión. El decisor estará sujeto a una cierta presión externa a través del entorno de
trabajo, de la importancia (costes/beneficios) de la decisión. Además deben
considerarse los valores personales del decisor que delimitan el planteamiento del
problema inicialmente.
• El tercer paso podemos denominarlo “definición del problema”. En este paso el
decisor define la decisión que debe tomar en términos cuantitativos considerando los
costes de la decisión y los riesgos en los que se incurre.
• El cuarto paso se centra en la selección de alternativas. La definición del problema
genera diversas posibles decisiones a tomar que se representan mediante
alternativas. Estas alternativas deben evaluarse a la luz de la estrategia seguida por
el decisor, a la originalidad del mismo, a la creatividad, etc.
• Por último se realiza la implementación de la decisión que ha recibido la mejor
evaluación en el proceso anterior. La implementación de la decisión debe somertese
a un proceso de evaluación y control mientras dura el desarrollo de la misma.

En este proceso de toma de decisiones aparecen diversas dificultades que convierten


dicho proceso en un problema para el decisor humano. Habitualmente la decisión se
fundamenta en un conjunto de datos no estructurados y difíles de medir y cuantificar. Sobre
estos datos el decisor debe aplicar una estrategia no estructurada, de manera que no es
posible seguir un conjunto de pasos que conviertan al proceso de toma de decisiones en un
algoritmo. Además de la imposibilidad de formalizar el algoritmo de decisión, las personas
tienen limitaciones cognitivas que impiden que se puedan utilizar más de 10 conceptos en el

117
proceso de decisión. En muchos problemas el número de variables es mucho mayor de 10
por lo que se procede a realizar una jerarquización mental de los conceptos de manera que
se van agrupando y limitando en cada uno de los niveles de decisión. El ser humano no sólo
está limitado por la capacidad en el número de conceptos a manejar sino que la información
sobre la que trabaja es incierta y al mismo tiempo son inciertos los resultados que pueden
obtenerse de cada una de las alterntivas, lo que produce una evaluación limitada de cada
una de ellas y genera un problema de incertidumbre en el proceso de decisión. Por último, el
decisor debe enfrentarse a un problema en el que existen múltiples alternativas y múltiples
objetivos que deben ser evaluados y perseguidos en paralelo.

Frente a estos problemas los Sistemas Soporte a la Decisión en el ámbito del


planeamiento presentan una serie de posibilidades que ayudan al decisor:
• Fusionan y gestionan múltiples fuentes de datos heterogéneas. Toda la información
es integrada en unas estructuras predefinidas que reducen la heterogeneidad pero
que mantienen la cantidad de información almacenada.
• Al ser procesos software pueden generar y explorar múltiples alternativas. El coste
computacional de generar alternativas y evaluarlas es mucho menor en una máquina
que en un decisor humano. Además la máquina puede mantener internamente tantas
alternativas como capacidad tenga el sistema informático en el que se ejecuta.
• Además de generar multiples alternativas, pueden generarlas siguiendo múltiples
estrategias en paralelo. De esta manera exploran múltiples estrategias sobre el
conjunto de las diversas alternativas.
• Guían el proceso de búsqueda de alternativas en función de parámetros objetivos de
manera que se puedan eliminar tendencias introducidas por el propio decisor a la
hora de generar y evaluar posibilidades.
• Al ser sistemas automáticos que utilizan una alta capacidad de cómputo permiten
explorar todo el árbol de alternativas en un tiempo menor que el tiempo requerido por
el decisor humano. De esta manera en sistuaciones donde el tiempo de respuesta es
limitado el sistema explora muchas alternativas de las que puede explorar un decisor
humano en el mismo tiempo.
• La capacidad de exploración de diversas alternativas y de diversas estrategias en un
tiempo relativamente corto evita tomar decisiones precipitadas o intuitivas.

El punto fundamental de los DSS es precisamente la capacidad de exploración de


alternativas y estrategias. Desde un punto de vista del análisis de cómo toma decisiones un

118
ser humano, Simon definió un modelo que distingue tres fases en el proceso de toma de
decisiones:
• La primera denominada inteligencia es aquella en la que el sujeto se percata de la
necesidad de tomar una decisión y donde se define el problema.
• La segunda es la de diseño donde se deben analizar diversas posibilidades de
solución. Es en esta fase donde se realiza la búsqueda de la solución y se explora el
dominio de soluciones mediante la generación de alternativas. En este caso un
decisor humano no tiene más remedio que realizar una búsqueda limitada entre todas
las posibilidades debido a su limitación de proceso de cálculo. La solución de un ser
humano frente a este problema es explorar todas las alternativas dentro de una
realidad limitada. La realidad de esta manera sufre un proceso de simplicación que
permite al ser humano generar y evaluar todas las alternativas.
• La tercera es la de elección de la alternativa que se considera mejor de entre todas
las exploradas.

En esta definición en tres pasos los DSS ayudan al decisor en la segunda fase ya que el
concepto de realidad limitada desaparece y el sistema puede trabajar con la descripción más
completa de la realidad que pueda introducirse en un computador. Esto permite ampliar el
espacio de búsqueda y buscar soluciones inimaginables para el ser humano. Además los
DSS introducen en el sistema una gestión eficiente de la incertidumbre. Es importante
recordar aquí las limitaciones de gestión de la incertidumbre del ser humano, sirva como
ejemplo lo poco intuitivos que resultan conceptos como la probabilidad condicionada, las
probabilidades a priori y el teorema de Bayes. Por último, los DSS, permiten generar
multiples elecciones descartando algunas de ellas, lo cual limita el espacio de soluciones
que en la fase tres del proceso de decisión es sobre el que trabaja el ser humano. La
arquitectura general se muestra en la Figura 11, como se puede observar un DSS se
compone de fundamentalmente de tres bloques: el interfaz, el sistema gestor de datos y
modelos y el sistema de resolución de problemas.

119
Sistema Gestor Interfaz
de Datos
y

USUARIO
Modelos

Base de Datos Técnicas de


(Ficheros, Resolución
Registros, de Problemas
Datos)

Figura 11: Arquitectura general de un DSS.

El sistema gestor de datos es el sistema encargado de la coherencia de los mismos en


la base de datos al mismo tiempo que debe encargarse de la extracción de los datos
necesarios para cada una de las técnicas de resolución. Una base de datos (BD) aparece en
primera instancia como una colección de datos interrelacionados, almacenados en un soporte
físico de gran capacidad, al que pueden acceder muchos usuarios. No obstante tienen que
cumplirse una serie de condiciones para que realmente este almacén de datos se pueda
considerar como una BD. Así en la Base de Datos tienen que evitarse las redundancias lógicas
para que no existan duplicidades innecesarias ni perjudiciales. Es posible, sin embargo, que
por cuestiones de eficiencia en algún caso sea interesante permitir alguna redundancia.
Además, deben servir a múltiples usuarios y a múltiples aplicaciones y tienen que posibilitar
una independencia tanto física como lógica entre los datos y las aplicaciones. La definición y
descripción de los datos contenidos en la BD deben de ser únicas y estar integradas con los
propios datos. Los datos se estructuran mediante un modelo de datos que recogerá la
semántica existente en el mundo real. En la BD cada usuario tiene una vista de aquellos datos
que le son imprescindibles para la aplicación que está ejecutando, siendo el administrador de la
BD el único que tiene acceso a todos los datos.

El modelo de las BD actuales es el relacional desde que en 1970, E. F. Codd


publicara un artículo revolucionario (Codd: 1970) que cambio la filosofía de las bases de
datos. Codd argumentó que los datos deberían relacionarse mediante interrelaciones
naturales, lógicas, inherentes a los datos, y no mediante punteros físicos. Es decir, debía de
existir la posibilidad de combinar los datos de fuentes diferentes, siempre que la información
lógica necesaria para efectuar dicha combinación estuviera presente en los datos. Esto abrió
una nueva perspectiva para los sistemas de gestión de información, ya que las consultas a
las bases de datos no necesitarían, en adelante, limitarse a las interrelaciones indicadas por
120
los punteros físicos. En su artículo, Codd propuso un modelo simple de datos en el que
todos ellos se representarían en tablas constituidas por filas y columnas. A estas tablas se
les dio el nombre matemático de relaciones, y por eso el modelo se denominó modelo
relacional. Codd también propuso dos lenguajes para manipular los datos en las tablas: el
álgebra relacional y el cálculo relacional. Ambos lenguajes soportan la manipulación de los
datos sobre la base de operadores lógicos en lugar de los punteros físicos utilizados en los
modelos jerárquico y en red. Al manipular los datos sobre una base conceptual en vez de
una base física, Codd introdujo otra innovación revolucionaria. En los sistemas de base de
datos relacionales los archivos completos de datos se pueden procesar con instrucciones
sencillas. Sin embargo, los sistemas tradicionales requieren que los datos se procesen de
registro en registro. El enfoque de Codd mejoró enormemente la eficiencia conceptual de la
programación de la base de datos. La manipulación lógica de los datos también hace factible
la creación de lenguajes de interrogación más accesibles al usuario no especialista en
computación. Aunque es bastante difícil crear un lenguaje que pueda ser utilizado por todas
las personas sin considerar su experiencia previa en computación, los lenguajes relacionales
de consulta hacen posible el acceso a las bases de datos para un grupo de usuarios cada
vez mayor.

La publicación de los artículos de Codd, a principios de los años setenta, provocó una
conmoción en la actividad de las comunidades de desarrollo de sistemas de investigación y
de sistemas comerciales, en la medida en que trabajaban para producir un sistema de
gestión de bases de datos relacional. El resultado fue la aparición de sistemas relacionales
durante la última mitad de los setenta que soportaban lenguajes como el Structured Query
Language (SQL), el Query Language (Quel) y el Query by Example (QBE). A medida que los
ordenadores personales se hicieron populares durante los años ochenta, los sistemas
relacionales para ellos también estuvieron disponibles. En 1986, el SQL se adoptó como la
norma ANSI para los lenguajes relacionales de bases de datos. Esta norma se actualizó en
1989 y en 1992. Todos estos desarrollos hicieron avanzar enormemente los sistemas de
gestión de bases de datos y aumentaron la disponibilidad de información en las bases de
datos colectivas. El enfoque relacional ha resultado bastante ventajoso.

Respecto al Interfaz de un DSS éste debe estar guiado por las últimas investigaciones
realizadas en el campo de la interacción hombre-máquina. La interfaz de usuario es el
principal punto de contacto entre el usuario y el ordenador; es la parte del sistema que el
usuario ve, oye, toca y con la que se comunica. El usuario interacciona con el ordenador

121
para poder realizar una tarea. Dependiendo de la experiencia del usuario con la interfaz, el
sistema puede tener éxito o fallar en ayudar al usuario a realizar la tarea. Los ordenadores
hoy en día son utilizados por un amplio abanico de personas para todo tipo de objetivos. Los
DSS son interactivos, interactuando con personas o usuarios que están involucrados en la
resolución de tareas. En estos casos la interfaz persona-ordenador, que también es
conocida como la interfaz de usuario, es normalmente un factor muy importante del éxito o
del fracaso de un sistema interactivo. Hablando estrictamente, la interfaz la componen los
dispositivos de entrada y salida y los programas que la hacen funcionar, pero desde un
punto de vista mas general comprende todo lo que tiene que ver con la experiencia de un
usuario y el ordenador, como el entorno de trabajo, la organización en la que trabaja, el
entrenamiento que ha tenido, la ayuda que recibe, etc. ¿Por qué es tan importante estudiar
la interfaz de usuario? Porque es una parte esencial del éxito de una aplicación interactiva.
Los trabajos realizados por Myers (Myers: 1992) en una encuesta hecha para los
desarrolladores, estiman que alrededor de un 48% del código de una aplicación está
dedicado a la interfaz.

A finales de los años 1970 y principios de los 80, los psicólogos empiezan a interesarse
en los aspectos de procesamiento de la información del diseño de sistemas de información.
Empiezan a aparecer áreas de estudio como la de diseño de menús, que utilizan tópicos
como el de nombres de menús o profundidad versus anchura. A mediados de los 80, la
usabilidad de los sistemas monousuario empieza a hacerse un hueco, como respuesta a la
explosión del PC. Hacia finales de los 80 y en los 90, la tendencia se centra en las potentes
estaciones de trabajo (workstations) multiusuario y en los PC más potentes. Se hace
hincapié en las comunicaciones más avanzadas, en las aplicaciones multimedia, en los
ordenadores multitarea y en la realidad virtual. Para hacer sistemas interactivos hace falta
(Marakas: 2003):
1) Comprender los factores tales como psicológicos, ergonómicos, organizativos y
sociales, que determinan como la gente trabaja y hace uso de los ordenadores.
2) Desarrollar herramientas y técnicas que ayuden a los diseñadores a conseguir que los
sistemas informáticos sean los idóneos según las actividades a las cuales se quieran
aplicar
3) Conseguir una interacción eficiente, efectiva y segura, tanto a nivel individual como de
grupo.

122
Es muy importante comprender que los usuarios no han de cambiar radicalmente su
manera de ser, sino que los sistemas han de ser diseñados para satisfacer los requisitos del
usuario. La interfaz es una superficie de contacto entre dos entidades. En la interacción
persona-ordenador estas entidades son la persona y el ordenador. Una interfaz es una
superficie de contacto que refleja las propiedades físicas de los que interactúan, y en la que
se tienen que intuir las funciones a realizar. Obviamente, aparte de la interacción física entre
usuario y ordenador hemos de añadir un nivel cognitivo referido a que es necesario que el
lado humano comprenda el protocolo de interacción y actúe sobre la interfaz e interprete sus
reacciones adecuadamente. Por último el sistema de resolución de problemas se compone
de un conjunto de técnicas que permiten generar alternativas y evaluarlas. Se puede decir
que es el núcleo inteligente del DSS. Las diversas técnicas que pueden aplicarse se verán
en el apartado siguiente. En resumen podemos decir que las características de los DSS son:
• Se emplean en contextos con información semi o no estructurada.
• Ayudan a tomar decisiones pero no reemplazan al que toma las decisiones.
• Apoyan en distintas fases del proceso de decisión.
• Están bajo el control del usuario.
• Utilizan datos y modelos de la realidad.
• Son interactivos.
• Utilizan procesos iterativos.
• Utilizan múltiples decisiones (dependientes o no).
• Extienden las capacidades de la persona que toma las decisiones.
• Reduce el tiempo consumido.
• Genera alternativas impensables para el usuario.
• Está limitado por el conocimiento que se ha incluido en la herramienta.
• Está limitado por el tipo de proceso con el que funciona.
• No existe un DSS universal.

1.4 Técnicas de Resolución de Problemas para la Generación de Planes

Las técnicas de resolución de problemas son aquellas técnicas que permiten


automatizar para un problema dado la búsqueda de la solución. Cuando se habla de
búsqueda de solución debe aclararse si buscamos una solución que satisfaga unas
determinadas restricciones o si por el contrario buscamos el óptimo para un problema dado.
Supóngase un problema general que pueda definirse mediante un parámetro y tenga una
función de beneficio como la de la figura 12. En este caso el problema de decisión es elegir
123
un valor para el parámetro que, o bien, supere un determinado valor de beneficio, o bien,
sea el que más beneficios da de todos los valores posibles. En el primer caso tenemos un
problema de búsqueda de una alternativa que supere el valor dado, es decir existen infinitas
soluciones posibles y nosotros buscamos una de ellas. En el segundo caso tenemos una
búsqueda del óptimo del problema. Esta diferenciación es importante porque las técnicas
matemáticas en general pueden asegurar optimalidad en la mayoría de los problemas (si
encuentran una solución esta es óptima) pero las técnicas de Inteligencia Artificial, por el
contrario, la optimalidad no está asgurada en la mayoría de las casos y de hecho sólo en
condiciones muy restrictivas es posible asegurar dicha optimalidad.

Restricción

Mejor

Figura 12: Ejemplo de función objetivo y representación de mejor y de superación de


restricciones.

En general, el problema de la toma de decisiones se suele situar dentro de los


modelos de Investigación Operativa. Los pioneros de la IO fueron los científicos ingleses
durante la segunda guerra mundial donde la IO quedaba circunscrita a la planificación de
operaciones militares. La metodología de IO define una seerie de pasos: (1) definición del
problema, donde se describen las alternativas de decisión, se determina un objetivo y se
especifican un conjunto de restricciones, (2) formulación del modelo, donde se traduce el
problema anteriormente definido a un modelo como por ejemplo modelo de colas,
programación líneas, etc. (3) solución del modelo, (4) validación del modelo, (5) cálculo de la
solución. Dentro de la IO se pueden distinguir los modelos deterministas como la
programación lineal, no lineal, entera, combinatoria, dinámica, multiobjetivo, etc. y los
modelos probabilísticos como la programación estocástica, la simulación, la teoría de colas,
la teoría de juegos, etc. Además de los modelos de IO existen otras técnicas que pueden
aplicarse a la resolución de problemas como los modelos de Markov o las técnicas de
Inteligencia Artificial. Dentro de las estrategias de satisfacción de restricciones podemos citar
técnicas como:
• Simulación. Partiendo de la definición de simulación de H. Maisel y G. Gnugnoli:
“Simulación es una técnica numérica para realizar experimentos en una computadora
124
digital. Estos experimentos involucran ciertos tipos de modelos matemáticos y lógicos
que describen el comportamiento de sistemas de negocios, económicos, sociales,
biológicos, físicos o químicos a través de largos periodos de tiempo”, es posible
reproducir experimentos siguiendo diversas alternativas y almacenar aquellas que
cumplen ciertas restricciones.
• Predicción. Los sistemas de predicción se basan en análisis de datos reales pasados
a partir de los cuales crean un modelo matemático o lógico que sirve para realizar
predicciones de los resultados futuros a partir de posibles valores de entrada.
• Análisis “What if?”. La traducción literal de este nombre podría ser “¿Qué pasa
si...?”, es un método de análisis que no es tan estructurado como otros y necesita la
adaptación por parte del usuario al caso particular que se pretende analizar. Como su
nombre sugiere, consiste en cuestionarse el resultado de la presencia de sucesos
indeseados que pueden provocar consecuencias adversas. El método exige el
planteamiento de las posibles desviaciones de los parámetros de una determinada
situación. Evidentemente, requiere un conocimiento básico del sistema y la
disposición mental para combinar o sintetizar las desviaciones posibles, por lo que
normalmente es necesaria la presencia de personal con amplia experiencia en el
problema para poder llevarlo a cabo. El resultado del trabajo será un listado de
posibles escenarios incidentales, sus consecuencias y las posibles soluciones que
cumplen las restricciones.
• Análisis de Markov. Una cadena de Markov es una serie de eventos, en la cual la
probabilidad de que ocurra un evento depende del evento inmediato anterior. En
efecto, las cadenas de este tipo tienen memoria. “Recuerdan” el último evento y esto
condiciona las posibilidades de los eventos futuros. Esta dependencia del evento
anterior distingue a las cadenas de Markov de las series de eventos independientes,
como tirar una moneda al aire o un dado. En los negocios, las cadenas de Markov se
han utilizado para analizar los patrones de compra de los deudores morosos, para
planear las necesidades de personal y para analizar el reemplazo de equipo. El
análisis de Markov, llamado así en honor de un matemático ruso que desarrollo el
método en 1907, permite encontrar la probabilidad de que un sistema se encuentre en
un estado en particular en un momento dado. Algo más importante aún, es que
permite encontrar el promedio a la larga o las probabilidades de estado estable para
cada estado. Con esta información se puede predecir el comportamiento del sistema
a través del tiempo. La tarea más difícil es reconocer cuándo puede aplicarse. La
caracteristica más importante que hay que buscar en la memoria de un evento a otro.

125
El análisis de Markov puede aplicarse si se cumplen las condiciones: las
probabilidades de cambio entre estados deben ser constantes y los estados futuros
del sistema son independientes de los estados pasados, con la excepción del
inmediatamente precedente.
• Análisis de Impacto en el Entorno. Este conjunto de técnicas evalúan el impacto en
el entorno de evaluación de una decisión (que define un conjunto de valores para un
conjunto de parámetros). En este caso el análisis se centra en los cambios que
producen en el entorno las decisiones que se toman.

Dentro de las estrategias de optimización se pueden citar:


• Programación Lineal. Se llama programación lineal al conjunto de técnicas
matemáticas que pretenden resolver la situación siguiente: Optimizar (maximizar o
minimizar) una función objetivo, función lineal de varias variables, sujeta a una serie
de restricciones, expresadas por inecuaciones lineales. Esta técnica cobra
importancia a partir del año 1947 en que aparece el método Simplex, que hoy en día
es de uso corriente (por ejemplo Excel implementa el método Simplex a través de la
herramienta Solver).
• Programación por objetivos o metas. La forma del modelo de programación lineal
sigue siendo la misma en programación por metas, es decir, también se tiene una
función objetivo que optimizar sujeta a una o más restricciones. Sin embargo, dentro
de este marco de referencia se agregarán dos conceptos nuevos. El primero es el de
las restricciones de meta en lugar de las restricciones de recurso. El segundo
concepto es el de rango de prioridad entre las funciones objetivo. Una vez que se
establece un problema en el formato del modelo general de programación lineal, para
obtener la solución puede aplicarse el método simplex modificado solo para tomar en
cuenta las prioridades. La programación por metas es un enfoque para tratar
problemas de decisión que comprenden metas múltiples o inconmensurables, de
acuerdo a la importancia que se le asigne a estas metas. El tomador de decisiones
debe ser capaz de establecer al menos una importancia ordinal, para clasificar estas
metas. Una ventaja importante de la programación por metas es su flexibilidad en el
sentido de que permite al tomador de decisiones, experimentar con una multitud de
variaciones de las restricciones y de prioridades de las metas cuando se involucra con
un problema de decisión de objetivos múltiples.
• Modelos de Colas. La teoría de colas aparece a principios del siglo anterior para
estudiar los problemas de congestión de tráfico que se presentaban en las

126
recientemente inventadas comunicaciones telefónicas. Entre 1903 y 1905, Erlang es
el primero en tratar el tráfico telefónico de forma científica, y establece la unidad de
tráfico telefónico, que recibe su nombre. Posteriormente esta teoría se ha aplicado a
multitud de problemas de la vida real, como el tráfico de automóviles, la regulación de
semáforos en una ciudad, la determinación del número de cajeros en los
hipermercados, o el control de los tiempos de espera de los procesos que acceden al
procesador de un ordenador que trabaja en tiempo compartido. En ingeniería, en la
administración de flujo de trabajo, y en varias otras disciplinas, el modelo de colas
también llamado modelo de eventos discretos es casi sinónimo de la simulación. La
noción de un sistema como “una colección de entidades que actúan juntas para lograr
un conjunto de metas u objetivos” es bastante común, el papel del evento como una
ocurrencia instantánea en el tiempo que altera el estado del sistema no es tan común
en simulaciones. Los modelos de ecuaciones diferenciales son modelos de tiempo
continuos, mientras los modelos de Dinámica de Sistemas y modelos de simulación
microanalíticos proceden en pasos de tiempo discretos y equidistantes. Con cada
evento de paso de tiempo todas las variables de estado del sistema se cambian, y las
mismas funciones de transición de estado son aplicadas. Los elementos más
importantes de un sistema de colas son: las llegadas, la cola, el servicio y la salida.
• Modelos de Transporte. El problema de transporte se presenta con frecuencia
cuando se plantea la distribución (literal o figurativamente) de un bien o servicio, a
partir de lugares de suministro, que llamaremos orígenes y hacia varios centros de
abastecimientos, que llamaremos destinos. Cada origen tiene asociado una oferta,
que es la cantidad de bienes disponibles en el origen, y cada destino tiene asociado
una demanda, que es la cantidad de bienes que deberá recibir el destino. El objetivo
de un problema de transporte consiste en determinar cuántas unidades del producto
deben enviarse de cada origen a cada destino, tal que se minimicen los costos totales
de distribución, no se exceda la capacidad de oferta de los orígenes y se satisfaga la
demanda de los destinos. Un supuesto básico del modelo es que el costo de
transportar unidades desde el origen i al destino j es directamente proporcional al
número de unidades, indicándose con Cij el costo de enviar desde i a j cada unidad.

Las técnicas de Inteligencia Artificial son muy empleadas en DSS y pueden utilizarse
para problemas de optimización (en circustancias muy definidas) o en problemas de
satisfacción de restricciones. Dentro de las técnicas de Inteligencia Artificial pueden citarse:
la planificación, el razonamiento con incertidumbre, los sistemas basados en el

127
conocimiento, las redes de neuronas artificiales, los algoritmos genéticos, etc. Un ejemplo de
uso de algoritmos genéticos y lógica borrosa para generación y evaluación de alternativas
puede verse en (Gonsalves, Cunningham, Ton y Okon: 2000).

Conclusiones

Los sistemas de apoyo a la toma de decisiones (DSS) son herramientas que permiten
al decisor humano tener la información deseada en el momento oportuno para poder decidir.
Dentro de este tipo de sistemas existen dos concepciones extremas, una centrada en la
generación de una imagen fiel de lo que sucede en el campo de batalla que permita al
decisor tomar la decisión de acuerdo a lo que realmente sucede y otra centrada en la
generación de planes de operaciones sin contacto con la realidad. En el primer caso se
habla de los sistemas de diagnóstico de la situación y en el segundo caso de los sistemas de
generación de planes. Los sistemas de generación de planes permiten al decisor considerar
alternativas y estrategias impensables debido a la capacidad de cómputo de los DSS.

Entre los dos extremos existen multitud de sistemas que gestionan tanto la obtención
de una imagen fiel de la realidad como una planificación sobre dicha imagen. Ese es el caso
de (Surdu y Hill: 2000) donde se presenta una aplicación práctica de un planificador
automático que hace uso de las técnicas de simulación para la evaluación de alternativas.
En este trabajo se presenta un sistema con capacidad para integrar los dos tipos de
sistemas vistos, por un lado realiza una planificación de operaciones y genera un conjunto
de planes posibles y por otra parte recoge datos del entorno y va podando aquellas
alternativas que aunque teóricamente eran posibles la realidad ha ido descartando. Sistemas
de este estilo pueden verse también en (Hofmann, McGovern y Whitebread: 1998) y (James,
Sayrs, Subrahmanian y Benton: 1998), en el primero se aplican técnias de Inteligencia
Artificial conocidas como agentes móviles para la adquisición de información de la situación
de batalla y obtener una imagen (digital battlefield), en el segundo sobre la información
fusionada y considerando la incertidumbre de la imagen se aplican técnicas de planificación
espacio-temporal con incertidumbre para generar y evaluar diversas alternativas.

Bibliografía

Bar-Shalom, Y., (1992), Multitarget Multisensor Tracking, Norwood (MA), Artech House Inc.,
Vols. I-II.

128
Blackman, S.S., (1986), Multiple-Target Tracking with Radar Applications, Dedham, (MA),
Artech House.
Blackman S. y R. Popoli, (1999), Design and Analysis of Modern Tracking Systems, Artech
House.
Ballard, D. y L. Ripley, (1994), «A Knowledge-Based Decision Aid for Enhanced Situational
Awareness», Proc. of IEEE DASC 14th, pp. 340-47.
Chang K.C., y R.M. Fung, (marzo 1997), «Target Identification with Bayesian Networks in a
Multiple Hypothesis Tracking System», Optical Engineering special issue on Sensor Fusion.
Clark, T., (1990), «Uncertainty Management in A.I.», A.I. Review, vol 4: nº 2, pp 109-146.
Clark T., y T. Moon, (2000), «Assesing the Military Worth of C4ISR Information». Accesible
en:
www.dodccrp.org/Activities/Symposia/7thICCRTS/2002Presentations/Day4/Track06/1400Ass
essingC4ISR.ppt
Cammarata S.; D. McArthur y R. Steeb, (1988), «Strategies of Cooperation in Distributed
Problem Solving», en Alan H. Bond and Les Gasser (eds.), Readings in Distributed Artificial
Intelligence, Morgan Kaufmann.
Codd, E. F., (1970), «A relational model of data. For large shared data banks», Comm. of the
ACM, vol. 13: nº 6, pp. 377-387.
Cowan, R.A., (1987), «Improving Tracking and Data Fusion through Sensor Management
and Control», Proc. Data Fusion Symposium , pp 661-65.
Dockery, J.T., (1982), «Fuzzy Design of Military Information Systems», International Journal
of Man-Machine Studies, vol. 16, pp 1-38.
Dutta, A., (1985), «Reasoning with Imprecise Knowledge in Expert Systems», Information
Sciences, vol 37, pp 3-24.
Gonsalves P.; R. Cunningham, Ton N., Okon D., (2000), «Intelligent Threat Assesment
Processor (ITAP) using Genetic Algorithms and Fuzzy Logic». Accesible en:
www.cra.com/publications/papers/InfoFusion2000.pdf
González, A. J., y D.D. Dankel, (1993), The Engineering of Knowledge-Based Systems,
Prentice Hall.
García F.; F. Chamorro y J.M. Molina, (2000), Informática de Gestión. Sistemas de
Información, Madrid, McGraw-Hill Interamericana.
Hofmann M.O.; A. McGovern y K. R. Whitebread, (1998), «Mobile Agents on the Digital
Battlefield». http://www.ca.sandia.gov/FIPAPDM/mcgrath.pdf

129
Hudson L.D.; B. S. Ware; S. M. Mahoney y K. B. Laskey, (2000), «An Application of
Bayesian Networks to Antiterrosism Risk Management for Military Planners”. Accesible en:
ite.gmu.edu/˜klaskey/papersAntiterrorism.pdf
James J.; B. Sayrs, V. S. Subrahmanian y J. Benton J., (1998), «Uncertainty Management:
Keeping Battlespace Visualization Honest»,
http://www.atl.external.lmco.com/overview/papers/951-9864a.pdf
Kamel M. y H. Ghenniwa, (1994), «Coordination of Distributed Intelligent Systems», en
Aminzadeh and Jamshidi (ed.), Soft Computing, Prentice Hall.
Kim J.H., Pearl J., (1985), «A Computational Model for Causal and Diagnostic Reasoning in
Inference Systems», en Proc.of the 8th International Joint Conference on Artiticial
Intelligence, Karlsruhe, pp. 190-193.
Laurence, J.D., y T. D. Garvey, (1983), «Evidential Reasoning: an Implementation for
Multisensor Integration», Tech Note 307.
Leon, B.D., y P. R. Heller, (1978), «An Expert System and Simulation Approach for Sensor
Management and Control in a Distributed Surveillance Network», Applications of Artificial
Intelligence V, Proc. SPIE, vol. 786, pp 41-50.
Luger, G. F., y W. A. Stubblefield, (1993), Artificial Intelligence: Structures and Strategies for
Complex Problem Solving, Benjamin/Cummings.
Llinas, A., (1993), «Blackboard Concepts for Data Fusion Applications», International Journal
of Pattern Recognition and Artificial Intelligence, vol 7: nº 2, pp 285-308.
Marakas G. M., (2003), Decision Support Systems in the 21th Century, Prentice-Hall.
Manyika J., y H. Durrant-Whyte, (1994), Data Fusion and Sensor Management a
decentralized information-theoretic approach, Ellis Horwood.
Molina, J.M.; J. García, F. J. Jiménez y J. R. Casar, (2003a), «Surveillance Multisensor
Management with Fuzzy Evaluation of Sensor Task Priorities», Engineering Applications of
Artificial Intelligence. In press.
Molina Molina, J.M.; J. García, F. J. Jiménez y J. R. Casar, (2003b), «Cooperative
Management of a Net of Intelligent Surveillance Agent Sensors», International Journal of
Intelligent Systems. In press.
Molina, J.M.; F. J. Jiménez y J. R. Casar, (2001), «Negotiation in a MultiAgent System of
Surveillance Sensors based on Fuzzy Priorities”, en 4th International Conference on
Information Fusion, Fusion 2001, Montreal, pp. 25-32.
Molina, J.M.; F. J. Jiménez y J. R. Casar, (1995), «Fuzzy Reasoning for Multisensor
Management», en Proc. of IEEE International Conference on Systems, Man and
Cybernetics, Vancouver, vol. 2, pp. 1398-1403.

130
Molina, J.M.; F. J. Jiménez y J. R. Casar, (1998a), «Fuzzy Management of Surveillance
Sensors», en Proc. of 37th IEEE International Conference on Decision and Control, Florida,
pp. 245-250.
Molina, J.M.; F. J. Jiménez y J. R. Casar, (1998b), «Symbolic Processing for Coordinated
Task Management in Multiradar Surveillance Networks», en Proc. Of the First International
Conference on Multisource-Multisensor Data Fusion (FUSION’98), Las Vegas, pp 725-732.
Molina, J.M.; V. Matellán, y C. Fernández, (1996), «Distributed Fuzzy Decision Making
Systems», en Proc. International Conference on Intelligent Technologies in Human-Related
Sciences: ITHURS´96, León, vol. 2, pp. 191-196.
Molina, J.M.; V. Matellán y L. Sommaruga, (1996), «Fuzzy Multi Agent Interaction», en Proc.
IEEE International Conference on Systems, Man and Cybernetics. Beijing, vol. 3, pp. 1950-
1955.
Myers, B.A., (1992), «Survey On User Interface Programming», en Proceedings of the
Conference on Human Factors in Computing Systems.
Reiner, J., (1985), «Application of Expert Systems to Sensor Fusion», en Proceedings of the
IEEE National Aerospace Electronic Conference.
Surdu, J.R., y J. M. D. Hill, (2000), «Anticipatory Planning Support System»
www.itoc.usma.edu/Documents/ImpAPSS.pdf
Wesson, R. [et al.], (1988), «Network Structures for Distributed Situation Assessment», en
Alan H. Bond and Les Gasser (eds.), Readings in Distributed Artificial Intelligence, Morgan
Kaufmann.
Waltz, E., y J. Llinas, (1990), Multisensor Data Fusion, Norwood (MA), Artech House Inc.
Yannone, R.M., (1985), «The Role of Expert Systems in the Advanced Tactical Fighter of the
1990’s», en Proc. Of the IEEE National Aerospace Electronic Conference.
Zadeh, L.A., (1988), «Fuzy Logic», IEEE Transactions on Computers.
Zimmermann, H. J., (1990), Fuzzy Set Theory and its Applications, Kluwer.

131
La protección de la información en la sociedad del conocimiento: La criptografía
digital
1.5
1.6 Arturo Ribagorda Garnacho
Departamento de Ingeniería Informática,
Grupo de seguridad de las tecnologías
de la información y las comunicaciones
Universidad Carlos III de Madrid)
arturo@inf.uc3m.es

Al menos desde la antigüedad clásica la criptografía (de Kripto, oculto, y grafía,


escritura) ha sido el principal instrumento de la seguridad de la información. Esto es
particularmente cierto en campo militar (que en sentido amplio incluye los servicios de
inteligencia) único que, hasta hace cuatro décadas, ha acaparado la investigación, desarrollo
y uso de tales técnicas, hasta el extremo de que los libros de investigadores académicos
estadounidenses acerca de la materia eran sistemáticamente censurados o su publicación
vetada, aun si el investigador no tuviese relación alguna con los organismos defensa. Un
buen ejemplo de lo anterior –aunque no el único– lo encontramos en los dos artículos
capitales de Claude Shannon publicados en 1948 (A mathematical theory of communication)
y 1949 (Communication theory of secrecy systems) en los que estableció la teoría de la
información y puso las bases matemáticas de la criptografía, respectivamente. En efecto, la
publicación de dos artículos de este monumental calado en el transcurso de poco más de un
año, no fue debido a unos irrepetibles escasos meses de asombrosa, por fructífera,
productividad científica, sino al celo con que los responsables de los servicios de inteligencia
demoraron tales publicaciones (escritos mucho antes y en un lapso más largo) hasta bien
acabada la Segunda Guerra Mundial.

No significa ello que no se hayan publicado, al menos desde la Edad Moderna en


Europa (y antes por los árabes) tratados de criptografía (o poligrafía, como se conocía a la
disciplina en España), como lo prueba, entre otros, el curioso (hoy en día) libro: Poligrafía, o
el Arte de Escribir en Cifra de diferentes modos, del valenciano Francisco de Paula Martí
Mora, en donde a lo largo de sus más de cuarenta páginas hace un repaso de diversas
técnicas de cifrado y de ocultación de mensaje mediante el empleo de tintas simpáticas.
Pero no es menos cierto, que eran ediciones consentidas por no exponer procedimientos en
132
uso en su momento por los gabinetes de cifra, que hoy denominaríamos servicios de
inteligencia.

Sin embargo, esta estrecha vinculación que conducía irremediablemente de la


criptografía a la defensa se rompió con el inicio de la sociedad de la información. Así, ya en
1972 el organismo de normalización estadounidense NBS (National Bureau of Standard) –
actualmente NIST, National Institute of Standard and Technology– consciente de la
importancia que para los organismos civiles del gobierno y las empresas tenía la protección
de la información que manejaban y la dificultad de que acarreaba la inexistencia de
algoritmos de cifrado estándar, convocó un concurso (call for proposal) de ideas, limitado a
criptógrafos americanos naturalmente, para normalizar un cifrador. El concurso (repetido en
1974, ante la falta de candidatos solventes) fue ganado por Lucifer (algoritmo desarrollado
por Feistel, criptógrafo al servicio de IBM), el cual tras algunos retoques que lo debilitaron
sensiblemente (debido al interés de los servicios de seguridad americanos, interesados
como siempre en husmear todo tipo de información) recibió el nombre de DEA (Data
Encryption Algorithm), y su implementación, caso de ser conforme a ciertos detallados
criterios, DES (Data Encryption Standard). Así, cabe datar en 1977, fecha de la adopción del
citado estándar por el gobierno federal estadounidense, el despegue de la criptografía civil.

Técnicas de ocultación de la información

En cualquier caso, y antes de centrarnos en la criptografía, merece la pena destacar


que desde la Edad Antigua la ocultación de la información se ha venido realizando mediante
dos técnicas, que aunque de idénticos objetivos se han conformado mediante dispares
métodos, que han dado lugar a no menos dispares disciplinas. Una es la denominada
criptografía –definida como el estudio de los principios, métodos y medios de transformar los
datos para ocultar su significado (aunque aún hoy, el Diccionario de la Real Academia la
recoja como: “Arte de escritura en cifra o de modo secreto”) –. La otra es la conocida como
esteganografía (de steganós, cubierto, y grafía, escritura) definida como el estudio de los
principios, métodos y medios de transformar los datos para ocultarlos. Así, mientras ésta
vela el mensaje mismo, aquella hace lo propio con su significado.

Ambas disciplinas han venido empleándose como valiosos instrumentos de guerra (o


dicho en términos actuales, políticamente más correctos, conflictos armados). De esta forma
nos lo cuentan los más famosos historiadores de la época clásica: Heródoto, Jenofonte,

133
Tucícides, en cuyas relatos encontramos fascinantes ejemplos de lo dicho, como el narrado
por el primero de los arriba citados en su obra inmortal La Historia, y recogido por David
Khan en su monumental y apasionante obra enciclopédica: The Codebreakers. The Story of
Secret Writing. Según Heródoto, fue la esteganografía lo que salvó a los griegos de ser
dominados por los persas durante la IV de las guerras médicas. Cuenta el historiador que
cuando el emperador persa Jerjes comenzó la construcción de la capital de su imperio,
Persépolis, todas sus satrapías y estados vecinos le agasajaron con preciosos presentes,
excepto Grecia y Esparta. Para saldar esta afrenta, inició los preparativos de una campaña
bélica. Durante los años siguientes se armó en secreto hasta que el 480 a. de C. estuvo
preparado para el ataque (preventivo, como diríamos estos días). Empero tamaña empresa
no podía pasar desapercibida, y en efecto no pasó, entre otros para Demarato, griego
exiliado que, a pesar de ello, no pudo sino advertir a sus compatriotas. No obstante, el
problema era ¿cómo avisarles sin que los soldados descubriesen el mensaje? Finalmente,
tuvo una inspiración: grabaría en un par de tablillas de madera el anuncio, cubriéndolas
después de cera. Hecho esto y remitidas las tablillas con un mensajero, los griegos, tras
algunas vacilaciones al no comprender dónde podía hallarse el mensaje, pudieron desvelar
su contenido y construir una flota que sorprendió a la armada de Jerjes en la bahía de
Salamina, que sucumbió en la famosa batalla del mismo nombre en septiembre del 480
antes de nuestra Era.

Como se habrá observado, este método de ocultación de la información, como otros


muchos de la misma época relatados por los historiadores citados, se corresponden con lo
que se denomina esteganografía, siendo así ésta disciplina la que primero se desarrolló, con
alguna ventaja sobre la criptografía. Finalmente, la esteganografía ha estado olvidada en
gran medida en el mundo civil, menos en el militar, hasta hace pocos años que ha renacido
como herramienta de protección de la propiedad intelectual.

Criptografía

No obstante, la falta de flexibilidad de aquella, que no permitía reutilizar un método,


pues de ser descubierto era imposible de volver a usar, hizo que en seguida se empezasen
a emplear otros procedimientos dependientes de una clave (actualmente existen métodos
esteganográficos que también requieren del concurso de una clave), de modo que el
descubrimiento del mismo no lo incapacitase para su reutilización, pues bastaría con elegir

134
otra clave para que siguiese siendo fiable. Así, comenzó el despliegue de la criptografía que
oculta el significado del mensaje mediante un proceso denominado cifrado que opera con el
auxilio de una clave. Como prueba de lo anterior, ya en el mismo siglo V a. de C., en la
península helénica se comenzó a usar la escítala lacedemonia, usada por éstos, o sea los
espartanos, para ocultar mensajes mediante un proceso que hoy en día conocemos como
transposición. Asimismo, la primera edición, datada en 1780, del diccionario de la lengua de
nuestra Real Academia define: “Cifra. Modo de escribir con caracteres arbitrarios, de modo
que sólo la puede entender el que tenga la clave”. Y , consiguientemente: “Cifrar. Escribir en
cifra”(En realidad, cifra y cifrado son voces más antiguas, ya empleadas por nuestros
clásicos de la Edad de Oro, por más que actualmente muchos usen, sea desconocimiento o
por papanatismo, los horrendos anglicismos, inexistentes en nuestra lengua, encriptar y
encriptado)

En todo caso, y antes de abandonar esta incursión histórica, se debe reseñar que si
en la antigüedad esta ciencia se usaba para el mantenimiento de la confidencialidad de la
información, actualmente se emplea, más si cabe, para preservar la integridad, característica
de la información más expuesta, sobre todo en instituciones privadas, que la
confidencialidad. Aún más, es la base de los mecanismos de autenticación y no repudio, de
capital importancia en el comercio electrónico y, en general, en la seguridad en redes.
Asimismo, si tradicionalmente esta disciplina se aplicó exclusivamente a informaciones
textuales, hoy en día se usa igualmente para preservar informaciones de cualquier
naturaleza: voz, imágenes fijas, vídeo, etc. De este modo, una definición mucho más precisa
de criptografía es la siguiente: «Disciplina que estudia los principios, métodos y medios de
transformar los datos para ocultar la información contenida en ellos, garantizar su integridad,
establecer su autenticidad y prevenir su repudio».

Esquema de un sistema de cifrado

Un esquema detallado de un sistema de cifrado o criptosistema (conjunto de


dispositivos de cifrado y descifrado y correspondientes claves) es el que se expone a
continuación.

135
kE kD

1.2 Text
1.1 Te o 1.3 Texto
xto Cifrador Descifrador en
en claro
cifrado

Esquema de un criptosistema

Más detalladamente, un criptosistema está constituido por un emisor (remitente u


origen) de la información, que genera un mensaje denominado texto o mensaje en claro,
un dispositivo cifrador (que eventualmente incluirá un generador de claves), que
transforma el texto en claro (con ayuda de una clave kE, denominada de cifrado) en un
mensaje ininteligible denominado texto cifrado o criptograma, un canal (de
almacenamiento o transmisión), un dispositivo descifrador, cuya función es la inversa del
cifrador (con ayuda de una clave kD, denominada de descifrado), y un receptor
(destinatario o destino) de la información. Asimismo, debe añadirse el protocolo de
intercambio, o bien de negociación de claves. Un esquema simplificado de un criptosistema
puede observarse en la figura anterior.

Un intruso que interceptase el canal obtendría un criptograma que, es de esperar,


sería incapaz de interpretar, manteniéndose así la confidencialidad de la información. Al
tiempo, no siendo capaz de traducir el criptograma, tampoco sería capaz de alterarlo
subrepticiamente a su favor, con lo que se protegería también la integridad de la información
(aunque esta última afirmación sea más discutible, pues aun sin conocer el texto en claro se
pueden efectuar ataques a la integridad, no obstante lo cual son ataques difíciles de
realizar).

Evidentemente, el elemento fundamental de un criptosistema es el cifrador. Está


compuesto por un dispositivo físico, o por un programa, que implementa el algoritmo de
cifrado (a menudo denominado algoritmo de cifra o simplemente cifra), que suele ser el
mismo en el caso de cifrado que en el descifrado. Usualmente, este algoritmo está
constituido por una función matemática dependiente de un parámetro denominado clave de
cifrado o, caso de actuar como descifrador, clave de descifrado. La función es
computacionalmente irreversible; es decir, es imposible de invertir con la actual potencia de
cálculo, a no ser que se posea una información adicional, idealmente la clave de descifrado.
Así, cualquier conocedor de esta última podrá, a partir del criptograma, obtener el texto en
136
claro, siempre que el algoritmo, como suele ser habitual, sea conocido por todo el mundo.
Sin dicho conocimiento, ni aun sabiendo la función matemática, se podría descifrar el
criptograma.

Una puntualización terminológica pertinente es la diferenciación de dos vocablos a


menudo tratados como sinónimos, aunque sus acepciones rigurosas son distintas. Se trata
de codificador –empleado como sinónimo de cifrador–, y código –usado como sinónimo de
cifra–. Incluso expertos los usan en ocasiones indistintamente, a pesar de lo cual (o más
precisamente por ello) se requiere precisar su acepción. Rigurosamente hablando un código
es una regla invariable que transforma los elementos de un conjunto (símbolos, palabras o
incluso frases) en los elementos de otro conjunto, quizás de naturaleza diferente. El ejemplo
más notorio se encuentra en el código ASCII. A diferencia de ello, en el cifrado esta
transformación está determinada por una información adicional contenida en la clave.
Obviamente, un codificador es el dispositivo, físico o lógico, que implementa un código.

En la actualidad es muy frecuente que una información se someta primero a una


codificación y después a un cifrado. Por ejemplo, en las comunicaciones vía satélite, la
información es primeramente codificada en ASCII, si es textual, o modulada mediante
impulsos codificados y después convertida en bits (con ayuda de una transformación
decimal codificado en binario), si es analógica. Tras esto, la información se cifra con el
algoritmo DES y finalmente se vuelve a codificar con un código corrector de errores.

Sistemas de clave secreta y de clave pública

Pasando ya a repasar someramente los tipos de algoritmos de cifrado, lo primero que cabe
recordar es que hasta la década de los setenta todos los criptosistemas conocidos funcionaban con
una clave de cifrado igual a la de descifrado o, si eran diferentes, una podía obtenerse de la otra en
un tiempo y con unos recursos razonables.

k k

1.5 Text
1.4 Te o 1.6 Texto
xto Cifrador Descifrador en
en claro
if d
137
Esquema de un criptosistema simétrico

La invulnerabilidad de tales sistemas dependía, en una primera aproximación, del mantenimiento


en secreto de la clave empleada. Consiguientemente, ésta debía transferirse del emisor al receptor a
través de un canal seguro, obviamente diferente del canal del criptosistema, que por hipótesis está
amenazado por posibles interceptadores.

Texto en Texto en
Criptograma claro
claro
Emisor
1.6.1.1.1.1 (canal) 1.6.1.1.1.2 D 1.6.1.1.1.3

Canal seguro

Canal seguro en un criptosistema simétrico

Estos criptosistemas clásicos son los que han venido conociéndose como de clave
secreta, convencionales, de clave única y también simétricos. La principal ventaja de ellos
es su simetría, pues los papeles del emisor y receptor son intercambiables fácilmente al
emplear tanto el cifrador como el descifrador la misma clave o, de ser dos distintas, conocer
ambas.

Además, el receptor tiene la seguridad de que el emisor es quien dice ser y no un


impostor, pues de otro modo no podría descifrar el texto cifrado con la clave secreta, sólo
conocida, por hipótesis, por el emisor y el receptor. Es decir, este tipo de criptosistemas no
sólo mantiene la confidencialidad de la información sino que también confiere autenticidad al
mensaje recibido, es decir autentica al emisor. Empero, presenta dos importantes
desventajas. Primeramente, la distribución de claves exige un canal seguro, que no puede
ser por el que transita el criptograma, pues éste, por hipótesis, es vulnerable a posibles
interceptaciones. Clásicamente, el canal seguro se conseguía mediante un mensajero;
actualmente se emplean protocolos de intercambio de claves, aunque ello conlleva una
mayor complejidad algorítmica. Además, en un criptosistema simétrico con numerosos
interlocutores el número de claves implicadas es muy grande. En efecto, por cada dos
interlocutores se precisa una clave; así, si el número de éstos es n se tendrán en total n(n-
1)/2, número que crece raudamente conforme lo hacen los interlocutores.

138
En contraste con estos sistemas, en 1976 Diffie y Hellman demostraron la posibilidad
de construir criptosistemas que no precisaban transferir una clave secreta entre el emisor y
el receptor (evitando así los problemas inherentes a la búsqueda de canales seguros para tal
transferencia), previamente al establecimiento de una transmisión cifrada. En estos
criptosistemas la clave de cifrado, denominada clave pública (en lo que sigue ku) se hace
de general conocimiento. Sin embargo, la clave de descifrado, denominada clave privada
(en adelante kv), se mantiene a buen recaudo. Obviamente ambas claves no son
independientes, pero del conocimiento de la pública no se infiere la privada, a no ser que se
tenga algún dato adicional -que también habrá de mantenerse en secreto o, mejor,
destruirse una vez generado el par clave pública-clave privada-, o se disponga de un tiempo
ilimitado.

Cuando un usuario, A, desea recibir informaciones cifradas, da a conocer a todos los


potenciales remitentes su clave pública, kuA. Así, todos éstos cifrarán los mensajes
destinados al citado usuario con la misma clave, la citada kuA. Sin embargo, no conociendo
nadie más que A su clave privada, ni pudiéndola obtener a partir de la pública, sólo él podrá
descifrar la información así cifrada.

ku kv

1.8 Text
1.7 Te o 1.9 Texto
xto Descifrador en
en 1.7.1.1.1.1 claro
cifrado

Esquema de un criptosistema simétrico

Estos criptosistemas se denominan de clave pública o asimétricos, pues del


conocimiento de una clave (por ejemplo la de cifrado) no se deduce la otra. Es importante
notar que, en la práctica totalidad de los algoritmos de cifrado de este tipo, las claves de
cifrado (pública) y descifrado (privada) son intercambiables, de modo que un texto
transformado (cifrado) con una se puede recuperar (descifrar) con la otra y viceversa. O lo
que es igual, en el momento de creación de las claves, el usuario decide cual quiere que sea
la pública (con la que el resto de usuarios cifrarán los mensajes que le dirijan) y cual la
privada (con la que él descifrará estos mensajes).

139
Este tipo de criptosistemas obvia las dos dificultades inherentes a los simétricos. Por
un lado, no exige un canal seguro para la distribución de la clave de cifrado (pública), pues
ésta es común a todos los que deseen remitir informaciones cifradas al receptor.
Consiguientemente, debe ser de universal conocimiento. En segundo lugar, si el
criptosistema está compuesto por n emisores-receptores que desean intercambiar mensajes
cifrados, el número total de claves implicadas será 2n.

Por lo que respecta a los inconvenientes, tres son los principales de estos
criptosistemas. El más importante es la falta de autenticación de los mensajes recibidos por
el receptor, A. Como su clave pública, kuA, es de general conocimiento, cualquiera puede
enviarle un mensaje cifrado alegando, por ejemplo, ser B sin que, por lo expuesto hasta
ahora, exista manera de soslayar el problema.

La segunda desventaja es la necesidad de garantizar la autenticidad de las claves


públicas. En efecto, un enemigo, C, podría divulgar su clave pública, kuC, alegando ser la de
A. Si un emisor B cayese en el engaño, podría mandar mensajes cifrados a A con la clave
pública de C, con lo que éste sería capaz de descifrarlos con gran facilidad. Todavía peor, si
C conociese la clave pública de A, kuA, podría, tras descifrar el mensaje, volverlo a cifrar con
kuA, y remitirlo a A, con lo que la comunicación entre A y B se estaría haciendo por
intermedio de C. La manera prevista de superar esta dificultad es mediante la creación de
notarías de claves (Autoridad de Certificación o, como se denomina en la Ley española de
firma Electrónica, Proveedor de Servicio de Certificación), que den fe de la clave pública del
destinatario de un mensaje.

Finalmente, los cifrados de clave pública son mucho más lentos en sus operaciones
de cifrado y descifrado, de 5 a 20 veces, que los de clave secreta igualmente robustos, y
todavía lo son mucho más en las operaciones de generación de las claves. Ello es debido a
la complejidad de las operaciones y la longitud de la clave de los primeros.

Por último, cabe reseñar que existen numerosos malentendidos sobre estos
criptosistemas que conviene desarraigar. En primer lugar, se piensa por muchos que estos
cifrados son más robustos que los de clave secreta. Sin embargo, la fortaleza de un
algoritmo criptográfico depende -supuesto que no se haya encontrado ninguna
vulnerabilidad intrínseca- de la longitud de la clave y del factor de trabajo preciso para
quebrarlo. En este sentido, cabe incluso afirmar que los cifrados simétricos usuales (DES,

140
IDEA, Triple DES, RC-X. etc.) son más robustos que el popular cifrado RSA, que requiere
por ello una longitud de clave mayor, en varios ordenes de magnitud, para resistir ataques
criptoanalíticos.

En segundo lugar, algunos piensan que los criptosistemas convencionales han


devenido obsoletos y serán a medio plazo sustituidos por los de clave pública. Empero, nada
hace presagiar tal cosa, antes bien se cree que los cifrados simétricos seguirán siendo -
como hasta ahora– los favoritos a la hora de cifrar grandes volúmenes de datos.

Criptoanálisis

Por otro lado, existe otra disciplina –diríamos que inversa de la anterior– que trata de
recuperar un texto en claro sin saber la clave, ni en ocasiones tan siquiera el cifrador,
aunque este último es usualmente conocido. Esta disciplina se denomina criptoanálisis (y
criptoanalistas sus practicantes), y se puede definir por tanto como: El estudio de los
principios métodos y medios que tienen como objeto descifrar una información cifrada, sin el
conocimiento de la clave ni del método de cifrado, denominándose criptología al conjunto
de la criptografía y el criptoanálisis.

En el estudio de los métodos de defensa frente al criptoanalista se supone que éste


tiene acceso a todo el criptograma. También es generalmente admitida la hipótesis de
Kerckhoffs (August Kerckhoffs von Nieuwenhof, 1835-1903, científico holandés afincado en
Francia, considerado uno de los más importantes criptógrafos de todos los tiempos y autor
de La criptogaphie militaire, publicado en 1833, uno de los más relevantes libros de la
materia del pasado siglo), que establece que la seguridad del cifrado debe residir,
exclusivamente, en el secreto de la clave, y no en el desconocimiento de la transformación
de cifrado. (Son numerosos los ejemplos que ilustran la inutilidad de intentar mantener en
secreto un algoritmo. Por ejemplo, el algoritmo RC-4 fue sometido a ingeniería inversa y
expuesto públicamente en Usenet en 1992. Lo mismo aconteció con el RC-2 en 1996. En el
mismo sentido, las debilidades halladas en el público escrutinio del MD-4 permitió a su autor
mejorarlo para conseguir el MD-5). Así pues, se acepta que el criptoanalista conoce el
método de cifrado siendo, por tanto, su único interés obtener la clave de descifrado. En todo
caso, un objetivo menos ambicioso consiste en buscar el texto en claro correspondiente a un
cierto criptograma. Si es posible averiguar uno de ambos, texto en claro o clave criptográfica,
se dice que el cifrado es vulnerable.

141
Es importante en esta ocasión poner de manifiesto una diferencia fundamental entre
los sistemas usados en la criptografía civil y militar. En efecto, mientras en aquella el
principio de Kerckhoffs es unánimemente aceptado y respetado, en casi todos los cifradores
en uso hoy en día, no ocurre lo mismo con ésta, que salvo raras excepciones mantiene el
diseño e implementación de sus algoritmos en estricto secreto, lo que supone, que casi
todos los cifradores militares prevean su destrucción inmediata si existe peligro de caer en
manos del enemigo.

Son varias las situaciones en que se puede encontrar, o que puede elaborar, un
criptoanalista en su trabajo, siendo el caso más desfavorable el que se le presenta cuando
sólo tiene acceso al texto cifrado, en cuyo caso el ataque se denomina sólo al criptograma.
En estas condiciones, aun conociendo el algoritmo de cifrado, únicamente puede intentar
vulnerar dicho algoritmo (encontrando debilidades en el mismo), realizar un análisis
estadístico del texto cifrado (usualmente buscando patrones de repetición de símbolos), o
bien proceder a probar todas las claves del espacio correspondiente, K. Por motivos obvios,
en este último caso el ataque también se denomina de búsqueda exhaustiva o
simplemente exhaustivo.

En cuanto a la resistencia al criptoanálisis que presenta un algoritmo particular de


cifrado, supuesto desconocida cualquier vulnerabilidad intrínseca del mismo, el único ataque
posible al mismo, como se ha comentado, consiste en realizar sobre el mismo un ataque
exhaustivo, explorando todas sus posibles claves –cuyo conjunto se conoce como espacio
de claves– hasta encontrar una que descifre el texto cifrado. Obviamente este ataque
resulta tanto más factible cuanto menor sea dicho espacio de claves y mayor la potencia de
cálculo (y eficiencia de las redes) puesta a disposición de los atacantes. Como esta última
depende de la época considerada, algoritmos tenidos por inquebrantables hoy en día
resultarán mañana fácilmente vulnerables (A propósito de esto, cabe recordar la ley
empírica de Gordon Moore, enunciada por éste en 1963: a igualdad de precio la potencia de
cálculo se duplica cada 18 meses).

La criptografía en la seguridad de la información

Como es sabido, la seguridad de la información tiene como objetivos el mantenimiento de la


confidencialidad, la integridad y la disponibilidad, entendiendo por confidencialidad que los

142
datos sólo sean revelados a aquellos autorizados, por integridad que los datos sean exactos
y completos y por disponibilidad que puedan ser tratados cuando los usuarios habilitados así
lo dispongan. De esta manera, se comprende que mientras la criptografía es irrelevante para
la disponibilidad, alcanza en la confidencialidad su campo natural de aplicación. –por lo que
atañe a la integridad, si bien es cierto que para alterar la información coherentemente es
preciso interpretarla primero (lo que no es posible si está cifrada), aún se puede modificar
para inutilizarla–. A pesar de que esto conlleva la inutilidad del cifrado usado con el objetivo
de garantizar la integridad, no es menos cierto que existen métodos basados en técnicas
criptográficas diseñadas ex profeso, que hacen a la criptografía adecuada para avalar
también a la integridad. De esta manera, las técnicas criptográficas (y por consiguiente la
criptografía) se revelan como instrumentos sin par en la consecución de dos objetivos
(confidencialidad e integridad) de los tres (los citados más la disponibilidad) que conforman
la seguridad de la información.

143
El marco constitucional de los servicios de inteligencia

Elviro Aranda Álvarez


Área de Derecho Constitucional.
Universidad Carlos III de Madrid
elviro@derpu.uc3m.es

1. Secreto y publicidad en la acción política del Estado

Desde una perspectiva política creo que la necesidad de los servicios de inteligencia o
servicios secretos en pocos momentos de la historia de las ideas ha sido cuestionada.
Desde luego, hoy día, con los acontecimientos de terrorismo internacional que se extienden
por el mundo pocos son los que discuten su utilidad. Sin embargo, desde el plano de las
garantías de los derechos fundamentales y los principios del Estado democrático de
Derecho estos servicios nos sitúan en un campo especialmente "resbaladizo" y
"sospechoso" que todo Estado y todo ordenamiento jurídico debe transitar siendo
conscientes del fino equilibrio que se debe hacer para que, sin caer en actos de arbitrariedad
de los poderes públicos ni regulaciones atentatorias contra la Constitución, se asegure
firmemente el Estado democrático.
El secreto como instrumento político no es nuevo, basta referirse a las organizaciones
políticas de la modernidad para observar como la razón de Estado y la acción secreta son el
sustento del poder del Príncipe (E. Fernández: 1997, 15). Como es bien sabido, el Estado
absoluto es una organización que se construye sobre la necesidad de asegurar la paz y la
convivencia mediante la concentración del poder en manos del Monarca. Los politiques dirán
que en un Estado de permanentes guerras de religión el rey sólo podría imponer la
tolerancia si era lo suficiente poderoso para actuar sobre los viejos derechos feudales. Para
ello, se construye la teoría de la soberanía que lo convertirá en legisbus absolutus
independiente de los derechos tradicionales y por lo tanto capaz de imponer los edictos de
tolerancia (J. Bodino: 1985, 47 y ss). Aquí la vieja idea de los arcana imperii de la doctrina
romana aparece remozada como medio para que el monarca pueda consolidar su soberanía
frente a la atomización política propia de la sociedad medieval (T. Hobbes: 1985, 159 y ss),
(N. Maquiavelo: 1984, 85 y ss). La acción política secreta es la mejor manera de ordenar la
política externa por cuanto de esa forma el resto de los "príncipes" no pueden actuar
desbaratando nuestros planes y neutralizado nuestras alianzas. También es la mejor manera

144
de organizar la política interna, porque de esa manera el Príncipe se asegura el poder
actuar, sin que se conozca, de la mejor manera para guiar a su pueblo de acuerdo con los
medios más útiles para su permanencia en el poder y para neutralizar las disputas entre los
diferentes grupos existentes en la sociedad (F. Guicciardini: 1947, 1920).

Frente a esta doctrina, lo que caracteriza a los regímenes liberales y democráticos es


la visibilidad, la publicidad de las acciones del gobierno. Bobbio lo dirá con toda rotundidad
cuando declara que «la democracia nació con la esperanza de proscribir para siempre de la
historia humana el poder invisible y de dar a la vida a un gobierno cuyas acciones deberían
ser realizadas en público, a la vista de todos» (N. Bobbio: 1991). Esta declaración decidida y
rotunda sobre la visibilidad como forma de ejercer el poder en el Gobierno democrático la
sustenta el profesor de Turín en la necesidad moral que para Kant suponía que el gobierno
actuase en público. Dicha forma de actuar es un concepto transcendental del Derecho
público que se manifiesta en el principio de que «todas las acciones relativas al derecho de
los demás hombres cuya máxima no sea susceptible de publicidad son injustas». Para el
padre del racionalismo toda máxima que se exprese en secreto y, por lo tanto, que no puede
ser dicha en público es porque de ser así produciría tal reacción que no podría realizarse. Es
decir, el gobierno que renuncia a la publicidad está reconociendo que está dispuesto a hacer
cosas que de conocerse podrían ser declaradas ilegales o ilícitas (I. Kant: 1985, 62).
Como se puede observar, con las concepciones racionalistas que dan lugar al
liberalismo político y después a la democracia se ha producido un cambio sustancial en la
legitimación del poder y en los instrumentos que se ponen a disposición de ese nuevo
Estado para su consolidación. Como ese poder es "público" el conocimiento por parte de los
ciudadanos de la acción del gobierno es fundamental para poder articular su participación en
la vida política. La información sigue siendo un instrumento del poder pero ahora el poder ya
no está en manos del Monarca sino en manos del Pueblo o la Nación, luego son éstos los
que deben tener la información para poder ejercer el poder, o al menos el Parlamento en
cuanto órgano que hace presente a ese nuevo soberano en la organización estatal. Bentham
en su obra Tácticas parlamentarias, señalará las bondades que la publicidad hace al
funcionamiento del Parlamento diciendo que ésta asegura la confianza del pueblo, y su
consentimiento en las resoluciones legislativas, además proporciona a los electores la
facultad de actuar con conocimiento de causa y al Parlamento poder aprovecharse de las
luces del público (J. Benthan: 1991, 73 y ss).

145
Con estos argumentos siempre se ha sostenido que la democratización del Estado
está estrechamente unida a la visibilidad de la acción de sus poderes. Cuanto mayor es el
acceso a la información de las actuaciones que desempeñan los poderes del Estado mayor
será el grado de seguridad, confianza y participación de la sociedad civil en la vida pública y
en quienes ejercen esas funciones. Para ello las constituciones democráticas se han
ocupado de fortalecer el principio de publicidad. Un buen ejemplo es la Constitución
española de 1978, donde se recogen, entre otros, la seguridad jurídica e interdicción de la
arbitrariedad de los poderes públicos, art. 9.1 CE; la publicidad de las normas 9.3 CE; la
transparencia administrativa, 105. b. CE, o el derecho a la información 20.1 d. CE.
Descendiendo en los niveles del Poder, la transparencia administrativa se convierte
en una necesidad en la forma de actuar de las administraciones públicas en la que tiene
mucho que ver la aplicación del principio de legalidad. Con la necesidad de que las
administraciones actúen con pleno sometimiento a la Ley y el Derecho se neutralizan los
argumentos de aquellos que entendían que el secreto era la única manera en el actuar de
las administraciones para preservar la independencia, la no ingerencia y la libertad de
decisión. El principio de legalidad supone el pleno sometimiento al Derecho de la
administración y por tanto la ilegalidad de las actuaciones arbitrarias que se tomen
dejándose llevar por criterios contrarios a las previsiones legales. La publicidad se convierte
así en el instrumento que asegura la objetividad y evita la arbitrariedad de las
administraciones y es, además, la mejor forma de garantizar la tranquilidad de los
ciudadanos con el actuar de sus poderes al conocer como y por qué de su comportamiento.
La doctrina del secreto también se ha intentado sostener en la supuesta necesidad de
asegurar un indeterminado y difícilmente reconocible interés general. Pero no debemos
olvidar que en el Estado de Derecho el interés general se manifiesta públicamente y está
garantizado mediante un debate y una conformación pública en la creación de la Ley
parlamentaria y, por tanto, se hace innecesaria cualquier actuación secreta para hacer valer
dicho interés.

Dicho lo anterior podría parecer que en el Estado democrático es imposible mantener


cualquier acción de gobierno que se retraiga a la publicidad y se desarrolle en secreto. Esta
es una tesis incorrecta desde el punto de vista formal e irreal desde la práctica política. La
acción secreta en el actuar de los poderes públicos puede llegar a ser una necesidad para
garantizar otros intereses públicos en juego de no menor relevancia, pero además, no se
deben olvidar tampoco las relaciones privadas donde el secreto cobra especial fuerza para
mantener alejada la mirada de terceros de un ámbito de la vida que se considera íntimo y

146
digno de preservar de la publicidad. Luego no es cierto que el secreto no tenga cabida en el
Estado democrático, lo que sucede es que ocupa una posición subsidiaria de excepción.
Siguiendo a Bobbio, se puede decir que la diferencia en el trato del secreto y la publicidad en
el Estado democrático y el Estado autocrático está en que en el primero la publicidad es
regla y el secreto es excepción, mientras que en el segundo es justamente al contrario (N.
Bobbio: 1984, 19). En la misma línea M. Kriele ha dicho que «conviene subrayar que con
frecuencia hay buenas razones que hacen necesario proceder confidencialmente. No
respetarlas es una grave desconsideración, por ejemplo, de intereses de política exterior, de
la distribución de competencias constitucionales o de bienes jurídicos privados; por ello, lejos
de probar una mentalidad democrática, significan violación de las reglas convencionales
democráticas» (M. Kriele: 1980, 268).
Luego frente a lo que a primera vista pueda pensarse, la acción lógica de una
organización compleja y artificial como es el Estado es que necesita de acciones secretas
para garantizar su propia pervivencia y la privacidad de aquello que así está garantizado
constitucionalmente en la vida de sus ciudadanos. En las relaciones externas, puesto que el
resto de estados no organizan sus relaciones con criterios de publicidad y transparencia y
por lo tanto conocer las intenciones reales pueden ayudar a tomar la decisión más adecuada
a los intereses internos. En las relaciones internas, porque la confidencialidad en el actuar
de los poderes es en muchos casos una obligación para poder preservar derechos de los
ciudadanos (C. Ruiz Miguel: 2002, 25).

Pero hay algo más que no debemos olvidar, como hemos visto, la doctrina liberal
construye un fuerte entramado teórico que arrincona la acción secreta de los poderes
públicos en la vida política, y el Estado democrático sienta sus pilares sobre los fundamentos
teóricos de esa doctrina, de ahí la máxima por la cual en el Estado democrático la publicidad
es la regla y el secreto la excepción. Lo cierto es que el "poder oculto", como también ha
señalado Bobbio, aunque finjamos no verlo puesto que con la democracia y su dogmática
pensábamos que había llegado la transparencia plena y el control auténtico, sigue existiendo
y fortaleciéndose en muchos ámbitos, ya no sólo como instrumento para proteger intereses
privados o bienes públicos legítimos, sino también para espacios menos dignos de la vida
pública y priva que hace que lo más adecuado sea que no "escondamos la cabeza bajo el
ala" y nos esforcemos en dar al Estado un adecuado marco constitucional y legal a la acción
de los Servicios secretos.

147
2. Problemas constitucionales para el estudio de los servicios de inteligencia

Tanto la conformación orgánico administrativa como el ejercicio de la actividad que se


atribuye a los servicios de inteligencia plantean serios problemas a la hora de analizarlos
desde un punto de vista constitucional. En su configuración orgánica porque no existe una
estructura administrativa única. El Servicio más importante, Centro Nacional de Inteligencia
(CNI), se articula como organismo público autónomo que depende directamente del
Gobierno que es para quien desarrolla su actividad, pero además, existen otros Servicios
que se constituyen en el marco normativo de las leyes de Defensa Nacional y de Fuerzas y
Cuerpos de Seguridad Nacional.
En cuanto a su actividad, los problemas surgen de tener que compaginar funciones de
captación, análisis y manejo de información de acuerdo a criterios de confidencialidad,
reserva y secretos oficiales en el marco de un Estado democrático y de Derecho donde,
como ya hemos visto, la publicidad es la regla general.
Nadie duda que de nuestra Constitución se desprende un principio general de
publicidad para las actuaciones de los poderes públicos. Creo que no hace falta adentrarse
en muchos más argumentos de teoría política de los expuestos en las primeras páginas de
este trabajo para poder concluir en la necesidad de hacer efectivo en un Estado democrático
el principio de publicidad. Además, si analizamos con cierto cuidado cómo actúa dicho
principio veremos como no es absoluto y como el grado de publicidad admite graduaciones
en función del poder del Estado al que nos refiramos: ejecutivo, judicial y legislativo (L.M.
Díez-Picazo: 1998, 81). Por último, es evidente que los perfiles del principio de publicidad
también están condicionados por la necesidad del secreto y la reserva que en no pocas
ocasiones impone el interés general o la reserva de los asuntos privados.
Buena muestra de lo que estoy diciendo está en las importantes manifestaciones que
podemos encontrar tanto del principio de publicidad como de actos sometidos a reserva o
secreto que se encuentran en el texto constitucional: publicidad de las normas, art. 9.3;
libertad de información art. 20.1.d; derecho a un juicio público, 24.2; información a los
consumidores, art. 51; publicidad de las sesiones parlamentarias, 80; a no declarar sobre las
propias creencias, art. 16; derecho a la intimidad y propia imagen, art. 18; secreto
profesional de los informadores, art. 20, 1, d; exclusión del deber de declarar sobre hechos
delictivos por razón de secreto profesional, art. 24; voto secreto, arts. 68 y 69.

Pero la transparencia como principio general en el actuar de los poderes públicos en


democracia hace que las posibilidades de ataques al sistema y al orden constitucional sean

148
más fáciles y, por lo tanto, que se hagan imprescindibles instrumentos que neutralicen estas
posibles agresiones. Es la publicidad la que hace que los enemigos de la democracia lo
tengan mucho más fácil para poder atentar contra el sistema político, y es por ello, que todo
Estado democrático que se precie tiene que saber poner los medios para defenderse de sus
enemigos sin que ello suponga cercenar el espacio de libertad y publicidad necesario para la
vida política de los ciudadanos.
En definitiva, como tantas otras veces nos encontramos con la necesidad de perfilar
un espacio político y una acción política al límite entre dos bienes jurídicamente necesitados
de protección. Donde hay que asegurar la libertad y la publicidad para el libre desarrollo de
los derechos de los ciudadanos, así como la pervivencia de los poderes públicos, sin que
podamos descuidar que, precisamente esos ámbitos de libertad y publicidad pueden ser
utilizados por aquellos que intentan socavar el sistema político y, por lo tanto, necesitamos
de sistemas de seguridad efectivos que prevengan y neutralicen esos atentados a la libre
actuación de los ciudadanos u organizaciones estatales.
Esto quiere decir que el Estado debe tener instrumentos que hagan posible ese juego
en el filo de la navaja, que asegure el equilibrio, que confirme la pervivencia de las
instituciones y la tranquilidad de los ciudadanos, pero que al mismo tiempo actúe con un
sistema de frenos y contrapesos suficiente para que se reduzcan las posibilidades de abuso
de poder. Para ello, como veremos, quizás lo mejor está en hacer partícipe de las decisiones
a diversos sujetos u órganos de forma y manera que unos controlen a otros. Pero nunca, a
pesar de que en los últimos tiempos se estén alzando voces en esa línea, crear nuevos
márgenes de irresponsabilidad política y jurídica (F. Santaolalla: 2002).

Otro problema añadido en el funcionamiento de los Servicios de Inteligencia está en


que el Derecho en muchos casos no ha sido capaz de dar una solución jurídica adecuada a
los problemas que el uso de los nuevos medios tecnológicos nos ofrecen. Como veremos,
se articulan instrumentos de protección de los derechos fundamentales frente a formas de
vulneraciones tradicionales (secreto de las comunicaciones o violación del domicilio), sin
embargo, quedan fuera otras formas no atendidas aún por el Derecho (control vía satélites,
etc..)

3. Marco orgánico para la existencia de los Servicios de Inteligencia

Aunque los servicios de inteligencia no cuentan con una mención expresa en la


Constitución (en el proceso constitucional se hicieron algunos intentos de que así fuese sin

149
que el Constituyente estimara su oportunidad. (J. Bardavío et al: 2000, 209), eso no es un
impedimento para encontrar en ella un sustento normativo e institucional. En primer lugar,
hemos de partir de que el artículo 97 de la CE establece que corresponde al Gobierno
asegurar «la defensa del Estado, dice este precepto que el Gobierno dirige la política interior
y exterior, la Administración civil y militar y la defensa del Estado…». Precisamente por ello,
y para más reiteración, cuando el artículo 149 de la CE distribuye las competencias entre el
Estado y las Comunidades Autónomas señala que son competencias exclusivas del primero
defensa y fuerzas armadas, art. 149.1.4ª CE; prevención de la seguridad pública, art. 149.1.
29 CE y relaciones internacionales, art. 149.1.3ª. CE.
Por lo tanto, es al Gobierno a quien corresponde en ejercicio de las competencias que
le atribuye el artículo 97 de la CE garantizar la defensa interior y exterior del Estado y para
ello desarrollar el aparato administrativo necesario que garantice la prevención de actos que
puedan atentar contra el Estado, la Constitución o las instituciones que los sustentan. En la
actualidad para dicha misión contamos con el remozado Centro Nacional de Inteligencia
(CNI) que es heredero del antiguo CESID y que de acuerdo con la Ley 11/2002, de 6 de
mayo se configura como un Organismo público especial de los previstos en la Ley 6/1997,
de 14 de abril, de Organización y Funcionamiento de la Administración General del Estado.
Lo que conlleva desde el punto de vista organizativo, el reconocimiento de autonomía
funcional para el cumplimiento de sus misiones, con un régimen específico presupuestario y
de contratación de su personal.
El CNI es un organismo público dependiente del Gobierno que es quien mediante la
Directiva de Inteligencia aprueba anualmente sus objetivos (art. 3 Ley 11/2002 del CNI).
Además, el director del Centro tiene la consideración de Secretario de Estado que es
nombrado por Real Decreto a propuesta del Ministro de Defensa y limita su mandato a cinco
años (art. 9.1.de la Ley 11/2002 del CNI). El Director impulsa y coordina las acciones del
Centro para la consecución de los objetivos aprobados en la Directiva de Inteligencia que
aprueba el gobierno.

Pero las actividades de inteligencia no acaban en las realizadas por el CNI pues
también existe una serie de organismos periféricos que se situarían normativamente bajo el
paraguas de la Ley Orgánica de Defensa Nacional, la Ley Orgánica de Fuerzas y Cuerpos
de Seguridad y sus normas reglamentarias de desarrollo: los Servicios de información del
Estado Mayor, la Jefatura de Información de la Guardia Civil (JIGC) y la Comisaría General
de Información del Cuerpo Nacional de Policía (CGICGP). Luego estamos ante una
estructura múltiple que se organiza como parte de la Administración General del Estado para

150
mejorar el desarrollo de las funciones del Ejecutivo o de la Defensa Nacional o las funciones
de los Cuerpos de Seguridad del Estado. De lo que se puede concluir que en nuestro país,
a pesar de lo que dice el artículo 6.1 de la Ley del CNI, no existe como en otros con más
experiencia en este tipo de organismos (v.gr. Estados Unidos de América) una "comunidad
de inteligencia" que pudiera organizar un régimen jurídico común para todos ellos.

4. Principios que inspiran la organización y funcionamiento de Centro Nacional de


Inteligencia

La exposición de motivos de la Ley 11/2002 del CNI empieza señalando la necesidad


de unos servicios de inteligencia eficaces, especializados y modernos que den cobertura a la
política nacional e internacional del Gobierno español, y todo ello con pleno control y
sometimiento al ordenamiento jurídico. Esta primera declaración ya está anunciando dos
cuestiones fundamentales en cuanto a la organización y funcionamiento del Centro: la
primera, referida a la organización, que conlleva realizar una profunda remodelación de los
servicios de inteligencia españoles tanto en su estructura como en su regulación para
conseguir una organización operativa y conforme con la Constitución. La segunda, que su
funcionamiento se desarrolle sometido a los controles políticos y jurídicos propios de una
organización que actúa con pleno sometimiento a la Ley y el Derecho. Pues bien, en lo
referido a la organización administrativa la Ley establece que se debe realizar de acuerdo
con los principios de eficacia y autonomía. El principio de eficacia pasa por una
reorganización de los servicios de inteligencia para conseguir la unidad y la coordinación
tanto de dependencia como de actuación. Con ello se consigue la optimización de los
recursos y mayor eficacia operativa y se consigue centralizando en el CNI la inteligencia
interior, exterior y militar, cosa que, sin embargo no es práctica común en nuestro entorno
político (v.gr. Francia, Alemania, Reino Unido) y que tampoco parece que vaya a ser así en
nuestro país en la práctica, puesto que al menos en lo referido a la inteligencia militar se
mantienen los Servicios de Información del Estado Mayor.

La Ley pretende mejorar la eficacia del Centro con dos medidas: Una, el
funcionamiento de la Comisión Delegada de Inteligencia del Estado. Comisión que presidida
por el Vicepresidente del Gobierno e integrada por los Ministros de Exteriores, Defensa,
Interior y Economía y los Secretarios de Estado competentes, tiene como misión velar por la
coordinación de todos los servicios de información e inteligencia del Estado para la

151
formación de una comunidad de inteligencia (art. 6.1 de la Ley 11/2002 del CNI). Otra,
mediante la unidad de dependencia que establece la subordinación directa de los servicios
de inteligencia del Presidente del Gobierno a través del Ministerio de Defensa. Sin embargo,
como ya he señalado, creo que con tales medidas quedarían algunos asuntos sin ajustar
para mejorar la coordinación. Es cierto que el artículo 6 de la Ley establece que la Comisión
delegada velará por la adecuada coordinación de todos los servicios de información e
inteligencia del Estado para la formación de una comunidad de inteligencia, pero también es
cierto que el propio artículo 6.4. b) de la Ley establece que la Comisión hace un seguimiento
y evaluación del desarrollo del CNI, y sin embargo nada dice sobre la coordinación con otros
Centros (Guardia Civil y Policía), y menos aún de integrar en esta Comisión Delegada los
centros de inteligencia que al socaire de las competencias en materia de seguridad están
creando algunas Comunidades Autónomas.
Pero quizás la reserva mayor que tengo a que en la práctica exista una comunidad de
inteligencia está en que la nueva Ley lo es tan sólo para la organización y el funcionamiento
del CNI y se ha perdido la oportunidad de crear un régimen jurídico unitario para todos los
Centros de inteligencia y seguridad del Estado. El resultado, como ha señalado Ruiz Miguel,
es que no existen unos objetivos comunes y tampoco existe una política presupuestaria y de
personal común (C. Ruiz Miguel: 2002, 182). Muy al contrario, la propia ley establece como
segundo principio que inspira el nuevo CNI el de autonomía entendida como autonomía de
organización, económico presupuestaria y de personal, que está bien para preservar la
autonomía de estos centros pero que asegura que cada organismo de inteligencia se
estructure por su cuenta.

Desde estos principios el Centro Nacional de Inteligencia se articula como organismo


público especial que depende directamente del Gobierno de la Nación que es el que
aprueba anualmente sus objetivos mediante la denominada Directiva de Inteligencia (art. 3
LCNI). Dichos objetivos tendrán como finalidad la consecución de las funciones que la Ley
11/2002, de 6 de mayo encomienda al CNI, que son las de facilitar información, análisis,
estudios y propuestas que permitan al Presidente del Gobierno y al Gobierno de la Nación
prevenir y evitar cualquier peligro, amenaza o agresión contra la independencia o integridad
territorial de España, los intereses nacionales y la estabilidad del Estado de derecho y sus
instituciones.

La segunda idea fuerza que establece la exposición de motivos y de la que se hace


eco el articulado es la de que las funciones del CNI se han de desarrollar «regidas por los

152
principios de control y pleno sometimiento al ordenamiento jurídico». Declaración que
supone reconocer el control parlamentario de las actividades del Centro Nacional de
Inteligencia, en los términos que más adelante veremos; y el control jurisdiccional de sus
actos y, en particular, el control previo de ciertas actividades que lleva a cabo el CNI y que
pueden afectar a los derechos fundamentales de los ciudadanos.
En el asunto del control jurisdiccional de los actos del CNI no debemos olvidar que el
artículo segundo de la Ley establece en el apartado primero que el «Centro Nacional de
Inteligencia se regirá por el principio de sometimiento al ordenamiento jurídico y llevará a
cabo sus actividades específicas en el marco de las habilitaciones expresamente
establecidas en la presente Ley y en la Ley Orgánica 2/2002, de 7 de mayo, reguladora del
control judicial previo del Centro Nacional de Inteligencia», y en el apartado segundo que,
«sin perjuicio de la protección de sus actividades, la actuación del Centro Nacional de
Inteligencia será sometida al control parlamentario y judicial en los términos que esta Ley y
la Ley Orgánica reguladora del control judicial previo del Centro Nacional de Inteligencia
determinan». Preceptos que dejan bien claro que la actuación de este organismo en cuanto
que órgano de la Administración debe someter sus actuaciones al ordenamiento jurídico y
sus actos tendrán que ser controlados por los Tribunales.

5. El control político de la actividad del Centro Nacional de Inteligencia

La Ley 11/2002 es la primera que contempla de forma específica el control


parlamentario de la actividad del Centro Nacional de Inteligencia (art. 11). Para ello, se prevé
que el Parlamento podrá tener conocimiento de las actividades del CNI en el marco de la
Comisión parlamentaria que se encargue de conocer los créditos destinados a gastos
reservados. Además, se establece que el control se realizará tanto de los objetivos que
apruebe el Gobierno para su actividad como del grado de cumplimiento de dichos objetivos
mediante la evacuación de un informe anual que presentará el Director del CNI.
Desde luego que ésta no es una concesión gratuita sino una necesidad si tenemos en
cuenta que en un Estado democrático como ya hemos dicho el principio de publicidad es la
regla general en el actuar de los poderes públicos, y la Constitución otorga competencia
universal a las Cortes Generales para conocer de los asuntos que conciernan al Gobierno y
a la Administración en cuanto que representante del pueblo español (art. 66.1 CE). (Vid. J.
Cano Bueso: 1997, 14).
La Ley del CNI en su afán de garantizar el control parlamentario de la actividad del
Centro y que ello sea compatible con la necesaria reserva a la que sus funciones deben

153
estar sometidas establece que el Congreso de los Diputados conocerá de su actividad a
través de la Comisión que controla los créditos destinados a los gastos reservados (art. 11).
Regulación que en una declaración un tanto "rebuscada" pone dicha competencia en manos
de la "Comisión de Secretos Oficiales", articulada de acuerdo con la Resolución de la
Presidencia del Congreso de los Diputados de 2 de junio de 1992, sobre secretos oficiales.
Pues bien, de acuerdo con esta Resolución pueden solicitar información clasificada
las Comisiones o uno o más grupos parlamentarios que comprendan la cuarta parte de la
Cámara. Lo primero que nos salta a la vista de esta regulación es que a pesar de que la
Constitución y los Reglamentos de las Cámaras reconocen el derecho a la documentación e
información a la institución parlamentaria y sus órganos, arts. 109, 110 y 111 CE, y a los
Diputados y Senadores individualmente considerados, arts. 7 RC y 25 RS, la Resolución
está estableciendo un sistema que en la práctica reconoce el acceso a la documentación
clasificada a las instituciones parlamentarias y de forma limitada a los parlamentarios, que
de requerirla tendrían que hacerlo formando parte de un Grupo Parlamentario que, además
sume más de un cuarto de los miembros de la Cámara. A pesar de la limitación entiendo que
esto no tiene que plantear problemas de constitucionalidad, puesto que no se cercena el
derecho de acceso sino que tan sólo se limita en función del especial interés que la reserva
sobre la materia tiene para el Estado. El Tribunal Constitucional tuvo la oportunidad de
pronunciarse sobre esta Resolución y aunque no entró en el fondo puesto que resolvió el
recurso desde cuestiones formales se puede deducir que sería su contenido ajustado al
derecho de acceso y ejercicio de cargo público representativo del 23.2 de la CE. (STC
161/1988).
De acuerdo con la Resolución del 92 si la materia ha sido clasificada como secreto se
facilitará a la Comisión de Secretos Oficiales, que la forma un diputado por grupo. Dichos
diputados son elegidos por el Pleno por mayoría de tres quintos. Si la materia está
clasificada como reservada se remite a los portavoces de los grupos. El Gobierno puede
pedir excepcionalmente, que la información que se transmite declarada secreta se conozca
tan sólo por el presidente de la cámara o de la Comisión. La decisión de esto corresponde a
la Mesa del Congreso

6. El control jurisdiccional de los actos del Centro Nacional de Inteligencia

Tanto la Ley 11/2002, de 6 de mayo, reguladora del Centro Nacional de Inteligencia,


como la 2/2002, de 6 de mayo, reguladora del control judicial previo del Centro Nacional de
Inteligencia se han decantado por la intervención de un órgano jurisdiccional para efectuar

154
un control de los actos del CNI que puedan afectar a derechos fundamentales. Dicha opción
tiene como causa la consideración de los actos del CNI como actos administrativos y, por si
hubiera alguna duda, con la meridiana decisión del legislador, y yo diría también de la
jurisprudencia del Tribunal Constitucional y Tribunal Supremo, de la recurribilidad ante
jurisdicción contencioso-administrativa no sólo los actos administrativos sino también todos
aquellos actos de gobierno que puedan afectar a los derechos fundamentales.
Estamos ante una doctrina que pretende garantizar que el trabajo que desarrolla el
CNI tiene en cuenta el fino equilibrio que se ha de hacer entre seguridad y garantía de las
libertades públicas. No debemos olvidar que nuestra Constitución ha establecido un fuerte
sistema de protección de los derechos fundamentales y las libertades públicas por el cual,
en última instancia, han de ser órganos jurisdiccionales los que resuelva esas posibles
conculcaciones.

Pero ello, frente a lo que piensan algunos autores, no tiene porqué ser un problema,
más bien es una garantía frente a posibles actuaciones arbitrarias de un órgano, que no lo
olvidemos, es de la Administración. Estamos en un caso claro de conflicto de intereses: por
un lado la necesidad, nadie lo discute, de que tengamos unos servicios de inteligencia que
sean capaces de conocer y prevenir ataques a la seguridad o permanencia del Estado
democrático y sus instituciones. Por otro, que en dicho trabajo de indagación, estudio e
información en muchos casos podemos vernos envueltos en actuaciones que pongan en
cuestión derechos y libertades de los ciudadanos, y para solucionar este conflicto nada
mejor que la existencia de un órgano jurisdiccional que pueda supervisar dichas actividades
para que efectivamente se ajusten a Derecho y al cumplimiento del servicio de seguridad.
No creo que con estas medidas de autorización previa por parte de órganos
jurisdiccionales ante actos que puedan conculcar derechos (v.gr. invasión de domicilios o
interceptación de las comunicaciones) suponga poner al mismo nivel la actuación del CNI y
las acciones de persecución criminal ordinaria. No lo es, puesto que no es en un proceso
judicial donde se reclaman las actuaciones de esos órganos, por el contrario, se crea una
magistratura unipersonal para dicha actividad y con la sola finalidad de asegurar que esas
actuaciones no son fruto de actuaciones arbitrarias y desproporcionadas a los fines que se
dicen perseguir y con ello se garantiza un procedimiento que siendo correcto con los
derechos fundamentales establece una vía eficaz y segura para que el Centro y las
actividades que desarrolle se hagan con plenas garantías.

155
Como decía, esa solución es la más adecuada puesto que tanto la Ley del Gobierno
de 1997 como la Ley de la Jurisdicción Contencioso Administrativa de 1998 destierran en
este ámbito los llamados "actos políticos". La primera, Ley 50/1997, de 27 de noviembre, del
Gobierno, dispone en su artículo 26.5 que «los actos del Gobierno y de los órganos y
autoridades regulados en la presente Ley son impugnables ante la jurisdicción contencioso-
administrativa de conformidad con lo dispuesto en su Ley reguladora». Por su parte, la Ley
29/1998, de 13 de julio, de la Jurisdicción Contencioso Administrativa, establece en el
artículo 9 el ámbito de dicha jurisdicción diciendo que «la protección jurisdiccional de los
derechos fundamentales, los elementos reglados y la determinación de las indemnizaciones
que fueran procedentes, todo ello en relación con los actos del Gobierno o de los Consejos
de Gobierno de las Comunidades Autónomas, cualquiera que fuese la naturaleza de dichos
actos».

Como se puede ver, parece bastante claro que no cabe otra opción que no sea el
control jurisdiccional para los actos del CNI que puedan dañar los derechos fundamentales.
El CNI aunque órgano autónomo no deja de ser un ente público vinculado al Gobierno y
aunque se pueda discutir la naturaleza de sus actos, que para mí está claro como ya dije
que son administrativos, siempre estarán sujetos al control de la jurisdicción contencioso-
administrativa.

7. Ejercicio de los derechos fundamentales y actividad del Centro Nacional de


Inteligencia

Para que el CNI cumpla las funciones que la ley le asigna tiene que realizar, al
menos, tres tipos de actividades: obtención de la información, tratamiento de la información y
transmisión de esa información. El Legislador era consciente de que el desarrollo del trabajo
del CNI en estas tres etapas podía afectar a derechos fundamentales, en particular la
inviolabilidad del domicilio y el secreto de las comunicaciones. Por ello, a la Ley del CNI le
ha acompañado la LO 2/2002, de 6 de mayo, reguladora del control judicial previo del Centro
Nacional de Inteligencia que establece una cobertura judicial para los supuestos en los que
los Servicios de Inteligencia tengan que desarrollar actividades de indagación que interfieran
en los derechos del 18.2 y 3 de la Constitución. Bien es cierto que, como ha señalado Ruiz
Miguel, la previsión sobre control judicial previo del Centro Nacional de Inteligencia era una
necesidad que se había detectado en el funcionamiento del antiguo CSID que no preveía un
mecanismo previo de autorización de acceso a domicilios o interceptación de

156
comunicaciones y que ponía en serias dificultades el trabajo del Centro (C. Ruiz Miguel:
2000, 213).
Sin duda que los derechos de los artículos 18.2 y 18.3 de la CE serán de los más
afectados por las actuaciones del CNI, pero ello no debe llevarnos a olvidar que existen
otros que también pueden verse afectados por su actuar. Dos buenas muestras son la tutela
judicial efectiva del 24.1 y la libertad informática del 18.4 de la CE.
Veamos ahora el problema respecto de la tutela judicial efectiva, que fue motivo de
diversas sentencias del Tribunal Supremo a raíz de los famosos "papeles del CESID" o
"papeles de Perote", y después analizaremos los problemas que se plantea respecto de los
diversos derechos recogidos en el artículo 18 de la CE.

Como decía, respecto a la afectación a la tutela judicial efectiva tenemos el caso de


"los papeles del CESID" en el asunto de los GAL. El problema se plantea cuando ciertos
documentos secretos del servicio de inteligencia que contenían información sobre la "guerra
sucia" contra el terrorismo de ETA, fueron filtrados a los medios de comunicación. Esto
determinó el interés de los jueces que instruían sumarios relativos a los GAL. El primer
episodio de los llamados "papeles de CESID" vino por su requerimiento al Ministerio de
Defensa que los denegó. Posición que da lugar a un conflicto jurisdiccional que se resuelve
a favor del Ministerio de Defensa y la negativa a la desclasificación de los papeles en la
Sentencia del Tribunal de Conflictos de Jurisdicción de 14 de diciembre de 1995.
A partir de 1996 con el nuevo Gobierno se reclamó por las acusaciones particulares la
desclasificación de los papeles del CESID y el gobierno nuevamente los denegó, lo que dio
lugar a una serie de recursos contencioso-administrativos contra las decisiones
gubernamentales ante el Tribunal Supremo (Sala 3ª). Finalmente el Tribunal Supremo por
Sentencia de 4 de abril de 1997 resuelve los recursos a favor de los recurrentes y ordenó la
entrega de los documentos a los jueces de instrucción.
El razonamiento del Tribunal Supremo para este cambio se sustenta en que la
existencia de los secretos oficiales que están regulados en la legislación no deben ser
incompatibles con los dictados constitucionales, y ello aunque la ley pueda limitar el acceso
de los ciudadanos a archivos y registros públicos para salvaguardar la seguridad y defensa
del estado 105 CE. El conflicto que el secreto de los documentos plantea se presenta
respecto de la tutela judicial efectiva del 24. 1 de la CE y por tanto se tendrá que ponderar
los dos intereses en juego. En dicha ponderación el Tribunal Supremo entendió que como lo
que estaba en juego era la resolución de varios delitos de asesinato la seguridad del Estado
debía de ceder a favor del esclarecimiento de los hechos juzgados.

157
Evidentemente, como ha señalado la doctrina (L.M. Díez-Picazo: 1998, E. Álvarez
Conde: 1998) la opción tomada por el Tribunal Supremo es de un fuerte calado, nada más y
nada menos que frente a lo que establece la Ley de Secretos Oficiales, decantarse por la
necesidad de que en supuestos de colisión entre la Seguridad Nacional y la tutela judicial en
procesos donde se dilucida el esclarecimiento de un delito de la magnitud de asesinato los
poderes públicos deben optar por la protección del derecho fundamental. Esta tesis
analizada desde un planteamiento de lege ferenda nos ha de llevar a estimar que a la hora
de reformar la LSO se ha de recoger alguna forma para que un órgano judicial examine
reservadamente documentos clasificados, en lo que se ha llamado examen in camera y de
esta manera, quizás, sin lesionar fuertemente el secreto se asegure la tutela judicial.

7.1. Proceso para la obtención de la información

El proceso para la obtención de la información se puede desarrollar mediante


actuaciones denominadas transparentes, que se caracterizan por la recopilación de
documentos, declaraciones e informes que son de carácter público y que, al menos
teóricamente, no presentan ningún problema jurídico. En otros casos, la información no se
obtiene de fuentes abiertas al público y para conseguirla se necesita de acciones
encubiertas. En este segundo supuesto estaríamos ante el reconocimiento de que los
"agentes" del Centro podrían utilizar, identidades, matrículas, permisos, etc, que les fueran
necesarios para poder desarrollar sus misiones. Aquí lo que se plantearía no sería ya el
hecho de presentar identidades falsas, que están admitidas por la Ley, sino si bajo esas
identidades se desarrollan acciones que son contrarias a los derechos fundamentales y, por
tanto, ilegales. Dentro de esas actividades que limitarían con los derechos fundamentales
encontramos las condiciones en las que se permite el acceso a un domicilio privado 18.2 CE
y la interceptación de las comunicaciones 18.3 CE.
La inviolabilidad del domicilio es un derecho que protege el lugar, el espacio físico en
el que el individuo vive sin sujeción a los usos y costumbres sociales y donde ejerce su
libertad más íntima: vivienda, camarote, habitación de hotel, etc. En estos ámbitos queda
prohibida cualquier actuación invasora de la vida privada, incluso la que se pueda realizar a
través de medios técnicos sin penetración directa (SSTC 22/84 y 94/99). En esta línea el
Tribunal Constitucional ha dicho que la inviolabilidad del domicilio, que también se reconoce
a las personas jurídicas (SSTC 137/85 y 69/99), sólo admite las siguientes excepciones

158
(consentimiento del titular, autorización judicial, delito flagrante (STC 341/93), causas de
fuerza mayor (STC 160/91).
Por su parte, el secreto de las comunicaciones previsto en el artículo 18.3 de la CE es
una libertad que garantiza la impermeabilidad de la comunicación frente a terceros ajenos a
la misma (públicos o privados) y sea cual sea el contenido de la comunicación. Esto supone
que tan sólo la intervención de las comunicaciones con autorización judicial sería legítima.
Resolución que, además, ha de ser específica, razonada y en cuanto supone una injerencia
sustancial en el ámbito de la esfera personal se ha de otorgar conforme al principio de
proporcionalidad (STC 85/94 Ver STC sobre captación de listados de llamadas)
Queda claro que aunque estamos ante dos derechos fundamentales existen ciertas
circunstancias en las que cabe su limitación justificada en la existencia de otros bienes o
intereses jurídicos también dignos de ser atendidos por los poderes públicos, siempre con la
consiguiente autorización judicial. Pero la primera cuestión que se nos plantea es que bienes
o intereses jurídicos son los que pueden hacer que sea enervado el derecho. El Tribunal
Supremo y el Tribunal Constitucional han dicho refiriéndose a la interceptación de las
comunicaciones que ese fin o bien legítimo es la "seguridad pública". Visto así, sólo los
Cuerpos y Fuerzas de Seguridad podrían instar la autorización de la autoridad judicial para
acceder con autorización a un domicilio o la interceptación de comunicaciones, y
evidentemente esto plateaba un grave problema para el antiguo CESID y otros Centros de
información que no podían solicitar dicha autorización por no ser fuerzas o cuerpos de
seguridad(Mª. C. Pérez Villalobos: 2002, 82).
Desde luego, la "seguridad pública" es un bien jurídico legítimo pero seguro que ni
más ni menos que la interceptación de actuaciones de peligros, amenazas o agresiones
contra la independencia o integridad territorial de España, los intereses nacionales y la
estabilidad del Estado de derecho y sus instituciones. Tanto unos como los otros son
conceptos jurídicos tan generales que lo que realmente determina que la actuación para su
protección sea conforme con la Constitución cuando entran en colisión con derechos
fundamentales es que la actuación de los órganos del Estado lo hagan con la consiguiente
autorización judicial y que esta autorización determine y fundamente las condiciones en las
que se puede actuar limitando el ejercicio de un derecho para la preservación de otros
intereses. Por ello, me parece acertada la regulación de la LO 2/2002, de control judicial
previo de las actuaciones del Centro Nacional de Inteligencia, que establece que el
Secretario de Estado Director del Centro Nacional de Inteligencia deberá solicitar al
Magistrado del Tribunal Supremo competente autorización para la adopción de medidas que
afecten a la inviolabilidad del domicilio. De no ser así nos podemos encontrar en situaciones

159
como las que han dado lugar a que la Audiencia de Vitoria con fecha de 4 de abril de 2003
haya condenado a tres años de prisión y multa e inhabilitación de ocho años a los ex
directores del CESID Emilio Alonso Manglano y Javier Calderón por un delito de
interceptación ilegal de las comunicaciones telefónicas a la sede de HB de Vitoria. Dicho
Tribunal ha señalado que no puede justificarse la conducta en el intento de salvaguardar la
seguridad nacional, colocando ésta por encima del derecho a la intimidad y del secreto de
las conversaciones telefónicas.
Regulación acertada que además se ajusta, si observamos los requisitos que debe
cumplimentar, la solicitud de autorización a las circunstancias que el Tribunal Constitucional
ha señalado necesarias para que una autorización judicial de acceso a un domicilio no sea
contraria a la Constitución. En concreto, y resumiendo mucho lo establecido por el Tribunal
Constitucional, la resolución judicial autorizando debe ser anterior al acceso y debe estar
suficientemente movida. El Tribunal ha dicho que la motivación no puede ser cumplimentar
un formulario genérico, sino que debe ser rigurosa, precisa y que desarrolle el consiguiente
juicio de proporcionalidad entre la medida restrictiva de un derecho que se va a imponer y
los efectos perseguidos, en concreto que las sospechas de que se van a realizar actividades
delictivas que pongan en riesgo real otros bienes jurídicos de rango constitucional y que no
puedan ser neutralizadas por otras vías menos gravosas. Además, debe ser una resolución
singular, que se dicta para una acción de penetración específica a un domicilio y que recoja
cuantos detalles se tengan: datos del domicilio, ubicación, plazo de acceso, identificación del
titular. etc.
Por su parte la LO 2/2002, establece que el magistrado debe autorizar con resolución
motivada donde se recojan: duración de la medida, no más de veinticuatro horas,
prorrogables en casos de necesidad; fines motivos y circunstancias que llevan a tomar esa
medida; identificación del domicilio y de la persona o personas afectadas.
Quizás el único problema que tiene esta tesis es el argumento de aquellos que han
visto en la jurisprudencia del Tribunal Constitucional sobre inviolabilidad del domicilio y
secreto de las que comunicaciones no basta para limitar dichos derechos la autorización de
un órgano judicial suficientemente razonada y proporcionada, sino que además dicha
autorización se debe hacer siempre en el marco de un proceso judicial que se ha abierto
para la persecución de un delito (v. gr. 49/1999). Sin embargo, a esta posición hay que
decirle que el mismo Tribunal Constitucional ha admitido en otros supuestos que órganos
jurisdiccionales no penales, contencioso-administrativos (STC 272/1985) o civiles puedan
autorizar la limitación de los derechos en aras de la autotutela de la administración o
protección de otros derechos e intereses de carácter constitucional. Por lo tanto, lo que está

160
haciendo el Tribunal Constitucional es abriendo la posibilidad de que no sólo en los
supuestos de indicios de comisiones de actos delictivos perseguidos penalmente, sino
también en otras situaciones atentatorias de otros derechos e intereses constitucionales
pueden llevar a que mediante la correspondiente autorización judicial se autorice el acceso a
un domicilio o la interceptación de las comunicaciones.
Creo que sostener que la defensa de la integridad territorial de España, la estabilidad
del Estado o la defensa del Estado de Derecho y sus instituciones no tiene porqué descubrir
la "razón de Estado", desde luego que lo que se pretende es defender al Estado ante
posibles agresiones que lo socaven o intenten destruir, pero la diferencia con esa vieja idea
está en que su defensa no da carta blanca a ningún poder, se necesita que el Poder Judicial
intervenga en la restricción de esos derechos conociendo las circunstancias en las que se
quiere actuar y autorizando razonadamente. Es decir, como adelantábamos se está
estableciendo un sistema de frenos y contrapesos que nos garantizan la existencia de
instrumentos objetivos que limiten los actos sin control de la Administración, que, por otro
lado, están erradicados de nuestro ordenamiento por la regulación de la Ley de la
jurisdicción contencioso-administrativa de 1992, como ya hemos visto.

7.2. Proceso de evaluación y almacenamiento de la información. Intimidad y la


libertad informática

No menos importante, y con no menos problemas se presenta la evaluación y


almacenamiento de la información. En este caso no sólo se pone en peligro el derecho la
intimidad sino también el discutido derecho a la "libertad informática" del artículo 18.4 de la
CE.
Es una evidencia que el desarrollo tecnológico de los sistemas de comunicación, la
informática y las modernas técnicas de captación y grabación de sonido e imagen hace que
cada día sea más difícil conservar intacto el ámbito de la propia vida privada. Los peligros
que representan las nuevas tecnologías para la vida privada ya los recogía el Tribunal
Constitucional en la Sentencia 110/84:

El reconocimiento explícito en un texto constitucional del derecho a la intimidad es muy reciente


y se encuentra en muy pocas Constituciones, entre ellas la española. Pero su idea originaria,
que es el respeto a la vida privada, aparece ya en algunas de las libertades tradicionales. La
inviolabilidad de domicilio y de la correspondencia, que son algunas de esas libertades
tradicionales, tienen como finalidad principal el respeto a un ámbito de vida privada personal y
familiar, que debe quedar excluido del conocimiento ajeno y de las intromisiones de los demás,
salvo autorización del interesado. Lo ocurrido es que el avance de la tecnología actual y el
161
desarrollo de los medios de comunicación de masas ha obligado a extender esa protección
más allá del aseguramiento del domicilio como espacio físico en que normalmente se
desenvuelve la intimidad y del respeto a la correspondencia, que es o puede ser medio de
conocimiento de aspectos de la vida privada. De aquí el reconocimiento global de un derecho a
la intimidad o a la vida privada que abarque las intromisiones que por cualquier medio puedan
realizarse en ese ámbito reservado de vida. No siempre es fácil, sin embargo, acotar con
nitidez el contenido de la intimidad.

Y se refuerza en la Sentencia 254/93 cuando ya de una forma clara se afronta la


relevancia del fenómeno informático en la transmisión de información:

Dispone el art. 18.4 C.E. que «la Ley limitará el uso de la informática para garantizar el honor y
la intimidad personal y familiar de los ciudadanos y el pleno ejercicio de sus derechos». De este
modo, nuestra Constitución ha incorporado una nueva garantía constitucional, como forma de
respuesta a una nueva forma de amenaza concreta a la dignidad y a los derechos de la
persona, de forma en último término no muy diferente a como fueron originándose e
incorporándose históricamente los distintos derechos fundamentales. En el presente caso
estamos ante un instituto de garantía de otros derechos, fundamentalmente el honor y la
intimidad, pero también de un instituto que es, en sí mismo, un derecho o libertad fundamental,
el derecho a la libertad frente a las potenciales agresiones a la dignidad y a la libertad de la
persona provenientes de un uso ilegítimo del tratamiento mecanizado de datos, lo que la
Constitución llama «la informática.

Para la protección del honor, la intimidad y la propia imagen ya no es suficiente con


proteger el domicilio, la correspondencia y la prensa escrita, ahora también hay que tener en
cuenta la cinematografía, la telemática, la telefonía móvil, la radiodifusión, Internet, etc. Tal
es así que no falta autores en la doctrina que sostiene que en la actualidad no podemos
limitarnos ya tan sólo a la protección de la intimidad, sino que deberíamos hablar de la
protección de la vida privada, donde “vida privada” es un concepto más amplio que necesita
ser definido y protegido ante la creciente difusión de la telemática. La Ley 15/99 de
protección de datos de carácter personal no utiliza el concepto, no tiene exposición de
motivos, sin embargo, la LORTAD del 92 si distingue en su exposición de motivos entre
intimidad y vida privada: …el progresivo desarrollo de la técnicas de recolección y
almacenamiento de datos y de acceso a los mismos ha expuesto la privacidad a una
amenaza potencial antes desconocida.

162
Finalmente esta doctrina se ha visto reforzada y consolidada cuando el Tribunal
Constitucional en la Sentencia 292/00 deduce del 18.4 CE el derecho de “libertad
informática”, señalando que:

El 18.4 CE contiene, en los términos de la STC 254/1993, un instituto de garantía de los derechos a la
intimidad y al honor y del pleno disfrute de los restantes derechos de los ciudadanos que, además, es
en sí mismo “un derecho o libertad fundamental, el derecho a la libertad frente a las potenciales
disposiciones a la disposición y a la libertad de la persona provenientes de un uso ilegítimo del
tratamiento mecanizado de datos, lo que la disposición llama ‘la informática’”, lo que se ha dado en
llamar “libertad informática (FJ 6, reiterado luego en las SSTC 143/1994, FJ 7, 11/1998, FJ 4, 94/1998,
FJ 6, 202/1999, FJ 2). La garantía de la vida privada de la persona y de su reputación poseen hoy una
dimensión positiva que excede el ámbito propio del derecho fundamental a la intimidad (Art. 18.1 CE), y
que se traduce en un derecho de control sobre los datos relativos a la propia persona. La llamada
“libertad informática” es así derecho a controlar el uso de los mismos datos insertos en un programa
informático (habeas data) y comprende, entre otros aspectos, la oposición del ciudadano a que
determinados datos personales sean utilizados para fines distintos de aquel legítimo que justificó su
disposición (SSTC 11/1998, FJ 5, 94/1998, FJ 4).

El TC distingue la libertad informática de la intimidad diciendo que aquella atribuye a su titular un haz
de facultades que consiste en su mayor parte en el poder jurídico de imponer a terceros la realización u
omisión de determinados comportamientos cuya concreta regulación debe establecer la Ley, aquella
que conforme al Art. 18.4 CE debe limitar el uso de la informática, bien desarrollando el derecho
fundamental a la protección de datos (Art. 81.1 CE), bien regulando su ejercicio (Art. 53.1 CE). La
peculiaridad de este derecho fundamental a la protección de datos respecto de aquel derecho
fundamental tan afín como es el de la intimidad radica, pues, en su distinta función, lo que apareja, por
consiguiente, que también su objeto y contenido difieran.

La función del derecho fundamental a la intimidad del Art. 18.1 CE es la de proteger frente a cualquier
invasión que pueda realizarse en aquel ámbito de la vida personal y familiar que la persona desea
excluir del conocimiento ajeno y de las intromisiones de terceros en contra de su voluntad (por todas
STC 144/1999, de 22 de julio, FJ 8). En cambio, el derecho fundamental a la protección de datos
persigue garantizar a esa persona un poder de control sobre sus datos personales, sobre su uso y
destino, con el propósito de impedir su tráfico ilícito y lesivo para la dignidad y derecho del afectado. En
fin, el derecho a la intimidad permite excluir ciertos datos de una persona del conocimiento ajeno, por
esta razón, y así lo ha dicho este Tribunal (SSTC 134/1999, de 15 de julio, FJ 5; 144/1999, FJ 8;
98/2000, de 10 de abril, FJ 5; 115/2000, de 10 de mayo, FJ 4), es decir, el poder de resguardar su vida
privada de una publicidad no querida. El derecho a la protección de datos garantiza a los individuos un
poder de disposición sobre esos datos.

De este modo, el objeto de protección del derecho fundamental a la protección de


datos no se reduce sólo a los datos íntimos de la persona, sino a cualquier tipo de dato
personal, sea o no íntimo, cuyo conocimiento o empleo por terceros pueda afectar a sus

163
derechos, sean o no fundamentales, porque su objeto no es sólo la intimidad individual, que
para ello está la protección que el art. 18.1 CE otorga, sino los datos de carácter personal.
Por consiguiente, también alcanza a aquellos datos personales públicos, que por el hecho
de serlo, de ser accesibles al conocimiento de cualquiera, no escapan al poder de
disposición del afectado porque así lo garantiza su derecho a la protección de datos.
También por ello, el que los datos sean de carácter personal no significa que sólo tengan
protección los relativos a la vida privada o íntima de la persona, sino que los datos
amparados son todos aquellos que identifiquen o permitan la identificación de la persona,
pudiendo servir para la confección de su perfil ideológico, racial, sexual, económico o de
cualquier otra índole, o que sirvan para cualquier otra utilidad que en determinadas
circunstancias constituya una amenaza para el individuo. Queda, por lo tanto, bien claro que
la protección de los datos de carácter personal está reconocida como derecho a la libertad
informática en el artículo 18.4 de la CE y desarrollada en la LO 15/1999, de 13 de diciembre,
de Protección de Datos de Carácter Personal.

La Ley Orgánica del control jurisdiccional previo del CNI no se ocupa en ningún
momento de las posibles interferencias que las actividades de almacenamiento o
transmisión de información realizadas por el Centro puedan causar al derecho informático
del 18.4 de la CE. Quizás el Legislador se decantase por esta opción dando por supuesto
que la interpretación concordada de la Ley 11/2002 del CNI y la LO 15/1999 de PDP podría
ser suficiente. Sin embargo, esta solución plantea un pequeño problema al delegar en la
LSO que podría haberse solucionado:
Es cierto que la LOPD establece que el régimen de protección de los datos de
carácter personal que prevé no será de aplicación «a los ficheros sometidos a la normativa
sobre protección de materias clasificadas" y "a los ficheros establecidos para la investigación
del terrorismo y de formas de delincuencia organizada…. » Aunque si se requiere que el
responsable del fichero comunique a la Agencia de Protección de Datos que se ha
constituido previamente.
También es cierto que la Ley del CNI recoge en su art. 5.1 que: «las fuentes de
información y las informaciones o datos que puedan conducir al conocimiento de las
anteriores materias, constituyen información clasificada con el grado de secreto […]» Luego
estamos ante el reconocimiento de que aquellos datos de carácter personal que obren en
manos del Centro Nacional de Inteligencia y que de acuerdo con la Ley de Secretos
Oficiales sean declarados secretos por el órgano competente (Consejo de Ministros. Aunque
la LSO establece que tal declaración también la puede hacer la Junta de Jefes del Estado
164
Mayor, con la vigente ley entiendo que sólo le corresponde al Consejo de Ministros), podrán
almacenarse sin tener que quedar sometidos al régimen de garantías previsto en la LOPD.
Es más, en el supuesto de que esos ficheros no estuviesen sometidos a la ley de secretos
oficiales se les podría aplicar la excepción del artículo 24.1 de la LOPD que establece unas
garantías para las personas a las que se les requiere información que será objeto de
archivo. Excepción que consiste en restringir dichas garantías, previstas en el art. 5
apartados 1 y 2 de la LOPD, cuando ello afecte a la Defensa Nacional, a la Seguridad
pública o a la persecución de infracciones penales.
Aceptado lo anterior el problema se desprende de que con esta forma de actuar una
Ley preconstitucional (LSO) y, por tanto, que no tiene carácter orgánico puede actuar
limitando derechos fundamentales. A mi modo de ver esto se tendría que haber corregido en
la Ley 2/2002 del control jurisdiccional o, como mantiene la doctrina de forma mayoritaria,
con la aprobación de una nueva ley de secretos oficiales donde se dé una solución a este
problema de los ficheros secretos poniendo a disposición de un órgano jurisdiccional la
pertinencia o no de su creación y la incorporación de nueva información (ya hablamos de la
necesidad de que establezca un criterio de control de esos documentos, para que no afecte
al 24 CE). No debemos olvidar que el propio TEDH cuando se ha tenido que pronunciar
sobre si es contrario al artículo 8 del CEDH y al Convenio 108 del Consejo de Europa sobre
protección de las personas con respecto al tratamiento automatizado de datos de carácter
personal, la exclusión del régimen protector de datos cuando la medida es necesaria para
salvaguardar "la protección de la seguridad del Estado" o "seguridad pública", se debe hacer
mediante leyes que habiliten a ello y siempre que dichas medidas estén sometidas a cierto
control, que en último extremo debe recaer en el Poder Judicial (STEDH Leander, A 116,
núm. 59)
Por ejemplo, la LO 4/1997 que regula la utilización de videocámaras por las Fuerza y
Cuerpos de Seguridad en lugares públicos establece un riguroso sistema de limitación en
esta actividad. La captación, reproducción y tratamiento de imágenes y sonido ha de ser
autorizada previamente por una Comisión presidida por el Presidente del TSJCA, no captar
imágenes de lugares privados, y destrucción de lo grabado en un plazo de un mes si no
forma parte de un procedimiento administrativo o penal.
La LOPD también somete a un marco jurídico específico los datos y ficheros que
almacenen las Fuerzas y Cuerpos de Seguridad para fines policiales. Se establece como
límite que resulten necesarios para la prevención de un peligro real para la seguridad pública
o para la represión de infracciones penales. Además, se establece un límite en su utilización:
han de ser almacenados en ficheros específicos establecidos al efecto y clasificados en

165
categorías por el grado de fiabilidad. El problema que plantea este precepto es que autoriza
a los Cuerpos y Fuerzas de Seguridad a recoger información «sin el consentimiento de las
personas afectadas», cosa que puede incurrir en inconstitucionalidad. No debemos olvidar
que hasta ahora de lo que habíamos hablado era de la administración, ordenación y registro
de la información, luego dando por supuesto que la información que se maneja no atenta
contra el derecho al secreto informático ni a la intimidad en el proceso de su captación por
haberse hecho con el consentimiento del afectado y de conformidad a la legalidad. Pero aquí
lo que se dice es que estamos ante información captada sin consentimiento del afectado.
Nuevamente, haciéndome eco de la doctrina del TEDH SSTEDH Klass, A 28, núm. 55;
Rotaru, de 4 de mayo de 2000 y Leander, A 116, núm. 63 y 67, lo adecuado sería que el
control lo efectuase un órgano judicial.

7.3. Proceso de transmisión de la información

La información, evidentemente, no es un valor en sí mismo, sino que requiere que se


ponga a disposición de las instancias políticas competentes para que pueda desarrollar sus
funciones. Por ello, el artículo uno de la Ley del Centro Nacional de Inteligencia señala que
la función de recopilación, análisis y propuestas que hace el Centro ha de ser para ponerla a
disposición del Presidente del Gobierno o del Gobierno de la Nación a fin de que puedan
evitar amenazas o agresiones contra la integridad o independencia territorial de España o la
estabilidad del Estado de derecho y sus instituciones.
No cabe entender, desde mi punto de vista, que estemos ante un supuesto de cesión
de datos prohibida de acuerdo con la previsión del artículo 21. 1 de la LOPD. No lo es
puesto que estamos ante la actuación de una administración que actúa recopilando,
elaborando y transmitiendo datos como función encomendada. En todo caso le sería de
aplicación el artículo 21.2 de la LOPD que señala que «podrán, en todo caso, ser objeto de
comunicación los datos de carácter personal que una Administración Pública obtenga o
elabore con destino a otra».

Bibliografía

Álvarez Conde, E., (1998), «La necesidad de una reforma: los secretos de Estado tras las
sentencias del Tribunal Supremo de 4 de abril de 1997», en Acceso judicial a la obtención de
datos, Madrid, Consejo General del Poder Judicial.

166
Bardavío, J; P. Cernuda y F. Jáuregui, (2001), Servicios Secretos, Barcelona, Plaza y
Janés.

Bentham, J., (1991), Tácticas parlamentarias, Madrid, Congreso de los Diputados.

Bobbio, N., (1991), Il futuro della democrazia, Turín, Einaudi.

Bodino, J., (1985), Los seis libros de la República, Traducción Pedro Bravo, Madrid, Tecnos.

Hobbes, T., (1982), Leviatán, Traducción E. Tierno Galván, Madrid, Tecnos.

Cano Bueso, J., (1997), «Información parlamentaria y secretos oficiales», Revista de las
Cortes Generales, 42.

Díez-Picazo, L.M., (1998), Sobre secretos oficiales, Madrid, Civitas.

Fernández García, E., (1997), Entre la razón de Estado y el Estado de Derecho: racionalidad
política, Madrid, Dykinson.

Maquiavelo, N., (1982), El príncipe, Traducción Marcos Sanz, Busman.

Guicciardini, F., (1947), De la vida política y civil, Traducción de González Vicén, Madrid,
Espasa Calpe.

Kant, I., (1985), La paz perpetua, Traducción de Joaquín Abellán, Madrid, Tecnos.

Kriele, M., (1980), Introducción a la Teoría del Estado, Traducción de Eugenio Bulygin,
Buenos Aires, Depalma.

Pérez Villalobos, Mª C., (2002), Derechos fundamentales y servicios de inteligencia,


Granada, Grupo Editorial Universitario.

Ruiz Miguel, C., (2002), Servicios de inteligencia y seguridad del Estado constitucional,
Madrid, Tecnos.

167
Santaolalla López, F., (2002), «Actos políticos, inteligencia nacional y estado de Derecho»,
Revista Española de Derecho Constitucional, 65.

168
Centro Nacional de Inteligencia y orden constitucional

Agustín Eugenio de Asís Roig

Área de Derecho Administrativo

Universidad Carlos III de Madrid

aeasis@der-pu.uc3m.es

Introducción
La Ley 11/2002, de 6 mayo reguladora del Centro Nacional de Inteligencia supone la
primera regulación general y mediante norma con valor de Ley de la organización y actividades
de nuestros servicios de inteligencia. La justificación de la legislación es, en consecuencia,
evidente:
- En primer lugar, la necesidad de dar una regulación basada plenamente en los
postulados constitucionales6. En efecto, y pese a la labor de adaptación de marco
regulador, al contexto constitucional, los servicios de inteligencia han seguido hasta esta
norma reglados por unas normas cuyos elementos fundamentales había sido fijado en el
régimen político anterior a la Constitución de 1978. Y es evidente que se trata de un
sector especialmente sensible al cambio de contexto que significaba la Constitución de
1978, especialmente en lo referente a Derechos y garantías de los ciudadanos. Sin
embargo, por diferentes razones a las que no debieron ser ajenas la inestabilidad
política de los primeros ochenta y la lucha contra el terrorismo, propiciaron el
mantenimiento de dicha normativa.
- En segundo lugar, la obsolescencia de este marco regulador seguramente propiciaron los
diferentes escándalos, con relevancia en prensa, en la que se vio envuelto el Centro
Superior de Información de la Defensa en la primera mitad de la década de los 90, al
poner en evidencia la práctica ausencia de controles efectivos sobre la actividad de
estos servicios.
- En tercer lugar, la creciente relevancia del tema de la seguridad, manifestada
dramáticamente con los sucesos de 11 de septiembre de 2001 y que han determinado
la consagración como elemento esencial de la agenda política, a la seguridad. El
presente trabajo constituye una reflexión sobre el régimen normativo aplicado a estos

6
A pesar de las importantes reformas acaecidas con posterioridad no podemos olvidar que la creación del CISID, antecedente
del CNI, es anterior a la aprobación de nuestro texto constitucional
169
servicios, así como respecto de la suficiencia de la legislación aprobada a partir de la
reforma de 2002.

1. MARCO JURÍDICO DE LA FUNCIÓN DE INTELIGENCIA PARA LA SEGURIDAD


La perspectiva de la Ley es, como sucede, en general, en materia de Seguridad,
predominantemente orgánica y Corporativa, y por ello principalmente orientada a describir la
organización encargada de desarrollar los servicios de inteligencia, más que a la actividad en
sí7. Y, en este sentido la LCNI se limita a localizar el Consejo, en el ejecutivo, y habilitando para
la creación de un estatuto específico –en sus grandes líneas, porque en detalle es considerada
como materia clasificada (art. LCNI)- que hay que integrar con los principios y disposiciones
generales que rigen la actividad y organización de la Administración. Sin embargo, esta opción
tiene importantes consecuencias para la configuración de este sector de actividad:
1)En primer lugar, significa una renuncia por parte del poder público, a declarar y establecer
el concreto engarce constitucional orientador de la inteligencia como función. En otras
palabras, y sin perjuicio de la voluntad de servicio a la sociedad, común a la
organización administrativa en su conjunto, el legislador o entiende que la actividad que
realiza el CNI carece de un engarce constitucional concreto, o que dada las
características de éste, simplemente no pueden formularse. De esta forma, la función de
inteligencia, y su organización es un dato, con relevancia jurídica, pero sin un claro
engarce constitucional.
2)Es evidente que la Constitución no ha establecido directa y explícitamente una regulación
de la actividad de “inteligencia”8, sin embargo, la falta de una tradición jurídica y
constitucional derivada (entendiendo por tal, la producida como consecuencia de
conflictos jurídicos, surgidos a raíz de la actuación de estos servicios) hubieran sido de
gran utilidad en la interpretación de sus preceptos.
3)Ahora bien, que el legislador no haya querido pronunciarse a este respecto no significa
que no pueda establecerse esa plena integración en el edificio constitucional. La doble
función legitimadora y limitadora de su actividad que puede extraerse de esta
averiguación puede cumplir un papel esencial en la racionalización de la función y de la
Centro.

7
Esto ocurre, por ejemplo en materia de seguridad en general, desde la propia Constitución. La Constitución apenas define las
funciones de seguridad exterior, o interior cuyo contenido hay que inferirlo de una regulación más bien centrada en las
organizaciones encargadas de gestionarlas (véanse los artículos 8 y 104 CE como muestra). Esta opción, seguramente justificada
por la dificultad de contar con una base doctrinal y profesional acorde con las exigencias de una Constitución democrática, al
tiempo de aprobarse de ésta, sin embargo dificulta la determinación de los límites de estas funciones, y de sus objetivos.
8
Para una explicación sobre el silencio constitucional en esta materia véase (Ruiz Miguel : 2002, 174 y 175)
170
A. Breves antecedentes históricos
No existe una historiografía definitiva de la labor de los servicios de inteligencia (o, por
razones de la época histórica a la que nos referimos, los servicios secretos)9. Sí existen datos,
algunos historiográficos sobre la existencia de servicios secretos, más o menos estables, con
anterioridad a la II República. Sin embargo, ya sean anteriores a la Guerra de la
Independencia, o durante el período comprendido entre ésta y la II República, la experiencia en
esta materia está marcada por las idea de discontinuidad y contingencia, y fragmentación,
especialmente en lo que se refiere a los servicios exteriores. Es en la IIª República cuando por
primera vez se formula la necesidad de establecimiento de una organización estatal unitaria de
las labores de investigación. El punto de partida será la reforma del Estado Mayor de Ejército,
abordada por Decreto de 23 de marzo de 1932, en el que se crea la Sección del Servicio
Especial, al que se añadirán la Oficina de Información y Enlace, y al Comisión General de
Investigación Social10.
La Guerra Civil significó el desmantelamiento de esta experiencia, y su sustitución, tanto
durante la contienda, como con posterioridad, en la posguerra, por una pléyade de servicios
específicos de cada una de las organizaciones relacionadas con la seguridad11. Con carácter
general, los servicios secretos en esta época están más interesados en el control de los grupos
y movimientos políticos que pudieran contravenir el orden político.
B. La emergencia de la configuración actual de los servicios de inteligencia
La reorganización de los servicios, se produce se inicia en los años 60 con la creación
de la Organización Contrasubversiva Nacional, luego transformada en el Servicio Central de
Documentación (SECED)12.Esta organización significaba la creación de un cuerpo
especializado y autónomo de las distintas ramas del Gobierno y de la Seguridad (no estaba al
servicio del ejército, o los Cuerpos de Policía y Guardia Civil, del Movimiento). La progresiva
convergencia del CESED, con el Servicio de Información del Alto Estado Mayor (SIAEM),
propiciado desde 1976, por el teniente general Manuel Gutiérrez Mellado, entonces

9
Para la exposición de este tema seguimos, fundamentalmente la exposición que realiza (Ruiz Miguel , 2002), así como la que
figura en la página web de la CNI (http://www.cni.es)
10
Véase (Ruiz Miguel: 2002, 165 y ss.); en términos análogos en http://www.cni.es/castellano/index.html.
11
Tal es el caso del Servicio de Información del Movimiento (creado por Decreto de 31 de julio de 1939, y transformad
en Delegación Nacional por Decreto de 13 de abril de 1956), encargado de de la información política en todo el territorio del
Estado y estaba encuadrado en la Secretaría General del Movimiento Nacional; el Servicio de Información de la Dirección
General de Seguridad que se ocupaba de la investigación de los entonces denominados delitos político-sociales (a través de la
Comisarías Generales de Orden Público y Político – social, creadas por Ley de 30 de octubre de 1941) , en colaboración con el
Servicio de Información de la Guardia Civil; los servicios de Información del Ejército de Tierra, la Armada y el Ejército del
Aire, adscritos a las Segundas Secciones (Inteligencia) de los respectivos Cuarteles Generales, y los servicios de Inteligencia
Exterior y de Contrainteligencia, dependientes de la Tercera Sección del Alto Estado Mayor.
12
El origen de estos servicios está en la solicitud que realiza el Ministerio de Educación al Jefe del Alto Estado Mayor para
establecer un servicio dedicado al control de la actividad estudiantil conflictiva. Tal iniciativa a origen, inicialmente, en 1968, a
la Organización Contrasubversiva Nacional, transformada en 1972 el Servicio Central de Documentación (SECED), vinculada a
Presidencia del Gobierno.
171
Vicepresidente para Asuntos de la Defensa, permite la creación mediante Real Decreto
2723/1977, de 2 de noviembre de estructura y funciones del Ministerio de la Defensa, la
creación del Centro Superior de Información de la Defensa, como órgano encargado de
“obtener, evaluar, interpretar y facilitar al titular del Departamento cuanta información sea
necesaria o interese a la defensa nacional” (artículo 21 del RD 2723/1977)13; servicio
antecedente del actual CNI. El CESID, queda organizado en tres grandes ramas: 1) inteligencia
interior y contrainteligencia; 2) Inteligencia exterior, 3) la técnica.
Por Orden Ministerial 135/1982, de 30 de septiembre, el CESID pasa a depender
funcionalmente del Presidente del Gobierno, aunque mantiene su vinculación orgánica con el
Ministro de Defensa, definiendo como áreas principales de actuación las de: “Inteligencia
Exterior”, “Inteligencia Interior”, “Contrainteligencia” y “Tecnología, Procedimientos, Objetivos e
Instalaciones de Interés para la Defensa”. En años posteriores el CESID parece haber
consolidado, fundamentalmente, su actuación exterior. Sin embargo, van a ser diversas
circunstancias anómalas lo que va a llevar a la necesidad de un replanteamiento progresivo de
las funciones y actividad del CESID14. No obstante, en estos años también se avanza en la
institucionalización del Centro por ejemplo, con la aprobación, en 1995, del Real Decreto
1324/95, de 28 de julio se aprueba el Estatuto de personal todavía vigente en la actualidad, que
suponía la definitiva profesionalización de los miembros del Servicio. El 29 de junio de 2001,
por Real Decreto 741/2001, se otorgaba el rango de Secretario de Estado al Director del
CESID

C. Fundamento constitucional del CNI


En la Constitución no aparece expresamente indicada referencia alguna directa en
relación con los servicios de inteligencia, ni en su aspecto orgánico, ni siquiera en el
funcional15. Ello quiere decir que: (1) en la época de elaboración de la Constitución la
inteligencia tiene un tratamiento instrumental o adjetivo, dependiente de la salvaguarda de
bienes jurídicos relacionados con la Seguridad; esta seguridad, sin embargo, si tiene un reflejo
constitucional ya sea objetivo constitucional (defensa de la integridad territorial y el orden
constitucional, art. 8 CD, la seguridad ciudadana y la protección del ejercicio de los derechos
fundamentales, como fundamento de la convivencia (paz social del artículo 10 CE); derecho

13
Finalidades que son conectadas con el régimen constitucional mediante la reforma que del Estatuto se realiza en tiempos de
Calvo – Sotelo, por Real Decreto 726/1981, de 27 de marzo
14
Concretamente, me refiero a las crisis relacionadas con las escuchas telefónicas, el acceso a documentación relacionada con
operaciones irregulares contra el terrorismo, y la sustracción de documentación del Centro
15
A diferencia de otros países …
172
fundamental del ciudadano16, como motivo de limitación de derechos fundamentales (artículos
55 y 116 CE) y constitucionales (art. 105 CE). (2) Sin embargo, este silencio constitucional no
quiere indicar que la actividad de inteligencia carezca de límites jurídicos configuradotes de su
actividad17. En este sentido debe señalarse que:
1º Que como actividad de carácter pública su legitimidad procede de su consistencia
respecto del entramado constitucional. Lo que requiere una necesaria coherencia con el
orden formal y material de la Constitución; y especialmente con el orden de valores
instituido a partir del artículo 10 CE, sin perjuicio de su concreción en bienes, principios
constitucionales que la actividad de inteligencia debe respetar.
2º De entre esos principios, probablemente destacan: (1) la consideración de la dignidad
humana y los derechos que le son inherentes como elemento fundamental el orden
constitucional (artículo 10.1 CE); (2) el necesario control de la actividad de los poderes
públicos ya sea d carácter político como jurídico, exigible, desde luego por virtud del
principio democrático proclamado en el artículo 1.1 CE; (3) la exigencia de posibilidad de
control jurídico y de corrección de las irregularidades que se desprende del principio de
Estado de Derecho y de la realización del valor de justicia que justamente proclama el
artículo 1 CE; (4) pero principalmente, del principio de responsabilidad proclamado en el
artículo 9.3 CE derivado, lógicamente de la importancia de la labor de control.
3º En nuestro Derecho es evidente que se trata de una actividad ejecutiva y, dentro de
ésta de carácter administrativo. Ello es consecuencia lógica del papal que en materia de
seguridad corresponde al Gobierno y que puede fácilmente deducirse de la atribución a
éste de la dirección de la Administración civil y militar; así como la de los Cuerpos y
Fuerzas de Seguridad (artículo 104 CE). Sin embargo, puede y debe calificarse como
actividad administrativa y, por ello, sujeta –con las peculiaridades que sean necesarias-
al estatuto constitucional y legal de la Administración, recogido en los artículos, 97, 103 y
105 CE, y LRJPAC, entre otras.

D. Las peculiaridades jurídicas del marco jurídico-conceptual de la inteligencia


Sin embargo no puede negarse el arraigo, en la sociedad, de la atipicidad de esta
actividad administrativa. Es evidente que la importancia de los valores e intereses afectados
por el funcionamiento de los servicios de inteligencia, ofrecen interesantes oportunidades para

16
Artículo 17.1 CE, que nuestra jurisprudencia constitucional interpreta en clave de subjetiva (ATC 323/1982). En cuanto al
Derecho fundamental a la seguridad en los textos internacionales véase el artículo 6 de la Carta de Derechos de la Unión
Europea, artículo 5 del Convenio Europeo de Derechos Humanos.
17
No es fácil encontrar un fundamento constitucional específico para la actividad de los servicios de inteligencia. La postura
común en España en vincularla a la idea de Seguridad, bien como preservación de la forma de convivencia concretada en el
artículo 1.1 CE (Pérez Villalobos 2002)), bien como elemento auxiliar de las funciones de seguridad pública, interior o exterior
atribuidas al Estado ([Ruiz Miguel: 2002).
173
la construcción de obras de ficción configuradoras, a la postre, de una suerte de espacio de
inmunidad para los Estados. Sin embargo, ello no es deseable, porque normalmente esos
espacios de inmunidad pueden ser base o fundamento para el abuso y la ilegalidad.
En efecto, el genio expansivo del Estado de Derecho ha permitido establecer mecanismos
jurídicos que permiten compaginar las necesidades de actuación de un Estado, con la
necesaria preservación de los Derechos fundamentales de la persona. No podemos en esta
ocasión, profundizar en exceso sobre este tema, aunque sí realizar algunas afirmaciones que
permitan comprobar la necesaria y deseable juridificación de estas actividades.
1) Una solución de compromiso entre los valores relacionados con la inteligencia y los
restantes valores constitucionales debe articularse a partir de la Constitución en
consideración su función legitimadora de la totalidad de las funciones estatales (y de las
organizaciones que la desarrollan). En este punto se hace clara la dificultad derivada de la
falta de anclaje de estas funciones en la Constitución, debido a su carácter instrumental con
la que ha sido considerada en la legislación, sobre todo en relación a posibles colisiones
con otros bienes o derechos recogidos en la Constitución. Porque como ha dicho el Tribunal
Constitucional la delimitación de derechos protegidos constitucionalmente, sólo puede
hacerse en presencia de otros bienes y derechos constitucionales
2) La falta de formulación de objetivos propios obliga a recurrir a objetivos o fuentes de
legitimación vinculados con las actividades para las que se desarrolla dichas funciones de
inteligencia. Y ello supone un segundo nivel de dificultad dado que la función de inteligencia
puede no tener un fundamento directo en la salvaguarda de los intereses custodiados por
las funciones de seguridad, o puede no haberse materializado el interés sino a partir de la
realización de la función de inteligencia misma. Se trata de una intervención previa,
precautoria y de indagación por lo que complica más la comparación entre bienes, actuales
como es la incursión en la intimidad de las personas, y unos bienes abstractos de defensa
del Estado y de la Seguridad, potenciales en el momento de realizarse la intervención y que
sólo podrán comprobarse tras la actuación.
3) A lo que hay que añadir, el hecho del carácter material de la actividad que aparece
débilmente regulada (como todas las funciones de seguridad), y secreta, que dificulta la
exigencia constitucional de previa comparación y adecuación de los conflictos que deben
además representarse en norma con valor de Ley, eventualmente orgánica, para satisfacer
el principio de reserva de Ley establecido en el artículo 53 CE18.
En cualquier caso, la necesidad de atender a las peculiares necesidades de esta función de
salvaguarda de intereses generales, obliga a una articulación singular e manera que a) se

18
Nivel de protección que puede verse reflejado en las Sentencias TC 290/2000 y 292/2000, relativas a la constitucionalidad de
la Ley Orgánica de Protección de Datos.
174
asegure el cumplimiento del nivel de garantía y seguridad característico de la Constitución, con
la preservación de los objetivos públicos a los que la actividad de inteligencia sirve; b)
articulación, que se suele articular mediante una regulación poco intensa, caracterizable por (1)
la delimitación del ámbito material de funcionamiento de de la organización pública de
inteligencia; (2) el señalamiento de unos objetivos orientadores de su actividad, (3) la
determinación de las potestades y habilitaciones que permitan el desarrollo de su actividad, (4)
la aplicación de principios generales del ordenamiento orientadores y limitadores de la elección
práctica de los medios con lo que cumplir los objetivos propuestos y (5) la tipificación de los
instrumentos específicos de control que permitan el reequilibrio entre las necesidades públicas
de actuación y las garantías de los particulares19.

2. LA CONFIGURACIÓN DEL CNI


Como se indicó en la presentación la legislación aborda la regulación del CNI desde una
perspectiva orgánica o corporativa.
A. El centro y el Gobierno
La LCNI realiza una poco precisa y compleja configuración de la incardinación del CNI en la
organización del ejecutivo20. La descripción de esta inserción debe realizarse a partir de cinco
datos fundamentales: (1) los órganos respecto de los que Centro realiza sus funciones de
Inteligencia; (2) la función del Presidente de Gobierno; (3) la Comisión Delegada para Asuntos
de la Inteligencia; y (4) su adscripción orgánica al Ministerio de Defensa, y (5) la relación con
otros servicios de inteligencia.
1)El CNI presta sus servicios de inteligencia al Presidente del Gobierno y al Gobierno.
Los términos empleados sugieren que son varios los órganos que pueden solicitar o ser
beneficiarios de la actividad del Centro. En efecto, porque frente a la interpretación del
término Gobierno, como equivalente a Consejo de Ministros, la amplitud de los bienes e
intereses a cuya protección puede aplicarse la inteligencia (“…los intereses nacionales y
la estabilidad del Estado de derecho y sus instituciones”, ex art. 1 LCNI) hacen que
cualquier órgano del Gobierno (unipersonal o colegiado) pueda precisar y obtener
servicios del CNI. Sin embargo, la LCNI no aclara el cauce de comunicación con el
CNI, limitando a mencionar la Directiva de Inteligencia”, como instrumento de
determinación heterónoma de sus objetivos.

19
Sin perjuicio de cuanto se indicará más adelante para la relación entre Derechos fundamentales y servicios de inteligencia
véase (Pérez Villalobos: 2002).
20
Ello puede deberse a dos motivos: 1) la dificultad de “reducción” de los distintos servicios integrados históricamente en el
mismo (lo que significa la integración de diversas culturas, objetivos y metodologías, no fácilmente unificables); 2) el
mantenimiento de relaciones especiales con los centros superiores y directivos de la Administración General del Estado que
tradicionalmente han realizado un mayor uso de estos servicios, y que a la postre quedaría confirmada en el diseño de la
Comisión Delegada del Gobierno para Asuntos de la Inteligencia.
175
2)Corresponde al Presidente del Gobierno, además de recibir el resultado de inteligencia,
determinar los objetivos anuales que han de integrarse en la Directiva de inteligencia.
Este es el único reconocimiento expreso de funciones del Presidente del Gobierno en
relación con el Centro, y que le configuración como una dirección aparentemente “débil”
en la medida que no participa de la Comisión Delegada del Gobierno para Asuntos de la
Inteligencia (en adelante CDGAI), ni está prevista cauces de relación específica con el
Director del Centro, que habrá que establecerlas sobre la base de las técnicas que la
Ley de Gobierno le reconoce respecto de los demás miembros del Gobierno, ya que el
citado Director tiene la condición de Secretario de Estado21.
Con todo, llama la atención la escasa referencia a mecanismos específicos de
relación con el Centro, frente a las funciones directivas expresas reconocidas en
otros modelos de servicios, que sólo podría explicarse desde un intento de
preservar la responsabilidad del Presidente, respecto de las actividades del
Centro22.
3)La LCNI crea una Comisión Delegada del Gobierno para Asuntos de la Inteligencia,
“…presidida por el Vicepresidente del Gobierno que designe su Presidente e integrada
por los Ministros de Asuntos Exteriores, Defensa, Interior y Economía, así como por el
Secretario general de la Presidencia, el Secretario de Estado de Seguridad y el
Secretario de Estado Director del Centro Nacional de Inteligencia…” (artículo 6.2 LCNI)
que hace las funciones de Secretario23; a la que pueden ser convocados “…los titulares
de aquellos otros órganos superiores y directivos de la Administración General del
Estado que se estime conveniente...” (artículo 6.3 LCNI).
A este órgano se le atribuyen dos tipos de funciones
• Con carácter general: velar "por la adecuada coordinación de todos los servicios
de información e inteligencia del Estado para la formación de una comunidad de
inteligencia” (art. 6.1 LCNI); esta función, con todo, aparece francamente poco
definida, en la medida que:
i. la configuración de la función a cumplir por la Comisión es de vigilancia,
sin especificar los efectos de ésta ni los poderes que tiene en el ejercicio
de esta función, que hay que deducir de la configuración legal del tipo de

21
Especialmente en el punto relativo a la posibilidad de dar instrucciones a los miembros del Gobierno, establecida en los arts.
98.2 CE y 2.2..m LG.
22
En efecto, al diluir la posición del Presidente del Gobierno respecto del Centro, en el plano legal, será más difícil una
imputación directa de responsabilidad como consecuencia de las actividades, como en el pasado se intentó hacer en los
escándalos de las escuchas telefónicas, los papeles relacionados con la lucha antiterrorista, o la fuga de información del Centro.
23
A la complejidad propia del carácter político del órgano de coordinación se le une el escaso grado de definición de la norma
(como es el caso de la determinación de la instancia competente para convocar a la Comisión a los responsables de Centros
directivos que deban participar,), o la aparentemente poco meditada inserción de esta organización en al Administración General
del Estado (sobre este punto véase (Ruiz Miguel: 2002, 181-182).
176
organización elegida, la Comisión Delegada del Gobierno, el apoyo al
Gobierno en el desarrollo de sus funciones24; correspondiendo, en
consecuencia a cada miembro del Gobierno que tenga a su cargo la
dirección de los respectivos servicios adoptar las medidas que sean
procedentes, hay que entender que bajo la superior dirección del
Presidente del Gobierno25.
ii. En lógica consecuencia, no se prevén de forma expresa mecanismos que
permitan una relación directa de la CDGAI con los servicios de inteligencia
no dependientes del CNI. Ello determina una importante fuente de
debilidad para la creación de la “comunidad de inteligencia” que
encomienda el artículo 6.1 LCNI, que se hace poco menos que imposible
en relación con las funciones que realicen servicios no dependientes de al
Administración General del Estado, cuya coordinación con los servicios del
Estado queda, al parecer confiada, a lo que disponga la legislación
sectorial26.
iii. La indeterminación se extiende al resultado que la CNI establece como
resultado de la labor de la CDGAI, que es la “Comunidad de inteligencia”
cuya consistencia y estatuto no puede deducirse de la LCNI.
• De forma más concreta, la LCNI, reconoce a la CDGAI funciones concretas en
relación con el CNI: apoyo al Presidente en la formación de los objetivos del
Centro, el control de estos objetivos y la vigilancia de la coordinación del Centro
con otros servicios de inteligencia. No obstante, esta Comisión no pierde,
tampoco en este caso, una configuración poco definida en la medida: (1) carece
de potestades de dirección específicas reconocidas en la Ley, y su construcción
sobre la teoría de los poderes implícitos debido a la declaración de autonomía
funcional prevista en el artículo 7 LCNI; Su actividad se limita a la propuesta de
objetivos al Presidente, al que debe corresponder su aprobación, y desarrollar el
seguimiento y evaluación de los mismos. (2) Tampoco se aclara el alcance de las
funciones de control establecidas en la LCNI.
Por lo demás, la composición predominantemente política de esta Comisión
Delegada supone una renuncia implícita al desarrollo de cualquier control técnico
respecto la labor del CNI, quedando los miembros no técnicos (es decir, todos,

24
Véase la configuración funcional que realiza de este tipo de organización el artículo 6, apartado 4 LG.
25
Artículos 98.1 CE y 2 LG.
26
Ello es especialmente cierto respecto de las funciones de inteligencia que desarrollen servicios autonómicos como ha señalado
(Ruiz Miguel: 2002).
177
menos el Director del Centro) a expensas de la experiencia de éste en el
desarrollo de este control.
Otro elemento destacado es la “adscripción orgánica al Ministerio de
Defensa”. Esta declaración no sólo es importante a efectos de la localización de
las funciones, o del sentido militar o no que de facto pueda significar, sino sobre
todo, porque consagra al Ministro de defensa como otro elemento clave respecto
del funcionamiento del Centro que se manifiesta en su competencia para
proponer el nombramiento y la sustitución del Director del Centro (art. 9.1 LCNI),
sino por que dicha adscripción le atribuye una función de dirección estratégica
directa respecto del Director, derivada de la condición que la Ley le atribuye como
Secretario de Estado (art. 7.2 LG).
4)El último factor a considerar en el encuadramiento institucional del Centro es su relación
con la denominada Comunidad de Inteligencia aludida, pero no definida en el artículo
6.1 LCNI. La ausencia de precedentes de esta figura en nuestro Derecho, hace suponer
que el legislador ha recurrido a una figura “atípica” con la consciente intención de no
proceder a una formalización de un sistema nacional de inteligencia, lo que sólo puede
interpretarse en dos sentidos: o bien el que Gobierno, en el futuro regulará este sistema
o comunidad, o bien simplemente que es un brindis al sol, sin apenas consecuencias
prácticas (al menos jurídicamente exigibles).
El resultado de esta configuración es una evidente situación de “desenfoque” del sistema
que incrementa la impresión de ausencia absoluta de novedad o progreso efectividad en la
regulación de los servicios. En efecto, como si de una novela de espías se tratara, los
verdaderos protagonistas del sistema, que son el Presidente del Gobierno y el Ministro de
Defensa, sólo aparecen tras la investigación, y con una auténtica voluntad de ocultamiento de
su función dentro del sistema de inteligencia27. Siendo, por otro lado, tan débiles las funciones
atribuidas a la CDGAI que su constitución y funcionamiento no obstaculizará el funcionamiento
del Centro28
Aunque la creación del CNI supone la confirmación del proceso de progresiva
racionalización de los servicios de inteligencia, hay que recordar que, sin embargo, se
mantienen otra serie de servicios de inteligencia, cuya actividad parece, al menos teóricamente
deseable que se realice en recíproca coordinación. La creación del CNI no ha significado la

27
Por diversos motivos: la ausencia de un preciso estatuto para el Presidente del Gobierno, verdadera clave de la bóveda, sólo
puede explicarse como vía de escape del control de sus funciones de dirección del Centro, y de la responsabilidad que como
consecuencia del ejercicio de esta actividad pudiera derivarse; en relación con el Ministerio de Defensa, probablemente tenga
que ver con la impopularidad que pueda significar una dirección militar de la inteligencia.
28
En efecto, la Ley no condiciona el funcionamiento del centro a la necesidad del funcionamiento de la Comisión, o de la
determinación de objetivos para el CNI, por lo que éste puede funcionar sin la existencia misma de la citada Comisión,
178
desaparición de los otros servicios de información, por lo que parece necesaria articular
mecanismos de “coordinación” de estos distintos servicios. La LCNI no ha querido establecer
un mecanismo muy formalizado de relación entre los servicios, acudiendo al término
“comunidad de inteligencia” cuyo sentido la Ley no aclara29. Esta indefinición no solo se
produce por la absoluta falta de precisión en la definición del resultado de la coordinación, sino
por la deficiente configuración que se hace, incluso del órgano responsable del cumplimiento
de su función: la Comisión Delegada del Gobierno para Asuntos de Inteligencia. Sobre este
órgano desconcentrado del Consejo de Ministros recae la misión de "coordinar de todos los
servicios de información e inteligencia del Estado para la formación de una comunidad de
inteligencia" (artículo 6.1 LCNI). Sin embargo, ni su composición, ni sus funciones parecen
corresponderse con esta misión:
- La Comisión Delegada, tiene una composición casi exclusivamente política: esta
Comisión está
- Esta dificultad se incrementa al examinar las competencias, relacionadas casi
exclusivamente con el CNI30, lo que configura una competencia asimétrica (o coja)
ya que sus funciones de organización y coordinación de la citada comunidad se
hace sobre la base de sus competencias sobre el CNI.
Con todo, tampoco puede decirse que la CDGAI constituya el cauce de relación entre el
Gobierno y el CNI. Por un lado, y de acuerdo con el artículo 1 LCNI, el CNI realiza sus
funciones de inteligencia para el Presidente de Gobierno y del Gobierno: la falta de
especificación del cauce de interlocución con el Centro, por parte del Gobierno a la vez que se
extiende su actividad a la prevención de peligros, amenaza o agresión respecto de "los
intereses nacionales y la estabilidad del Estado de derecho y sus instituciones” permite
concebir que prácticamente cualquier miembro u órgano encuadrado dentro del complejo
constitucional que es el Gobierno podría ser beneficiario de sus servicios31. Por otro lado, de
acuerdo con el artículo 6.4.a LCNI, la determinación de los objetivos que anuales del CNI
integrados en la Directiva de Inteligencia son fijados por el Presidente del Gobierno,
correspondiendo su propuesta a la CDGAI. De esta forma a CDGAI adquiere un marcado

29
Ello sin perjuicio del fragmentario régimen de relación y comunicación previsto en las diferentes leyes reguladoras de las
organizaciones militares y civiles con servicios propios de inteligencia .
30
De acuerdo el artículo 6.4 LCNI, 4. Corresponde a la Comisión Delegada: a) Proponer al Presidente del Gobierno los
objetivos anuales del Centro Nacional de Inteligencia que han de integrar la Directiva de Inteligencia. b) Realizar el seguimiento
y evaluación del desarrollo de los objetivos del Centro Nacional de Inteligencia. c) Velar por la coordinación del Centro
Nacional de Inteligencia, de los servicios de información de los Cuerpos y Fuerzas de Seguridad del Estado y los órganos de la
Administración civil y militar.
31
Consecuencias constitucionales de esta configuración,
179
carácter adjetivo o auxiliar respecto del Gobierno de los servicios de inteligencia, que permitiría,
incluso su falta de funcionamiento32.
B. Estructura organizativa
El CNI se constituye como un organismo público con personalidad jurídica propia33, adscrito
orgánicamente al Ministerio de Defensa34 y plena capacidad de obrar (art. 7 LCNI). Al frente del
mismo está del Director, con rango de Secretario de Estado y será nombrado por Real Decreto
a propuesta del Ministro de Defensa (artículo 8.1 LCNI, 1 del RD 436/2003), por un mandato
será de cinco años, sin perjuicio de la facultad del Consejo de Ministros de proceder a su
sustitución en cualquier momento. La LCNI atribuye funciones de impulso de la actuación del
Centro y coordinación de sus unidades para la consecución de los objetivos de inteligencia
fijados por el Gobierno, y la garantía de la adecuación de las actividades del Centro a dichos
objetivos. Tales funciones, se concretan en las siguientes consecuencias:
1)Participar como miembro nato del CDGAI, en los términos antes indicados.
2)De carácter general (no específicamente relacionados con la inteligencia), representa al
CNI, elabora la propuesta de estructura orgánica del Centro Nacional de Inteligencia y
nombrar y separar a los titulares de sus órganos directivos; la aprobar el anteproyecto
de presupuestos; la celebración de los contratos y convenios con entidades públicas y
privadas que sean precisos para el cumplimiento de sus fines, y las restantes
competencias que reconoce la legislación vigente a los presidentes y directores de
organismos públicos y sus disposiciones de desarrollo.
3)Competencias específicamente relacionadas con el desarrollo de las actividades de
inteligencia, que a su vez, pueden agruparse en
a. De carácter relacional, consistentes en mantener los procedimientos de relación
necesarios para el desarrollo de las actividades específicas del Centro, y
mantener y desarrollar, dentro del ámbito de su competencia, la colaboración con
los servicios de información de las Fuerzas y Cuerpos de Seguridad del Estado y
los órganos de la Administración Civil y Militar, relevantes para los objetivos de
inteligencia.
b. Desempeñar las funciones de Autoridad de Inteligencia y Contra inteligencia y la
dirección del Centro Criptológico Nacional.
El Director de Centro cuenta con un gabinete y de él depende directamente una dos las
Direcciones Generales previstas en el RD 436/2003 La Ley igualmente prevé la existencia de

32
Que es posible, en la medida en que no es preceptivo, de acuerdo con la Ley que el CNI cuente con objetivos anuales, y éste
puede realizar sus funciones directamente con el Gobierno.
33
Para una regulación general de estos organismos véanse los artículos 41 y ss. LOFAGE
34
De acuerdo con el artículo 43.2 LOFAGE la adscripción orgánica significa la dirección estratégica, la evaluación y el control
de la actividad.
180
una Secretaría general. Cuyo titular tiene rango de subsecretario. Es nombrado por el Consejo
de Ministros, mediante Real Decretos, a propuesta del Ministerio de Defensa. La propuesta ha
de recaer necesariamente en una persona de reconocida experiencia y competencia
profesional en el ámbito de la Inteligencia. Sus funciones fundamentales son las siguientes
1)Apoyo y sustitución del Director del Centro en el ejercicio de sus funciones
2)Dirigir el funcionamiento de los servicios comunes del Centro a través de las
correspondientes instrucciones y órdenes de servicio.
3)En materia de personal, le corresponde
a. Desempeñar la jefatura superior de personal del centro, elaborar la propuesta de
relación de puestos de trabajo y determinar los puestos vacantes a proveer
durante cada ejercicio.
b. Nombrar y cesar al personal en el desempeño de puestos de trabajo que no sean
competencia del Secretario de Estado Director.
c. Designar las comisiones de servicio con derecho a indemnización.
d. Ejercer la potestad disciplinaria, como Jefe Superior de Personal, sin perjuicio de
las competencias asignadas a otras autoridades.
e. Acordar respecto del personal con una relación de servicios con carácter
permanente, la jubilación voluntaria, forzosa o por incapacidad física de acuerdo
con la normativa vigente en materia de clases pasivas.
f. Cualesquiera otras funciones que le atribuyan el Estatuto de Personal del Centro.
El RD 436/2003, prevé en ejercicio de la habilitación contenida e el artículo 8 LCNI a
existencia de dos Direcciones Técnicas, con rango de Director general, dependientes del
Director del Centro y del Secretario General, cada una. La legislación le atribuye el desarrollo
de funciones de inteligencia, contra inteligencia y recursos, sin perjuicio de cualesquiera otras
funciones que les atribuyan el Estatuto de Personal del Centro y las disposiciones
reglamentarias o internas.
C. Principios básicos del régimen de los medios personales y materiales del
Centro

Régimen de personal.
En línea con la tendencia de profesionalización de los agentes y analistas de inteligencia la
Ley prevé un régimen especial basado en los siguientes criterios:
1)Unidad de estatuto de su personal, sin perjuicio de la posibilidad de utilización de otro
personal (laboral o funcionario, para funciones distintas a las directamente reguladas en
la Ley)

181
2)Dicho estatuto debe comprender, como mínimo, los siguientes aspectos: a) el proceso de
selección del personal, que exigirá la superación de pruebas objetivas de acuerdo con
los principios de mérito y capacidad carácter temporal o permanente de la relación de
servicios con el Centro Nacional de Inteligencia; c) La estructura jerárquica del Centro
Nacional de Inteligencia y las relaciones orgánicas y funcionales consiguientes y d)
medidas administrativas que garanticen la reserva sobre los aspectos de gestión de
personal que afecten al funcionamiento del Centro.
3)Aplicación al personal del Centro de Medidas de Seguridad, derivadas de las
peculiaridades que va a desarrollar.
No existe una regulación derivada de la nueva legislación por lo que debería aplicarse lo
establecido en el Real Decreto 1324/1995, de 28 julio, por el que se regula el Estatuto del
Personal del CENTRO SUPERIOR DE INFORMACIÓN DE LA DEFENSA. Dicha regulación en
cuyo pormenor no podemos entrar en detalle puede caracterizarse por las siguientes notas.
(1) Constituye un Estatuto completo y pleno con regulación de la organización, carrera,
derechos y deberes y régimen disciplinario del personal al servicio del CNI. La
solución de regular un Estatuto específico para este personal suscita no pocos
interrogantes relativos:
a. En primer lugar, a la posibilidad misma de la regulación por Reglamento el
completo estatuto del personal al servicio del CNI. Debe recordarse que el
artículo 103.3 CE establece una reserva de Ley estricta para el régimen del
personal al servicio de la Administración, en garantía de de su objetividad e
imparcialidad. Como señalara, en su día, la STC 99/1987, dicha reserva de Ley
no permite remisiones en blanco defraudatorias de la finalidad que la propia
reserva persigue, circunstancia que impide invocar la habilitación genérica
contenida en la LCNI para cubrir la falta de cobertura legal de las disposiciones
establecidas en el Estatuto35.
b. En segundo lugar, suscita, en consecuencia el problema de la relación de sus
previsiones con el Estatuto general funcionarial o no. Es cierto que la regulación
establecida se acerca mucho a los principios generales establecidos para todo el
personal al servicio de la Administración en dichas normas. Sin embargo, el
problema se suscita en relación, precisamente, con las peculiaridades que no
estarían cubiertas expresamente por la Ley, una vez admitida la inviabilidad de
admitir como suficiente la cobertura derivada del artículo 8.1 LCNI.

35
Garantía más necesaria en el caso del personal el CNI a la vista de las funciones que debe desempeñar.
182
Es cierto que, de forma temporal, la cuestión podría soslayarse mediante la remisión
recepticia que la disposición transitoria única realiza a este estatuto, sin embargo, dicha
remisión, si es que sirve para dar cobertura a las peculiaridades del régimen, no serviría para
una regulación futura. Y es que, como ya se indicó las peculiaridades del régimen que
impliquen alteración de la legislación con relevancia constitucional, no sólo requieren una
decisión expresa, con el rango suficiente (en este caso, de Ley, por virtud de la reserva
establecida en el artículo 103.3 CE), sino la invocación del bien constitucional que justifica esta
peculiaridad con el objeto de poder comprobar la ponderación de bienes realizada por el
legislador, a la luz de los principios generales del Derecho. Obviando este importante tema,
junto con las peculiaridades que veremos en relación con la actividad y su organización,
consagran una regulación de los servicios de inteligencia en línea con la tradición, casi
preconstitucional, de oscurecer los mecanismos de control y las garantías de
independencia de sus miembros.
(2) Las peculiaridades son ciertamente importantes. Por un lado, no podemos olvidar la
evidente falta de transparencia –injustificada desde un punto de vista determinado y
concreto, debido al carácter genérico de su declaración- de su organización
amparada, con carácter general por el principio de secreto artículo 5.1 LCNI; (2) las
lógicas amplias facultades de nombramiento y cese que corresponden al recetario
General respecto del personal del Centro, pero que no incluyen limitación alguna, ni
elemento de control; (3) se produce una reinterpretación de los supuestos legales
reguladores de los distintos estatutos normativos reguladores de relaciones de
servicio desempeñadas con anterioridad a la incorporación al Centro36; (4) una
regulación autónoma de las circunstancias determinante del cese, algunas
relacionadas con el ejercicio de derechos fundamentales y que en el caso del régimen
general de la función pública determinaría situación de servicios especiales con
reserva del puesto de trabajo37; (5) regulación de un régimen propio de situaciones,
derechos y deberes, o de carrera de origen exclusivamente reglamentario; (6) pero,

36
Artículo 17. Situaciones con relación a la procedencia del personal permanente. Cuando se adquiera la condición de
permanente se estará, con relación a su procedencia, en las siguientes situaciones administrativas:
a) Servicios Especiales, recogido en el artículo 99, párrafo e) de la Ley 17/1989 (RCL 1989\1613), en el caso del personal
militar en la que no se perfeccionará el tiempo de mando o función requerido para el ascenso y en el artículo 9 de la Ley
28/1994 (RCL 1994\2906), en el caso del personal del Cuerpo de la Guardia Civil.
b) Excedencia voluntaria, recogida en el artículo 29, apartado 3.a), de la Ley 30/1984 (RCL 1984\2000, 2317, 2427 y ApNDL
6595), para el personal funcionario civil o situación equivalente en el Régimen Estatutario de procedencia.
c) Excedencia por incompatibilidad, para el personal vinculado a la Administración por contrato laboral indefinido.
d) Excedencia voluntaria, recogida en el artículo 141.a), del Decreto 2038/1975, de 17 de julio (RCL 1975\1765, 1976, 2238 y
ApNDL 10986), para el personal del Cuerpo Nacional de Policía.
37
Tal es el caso de “Cuando sea elegido por las Cortes Generales para formar parte de los Órganos Constitucionales u otros
cuya elección corresponda a las Cámaras; cuando sea adscrito a los servicios del Tribunal Constitucional, del Defensor del
Pueblo o del Tribunal de Cuentas; cuando sea nombrado miembro del Gobierno o de los Órganos de Gobierno de las
Comunidades Autónomas, Corporaciones Locales o alto cargo de las mismas” (artículo 18 del Estatuto).
183
seguramente el aspecto más sorprendente lo constituye el régimen disciplinario y
sancionador autónomo sin base legal alguna, cuya directa infracción del artículo 25
CE es bastante evidente. Sería deseable la modificación del CNI para incluir estas
peculiaridades con el debido rango normativo, así como para facilitar el necesario
cambio que en las competencias sobre personal se derivan de la nueva articulación
orgánica del Centro, y la definición del Secretario General como Jefe de personal38.
(3) Por lo demás la LCNI, prevé la acreditación del personal del Centro así como de la
adopción de medidas para protección de su identidad y seguridad, que eventualmente
puede incluir el uso de armas39. Los miembros del Centro Nacional de Inteligencia no
tendrán la consideración de agentes de la autoridad, con excepción de aquellos que
desempeñen cometidos profesionales relacionados con la protección del personal del
Centro y de las instalaciones del mismo.

Régimen económico –presupuestario.


La LCNI se establece los principios del régimen económico en el artículo 18, apartados 2 a
440.
1) En materia presupuestaria el artículo establece que el CNI elabora anualmente un
anteproyecto de presupuesto y lo elevará al Ministro de Defensa para remisión al Consejo
de Ministros, que lo integrará en los Presupuestos Generales del Estado para su posterior
remisión a las Cortes Generales (artículo 8.2 LCNI), financiándose con cargo a las
siguientes fuentes: a) transferencias consignadas en los Presupuestos Generales del
Estado, a través de un concepto específico; b) ingresos obtenidos como consecuencia del
normal desarrollo de sus actividades; c) ingresos procedentes de la gestión de su
patrimonio; d) ingresos procedentes de las actividades que pueda realizar, en virtud de
convenio o disposición legal y e) cualesquiera otros ingresos que le sea autorizado percibir.

38
En contra (Ruiz Miguel: 2002), piensa que las habilitaciones legales son suficientes para justificar estas peculiaridades, ya que
podrían recomponerse por integración de los distintos regímenes integrados en el estatuto del personal del CESID. Sin embargo,
no creo que ello sea posible por imperativo del principio de legalidad, la reserva de ley establecida en el artículo 103.3 CE, y la
específica configuración que del estatuto del personal del CNI (autónomo y separado de los anteriores) hace la LCNI. Además
no parece tampoco conveniente ya que con esta solución se impide la comprobación y crítica de las soluciones adoptadas bajo el
principio de legalidad, adecuación y proporcionalidad, además de significar un renacimiento de la vieja polémica de la
aplicabilidad del principio de reserva de ley a las relaciones especiales de sujeción, aparentemente superado por el propio
artículo 103.3 CE.
39
“Asimismo, sus miembros dispondrán de documentación que les acredite, en caso de necesidad, como miembros del Centro,
sin que ello exonere a la persona o entidad ante la que se produzca la acreditación de la obligación de guardar secreto sobre la
identidad de dicho personal. Las autoridades competentes ante las que comparezcan miembros del Centro Nacional de
Inteligencia, por motivos relacionados con actividades del servicio, adoptarán las medidas necesarias para asegurar la protección
de los datos personales, identidad y apariencia de aquéllos. También dispondrán de licencia de armas, en función de las
necesidades del servicio, de acuerdo con la normativa vigente.”
40
Desarrollada por Real Decreto 593/2002, de 28 junio, desarrolla el régimen económico presupuestario del Centro Nacional de
Inteligencia.
184
2) La gestión económico-financiera y su control se efectúa con arreglo a lo dispuesto en la Ley
General Presupuestaria para los Organismos públicos previstos en la disposición adicional
décima de la Ley 6/1997, de 14 de abril, de Organización y Funcionamiento de la
Administración General del Estado.
3) En materia de contratación, se establece que puede someterse al régimen de derecho
privado, lo que sólo podría aplicarse realmente en relación con los servicios que
comercialice el propio CNI, pero para la contratación con fines logísticos ya que por su
actividad, dependencia y control cae de lleno en el ámbito de aplicación de la legislación de
contratos de las Administraciones públicas (leg….), debiéndose atenerse a este régimen. El
propio reglamento de desarrollo del régimen presupuestario prevé esta posibilidad
indicando la posibilidad acudid a los mecanismos de excepción de la aplicación de la
legislación de contratos en materia relacionadas con la Seguridad, previstos en el artículo
296 TUE. Ahora bien debe, tenerse en cuenta en relación con este aspecto que: (1) dicha
excepción tienen un alcance bien delimitado y concreto (…) que impide su utilización
indiscriminada en fraude de las garantías objetivas de contratación establecidas en el
TRLCAP, y en la normativa comunitaria de aplicación a estos contratos; (2) es posible
acudir a otras excepciones más genéricas, pero más concretas para proteger la integridad
de la operatividad del Centro; (3) dichas excepciones a los principios de publicidad y
transparencia deberían estar sujetas a control de la justificación y proporcionalidad la
restricción que garantice que, junto con el principio de secreto, no se produzca una
verdadera fuente de descontrol económico – presupuestario.
4) También se prevé un régimen específico régimen de gestión patrimonial, cuya viabilidad
tiene también que ver con su compatibilidad con la reserva de Ley establecida en el artículo
132.3 CE, de acuerdo con lo que ya se ha indicado respecto del Estatuto de personal.

Control económico – presupuestario.


El CNI se encuentra sometido a control financiero permanente con el objeto de verificar
que la gestión económico-financiera se adecua a los principios de legalidad, economía,
eficiencia y eficacia, ejerciéndose por la Intervención Delegada destacada en el mismo, así
como control de eficacia, ejercido por el Ministro de Defensa, sin perjuicio de los controles
asignados a la Intervención General de la Administración del Estado y al Tribunal de Cuentas
por la Ley General Presupuestaria. Dicho control tendrá por finalidad comprobar el grado de
cumplimiento de los objetivos y la adecuada utilización de los recursos asignados.

3. ACTIVIDAD DEL CNI: MARCO JURÍDICO REGULADOR


A. Principios de actuación
185
De acuerdo con la caracterización indicada con anterioridad, la LCNI se limita a
establecer:
[1] Unos objetivos, establecidos con carácter general en el artículo 1 LCNI, consistentes en
“facilitar al Presidente del Gobierno y al Gobierno de la Nación las informaciones, análisis,
estudios o propuestas que permitan prevenir y evitar cualquier peligro, amenaza o agresión
contra la independencia o integridad territorial de España, los intereses nacionales y la
estabilidad del Estado de derecho y sus instituciones”; que se concretan anualmente en la
Directiva de Inteligencia que propone la Comisión Delegada para Asuntos de Inteligencia y
aprueba el Presidente del Gobierno41.
[2] Para el efectivo cumplimiento de dichos objetivos se le asignan funciones delimitadoras
del ámbito válido de actuación, relacionada con la inteligencia, contrainteligencia y seguridad
en la información (artículo 4 LCNI)42.
[3] Dichas funciones no se encuentran específicamente programadas aunque sí se ejercen
de acuerdo con principios y límites previstos en la propia legislación. Tanto en uno y otro caso,
la LCNI formula principios y límites específicos, que no implica la inaplicabilidad de los
establecidos con carácter general por el Ordenamiento para la actividad de la Administración.
En este sentido, debemos tener en cuenta que:
a) Se proclama el principio general de sometimiento de la actuación del Centro al
Ordenamiento jurídico, lo que determina de manera general y plena la
subordinación a las normas existentes y a los principios generales del Derecho,
especialmente los consagrados en la Constitución (por ejemplo, los previstos en el
artículo 9.3 CE) y no solo los de eficacia, especialización y coordinación, (art. 2.3 LCNI)

41
En relación con este punto véase lo indicado en el apartado dedicado a la organización.
42
Señala dicho artículo 4 LCNI lo siguiente:
Para el cumplimiento de sus objetivos, el Centro Nacional de Inteligencia llevará a cabo las siguientes funciones:
a) Obtener, evaluar e interpretar información y difundir la inteligencia necesaria para proteger y promover los intereses
políticos, económicos, industriales, comerciales y estratégicos de España, pudiendo actuar dentro o fuera del territorio nacional.
b) Prevenir, detectar y posibilitar la neutralización de aquellas actividades de servicios extranjeros, grupos o personas que
pongan en riesgo, amenacen o atenten contra el ordenamiento constitucional, los derechos y libertades de los ciudadanos
españoles, la soberanía, integridad y seguridad del Estado, la estabilidad de sus instituciones, los intereses económicos
nacionales y el bienestar de la población.
c) Promover las relaciones de cooperación y colaboración con servicios de inteligencia de otros países o de Organismos
internacionales, para el mejor cumplimiento de sus objetivos.
d) Obtener, evaluar e interpretar el tráfico de señales de carácter estratégico, para el cumplimiento de los objetivos de
inteligencia señalados al Centro.
e) Coordinar la acción de los diferentes organismos de la Administración que utilicen medios o procedimientos de cifra,
garantizar la seguridad de las tecnologías de la información en ese ámbito, informar sobre la adquisición coordinada de material
criptológico y formar al personal, propio o de otros servicios de la Administración, especialista en este campo para asegurar el
adecuado cumplimiento de las misiones del Centro.
f) Velar por el cumplimiento de la normativa relativa a la protección de la información clasificada.
g) Garantizar la seguridad y protección de sus propias instalaciones, información y medios materiales y personales.

186
o secreto (art. 5.1 LCNI43). Pero también la completa vigencia de los derechos
fundamentales y legales de los ciudadanos –y de las garantías a dichos derechos
asociadas- respecto de la actividad del Centro y, especialmente los relacionados
con la información.
b) Resulta crítica, como ya indicamos, la determinación de las potestades que pueda
desarrollar el Centro. Con carácter específico la Ley define pocas funciones
específicas. Salvo la posibilidad de actuar “bajo cobertura”, realización de
investigaciones de seguridad sobre personas (artículo 5 LCNI) o las actuaciones
relacionadas con el Secreto de la Comunicaciones o la inviolabilidad del domicilio
(regulado en la Ley Orgánica 2/2002, de 6 de mayo del control judicial previo del Centro
Nacional de Inteligencia); ello solo puede tener una explicación doble:
i) En primer lugar, que en su actividad bajo cobertura, y en virtud del deber de
colaboración que establece la Ley respecto de las restantes Autoridad y
funcionarios, el Centro puede actuar a través de las potestades de estos
Autoridades44.
ii) En segundo lugar, que el legislador puede no haber entendido necesario
precisar las potestades atribuidas al Centro por la posibilidad de deducirlas de
las funciones atribuidas, por el siempre peligroso expediente de la teoría de los
poderes implícitos.
En todo caso, y para las especificidades no establecidas en la Ley es evidente la aplicación del
régimen general aplicable con carácter general a la actividad de la Administración.
B. En particular: las actividades de inteligencia
La legislación no contiene un régimen detallado del desarrollo de las actividades e
inteligencia toda vez que éstas se consideran como actividades de carácter material. Como ya
se ha dicho, en otro lugar, la programación legal de esta actividad administrativa se caracteriza
por establecer los objetivos, y los medios para su regulación. No obstante, sí se contemplan
dos especialidades por su sensibilidad en relación con los derechos fundamentales de la
persona.
1)Por un lado, las actuaciones que suponen la intromisión en la intimidad personal y
familiar, el domicilio o la interceptación de comunicaciones, que se sujetan a

43
Señala el artículo 5.1 LCNI, que “Las actividades del Centro Nacional de Inteligencia, así como su organización y estructura
interna, medios y procedimientos, personal, instalaciones, bases y centros de datos, fuentes de información y las informaciones
o datos que puedan conducir al conocimiento de las anteriores materias, constituyen información clasificada, con el grado de
secreto, de acuerdo con lo dispuesto en la legislación reguladora de los secretos oficiales y en los Acuerdos internacionales o, en
su caso, con el mayor nivel de clasificación que se contemple en dicha legislación y en los mencionados Acuerdos”.
44
Señala el artículo 14. Para el cumplimiento de sus funciones, el Centro Nacional de Inteligencia podrá llevar a cabo
investigaciones de seguridad sobre personas o entidades en la forma prevista en esta Ley y en la Ley Orgánica reguladora del
control judicial previo del Centro Nacional de Inteligencia. Para la realización de estas investigaciones podrá recabar de
organismos e instituciones públicas y privadas la colaboración precisa
187
intervención judicial previa en los términos que más adelante se analizarán (Ley
Orgánica 2/2002, 14 de 6 de mayo). Aunque la Ley no lo contemple expresamente
resultan de aplicación las garantías generales establecidas en relación con la captación,
gestión y difusión de la información, sin perjuicio de la excepción que con carácter
general realiza la propia LOPD respecto de su aplicación a las materias clasificadas; y,
en especial a los principios de proporcionalidad y legalidad como reglas determinantes
de la medida de las indicadas intervenciones.
2)Por otro lado, las intervenciones y actividades bajo cobertura. El Centro Nacional de
Inteligencia puede disponer y usar de medios y actividades bajo cobertura. A tal efecto
pueden recabar de las autoridades legalmente encargadas de su expedición las
identidades, matrículas y permisos reservados que resulten precisos y adecuados a las
necesidades de sus misiones.

4. CONTROL
Tanto el principio democrático, consagrado como elemento definidor de la forma de Estado,
como la realización del Estado de Derecho, y la efectividad del principio de responsabilidad
requiere la articulación de instrumentos de control
1)Desde un punto de vista estrictamente administrativo ya se han descrito algunas formas
de control de carácter administrativo, jurídico, y económico contable realizados por la
Comisión Delegada del Gobierno para Asuntos de la Inteligencia, el Ministerio de
Defensa ó la Intervención General del Estado.
2)Sin embargo, junto con los anteriores la legislación del CNI prevé, al menos dos
controles de carácter especial:
a. El control parlamentario, que corresponde al Congreso de los Diputados, en la
forma prevista por su Reglamento, a través de la Comisión que controla los
créditos destinados a gastos reservados, presidida por el Presidente de la
Cámara, la información apropiada sobre su funcionamiento y actividades. El
contenido de es tas sesiones de control tiene carácter secreto. El ejercicio de
este control se produce respecto de:
i. La actividad del CNI y con tal motivo tiene acceso a materias
clasificadas, con excepción de las relativas a las fuentes y medios del
Centro Nacional de Inteligencia y a aquellas que procedan de servicios
extranjeros u organizaciones internacionales en los términos establecidos
en los correspondientes acuerdos y convenios de intercambio de la

188
información clasificada; lógicamente los miembros de esta Comisión están
obligados.
ii. Pero también de los objetivos de inteligencia establecidos
anualmente por el Gobierno y del informe que, también con carácter
anual, elaborará el Director del Centro Nacional de Inteligencia de
evaluación de actividades, situación y grado de cumplimiento de los
objetivos señalados para el período anterior.
b. Control judicial previo regulado en la Ley Orgánica 2/2002, de 6 de mayo. Este se
produce para la adopción de medidas que afecten a la inviolabilidad del domicilio
y al secreto de las comunicaciones, siempre que tales medidas resulten
necesarias para el cumplimiento de las funciones asignadas al Centro. Esta
intervención se produce mediante solicitud de autorización presentada por el
Director del CNI al Magistrado del Tribunal Supremo competente45 de acuerdo
con lo establecido en la LOPJ, formulada por escrito y en la que ha de constar: a)
especificación de las medidas que se solicitan, b) los hechos en que se apoya la
solicitud, fines que la motivan y razones que aconsejan la adopción de las
medidas solicitadas, c) la identificación de la persona o personas afectadas por
las medidas, si fueren conocidas, y designación del lugar donde hayan de
practicarse y d) la duración de las medidas solicitadas, que no podrá exceder de
veinticuatro horas en el caso de afección a la inviolabilidad del domicilio y tres
meses para la intervención o interceptación de las comunicaciones postales,
telegráficas, telefónicas o de cualquier otra índole, ambos plazos prorrogables por
sucesivos períodos iguales en caso de necesidad. Las respuesta debe producirse
en el plazo de 72 horas, salvo que se considere que concurren motivos de
urgencia, en el que plazo se reduce a 24 horas. El material obtenido que no
tenga relación con la actividad deberá ser destruido

Bibliografía

Asís Roig, Agustín, (2001), “Protección de datos y Derecho de las telecomunicaciones”, en Cremades,
Fernández – Ordóñez e Illescas, Régimen jurídico de Internet, La Ley, pp. 201-228.

Fernández Chateignier, Vanesa, (5 marzo 2003), “La Protección Jurídica del secreto de las comunicaciones en
Internet”, Diario La Ley.

Marroig Pol, Lorenzo, (10 junio 2003), “La seguridad nacional y el acceso a los datos de tráfico de las

45
Este magistrado es nombrado por el Pleno de Consejo del Poder Judicial a propuesta de su presidente (art. 127.4 LOPJ)
189
comunicaciones electrónicas”, Diario La Ley.

Montañés Pardo, Miguel Ángel, (1999), La Intervención de las Comunicaciones. Doctrina jurisprudencial,
Pamplona, Aranzadi.

Pérez Villalobos, María Concepción, (2003), Derechos fundamentales y servicios de inteligencia, Granada,
Grupo Editorial Universitario.

Ruiz Miguel, Carlos, (2002), Servicios de inteligencia y seguridad del Estado Constitucional, Madrid, Tecnos.

Lista de legislación citada:


CE: Constitución Española de 1978
LCNI: Ley 11/2002, de 6 de mayo reguladora del Centro Nacional de Inteligencia
LG: Ley 50/1997, de 27 de noviembre del Gobierno
LOFAGE: Ley 6/1997, de 14 de abril, de Organización y Funcionamiento de la Administración General del Estado
LOPD: Ley Orgánica 15/1999, de 13 de diciembre de Protección de datos de carácter personal
LOPJ: Ley Orgánica 6/1985, de 1 de julio del Poder Judicial
LOSF: Ley 9/1968, de 5 de abril reguladora de los Secretos Oficiales
TRLCAP: Texto Refundido de la Ley de Contratos de las Administraciones Públicas
TUE: Tratado de la Unión Europea

190
La observación espacial en la gestion de crisis

Fernando Davara Rodríguez


Director del Centro de Satélites de la Unión Europea

Introducción

En los últimos años la escena internacional ha sufrido una profunda transformación que
ha dado lugar a un nuevo contexto estratégico mundial y local. La unificación alemana y la
desaparición de la antigua Unión Soviética, el progresivo establecimiento de las bases de una
Europa común, la continua aparición de conflictos regionales, etc., han variado sensiblemente
el escenario mundial obligando a la adopción de nuevas estrategias en el contexto de la
seguridad y defensa comunes. La disminución del riesgo de conflicto mundial no ha evitado la
permanente aparición de diversas fuentes de inestabilidad. Los conflictos bipolares han
devenido en multipolares y las crisis regionales tienen tendencia a globalizarse, e incluso en
algunos casos han dado lugar a verdaderos conflictos armados (Golfo Pérsico, Bosnia,
Kosovo, Afganistán, ...).

Este nuevo escenario implica que los países de nuestro entorno, integrados en alianzas
comunes, están dando impulso a la moderna concepción de la defensa, que ya no se entiende
como algo limitado al espacio de soberanía propio, pues mas allá de éste existen factores de
inestabilidad generadores de riesgos, muchas veces impredecibles, que afectan
negativamente al esfuerzo común de paz y estabilidad. Así aparece un nuevo modelo, que se
desarrolla alrededor de un núcleo constituido por la prevención, gestión y resolución de crisis,
donde a las antiguas amenazas políticas y militares se añaden nuevos elementos de riesgo,
cuyos ejemplos mas caracterizados son el terrorismo o el impacto de la presión
medioambiental. También integran dicho núcleo otras medidas que cooperan para lograr las
metas deseadas del mantenimiento de la estabilidad y la convivencia en paz y libertad, entre
las que se incluyen la reducción de armamentos, el establecimiento de medidas de confianza
entre naciones y el incremento de la cooperación en todos los órdenes.

En la Unión Europea también se está teniendo en cuenta este tipo de consideraciones.


Así ha comenzado a estudiarse la idea de una Europa de la Defensa, cuyos primeros pasos
se dieron en los Consejos Europeos de Colonia y Helsinki, y más recientemente en Niza,
191
Laeken, etc,, donde la UE ha decidido asumir responsabilidades en materia de seguridad y
defensa comunes, utilizando los recursos propios de los países europeos para reaccionar de
forma autónoma frente a las crisis internacionales.

Gestión de crisis

En este nuevo contexto parece adecuado aproximar una definición del concepto crisis,
pues el término se aplica de forma diferente según sean los actores implicados. En el marco de
esta ponencia puede considerarse una crisis como cualquier suceso provocado por la acción
humana (como accidentes nucleares, conflictos, ...), o por desastres naturales (terremotos,
huracanes, ...), que puede ser causa de graves problemas y poner en riesgo vidas y
propiedades, con consecuencias dramáticas, en algunos casos catastróficas (a este respecto
no puede olvidarse que las consecuencias del huracán Mitch causaron mas de 11.000
muertes).

En la actualidad pueden identificarse múltiples crisis, que se suceden por todo el globo y
se originan por diferentes causas, entre las que destacan las políticas y etno-políticas, socio-
económicas, demográficas y migratorias, las provocadas por acciones de terrorismo, o por
problemas de distribución y utilización de recursos vitales o medioambientales.

La gestión de una crisis abarca diversas fases y actividades, que comienzan por su
prevención, para evitar que devengan en una verdadera crisis e incluso en un conflicto
armado, continuando con una respuesta rápida, caso de generarse la crisis, su solución,
en la que se incluye la reducción del posible impacto en otras crisis, finalizando por la
recuperación, tratando de volver a la situación de normalidad anterior. Esta fase queda
muchas veces abierta, siendo causa de nuevas crisis, derivadas de la falta de solución de la
primitiva. De forma genérica pueden identificarse una serie de problemas que suelen
acompañar a la gestión de crisis, como son la necesidad de llevar a cabo actividades de
gran escala y complejidad, o la naturaleza impredecible de las necesidades e
infraestructuras, sin olvidar la característica de urgencia que suelen presentar la mayor parte
de las crisis, incluso aquellas que se habían gestionado desde la fase de prevención.

El dominio de la gestión de crisis es de tales dimensiones que puede considerarse que


el número de actores implicados es de amplio espectro, destacando especialmente los
Gobiernos y Administraciones, con un papel relevante de las Tecnologías de la Información y

192
las Comunicaciones y, teniendo en cuenta el objeto de esta ponencia, los medios espaciales,
entre los que se incluye la Observación de la Tierra desde el espacio. En definitiva, en el
contexto actual la gestión de crisis comprende riesgos de todo tipo (políticos, económicos,
sociales, militares, de medio ambiente, ...), en los que se encontrarán implicados diferentes
actores cuya principal misión será prevenir, gestionar y resolver, crisis de amplio espectro, así
como evitar conflictos y proteger los intereses comunes ante cualquier tipo de amenaza.

Dimensión estratégica del uso del espacio

En este nuevo contexto, caracterizado además por la extremada rapidez con que se
producen los cambios, puede asegurarse sin temor a error que uno de los condicionantes
vitales es el rápido y fácil acceso y difusión de información de cualquier orden. En la
sociedad del conocimiento, que nos transporta al siglo XXI, la información y las
comunicaciones constituyen su sistema nervioso, uno de cuyos elementos críticos que
aseguran el eficaz funcionamiento de esta red neuronal son los medios espaciales, por su
capacidad de sobrevolar y conectar virtualmente cualquier punto de la Tierra, con la
consiguiente facilidad de acceder a la información, y analizarla, explotarla y difundirla.

Antes de seguir adelante parece conveniente hacer una aproximación al concepto de


espacio, dado que el término admite diversas interpretaciones, que a veces son causa de
confusión. Al hablar del espacio en la gestión de crisis se hace uso de un concepto amplio
en el que se incluyen el espacio, como medio, y los sistemas espaciales (en el espacio o en
tierra). En este sentido se hace referencia al uso del espacio, y sus sistemas, como un
medio distinto de la tierra, mar o aire, así como el uso de las capacidades que requiere el
medio espacial, con objeto de cooperar y apoyar a la prevención, gestión y resolución de
crisis.

Las experiencias vividas recientemente en el nuevo marco geopolítico, desde la


Guerra del Golfo hasta los diferentes conflictos que se han sucedido en los Balcanes,
Afganistán, etc., han contribuido a destacar la dimensión estratégica del uso del espacio y de
sus diversos dominios de aplicación en los diferentes escenarios susceptibles de aparecer
en esta moderna concepción de prevención/gestión/resolución de crisis. En este dominio, los
medios espaciales aparecen como una herramienta indispensable por su capacidad de
obtener y difundir información de forma repetida y en cualquier lugar del globo. Considerando
además otras características, como la permanencia, el carácter global y no agresivo y su

193
libertad para franquear fronteras, se deduce que su utilización permite disponer de
comunicaciones e informaciones fiables y precisas, con total independencia, con toda
discreción y en el estricto respeto de las leyes internacionales.

Estos medios son adecuados en todas las fases relacionadas anteriormente. Su


capacidad para identificar los indicios de las crisis, ayuda a evaluar los riesgos antes de que
se conviertan en amenazas. Su agilidad y flexibilidad de comunicación permiten proporcionar
avisos con antelación, concediendo mas tiempo a los responsables de tomar decisiones para
reaccionar con todos los medios posibles (políticos, económicos, militares, ..) así como para
preparar planes genéricos de posibles acciones. Finalmente, si llegado el caso se
desencadena la crisis, los medios espaciales constituirán una importante ayuda en su gestión
y resolución, reduciendo, en casos extremos, la necesidad de exponer los medios
directamente.

La importancia del uso de medios espaciales tiene un amplio eco en la Unión Europea
que considera el espacio como un desafío estratégico en diferentes sectores (científicos,
tecnológicos, industriales…). Concretamente en el dominio de la Seguridad y Defensa las
infraestructuras de satélites (en el espacio y en tierra) son una de las bazas para la PESC, a
la que los actuales sistemas y las iniciativas futuras pueden proporcionar una considerable
ventaja en el sector de la defensa gracias a los efectos potenciales de la sinergia y dualidad.

Sistemas espaciales apropiados para la gestión de crisis

Una de las posibles clasificaciones de los sistemas espaciales incluye las familias de
Observación, Comunicaciones, Navegación, Meteorología y Geodesia. Pero al tratar de
cuestiones estratégicas relacionadas con la prevención y gestión de crisis son las tres
primeras las que merecen una especial atención.

La Observación espacial cuenta con un gran número de aplicaciones, que se incrementa


día a día, tanto en el sector civil, como en el gubernamental (urbanismo, organización del
territorio, medioambiente, ..) o el comercial (definición y desarrollo de redes de
telecomunicaciones, sistemas de gestión de flotas, ..). Pero donde alcanza su más alto
grado de utilización es en el de la inteligencia, al constituir una herramienta esencial, al
alcance de unos pocos privilegiados, que permite la obtención de información de forma
permanente y repetitiva, en todo lugar del globo.

194
Además, los sistemas de observación de la Tierra desde el espacio sirven también
para la preparación de las operaciones, favoreciendo la utilización de los modernos sistemas
de armas. Por todo ello, al proporcionar a sus usuarios una gran capacidad de evaluación y
gestión de la situación desde los inicios de las crisis, se considera que el uso de sistemas
espaciales de observación representa una necesidad crucial en la integración de las
potencialidades de gestión de crisis.

En el campo de las Telecomunicaciones los satélites constituyen la columna vertebral de toda red de
comunicaciones, soportando y complementando al resto de medios. Su empleo esta especialmente
recomendado en aquellas operaciones de gestión y resolución de crisis que implican una rápida proyección de
medios, de gran movilidad, sobre zonas alejadas y muy diversificadas, donde son vitales la flexibilidad y
capacidad de reacción. La Navegación por satélite, nació y creció con una fuerte vocación de uso militar, para
posicionar móviles y guiar armas de precisión. Pero el incremento de la demanda de la sociedad de la
información ha dado lugar al desarrollo de un número creciente de servicios que cada vez utilizan mas las
informaciones proporcionadas por los sistemas de navegación espaciales, en el dominio de los transportes,
comunicaciones, control de tráfico, etc.

En el caso concreto de la prevención y gestión de crisis, la información de posición y de tiempo que


proporcionan los sistemas de navegación constituyen datos críticos, algunas veces indispensables,
especialmente para el desarrollo de operaciones donde intervengan sistemas de armas modernos. En este
sector existe una hegemonía ejercida por los sistemas GPS americano y GLONASS ruso, a la que Europa trata
de compensar con el desarrollo de su propio sistema, Galileo, que bajo el patrocinio de la Comisión Europea y
la Agencia Europea del Espacio ha comenzado ya su fase de definición. Este ambicioso proyecto deberá
dinamizar el mercado de los servicios de navegación espacial, a la vez que constituirá una gran aportación a la
idea de lograr cierta autonomía europea en la gestión de crisis.

Nuevos tiempos, nuevas misiones

En la era de la Guerra Fría, la mayor parte de los sistemas espaciales fueron


desarrollados con un objetivo estratégico muy concreto, la disuasión, así como la prevención
y alerta de un posible conflicto nuclear entre los Estados Unidos y la Unión Soviética. Unos
estaban diseñados para detectar el lanzamiento de misiles balísticos con tiempo suficiente
para reaccionar adecuadamente (alerta temprana de ataques de misiles balísticos), mientras
que otros lo fueron para transmitir dicha alarma y asegurar las comunicaciones
(especialmente relacionadas con la amenaza nuclear) o para apoyo a la posible respuesta
ante un ataque convencional o nuclear. En definitiva, el espacio era una herramienta para
alcanzar los objetivos estratégicos globales. Pero, como se indicó anteriormente, el concepto
estratégico en el que se desarrollaron, adquirieron y justificaron la mayor parte de los medios

195
espaciales ha dado paso a un escenario evolutivo y dinámico que presenta nuevos desafíos
para los actores implicados en la gestión de crisis. La identificación de las nuevas misiones
debe hacerse utilizando un vocabulario más actual, donde aparecen términos tales como
operaciones humanitarias, mantenimiento de la paz, operaciones de rescate, etc., que
definen misiones relacionadas con la vigilancia y alerta de amenazas y crisis, el apoyo a la
gestión y resolución de dichas crisis, la necesidad de asegurar comunicaciones permanentes
en escenarios que pueden ser simultáneos y distribuidos por toda la superficie de la Tierra,
la navegación y el posicionamiento, etc. Ahora los sistemas espaciales han dejado de ser
solamente una herramienta, para convertirse en parte integral del conjunto de medios que
pueden utilizarse en todo el espectro de las crisis.

Dominios de aplicación

La consecuencia práctica de lo expuesto anteriormente ha sido la necesidad de actualizar


(en algunos casos redefinir) las misiones a cumplir por los sistemas espaciales que colaboren
en la gestión de las diferentes crisis que puedan aparecer dentro de una amplio abanico de
posibilidades y en escenarios muy diversos. Una posible relación, no exhaustiva, incluiría las
siguientes misiones:
• Apoyo a la actuación en el marco de fuerzas multinacionales.
• Apoyo a operaciones de establecimiento y mantenimiento de la paz, de ayuda
humanitaria y rescate.
• Asegurar las comunicaciones permanentes, en cualquier lugar y circunstancia, así
como la transmisión y difusión de la información.
• Obtención y evaluación de información sobre posibles amenazas, para deducir su
evolución y medidas de prevención, gestión y defensa, si llegara el caso. (Incluye
Inteligencia, gestión de bases de datos,...)
• Apoyo en operaciones multipolares y regionales de gestión y resolución de crisis.
• Apoyo a la verificación de acuerdos de desarme, embargos, etc.
• Vigilancia de la proliferación de armas de destrucción masiva (ensayos, plantas de
potencia, factorías,..).
• Contribución a la generación, mantenimiento y actualización de cartografía de todo
tipo.
• Vigilancia, información y cooperación en el control de zonas potenciales de crisis
medioambientales.

196
• Contribución a la prevención y gestión de siniestros naturales, tales como
inundaciones, terremotos, etc.
• Contribución a la prevención y gestión de siniestros artificiales, tales como accidentes
en centrales nucleares, térmicas, complejos químicos, etc.
• Información sobre la existencia, extensión, daños, etc., de contaminaciones
ambientales.
• Vigilancia y control de actividades ilegales (cultivo y tráfico de drogas, terrorismo,
inmigración clandestina,..)
• Colaboración en tareas de protección civil.

Evolución del uso del espacio; tendencias futuras

Al estudiar la evolución del uso del espacio, especialmente en la última década, gran
parte de los analistas y estudiosos del tema coinciden en afirmar que el concepto dominante
es el de multiplicación. Esta expansión, que se detecta en casi todos los dominios, es muy
evidente en algunos muy concretos. Así puede hablarse de la multiplicación (o importante
aumento) de los medios espaciales y de las posibilidades y capacidades que ofrecen a los
usuarios. No menos importante es la multiplicación del número de actores implicados, que
ha pasado de un mínimo, representado por el sector militar o de defensa, a una cantidad
más importante, integrada por sectores gubernamentales, científicos, comerciales, etc.
Finalmente, es de destacar la multiplicación de los posibles papeles a jugar en los actuales
y futuros escenarios donde sea preciso gestionar crisis o hacer frente a conflictos y
amenazas.

Esta continúa evolución del uso del espacio, acompañada por el crecimiento de la
demanda del sector civil, especialmente en lo que respecta a las tecnologías de la
información y las comunicaciones, aconseja analizar cuidadosamente las tendencias
actuales y a corto plazo con objeto de obtener un mejor rendimiento de las capacidades
ofrecidas por el medio espacial y conocer las nuevas oportunidades que puedan ayudar a
alcanzar los objetivos de seguridad y defensa común, en especial de la gestión de crisis.

¿Por qué utilizar satélites de observación para la gestión de crisis?

Dentro de la amplia gama de posibilidades que ofrece el espacio destacan los


sistemas de Observación de la Tierra, cuyo uso está muy difundido para todo tipo de

197
aplicaciones, incluyendo la gestión de crisis. Entre sus ventajas destacan la cobertura de
áreas muy extensas, la rapidez en el acceso a la información, o el evitar entrar en los
territorios observados, así como la posibilidad de llevar a cabo la obtención de información
sin previo aviso, sin olvidar la posibilidad de actualizar periódicamente dicha obtención.
Como inconvenientes, los más relevantes son la falta de acceso a determinadas
informaciones, dadas las limitaciones técnicas de los sensores, la precisión limitada en
determinados casos, que obliga a corregir con GPS, haciendo el proceso más complejo, o el
menor rendimiento en áreas que normalmente están cubiertas de nubes.

Gestión de crisis en la Unión Europea


La Unión Europea no permanece ajena a este dominio de la gestión de crisis. Así, el
Tratado de la Unión contempla las denominadas Política Exterior y de Seguridad Común
(PESC) y Política Europea de Defensa y de Seguridad Común (PEDSC). Según dicho
Tratado la PESC promocionará la paz, la seguridad internacional y el mantenimiento de la
democracia y los derechos humanos, siendo la seguridad común la función principal de la
PEDSC, que se define como el complemento de la PESC.

La actual estrategia de gestión de crisis y prevención de conflictos en la Unión Europea


tiene como objetivos principales el uso más sistemático y coordinado de las herramientas de
gestión de crisis, el incremento de la efectividad de las acciones de prevención, así como el
desarrollo de una mayor capacidad de respuesta con medios propios de la UE y la promoción
de una mayor cooperación internacional en este dominio.

Centro de Satélites de la Unión Europea (EUSC)

Dentro de las estructuras políticas y militares que se han creado con este fin se
encuentra una Agencia del Consejo de la Unión que está dedicada precisamente al apoyo
de las políticas de gestión de crisis utilizando principalmente medios de observación de la
Tierra desde el espacio. Esta Agencia, denominada Centro de Satélites de la Unión Europea
(EUSC), fue creada el 20 de julio de 2001, por decisión del Consejo de la Unión (Diario
Oficial de las Comunidades Europeas; Acción Común 2001/555/PESC), con el objeto de
mejorar las funciones de alerta temprana y seguimiento de crisis en el contexto de la Política
Exterior y de Seguridad Común (PESC) y de la Política Europea de Seguridad y Defensa
(PESD).

198
Según lo establecido en la Acción Común, la dirección operativa del Centro la ejerce
el Secretario General /Alto Representante (Sr. Solana) y la supervisión política corresponde
al Comité Político y de Seguridad (COPS) de la Unión. El Centro de satélites tiene
personalidad jurídica propia, como Agencia del Consejo de la Unión Europea (sin ánimo de
lucro), manteniendo estrechos vínculos con el Consejo y respetando las responsabilidades
políticas generales de la Unión y sus Instituciones.

En el Centro trabajan 68 personas, que provienen de los 15 países de la Unión, así


como expertos destacados por los Estados miembros, la Comisión o aquellos Estados que
se hayan asociado formalmente a las actividades del Centro (actualmente en número de 12).
La misión principal del Centro es el apoyo a la toma de decisiones en el contexto de la
PESC, y en particular de la PESD, facilitando el material resultante del análisis de imágenes
de satélites y datos complementarios, incluidas imágenes aéreas. Esta misión abarca un
amplio espectro de dominios, como la vigilancia general en el campo de la seguridad, apoyo
a la verificación de acuerdos de desarme y aplicación de tratados, control de armamento y
proliferación de armas de destrucción masiva, apoyo a misiones humanitarias y de
mantenimiento de la paz, vigilancia marítima y prevención y gestión de crisis
medioambientales.

Para llevar a cabo esta misión, el Centro de Satélites utiliza fundamentalmente


imágenes comerciales de satélites de observación como SPOT, LANDSAT, IKONOS,
QUICKBIRD, ERS, IRS, ENVISAT, RADARSAT, etc., estando previsto, llegado el caso, el
complementar sus productos con informaciones procedentes de los países miembro de la
Unión Europea. Los usuarios del Centro son el propio Consejo (incluyendo Secretariado,
Estado Mayor, Centro de Situación, etc), los Estados miembros, para sus propias
necesidades, los Estados asociados y diversas organizaciones internacionales, como
Naciones Unidas, OTAN, OSCE, etc.

Por decisión del Consejo de la Unión, el Centro se encuentra operativo desde el 1º de


enero de 2002, en sus instalaciones en la Base Aérea de Torrejón de Ardoz, aprovechando
las capacidades e infraestructura del antiguo Centro de Satélites de la Unión Europea
Occidental. Esta decisión ha permitido transferir a la Unión Europea la experiencia y saber
hacer del referido Centro de la UEO, que desde su inauguración, el 28 de abril de 1993, llevó
a cabo gran número de evaluaciones operativas en diferentes áreas (crisis de los Grandes
Lagos, Albania, Bosnia, Kosovo, Afganistán, …), o en apoyo de misiones humanitarias y

199
crisis medioambientales (Doñana, Mitch, Prestige, inundaciones, incendios forestales, …),
difundidas no solamente a la UE sino también a organizaciones internacionales como la
UEO, OTAN, NNUU, OSCE, etc.

Otras misiones del Centro son la formación de expertos en el análisis y evaluación de


imágenes de satélite, o la investigación y desarrollo de nuevas técnicas y procedimientos en
el campo de la adquisición, procesamiento, análisis, explotación y difusión de datos de
origen espacial. En estos campos el Centro de Satélites ha intensificado los estudios y
desarrollo que ya realizaba el Centro de la UEO, y está colaborando activamente con
diversas instituciones científicas, técnicas, etc, especialmente en el dominio de la Geomática
(Información Geográfica Digital, Sistemas de Información Geográfica, visualizadores en
redes, ..) y formación de expertos, o actualización de conocimientos, en teledetección y
fusión de datos, apoyados con tecnologías multimedia.

Los diez años de operación de ambos Centros han servido para alcanzar un alto nivel
operacional, técnico y científico, constituyendo una plataforma de conocimientos y
experiencia capaz de proporcionar los medios y el tiempo necesarios para ayudar a la
acertada toma de decisiones de los órganos competentes de la Unión Europea. De forma
particular, dicha experiencia asegura poder jugar un papel clave en el seguimiento y control
de crisis de todo tipo, incluyendo desastres medioambientales y protección de la población
civil, así como contribuir a la prevención de actividades ilegales en diversas áreas.

Por todo ello, el Centro de Satélites constituye un ejemplo de como personas de


diferentes nacionalidades, formación y cultura trabajan juntas, con métodos y procedimientos
armonizados, y de forma coordinada, para proporcionar a todas las capitales el resultado de
su análisis y experiencia. Estas características hacen del Centro un caso único en Europa,
gracias al cual se puede disponer de una herramienta estratégica en el campo de la PESC,
de extrema importancia para la apreciación de la situación internacional y gestión de crisis
de forma totalmente independiente y en beneficio de la seguridad y defensa europeas.

Conclusiones

El espacio juega un papel significativo en el apoyo a la prevención, gestión y


resolución de crisis. Previsiblemente este papel incrementará su importancia en un entorno

200
estratégico dinámico y en continuo cambio que irá presentando nuevos desafíos para la
seguridad y defensa comunes.

Los diferentes actores implicados abarcan un amplio espectro que incluye sectores
militares, gubernamentales, civiles, comerciales e internacionales. Este espectro obliga a
llevar a cabo esfuerzos de coordinación, comunicación e integración de los diferentes
sectores para alcanzar los objetivos estratégicos comunes. Asimismo, la integración de los
medios y sistemas conlleva a un amplio abanico de posibilidades y actividades que están
interrelacionadas, lo que implica mayor complejidad de uso del espacio y, por tanto, una
gran especialización.

Europa dispone hoy en día de una cierta capacidad en este dominio al contar con el
Centro de Satélites de la Unión Europea, especialmente preparado para la gestión de todo tipo
de crisis. El EUSC puede considerarse como un modelo del “uso dual” de la observación de la
Tierra desde el espacio para la gestión de crisis, al combinar y utilizar medios de todo tipo en
apoyo de la gestión de crisis y prevención de conflictos en beneficio de la Europa de la
Seguridad y Defensa.

201
La función de la inteligencia para la seguridad y defensa de los estados: la lucha
contra el terrorismo (la inteligencia después de la intervención en Irak)

Aníbal Villalba Fernández


Tte. Coronel del Ejército de Tierra
Departamento de Estrategia
Escuela Superior de las FFAA-CESEDEN
avillalba@oc.mde.es

1. La función de la inteligencia tras el impacto del terrorismo el 11 de septiembre

La intervención de las fuerzas aliadas en Irak, en la primavera de 2003, ofrece el


escenario más completo y complejo de la puesta en escena de los mecanismos de que
disponen los estados y la comunidad internacional en el diseño de una nueva arquitectura de
relaciones internacionales. La función de la inteligencia en el desarrollo de este nuevo
esquema no ha sido ajena a los cambios experimentados en este proceso. La relación de las
comunidades de inteligencia con el resto de agencias de que disponen los estados, la
modificación al alza de su posición relativa en la escala de importancia gubernamental, la
modificación de sus prioridades, la integración más eficiente del ciclo de inteligencia en los
planes estratégicos, el desarrollo de nuevos enfoques operativos e incluso la utilización por
parte de los estados de los productos de sus organizaciones de inteligencia para justificar
posiciones políticas ilustran su nueva posición.

Los atentados terroristas cometidos en Estados Unidos el 11 de septiembre de 2001


han generado cambios significativos en la percepción de la seguridad a escala global. El
impacto en las sociedades ha sido importante y la sensación de una merma de los niveles
de seguridad ha generado un amplio abanico de reacciones. Existe un sentimiento
generalizado de vulnerabilidad ante el terrorismo, que ha traspasado todas las capas
sociales y que afecta a comunidades muy alejadas entre sí, ya sea en los planos geográfico,
político, económico, cultural o religioso. Esta sensación se vive con mayor intensidad en
Estados Unidos, donde el estupor ha dado paso a una decidida lucha contra el terrorismo,
pero también a un miedo visceral y profundo del individuo, cuya percepción de su propia
seguridad y de su entorno más cercano se ha visto dramáticamente modificada.

202
De otro lado puede argumentarse que los parámetros por los que se evalúa esta
seguridad apuntan a un incremento de los niveles que la conforman, ya que las medidas
destinadas a combatir el terrorismo después de esta fecha limitan las posibilidades de
actuación de los grupos terroristas. Hay que señalar no obstante la evolución del fenómeno
terrorista, que en la actualidad posee una capilaridad que escapa en numerosas ocasiones a
una localización geográfica específica. Al Qaeda, “La Base”, es uno de los mejores ejemplos
de cómo una entidad terrorista utiliza el sistema de red, con una base central ideológica,
aunque excéntrica en su localización geográfica de los escenarios en que operan
organizaciones terroristas inspiradas en su filosofía.

Esta forma de “franquicia” del terrorismo aprovecha los resquicios del ordenamiento
jurídico en los diferentes países para travestirse de diferentes opciones ideológicas,
conservando el denominador común de la defensa del Islam y del ataque a lo que
consideran sus enemigos, ya sean los Estados Unidos, Israel o la comunidad internacional
en general. Esta perversión de la utilización del Islam para justificar las acciones de estos
grupos se ha disparado tras los atentados del 11 de septiembre. Es éste un elemento de
enorme gravedad que puede contaminar los conflictos y favorecer una confrontación, en
gran medida artificial, entre el Islam y otras religiones y culturas.

Probablemente el cambio más significativo que haya supuesto el 11 de septiembre en


la mayor parte de los grupos y entidades terroristas, haya sido la revisión del “síndrome de
David”, cuando una organización golpeó con una honda, en forma de aviones suicidas, el
epicentro de Goliat, la única superpotencia, mostrando de este modo la aparente fragilidad
de un sistema.

Esta sorpresa, de la que participaron las propias organizaciones terroristas tanto o


más que la comunidad internacional, supuso, en un primer estadio, una sensación de
euforia que hacia presagiar un aumento de la actividad terrorista, un efecto dominó, en la
estela de los atentados contra Estados Unidos. Objetivamente, este incremento de las
actividades terroristas no se ha producido en la medida esperada, principalmente por la
rápida y ordenada reacción de la comunidad internacional que estableció como prioridad la
lucha contra el terrorismo. La persecución política, económica, policial y militar del terrorismo
ha supuesto una disminución del margen de maniobra de estas organizaciones, que ha
compensado en gran medida el efecto de arrastre de los atentados contra Estados Unidos.
203
Tras los atentados del 11 de septiembre los servicios de inteligencia estadounidenses
se convirtieron en organizaciones cuestionadas por la sociedad. ¿Cómo era posible que un
ataque terrorista de esta magnitud se hubiera producido en los corazones financiero y
político del imperio más poderoso de la historia de la humanidad? ¿Cómo la comunidad de
inteligencia no fue capaz de detectar la preparación de estas acciones? ¿Cómo el binomio
CIA en el exterior y FBI en el interior del territorio estadounidense no se mostró eficiente
para armar las piezas del puzzle informativo? ¿Cómo el mismo sistema nacional formó como
pilotos a los propios terroristas sin que la comunidad de inteligencia detectara y valorara
adecuadamente la amenaza?

En el descargo de los servicios de inteligencia hay que apuntar la novedad de los


métodos empleados por los terroristas, la dificultad para integrar informaciones sin un cuadro
de situación apropiado que las articulara adecuadamente o la complejidad de ajustar los
planes de inteligencia a una nueva filosofía terrorista. Pero, ¿no es prevenir los riesgos
contra la seguridad de un estado la función esencial de un servicio de inteligencia? La
reacción de las autoridades estadounidenses se mostró ejemplar en el diseño de un plan
para combatir el terrorismo, liderando las iniciativas en los planos político, jurídico,
económico, social, policial y militar de la comunidad internacional. En paralelo al impulso de
estas acciones, Estados Unidos supo efectuar un profundo y rápido juicio crítico de la
eficiencia de su sistema de seguridad, del que no escapó su comunidad de inteligencia,
reestructurando sus prioridades, desarrollando las áreas que se habían mostrado
vulnerables y diseñando un esquema organizativo integral que asignara a la inteligencia su
función en los planes estratégicos de modo más eficiente y completo.

2. El marco jurídico que define la actuación de los servicios en la lucha contra el


terrorismo.

George W. Bush definió de modo diáfano la estrategia a seguir contra el terrorismo.


Consideraba el presidente de Estados Unidos que los terroristas siempre tendrían
oportunidad y capacidad de cometer atentados de modo puntual, pero apreciaba que debían
limitarse al máximo las facilidades que el sistema de libertades les proporcionaba, asfixiando
sus capacidades. De esta forma, debían cercenarse las facilidades que los grupos terroristas

204
tenían en los planos económico, operativo y de apoyo político, todo ello bajo la cobertura de
un sistema jurídico que permitiera la eficiente actuación de la comunidad internacional.

El camino legislativo seguido para dar cobertura a la respuesta al terrorismo arrancó


de la Organización de las Naciones Unidas, en lo que supone un modelo de reacción rápida,
coordinada, contundente y eficiente por parte del organismo con responsabilidad para
estructurar la respuesta jurídica de la comunidad internacional. La ONU reaccionó mediante
la Resolución 1368 de su Consejo de Seguridad, emitida el 12 de septiembre de 2001. En
esta Resolución, el Consejo se mostraba decidido a combatir por todos los medios las
amenazas a la paz y la seguridad internacionales creadas por actos de terrorismo,
reconociendo el derecho inmanente a la legítima defensa individual o colectiva, de
conformidad con la Carta de las Naciones Unidas.

Conviene señalar que no era, no obstante, la primera ocasión en que el Consejo de


Seguridad definía los parámetros de actuación respecto al terrorismo, recordando en la
Resolución 1368 la necesidad de cumplir plenamente los convenios internacionales contra el
terrorismo y las resoluciones del Consejo de Seguridad, en particular la Resolución 1269, de
19 de octubre de 1999. Aún así, es en la Resolución 1373 del Consejo de Seguridad, de 28
de septiembre de 2001, cuando se diseña específicamente el corpus legal para luchar contra
el terrorismo, centrando su contenido en la necesidad de adoptar una serie de medidas de
prevención de actos terroristas y de lucha contra las entidades u organismos terroristas. La
Resolución 1373 del Consejo de Seguridad persigue limitar la capacidad de las
organizaciones terroristas de actuar en la esfera internacional. De un modo más concreto,
este documento persigue el bloqueo de las vías de financiación de los terroristas, sus
movimientos transfronterizos, los apoyos logísticos, los refugios y el abastecimiento de
armas y material.

Las líneas principales de actuación política de la Resolución 1373, recogen el


derecho inmanente de legítima defensa individual o colectiva reconocido en la Carta de
Naciones Unidas; la necesidad de luchar con todos los medios, contra las amenazas a la
paz y la seguridad internacionales representadas por los actos de terrorismo; señala la
intolerancia y el extremismo como las causas del aumento de actos de terrorismo; e insta a
prevenir y reprimir los actos de terrorismo, acrecentando su cooperación y cumpliendo
plenamente los convenios internacionales contra el terrorismo, exigiéndoles la adopción de
205
medidas para prevenir y reprimir en sus territorios, por todos los medios legales, la
financiación y preparación de actos de terrorismo.

Esta Resolución se desarrolla en una serie de medidas obligatorias para los Estados
y otras con carácter de recomendación. Las obligatorias, a su vez, se dividen en medidas de
orden financiero y las relativas al intercambio de información y a la asistencia entre Estados.
Entre las medidas referidas a los planos económico y financiero de la Resolución 1373
podemos destacar la tipificación como delito de la provisión o recaudación intencionadas de
fondos con fines relacionados con el terrorismo; la privación del status de organizaciones
caritativas o de beneficios fiscales a entidades que tengan alguna relación con terroristas; y
la congelación de fondos, activos financieros o recursos económicos de personas o
entidades relacionados con actos de terrorismo.

Aparte de este primer bloque de medidas financieras, la Resolución obliga a los


Estados a una serie de medidas encaminadas a intercambiar información y asistencia sobre
terroristas, incluyendo el establecimiento de medidas preventivas que incluyan la tipificación
penal de estos actos, así como el incremento del control policial. Acompañando a estas
medidas obligatorias, la Resolución 1373 exhorta a los Estados a intensificar su cooperación
contra el terrorismo; a firmar las doce Convenciones contra el terrorismo adoptadas en el
marco de las Naciones Unidas; a evitar que el estatuto de refugiado sea utilizado de modo
ilegítimo por personas implicadas en actos terroristas, y a impedir que se reconozca la
reivindicación de motivaciones políticas como causa de denegación de las solicitudes de
extradición de presuntos terroristas. Además, la Resolución resalta la necesidad de adoptar
medidas para hacer frente a las conexiones entre terrorismo y delincuencia transnacional
organizada.

Este marco jurídico es el que sirve de soporte a la intervención contra el terrorismo y


en el que opera la comunidad de inteligencia. De este cuadro legislativo se han derivado
variaciones en las prioridades de los servicios de inteligencia, entre las que destaca el
impulso de las acciones de inteligencia de corte económico, con la finalidad de dificultar la
financiación terrorista y así reducir su operatividad. También se han privilegiado las áreas de
crimen organizado y tráfico de armas y sus conexiones con grupos terroristas. Respecto a la
legislación estadounidense, se han modificado disposiciones presidenciales que limitaban
las acciones de los servicios de inteligencia, principalmente la CIA como agencia autorizada
206
a operar fuera del territorio estadounidense, en determinados supuestos de intervenciones
operativas que pudieran implicar la eliminación física de personas.

La intervención en Afganistán fue considerada por la comunidad internacional,


liderada por la ONU, inscrita en los patrones jurídicos que ofrece la Carta de las Naciones
Unidas que recoge el uso de la fuerza al reconocer el derecho inmanente a la legítima
defensa individual o colectiva, lo que se consideró se ajustaba a la brutal agresión sufrida
por los Estados Unidos de América. Debido a la rápida reacción posterior de la comunidad
de inteligencia estadounidense que identificó a Al Qaeda como la organización terrorista
responsable de los atentados de Nueva York y de Washington D.C., los esfuerzos de la
administración norteamericana se centraron en el combate integral a este grupo en su
cuartel general en Afganistán, liderando una coalición multinacional apoyada sin fisuras por
la comunidad internacional.

3. La utilización de los servicios de inteligencia previa a la intervención en Irak.

En el caso de Irak, la cuestión de la legalidad de la intervención alcanzó niveles de


fuerte polémica al interpretarse de modo distinto las diferentes resoluciones del Consejo de
Seguridad de las Naciones Unidas. Tras diversas aproximaciones para encontrar un
denominador común que permitiera encajar la intervención en Irak en la lucha internacional
contra el terrorismo, alegando su posesión de armas de destrucción masiva y su posible
transferencia a grupos terroristas, Estados Unidos lideró una coalición que finalmente
invadió Irak y derrocó el régimen de Sadam Hussein. La utilización de la comunidad de
inteligencia para justificar las acciones armadas de la coalición fue profusa. Los productos de
inteligencia de diferentes servicios fueron utilizados como base argumental para justificar la
posesión de armas de destrucción masiva y las conexiones terroristas del régimen iraquí, de
modo no exento de polémica.

El primer ministro británico Blair realizó una mención expresa a la inteligencia


producida por sus agencias que confirmaban la posesión de armas de destrucción masiva,
que suponían una presente y seria amenaza y que podían ser distribuidas a grupos
terroristas en un muy breve plazo. Esta afirmación supuso la columna vertebral de la
argumentación del gobierno británico para intervenir militarmente en Irak. La publicación de

207
alguno de los productos de la inteligencia británica produjo además cierto embarazo a la
administración al comprobar que párrafos enteros habían sido transcritos del informe que el
investigador Ibrahim al-Marashi había publicado en septiembre de 2002 en Middle East
Review of International Affairs, con el título “Iraq’s Security and Intelligence Network: A Guide
and Analysis”, en el que desarrollaba un estudio sobre la estructura y capacidades de la
comunidad de inteligencia iraquí.

De parte estadounidense, la comparecencia del secretario de estado Powell ante el


Consejo de Seguridad de las Naciones Unidas el 5 de febrero de 2003 permitió al pueblo
estadounidense y al resto del planeta el raro privilegio de contemplar, a través de la
televisión o Internet, la presentación en directo de un producto elaborado por la comunidad
de inteligencia más poderosa. Colin L. Powell, tras el que se encontraba sentado el director
de la CIA George Tenet, explicó con profusión de detalles los tipos de fuentes utilizadas para
cada parcela del informe que presentó, mostrando fotografías aéreas de misiles balísticos,
imágenes tomadas por satélite de depósitos de armas químicas, grabaciones de
conversaciones de personal relevante iraquí, gráficos de los laboratorios móviles de armas
biológicas, fotografías de tubos de aluminio capaces de ser utilizados para enriquecer
uranio, un video de un avión Mirage F-1 iraquí ensayando la dispersión de 2000 litros de
ántrax simulado, informes de desertores iraquíes, información proporcionada por científicos
iraquíes, fotografías de la red de terroristas de Al Qaeda con conexiones con el régimen
iraquí, y lo que es más importante, elaboró un cuadro de situación en el que todas las piezas
informativas encajaban en el rompecabezas para obtener el producto de inteligencia que se
presentaba al Consejo de Seguridad: la evidencia de que Irak poseía armas de destrucción
masiva y que podían ser proporcionadas a terroristas.

Además, la primera acción armada contra el régimen iraquí, tuvo como referente
primigenio a la comunidad de inteligencia estadounidense, cuando el presidente Bush
adelantó el ataque respecto al plazo que él mismo había establecido apoyándose en
información proporcionada por la CIA que detectó la presencia de Sadam junto a sus hijos,
Uday y Qusay en un bunker en las afueras de Bagdad, ordenando el lanzamiento de misiles
Tomahawk desde los barcos de guerra estadounidenses y de las bombas especiales de los
aviones “invisibles” F-117A Nighthawk. La prensa estadounidense publicó una foto en la que
aparecía el director de la CIA explicando al presidente y vicepresidente de la nación los
nuevos datos que recomendaban adoptar una solución quirúrgica para decapitar el régimen.

208
Aunque las grandes publicaciones como Newsweek apuntaron que la CIA había obtenido
esta información de un alto cargo del gobierno de Bagdad, además de que mediante la
inteligencia de señales se había detectado un inusual volumen de comunicaciones en el
mismo punto, no cabe descartar la utilización de la Agencia Central de Inteligencia como
catalizador de un proceso que militarmente se había complicado tras la imposibilidad de
lanzar una ofensiva desde Turquía, buscando la sorpresa en las operaciones no ya en las
líneas de acción sino en el momento de desencadenamiento de las hostilidades.

4. La intervención en Irak. La nueva filosofía en los planes y la adaptación del rol


de la inteligencia.

Desde la guerra del Golfo Pérsico para la liberación de Kuwait en 1991, los Estados
Unidos habían adoptado la doctrina de emplear la “fuerza decisiva o abrumadora”. Este
modelo inspirado por el entonces presidente de la Junta de Jefes de Estado Mayor, Colin
Powell, se basaba en la necesidad de tener claras directivas políticas y en el empleo de los
recursos y tiempo necesarios para asegurar la victoria. Estos planteamientos arrancaban,
como explicaba Powell en su libro Mi viaje americano, del síndrome de Vietnam, de las
lecciones aprendidas en Panamá en la operación Causa Justa y de los dividendos del final
de la guerra fría, que permitiría utilizar las divisiones estacionadas en Alemania diseñadas
para detener una ofensiva soviética.

Esta doctrina reforzó diferentes aspectos relativos a la movilidad estratégica,


preposicionamiento, desarrollo tecnológico, instrucción de las unidades y desarrollo de
sistemas integrados de combate. Las prioridades en la administración Reagan descansaban
en obtener y mantener la superioridad con los criterios de un mínimo de bajas propias y la
disminución de los daños colaterales. El papel de la inteligencia en este esquema
descansaba en una estructura clásica que diferenciaba las funciones de las diferentes
agencias, la CIA como agencia independiente, los elementos de inteligencia dependientes
del Departamento de Defensa (Agencia de Inteligencia de Defensa; Agencia Nacional de
Seguridad, Inteligencia del Ejército, Marina, Fuerza Aérea y Cuerpo de Marines; Agencia
Nacional de Imágenes y Mapas; y Oficina Nacional de Reconocimiento), y el resto de
elementos departamentales de inteligencia, FBI y Departamentos de Estado, Energía y
Tesoro. Todo ello coordinado por el Consejo Nacional de Inteligencia presidido por el
director de la CIA.
209
De otro lado, la “Revolución en los Asuntos Militares” (RMA) ha impregnado el debate
sobre las capacidades militares en estos últimos años en Estados Unidos, constituyéndose
en el marco de referencia donde se acogen las diferentes iniciativas que permitan optimizar
la forma de combatir de unas fuerzas armadas con una potencia de combate sin
competencia en un mundo unipolar. La RMA sería el proceso por el que los Estados Unidos
continúan la explotación de la tecnología para mantener esta ventaja de la fuerza decisiva,
especialmente en el campo de la consecución del “conocimiento del campo de batalla
dominante”. A través de este conocimiento, los estadounidenses deberían ser capaces de
mejorar la calidad de sus productos de inteligencia referidos al campo de batalla, con el
objetivo de derrotar o destruir a un adversario de la forma más eficiente, con menos bajas
propias y con una más amplia panoplia de sistemas de armas que cubran todo el espectro,
desde las de precisión desde plataformas lejanas hasta las de combate próximo. Esta RMA
implicaba por tanto un esfuerzo suplementario en inteligencia, no solamente en la
potenciación de sus capacidades sino en la búsqueda de esquemas de funcionamiento que
se adaptaran a las nuevas necesidades.

Es en este contexto donde surge el concepto de “fuerzas transformadas”, impulsado


por el secretario de defensa Donald Rumsfeld, que se inspiraba en las actuaciones de las
fuerzas de la coalición internacional liderada por Estados Unidos en Afganistán. Señalaba
Rumsfeld que la transformación estaba ligada a la integración de las diferentes estructuras
de la nación y el desarrollo de nuevas formas de combatir potenciando una manera conjunta
de trabajar entre los diferentes servicios de las fuerzas armadas, así como la sinergia de la
información.

Donald Rumsfeld también incorporó a la administración estadounidense los conceptos


que habían sido apuntados en el ensayo Conmoción y Pavor: Alcanzando la Dominación
Rápida publicado en 1996 por Harlan Ullman y James Wade en NDU Press Book. El
análisis comenzaba realizando una reflexión acerca de las diferentes tendencias y escuelas
principales de pensamiento, la revolución técnica militar, la revolución en asuntos militares y
la revolución en asuntos de seguridad, para pasar a señalar que quizás por primera vez en
años, la confluencia de estrategia, tecnología e investigación tiene el suficiente potencial
para un cambio revolucionario.

210
El objetivo de la dominación rápida es afectar la voluntad, percepción, y comprensión
del adversario para reaccionar, estableciendo un régimen de conmoción y pavor. Aunque el
objetivo militar tradicional de destruir, derrotar o neutralizar la capacidad militar del enemigo
es un componente principal y necesario de la dominación rápida, la clave de este concepto
reside en impactar al enemigo de forma tan rápida y contundente que la desorientación y el
miedo se adueñen de su voluntad y lo paralicen física y psicológicamente. En este sentido,
la magnitud de este enfoque podría considerarse el equivalente no nuclear del impacto que
el lanzamiento de las bombas atómicas en Hiroshima y Nagasaki tuvo en Japón. La
sensación de conmoción y pavor provocó el desmoronamiento de la voluntad de luchar al no
poder comprender el poder destructor que portaba una simple aeronave.

Precisamente en el ensayo Conmoción y Pavor: Alcanzando la Dominación Rápida se


realizaba un estudio de la campaña Tormenta del Desierto en el que se efectuaba una
comparación de la doctrina de fuerza decisiva empleada por la coalición y de un posible
empleo de alcanzar la dominación rápida por medio de la conmoción y el pavor. Señalaba el
estudio que la paralización del régimen debería alcanzarse mediante la destrucción de las
infraestructuras apropiadas y el colapso instantáneo del flujo de la información, de tal modo
que se alcanzara un rápido estado de conmoción nacional. Simultáneamente las fuerzas
armadas iraquíes deberían ser inmovilizadas por la destrucción de sus capacidades,
mediante la integración del empleo de las fuerzas terrestres, marítimas, aéreas, medios
espaciales y de fuerzas especiales. Debería buscarse también el impacto electrónico,
mediante la decepción, la vigilancia, la capacidad para generar objetivos y la potencia de
fuego de tal forma que los efectos provocaran un “apagón” físico y psicológico que impidiera
al adversario observar las condiciones de sus tropas y en último término de su sociedad.
Además señala el ensayo que la campaña debería durar días en vez de los seis meses
requeridos y de igual forma el número de efectivos empleados debería ser sustancialmente
menor.

Donald Rumsfeld impuso el modelo de conmoción y pavor en el diseño de las


operaciones contra el régimen iraquí de Sadam Hussein, desechando propuestas más
convencionales basadas en el concepto de fuerza decisiva, opción preferida por los militares
estadounidenses que comprobaron el éxito en la campaña de 1991 en Irak, o la del modelo
afgano que combinaba el empleo integrado de fuerzas especiales, poder aéreo, equipos de
la comunidad de inteligencia y el empleo de los opositores kurdos y chiíes al régimen. Uno

211
de los aspectos sobre los que se sustenta este modelo de combatir es el concepto del
centric network o “entorno de red centralizado”, elaborado por el Vicealmirante Arthur
Cebrowski, director de la fuerza de transformación. Cebrowski, sin proporcionar una
definición de este entorno de red centralizado en el campo de batalla, aduciendo lo abstracto
de su concepción, señala que este entorno combina los diferentes servicios de las fuerzas
armadas en una única fuerza de carácter conjunto, apuntando que es una nueva forma de
combatir en la que el acceso a la información desciende hasta los escalones inferiores,
estableciéndose equipos más reducidos de fuerzas conjuntas con una mayor potencia de
combate y movilidad.

El General Franks, comandante en jefe de las fuerzas de la coalición en la campaña


“Libertad para Irak” hacía referencia a estos conceptos con las operaciones apenas
comenzadas. Señalaba el General Franks que la campaña se caracterizaría por la
conmoción, la sorpresa, la flexibilidad, el empleo de municiones de precisión en una escala
nunca vista con anterioridad y la aplicación de fuerza decisiva. Podemos comprobar cómo
los conceptos enunciados anteriormente de fuerza decisiva y de conmoción, son empleados
de modo complementario por el General Franks, lo que apuntaba a que el debate en el
planeamiento de las operaciones había engendrado una suerte de diseño híbrido entre
ambas posturas, la primera defendida por la jerarquía militar en los primeros estadios de
planeamiento y la segunda impuesta por el secretario de defensa.

Además, las operaciones se diseñaron siguiendo la concepción del “campo de batalla


no lineal”, lo que según la explicación de John Warden “El enemigo como un sistema”,
publicada en Airpower Journal nº 1 en 1995, da paso a un campo de batalla paralelo, en el
que numerosos objetivos importantes son golpeados simultáneamente, en oposición a la
antigua batalla por objetivos consecutivos en los que los jefes debían concentrar sus fuerzas
contra una única vulnerabilidad enemiga y tras el éxito reiniciar el proceso. La adaptación de
estos conceptos a las operaciones en Irak ha dado lugar a la ruptura de las anteriormente
más rígidas barreras entre las diferentes agencias de la comunidad de inteligencia
estadounidense. La autonomía de que han dispuesto los comandantes de las grandes
unidades ha estado íntimamente ligada a la formación de nuevas estructuras de inteligencia
que operaban de modo conjunto, no ya solamente coordinado como anteriormente lo hacían
en la fase de dirección del ciclo de inteligencia.

212
5. La comunidad de inteligencia en los nuevos escenarios. Lecciones
identificadas.

Aunque el estudio de caso desarrollado de Estados Unidos escapa a su posible


extrapolación directa a otras comunidades de inteligencia, tiene el valor de marcar una
tendencia por la cual se modifican los rígidos esquemas establecidos entre los organismos
dedicados a las diferentes facetas de la inteligencia. La integración íntima de la función de
las diferentes agencias en los planes estratégicos ha supuesto un esfuerzo en la fase de
dirección del ciclo de inteligencia, haciéndolo más flexible y ágil. Hay que señalar no
obstante que una agencia de inteligencia tiene una limitada capacidad de completar sus
necesidades informativas si éstas se modifican; lo que es relativamente sencillo mediante la
variación de orientación de un satélite para obtener imágenes adquiere diferentes
proporciones temporales en otros métodos de obtención de información como son las
fuentes humanas.

Los clientes también han cambiado, o más bien ha aumentado el volumen de clientes
con necesidad de acceso a productos de inteligencia que anteriormente solamente se
difundían a la cúpula de la organización. Se ha potenciado el acceso a los clientes con
“necesidad de saber” independientemente de su nivel en las organizaciones. La difusión ha
sido probablemente una de las fases del ciclo de inteligencia que ha sufrido más variaciones
debido a los nuevos conceptos de “entorno de red centralizado”, “campo de batalla no lineal”
y “conocimiento del campo de batalla dominante”.

El incremento de la difusión ha llevado a reorganizar los sistemas de comunicaciones


adaptándolos a las necesidades actuales, que exigen reorientar los patrones de seguridad
para minimizar la vulnerabilidad del aumento y mayor fluidez del tráfico informativo. De otro
lado, siguiendo el concepto de “conmoción y pavor”, un esfuerzo importante de la comunidad
de inteligencia se orientó hacia el colapso instantáneo del flujo de la información adversario,
de tal modo que se alcanzara en Irak un rápido estado de conmoción nacional

Un aspecto que ha ocasionado distorsiones en el funcionamiento de los servicios de


inteligencia de nivel nacional, tanto en Estados Unidos como en Reino Unido, ha sido la
utilización mediática y política de lo que las autoridades políticas presentaban como

213
productos de inteligencia de sus organizaciones y que mostraban a la opinión pública para
apoyar sus decisiones, llegando a situaciones en las que como en el informe de Colin Powell
al Consejo de Seguridad se proporcionaba incluso la tipología de las fuentes en los que se
basaban los diferentes informes.

Es verdaderamente significativo el comienzo de un proceso en el que la arquitectura


de inteligencia está modificando sus parámetros clásicos, integrando equipos de diferentes
agencias, capilarizando el flujo informativo y potenciando la evaluación de sus productos,
todo ello combinado con una mayor agresividad en el bloqueo de las capacidades del
adversario. Por último, hay que destacar que esta evolución se produce en un entorno en el
que los objetivos políticos se encuentran perfectamente definidos, lo que favorece la
integración de la función de inteligencia en los planes nacionales.

214

También podría gustarte