Información (A. Information, F. information, I. information').
Solemos asociar la palabra 'información' al contexto de las
noticias. Leemos la prensa para estar informados. Buscamos cierta información en la biblioteca o en Internet. La información, en este sentido, es algo que se puede transmitir a distancia. Algunos ingenieros de telecomunicación de la Bell fueron los pioneros de la teoría matemática de la información (o de la comunicación). Su preocupación por transmitir más información a un menor costo por un mismo canal (una línea telefónica o telegráfica, por ejemplo) los llevó a analizar la noción de información. En 1924 uno de ellos, Nyquist, calculó la velocidad de la tran smisión de los mensajes telegráficos como V - Alog M, donde K es una constante dependiente del número de modulaciones que el sistema puede transmitir por segundo y M es el número de signos de que dispone el sistema. En 1928 otro ingeniero de la Bell, Hartley, introdujo una medida de la cantidad de información transmitida por una señal s: I(s) - log (1/pfsJ) donde p(s) es la probabilidad de emisión de la señal s. Esta definición, llamada a perdurar, caracteriza la información como inversa de la probabilidad. Cuanto menos probable sea la señal, más información transmite. La información se identifica así con la sorpresividad. Estas ideas iniciales de Nyquist y Hartley fueron desarrolladas y sistematizadas por Shannon (1948), creador de la teoría de la información. La fuente F de la información se representa mediante un conjunto finito de resultados o signos posibles A = {<q nJ y una distribución de proba bilidad p en A, que atribuye a cada ¿q e A un numero real entre 0 y 1, de tal modo que ^pfnj-l. La autoinformación de un resultado o signo a. se define como su sorpresividad: I(a;) =‘log(l/p(¿q)) ~ - log(p(«.)). La información transmitida por el mensaje es inversamente proporcional a la probabilidad del mensaje; por eso se define como el logaritmo de la probabilidad inversa. Aunque las probabilidades de los mensajes independientes se multiplican, queremos que la información transmitida por dos mensajes in- dependientes sea igual a la suma de las informaciones transmitidas por cada uno de ellos por separado. El logaritmo es la función que nos permite transformar productos en sumas, puesto que log(x-y) = log(x) + logfy), para cualesquiera números x, y. La incertidumbre o sorpresividad media de la fuente F, llamada 77(F), se define como la media ponderada de las autoinfonnaciones: HW " y p<aí) • ^ai)=p (a¡ > • ]°s p( a¡) Von Neumann enseguida se dio cuenta de la llamativa semejanza de la definición de H con la fórmula de la ENTROPÍA de Boltzmann, por lo que aconsejó a Shannon llamarla entropía. Shannon siguió el consejo y llamó entropía a la medida fí de la incertidumbre media de la fuente, lo cual ha sido criticado por muchos, que piensan que la medida H de la teoría de la información no tiene nada que ver (a pesar de la semejanza estructural de su fórmula) con la entropía termodinámica. Así, L. Tisza sugirió llamar a H no entropía, sino dispersión (de la distribución de probabilidad), con lo que sin duda se habrían evitado bastantes malentendidos. La teoría de Shannon define de un modo preciso nociones tales como las de código, canal, ruido y equivocación, y las engarza en una serie importante de teoremas, como el teorema fundamental de Shannon: si la entropía de una fuente no excede la capacidad del canal, entonces es posible codificar los mensajes de la fuente de tal modo que éstos se transmitan por el canal con un número arbitrariamente pequeño de errores, es decir, con una equivocación tan pequeña como queramos, a pesar del ruido que puede afectar a la transmisión. Por el contrario, si la entropía de la fuente excede la capacidad del canal, no hay modo de conseguir esa reducción arbitraria de la equivocación. Cuando el teorema de Shannon nos dice que es posible encontrar un código para superar el ruido, no nos dice cómo encontrarlo, ni menos aún cómo implementario en la práctica, pero nos dice que tratar de conseguirlo es una empresa razonable. Cuando nos dice que no puede haber tal código, nos evita la pérdida de tiempo y esfuerzo que su quimérica búsqueda implicaría. En último término el teorema de Shannon nos dice que la información fiable es posible en un mundo poco fiable y que por medio de códigos adecuados podemos asegurar la perfección de la transmisión del mensaje a través de un medio imperfecto y ruidoso. Desde los orígenes de la teoría, la información siempre se había definido en función de la probabilidad. Sin embargo, en 1962 Ingarden y Urbaník mostraron que también la probabilidad puede ser ella misma definida en función de la información (introducida esta última sin mención de aquélla, claro). Ambas son formalmente equivalentes, dado el contexto de la teoría de la medida. En 1965 y 1967 Kolmogorov desarrolló la teoría de la información sobre nuevas bases, definiendo sus conceptos sin referencia alguna a la probabilidad, pero usando Ja noción de MÁQUINA DE TURING e identificando la información contenida en un texto con su COMPLEJIDAD DE KOLMOGOROV. La teoría matemática de la información de Shannon cumple perfectamente su cometido como análisis del proceso de la transmisión de señales, y en ese contexto precisa de un modo adecuado la noción de cantidad de información. Mucho más dudoso es que precise de modo alguno la noción de contenido de la información o información semántica. No parece ser la rareza estadística de los signos que componen un mensaje lo que determine que éste sea más o menos significativo o el contenido de la información que transmita. Ya Shannon había advertido desde el principio sobre la irrelevancia de las consideraciones semánticas para el problema técnico de la transmisión. Y- Wea- ver lo indicaba con toda claridad: “La palabra información en esta teoría se usa en un sentido especial que no es el habitual. En particular, no debe ser confundida con el significado. De hecho dos mensajes, uno de los cuales esté cargado de significado y el otro sea un mero sinsentido, pueden ser exactamente equivalentes desde el punto de vista de la información así entendida”. Por ello no es de extrañar que filósofos y lingüistas hayan considerado que la noción de información que precisa la teoría matemática de la información no es la que ellos necesitan y hayan tratado de desarrollar teorías alternativas. Ya en 1935 Karl Popper había expresado de un modo informal la idea de que un enunciado contiene tanta más información cuantas más posibilidades excluye. Esta noción fue luego ampliada y desarrollada por Carnap y Bar-Hillel al principio de los años cincuenta. Bar-Hillel lamentaba que el nombre de teoría de la información se generalizase para lo que en realidad era una teoría estadística de la transmisión de señales. Carnap y Bar- Hillel acuñaron la expresión “información semántica” para distinguirla de la noción empleada en la teoría de la comunicación. Los fonemas sueltos no contienen información semántica alguna; sólo el enunciado que componen es informativo. Pero, en el sentido de la teoría de Shannon, es cada señal —cada fonema— la que va añadiendo información a la ya aportada por la secuencia precedente de señales. Según Bar- Hillel, el contenido semántico de un enunciado es la clase de los estados posibles (o descripciones de estado) del universo excluidos por (o incompatibles con la verdad de) ese enunciado. El cálculo formal del contenido semántico resulta ser el mismo que el de la cantidad de información de Shannon, aunque su interpretación sea completamente distinta. El principal, continuador de la teoría de la información semántica ha sido Hintikka, según el cual el contenido de información de un enunciado es el número de alternativas que excluye. Cuantas más excluye, tanto más informativo es. Cuantas más alternativas sean compatibles con el enunciado, tanto más probable y tanto menos informativo será éste. Así, aun suponiendo que la conjunción (A A B) y la disyunción (A v B) sean ambas verdaderas, por razones puramente lógicas hay que concluir que (A A B) es más informativo que (A v B), pues (A A B) excluye más alternativas (todas las que contienen -'A y todas las que contienen ~»B), mientras que (A v B) sólo excluye las que contienen a la vez tanto ->A como ~>B. Esta noción de información no tiene nada que ver con Ja transmisión de señales. De todos modos comparte con la noción de Shannon la idea básica de que información es eliminación de incertidumbre. Dretske (1981) usó la teoría de la información de Shannon para analizar cuestiones epistemológicas. Ello requería la dilucidación de la noción de contenido de la información. La definición de Dretske es relativa al conocimiento previo del receptor: una señal s transmite la información de que tp si y solo si la probabilidad condicional de tp, dado C (el conocimiento previo del receptor de la señal) y la llegada de .$, es 1, pero, dado sólo C, es menor que 1: Inff.v) = tp <=> p(<pl r AC) = 1 A p(<plC) < l Esta definición es muy sugestiva, pero Suppes la ha criticado porque exige una probabilidad igual a 1 (es decir, una seguridad absoluta) de tp, dada la llegada de la señal y el conocimiento previo, para la transmisión de la información; tal exigencia sería excesiva y poco realista. Otra aportación filosófica de los años ochenta ha sido la semántica situa- cional de Barwise y Perry. Ambos autores partían de la noción de información objetiva, concebida como relación entre tipos de situaciones. Una situación S contiene información sobre otra situación S' si y sólo si hay una correlación sistemática entre las situaciones que tienen ciertos rasgos en común con S y las situaciones que tienen otros rasgos en común con S'. Dada esa correlación, podemos decir que la situación S significa la situación S'. El significado es, pues, una relación entre situaciones. Como consecuencia de la evolución biológica, los organismos han adquirido la capacidad de obtener cierta información (útil para ellos) acerca de situaciones ausentes a partir de la presente, detectando ciertos rasgos significativos de esa situación presente y explotándolos para obtener información acerca de las otras situaciones, gracias a estar sintonizados con las correspondientes correlaciones. Son esas correlaciones las que permiten el flujo de la información. El lenguaje no es una excepción. En concreto, el significado de una oración declarativa es una relación entre las situaciones en las que se profiere y las situaciones descritas por tales preferencias.