Está en la página 1de 5

Información (A. Information, F. information, I. information').

Solemos asociar la palabra 'información' al contexto de las


noticias. Leemos la prensa para estar informados. Buscamos
cierta información en la biblioteca o en Internet. La información,
en este sentido, es algo que se puede transmitir a distancia.
Algunos ingenieros de telecomunicación de la Bell fueron los
pioneros de la teoría matemática de la información (o de la
comunicación). Su preocupación por transmitir más información
a un menor costo por un mismo canal (una línea telefónica o
telegráfica, por ejemplo) los llevó a analizar la noción de
información. En 1924 uno de ellos, Nyquist, calculó la velocidad
de la tran smisión de los mensajes telegráficos como V - Alog
M, donde K es una constante dependiente del número de
modulaciones que el sistema puede transmitir por segundo y M
es el número de signos de que dispone el sistema. En 1928 otro
ingeniero de la Bell, Hartley, introdujo una medida de la
cantidad de información transmitida por una señal s:
I(s) - log (1/pfsJ)
donde p(s) es la probabilidad de emisión de la señal s. Esta
definición, llamada a perdurar, caracteriza la información como
inversa de la probabilidad. Cuanto menos probable sea la señal,
más información transmite. La información se identifica así con
la sorpresividad. Estas ideas iniciales de Nyquist y Hartley
fueron desarrolladas y sistematizadas por Shannon (1948),
creador de la teoría de la información.
La fuente F de la información se representa mediante un
conjunto finito de resultados o signos posibles A = {<q nJ y
una distribución de proba
bilidad p en A, que atribuye a cada ¿q e A un numero real entre 0
y 1, de tal modo que ^pfnj-l. La autoinformación de un resultado
o signo a. se define como su sorpresividad:
I(a;) =‘log(l/p(¿q)) ~ - log(p(«.)).
La información transmitida por el mensaje es inversamente
proporcional a la probabilidad del mensaje; por eso se define
como el logaritmo de la probabilidad inversa. Aunque las
probabilidades de los mensajes independientes se multiplican,
queremos que la información transmitida por dos mensajes in-
dependientes sea igual a la suma de las informaciones
transmitidas por cada uno de ellos por separado. El logaritmo es
la función que nos permite transformar productos en sumas,
puesto que log(x-y) = log(x) + logfy), para cualesquiera números
x, y.
La incertidumbre o sorpresividad media de la fuente F, llamada
77(F), se define como la media ponderada de las
autoinfonnaciones:
HW " y p<aí) • ^ai)=p (a¡ > • ]°s p( a¡)
Von Neumann enseguida se dio cuenta de la llamativa semejanza
de la definición de H con la fórmula de la ENTROPÍA de
Boltzmann, por lo que aconsejó a Shannon llamarla entropía.
Shannon siguió el consejo y llamó entropía a la medida fí de la
incertidumbre media de la fuente, lo cual ha sido criticado por
muchos, que piensan que la medida H de la teoría de la
información no tiene nada que ver (a pesar de la semejanza
estructural de su fórmula) con la entropía termodinámica. Así, L.
Tisza sugirió llamar a H no entropía, sino dispersión (de la
distribución de probabilidad), con lo que sin duda se habrían
evitado bastantes malentendidos.
La teoría de Shannon define de un modo preciso nociones tales
como las de código, canal, ruido y equivocación, y las engarza
en una serie importante de teoremas, como el teorema
fundamental de Shannon: si la entropía de una fuente no excede
la capacidad del canal, entonces es posible codificar los mensajes
de la fuente de tal modo que éstos se transmitan por el canal con
un número arbitrariamente pequeño de errores, es decir, con una
equivocación tan pequeña como queramos, a pesar del ruido que
puede afectar a la transmisión. Por el contrario, si la entropía de
la fuente excede la capacidad del canal, no hay modo de
conseguir esa reducción arbitraria de la equivocación. Cuando el
teorema de Shannon nos dice que es posible encontrar un código
para superar el ruido, no nos dice cómo encontrarlo, ni menos
aún cómo implementario en la práctica, pero nos dice que tratar
de conseguirlo es una empresa razonable. Cuando nos dice que
no puede haber tal código, nos evita la pérdida de tiempo y
esfuerzo que su quimérica búsqueda implicaría. En último
término el teorema de Shannon nos dice que la información
fiable es posible en un mundo poco fiable y que por medio de
códigos adecuados podemos asegurar la perfección de la
transmisión del mensaje a través de un medio imperfecto y
ruidoso.
Desde los orígenes de la teoría, la información siempre se había
definido en función de la probabilidad. Sin embargo, en 1962
Ingarden y Urbaník mostraron que también la probabilidad
puede ser ella misma definida en función de la información
(introducida esta última sin mención de aquélla, claro). Ambas
son formalmente equivalentes, dado el contexto de la teoría de la
medida.
En 1965 y 1967 Kolmogorov desarrolló la teoría de la
información sobre nuevas bases, definiendo sus conceptos sin
referencia alguna a la probabilidad, pero usando Ja noción de
MÁQUINA DE TURING e identificando la información contenida
en un texto con su COMPLEJIDAD DE KOLMOGOROV.
La teoría matemática de la información de Shannon cumple
perfectamente su cometido como análisis del proceso de la
transmisión de señales, y en ese contexto precisa de un modo
adecuado la noción de cantidad de información. Mucho más
dudoso es que precise de modo alguno la noción de contenido de
la información o información semántica. No parece ser la rareza
estadística de los signos que componen un mensaje lo que
determine que éste sea más o menos significativo o el contenido
de la información que transmita. Ya Shannon había advertido
desde el principio sobre la irrelevancia de las consideraciones
semánticas para el problema técnico de la transmisión. Y- Wea-
ver lo indicaba con toda claridad: “La palabra información en
esta teoría se usa en un sentido especial que no es el habitual. En
particular, no debe ser confundida con el significado. De hecho
dos mensajes, uno de los cuales esté cargado de significado y el
otro sea un mero sinsentido, pueden ser exactamente
equivalentes desde el punto de vista de la información así
entendida”. Por ello no es de extrañar que filósofos y lingüistas
hayan considerado que la noción de información que precisa la
teoría matemática de la información no es la que ellos necesitan
y hayan tratado de desarrollar teorías alternativas.
Ya en 1935 Karl Popper había expresado de un modo informal la
idea de que un enunciado contiene tanta más información
cuantas más posibilidades excluye. Esta noción fue luego
ampliada y desarrollada por Carnap y Bar-Hillel al principio de
los años cincuenta. Bar-Hillel lamentaba que el nombre de teoría
de la información se generalizase para lo que en realidad era una
teoría estadística de la transmisión de señales. Carnap y Bar-
Hillel acuñaron la expresión “información semántica” para
distinguirla de la noción empleada en la teoría de la
comunicación. Los fonemas sueltos no contienen información
semántica alguna; sólo el enunciado que componen es
informativo. Pero, en el sentido de la teoría de Shannon, es cada
señal —cada fonema— la que va añadiendo información a la ya
aportada por la secuencia precedente de señales. Según Bar-
Hillel, el contenido semántico de un enunciado es la clase de los
estados posibles (o descripciones de estado) del universo
excluidos por (o incompatibles con la verdad de) ese enunciado.
El cálculo formal del contenido semántico resulta ser el mismo
que el de la cantidad de información de Shannon, aunque su
interpretación sea completamente distinta.
El principal, continuador de la teoría de la información
semántica ha sido Hintikka, según el cual el contenido de
información de un enunciado es el número de alternativas que
excluye. Cuantas más excluye, tanto más informativo es.
Cuantas más alternativas sean compatibles con el enunciado,
tanto más probable y tanto menos informativo será éste. Así, aun
suponiendo que la conjunción (A A B) y la disyunción (A v B)
sean ambas verdaderas, por razones puramente lógicas hay que
concluir que (A A B) es más informativo que (A v B), pues (A A
B) excluye más alternativas (todas las que contienen -'A y todas
las que contienen ~»B), mientras que (A v B) sólo excluye las
que contienen a la vez tanto ->A como ~>B. Esta noción de
información no tiene nada que ver con Ja transmisión de señales.
De todos modos comparte con la noción de Shannon la idea
básica de que información es eliminación de incertidumbre.
Dretske (1981) usó la teoría de la información de Shannon para
analizar cuestiones epistemológicas. Ello requería la dilucidación
de la noción de contenido de la información. La definición de
Dretske es relativa al conocimiento previo del receptor: una
señal s transmite la información de que tp si y solo si la
probabilidad condicional de tp, dado C (el conocimiento previo
del receptor de la señal) y la llegada de .$, es 1, pero, dado sólo
C, es menor que 1:
Inff.v) = tp <=> p(<pl r AC) = 1 A p(<plC) < l
Esta definición es muy sugestiva, pero Suppes la ha criticado
porque exige una probabilidad igual a 1 (es decir, una seguridad
absoluta) de tp, dada la llegada de la señal y el conocimiento
previo, para la transmisión de la información; tal exigencia sería
excesiva y poco realista.
Otra aportación filosófica de los años ochenta ha sido la
semántica situa- cional de Barwise y Perry. Ambos autores
partían de la noción de información objetiva, concebida como
relación entre tipos de situaciones. Una situación S contiene
información sobre otra situación S' si y sólo si hay una
correlación sistemática entre las situaciones que tienen ciertos
rasgos en común con S y las situaciones que tienen otros rasgos
en común con S'. Dada esa correlación, podemos decir que la
situación S significa la situación S'. El significado es, pues, una
relación entre situaciones.
Como consecuencia de la evolución biológica, los organismos
han adquirido la capacidad de obtener cierta información (útil
para ellos) acerca de situaciones ausentes a partir de la presente,
detectando ciertos rasgos significativos de esa situación presente
y explotándolos para obtener información acerca de las otras
situaciones, gracias a estar sintonizados con las correspondientes
correlaciones. Son esas correlaciones las que permiten el flujo de
la información. El lenguaje no es una excepción. En concreto, el
significado de una oración declarativa es una relación entre las
situaciones en las que se profiere y las situaciones descritas por
tales preferencias.

También podría gustarte