Está en la página 1de 17

Dinoia, vol. 10, no.

10, 1964

LA INFORMACIN
l.

Y SUS RELACIONES

Caracterizacin de la informacin

En el conjunto de movimientos y transformaciones que ocurren en el universo, se destacacon claridad la conexin recproca existente entre todos y cada uno de los procesos. Tales conexiones son mltiples, polimorfas y activas. La influencia mutua se ejerce tanto directamente, por contigidad, como de una manera indirecta, por mediacin de otros procesos. En cuanto a su forma, dicha influencia adopta diversasmodalidades. Y una de esas modalidades es la informacin que los procesospueden transmitir a otros procesoso, bien, recibir de ellos, respecto a los cambios que se producen respectivamenteen su seno. . El hombre adquiere informacin acerca de los procesoscon los cuales entra en relacin, a travs de las accionesespontneasque 10 afectan y por medio de las experiencias que realiza continuamente. A la vez, con su actividad prctica, el hombre transmite a los procesosexterioresla informacin requerida para efectuar en ellos los cambios que se propone. As, el intercambio de informacin es parte integrante de las actividades que permiten al hombre adaptarse al medio ambiente y, simultneamente, transformarlo de acuerdo con sus necesidades.Por otra parte, la nformar/n es la forma elemental del conocimiento; y su acumulacin, la recoleccinde datos, constituye la materia prima con la cual se elabora el conocimientocientfico. La informacin que el hombre adquiere es coordinada por su sistema nervioso y sometida a una serie de procesoscomplejosen su cerebro --en los cuales interviene tambin la informacin acumulida previamente, 10 mismo que los resultados elaborados y prObadoscon anterioridad-, hasta que finalmente su efecto y su consecuenciaemerge a travsde sus rganos efectoresen la forma de una accin, la cual lleva aparejada la transmisin de otra informacin diferente a la recibida. Por otro lad),. el cuerpo humano en su conjunto, comprendiendo 3 todas y cada una d~Sb.<: clulas, molculas y tomos, se encuentra organizado activamente por diver,,_<, vnculos que poseepara la adquisicin, el empleo,la acumulacin, 1.1 transml.:"~ll y la transferenciade informacin, tanto hacia el medio ambieJ1te exterior 1:;''''\0 internamente.!

1 Vase, Y. r. Frolov, La. ciberntica actual y el cerebro humano, Supleme~tos. del ., Uruversldad Seminario de Problemas Cientficos y Filosficos, ~cgunda SerIC, num.. 13, Nacional de Mxico, 1958.

[106J

LA INFORMACIN
2.

Y SUS RELACIONES

107

Aspectos cualitativos

de

la info-rmacin

La informacin es un conjunto de seales, mensajes, comunicaciones, permisiones, prohibiciones, rdenes, estmulos o impulsos de cualquiera ndole, con los que un proceso manifiest~ su existencia y provoca cierta perturbacin en otros procesos, la cual puede dar lugar a la ejecucin de acciones determinadas. El carcter de la informacin es sumamente variado y depende naturalmente de la clase de proceso de la cual proviene y de las modalidades de su existencia. La comunicacin de la informacin se efecta en forma de una transmisin o de una transferencia. Y los efectos provocados por la informacin en los procesos que la reciben, tambin dependen de las caractersticas de stos y pueden ser inmediatos o mediatos, directos o ndirectos.s Toda informacin puede ser considerada desde dos puntos de vista distintos: en cuanto a su calidad o atendiendo a su cantidad.f Cualitativamente, cada informacin representa un conjunto de propiedades diversas y es susceptible de ser utilizada de diferentes maneras. En todo caso, esas propiedades y maneras se descubren histricamente en el curso del desarrollo social.s Otro tanto sucede con la invencin de los procedimientos adoptados para estimar el contenido cualitativo de la informacin. Algunas veces, la estimacin.que le concede a una informacin corresponde a su naturaleza, otras veces ests determinada por las condiciones o circunstancias en que se adquiere, y en ovas ocasiones obedece sencillamente a una convencin. Otro aspecto C'ulitativo de la informacin es el valor o la importancia que se le atribuye (! que sfectivamente representa para quien la recbe.s En estrecha relacin COl'. el signuicado de la informacin, se encuentra el es2 Para profundizar el el concepto de informacin, adems de las obras a que luego hacemos referencia, se pueden consultar tambin las siguientes: L. de Brogle, ed., La cybernetique, tho'l'ie elu signal et de l'in~oTmation, Pars, Editions de la Revue d'Optique, 1951; M. Bunge, "Do Competers Thinkl", The British [ournal [or the Philosophy of Science, vol. VII, nms. 25 y 27, 1956; S. ':;oldman, Information Theory, Londres, Constable, 1953; W_ ]ackson, eI., Cornrnunication Theory, Londres, Butterworth, 1952; ]. Piaget, W. Mays y W. Beth, Psi_ologa, llfica y comuxicacin, Buenos Aires, Nueva Visin, 1959; j, R. Pierce, Smbolo:: In~les y r,:,dos, Revista de Occidente, Madrid, 1962; H. Rodrguez, Psicologa y cibeTetti-, Siglo Veinte, Buenos Aires, 1958; P. M. Woodward, Probability and Informati" heory,with Application to Radar Londres Pergamon Press 1953 C. Mar"- El pit 1 M . ". ,. 3 V~tr A. Schau ~aTh' a , h'lxlco'h~onldo de Cultura Econmica, 1959, vol. J, pg. 3. 4 XI . e ' epi osop ica aspect of the process of communcation", 1J~;I~;. I ongress~Internazionale di Filosojia, Florencia, G. C. Snsoni, vol. IV, pgs.

, 5 Lon BrilIouin er, S . el I f .' 1956 'Clence an n ormation Theory Nueva York Academic Press , p gs 10 294 Y 297 Id '" alcance d . 1 't ti ,ConSI era que el valor de la informacin se encuentra fuera del e a eo a' pero en ca bi A A Kh k . Proble f e b '.' ro ro, . . ar evitz, en "On the value of information" ms o y ernetics L1ndres P PI' cuantificacin del l' d .' erga~on ress, vo. IV, pgs. 1193-1198, propone una cremento d 1 v~o~. e la Informacin, estableciendo su medida en funcin del in. e a pro abldad de conseguir un propsito.

108

EL! DE GORTAR!

tablecimiento de criterios adecuados para seleccionar la informacin requerida en cada caso. Una vez adquirida la informacin, se plantea el problema de investigar los procesos a que es sometida, tanto en las mquinas calculadoras como en los servomecanismos y otros dispositivos de automatizacin. Igualmente, se impone' la necesidad de estudiar con rigor los procesos del pensamiento, que se efectan en el cerebro humano a partir de la informacin adquirida y con base en los procedimientos elaborados con las informaciones anteriores."

3. La cantidad de informacin
Entre la diversidad de procesos objetivos con cualidades tan diferentes, en los cuales se emite o se absorbe informacin de muchas maneras, existen relaciones cuantitativas que son anlogas y comunes a todos ellos. Tales relaciones cuantitativas han permitido establecer una unidad de medida, eligiendo para eso una magnitud tomada directamente de la cuantificacin de los mismos procesos objetivos de informacin y reducindola a su expresin elemental y constante. Una vez determinada la unidad de informacin, ha sido posible determinar los procedimientos de medicin de la informacin, que son otras tantas maneras de contar o de calcular el nmero de veces que dicha unidad de medida se encuentra comprendida en una informacin, para fijar as precisamente su cantidad. En cada proceso existe un cierto nmero de cambios de estado que son posibles. Cuando todava no se obtiene informacin a:gllna acerca de un proceso, todos esos posibles cambios de estado tienen la jaisma probabilidad de realizarse. Pero, a medida que se obtiene intormac.on sobre el proceso en cuestin, se reduce el nmero de posibilid ..des por laexc!usin de aquellos cambios de estado que se van realizando. Hasta que !inalmente, cuando se llega a obtener una informacin completa, entonces d nmero de posibilidades queda reducido a cero." Por lo tanto, la cantidad de informacin 1 contenida en un proceso, se puede expresar como una funcin lpgartmica del nunero de cambios de estado P del proceso, que son posibles e igualmente prchables; introduciendo al propio tiempo una constante de proporcionalidad K, qu~ permite sumar las informaciones obtenidas en condiciones independiente." A's.la cantidad de informacin queda expresada por la ecuacin:

1 =KlogP.
Frolov, op. cit. Vase W. Ross Ashley, Introduccin a la 1960, pgs. 14 y 171. 8 Brillouin, op. cit., pgs. 13.
6
7

CI

beme itiIca, B'enos Aires , Nueva

V in
ISl

LA INFORMACIN

y SUS RELACIONES

109

Ahora bien, cada uno de los posibles cambios de estado de un proceso se encuentra sujeto, en rigor, a la alternativa dilemtica de realizarse o de no realizarse. Esa disyuntiva constante, representa la cantidad elemental de informacin que se puede obtener sobre un proceso, o sea, que toda informacin es susceptible de descomponerse en un nmero entero de esas cantidades elementales. Por consiguiente, su magnitud ha sido elegida como la unidad de informacin. Para ello se utiliza el sistema binario de los dgitos I y 0, referido a la realizacin o a la falta de realizacin de un cambio de estado, dentro del conjunto de cambios de estado que son posibles, igualmente probables y mutuamente excluyentes. Entonces, la unidad de informacin es el ardite que representa la cantidad de informacin contenida en una posibilidad dilemtica que se resuelve necesariamente en S o No, o bien, en sus valores numricos correspondientes I y o. Con la adopcin del ardite como unidad de informacin, el nmero de posibilidades de cambio existentes en un proceso determinado, resulta ser: P=
2n

Sustituyendo este valor de P en la ecuacin de la informacin antes establecida, tenemos: 1=K log P = K lag 2n K n log 2 ;

luego, identificando la cantidad de informacin 1 con el nmero de ardites de informacin, n, resulta: K=-----=lag2 lag 2
1

e;

con lo cual, la cantidad de informacin medida en ardites, queda expresada finalmente por la ecuacin: 1

=log2 P.

Es interesante hacer notar que el ardite, como cantidad mnima de informacin que es posible obtener acerca de un proceso, viene a ser al propio tiempo el cuanto de informacin; ya que es la dosis ms pequea que puede darse y, a la vez, porque cualquier cantidad de informacin mayor es siempre un mltiplo entero de ella. Por ende, el valor del ardite es enteramente objetivo e independiente del observador. Asimismo, la cantidad de informacin medida en ardites tiene siempre el mismo valor numrico para todos los observadores.l''

9 10

Es la unidad binaria conocida tambin con los nombres de bit y de hartley: Brillouin, op. cit., pg. 10.

110

ELI DE CORTARI

4. Propiedades termodinmicas
La primera ley de la termodinmica expresa que en todos los procesos, lo mismo que en los cambios de estado que ocurren en ellos, existe una propiedad denominada energa que representa la capacidad para producir efectos.I! La energia tiene la peculiaridad de que su cantidad total se conserva constante, aun cuando se presenta en varias formas diferentes y en cada una de ellas es susceptible de transformarse en cualquiera de las otras, conforme a una equivalencia bien determinada. Adems, como tambin es posible la conversin mutua entre la masa y la energa, en la proporcin indicada por la conocida ecuacin de Einstein: E mc2 ; tenemos que la energa es capaz de transferirse y manifestarse en forma de masa y, viceversa, la masa en cualquiera de las formas de energa. La segunda ley de la termodinmica establece la existencia de otra propiedad comn a los cambios de estado de los procesos, conocida con el nombre de entropa, la cual puede ser considerada como la tendencia hacia la desaparicin de las diferencias de temperatura, que es el estado ms probable entre todos los posibles.P La entropia se incrementa con los cambios de estado que son irreversibles, y permanece constante en aquellos cambios que son reversibles. El incremento de la entropia no afecta la constancia cuantitativa de la energa, pero s influye en su capacidad para ejecutar trabajo.P Mientras subsisten diferencias de temperatura, es posible que la energa produzca como efecto la ejecucin de trabajo; en tanto que esa posibilidad desaparece cuando se alcanza el equilibrio termodinmico. Por ello es que la entropia puede ser interpretada como la sombra de la energa.> La tercera ley de la termodinmica enuncia que, cuando disminuye indefinidamente la temperatura de un proceso qumicamente homogneo y de densidad finita, entonces su entropia se aproxima indefinidamente a un valor definido, que es independiente de la presin, del estado de cohesin y de los cambios qumicos particulares. Como la expresin del valor de la entropia contiene una constante arbitraria, resulta que en el lmite, en el cero absoluto de temperatura, la entropia de un proceso es igual a cero. Y esta conclusin terica se encuentra de acuerdo con los resultados obtenidos en la experimentacin.w

11 M. Planck, General Mechanics, Londres, Macmillan, 1933,pg. 76. M. Planck, Treatise on Thermodynamics, Nueva York, Dover, 1945,pg. 106. 13 1\1. Planck, Theory 01 Heat, Londres, Macmillan, 1932,pgs. 54-55. 14 Vase, E. Kolman, Qu es la ciberntica, Suplementos del Seminario de Problemas Cientficos y Filosficos, Segunda Serie, Nm. 13, Universidad Nacional de Mxico, 1958. J.j) Planck, Treatise on Thermodynamics, pgs. 273-~74.
12

LA INFORMACIN

y SUS RELACIONES

111

5. Los vnculos entre la informacin y la entropa


El crecimiento de la entropia significa que el proceso se aproxima al estado de equilibrio termodinmico, que es a la vez el estado ms probable, porque puede realizarse en un nmero mayor de maneras diferentes. Entonces, la entropia se encuentra vinculada directamente con la probabilidad; y ambas tienden naturalmente a incrementarse en una proporcin logartmica. Su relacin queda expresada por la ecuacin de Boltzmann-Planck:

s = k 10gP

en donde S es la entropia del proceso, k la constante de Boltzmann y P la probabilidad termodinmica, o sea, el nmero total de estados elementales del proceso. De esta manera, la entropia es la medida de la probabilidad de que un proceso se encuentre en un estado determinado.t" Entre la entropia 'y la informacin existe una conexin inmediata.17 La entropia es una medida de la carencia de informacin acerca de un proceso, porque representa la cantidad de informacin que falta por obtener.t'' En efecto, cuando no se ha obtenido ninguna informacin sobre un proceso, se tiene el mayor nmero de posibilidades y un mximo de entropia. Cuando se obtiene informacin, al mismo tiempo que se restringe el nmero de posibilidades, decrece la entropia del proceso.w Al obtenerse la informacin completa o mxima, una de las posibilidades adquiere una probabilidad igual a la unidad -es decir, que se convierte en certeza-, en tanto que se anulan las probabilidades de todas las otras posibilidades y el valor de la entropia se reduce a un mnimo. En el sistema cgs, la unidad de medida para la entropa tiene las dimensiones de la energa dividida entre la temperatura. As, el valor de la constante de Boltzmann es: - k

= 1.38X

10-16 ergios

por grado centgrado.

Tomando en cuenta la relacin existente entre la entropia y la informacin, se puede utilizar esta constante k, en lugar de la constante K de la ecuacin de la informaci6n, para medir la cantidad de informaci6n en unidades de entropia. Tambin se puede medir la entropia en unidades de informacn.w En tal caso, la relacin entre las unidades de los dos sistemas es:
Planck, Theory 01 Heat, pgs. 226'228. La semejanza entre la informacin y la entropia fue advertida por L. Szilard, Zeitschrijt f1' Physik, 53, 1929;Y su conexin fue descubierta por C. Shannon y W. Weaver, The Mathematical Theory of Communicati01l, Urbana, University of lllinois Press, 1949. 18 Brillouin, op. cit., pg. xii. 19 Vase,G. T. Guilbaud, What is Cyberneticst, Nueva York, Grove Press, 19OO, pg, 107. 2Q Brillouin, op. cit., pg. 3.
16 17

112

}.L!

DE GORTARl

Como se puede advertir fcilmente, la contribucin que resulta en la prctica para la entropia de un proceso, es 'una cantidad tan pequea que es, despreciable en comparacin con la entropia total. As, por ejemplo, en' una red telefnica que tenga 100000000 de suscriptores, como cada uno de ellos tiene la posibilidad de ser comunicado con cualquiera de los otros, tenemos: P=nn, siendo: n 100000000 108. Entonces, la cantidad de informacin de esa red telefnica ser: 1 =log, P

'. =log2 n = n log2 n

<=

26.6

lOs

=2.66 X

109

Y esta cantidad de informacin en ardites, cuando es medida en unidades de entropia, apenas significar una contribucin de:
'2.66

i o?

10-16

2.66

10-:-7

0.000000266

Sin embargo, el vnculo entre la entropia y la informacin es indispensable para mantener la consecuencia lgica interna de la teora de la informacin. Y, lo que es ms importante, existen casos en que la contribucin resulta mucho ms cuantiosa, incluso medida en unidades de entropia.

6. Caractersticas de la anentropia
En los cambios reversibles se mantiene constante el grado o capacidad de la energa para ejecutar trabajo. Pero en los cambios irreversibles, se produce una degradacin o descenso en el grado de la energa. Este grado de la energa se puede expresar con precisin hacindolo corresponder con la entropia negativa o anentropia.o Entonces, tenemos que la anentropia representa la tendencia de la energa hacia la conservacin de su capacidad para producir efectos. Por lo tanto, dentro de un proceso que se mantiene en desequilibrio termodinmico, la anentropia permanece constante. En tanto que, cuando en el proceso se producen cambios de estado que lo aproximan al equilibrio termodinmico" la anentropia decrece. Y, cuando se acenta el desequilibrio termodinmico o la temperatura del proceso disminuye indefinidamente, la anentropia se incrementa.w La anentropia representa as una cualidad activa de la energa,23 Un proceso posee anentropia cuando su temperatura no es homognea, lo mismo
21

Mejor que la palabra hbrida negentropia.

22 Planck, Theory 01 Real, pg. 54. 23 Vase, A. M. Yaglom e I. M. Yaglom, Probabilit et Intormation, Pars, Dunod, 1959,
pg. 60.

LA INFORMACIN

y SUS RELACIONES

que cuando su presin no es uniforme o cuando existen en su seno diferencias de potencial. En tal caso,la anentropia puede ser utilizada para ejecutar trabajo, para "emitir informacin o, simplemente,para ser disipada por conduccin trmica, resistenciaelctrica, friccin o viscosidad.s! Por consiguiente, con la emisin de informacin se realiza en el procesouna conversin de anentropia en informacin. La anentropia es tambin una medida del orden o de la organizacin que posee un proceso.w En este sentido, la cualidad distintiva" de los procesos orgnicos es su mayor orden. Los organismosvivos absorben continuamente del medio ambiente el orden que necesitan para mantener su vida. En los animales, ese orden es tomado de la anentropia de los compuestosorgnicos ms o menos complejos que les sirven de alimento. Despusde haber utilizado la anentropia de esoscompuestosorgnicos, los animales los devuelven al medio ambiente en forma degradada, pero todava as contienen anentropia suficiente para ser aprovechadapor los vegetales. Por lo tanto, los organismosvivos evitan la muerte abastecindosecontinuamente de anentropia; y su metabolismo consistepropiamente en liberarse de la entropia que producen, adquiriendo en cambio anentropa.w En los organismosvivos, adems,el orden de magnitud de la contribucin que hacen a la entropia con la informacin que los mantiene interconectados, si resulta apreciable"en comparacin con la entropia local. AS, por ejemplo, el nmero de clulas que contiene la sangredel organismo humano, es del orden de 25 000000000000. Entonces, la intercomunicacin de cada clula con cualquiera otra del propio organismo, es: P=n"; "

siendo: n 25 000000000000 =2.5X 1013. Por lo tanto, la cantidad de informacin es: 1 =log2P

=log, n" =n log2n <= 45 X 2.5X


1013

= 112.5 X

1013

1.125 X 1011'; ardites.

y esta cantidad de informacin representa ya una contribucin, en unidades de entropia, de:


1.125 X 1015 X 10-16

= 1.125 X

10-1

=0.1125.

Ahora bien, si consideramosel nmero total de clulas que constituyen el organismo humano o, todava ms, el nmero de molculas que entran
2~ 25

Brillouin, op. cit., pg. 116. Vase, N. Wiener, The human use 01 human beings, Nueva York, Doubleday, 1954, Vase, E. Schroedinger, Qu es la vida?, Buenos Aires, Espasa-Calpe, 1947, pgs.

pg.

21.

26

96-108.

114

EL! DE GORTARI

en su composicinqUlmlca, entoncesel orden de magnitud de la cantidad de informacin correspondientea su interconexinrepresentavalores mucho ms apreciables. En fin, si consideramos el nmerode tomosque contieneel organismohumano, cuyo orden de magnitud es de 7 000 000 000 000 000 000 000 000 000, tendremos por consiguiente:n =7 X 102'7; Y as, en ardites, la informacin ser de:
1

= n log2

n """ 7 X

10

27

107

= 749 X

1027

= 7.49 X

1029

Y estacantidad de informacin, convertida en unidades de entropia, tiene la considerablemagnitud de:


7-49 X 1029 X 10-16

=749 X

1013 =74 900000000000.

7. Certidumbre de la experiencia Un cambio que se puede producir o no producir como resultado de una experiencia,es un cambio aleatorio.s" La caractersticaprincipal de los cambios aleatorios es la incertidumbre que existe acerca de su realizacin. El grado de incertidumbre de una experiencia es la entropia de esa experiencia. Dicha entropia es igual a cero cuando, y slo cuando, la probabilidad de uno de los resultadosposiblessea igual a la unidad, lo cual implica ineludiblemente que todas las dems probabilidades sean nulas. En tal condicin, habr desaparecido la incertidumbre de la experiencia,para convertirse en certidumbre. Con todo, es indispensabletener en cuenta que al medir la entropia no se considerantodos los factoresque determinan conjuntamentesu incertidumbre, ni tampoco la manera'especfica como intervienen.esLa entropia dependenicamentede las probabilidadesque tienen los diversosresultados posibles de la experiencia,pero su medicin es indiferente a la naturaleza de esosresultados. Por lo tanto, la medida del grado de incertidumbre de una experienciaes independientedel significado que puedan tener los posibles resultados. La entropia mide, entonces,el grado de incertidumbre de una manera abstracta. Esta nocin de entropia nos permite medir la influencia que tiene una experienciasobre otra experiencia, mediante la diferencia de entropia que existe entre ambas. Por eso, la relacin entre la entropia y la informacin es anloga a la relacin que existe entre las nociones de potencial y de diferencia de potencial en la fsica.29 La entropia de una experiencia es la informacin contenida en ella misma, o sea, el mximo de informacin que
27 Yaglom
28 29

y Yaglom, op. cit., pg. 5. Yaglom y Yaglom, op. cit., pg. 43. Yaglom y Yaglom, op. cit., pg. 60.

LA INFORMACIN

y SUS RELACIONES

se puede obtener sobre ella. Lo cual est de acuerdo con lo expresado anteriormente acerca del grado de incertidumbre: mientras mayor sea la incertidumbre de una experiencia, ms grande ser la informacin que se pueda obtener de ella al realizarla efectivamente. La cantidad de informacin adquirida es inversamente proporcional a la entropia y, por ende, directamente proporcional a la anentropia.

8. Incremento de la entropia
Es imposible obtener informacin sobre un proceso sin dejar de provocar cambios en su seno o en el medio que lo rodea. Por ello, al propio tiempo que se adquiere informacin, se produce un incremento de entropa, ya sea en el proceso mismo o en su vecindad.w En algunos casos, la adquisicin de informacin puede traer consigo un decrecimiento de la entropa del proceso; pero entonces la anentropia respectiva tendr que ser suministrada por algn otro proceso, cuya entropia se incrementar en forma correspondiente. Debido a que la adquisicin de informacin siempre va acompaada de un incremento en la entropa, tenemos que su realizacin implica un proceso irreversible. La cantidad de informacin I que se obtiene en una experiencia, se mide por la diferencia entre la entropia So que existe inicialmente en el proceso, y la entropia S1 que se tiene finalmente, despus de realizar la experiencia, o sea:

Pero esto solamente se cumple en condiciones ptimas, que slo se pueden suponer idealmente. En general, la cantidad de informacin obtenida en una experiencia, es menor que el incremento de la entropia.s! Por lo tanto, tendremos: 11 (S - 1) <o; y: 11S <I1I > o. Para evitar confusiones, es pertinente especificar que el incremento de entropia 11S requerido para obtener informacin, es independiente del crecimiento que pueda tener la entropa en el mismo proceso o en su vecindad, mientras no se estn ejecutando experiencias. Sin embargo, por lo menos tericamente, es necesario tomar en cuenta que el costo de entropa que representa la adquisicin de informacin, debe ser despreciable en comparacin con la entropia total del proceso observado. Por lo tanto: 11S << S; ya que: I1I <11S
so Brllouin, op. cit., pg. 184. 31 Brillouin, op. cit., pg. 232.

<< S;

116

EU DE GORTARI

puesto que la informacin tropia.

obtenida

siempre es menor que su costo en en-

9. Eficiencia del experimento


La eficiencia de un experimento se determina mediante la relacin establecida entre la cantidad de informacin obtenida y el incremento de entropia asociado a ella. Esta eficiencia es siempre menor que la unidad, la cual representa su lmite mximo inalcanzable. La adquisicin de informacin acerca de un proceso corresponde a un estado de baja entropia o, lo que viene a ser lo mismo, de elevada anentropia. El experimento requiere entonces de fuentes que suministren anentropia, dado que cada observacin se ejecuta siempre a expensas de la anentropia del medio circundante. La cantidad mnima de anentropia requerida en un experimento, es del orden de magnitud de la constante k. La eficiencia E de un procedimiento experimental de observacin, queda determinada por la relacin entre la informacin obtenida /),.1, a costa de la anentropia /),. N, que es el incremento de entropia /),. S que acompaa a la ejecucin de la observacn.w

=-.,----:-- ---

/),.1

/),.1

I/),.NI

/),.S

ya que:

I /),. N =/),. S.

La informacin obtenida en un experimento depende del correspondiente incremento de la entropa, que debe satisfacer la desigualdad: /),.S>/),.I;

y, por consiguiente, su eficiencia debe satisfacer la expresin: ----~l.


/),.S /),.1

Esta relacin permite determinar la eficiencia de los diferentes procedimientos de experimentacin, lo mismo que coadyuva a establecer su exactitud y su fidedignidad. .

10.

Formas de la inormacin

Hasta aqu nos hemos ocupado de la informacin nicamente en una de sus formas. En efecto, hemos tratado exclusivamente de la informacin que se obtiene cuando los casos posibles pueden ser seleccionados vinculndolos
32 Brillouin,

op. cit., pg.

209.

LA INFORMACIN

Y SUS RELACIONES

directamentecon los estados fsicos del proceso. Por ello, a esa'forma de informacin se la denomina informacin selectiva.83 Pero tambin es posible adquirir informacin en una forma ms general,como informacin libre, que es aquella que se obtiene cuando los casosposiblesson considerados de manera abstracta,sin precisar en modo alguno su vinculacin con los estados fsicos del proceso. M La informacin viva es aquella que se transmitesimultneamente con la energa requerida para su recepcin.w Por consiguiente,en la misma operacin en que el receptorrecibe la informacinviva, tambin absorbela energa con su correspondiente anentropia. En cambio, la informacin latente es la que es simplementealmacenada o acumulada,por carecerde la energa y la anentropia necesarias para su recepcinulterior, como ocurre con la informacin impresa,grabadaen una cinta magnticao contenida en las perforacionesde una tarjeta.36 Entonces,para obtenerinformacin,cuandosta se encuentraen estadolatente,se requiere una fuente adicional que suministre la energa y la anentropia necesariaspara convertir dicha informacin latente en informacin viva. La informacin absoluta es la cantidad total de una informacin determinada, considerndolauna sola vez y con independenciadel nmero de ocasionesen que hayasido o puedaser transmitiday recibida, o bien, transferida y compartida.s" La informacin distribuida es igual al producto de la cantidad de informacin absoluta,multiplicada por el numero de vecesque ha sido recibida por transmisino compartidapor transferencia.wComo es fcil advertir, la informacin distribuida puede aumentarindefinidamente,sin que aumentela informacin absolutacorrespondiente.En todo caso,se tratar de una informacin nueva para un receptor,cuando stela recibe por primera vez. En cambio,esamisma informacinse convertiren informacin redundante cuando llegue al mismo receptorpor segunda,tercerao ensima vez.39 La informacin relativa o condicional es aquella a la cual se le imponen condiciones,o se le aplican filtros o criterios de seleccin. Naturalmente, cualquier restriccin que se imponga producir una disminucin de la cantidad de informacin disponible, porque dichas condiciones,criterios o filtros eliminan algunasde las posibilidadesdel proceso.En consecuencia, la informacin anticipada que se tengaacercade un proceso,es enteramente equivalente a la imposicin de una condicin restrictiva. Por ello, la informacin
33 Brillouin,
34

35 36 37 38 39

BrilIouin, Brillouin, Brillouin, Brillouin, Brillouin, Brillouin,

op. cit., pg. 291. op. cit., pg. 152. op. cit., pg. 259. op. cit. pg. 261. op. cit., pg. 265. op. cit., pg. 266. op. cit., pg. 265.

ll8

EL! DE GOR T ARI

que se puede obtener cuando ya se cuenta con una informacin anticipada, es una informacin relativa o condicional.w Toda informacin es informacin positiva, en el sentido de que su cantidad siempre tiene un valor mayor que cero.41 Sin embargo, puede suceder que, despus de haber transmitido una informacin compuesta de un cierto nmero de ardites, se requiera obtener su confirmacin, la cual puede hacerse mediante un solo ardite, S o No. En tal caso, la informacin final tambin es positiva, teniendo el mismo valor absoluto que el total de la informacin anterior y tambin el mismo signo. Pero, igualmente puede ocurrir que, despus de haber transmitido una cierta informacin, se descubra que era errnea o falsa. Entonces, con un nuevo ardite de informacin es suficiente para anular todos los ardites transmitidos anteriormente. En este sentido, resulta que la informacin final tiene el mismo valor absoluto que el total de la informacin anterior, pero con signo contrario, por lo cual tiene que ser considerada como informacin negatioar

11.

Conversin recproca entre informacin y anentropia

Cuando se obtiene informacin selectiva sobre un proceso determinado, que no se encuentre aislado, se produce un incremento en la anentropia, a expensas de algn otro proceso. La relacin entre el incremento de anentropia y la informacin selectiva, es: Is=Nl-No; o bien:

en donde, Is es la informacin selectiva, No la anentropia inicial, y Nl la anentropia final. Cuando la informacin selectiva se adquiere de un proceso que no se encuentra aislado, entonces se produce un decrecimiento de la anentropia:

I1Nl <o;
o, tambin: Y dicho decrecimiento puede ocurrir, en rigor, tanto en No como en 18, o en ambas simultneamente. Por otra parte, si consideramos tambin la informacin libre lL que se obtiene del mismo proceso, tenemos.:

111L<o,
40 41 42

I1Nl <o;

Brillouin, Brilloun, Brillouin,

op. cit., pg. 297. op. cit., pg. 10. op. cit., pg. 10.

LA INFORMACIN

y SUS RELACIONES

entonces:

11 (N i

+h) <o ;
L)

y conjugando las dos clases de informacin, resulta:

11 (N

+I

L)

= 11 (No + 18+ l =11 (No + 1) <o ;

en donde el trmino 1 sin ndice representa la conjugacin de la informacin libre, h, con la informacin selectiva, 18.43 Tanto la informacin selectiva como la informacin libre se obtienen a expensas de la anentropia, ya sea del mismo proceso o de cualquier otro vecino. A su vez, estas dos clases de informacin se pueden convertir en anentropia. Por consiguiente, tenemos que la informacin libre y la informacin selectiva se pueden transformar en anentropia, y viceversa. Adems, la suma de informacin y anentropia se mantiene constante en los cambios reversibles y, por lo contrario, decrece en los irreversibles. Pero se trata de una suma en la cual es imposible que alguno de los sumandos pueda quedar reducido a cero. Por consiguiente, la conversin recproca entre informacin y anentropia est limitada por la restriccin de que la anentropia no se puede transformar totalmente en informacin, ni tampoco se puede producir la transformacin inversa, de informacin en anentropia, de manera exhaustiva. Conservacin de la cantidad de informacin

12.

Las mquinas calculadoras no producen informacin. Lo nico que hacen es someter a ciertos procesos la informacin que se les suministra como materia prima, para elaborar con ella un producto acabado, pero sin incrementar la informacin.s+ En condiciones ideales, la cantidad de informacin se podr mantener constante a travs del clculo. Pero, en condiciones normales de realidad, siempre se produce cierta prdida, de tal manera que la cantidad de informacin final ser menor que la cantidad de informacin suministrada en un principio. En rigor, la mquina computadora se puede comparar con una red de transmisin, en la cual queda incluida la codificacin y el desciframiento. La computadora es alimentada con datos numricos en la entrada, opera con ellos conforme al programa que tambin se le suministra y calcula as los datos finales que constituyen el resultado.w Su funcionamiento es tambin semejante al de una mquina codificadora, que utiliza la informacin contenida en los datos de la entrada, para descifrarlos en los datos de la salida. Cuando la computadora no comete errores ni hace aproximaciones en el clculo, la cantidad de informacin de la salida es igual a la de la
Brillouin, op. cit., pgs. 153-154. op. cit., pg. 267. 45 Vase, H. Greniewski, Cybernetics without Mathematics, Londres, Pergamon Press, 1960,pg. 21.
43 44 Brllouin,

120

ELI DE GORTARI

entrada; en caso contrario, se habr producido una disminucin en la cantidad de informacin. El proceso que realiza la mquina calculadora se puede comparar todava mejor con el trabajo de traduccin. Al traductor se le suministra un diccionario y las reglas gramaticales que le permiten traducir al espaol, por ejemplo, un libro escrito originalmente en chino. Este libro en chino representa la entrada; y su traduccin representa la salida. La cantidad de informacin presente en la entrada es, en el caso ptimo, la misma que se puede encontrar presente en la salida; aunque lo ms comn es que la cantidad de informacin de la salida sea menor que la de la entrada.w Si el trabajo del traductor es excelente, el proceso se podr realizar despus en sentido contrario, de manera que sea posible retraducir el libro del espaol al chino, recuperndose as el texto original o, por lo menos, su equivalente. Las condiciones ideales de operacin corresponden a la reversibilidad del proceso y, por consiguiente, a la conservacin de la cantidad de informacin. . Desde el punto de vista estricto de la informacin, el clculo no agrega ninguna nueva informacin, ni tampoco aumenta su cantidad, sino que nicamente la repite en un cdigo diferente. Sin embargo, es enteramente obvio que tanto el clculo como el desciframiento y la traduccin, pueden contribuir a incrementar el valor de uso de la informacin, hacindola ms significativa para el usuario. Ms an, pueden servir para darle plenamente el significado que despus tiene para el usuario, como sucede comnmente con la. traduccin que se. hace de una lengua desconocida a una conocida. Pero, en todo caso, es indispensable tener siempre en cuenta que la cantidad de informacin contenida en los resultados de un clculo, de un desciframiento o -de una traduccin -independientemente de la manera como se hayan realizado-- tiene como lmite mximo la cantidad de informacin contenida en los datos iniciales, con el agravante de que dicho lmite es generalmente inalcanzable en la prctica.. Esto sucede as porque, de la misma manera como la energa suministrada a un mecanismo cualquiera, siempre es mayor que la cantidad de energa aprovechada tilmente en el funcionamiento del mecanismo, as tambin la informacin que se le proporciona a una calculadora de cualquier tipo, siempre es mayor que la cantidad de informacin contenida en los resultados que elabora. 13. Transmisin

y transferencia de informacin

La informacin es suceptible de comunicarse, ya sea transmitindose o transfirindose de un proceso a otro u otros procesos. Cuando es transmitida, la informacin se mantiene en su misma forma. En cambio, cuando es transIerida.Ta informacin cambia de una forma a otra distinta. La cantidad de
46

Brilloun, op. cit., pgs. 295-296.

LA INFORMACIN

y SUS RELACIONES

informacin se mide en ardites,cuando se encuentraen la forma de informacin selectiva. Entonces,la cantidad de informacin representauna informacin selectivamedida comoinformacinselecuva.s" Lo que es ms,cuando una informacin selectivaes transmitida,conservasu forma de informacin selectiva. Pero, cuando una informacin selectiva es transferida a otro proceso,entoncesse convierteen otra forma distinta de informacin. La transferenciade una informacin selectiva de un procesoa otro, lo cual implica su conversinen otra forma de informacin, se mide en anentropia. De estamanera,la anentropia representaa la informacin selectiva medida en su capacidad para convertirseen una magnitud equivalente de otra forma de informacin. Desdeluego, la informacin selectivade un proceso se puede transferir a otro proceso en forma de informacin libre. Igualmente,la informacin libre de un procesoes susceptiblede transferirse a otro proceso,convirtindoseen informacin selectiva. La informacin viva se transformaen informacin latente,cuando es almacenadao queda registradaen una memoria. En tal caso,despusde que se'hace el registro o que se almacena la informacin, la anentropia excedente es absorbida por otro procesoo se disipa. Por eso, cuando se hace necesariovolver a transformaruna informacin latente en informacin viva, resulta indispensable suministrarle entonces la anentropia requerida para dicha transformacin.En consecuencia, tambin en estecaso,queda en cIaro que la anentropia representala capacidad que tiene la informacin latente para convertirseen informacin viva y, recprocamente, la informacin viva en informacin latente. Como ya lo hemosdicho, la informacin absolutaes la cantidad total de una informacin determinada,considerndolauna sola vez. Pues bien, esa informacin puede ser de una sola forma o incluir simultneamentevarias formas distintas. En esteltimo caso,la informacin absolutaes la suma de las diversasformas de informacin que la constituyen. Adems,esasformas distintas de informacin son susceptibles de transformarse mutuamente,unas en otras, en magnitudesequivalentes. Por su parte,la informacin distribuida representasimplementeuna multiplicacin de la informacin, que requiere ineludiblemente un incremento de la anentropia en una magnitud equivalente al incremento de la cantidad de informacin. En lo que respectaa la informacin relativa o condicional, la disminucin de la cantidad de informacin se explica por el hecho mismo de que la restriccin, la condicin, el criterio o el filtro que se imponen entonces,constituyenen rigor una informacin anticipada, la cual se resta a la cantidad de informacin disponible. En consecuencia, la informacin contenida en la restriccin, sumadaa la informacin condicional o re47 Vase, N. Wiener, Cybernetics, OT Control and Communication in the Animal and the Machine, Nueva York, John Wiley, 1948,pg. 111.

122

ELl DE GORTARI

lativa, resulta ser igual a la cantidad absoluta de informacin existente antes de imponer la restriccin. El problema planteado por la informacin negativa, se puede interpretar considerndolo desde el punto de vista de la verificacin de la informacin. En tales condiciones, el ardite que sirve para confirmar o para refutar la informacin transmitida con anterioridad, es una sntesis de ella y, por lo tanto, representa al conjunto entero y tiene el mismo valor en cantidad de informacin absolua. Aun cuando, para desempear esa funcin de sntesis. se requiere ineludiblemente la transmisin previa de toda la informacin que sintetiza, ya que nicamente as es como puede ser despus confirmada o refutada, empleando para ello un solo ardite de informacin. Como conclusin, hemos presentado la analoga existente entre la informacin y el movimiento. La informacin selectiva es anloga al movimiento mecnico, en tanto que las otras formas de la informacin resultan ser anlogas a otras de las formas del movimiento. La cantidad de informacin es anloga a la cantidad de movimiento y, por consiguiente, representa una informacin selectiva medida como informacin selectiva. La anentropia es anloga a la energa cintica, ya que representa una informacin selectiva medida en su capacidad para convertirse en una magnitud equivalente de cualquier otra forma distinta de informacin. Por ltimo, la informacin distribuida es anloga al momento de la cantidad de movimiento, porque representa la efectividad de una cantidad de informacin absoluta determinada. ELI
DE GoRTAR!

También podría gustarte