Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Los códigos ASCII para cada uno de los caracteres de la palabra «wikipedia» representados en
binario, el sistema de numeración más comúnmente utilizado para codificar información en
computadora.
Los datos sensoriales una vez percibidos y procesados constituyen una información que cambia
el estado de conocimiento, eso permite a los individuos o sistemas que poseen dicho estado
nuevo de conocimiento tomar decisiones pertinentes acordes a dicho conocimiento.
Etimología
La palabra «información» deriva del sustantivo latino informatio(-nis) (del verbo informare, con
el significado de «dar forma a la mente», «disciplinar», «instruir», «enseñar»). Ya en latín la
palabra informationis era usada para indicar un «concepto» o una «idea», pero no está claro si
tal vocablo pudiera haber influido en el desarrollo moderno de la palabra «información».
Por otra parte la palabra griega correspondiente era μορφή (morfè, de la que por metatesis
surgió la palabra latina «forma»), o si no εἶδος (éidos, de la cual deriva la latina «idea»), esto
es: «idea», «concepto» o «forma», «imagen»; la segunda palabra fue notoriamente usada
técnicamente en el ámbito filosófico por Platón y Aristóteles para indicar la identidad ideal o
esencia de algo (véase Teoría de las ideas). Eidos se puede también asociar a «pensamiento»,
«aserción» o «concepto».1
Información en la sociedad
En general la información tiene una estructura interna y puede ser calificada según varias
características:
Significado (semántica): Del significado extraído de una información, cada individuo (o sistema
experto: sistema capaz de emular el pensamiento humano) evalúa las consecuencias posibles,
y adecúa sus actitudes y acciones de manera acorde a esas consecuencias. Las expectativas que
tiene el ente se dan de manera literal al significado de la información.
Historia de la información
Siglo xii. Los Incas (Perú) usan un sistema de cuerdas para el registro de información numérica
llamada Quipu, usado principalmente para contar ganado.
Siglo xv. Edad Moderna. Con el nacimiento de la imprenta en Europa (Gutenberg), los libros
comienzan a fabricarse en serie. Surgen los primeros periódicos.
Siglo xx. 1926. Se inicia la primera retransmisión de televisión que afectará al manejo y
tratamiento de la información con gran impacto en los métodos de comunicación social
durante todo el siglo.
Siglo xx. 1940. Jeremy Campbell, definió el término información desde una perspectiva
científica, en el contexto de la era de la comunicación electrónica.
Siglo xx. 1943. El austro-húngaro Nikola Tesla inventa la radio, aunque inicialmente dicho
invento se atribuye a Guglielmo Marconi y la patente no se reconoce a su autor hasta los años
1960 .
Siglo xx. 1947.En diciembre John Bardeen, Walter Houser Brattain y William Bradford Shockley,
inventan el transistor. Serán galardonados por ello con el Premio Nobel de Física en
1956.Acaban de sentar sin saberlo la primera de las dos bases para una nueva revolución
tecnológica y económica, actuando como detonante de un aumento exponencial de la
capacidad de integración microelectrónica, de la popularización y la potencia de cálculo del
ordenador.2
Siglo xx. 1948. Claude E. Shannon, elabora las bases matemáticas de la Teoría de la
Información.3 Acaba de dar la segunda base de la revolución de las tecnologías de la
información y la comunicación: la aplicación del álgebra de Boole será el fundamento
matemático para industrializar el procesamiento de la información. Nace así la Ciencia de la
Computación o Ingeniería informática. La nueva revolución económica está servida. La
humanidad entra en la Era Digital usando el transistor y la numeración binaria para simbolizar,
transmitir y compartir la información.45
Siglo xx. 1948. Norbert Wiener, elabora la idea de cibernética en su famosa obra Cibernética o
el control y comunicación en animales y máquinas (Cybernetics or Control and Communication
in the Animal and the Machine) (1948) donde se encargó de «mantener el orden» en cualquier
sistema natural o artificial de información.
Siglo xx. 1951-1953. James Watson y Francis Crick descubren los principios de los códigos de
ADN, que forman un sistema de información a partir de la doble espiral de ADN y la forma en
que trabajan los genes.
Siglo xx. 1969. En el contexto de la guerra fría, el movimiento contracultural de la década de
1960, nace la embrionaria Internet cuando se establece la primera conexión de computadoras
u ordenadores, conocida como ARPANET, entre cuatro universidades estadounidenses (tres
universidades en California y una en Utah), con el objetivo inicial de facilitar una red de
comunicaciones militares a prueba de bomba. Su expansión y popularización, y la
democratización del conocimiento que facilita, transformará radicalmente las relaciones
económicas, sociales y culturales en un mundo más y más interdependiente.6
Usos de la información
Proporcionar una serie de reglas de evaluación y reglas de decisión para fines de control.
En relación con el tercer punto, la información como vía para llegar al conocimiento, debe ser
elaborada para hacerla utilizable o disponible (este proceso empírico se llama Documentación,
y tiene métodos y herramientas propios), pero también es imposible que la información por sí
sola dote al individuo de más conocimiento, pues es él quien debe valorar lo significativo de la
información: la organiza y la convierte en conocimiento. El dato, por así llamarlo, es en sí un
«prefijo» de la información, es decir, un elemento previo necesario para poder obtener la
información.
Información periodística
Una noticia es el relato o redacción de un texto informativo que se quiere dar a conocer con
sus propias reglas de construcción (enunciación) que se refiere a un hecho novedoso o atípico -
o la relación entre hechos novedosos y/o atípicos-, ocurrido dentro de una comunidad o
determinado ámbito específico, que hace que merezca su divulgación.
Información y el Estado
El control y la manipulación es uno de los medios más poderosos de los gobiernos para
promover el acatamiento de sus políticas. Así, los estados totalitarios y autoritarios buscan el
monopolio de la información para promover el acatamiento de sus políticas. La información
tiene por objetivo dar a conocer los hechos de manera efectiva e imparcial, mientras que la
propaganda busca ganar adeptos para lograr un objetivo, sin importarle la veracidad de los
hechos. Así la propaganda compite con el derecho como instrumento de poder.10
Teoría de la información
Caracterización matemática
Una forma de caracterizar nuestro estado de conocimiento del mundo, es a través de las
probabilidades. Si sabemos que en el futuro pueden suceder n cosas diferentes
�
�
�
log
incertidumbre inicial
log
incertidumbre final
�
=
información
Un ejemplo lingüístico ilustra bien este caso. Supongamos que nos proponen adivinar la
segunda letra de una palabra del español. y nos dicen que en la segunda posición podría
aparecer cualquier letra del alfabeto. Por tanto la incertidumbre inicial se obtiene calculando la
probabilidad de ocurrencia de cada letra y calculando:
log
�
log
log
log
,
04
bits
Sin embargo, si nos dan como pista que «la primera letra es una Z», entonces en segunda
posición solo puede aparecer A, O, U (aunque existen un puñado de casos excepcionales de E e
I) y por tanto con esa información se reduce mucha la incertidumbre:
log
log
�
log
91
bits
13
bits
Las unidades de información resultan ser bits puesto que se han empleado logaritmos de base
2. Si la pista hubiera sido «la primera letra es una M», la segunda letra solo podría ser A, E, I, O,
U que es un conjunto más amplio y en este caso
54
{\displaystyle \scriptstyle S_{f}\approx 1,54} y en este caso, la pista lleva menos información
porque reduce menos la incertidumbre, el resultado en este caso es repitiendo los pasos
anteriores de unos 2,50 bits.
Surgen cuatro operaciones básicas sobre la información, estos son los pilares sobre los cuáles,
al igual que las cuatro operaciones básicas de matemáticas (+ - x %) se pueden construir varios
cuatrimestres de estudio Universitario. Estos son:
Recuperación de la información
Información y física
En física existe una íntima conexión entre entropía e información:
En la teoría de la relatividad se presupone que ninguna señal que sea informativa puede viajar
más rápidamente que la luz, si sucediera lo contrario podría violarse el principio de causalidad,
no se han encontrado ejemplos de sistemas que permitan transmitir información más rápido
que la luz.
En mecánica cuántica, muchos autores aceptan la idea de que la información sobre un sistema
físico no se destruye aunque puede ser inaccesible. Cuando se hace una medición del estado
de un sistema sufre un colapso de la función de onda, de tal manera que sucesivas medidas
sobre el sistema no permiten recuperar el estado del sistema antes de la medida. Sin embargo,
el entorno del sistema y el aparato de medida evolucionan a un estado que sí contiene esa
información, aunque no es recuperable. En las últimas dos décadas del siglo xx existió un
debate sobre si se pierde información o no en los agujeros negros. De un lado, Stephen
Hawking, Roger Penrose y otros sostenían que sí, mientras que otros como Gerardus 't Hooft o
Leonard Susskind sostenían que no, llegando a formular estos últimos la idea del principio
holográfico de acuerdo al cual el horizonte de sucesos del agujero negro guardaría la
información sobre el estado físico de la materia caída en su interior. Además, en mecánica
cuántica es posible transmitir señales más rápido que la luz, tal como mostraron los
experimentos sobre el entrelazamiento cuántico de Alain Aspect; sin embargo, esas señales
superlumínicas no parecen ser capaces de transmitir información.
Información y neguentropía
Léon Brillouin publicó en 1959 Science et théorie de l'information (versión en inglés editada
por vez primera en 1962) donde son examinadas las relaciones entre estas dos disciplinas.
Adopta particularmente un punto de vista de físico y hace el lazo entre la entropía
informacional de Shannon y la entropía estadística de Boltzmann en donde se arriesga que la
información (y con la misma el lenguaje) es un factor neguentrópico es decir por el cual se
puede anular la entropía.
Veamos las diferencias y por tanto, desventajas y ventajas que tiene un sistema u otro.
Otra de las desventajas que tiene la información analógica es que ocupa un espacio físico, es
estática y su conservación puede ser difícil con el paso de los años. Sin embargo, la información
digital no ocupa ningún lugar físico pues se encuentra dentro de dispositivos capaces de leerla
como un ordenador. Además, son datos que tienen la capacidad de fluir con gran facilidad y su
conservación es completamente posible durante muchísimo tiempo; no se deteriora —aunque
el medio que la almacena sí puede echarse a perder—. De hecho, si no son destruidos a
conciencia, perduran para siempre.15
Otra diferencia entre los dos tipos de información está en la facilidad o dificultad para
compartirla. Es decir, la información analógica es más difícil de difundir. La ventaja de esto es
que es mucho más fácil de controlar. En cambio la digital, al ser tan fácil de compartir hoy en
día —vía Internet, por ejemplo—, es muy difícil impedir que circule una vez ha empezado a
hacerlo, por lo que nuestro control sobre ésta es mucho menor.15