Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Ir a la navegaciónIr a la búsqueda
Para otros usos de este término, véase Información (desambiguación).
1Etimología
2Información en la sociedad
o 2.1Principales características de la información
o 2.2Historia de la información
o 2.3Usos de la información
o 2.4Información periodística
o 2.5Información y el Estado
3Teoría de la información
o 3.1Caracterización matemática
o 3.2Recuperación de la información
4Información y física
5Información y neguentropía
6Información analógica y digital
7Véase también
8Referencias
9Bibliografía
10Enlaces externos
Etimología[editar]
La palabra «información» deriva del sustantivo latino informatio(-nis) (del
verbo informare, con el significado de «dar forma a la mente», «disciplinar»,
«instruir», «enseñar»). Ya en latín la palabra informationis era usada para
indicar un «concepto» o una «idea», pero no está claro si tal palabra pudiera
haber influido en el desarrollo moderno de la palabra «información».
Por otra parte la palabra griega correspondiente era μορφή (morfè, de la que
por metatesis surgió la palabra latina «forma»), o si no εἶδος (éidos, de la cual
deriva la latina «idea»), esto es: «idea», «concepto» o «forma», «imagen»; la
segunda palabra fue notoriamente usada técnicamente en el ámbito filosófico
por Platón y Aristóteles para indicar la identidad ideal o esencia de algo
(véase Teoría de las ideas). Eidos se puede también asociar a «pensamiento»,
«aserción» o «concepto».1
Información en la sociedad[editar]
En las sociedades humanas y en parte en algunas sociedades animales, la
información tiene un impacto en las relaciones entre diferentes individuos. En
una sociedad la conducta de cada individuo frente a algunos otros individuos se
puede ver alterada en función de qué información disponible posee el primer
individuo. Por esa razón, el estudio social de la información se refiere a los
aspectos relacionados con la variación de la conducta en posesión de
diferentes informaciones.
Para Gilles Deleuze, la información social es un sistema de control, en tanto
que es la propagación de consignas que deberíamos de creer o hacer que
creemos. En tal sentido la información es un conjunto organizado de datos
capaz de cambiar el estado de conocimiento en el sentido de las consignas
transmitidas.
Principales características de la información[editar]
En general la información tiene una estructura interna y puede ser calificada
según varias características:
Usos de la información[editar]
Se considera que la generación y/u obtención de información persigue estos
objetivos:
¿A quién le sucedió?
¿Qué sucedió?
¿Cuándo sucedió?
¿Dónde sucedió?
¿Por qué sucedió?
¿Cómo sucedió?
La información es un fenómeno que proporciona significado o sentido a las
cosas. En sentido general, la información es un conjunto organizado de datos
procesados, que constituyen un mensaje sobre un determinado ente o
fenómeno. Los datos se perciben, se integran y generan la información
necesaria para producir el conocimiento que es el que finalmente permite tomar
decisiones para realizar las acciones cotidianas que aseguran la existencia. La
sabiduría consiste en determinar correctamente cuándo, cómo, dónde y con
qué objetivo emplear el conocimiento adquirido.
La información también indica mediante códigos y conjuntos de datos, los
modelos del pensamiento humano. La información por lo tanto, procesa y
genera el conocimiento humano. De esta manera, si por ejemplo organizamos
datos sobre un país, tales como: número de habitantes, densidad de población,
nombre del presidente, etc. y escribimos por ejemplo, el capítulo de un libro,
podemos decir que ese capítulo constituye información sobre ese país.
Información y el Estado[editar]
Artículo principal: Propaganda
Teoría de la información[editar]
Artículo principal: Teoría de la información
El enfoque de la teoría de la información analiza la estructura matemática y
estadística de los mensajes, con independencia de su significado u otros
aspectos semánticos. Los aspectos en los que se interesa la teoría de la
información son la capacidad de transmisión de los canales, la compresión de
datos o la detección y corrección de errores.
Caracterización matemática[editar]
Una forma de caracterizar nuestro estado de conocimiento del mundo, es a
través de las probabilidades. Si sabemos que en el futuro pueden
suceder n cosas diferentes , cada una con probabilidad ese conjunto de
probabilidades constituyen nuestro conocimiento del mundo, una información
debería reducir nuestra incertidumbre, variando las probabilidades a . Si el
segundo estado tiene menos incertidumbre es porque algunas cosas se han
hecho más probables frente a otras alternativas que se han hecho menos
probables.
Una forma de «medir la información» asociada a un mensaje o hecho
observado es calcular como algunas probabilidades han crecido y otras han
decrecido. Una medida conveniente de calcular la «concentración» de la
certeza en algunas alternativas es la entropía estadística: 11
Un ejemplo lingüístico ilustra bien este caso. Supongamos que nos proponen
adivinar la segunda letra de una palabra del español. y nos dicen que en la
segunda posición podría aparecer cualquier letra del alfabeto. Por tanto la
incertidumbre inicial se obtiene calculando la probabilidad de ocurrencia de
cada letra y calculando:
Sin embargo, si nos dan como pista que «la primera letra es una Z», entonces
en segunda posición sólo puede aparecer A, O, U (aunque existen un puñado
de casos excepcionales de E e I) y por tanto con esa información se reduce
mucha la incertidumbre:
La información cuantificada de la pista «la primera letra es una Z» resulta ser:
Las unidades de información resultan ser bits puesto que se han empleado
logaritmos de base 2. Si la pista hubiera sido «la primera letra es una M», la
segunda letra sólo podría ser A, E, I, O, U que es un conjunto más amplio y en
este caso y en este caso, la pista lleva menos información porque reduce
menos la incertidumbre, el resultado en este caso es repitiendo los pasos
anteriores de unos 2,50 bits.
Recuperación de la información[editar]
La cantidad de información y el conocimiento desarrollado, aparentemente es
enorme y tiene una metodología de recuperación, que eventualmente es infinita
o total en un número muy amplio de soportes y sitios y el modelo sistémico de
recuperación debe maximizar la búsqueda para asegurar su captura lo más
completa posible dentro del entorno de este sistema complejo. En el caso de
búsquedas en Internet y usando dos o más descriptores, los resultados
numéricos que dan los motores de búsqueda, que contengan los dos o más
términos juntos o muy próximos, ya es una medida de la cantidad de
información conseguida y que es en expresión matemática el ln o logaritmo
natural de la suma de las interacciones validadas. Valores de 2 o 3 serán
óptimos.
Información y física[editar]
En física existe una íntima conexión entre entropía e información:
Información y neguentropía[editar]
Léon Brillouin publicó en 1959 Science et théorie de l'information (versión en
inglés editada por vez primera en 1962) donde son examinadas las relaciones
entre estas dos disciplinas. Adopta particularmente un punto de vista de físico y
hace el lazo entra la entropía informacional de Shannon y la entropía
estadística de Boltzmann en donde se arriesga que la información (y con la
misma el lenguaje) es un factor neguentrópico es decir por el cual se puede
anular la entropía.