Está en la página 1de 9

nformación 

es el nombre por el que se conoce un conjunto organizado de datos procesados


que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que
recibe dicho mensaje. Existen diversos enfoques para el estudio de la información:

 En biología, la información se considera como estímulo sensorial que afecta al


comportamiento de los individuos.
 Múltiples son las definiciones que se encuentran presentes a la hora de la
determinación de su contenido. Según Ivis Goñi Camejo «la información no se ha
definido solo desde el punto de vista matemático o técnico; su conceptualización
abarca enfoques filosóficos, cibernéticos y otros, basados en las denominadas
ciencias de la información.»
 En comunicación social y periodismo, se toman como un conjunto de mensajes
intercambiados por individuos de una sociedad con fines concretos.
 En bibliotecología, la información, junto con los datos, el conocimiento y
la sabiduría, es uno de los constituyentes del continuo que permite la toma de
decisiones.

Los datos sensoriales una vez percibidos y procesados constituyen una información que


cambia el estado de conocimiento, eso permite a los individuos o sistemas que poseen dicho
estado nuevo de conocimiento tomar decisiones pertinentes acordes a dicho conocimiento.
Desde el punto de vista de la ciencia de la computación, la información, es
un conocimiento explícito extraído por seres vivos o sistemas expertos como resultado de
interacción con el entorno o percepciones sensibles del mismo entorno. En principio la
información, a diferencia de los datos o las percepciones sensibles, tienen estructura útil que
modificará las sucesivas interacciones del que posee dicha información con su entorno.

Índice

 1Etimología
 2Información en la sociedad
o 2.1Principales características de la información
o 2.2Historia de la información
o 2.3Usos de la información
o 2.4Información periodística
o 2.5Información y el Estado
 3Teoría de la información
o 3.1Caracterización matemática
o 3.2Operaciones básicas con información
o 3.3Recuperación de la información
 4Información y física
 5Información y neguentropía
 6Información analógica y digital
 7Véase también
 8Referencias
 9Bibliografía
 10Enlaces externos
Etimología[editar]
La palabra «información» deriva del sustantivo latino informatio(-nis) (del verbo informare, con
el significado de «dar forma a la mente», «disciplinar», «instruir», «enseñar»). Ya en latín la
palabra informationis era usada para indicar un «concepto» o una «idea», pero no está claro si
tal vocablo pudiera haber influido en el desarrollo moderno de la palabra «información».
Por otra parte la palabra griega correspondiente era μορφή (morfè, de la que
por metatesis surgió la palabra latina «forma»), o si no εἶδος (éidos, de la cual deriva la latina
«idea»), esto es: «idea», «concepto» o «forma», «imagen»; la segunda palabra fue
notoriamente usada técnicamente en el ámbito filosófico por Platón y Aristóteles para indicar
la identidad ideal o esencia de algo (véase Teoría de las ideas). Eidos se puede también
asociar a «pensamiento», «aserción» o «concepto».1

Información en la sociedad[editar]
En las sociedades humanas y en parte en algunas sociedades animales, la información tiene
un impacto en las relaciones entre diferentes individuos. En una sociedad la conducta de cada
individuo frente a algunos otros individuos se puede ver alterada en función de qué
información disponible posee el primer individuo. Por esa razón, el estudio social de la
información se refiere a los aspectos relacionados con la variación de la conducta en posesión
de diferentes informaciones.
Para Gilles Deleuze, la información social es un sistema de control, en tanto que es la
propagación de consignas que deberíamos de creer o hacer que creemos. En tal sentido la
información es un conjunto organizado de datos capaz de cambiar el estado de conocimiento
en el sentido de las consignas transmitidas.

Principales características de la información[editar]


En general la información tiene una estructura interna y puede ser calificada según varias
características:

 Significado (semántica): Del significado extraído de una información, cada


individuo (o sistema experto: sistema capaz de emular el pensamiento humano)
evalúa las consecuencias posibles, y adecúa sus actitudes y acciones de manera
acorde a esas consecuencias. Las expectativas que tiene el ente se dan de
manera literal al significado de la información.
 Importancia (relativa al receptor): Es decir, si trata sobre alguna cuestión
importante. La importancia de la información para un receptor se referirá a en qué
grado cambia la actitud o la conducta de los individuos. En las modernas
sociedades, los individuos obtienen de los medios de comunicación masiva gran
cantidad de información, una gran parte de la misma es poco importante para
ellos, porque altera de manera muy poco significativa la conducta de los mismos.
Esto se refiere a en qué grado cuantitativo deben alterarse las expectativas
futuras. A veces se sabe que un hecho hace menos probables algunas cosas y
más otras, la importancia tiene que ver con cuán menos probables serán unas
alternativas respecto a otras.
 Vigencia (en la dimensión espacio-tiempo): Se refiere a si está actualizada o
desfasada. En la práctica la vigencia de una información es difícil de evaluar, ya
que en general acceder a una información no permite conocer de inmediato si
dicha información tiene o no vigencia.
 Validez (relativa al emisor): Se evalúa si el emisor es fiable o puede proporcionar
información no válida (falsa). Tiene que ver si los indicios deben ser considerados
en la revaluación de expectativas o deben ser ignorados por no ser indicios
fiables.
 Valor (activo intangible volátil): La utilidad que tiene dicha información para el
destinatario.
Historia de la información[editar]
La historia de la información está asociada a su producción, tratamiento y transmisión. Una
cronología de esa historia detallada puede ser:

 Siglo V a X - Alta Edad Media. El almacenamiento, acceso y uso limitado de la


información se realiza en las bibliotecas de los monasterios de forma amanuense
o manual.
 Siglo XII. Los Incas (Perú) usan un sistema de cuerdas para el registro de
información numérica llamada Quipu, usado principalmente para contar ganado.
 Siglo XV. Edad Moderna. Con el nacimiento de la imprenta en Europa (Gutenberg),
los libros comienzan a fabricarse en serie. Surgen los primeros periódicos.
 Siglo XX. 1926. Se inicia la primera retransmisión de televisión que afectará al
manejo y tratamiento de la información con gran impacto en los métodos de
comunicación social durante todo el siglo.
 Siglo XX. 1940. Jeremy Campbell, definió el término información desde una
perspectiva científica, en el contexto de la era de la comunicación electrónica.
 Siglo XX. 1943. El austro-húngaro Nikola Tesla inventa la radio, aunque
inicialmente dicho invento se atribuye a Guglielmo Marconi y la patente no se
reconoce a su autor hasta los años 1960 .
 Siglo XX. 1947.En diciembre John Bardeen, Walter Houser Brattain y William
Bradford Shockley, inventan el transistor. Serán galardonados por ello con el
Premio Nobel de Física en 1956.Acaban de sentar sin saberlo la primera de las
dos bases para una nueva revolución tecnológica y económica, actuando como
detonante de un aumento exponencial de la capacidad de integración
microeletrónica, de la popularización y la potencia de cálculo del ordenador.2
 Siglo XX. 1948. Claude E. Shannon, elabora las bases matemáticas de la Teoría
de la Información.3 Acaba de dar la segunda base de la revolución de
las tecnologías de la información y la comunicación: la aplicación del álgebra de
Boole será el fundamento matemático para industrializar el procesamiento de la
información. Nace así la Ciencia de la Computación o Ingeniería informática. La
nueva revolución económica está servida. La humanidad entra en la Era Digital
usando el transistor y la numeración binaria para simbolizar, transmitir y compartir
la información.45
 Siglo XX. 1948. Norbert Wiener, elabora la idea de cibernética en su famosa
obra Cibernética o el control y comunicación en animales y máquinas (Cybernetics
or Control and Communication in the Animal and the Machine) (1948) donde se
encargó de «mantener el orden» en cualquier sistema natural o artificial de
información.
 Siglo XX. 1951-1953. James Watson y Francis Crick descubren los principios de
los códigos de ADN, que forman un sistema de información a partir de la doble
espiral de ADN y la forma en que trabajan los genes.
 Siglo XX. 1969. En el contexto de la guerra fría, el movimiento contracultural de la
década de 1960, nace la embrionaria Internet cuando se establece la primera
conexión de computadoras u ordenadores, conocida como ARPANET, entre
cuatro universidades estadounidenses (tres universidades en California y una en
Utah), con el objetivo inicial de facilitar una red de comunicaciones militares a
prueba de bomba. Su expansión y popularización, y la democratización del
conocimiento que facilita, transformará radicalmente las relaciones económicas,
sociales y culturales en un mundo más y más interdependiente.6
 Actualmente, ya en el siglo XXI, en un corto período de tiempo, el mundo
desarrollado se ha propuesto lograr la globalización del acceso a los enormes
volúmenes de información existentes en medios cada vez más complejos, con
capacidades exponencialmente crecientes de almacenamiento7 y en soportes
cada vez más reducidos. A pesar de ello todavía existen muchas fuentes de
información en formato no digital o inaccesibles digitalmente por diversas causas.8
En este marco la proliferación de redes de transmisión de datos e información,
de bases de datos con acceso en línea, ubicadas en cualquier lugar, localizables
mediante Internet, permiten el hallazgo de otras redes y centros de información de
diferentes tipos en cualquier momento desde cualquier lugar. Es el resultado de
datos gestionados a través de aplicaciones informáticas donde los datos son
procesados y transformados en información que posteriormente es manejada
como signo integrador y característico de progreso económico del siglo XXI.9

Usos de la información[editar]
Se considera que la generación y/u obtención de información persigue estos objetivos:

 Aumentar/mejorar el conocimiento del usuario o, dicho de otra manera, reducir la


incertidumbre existente sobre un conjunto de alternativas lógicamente posibles.
 Proporcionar a quien toma decisiones la materia prima fundamental para el
desarrollo de soluciones y la elección.
 Proporcionar una serie de reglas de evaluación y reglas de decisión para fines de
control.
En relación con el tercer punto, la información como vía para llegar al conocimiento, debe ser
elaborada para hacerla utilizable o disponible (este proceso empírico se llama Documentación,
y tiene métodos y herramientas propios), pero también es imposible que la información por sí
sola dote al individuo de más conocimiento, pues es él quien debe valorar lo significativo de la
información: la organiza y la convierte en conocimiento. El dato, por así llamarlo, es en sí un
«prefijo» de la información, es decir, un elemento previo necesario para poder obtener la
información.

Información periodística[editar]
Una noticia es el relato o redacción de un texto informativo que se quiere dar a conocer con
sus propias reglas de construcción (enunciación) que se refiere a un hecho novedoso o atípico
-o la relación entre hechos novedosos y/o atípicos-, ocurrido dentro de una comunidad o
determinado ámbito específico, que hace que merezca su divulgación.

Información y el Estado[editar]
Artículo principal: Propaganda

El control y la manipulación es uno de los medios más poderosos de los gobiernos para
promover el acatamiento de sus políticas. Así, los estados totalitarios y autoritarios buscan el
monopolio de la información para promover el acatamiento de sus políticas. La información
tiene por objetivo dar a conocer los hechos de manera efectiva e imparcial, mientras que la
propaganda busca ganar adeptos para lograr un objetivo, sin importarle la veracidad de los
hechos. Así la propaganda compite con el derecho como instrumento de poder.10

Teoría de la información[editar]
Artículo principal: Teoría de la información

El enfoque de la teoría de la información analiza la estructura matemática y estadística de los


mensajes, con independencia de su significado u otros aspectos semánticos. Los aspectos en
los que se interesa la teoría de la información son la capacidad de transmisión de los canales,
la compresión de datos o la detección y corrección de errores.

Caracterización matemática[editar]
Una forma de caracterizar nuestro estado de conocimiento del mundo, es a través de las
probabilidades. Si sabemos que en el futuro pueden suceder n cosas diferentes , cada una
con probabilidad  ese conjunto de probabilidades constituyen nuestro conocimiento del
mundo, una información debería reducir nuestra incertidumbre, variando las probabilidades a .
Si el segundo estado tiene menos incertidumbre es porque algunas cosas se han hecho más
probables frente a otras alternativas que se han hecho menos probables.
Una forma de «medir la información» asociada a un mensaje o hecho observado es calcular
como algunas probabilidades han crecido y otras han decrecido. Una medida conveniente de
calcular la «concentración» de la certeza en algunas alternativas es la entropía estadística:11
Un ejemplo lingüístico ilustra bien este caso. Supongamos que nos proponen adivinar la
segunda letra de una palabra del español. y nos dicen que en la segunda posición podría
aparecer cualquier letra del alfabeto. Por tanto la incertidumbre inicial se obtiene calculando
la probabilidad de ocurrencia de cada letra y calculando:
Sin embargo, si nos dan como pista que «la primera letra es una Z», entonces en segunda
posición solo puede aparecer A, O, U (aunque existen un puñado de casos excepcionales
de E e I) y por tanto con esa información se reduce mucha la incertidumbre:
La información cuantificada de la pista «la primera letra es una Z» resulta ser:
Las unidades de información resultan ser bits puesto que se han empleado logaritmos de base
2. Si la pista hubiera sido «la primera letra es una M», la segunda letra solo podría ser A, E, I,
O, U que es un conjunto más amplio y en este caso  y en este caso, la pista lleva menos
información porque reduce menos la incertidumbre, el resultado en este caso es repitiendo los
pasos anteriores de unos 2,50 bits.

Operaciones básicas con información[editar]


Surgen cuatro operaciones básicas sobre la información, estos son los pilares sobre los
cuáles, al igual que las cuatro operaciones básicas de matemáticas (+ - x %) se pueden
construir varios cuatrimestres de estudio Universitario. Estos son:
Sobre estas cuatro operaciones, tanto en su almacenamiento como en tránsito es que se
construyen todas las operaciones complejas y desarrollos de software. Cabe mencionar
también que son la base de cualquier tipo de ataque informático o Ciberataque.12

Recuperación de la información[editar]
La cantidad de información y el conocimiento desarrollado aparentemente es enorme y tiene
una metodología de recuperación, que eventualmente es infinita o total en un número muy
amplio de soportes y sitios, y el modelo sistémico de recuperación debe maximizar la
búsqueda para asegurar su captura lo más completa posible dentro del entorno de
este sistema complejo. En el caso de búsquedas por Internet y usando dos o más
descriptores, los resultados numéricos que dan los motores de búsqueda, que contengan los
dos o más términos juntos o muy próximos, ya es una medida de la cantidad de información
conseguida y que es en expresión matemática el ln o logaritmo natural de la suma de las
interacciones validadas. Valores de 2 o 3 serán óptimos.

Información y física[editar]
En física existe una íntima conexión entre entropía e información:

 En física estadística un macroestado o situación macroscópica, puede


corresponder desde el punto de vista microscópico a varios microestados, es
decir, varios microestados diferentes pueden ser percibidos en términos
macroscópicos generales como la misma situación o macroestado general.
Algunos macroestados solo pueden corresponder a un número relativamente
pequeño de microestados; otros macroestados, por el contrario, pueden
corresponder a un número más elevado de microestados. La entropía es una
magnitud física que mide la cantidad de microestados correspondiente a un
macroestado. De alguna manera los macroestados con mayor entropía pueden
corresponder a más microestados y, por tanto, conocido el macroestado existe
una mayor incertidumbre sobre el microestado real del sistema. Por tanto la
entropía mide la falta de conocimiento del microestado, de ahí que la información
necesaria para conocer el microestado de un sistema conocido su macroestado
coincida con la entropía. Cuando se produce una disminución de la entropía se
puede decir que ha aumentado nuestro conocimiento del microestado del sistema,
o existe menos incertidumbre sobre dicho microestado.
 En la teoría de la relatividad se presupone que ninguna señal que sea informativa
puede viajar más rápidamente que la luz, si sucediera lo contrario podría violarse
el principio de causalidad, no se han encontrado ejemplos de sistemas que
permitan transmitir información más rápido que la luz.
 En mecánica cuántica, muchos autores aceptan la idea de que la información
sobre un sistema físico no se destruye aunque puede ser inaccesible. Cuando se
hace una medición del estado de un sistema sufre un colapso de la función de
onda, de tal manera que sucesivas medidas sobre el sistema no permiten
recuperar el estado del sistema antes de la medida. Sin embargo, el entorno del
sistema y el aparato de medida evolucionan a un estado que sí contiene esa
información, aunque no es recuperable. En las últimas dos décadas del
siglo XX existió un debate sobre si se pierde información o no en los agujeros
negros. De un lado, Stephen Hawking, Roger Penrose y otros sostenían que sí,
mientras que otros como Gerardus 't Hooft o Leonard Susskind sostenían que no,
llegando a formular estos últimos la idea del principio holográfico de acuerdo al
cual el horizonte de sucesos del agujero negro guardaría la información sobre el
estado físico de la materia caída en su interior. Además, en mecánica cuántica es
posible transmitir señales más rápido que la luz, tal como mostraron los
experimentos sobre el entrelazamiento cuántico de Alain Aspect; sin embargo,
esas señales superlumínicas no parecen ser capaces de transmitir información.

Información y neguentropía[editar]
Léon Brillouin publicó en 1959 Science et théorie de l'information (versión en inglés editada
por vez primera en 1962) donde son examinadas las relaciones entre estas dos disciplinas.
Adopta particularmente un punto de vista de físico y hace el lazo entre la entropía
informacional de Shannon y la entropía estadística de Boltzmann en donde se arriesga que la
información (y con la misma el lenguaje) es un factor neguentrópico es decir por el cual se
puede anular la entropía.

Información analógica y digital[editar]


Esta sección se refiere al almacenamiento, codificación y transmisión de información mediante
señales analógicas y digitales. En el caso la información codificada analógicamente, los datos
se traducen en forma de impulsos eléctricos, de manera que el flujo de información es
constante y únicamente va variando de amplitud. En cambio, la información codificada
digitalmente es aquella cuya codificación se reduce a dos valores: 0 y 1; es decir, se traduce
al sistema binario.13 Todo este tipo de información, independientemente de que estemos
hablando de música, imágenes, textos, etc, tiene la misma naturaleza.
Veamos las diferencias y por tanto, desventajas y ventajas que tiene un sistema u otro.
En primer lugar, la información digital al estar codificada con el mismo código,
independientemente del formato, puede ser transmitida o copiada infinitas veces sin padecer
daños o pérdidas, debido a que simplemente debe ser reconstruida por el software oportuno
—se trata únicamente de números—. Por el contrario la información analógica no es tan
precisa, pues pierde calidad al ser copiada.14
Otra de las desventajas que tiene la información analógica es que ocupa un espacio físico, es
estática y su conservación puede ser difícil con el paso de los años. Sin embargo, la
información digital no ocupa ningún lugar físico pues se encuentra dentro de dispositivos
capaces de leerla como un ordenador. Además, son datos que tienen la capacidad de fluir con
gran facilidad y su conservación es completamente posible durante muchísimo tiempo; no se
deteriora —aunque el medio que la almacena sí puede echarse a perder—. De hecho, si no
son destruidos a conciencia, perduran para siempre.15
Otra diferencia entre los dos tipos de información está en la facilidad o dificultad para
compartirla. Es decir, la información analógica es más difícil de difundir. La ventaja de esto es
que es mucho más fácil de controlar. En cambio la digital, al ser tan fácil de compartir hoy en
día —vía Internet, por ejemplo—, es muy difícil impedir que circule una vez ha empezado a
hacerlo, por lo que nuestro control sobre ésta es mucho menor.15
Finalmente, la información digital se procesa de manera mucho más rápida a través de
dispositivos como ordenadores o discos duros, de manera que esto facilita el tratamiento de la
información. Ésta, debido a la naturaleza común de todos los formatos, puede combinar texto,
imagen, vídeo, etc., en un mismo archivo.13

Véase también[editar]
 Dato, conocimiento, documentación
 Ciencias de la comunicación
 Seguridad de la información
 Sobrecarga informativa
 Teoría de la información
 Toma de decisiones, desinformación
 Lenguaje
 Periódico
 Noticia
 Historia del periodismo
Referencias[editar]
1. ↑ El vocablo indicaba originariamente «aquello que aparece a la vista», derivando de la
raíz indoeuropea *weid-/wid-/woid-, «ver» (confrontar con la palabra latina video). De
modo que puede consiguientemente asumir una gran multiplicidad de significados (por
ejemplo en Sócrates indica al «modelo teórico» de una oración).
2. ↑ Manso Coronado, Francisco Javier (2003). Diccionario enciclopédico de estrategia
empresarial. ISBN 8479785659. «"Nos hallamos inmersos en una revolución... la
tecnología de silicio se invento en 1945,el transistor en 1947,el primer ordenador en
1948...", pág. 257 ».
3. ↑ Shannon, Claude E (1948). «A Mathematical Theory of Communication». Bell System
Technical Journal 27 (b-1598). ISSN , 379-423.
4. ↑ Leer, Anne (2001). La visión de los líderes en la era digital (2001). México : Prentice-
Hall. ISBN 968-444-440-0.
5. ↑ Tubella i Casadevall, Immna (2005). «2.2. La economía de las TIC y la revolución
digital.». En UOC, ed. Sociedad del conocimiento.
6. ↑ «An Internet Pioneer Ponders the Next Revolution». An Internet Pioneer Ponders the
Next Revolution. Consultado el 25 de noviembre de 2005.
7. ↑ «The size of the World Wide Web». Consultado el 21 de febrero de 2010.
8. ↑ «El saber perdido en la era digital.Lucha por preservar la memoria colectiva en el
ciberespacio». EL PAÍS. 03 de 2007. Consultado el 21 de febrero de 2010.
9. ↑ Federación de Cajas de Ahorros Vasco-Navarras-. «La revolución digital: Nueva
economía e Integración Social». EKONOMI GERIZAN. VOLUMEN (9).
10. ↑ Payne, J. Mark; Alonso, Pablo (2007). República del Perú: Evaluación de la
gobernabilidad democrática. Madrid: Universidad Complutense, Instituto Complutense
de Estudios Internacionales. p. 66. ISBN 9788496702059.
11. ↑ Welsh, 1998
12. ↑ Corletti Estrada, Alejandro (2020). Manual de la Resiliencia (2020). España :
DarFe. ISBN 978-84-09-24465-2.
13. ↑ Saltar a:a b «Diferencia entre lo analógico y digital». Diferencias entre - La web de las
diferencias. 5 de abril de 2011. Consultado el 29 de noviembre de 2018.
14. ↑ «Diferencia entre lo analógico y digital». Diferencias entre - La web de las diferencias.
5 de abril de 2011. Consultado el 29 de noviembre de 2018.
15. ↑ Saltar a:a b «Definicion de información digital». www.alegsa.com.ar. Consultado el 29
de noviembre de 2018.

Bibliografía[editar]
 Dominic Welsh (1988): Codes and Cryptography, Clarendon Press, Oxford, ISBN
0-19-853287-3.
 Martínez Musiño, Celso (2010). El valor de la información, su administración y
alcance en las organizaciones. Revista mexicana de ciencias de la
información, vol. 1, No. 2, pp. 10-
20. https://web.archive.org/web/20171014214503/http://132.248.9.34/hevila/
Revistamexicanadecienciasdelainformacion/2010/vol1/no2/1.pdf

Enlaces externos[editar]
  Wikcionario tiene definiciones y otra información sobre información.
  Wikiquote alberga frases célebres de o sobre Información.
 Información en La Enciclopedia de Ciencias y Tecnologías en Argentina .
 información y referencia.

También podría gustarte