Está en la página 1de 11

¿Qué son las tecnologías de la

información?
La tecnología de la información es un proceso que utiliza una combinación de medios y
métodos de recopilación, procesamiento y transmisión de datos para obtener nueva
información de calidad sobre el estado de un objeto, proceso o fenómeno. El propósito de la
tecnología de la información es la producción de información para su análisis por las
personas y la toma de decisiones sobre la base de la misma para realizar una acción.

Las tecnologías de la información (TI)


La introducción de una computadora personal en el ámbito de la información y la aplicación
de los medios de comunicación de telecomunicaciones han determinado una nueva etapa
en el desarrollo de la tecnología de la información. La TI moderna es una tecnología de la
información con una interfaz de usuario "amigable" que utiliza computadoras personales e
instalaciones de telecomunicaciones. La nueva tecnología de la información se basa en los
siguientes principios básicos.

1. Modo interactivo (diálogo) de trabajar con una computadora.


2. Integración con otros productos de software.
3. Flexibilidad en el proceso de cambio de datos y definiciones de tareas.

Como un conjunto de herramientas de tecnología de la información, se utilizan muchos


tipos de programas informáticos: procesadores de texto, sistemas de publicación, hojas de
cálculo, sistemas de gestión de bases de datos, calendarios electrónicos, sistemas de
información de propósito funcional.

Características de las tecnologías de la información:


 Operación del usuario en el modo de manipulación de datos (sin programación).
El usuario no debe saber y recordar, sino que debe ver (dispositivos de salida) y
actuar (dispositivos de entrada).
 Soporte de información transversal en todas las etapas de la transmisión de
información sobre el apoyo de una base de datos integrada, que proporciona una
forma única de introducir, buscar, mostrar, actualizar y proteger la información.
 Procesamiento de documentos sin papel durante el cual sólo se registra la versión
final del documento en papel, las versiones intermedias y los datos necesarios
registrados en los medios se entregan al usuario a través de la pantalla de
visualización del PC.
 Modo de solución de tareas interactivo (de diálogo) con una amplia gama de
posibilidades para el usuario.
 Producción colectiva de un documento sobre la base de un grupo de
ordenadores unidos por medios de comunicación.
 Procesamiento adaptativo de la forma y los modos de presentación de la
información en el proceso de resolución de problemas.

Tipos de tecnologías de la información


Los principales tipos de tecnología de la información incluyen los siguientes.

 La tecnología de la información para el procesamiento de datos está diseñada


para resolver problemas bien estructurados, cuyos algoritmos de solución son bien
conocidos y para los cuales existen todos los datos de entrada necesarios. Esta
tecnología se aplica al nivel de rendimiento del personal de baja calificación con el
fin de automatizar algunas operaciones rutinarias y constantemente repetidas del
trabajo administrativo.
 La tecnología de información de gestión está destinada al servicio de información
de todos los empleados de las empresas, relacionado con la aceptación de las
decisiones administrativas. En este caso, la información suele presentarse en forma
de informes de gestión ordinarios o especiales y contiene información sobre el
pasado, el presente y el posible futuro de la empresa.
 La tecnología de la información de la oficina automatizada está diseñada para
complementar el sistema de comunicación existente del personal de la empresa. La
automatización de la oficina asume la organización y el apoyo de los procesos de
comunicación tanto dentro de la empresa, como con el entorno externo sobre la base
de redes informáticas y otros medios modernos de transferencia y trabajo con la
información.
 La tecnología de la información para el soporte de decisiones está diseñada
para desarrollar una decisión de gestión que se produce como resultado de un
proceso iterativo en el que participan un sistema de soporte de decisiones (un enlace
informático y el objeto de la gestión) y una persona (el enlace de gestión, que
establece datos de entrada y evalúa el resultado).
 La tecnología de la información de los sistemas expertos se basa en el uso
de inteligencia artificial. Los sistemas expertos permiten a los gerentes recibir
asesoramiento experto sobre cualquier problema sobre el cual se haya acumulado
conocimiento en estos sistemas.

La tecnología de la información (TI) es la aplicación de ordenadores y equipos


de telecomunicación para almacenar, recuperar, transmitir y manipular datos, con
frecuencia utilizado en el contexto de los negocios u otras empresas. El término se utiliza
como sinónimo para los computadores y las redes de computadoras, pero también abarca
otras tecnologías de distribución de información, tales como la televisión y los teléfonos.
Múltiples industrias están asociadas con las tecnologías de la
información: hardware y software de computadoras, electrónica, semiconductores, internet,
equipos de telecomunicación, el comercio electrónico y los servicios
computacionales.[cita requerida]
Frecuentemente, los términos TI y TIC suelen usarse indistintamente: mientras que TI se
refiere a tecnologías de la información, TIC implica, además, las destinadas a la
comunicación. De esta forma, TI es un término más amplio, que engloba las TIC. "Las TI
abarcan el dominio completo de la información, que incluye al hardware, al software, a los
periféricos y a las redes. Un elemento cae dentro de la categoría de las TI cuando se usa
con el propósito de almacenar, proteger, recuperar y procesar datos electrónicamente".1
Los seres humanos han estado almacenando, recuperando, manipulando y comunicando
información desde que los sumerios en Mesopotamia desarrollaron la escritura, cerca del
año 3000 a. C., pero el término tecnología de la información, en su significado moderno,
hizo su aparición en 1958, en un artículo publicado en la revista Harvard Business Review.
Sus autores, Harold J. Leavitt y Thomas L. Whisler, comentaron que “la nueva tecnología
no tiene aún un nombre establecido. Deberíamos llamarla tecnología de la información
(TI)”. Su definición consistía en tres categorías: técnicas de procesamiento, la aplicación
de métodos estadísticos y matemáticos para la toma de decisión y la simulación del
pensamiento de orden superior a través de programas computacionales.2
Basándose en la tecnología de almacenamiento y procesamiento empleada, es posible
distinguir cuatro eras del desarrollo de la TI: pre-mecánica (3000 a. C.-1450 d. C.),
mecánica (1450-1840), electromecánica (1840-1940) y electrónica (1940 al presente).3

Índice

 1Historia de la informática
 2Entrada de datos
 3Industria de la tecnología de la información
 4Almacenamiento de datos
o 4.1Bases de datos
 5Base de conocimiento
 6Recuperación de datos
 7Transmisión de datos
 8Manipulación de datos
o 8.1Sistema de apoyo a la toma de decisiones
 9Perspectivas
o 9.1Perspectiva académica
o 9.2Perspectiva comercial y laboral
o 9.3Perspectiva ética
 10Potencial y crecimiento tecnológico
 11Véase también
 12Referencias
 13Bibliografía
o 13.1Bibliografía adicional
 14Enlaces externos

Historia de la informática[editar]
Artículo principal: Historia del hardware
Réplica del Zuse Z3 en exhibición en el Deutsches Museum de Múnich . El Zuse Z3 es el primer
ordenador programable.

Este es el mecanismo de Antikythera, que se considera la primera computadora analógica


mecánica, que se remonta al siglo I.

La informática puede definirse como la ciencia que se encarga del estudio de la obtención
de información por medios automáticos. Para entender mejor esta definición, hace falta
conocer lo que se entiende por información, datos y medios automáticos. Los datos son el
conjunto de elementos que, a través de indicaciones, deben darse a una máquina para
que los procese y ofrezca un resultado. La información es el conjunto de datos y los
resultados que entrega la máquina. Un medio automático es una máquina que es capaz,
por ella sola, de elaborar o procesar una cierta información sobre la base de unos ciertos
datos de entrada que nos condicionarán los resultados del procesamiento de esta.4
Han sido utilizados dispositivos para asistir a la computación durante miles de años,
iniciando probablemente con el palo tallado. El mecanismo de Anticitera, que data cerca
del comienzo del primer siglo a. C., es considerado generalmente como la computadora
análoga más antigua descubierta, y el más antiguo mecanismo de engranaje. Dispositivos
de engranaje comparables no surgieron en Europa hasta el siglo XVI, y no fue hasta 1645
cuando se inventó la primera calculadora mecánica capaz de realizar las cuatro
operaciones aritméticas básicas.
Las computadoras electrónicas, usando tanto relés como válvulas, comenzaron a aparecer
a comienzos de la década de 1940. La electromecánica Zuse Z3, terminada en 1941, fue
la primera computadora programable del mundo, y, según los estándares modernos, una
de las primeras máquinas que podrían ser consideradas de cómputo completa. Colossus,
desarrollada durante la Segunda Guerra Mundial para desencriptar mensajes alemanes,
fue la primera computadora electrónica digital. Aunque era programable, no era de uso
general, habiendo sido diseñada para realizar una única tarea. Carecía además de la
capacidad de almacenar su programa en una memoria; su programación se realizaba
usando enchufes e interruptores para alterar su cableado interno. La primera computadora
de programas almacenados electrónica digital reconocible fue la Máquina Experimental de
Pequeña Escala de Mánchester (SSEM por su nombre en inglés: Manchester Small-Scale
Experimental Machine), que ejecutó su primer programa el 21 de junio de 1948.

El desarrollo de los transistores a finales de la década de 1940 en los Laboratorios


Bell permitió una nueva generación de computadoras diseñadas con un consumo de
energía reducido considerablemente. La primera computadora de programa almacenado
disponible comercialmente, la Ferranti Mark I, contenía 4050 válvulas y tenía un consumo
energético de 25 kilowatts. En comparación, la primera computadora transistorizada,
desarrollada en la Universidad de Mánchester y operacional en noviembre de 1953,
consumía solo 150 watts en su versión final.
La tecnología de la información comenzó a desarrollarse con fuerza en la década de 1960,
junto con la aparición y el desarrollo de los primeros sistemas de información.
IBM lanzó el primer disco duro en 1956, como componente del sistema informático 305
RAMAC. En la actualidad, la mayoría de los datos digitales se almacenan magnéticamente
en discos duros u ópticamente en soportes como el CD-ROM. Antes de 2002, la mayor
parte de la información se almacenaba en dispositivos analógicos, pero ese año la
capacidad digital superó a la de los dispositivos analógicos por primera vez. En 2007, casi
el 94% de los datos almacenados en todo el mundo se almacenan digitalmente: El 52% en
discos duros, el 28% en dispositivos ópticos y el 11% en cinta magnética digital. Se calcula
que la capacidad mundial de almacenamiento de los dispositivos electrónicos ha pasado
de menos de 3 exabytes en 1986 a 295 exabytes en 2007, duplicándose aproximadamente
cada 3 años.

Entrada de datos[editar]

Los mandos de videojuegos constituyen periféricos de entrada. En la imagen, un Wiimote de la


consola Wii.

Una entrada es el proceso por el cual un ordenador recibe datos.5 Ya que estos son
digitales, cualquier entrada recibida debe ser digitalizada. Para poder enviar datos a un
ordenador se requiere de hardware, los periféricos de entrada.6 Estos son algunos de los
más habituales:7

 Teclado (informática): transforma la pulsación de una tecla en datos entendibles por el


ordenador.
 Ratón: facilita la interacción en un entorno gráfico.
 Micrófono: se conecta a la tarjeta de sonido y digitaliza datos en formatos de sonido
como WAV o MP3.
 Cámara web: consiste en una cámara digital conectada al ordenador.
 Escáner: digitaliza imágenes y documentos.
En un algoritmo, los datos de entrada son aquellos que la computadora va a procesar. Los
datos de salida son obtenidos a partir del procesamiento de los datos de entrada. 7

Industria de la tecnología de la información[editar]


Se recurre a las tecnologías de la información, basadas y utilizando racionalmente los
logros modernos en el campo de la tecnología informática y otras tecnologías avanzadas,
las últimas herramientas de comunicación, software y experiencia práctica, para resolver
problemas sobre la organización efectiva del proceso de información para reducir el costo
del tiempo, mano de obra, energía y recursos materiales en todos los ámbitos de la vida
humana y la sociedad moderna. Las tecnologías de la información interactúan y, a
menudo, forman parte de los servicios, la gestión, la producción industrial y los procesos
sociales. 8

Almacenamiento de datos[editar]

Vista de un almacén de tarjetas IBM ubicado en Alexandria, Virginia en 1959. Este es el sitio en el
cual el gobierno de Estados Unidos almacenaba las tarjetas perforadas.

Las primeras computadoras electrónicas, como la Colossus, hacían uso de cintas


perforadas, una larga tira de papel en donde los datos son representados por una serie de
agujeros, una tecnología ahora obsoleta. El almacenamiento electrónico de datos usado
por las computadoras modernas data de la Segunda Guerra Mundial, cuando una forma
de memoria de línea de retardo fue desarrollada para eliminar el desorden de las señales
de radar; la primera aplicación práctica de esto fue la línea de retardo de mercurio. El
primer dispositivo de almacenamiento digital de acceso aleatorio fue el Tubo Williams,
basado en un tubo de rayos catódicos estándar, pero la información almacenada en ella y
en la memoria de línea de retardo era volátil, por lo que debía ser continuamente
refrescada, y por lo tanto se perdía una vez que se desconectaba de la energía. La
primera forma de almacenamiento computacional no volátil fue la memoria de tambor,
inventada en 1932 y usada en la Ferranti Mark I, la primera computadora de uso general
disponible comercialmente.
IBM introdujo el primer disco duro en 1956, como un componente de su sistema
computacional 305 RAMAC. La mayoría de los datos digitales al día de hoy son
almacenados magnéticamente en discos duros, u ópticamente en medios como los CD-
ROMs. Hasta 2002, la mayoría de la información era almacenada en dispositivos
analógicos, pero ese año la capacidad de almacenamiento digital superó al analógico por
primera vez. En 2007 cerca del 94 % de los datos almacenados mundialmente eran
digitales: 52 % en discos duros, 28 % en medios ópticos y 11 % en cintas magnéticas
digitales. Se ha estimado que la capacidad mundial de almacenamiento de información en
dispositivos electrónicos creció de menos de 3 exabytes en 1986 a 295 exabytes en 2007,
doblándose aproximadamente cada tres años.

Bases de datos[editar]
Los sistemas de administración de bases de datos surgieron en la década de 1960 para
abordar el problema de almacenar y recuperar grandes cantidades de datos de manera
precisa y rápida. Uno de los primeros sistemas fue el Information Management System de
IBM, el cual sigue siendo ampliamente implementado más de 40 años después. El IMS
almacena datos jerárquicamente, pero en la década de 1970, Ted Codd propuso como
alternativa los modelos de almacenamiento relacionales basándose en la teoría de
conjuntos y en la lógica de predicados y en conceptos familiares como lo son las tablas,
filas y columnas. El primer sistema de gestión de bases de datos relacionales (RDBMS del
inglés: Relational Database Management System) comercial disponible fue el de Oracle en
1980.
Todos los sistemas de administración de bases de datos consisten en un número de
componentes que juntos permiten que los datos que ellos almacenan sean accedidos
simultáneamente por varios usuarios mientras mantienen su integridad. Una característica
de todas las bases de datos es que la estructura de los datos que contienen es definido y
almacenado de manera separada de los datos mismos, en el llamado esquema de la base
de datos.
El lenguaje de marcas extensible o XML, siglas en inglés de eXtensible Markup Language,
se ha vuelto un formato para la representación de datos popular en los últimos años.
Aunque los datos XML pueden ser almacenados en sistemas de archivos normales, son
comúnmente usados en bases de datos relacionales para aprovechar su “aplicación
robusta verificada durante años por esfuerzos tanto teóricos como prácticos”. Como una
evolución del Estándar de Lenguaje de Marcado Generalizado o SGML, las estructuras
basadas en texto XML ofrecen la ventaja de poder ser leídas por máquinas como por
humanos.

Base de conocimiento[editar]
Una Base de conocimiento (o knowledgebase en inglés; KB, kb oro Δ) es un tipo especial
de base de datos para la gestión del conocimiento. Provee los medios para la recolección,
organización y recuperación computarizada de conocimiento.
Las bases de conocimiento se han clasificado en dos grandes tipos:

 Bases de conocimiento legibles por máquinas, diseñadas para almacenar


conocimiento en una forma legible por el ordenador, usualmente para obtener
razonamiento deductivo automático aplicado a ellas. Contienen una serie de datos,
usualmente en la forma de reglas que describen el conocimiento de manera
lógicamente consistente. Operadores lógicos como AND (conjunción), OR ( disyunción
), condición lógica y negación son utilizada para aumentarla desde el conocimiento
atómico. Por lo tanto la deducción clásica puede ser utilizada para razonar sobre el
conocimiento en la base de conocimiento. Este tipo de bases de conocimiento son
utilizadas por la web semántica.9

 Bases de conocimiento legibles por humanos están diseñadas para permitir a las
personas acceder al conocimiento que ellas contienen, principalmente para propósitos
de aprendizaje. Estas son comúnmente usadas para obtener y conducir conocimiento
explícito de las organizaciones, incluyen artículos, libro blanco, manuales de usuario y
otros. El principal beneficio que proveen las bases de conocimiento es proporcionar
medios de descubrir soluciones a problemas ya resueltos, los cuales podrían ser
aplicados como base a otros problemas dentro o fuera del mismo área de
conocimiento.
Lo más importante aspecto de una base de conocimiento es la calidad de la información
que ésta contiene. Las mejores bases de conocimiento tienen artículos cuidadosamente
redactados que se mantienen al día, un excelente sistema de recuperación de información
(motor de búsqueda), y un delicado formato de contenido y estructura de clasificación. Una
base de conocimiento puede usar una ontología para especificar la estructura (tipo de
entidades y relaciones) y su esquema de clasificación. Una ontología, junto con un grupo
de instancias de sus clases constituyen una base de conocimiento. 10

Recuperación de datos[editar]
El modelo relacional introdujo un lenguaje de programación independiente llamado
Structured Query Language , basado en el álgebra relacional. El término “dato” e
“información” no son sinónimos. Cualquier cosa almacenada es un dato, pero solo se
transforma en información cuando es organizada y presentada de forma significativa. La
mayoría de los datos digitales a nivel mundial están desestructurados y almacenados en
una variedad de diferentes formatos físicos, incluyó aquellos pertenecientes a una misma
organización. Los almacenes de datos comenzaron a ser desarrollados en la década de
1980 para integrar estos diversos depósitos de datos. Por lo general contienen datos
extraídos de variadas fuentes, incluidas fuentes externas como Internet, y organizadas de
tal manera que sirva a los Sistemas de Soporte a Decisiones (DSS por sus siglas en inglés
Decision Support System).

Transmisión de datos[editar]
La transmisión de datos contempla tres etapas: transmisión, propagación y recepción.
Puede ser ampliamente categorizada como broadcasting, en donde la información es
transmitida unidireccional y descendentemente, o como telecomunicación, con canales
bidireccionales tanto ascendentes como descendentes. XML ha sido empleado cada vez
más como medio de intercambio de información desde comienzos de la década de 2000,
particularmente para interacciones orientadas a la máquina como aquellas involucradas en
protocolos web como SOAP, describiendo “datos en tránsito en vez de datos en reposo”.
Uno de los retos de su uso es convertir datos de una base de datos relacional en
estructuras como la Document Object Model o DOM.

Manipulación de datos[editar]
Hilbert y López identificaron un ritmo exponencial de cambio tecnológico (una especie
de Ley de Moore): la capacidad per cápita de las máquinas de uso específico para
procesar información se duplicó aproximadamente cada 14 meses entre 1986 y 2007; la
capacidad per cápita de las computadoras de uso general se duplicó cada 18 meses
durante las mismas dos décadas; la capacidad mundial de telecomunicaciones per cápita
se duplicó cada 34 meses; la capacidad de almacenaje global per cápita necesitó
aproximadamente 40 meses para duplicarse (cada tres años); y la información difundida
per cápita se duplicó cada 12,3 años.11Enormes cantidades de datos son almacenados
cada día a nivel mundial, pero a menos que pueda ser analizada y presentada de manera
efectiva se cataloga en lo que se han llamado tumbas de datos: “archivos de datos que
rara vez son visitados”. Para abarcar ese problema, el campo de la minería de datos (“el
proceso de descubrir patrones interesantes y conocimiento desde grandes cantidades de
datos”) emergió a finales de la década de 1980.1

Sistema de apoyo a la toma de decisiones[editar]


El concepto de sistema de apoyo a las decisiones (DSS por sus siglas en inglés Decision
support system ) es muy amplio, porque hay muchos enfoques para la toma de decisiones
y debido a la extensa gama de ámbitos en los que se toman. Estos sistemas de apoyo son
del tipo OLAP o de minería de datos , que proporcionan información y apoyo para tomar
una decisión.
Un DSS puede adoptar muchas formas diferentes. En general, podemos decir que un DSS
es un sistema informático utilizado para servir de apoyo, más que automatizar, el proceso
de toma de decisiones. La decisión es una elección entre alternativas basadas en
estimaciones de los valores de estas alternativas. El apoyo a una decisión significa ayudar
a las personas que trabajan solas o en grupo a reunir inteligencia, generar alternativas y
tomar decisiones. Apoyar el proceso de toma de decisión implica el apoyo a la estimación,
la evaluación y / o la comparación de alternativas. En la práctica, las referencias a DSS
suelen ser referencias a aplicaciones informáticas que realizan una función de apoyo.

Perspectivas[editar]
Perspectiva académica[editar]
En un contexto académico, la Association for Computing Machinery define TI como
“programa de licenciatura que prepara a los estudiantes para conocer las necesidades de
tecnología de computación de negocios, gobiernos, centros médicos y otros tipos de
organización. Los especialistas de TI asumen la responsabilidad de seleccionar los
productos de hardware y software apropiados para una organización, integrando estos
productos con las necesidades de éstas y la infraestructura e instalaciones,
personalizando y manteniendo aquellas aplicaciones para los usuarios de computadoras
de la organización”.

Perspectiva comercial y laboral[editar]


En un contexto de negocios, la Information Technology Association of America ha definido
TI como “el estudio, diseño, desarrollo, aplicación, implementación, soporte o
mantenimiento de sistemas computacionales de información”. Las responsabilidades de
este trabajo en el área incluyen administración de redes, desarrollo de software e
instalación, y la planificación y administración del ciclo de vida de las tecnologías de una
organización, en donde el hardware y software son mantenidos, actualizados y
reemplazados.
Las empresas del campo de la tecnología de la información a menudo se discuten como
grupo como el "sector tecnológico" o la "industria tecnológica". Estos títulos pueden ser
engañosos en ocasiones y no deben confundirse con “empresas de tecnología”; que son
generalmente corporaciones con fines de lucro a gran escala que venden software y
tecnología de consumo. También vale la pena señalar que, desde una perspectiva
comercial, los departamentos de tecnología de la información son un "centro de costos" la
mayor parte del tiempo. Un centro de costos es un departamento o personal que incurre en
gastos, o "costos", dentro de una empresa en lugar de generar ganancias o flujos de
ingresos. Las empresas modernas dependen en gran medida de la tecnología para sus
operaciones diarias, por lo que los gastos delegados para cubrir la tecnología que facilita
los negocios de una manera más eficiente generalmente se consideran “solo el costo de
hacer negocios”. Los departamentos de TI reciben fondos por parte de la alta dirección y
deben intentar lograr los entregables deseados sin salirse de ese presupuesto. El gobierno
y el sector privado pueden tener diferentes mecanismos de financiación, pero los principios
son más o menos los mismos. Esta es una razón que a menudo se pasa por alto para el
rápido interés en la automatización y la inteligencia artificial, pero la presión constante para
hacer más con menos está abriendo la puerta para que la automatización tome el control
de al menos algunas operaciones menores en las grandes empresas.
Muchas empresas ahora tienen departamentos de TI para administrar las computadoras,
las redes y otras áreas técnicas de sus negocios. Las empresas también han buscado
integrar la TI con los resultados comerciales y la toma de decisiones a través de un
departamento de operaciones comerciales o BizOps. El valor de negocio de las
tecnologías de información recae en la automatización de procesos de negocio, provisión
de información para la toma de decisiones, conectando los negocios con sus clientes y la
provisión de herramientas de productividad para incrementar la eficiencia.

Perspectiva ética[editar]
El campo de la ética de la información fue establecida por el matemático Norbert
Wiener en la década de 1940. Algunos de los problemas éticos asociados con el uso de
las tecnologías de la información incluyen:
 Violación de derechos de autor por aquellos que descargan archivos sin el permiso de
los titulares de los derechos de autor.
 Empleadores monitorizando los correos electrónicos de sus empleados y otros usos
de Internet.
 Spam o correo electrónico no deseado.
 Hackers accediendo a bases de datos en línea.
 Sitios web instalando cookies o spywares para monitorizar la actividad de un usuario
en línea.

Potencial y crecimiento tecnológico[editar]


Gilbert y López señalan el crecimiento exponencial del progreso tecnológico (una especie
de ley de Moore ) como una duplicación de la densidad de potencia per cápita de todas las
máquinas de procesamiento de información cada 14 meses entre 1986 y 2007; el potencial
mundial de telecomunicaciones per cápita se duplica cada 34 meses; la cantidad de
información ingresada en el mundo per cápita se duplica cada 40 meses (es decir, cada
tres años), y la transmisión de información per cápita tiende a duplicarse aproximadamente
cada 12,3 años. 12

También podría gustarte