Está en la página 1de 3

Tecnología de la información

La tecnología de la información (TI) es la aplicación de ordenadores y equipos


de telecomunicación para almacenar, recuperar, transmitir y manipular datos, con frecuencia
utilizado en el contexto de los negocios u otras empresas. El término se utiliza como sinónimo
para los computadores y las redes de computadoras, pero también abarca otras tecnologías
de distribución de información, tales como la televisión y los teléfonos. Múltiples industrias
están asociadas con las tecnologías de la información: hardware y software de
computadoras, electrónica, semiconductores, internet, equipos de telecomunicación,
el comercio electrónico y los servicios computacionales.1
Frecuentemente, los términos TI y TIC suelen usarse indistintamente: mientras que TI se
refiere a tecnologías de la información, TIC implica, además, las destinadas a la
comunicación. De esta forma, TI es un término más amplio, que engloba las TIC. "Las TI
abarcan el dominio completo de la información, que incluye al hardware, al software, a los
periféricos y a las redes. Un elemento cae dentro de la categoría de las TI cuando se usa con
el propósito de almacenar, proteger, recuperar y procesar datos electrónicamente".2
Los seres humanos han estado almacenando, recuperando, manipulando y comunicando
información desde que los sumerios en Mesopotamia desarrollaron la escritura, cerca del año
3000 a. C., pero el término tecnología de la información, en su significado moderno, hizo su
aparición en 1958, en un artículo publicado en la revista Harvard Business Review. Sus
autores, Harold J. Leavitt y Thomas L. Whisler, comentaron que “la nueva tecnología no tiene
aún un nombre establecido. Deberíamos llamarla tecnología de la información (TI)”. Su
definición consistía en tres categorías: técnicas de procesamiento, la aplicación de métodos
estadísticos y matemáticos para la toma de decisión y la simulación del pensamiento de orden
superior a través de programas computacionales.3
Basándose en la tecnología de almacenamiento y procesamiento empleada, es posible
distinguir cuatro eras del desarrollo de la TI: pre-mecánica (3000 a. C.-1450 d. C.), mecánica
(1450-1840), electromecánica (1840-1940) y electrónica (1940 al presente).4

Historia de la informática[editar]
Artículo principal: Historia del hardware

Réplica del Zuse Z3 en exhibición en


el Deutsches Museum de Múnich . El Zuse Z3 es el primer ordenador programable.
Este es el mecanismo de Antikythera, que se considera la
primera computadora analógica mecánica, que se remonta al siglo I.
La informática puede definirse como la ciencia que se encarga del estudio de la obtención de
información por medios automáticos. Para entender mejor esta definición, hace falta conocer
lo que se entiende por información, datos y medios automáticos. Los datos son el conjunto de
elementos que, a través de indicaciones, deben darse a una máquina para que los procese y
ofrezca un resultado. La información es el conjunto de datos y los resultados que entrega la
máquina. Un medio automático es una máquina que es capaz, por ella sola, de elaborar o
procesar una cierta información sobre la base de unos ciertos datos de entrada que nos
condicionarán los resultados del procesamiento de esta.5
Han sido utilizados dispositivos para asistir a la computación durante miles de años, iniciando
probablemente con el palo tallado. El mecanismo de Anticitera, que data cerca del comienzo
del primer siglo a. C., es considerado generalmente como la computadora análoga más
antigua descubierta, y el más antiguo mecanismo de engranaje. Dispositivos de engranaje
comparables no surgieron en Europa hasta el siglo XVI, y no fue hasta 1645 cuando se inventó
la primera calculadora mecánica capaz de realizar las cuatro operaciones aritméticas básicas.
Las computadoras electrónicas, usando tanto relés como válvulas, comenzaron a aparecer a
comienzos de la década de 1940. La electromecánica Zuse Z3, terminada en 1941, fue la
primera computadora programable del mundo, y, según los estándares modernos, una de las
primeras máquinas que podrían ser consideradas de cómputo completa. Colossus,
desarrollada durante la Segunda Guerra Mundial para desencriptar mensajes alemanes, fue la
primera computadora electrónica digital. Aunque era programable, no era de uso general,
habiendo sido diseñada para realizar una única tarea. Carecía además de la capacidad de
almacenar su programa en una memoria; su programación se realizaba usando enchufes e
interruptores para alterar su cableado interno. La primera computadora de programas
almacenados electrónica digital reconocible fue la Máquina Experimental de Pequeña Escala
de Mánchester (SSEM por su nombre en inglés: Manchester Small-Scale Experimental
Machine), que ejecutó su primer programa el 21 de junio de 1948.

El desarrollo de los transistores a finales de la década de 1940 en los Laboratorios


Bell permitió una nueva generación de computadoras diseñadas con un consumo de energía
reducido considerablemente. La primera computadora de programa almacenado disponible
comercialmente, la Ferranti Mark I, contenía 4050 válvulas y tenía un consumo energético de
25 kilowatts. En comparación, la primera computadora transistorizada, desarrollada en la
Universidad de Mánchester y operacional en noviembre de 1953, consumía solo 150 watts en
su versión final.
La tecnología de la información comenzó a desarrollarse con fuerza en la década de 1960,
junto con la aparición y el desarrollo de los primeros sistemas de información.
IBM lanzó el primer disco duro en 1956, como componente del sistema informático 305
RAMAC. En la actualidad, la mayoría de los datos digitales se almacenan magnéticamente en
discos duros u ópticamente en soportes como el CD-ROM. Antes de 2002, la mayor parte de
la información se almacenaba en dispositivos analógicos, pero ese año la capacidad digital
superó a la de los dispositivos analógicos por primera vez. En 2007, casi el 94% de los datos
almacenados en todo el mundo se almacenan digitalmente: El 52% en discos duros, el 28%
en dispositivos ópticos y el 11% en cinta magnética digital. Se calcula que la capacidad
mundial de almacenamiento de los dispositivos electrónicos ha pasado de menos de
3 exabytes en 1986 a 295 exabytes en 2007, duplicándose aproximadamente cada 3 años.

Entrada de datos

También podría gustarte