Está en la página 1de 8

Historia de la tecnología

Recuento histórico del desarrollo por parte del ser humano de herramientas y técnicas que
le han permitido atender propósitos prácticos. Gracias a ellas ha podido transformar el
mundo a su alrededor para hacerse la vida más sencilla.
En gran medida se trata de un segmento importante de la historia misma de la humanidad,
ya que la aplicación de los saberes científicos y el impacto de éstos en la sociedad poseen la
capacidad de alterar radicalmente la vida humana.
Por otro lado, la tecnología es una herramienta única de la especie humana, consecuencia
de la aplicación de su capacidad intelectual y de sus habilidades creativas. Por eso, la
historia de la tecnología puede entenderse también como el recuento histórico de las
capacidades adaptativas del ser humano.

¿Qué es la tecnología?
La tecnología es la aplicación de los conocimientos científicos y de la comprensión del
universo, a la resolución concreta y puntual de los problemas del ser humano. Esto significa
crear, diseñar y mejorar bienes o servicios disponibles para facilitar la adaptación de la
especie al medio ambiente y la satisfacción de sus deseos o necesidades (físicas, sociales,
culturales).

¿Cuándo nació la tecnología?


La tecnología no tiene una fecha de nacimiento como tal, es decir, no podemos decir que a
partir de un año específico se haya creado o inventado. Parece ser algo que existe desde los
inicios de nuestra especie. De hecho, sirve para distinguir a la humanidad de otras especies
de homínidos.
La conquista del fuego, el uso de herramientas líticas (de piedra) y la creación de un
lenguaje articulado y simbólico son formas de tecnología que denotan la cercanía con
nuestra especie y que, al día de hoy, son exclusivas de la humanidad entre todos los
animales del mundo.

¿Cómo se mide el progreso tecnológico?


Existen muchas teorías sociales y antropológicas que intentan medir el progreso
tecnológico o al menos permitir establecer comparaciones y mediciones de la evolución
social, cultural y científica. Algunas de ellas coinciden en que la información disponible es
el elemento que permite esa medición.
Es decir que, a mayor cantidad de información, más avanzado es el desarrollo tecnológico
de una sociedad. Por información entendemos la cantidad de saber acumulado y aplicable
en las distintas áreas de la vida.

Etapas de evolución de la tecnología


 Edad de piedra: Etapa que comprende los inicios de la humanidad, cuando éramos
una especie fundamentalmente cazadora y recolectora, que aprendió a usar
instrumentos de piedra y de hueso para cazar, para triturar alimentos o para
defenderse de tribus rivales, así como el fuego para cocinar su comida. Todo ello sin
generar con estas tecnologías de supervivencia un impacto perceptible sobre el
ecosistema.
 Edad de los metales: Los asentamientos permanentes, la domesticación de los
animales y el descubrimiento de la fragua, es decir, del trabajo metalúrgico que le
permitió al ser humano forjar herramientas más simples, versátiles y resistentes,
representó un cambio importante en su modo de vida. Esta edad suele clasificarse en
tres:
1. Edad del cobre.
2. Edad de bronce.
3. Edad de hierro.

 Edad Media: La Edad Media representó un enlentecimiento en el desarrollo


tecnológico humano, especialmente de Occidente, ya que la religión y el
pensamiento místico reemplazaron a la razón y satanizaron los saberes antiguos
durante casi quince siglos. Mientras tanto, otros pueblos como el musulmán o el
chino florecían y daban importantes pasos en la química, física y matemáticas.

 Edad Moderna: La Edad Moderna se caracteriza por la apuesta por el progreso


científico y tecnológico, especialmente luego del Renacimiento y la Revolución
Científica a la que condujo en el siglo XV y XVI. La Revolución Industrial, entre el
siglo XVIII y XIX, permitió al ser humano desarrollar las primeras máquinas,
artefactos mecánicos y transformaciones profundas de materiales, generando un
altísimo impacto ecológico, pero avanzando a pasos agigantados en el
entendimiento del universo.

 Edad Contemporánea. La Edad Contemporánea está en curso, y se refiere a los


últimos dos siglos de nuestra historia, en los que nuestro alcance tecnológico ha
revolucionado para siempre el modo de comprendernos a nosotros mismos y
comprender la vida en nuestro planeta.

Causas de la evolución tecnológica


La evolución tecnológica está impulsada por diversos motivos económicos, sociales y
culturales, que pueden resumirse en:
 El deseo de una vida más grata: La lucha contra la muerte es un empuje
fundamental en la inventiva humana, como lo es también el deseo de tener más
tiempo para invertir en placeres, o trabajar menos y llevar una vida más plena.
 La curiosidad humana: Somos una especie curiosa, a la que le gusta aprender,
descubrir cosas nuevas y entender el mundo a su alrededor. Esa es, en muchos
casos, la motivación más fuerte hacia el cambio tecnológico.

Consecuencias de la evolución tecnológica


La evolución tecnológica tiene muchas consecuencias en el día a día, que pueden ir hacia el
mejoramiento de nuestra vida cotidiana (menos esfuerzo, menos sufrimiento, satisfacción
de ciertos deseos) o también en su detrimento (nuevas formas de opresión, nuevas formas
de guerra, nuevas enfermedades).
La tecnología es completamente amoral y dependiendo de cómo la usemos, podremos
generar cambios positivos y equilibrados, o podemos lanzar el mundo de cabeza a la ruina.

Revoluciones tecnológicas
A lo largo de nuestra historia como especie ha habido varias revoluciones tecnológicas, es
decir, épocas en que el surgimiento de un saber y una tecnología alteran radical y
definitivamente el modo en que vivimos y nos relacionamos con el mundo.
 La Revolución Neolítica (10.000 a. C. aproximadamente), cuando se descubrió la
agricultura y se abandonó el nomadismo en favor de las primeras ciudades.

 La Revolución Industrial (1780-1840), ejerció el mayor y más profundo número


de cambios en la sociedad humana desde el Neolítico, pasando de la economía rural
tradicional a la economía urbana industrializada, con la fábrica como eje principal.

 La Revolución Técnica (1880-1920), llamada Segunda Revolución Industrial, en la


que se globalizó la economía de mercado y expandió los efectos de la primera a lo
largo y ancho del mundo.

 La Revolución Digital (1985-2000), consecuencia del cambio que la aparición de


las computadoras y las redes informáticas ejercieron sobre las dinámicas sociales,
de trabajo y de economía del mundo, abriendo el camino a la globalización.

La hipertecnologización
La carrera tecnológica, a partir del siglo XX, alcanzó niveles insospechados y avanzó a un
paso mucho más veloz que en el conjunto del resto de la historia de la especie. Eso
ocasionó un consumo tecnológico voraz en las sociedades, consecuencia de una presencia
más y más grande de la tecnología en el día a día, lo cual se conoce como
hipertecnologización.
Este fenómeno ocasionó un furor tecnológico que en ciertos sectores obtuvo una respuesta
contraria: la nostalgia por los “tiempos mejores” del medioevo o de la Antigüedad y el
retomar de tradiciones dadas por perdidas. Incluso se retoman pensamientos caducos, que,
bajo la desconfianza por la modernidad, regresan como teorías de conspiración: el
terraplanismo, los antivacunas, etc.

Línea de tiempo de la historia de la tecnología


 000 a. C. – Revolución Neolítica
 300 a. C. – Fundación en Sumeria de Uruk, la primera ciudad.
 000 a. C. – Invención de la escritura y fin de la prehistoria.
 387 a. C. – Platón funda la Academia de Atenas.
 48 a. C. – Quema de la Biblioteca de Alejandría.
 475 d. C. – Inicio de la Edad Media y el oscurantismo.
 900 – Se inventa la brújula en China.
 1492 – Colón llega a América. Inicia la Edad Moderna.
 1543 – Nicolás Copérnico publica su teoría heliocéntrica.
 1774 – Se construye la primera máquina de vapor y se da inicio a la Revolución
Industrial.
 1850 – Se da inicio a la Segunda Revolución Industrial.
 1957 – La URSS pone en órbita el Sputnik 1, primer satélite artificial.
 1981 – Se comercializa el primer computador personal IBM.
 2001 – Secuenciación del 90% del genoma humano.
Historia de la computadora
Es el recuento de los eventos, innovaciones y desarrollos tecnológicos del campo de la
informática y la automatización, que dieron origen a las máquinas que conocemos como
computadoras, computadores u ordenadores. Registra además su mejoramiento y
actualización hasta alcanzar las versiones miniaturizadas y veloces del siglo XXI.
Las computadoras, como todos sabemos, son las máquinas de cálculo más avanzadas y
eficientes inventadas por el ser humano. Están dotadas del suficiente poder de operaciones,
la suficiente autonomía y velocidad como para reemplazarlo en muchas tareas, o permitirle
dinámicas de trabajo virtuales y digitales que nunca antes en la historia habían sido
posibles.
La invención de este tipo de aparatos en el siglo XX revolucionó para siempre la manera en
que entendemos los procesos industriales, el trabajo, la sociedad y un sinfín de otras áreas
de nuestra vida. Afecta desde el modo mismo de relacionarnos, hasta el tipo de operaciones
de intercambio de información a escala mundial que somos capaces de realizar.

Antecedentes de la computadora
La historia de la computadora tiene largos antecedentes, que se remontan a las primeras
reglas de cálculo y a las primeras máquinas diseñadas para facilitarle al ser humano la tarea
de la aritmética. El ábaco, por ejemplo, fue un importante adelanto en la materia, creado
alrededor de 4.000 a. C.
También hubo inventos muy posteriores, como la máquina de Blaise Pascal, conocida como
Máquina de Pascal o Pascalina, creada en 1642. Consistía en una serie de engranajes que
permitían realizar operaciones aritméticas. Esta máquina fue mejorada por Gottfried
Leibinitz en 1671 y se dio inicio a la historia de las calculadoras.
Los intentos del ser humano por automatizar continuaron desde entonces: Joseph Marie
Jacquard inventó en 1802 un sistema de tarjetas perforadas para intentar automatizar sus
telares, y en 1822 el inglés Charles Babbage empleó dichas tarjetas para crear una máquina
de cálculo diferencial.
Solamente doce años después (1834), logró innovar su máquina y obtener una máquina
analítica capaz de las cuatro operaciones aritméticas y de almacenar números en una
memoria (hasta 1.000 números de 50 dígitos). Por este motivo, a Babbage se le considera el
padre de la computación, ya que esta máquina representa un salto hacia el mundo de la
informática como lo conocemos.

Invención de la computadora
La invención de la computadora no puede atribuirse a una sola persona. Se considera a
Babbage como el padre de la rama de saberes que luego será la computación, pero no será
sino hasta mucho más adelante que se hará la primera computadora como tal.
Otro importante fundador en este proceso fue Alan Turing, creador de una máquina capaz
de calcular cualquier cosa, y que llamó “máquina universal” o “máquina de Turing”. Las
ideas que sirvieron para construirla fueron las mismas que luego dieron nacimiento al
primer computador.
Otro importante caso fue el de ENIAC (Electronic Numeral Integrator and Calculator, o
sea, Integrador y Calculador Electrónico Numeral), creado por dos profesores de la
universidad de Pensilvania en 1943, considerado el abuelo de los computadores
propiamente dicho. Consistía en 18.000 tubos al vacío que llenaban un cuarto entero.

Invención de los transistores


La historia de los computadores no habría tenido el curso que tuvo sin la invención en 1947
de los transistores, fruto de los esfuerzos de los laboratorios Bell en Estados Unidos. Estos
aparatos son interruptores eléctricos fabricados con materiales sólidos y sin necesidad del
vacío.
Este descubrimiento fue fundamental para la fabricación de los primeros microchips, y
permitieron el paso de los aparatos eléctricos a los electrónicos. Los primeros circuitos
integrados (o sea, chips) aparecieron en 1958, fruto de los esfuerzos de Jack Kilby y Robert
Noyce. El primero recibió el Premio Nobel de Física en 2000 por el hallazgo.

El primer computador
Los primeros computadores surgieron como máquinas de cálculo lógico, debido a las
necesidades de los aliados durante la Segunda Guerra Mundial. Para decodificar las
transmisiones de los bandos en guerra debían hacerse cálculos rápido y constantemente.
Por eso, la Universidad de Harvard diseñó en 1944 la primera computadora
electromecánica, con ayuda de IBM, bautizada Mark I. Ocupaba unos 15 metros de largo y
2,5 de alto, envuelta en una caja de vidrio y acero inoxidable. Contaba con 760.000 piezas,
800 kilómetros de cables y 420 interruptores de control. Prestó servicios durante 16 años.
Al mismo tiempo, en Alemania, se había desarrollado la Z1 y Z2, modelos de prueba de
computadores similares construidos por Konrad Zuse, quien completó su modelo Z3
totalmente operacional, basado en el sistema binario. Era más pequeño y de más barata
construcción que su competidor estadounidense.

La primera computadora de uso comercial


En febrero de 1951 apareció la Ferranti Mark 1, una versión moderna de la computadora
norteamericana del mismo nombre que estaba disponible comercialmente. Fue sumamente
importante en la historia del computador, pues contaba con un índice de registros, que
permitía la lectura más fácil de un conjunto de palabras en la memoria.
Por esa razón surgieron hasta treinta y cuatro patentes distintas de su desarrollo. En los años
posteriores sirvió de base para la construcción de las computadoras IBM, muy exitosas
industrial y comercialmente.
El primer lenguaje de programación
En 1953 apareció FORTRAN, acrónimo de The IBM Mathematical Formula Translation
(“Traducción de fórmulas matemáticas de IBM”), desarrollado como el primer lenguaje
formal de programación, o sea, el primer programa diseñado para fabricar programas
computacionales, por los programadores de IBM, liderados por John Backus.
Inicialmente se desarrolló para el computador IBM 704, y para una variada gama de
aplicaciones científicas y de ingeniería, razón por la cual tuvo una amplia serie de versiones
a lo largo de medio siglo de implementación. Es todavía uno de los dos lenguajes de
programación más populares, especialmente para los supercomputadores del mundo.

La primera computadora moderna


apareció en otoño de 1968, como un prototipo presentado por Douglas Engelbart. Tenía por
primera vez un ratón o puntero, y una interfaz gráfica de usuario (GUI), cambiando para
siempre el modo en que los usuarios y los sistemas computarizados interactuarían en
adelante.
La presentación del prototipo de Engelbart duró 90 minutos e incluyó una conexión en
pantalla con su centro de investigación, constituyendo así la primera videoconferencia de la
historia. Los modelos de Apple y luego de Windows fueron versiones posteriores de este
primer prototipo.

Dispositivos de almacenamiento secundario


El primer dispositivo de intercambio de información entre un computador y otro fueron los
disquetes Floppy, creados en 1971 por IBM. Se trataba de cuadrados negros de plástico
flexible, en el medio de los cuales había un material magnetizable que permitía grabar y
recuperar información. Hubo varios tipos de disquetes:
8 pulgadas: Los primeros en aparecer, voluminosos y con capacidad entre 79 y 512 kbytes.
5 ¼ pulgadas: Semejantes a los de 8 pulgadas pero más pequeños, almacenaban entre 89 y
360 kbytes.
3 ½ pulgadas: Introducidos en la década de los 80, eran rígidos, de colores y mucho más
pequeños, con una capacidad de entre 720 y 1440 kbytes.
También hubo versiones de alta y baja densidad, y numerosas variantes de casetes. A
finales de los 80, la aparición y masificación del disco compacto (CD) reemplazó
totalmente el formato, aumentando la velocidad y capacidad de recuperación de datos.
Finalmente, en el cambio de siglo, todos estos formados de dispositivo se hicieron
obsoletos y fueron reemplazados por el pendrive o memoria flash removible, de capacidad
variada (pero muy superior), alta velocidad y portatilidad extrema.
Las primeras redes informáticas
La primera red de computadores del mundo fue ARPANET, creada en 1968 por el
Departamento de Defensa de los Estados Unidos. Sirvió de plataforma rápida de
intercambio de información entre instituciones educativas y estatales, con fines
probablemente militares.
Esta red se desarrolló, actualizó y eventualmente se convirtió en la columna vertebral de
Internet, abierta ya al público en general, al menos hasta 1990.

Computadoras del siglo XXI


Las computadoras hoy son parte de la vida cotidiana, a punto tal que para muchos es
inconcebible ya un mundo sin ellas. Se las encuentra en nuestras oficinas, en nuestros
teléfonos celulares, en diversos electrodomésticos, a cargo de instalaciones automatizadas,
y desempeñando un sinfín de operaciones de manera automática e independiente.
Esto tiene muchos aspectos positivos, pero también entraña muchos temores. Por ejemplo,
el surgimiento de la robótica, paso siguiente natural de la computación, promete dejar sin
empleo a muchos trabajadores humanos, superados por la capacidad de automatización que
cada día es mayor y más rápida.

También podría gustarte