Está en la página 1de 16

Es difícil determinar el punto de inicio para una síntesis histórica de la

informática, por cuanto son muchos los trabajos y descubrimientos que


trajeron como consecuencia la construcción de los primeros ordenadores.
Desde tiempo inmemorial la humanidad se ha valido de instrumentos para
realizar cálculos y para almacenar y procesar información. El hombre
primitivo usó piedrecillas para representar números y hacer sumas
sencillas. 500 años a.n.e., surgió el ábaco inventado y reinventado por
culturas distintas en el espacio y en el tiempo, como los aztecas y los
sumerios. El ábaco ruso es decimal, dispone de diez anillos de madera en
cada columna. En el chino el tablero está dividido en dos zonas, "cielo" y
"tierra", con dos y cinco bolas respectivamente. En la página Molecular
Expressions se muestra un ábaco en el que es posible simular operaciones
reales. Actualmente se celebra el Campeonato Mundial de Cálculo con
Ábaco, este año 2015 en Manila
La Informática es una compleja disciplina que puede considerarse como una
de las grandes culminaciones de la Humanidad y cuyas posibilidades aún
no se han agotado. Sus aplicaciones en el campo de la genética han
culminado en la codificación del genoma humano y, en su fusión con la
Biología, la Bioinformática posee un potencial extraordinario que facilita el
descubrir las funciones de las proteínas y que permite la extracción de
información de grandes bases de datos para correlacionar secuencias de
ADN a una velocidad inusitada.
‘Informática’ es un neologismo acuñado por el francés Philippe Dreyfus en
1962 (INFORmación + autoMÁTICA) que  hunde sus raíces en lo más
profundo de las abstracciones creadas por la mente del hombre, y su
evolución corre paralela a descubrimientos propios de otras muchas
disciplinas, como el Álgebra, el Cálculo, la Lógica, la Biología, la Física y la
Metafísica. Incluso la Religión también ha tenido su influencia.

 En el siglo XIX se desarrollaron las primeras máquinas programables, es


decir, que el usuario podría modificar la secuencia de acciones a realizar a
través de algoritmos específicos.
Recién en el primer tercio del siglo XX, con el desarrollo de la electrónica, se
empiezan a solucionar los problemas técnicos que acarreaban estas
máquinas, reemplazándose los sistemas de engranaje y varillas por
impulsos eléctricos, estableciéndose que cuando hay un paso de corriente
eléctrica será representado con un *1* y cuando no haya un paso
de corriente eléctrica se representaría con un *0*.
Con el desarrollo de la segunda guerra mundial se construye el primer
ordenador, el cual fue llamado Mark I y su funcionamiento se basaba en
interruptores mecánicos.
En 1944 se construyó el primer ordenador con fines prácticos que se
denominó Eniac.
En 1951 son desarrollados el Univac I y el Univac II (se puede decir que es el
punto de partida en el surgimiento de los verdaderos ordenadores, que
serán de acceso común a la gente).
I.1.1 Generaciones
1° Generación: se desarrolla entre 1940 y 1952. Es la época de los
ordenadores que funcionaban a válvulas y el uso era exclusivo para el
ámbito científico/militar. Para poder programarlos había que modificar
directamente los valores de los circuitos de las máquinas.
2° Generación: va desde 1952 a 1964. Ésta surge cuando se sustituye la
válvula por el transistor. En esta generación aparecen los primeros
ordenadores comerciales, los cuales ya tenían una programación previa que
serían los sistemas operativos. Éstos interpretaban instrucciones
en lenguaje de programación (Cobol, Fortran), de esta manera, el
programador escribía sus programas en esos lenguajes y el ordenador era
capaz de traducirlo al lenguaje máquina.
3° Generación: se dio entre 1964 y 1971. Es la generación en la cual se
comienzan a utilizar los circuitos integrados; esto permitió por un lado
abaratar costos y por el otro aumentar la capacidad de procesamiento
reduciendo el tamaño físico de las máquinas. Por otra parte, esta generación
es importante porque se da un notable mejoramiento en los lenguajes de
programación y, además, surgen los programas utilitarios.
4° Generación: se desarrolla entre los años 1971 y 1981. Esta fase de
evolución se caracterizó por la integración de los componentes electrónicos,
y esto dio lugar a la aparición del microprocesador, que es la integración de
todos los elementos básicos del ordenador en un sólo circuito integrado.
5° Generación: va desde 1981 hasta nuestros días (aunque ciertos expertos
consideran finalizada esta generación con la aparición de
los procesadores Pentium, consideraremos que aun no ha finalizado) Esta
quinta generación se caracteriza por el surgimiento de la PC, tal como se la
conoce actualmente.
1. EL ORIGEN DE LA INFORMÁTICA
2. 2. El Eniac Ordenadores electrónicos Los primeros Ordenadores La
máquina analítica Antecedentes históricos del computador EL
ORIGEN DE LA INFORMÁTICA
3. 3. ANTECEDENTES HISTÓRICOS DEL COMPUTADOR <ul><li>La
primera máquina de calcular mecánica , un precursor del ordenador
digital, fue inventada en 1642 por el matemático francés Blaise Pascal
. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las
que cada uno de los dientes representaba un dígito del 0 al 9. Las
ruedas estaban conectadas de tal manera que podían sumarse
números haciéndolas avanzar el número de dientes correcto.
</li></ul><ul><li>En 1670 el filósofo y matemático alemán Gottfried
Wilhelm Leibniz perfeccionó esta máquina e inventó una que también
podía multiplicar. </li></ul>
4. 4. <ul><li>El inventor francés Joseph Marie Jacquard, al diseñar un
telar automático , utilizó delgadas placas de madera perforadas para
controlar el tejido utilizado en los diseños complejos.
</li></ul><ul><li>Durante la década de 1880 el estadístico
estadounidense Herman Hollerith concibió la idea de utilizar tarjetas
perforadas, similares a las placas de Jacquard, para procesar datos.
</li></ul>
5. 5. LA MÁQUINA ANALÍTICA <ul><li>La máquina analítica , ya tenía
muchas de las características de un ordenador moderno. Incluía una
corriente, o flujo de entrada en forma de paquete de tarjetas
perforadas, una memoria para guardar los datos, un procesador para
las operaciones matemáticas y una impresora para hacer permanente
el registro. </li></ul><ul><li>La máquina analítica, ideada por
Babbage , habría sido una auténtica computadora programable si
hubiera contado con la financiación adecuada. </li></ul>
6. 6. LOS PRIMEROS ORDENADORES <ul><li>Los ordenadores
analógicos comenzaron a construirse a principios del siglo XX. Los
primeros modelos realizaban los cálculos mediante ejes y engranajes
giratorios. Con estas máquinas se evaluaban las aproximaciones
numéricas de ecuaciones demasiado difíciles como para poder ser
resueltas mediante otros métodos. </li></ul><ul><li>Durante las dos
guerras mundiales se utilizaron sistemas informáticos analógicos,
primero mecánicos y más tarde eléctricos, para predecir la trayectoria
de los torpedos en los submarinos y para el manejo a distancia de las
bombas en la aviación. </li></ul>
7. 7. ORDENADORES ELECTRÓNICOS <ul><li>Durante la II Guerra
Mundial un equipo de científicos y matemáticos que trabajaban en
Bletchley Park , al norte de Londres, crearon lo que se consideró el
primer ordenador digital totalmente electrónico: el Colossus
incorporaba 1.500 válvulas o tubos de vacío, era ya operativo.
</li></ul><ul><li>Fue utilizado por el equipo dirigido por Alan Turing
para descodificar los mensajes de radio cifrados de los alemanes
</li></ul>
8. 8. <ul><li>La primera computadora electrónica comercial, la UNIVAC I
, fue también la primera capaz de procesar información numérica y
textual. Diseñada por J. Presper Eckeret y John Mauchly, cuya
empresa se integró posteriormente en Remington Rand, la máquina
marcó el inicio de la era informática . </li></ul><ul><li>En la
ilustración vemos una UNIVAC. La computadora central está al fondo,
y en primer plano puede verse al panel de control de supervisión.
Remington Rand entregó su primera UNIVAC a la Oficina del Censo de
Estados Unidos en 1951. </li></ul>
9. 9. EL ENIAC <ul><li>El ENIAC contenía 18.000 válvulas de vacío y
tenía una velocidad de varios cientos de multiplicaciones por minuto,
pero su programa estaba conectado al procesador y debía ser
modificado manualmente. </li></ul><ul><li>Se construyó un sucesor
del ENIAC con un almacenamiento de programa que estaba basado en
los conceptos del matemático John von Neumann . Las instrucciones
se almacenaban dentro de una llamada memoria, lo que liberaba al
ordenador de las limitaciones de velocidad del lector de cinta de papel
durante la ejecución y permitía resolver problemas sin necesidad de
volver a conectarse al ordenador

Precursores

Dos nombres se imponen en los inicios de la informática. Ada Lovelace y


Charles Babbage se conocieron en una fiesta, mientras el resto de invitados
ignoraban las explicaciones de Babbage, ella fue capaz de ver el potencial
de lo que el matemático le contaba. 
Charles Babbage había diseñado en unos 300 dibujos lo que sería una
máquina diferencial destinada a resolver operaciones polinómicas, o dicho
de otra manera, una máquina análítica capaz de realizar operaciones
matemáticas y que sentaría las bases de las futuras computadoras de
cálculo que más adelante mencionaremos, algo así como la prehistoria de
los ordenadores. 
Ada Lovelace aportó al trabajo de Babbage el primer sistema de
programación, gran conocedora de las ciencias y las matemáticas tradujo
un artículo del francés al inglés donde se detallaba la máquina analítica y
añadió sus propias conclusiones. Llegó a duplicar la extensión del texto
dejando un escrito minucioso de las posibilidades que escondía el invento de
Babbage y que nadie más supo ver.
Tanto Lovelace, Babbage y Alan Turing forman parte de eso inicios de la
computación más teóricos que prácticos, mentes que detallaron cómo
debían funcionar los ordenadores para que más adelante otros los
pusieran en marcha.
A Turing se le considera el padre teórico del ordenador y el precursor de
la inteligencia artificial de la que tanto oímos hablar hoy en día. Uno de
los logros que se le atribuyen más estos días se produjo dentro del Proyecto
Manhattan donde fue capaz de crear un sistema que descifrara Enigma,
los códigos secretos con los que se comunicaban los nazis. 
Sin embargo, al margen de la guerra, Turing describió la máquina de
Turing, en la que explicó en términos matemáticos qué problemas podía o
no resolver un algoritmo y para ello diseñó una máquina en la que se
podrían programar esos algoritmos. Su teoría debía materializarse en una
ordenador programable pero nunca llegó a terminarlo. Sin embargo,
también predijo que los ordenadores fallarían, el “halting problem” o lo que
hoy conocemos como quedarse colgado y que por el momento sólo podemos
resolver reiniciando el sistema.
Tras el conflicto bélico, Turing se empezó a interesar por la posibilidad de
crear una máquina que pudiera imitar el cerebro humano, la inteligencia
artificial. De sus estudios surgió lo que hoy conocemos como el test de
Turing que permite distinguir si un ordenador es inteligente o no
comparando las respuestas que da la máquina con las que daría una
persona.
Del mundo teórico pasamos ahora a la práctica. Adela Katz, Betty Snyder,
Jean Jennings, Kathleen McNulty, Marlyn Wescoff, Ruth Lichterman y
Frances Bilas, estos son los nombres del grupo de mujeres que trabajaron
en uno de los primeros ordenadores programables. Aunque John Presper
y John William fueron los encargados de construir el ENIAC y los que se
llevaron todo el mérito, ellas fueron las elegidas para dar vida a esta enorme
máquina. 
Para que nos entendamos, la computadora ENIAC era prácticamente una
habitación entera y dentro de ella se encontraba este grupo de
programadoras conectando los módulos mediante cables manguera y
poniendo sus interruptores en las posiciones adecuadas. Con ello
conseguían que la máquina encadenara los cálculos y pasará datos de un
módulo a otro, las famosas computadoras de cálculo que hemos
mencionado antes y que dieron paso a otras como el Mainframe que hoy
siguen en activo.
Pesaba 27 toneladas y algunos de sus componentes medían 2,7 metros de
altura. No tenía sistema operativo ni programa almacenado por lo que la
única forma de ponerlo en marcha era conectando cada cable en el
interruptor correcto para que la operación surtiera efecto. Además, en lugar
de usar el sistema binario actual, usaba el sistema de numeración
decimal y sólo podía manejar números de hasta 20 cifras. Puede parecer
una castaña, pero en aquella época era un proyecto apasionante que sirvió
como avance en la computación del momento. 
Coetáneo de Alan Turing y también uno de los genios que Estados Unidos
reclutó para entrar en la Segunda Guerra Mundial armados con la bomba
más poderosa que jamás se ha diseñado. Este matemático húngaro
fue alumno de Albert Einstein y ambos terminaron como profesores en la
Universidad de Princeton, huyendo de la barbarie del régimen nazi. 
Aunque Neumann formara parte del equipo de prodigios que
desarrollaron la bomba atómica, su nombre ha quedado ligado a uno de
los mayores avances en la historia de la computación.
Durante los años 40, Neumann se cruzó con Herman Goldstine, uno de los
principales responsables del desarrollo del ENIAC, el cuál le explicó el
proyecto al ver el interés del húngaro. Como ya hemos explicado antes, por
aquella época los ordenadores requerían de cambios muy complejos para
cambiar de una función a otra, Neumann aportó una solución a este
problema elaborando lo que se conoce como la arquitectura de von
Neumann, lo que se convertiría en el primer diseño de lo que conocemos
como un ordenador moderno. 
Neumman dio con la combinación de componentes básica para el
ordenador universal separando el software del hardware, así serviría para
cualquier sistema que decidiéramos instalar sin tener que tocar el resto de
la máquina. 
La arquitectura de Neumann consta de cuatro bloques funcionales: la CPU (
Unidad central de proceso); la memoria principal donde estaría el software
y los datos necesarios para usarlo; los buses, es decir, las conexiones que
permiten la comunicación entre los distintos bloques y los periféricos que
serían el monitor y el teclado. Este es el esqueleto que todo ordenador de
hoy en día debe tener y es obra de John von Neumann, el cual también
propuso la adopción del bit como unidad de medida de la memoria de las
computadoras.
Seguimos en la época de los años 40 para hablar de la creadora del
compilador de los lenguajes de programación, Grace Murray Hopper.
Después de doctorarse en Matemáticas por Yale, Hopper terminó trabajando
con el Mark I en la Universidad de Harvard
El Mark I fue un proyecto de IBM basado en la máquina analítica de
Babbage que medía 15,5 metros de largo y 2,40 de ancho. Usaba tarjetas
perforadas y cintas de papel para las instrucciones. Hopper aprendió a usar
esta bestia y, además de desarrollar algunas aplicaciones de contabilidad
para empresas, elaboró un manual de 500 páginas con los principios
básicos de programación para ordenadores. 
Aunque no fue la inventora, Hopper fue testigo de la creación de la palabra
Bug, como fallo técnico que también significa insecto. El Mark I empezó a
fallar un día y descubrieron que la causa era una polilla que se había colado
en el mecanismo, este fue el origen de los famosos bugs informáticos. 
Pero si por algo se conoce a Grace Murray Hopper es por la creación
del primer compilador de la historia, A-0. Este sistema convertía los
símbolos matemáticos descritos por las personas en código binario que le
fuera sencillo de entender a la máquina, haciendo mucho más sencilla la
comunicación entre desarrolladores y tecnología. Después se dedicó a crear
el lenguaje de programación Cobolt que seguramente os suene más.

Mucho le debemos también a Evelyn Berezin, sobre todo los que nos
dedicamos a escribir. A lo largo de su trayectoria llegó a crear un programa
de reservas de billetes para United Airlines, sistemas de automatización
para la banca y calculadoras de trayectorias para el ejército. Era la época
en que los ordenadores dieron el salto de la teoría y la investigación al uso
empresarial.
Pero el mayor logro de Berezin fue la creación del primer procesador de
texto, aunque no lo hizo pensando ni en los escritores, ni periodista, lo
hizo para las secretarías de todo el mundo. “El 6% de todos los empleados
en Estados Unidos eran secretarías” explicaba Berezin cuando se le
preguntaba por el invento. 
En 1929 Evelyn Brezin creó su propia empresa, Redactron Corporation y
se dispuso a crear un sistema para secretarias que el que nadie había
reparado pero que acabaría por una herramienta imprescindible en los
ordenadores que después usarían la mayoría de empleados de todo el
mundo y cualquier desde sus casas. 
Damos un salto cualitativo en el tiempo, después de que todos estos
avances y otros muchos llevarán a los ordenadores hacía su versión más
reciente. Ya eran máquinas mucho más versátiles y potentes, pero faltaba
un detalle que revolucionaría la tecnología y nuestras vidas, la invención
de la Word Wide Web. 
El 12 de marzo de 1989, Berners-Lee hizo tangible lo que hasta entonces era
un proyecto teórico bautizado como "Manejo de la Información". Ese es el
nacimiento oficial de lo que hoy conocemos como World Wide Web, aunque
por aquel momento nadie pudiera imaginar la repercusión que iba a tener
en nuestras vidas. 
Hasta entonces, lo que se conoce como la red de redes sólo permitía acceder
a archivos o correo electrónicos conectando distintos ordenadores, pero no
existían las páginas web que realmente impulsaron el uso de esta
tecnología entre multitud de usuarios. 
Durante los primeros años de vida, la WWW consistió en un proyecto
dirigido a gestionar de manera conjunta el volumen de información
que conectaba a las distintas investigaciones del CERN, la Organización
Europea para la Investigación Nuclear, donde trabajaba Tim Berners-Lee,
físico británico de 55 años que hoy es considerado como el padre de
Internet, aunque ésta expresión sea errónea, pues internet no es lo mismo
que la WWW. 
En 1990, Berners Lee había diseñado tres protocolos que fueron
fundamentales para el desarrollo de la tecnología que construiría el Internet
que hoy conocemos. Estos fueron el HTML (Hyper Text Markup Language),
es decir el lenguaje con el que se escriben las páginas web; el URL un
dirección única para identificar cada página de entre los billones que existen
y que comúnmente conocemos como URL; y el HTTP el protocolo de
transferencia de hipertexto que permite recuperar los recursos de cada web. 
Gracias a su trabajo, el cual sigue en activo luchando por preservar la
esencia de su creación, hoy podemos contaros la vida de todas estas
personas desde la web de Computer Hoy.
Terminamos con otro nombre que ya forma parte de la historia de la
informática. No
podíamos terminar esta lista sin mencionar la aportación de Stallman a la
tecnología moderna. Stallman, es el creador del proyecto GNU y fundador
de la Free Software Foundation, organizador del software libre.
En los inicios de la informática todo el software era libre. Los ordenadores,
esas máquinas pesadas de las que hemos hablado antes, sólo se
encontraban en las Universidades y centros de investigación. Sin
embargo, los programadores mantenían el código abierto y colaboraban
entre sí a través de Internet, construida toda ella con software libre.
Sistemas como UNIX, propiedad de ATT, eran usados por todos.
Sin embargo, en los años 80, la ley antimonopolio estadounidense obligó a
ATT a dividirse y ésta empezó a comercializar UNIX. La guerra comercial y el
software propietario habían comenzado. Los ordenadores se abarataron, se
simplificaron y comenzaron a invadir los hogares. El software se
comercializó y las empresas obligaron a sus programadores a firmar
acuerdos de confidencialidad.
Stallman no era el único que veía con rechazo esa comercialización y
añoraba la época del código libre, el éxito de GNU demostró que había
muchos más desarrolladores esperando esa oportunidad. Pero sólo Stallman
se atrevió a ir en contra del sistema y abandonar el laboratorio de
Inteligencia Artifical del MIT donde había trabajado hasta ese momento. 
Esta opción permite a los programadores de todo el mundo colaborar para
mejorar un software: solucionando los errores del código; actualizando el
código con nueva tecnología y creando nuevas funciones para muchos de
los sistemas operativos y aplicaciones que hoy utilizamos y que se sustentan
en estos sistemas de código abierto.
Generación de computadoras – 1946 a 1955: para esta época, la tecnología
utilizada eran los tubos al vacío, esos mismos son famosos por haber
posibilitado el desarrollo de la electrónica hacia la mitad del siglo XX. Por
esta razón, los ordenadores eran desarrollados con válvulas electrónicas de
vacío. Se caracterizaban principalmente por tener un tamaño enorme, no
disponer de sistema operativo, sino de una tarjeta perforada para almacenar
toda la información y eran utilizados exclusivamente por las fuerzas
militares y la industria científica. De acuerdo con el portal web Wikipedia y
las referencias encontradas en la Enciclopedia Actual de la Informática, las
computadoras que marcaron el hito de la primera generación fueron:
La Zuse Z1: Diseñada por el ingeniero alemán Konrad Zuse en 1936 bajo el
sistema electro-mecánico y con financiamiento propio de su inventor y el de
sus allegados. Se dice que fue construida en el departamento de los padres
de Zuse, debido a que el gobierno Nazi no confiaba en el trabajo de este
informático.
La Zuse Z2: Como todo lo que se crea por primera vez no es perfecto, Zuse
decidió mejorar entre los años 1936 y 1939 su gran invento. Gracias a la
ayuda de su amigo Helmut Schreyer, quien lo aconsejó que cambiara el
sistema mecánico por tecnología de circuito electrónico, implementó relés
telefónicos para conocer la viabilidad del proyecto, obteniendo como
resultado una máquina un poco más veloz, pero casi imposible de realizar
debido a la escasez de la época de válvulas termoiónicas.
La Zuze Z3: Considerada como la primera máquina automática y
programable de la historia, fue creada también por Zuse en 1941 como
resultado de la combinación del trabajo duro y esfuerzos invertidos en la Z1
y Z2. Uno de sus grandes atributos fue que utilizó el sistema binario y la
tecnología electromecánica basada en relés para llevar a cabo sus funciones.
ENIAC: Aunque su creación se les amerita a los ingenieros John Presper
Eckert y John William Mauchly en 1944, realmente fue un grupo
conformado por 6 mujeres las que programaron esta computadora. Así como
la Z2, la ENIAC se desarrolló como una máquina meramente experimental y
no de producción.
La Z4: Debido a que la computadora Z3 fue destruida en 1943 en un
bombardeo realizado en Berlín durante la Segunda Guerra Mundial, Konrad
Zuse diseñó nuevamente una máquina como resultado final de todas sus
anteriores versiones, utilizando tarjetas perforadas y el sistema de relés. Es
conocida como la 1° computadora en ser vendida en todo el mundo en 1950.
La EDVAC: De toda la generación de computadoras hasta ahora existente,
fue la segunda programable y la primera en usar un programa informático
de almacenamiento. Su creación se le atribuye al laboratorio de
investigación de balística de Estados Unidos de la Universidad de
Pensilvania en el año de 1949.
Entre los años 1951 a 1955 se fabricaron y construyeron varios modelos de
computadoras que marcaron el inicio comercial de este gran invento
tecnológico. A este selecto grupo pertenecen La UNIVAC I creada por los
mismos inventores de la ENIAC y catalogada como la primera computadora
comercial procreada en Estados Unidos y La Zuse Z22 desarrollada también
por Konrad Zuse bajo el sistema de tubos de vació.
2° Generación de computadoras – 1958 a 1964: La gran hazaña de esta
generación fue la sustitución de válvulas de vacío por los transistores,
acompañada del uso de memorias de núcleo de ferritas y tambores
magnéticos para almacenar la información, los cuales permitieron la
fabricación de computadoras de menor tamaño, caracterizadas por una
mejor potencia, rapidez y fiabilidad. En este periodo se empezaron a utilizar
lenguajes de alto nivel como ALGOL, FORTRAN y COBOL, siendo estos dos
últimos los lenguajes de programación que ayudó a desarrollar la gran
científica de la computación Grace Hopper, gracias a sus conocimientos
sobre FLOW-MATIC. Las computadoras más destacadas durante este tiempo
fueron:
IBM 1401: Fue una computadora de propósito general lanzada en 1959 por
IBM que poseía un sistema basado en transistores y tarjetas perforadas.
Debido a la gran cantidad de ejemplares vendidas (alrededor de 12.000) se
consideró como una de las máquinas más exitosas del momento.
IBM 1620: Fue un ordenador creado principalmente para uso científico y el
primero de este tipo en ser estimado como económico. Poseía una memoria
de núcleo magnético y se lanzó al mercado en 1959.
3° Generación de computadoras – 1964 a 1971: Con la invención del
circuito cerrado o chip por parte de los ingenieros estadounidenses Jack S.
Kilby y Robert Noyce se revoluciona por completo el diseño de las
computadoras. Aparecen los primeros discos magnéticos y los componentes
electrónicos se integran en una sola pieza o chip que albergan en su interior
condensadores, transistores y diodos, los cuales ayudan a aumentar
notablemente la velocidad de carga y a reducir el consumo de energía
eléctrica. En esta generación las computadoras se caracterizan por tener
mayor flexibilidad y fiabilidad, ser de menor tamaño y ocupar poco espacio.
Las máquinas más sobresalientes de la época fueron:
CDC 6600: Fue creado en el año 1965 por el estadounidense Seymour Cray
y se le destinó un uso principal para la investigación de la física de alta
energía nuclear.
IBM 360: Diseñada por la empresa IBM, fue una de las computadoras que
influyó en el desarrollo de toda la 3ra generación de ordenadores.
4° Generación de computadoras – 1971 a 1981: A partir de esta etapa las
computadoras personales se convierten en las protagonistas de la
informática. Todos los elementos que conforman la CPU ahora se almacenan
en un circuito integrado conocido como microprocesadores y empiezan a
surgir una gran gama de estos elementos fabricados por la compañía Intel,
reconocida en la actualidad como la mayor fabricante de circuitos
integrados del mundo. El primer microprocesador denominado 4004 lo
desarrolla Intel en 1971 y en 1974 se presenta al mercado el primero
diseñado para uso general. Es en esta generación donde aparece el disquete.
5° Generación de computadoras – 1982 a 1989: Dos hechos históricos
marcan el inicio de esta etapa. Por un lado el proyecto 5ta generación
comando por Japón en 1982, cuya finalidad principal era construir
ordenadores con tecnología más avanzada bajo lenguajes de programación
más potentes para las máquinas y menos complejos para los usuarios. Por
otro, la construcción del primer superordenador con capacidad de proceso
paralelo por parte de Seymour Cray y su compañía Control Data
Corporation denominado CDC 6600. En esta generación las computadoras
empiezan a realizar tareas que aún en la actualidad predominan, como la
traducción automática de una lengua a otra. Asimismo, el almacenamiento
de información digital se procesa en gigabytes y surge el DVD.
6° Generación de computadoras – 1990 hasta la actualidad: Aunque se
presentan algunos desacuerdos sobre la existencia de una 6ta generación de
computadoras, lo cierto es que la informática no se ha detenido y cada día
avanza a mayor escala. La inteligencia artificial, la arquitectura vectorial y
paralela de los ordenadores y la incorporación de chips de procesadores
especializados para llevar a cabo ciertas tareas, predominan en la
actualidad. Sin embargo, aún queda un largo camino por recorrer para la
tecnología digital y de acuerdo con expertos de la industria como el gran
Stephen Hawking, la próxima generación estará marcada por el máximo
desarrollo de la informática cuántica y su puesta en marcha.
Software es una palabra que proviene del idioma inglés, pero que gracias a
la masificación de uso, ha sido aceptada por la Real Academia Española.
Según la RAE, el software es un conjunto de programas, instrucciones y
reglas informáticas que permiten ejecutar distintas tareas en una
computadora.
Se considera que el software es el equipamiento
lógico e intangible de un ordenador. En otras
palabras, el concepto de software abarca a todas
las aplicaciones informáticas, como los
procesadores de textos, las planillas de cálculo, los
editores de imágenes, los reproductores de audio y
los videojuegos, entre otras muchas.
El software se desarrolla mediante distintos lenguajes de programación,
que permiten controlar el comportamiento de una máquina. Estos lenguajes
consisten en un conjunto de símbolos y reglas sintácticas y semánticas que
definen el significado de sus elementos y expresiones. Un lenguaje de
programación permite a los programadores del software especificar, de
forma precisa, sobre qué datos debe operar una computadora.
Dentro de los tipos de software, uno de los más importantes es el software
de sistema o software de base, que permite al usuario tener el control
sobre el hardware (componentes físicos) y dar soporte a otros programas
informáticos. Los llamados sistemas operativos, que comienzan a
funcionar cuando se enciende la computadora, son software de base.
La industria del desarrollo de software se ha convertido en un protagonista
importante dentro de la economía global, ya que mueve millones de dólares
al año. La compañía más grande y popular del mundo es Microsoft,
fundada en 1975 por Bill Gates y Paul Allen. Esta empresa logró
trascender gracias a su sistema operativo Windows y a su suite de
programas de oficina Office.

En las últimas décadas, el desarrollo


de software se ha vuelto cada vez más relevante para la economía, ya que
abarca un amplio abanico de puestos de trabajo y abastece de programas a
muchos y muy diferentes mercados. Basta con echar un vistazo a los
comercios para darnos cuenta de que incluso los refrigeradores cuentan con
un software para controlar diferentes aspectos de su funcionamiento. Esto
no es precisamente un rasgo de los dispositivos de última generación, ya
que el software ha estado en los electrodomésticos desde hace ya muchos
años, pero no siempre con una interfaz tan clara y accesible para el usuario.
La presencia de una pantalla para interactuar con un programa es la norma
en la actualidad, pero no siempre fue así, precisamente porque no es un
requisito del software sino una herramienta que le brinda comodidad a la
persona y abre las puertas a un mayor control. A pesar de esto, los
consumidores con menor grado de conocimientos técnicos necesitan este
elemento visual para ser conscientes de que están adquiriendo un producto
que tiene software.
Volviendo al desarrollo de software, dado que abarca tantos terrenos muy
diferentes entre ellos es correcto afirmar que también puede tener grados de
complejidad muy diversos: programar una pequeña aplicación que almacena
una lista de nombres, números de teléfono y direcciones de correo
electrónico no requiere los mismos conocimientos o habilidades que requiere
la programación de un videojuego. Tampoco son iguales las habilidades
innatas o los talentos que se necesitan para ambos campos: mientras que el
primero persigue la elaboración de productos simples y pequeños, el
segundo se relaciona con la innovación tecnológica a un nivel altísimo.
Sin embargo, dentro de una misma compañía pueden coexistir equipos que
desarrollan software de diferentes tipos. Por ejemplo, hacer un videojuego
requiere el uso de programas para la creación de gráficos, animaciones,
mapas, elementos gráficos de la interfaz, simulación de física y composición
musical, entre otros, de manera que se conjugan las habilidades de muchas
personas.
Concepto y característica del hardware

Hardware
El hardware incluye todas las partes físicas del computador, es decir,
aquellos dispositivos que se conectan entre sí parta formar una sola unidad
de trabajo; entre estos componentes se encuentra el teclado, el mouse, el
monitor, la impresora, el escáner, la CPU (Unidad Central de
Procesamiento), entre otros.
Periféricos
Son una serie de dispositivos conectados al computador que desarrollan una
función específica, bien sea en el ingreso de información o en la salida de
ella; entre estos se encuentran el teclado, el mouse, la impresora, el escáner,
los lectores de vos, las unidades de disco; etc. Los periféricos se clasifican en
tres grupos: dispositivos de entrada, dispositivos de salida.
Dispositivos de Entrada
En este grupo de periféricos se encuentran los que permiten ingresar la
información al computador, entre ellos están el teclado, el mouse, el escáner
y otros.

 Teclado: dispositivo de entrada que traduce los datos a una forma que
la computadora pueda interpretar, para luego procesarlos y
almacenarlos.

También podría gustarte