Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Prehistoria de La Informática
Prehistoria de La Informática
El pintor Leonardo da Vinci (1452-1519) trazó las ideas para una sumadora mecánica.
Siglo y medio después, el filósofo y matemático francés Blaise Pascal (1623-1662) por
fin inventó y construyó la primera sumadora mecánica, se la llamó Pascalina y
funcionaba como un a maquinaria a base de engranajes y ruedas, y tiene el mismo
principio que el cuentakilómetros de un automóvil.
Esta máquina solo podía sumar y restar operaciones, a pesar de que Pascal fue
engrandecido por toda Europa debido a sus logros, la Pascalina resulto un desolador
fallo financiero, pues en ese momento, resultaba más costosa que la labor humana
para los cálculos aritméticos.
Unos años más tarde, un alemán llamado Gottfried Leibnitz mejoró la máquina de
Pascal. Inventó una calculadora que, además de sumar y restar, también podía
multiplicar, dividir y hallar la raíz cuadrada de un número, se accionaba manualmente.
El telar de tejido inventado en 1801 por el francés Joseph- Marie Jackard (1753-1834),
usado todavía en la actualidad, se controla por medio de tarjetas perforadas. El telar de
Jackard opera de la manera siguiente, las tarjetas se perforan estratégicamente y se
acomodan en cierta secuencia para indicar un diseño de tejido en particular.
• Su gran tamaño.
• El gran consumo de energía que disipaba un fuerte calor.
Ambos efectos eran debidos al gran tamaño de las válvulas con las que estaban
construidos y a que éstas necesitaban consumir una gran cantidad de energía para
alimentarse, generando una enorme cantidad de calor.
Las válvulas de vacío surgieron a principios del siglo XX, cuando en 1907 Lee De
Forest inventó la primera válvula electrónica (triodo) al intentar perfeccionar los
receptores telegráficos existentes en la época. La posibilidad de la válvula electrónica
de asumir dos estados posibles fue la base fundamental sobre la que se implantó el
código binario (0,1) y las modernas computadoras digitales.
El principal problema que presentaba ENIAC era que el proceso no estaba optimizado
en absoluto, la computadora sólo podía efectuar estas tareas secuencialmente. Así, si
estaba leyendo las tarjetas perforadas no podía procesar los datos ni escribir la salida
por la impresora, con lo cual el tiempo de ejecución se incrementaba
considerablemente.
El mantenimiento, no obstante, era muy arduo, ya que se debían controlar todas las
válvulas para evitar que una parte de la computadora quedara inutilizada, las mejores
prestaciones que se consiguieron fueron alrededor de dos o tres días sin que se
fundiera ninguna válvula.
El cambio fundamental que originó la aparición del transistor fue que redujo en gran
medida el tamaño de las computadoras, puesto que sobre placas relativamente
pequeñas podían instalarse componentes fundamentales para la estructura de la
computadora. Asimismo, se redujeron sus labores de mantenimiento debido a que
aumentó la fiabilidad de sus componentes.
El problema fundamental con el que se encontraron los informáticos en esta época fue
que todavía no se había conseguido solucionar completamente el problema de
optimización de la gestión de los recursos del sistema informático.
En esta etapa se consigue simultanear el proceso del programa con las operaciones de
entrada y salida, pero solamente dentro del mismo programa. Al no poderse realizar
más que una ejecución de un programa al mismo tiempo, esto detenía el proceso de
otros programas. Todo ello originaba una infrautilización de los elementos más rápidos
y, por tanto, más caros, de la máquina y una considerable pérdida de tiempo y dinero.
Además de esto, se utilizaron Las memorias de ferrita que estaban compuestas por
matrices de los anillos de hierro, siguiendo una disposición especial que minimizaba la
longitud de los cables usados y el espacio utilizado. Fueron ampliamente usadas, hasta
que fueron sustituidas por las memorias de semiconductores.
La tercera generación de computadoras (1962-1971)
Semiconductores, Microprocesador
Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la
posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar las
interfaces gráficas de usuario, que son pantallas con ventanas, iconos (figuras) y
menús desplegables que facilitan las tareas de comunicación entre el usuario y la
computadora, tales como la selección de comandos del sistema operativo para realizar
operaciones de copiado o formato con una simple pulsación de cualquier botón del
ratón (mouse) sobre uno de los iconos o menús.
La inteligenca artificial
Ahora vemos que el costo de una PC es relativamente bajo asi como el de una Laptop,
las computadoras de ahora vienen trabajando con arquitecturas paralelas / vectoriales
lo que hace que sean muy rapidas, pueden almacenar una cantidad enorme de
informacion hablamos de terabites, ahora las computadoras practicamente toman
decisiones propias alcanzando casi la misma del ser humano, tenemos computadoras
tactiles que casi no ocupan espacion en el hogar y el trabajo, tambien con diseño
holográfico, lo cual ha revolucionado el mercado de la informática. por el momento las
únicas novedades han sido el uso de procesadores en paralelo, o sea, la división de tareas en
múltiples unidades de procesamiento operando simultáneamente. Otra novedad es la
incorporación de chips de procesadores especializados en las tareas de vídeo y sonido. se
podría llamar a la era de las computadoras inteligentes basadas en redes neuronales artificiales o
"cerebros artificiales". Serían computadoras que utilizarían superconductores como materia-
prima para sus procesadores, lo cual permitirían no malgastar electricidad en calor debido a su
nula resistencia, ganando performance y economizando energía. La ganancia de performance
sería de aproximadamente 30 veces la de un procesador de misma frecuencia que utilice
metales comunes, por supuesto Todo esto está en pleno desarrollo.