0% encontró este documento útil (0 votos)
158 vistas9 páginas

Evolución de la Computadora

La historia de la computadora comenzó en el siglo XIX con máquinas basadas en tarjetas perforadas para tabular datos censales de forma más rápida. En el siglo XX, Alan Turing presentó la noción de una máquina universal y se construyeron las primeras computadoras electrónicas como ENIAC. Luego, se desarrollaron los transistores, lenguajes de programación como FORTRAN y COBOL, circuitos integrados y las primeras computadoras personales como el Altair y Apple I, dando paso a la era moderna de las computador

Cargado por

Marco Sanher
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
158 vistas9 páginas

Evolución de la Computadora

La historia de la computadora comenzó en el siglo XIX con máquinas basadas en tarjetas perforadas para tabular datos censales de forma más rápida. En el siglo XX, Alan Turing presentó la noción de una máquina universal y se construyeron las primeras computadoras electrónicas como ENIAC. Luego, se desarrollaron los transistores, lenguajes de programación como FORTRAN y COBOL, circuitos integrados y las primeras computadoras personales como el Altair y Apple I, dando paso a la era moderna de las computador

Cargado por

Marco Sanher
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

La historia de la computadora en una breve cronología

(1801-2017)
Es indudable que a llegada de la computadora al mundo cambió nuestras vidas para siempre, muy
distinto a lo que algunos podrían pensar de los orígenes de este artilugio, las primeras
computadoras no nacieron para ser centros de entretenimiento o para enviar e-mail, sino por la
necesidad de resolver una grave crisis relacionado, por supuesto con el conteo de números.

Para 1880, la población de los Estados Unidos había crecido tanto que se tardaron más de siete
años en tabular los resultados del Censo de los Estados Unidos de ese entonces. En este sentido, el
gobierno buscó una manera más rápida de hacer el trabajo, dando lugar a computadoras basadas
en tarjetas perforadas que ocupaban habitaciones enteras.

Siglo XIX
1801: En Francia, Joseph Marie Jacquard inventa un telar que utiliza tarjetas perforadas de madera
para tejer automáticamente diseños de tela. Las primeras computadoras usarían tarjetas de
perforación similares.
1822: El matemático inglés Charles Babbage concibe una máquina calculadora a vapor que sería
capaz de calcular tablas de números. El proyecto, financiado por el gobierno inglés, es un fracaso.
Sin embargo, más de un siglo después, la primera computadora del mundo fue realmente
construida.
1890: Herman Hollerith diseña un sistema de tarjeta perforada para calcular el censo de 1880,
logrando la tarea en sólo tres años y ahorrando al gobierno $5 millones. Establece una empresa
que en última instancia se convertiría en la famosa IBM.

Siglo XX
1936: Alan Turing presenta la noción de una máquina universal, llamada más tarde máquina de
Turing, capaz de computar cualquier cosa que sea computable. El concepto central de la
computadora moderna se basaba en sus ideas.
1937: J.V. Atanasoff, un profesor de física y matemáticas en la Universidad Estatal de Iowa, intenta
construir la primera computadora sin engranajes, levas, cinturones o ejes.
1939: Hewlett-Packard es fundada por David Packard y Bill Hewlett en un garaje de Palo Alto,
California, según el Computer History Museum.
1941: Atanasoff y su estudiante graduado, Clifford Berry, diseñan una computadora que puede
resolver 29 ecuaciones simultáneamente. Aquí se marca por primera vez que una computadora sea
capaz de almacenar información en su memoria principal.

1943-1944: Dos profesores de la Universidad de Pennsylvania, John Mauchly y J. Presper Eckert,


construyen el Integrador Numérico Electrónico y la Calculadora (ENIAC). Considerado el abuelo de
las computadoras digitales, llena una sala de 20 pies por 40 pies y tiene 18.000 tubos de vacío.
1946: Mauchly y Presper abandonan la Universidad de Pensilvania y reciben fondos de la Oficina
del Censo para construir la UNIVAC, la primera computadora comercial para aplicaciones
empresariales y gubernamentales.
1947: William Shockley, John Bardeen y Walter Brattain de Bell Laboratories inventan el transistor.
Descubren cómo hacer un interruptor eléctrico con materiales sólidos y sin necesidad de un vacío.

1953: Grace Hopper desarrolla el primer lenguaje computacional, que eventualmente se conoce
como COBOL. Thomas Johnson Watson Jr., hijo del CEO de IBM, Thomas Johnson Watson Sr.,
concibe el IBM 701 EDPM para ayudar a las Naciones Unidas a controlar a Corea durante la guerra.
1954: El lenguaje de programación FORTRAN, siglas de FORmula TRANslation, es desarrollado por
un equipo de programadores de IBM dirigido por John Backus, según la Universidad de Michigan.
1958: Jack Kilby y Robert Noyce develan el circuito integrado, conocido como el chip de
computadora. Kilby fue galardonado con el Premio Nobel de Física en el año 2000 por su trabajo.
1964: Douglas Engelbart muestra un prototipo de la computadora moderna, con un ratón y una
interfaz gráfica de usuario (GUI). Esto marca la evolución de la computadora de una máquina
especializada para científicos y matemáticos a la tecnología que es más accesible al público en
general.
1969: Un grupo de desarrolladores de Bell Labs produce el UNIX, un sistema operativo que aborda
problemas de compatibilidad. Escrito en el lenguaje de programación C, UNIX era portátil en
múltiples plataformas y se convirtió en el sistema operativo de elección entre mainframes de
grandes empresas y entidades gubernamentales. Debido a la naturaleza lenta del sistema, nunca
ganó suficiente atención entre los usuarios domésticos de la PC.

1970: El recién formado Intel lanza el Intel 1103, el primer chip de memoria de acceso dinámico
(DRAM).

1971: Alan Shugart lidera un equipo de ingenieros de IBM que inventan el "disquete", permitiendo
compartir datos entre computadoras.

1973: Robert Metcalfe, miembro del equipo de investigación de Xerox, desarrolla Ethernet para
conectar varios ordenadores y otro hardware.

1974-1977: Varias computadoras personales llegaron al mercado, incluyendo Scelbi y Mark-8


Altair, IBM 5100, la TRS-80 de Radio Shack, cariñosamente conocida como "Trash 80" - y el
Commodore PET.
1975: La edición de enero de la revista Popular Electronics presenta el Altair 8080, descrito como
el "primer kit de minicomputadores del mundo que rivaliza con los modelos comerciales". Dos
"geeks informáticos", Paul Allen y Bill Gates, se ofrecen a escribir software para el Altair, utilizando
el nuevo lenguaje BASIC. El 4 de abril, después del éxito de este primer esfuerzo, los dos amigos
de la infancia forman su propia compañía de software, Microsoft.

1976: Steve Jobs y Steve Wozniak comienzan con Apple Computers el día de los inocentes y
lanzan el Apple I, la primera computadora con una placa de un solo circuito, según la Universidad
de Stanford.
1977: La producción inicial de Radio Shack del TRS-80 fue de sólo 3.000. Sus ventas fueron una
locura. Por primera vez, los no geeks podrían escribir programas y hacer que una computadora
hiciera lo que quisieran.

1977: Jobs y Wozniak incorporan a Apple y muestran el Apple II en la primera feria informática de
la Costa Oeste. Ofrece gráficos en color e incorpora una unidad de cassette de audio para el
almacenamiento.
1978: Los contadores se alegran de la introducción de VisiCalc, el primer programa computarizado
de hoja de cálculo.

1979: El procesamiento de textos se convierte en una realidad cuando MicroPro International


lanza WordStar. "El cambio definitivo fue añadir márgenes y ajuste de palabras", dijo el creador
Rob Barnaby en un correo electrónico a Mike Petrie en 2000. "Otros cambios incluyeron
deshacerse del modo de comando, agregando una función para hacerlo, dejarlo hecho, y
documentarlo".
1981: Se introduce la primera computadora personal de IBM, llamada "Acorn". Utiliza el sistema
operativo MS-DOS de Microsoft. Tiene un chip Intel, dos disquetes y un monitor de color opcional.
Sears & Roebuck y Computerland venden las máquinas, marcando la primera vez que una
computadora está disponible a través de distribuidores externos. También se populariza el término
PC.

1983: Lisa de Apple es la primera computadora personal con una GUI. También incluye un menú
desplegable e iconos. Fracasa a nivel comercial pero eventualmente evoluciona en el Macintosh. El
Gavilan SC es la primera computadora portátil con el conocido factor de forma y el primero en ser
comercializado como un “laptop".

1985: Microsoft anuncia Windows, según la Enciclopedia Británica. Esta fue la respuesta de la
empresa a la interfaz gráfica de usuario de Apple. Commodore devela el Amiga 1000, que cuenta
con avanzadas capacidades de audio y video.
1985: El primer nombre de dominio dot-com se registra el 15 de marzo, años antes de que la
World Wide Web marcara el comienzo formal de la historia de Internet. La Symbolics Computer
Company, un pequeño fabricante de computadoras de Massachusetts, registra Symbolics.com.
Más de dos años después, sólo se habían registrado 100 dot-coms.
1986: Compaq lleva el Deskpro 386 al mercado. Su arquitectura de 32 bits proporciona una
velocidad comparable a la de los mainframes.
1990: Tim Berners-Lee, investigador del CERN, el laboratorio de física de alta energía de Ginebra,
desarrolla HyperText Markup Language (HTML), dando lugar a la World Wide Web.
1993: El microprocesador Pentium avanza en el uso de gráficos y música en PCs.

1994: Las PCs se convierten en máquinas de juego como "Command & Conquer", "Alone in the
Dark 2", "Theme Park", "Magic Carpet", "Descent" y "Little Big Adventure”, junto a otros hit del
mercado.
1996: Sergey Brin y Larry Page desarrollan el motor de búsqueda de Google en la Universidad de
Stanford.
1997: Microsoft invierte $150 millones en Apple, que estaba luchando en ese momento, poniendo
fin al juicio de Apple contra Microsoft en el que alegaba que Microsoft había copiado la
"apariencia" de su sistema operativo.

1998: El sistema operativo Windows 98 de Microsoft domina gran parte del sector de
administración y uso personal. También Apple presenta su exitoso iMac G3 fue el primer
Macintosh en prescindir de la unidad de disco flexible (disquetera) y del Apple Desktop Bus e
incluir puertos USB, y el único hasta la fecha en estar disponible en una amplia gama de colores.
Ejecutaba el sistemas operativo Mac OS 9 y posteriormente utilizó Mac OS X v10.1 luego de su
lanzamiento.
1999: El término Wi-Fi se convierte en parte del lenguaje informático y los usuarios comienzan a
conectarse a Internet sin cables.

Siglo XXI
2001: Apple presenta el sistema operativo Mac OS X, que ofrece una arquitectura de memoria
protegida y multitarea preferencial, entre otros beneficios. Para no quedarse atrás, Microsoft lanza
Windows XP, que tiene una GUI significativamente rediseñada.
2003: El primer procesador de 64 bits, Athlon 64 de AMD, se pone a disposición del mercado
consumidor.
2004: Mozilla Firefox 1.0 desafía el popular Microsoft Internet Explorer, el navegador web
dominante. Facebook, un sitio de redes sociales, se lanza.
2005: YouTube, un servicio de video compartido, es fundado. Google adquiere Android, un
sistema operativo para teléfonos móviles basado en Linux.
2006: Apple presenta el MacBook Pro, su primera computadora móvil con núcleo dual basada en
Intel, así como un iMac basado en Intel. La consola Wii de Nintendo llega al mercado.
2007: El iPhone trae muchas funciones de computadora al Smartphone.

2009: Microsoft lanza Windows 7, que ofrece la posibilidad de asignar aplicaciones a la barra de
tareas y avances en el reconocimiento táctil y de escritura, entre otras características.

2010: Apple revela el iPad, cambiando la forma en que los consumidores ven los medios de
comunicación y lanzan el segmento de computadoras tipo tablet.

2011: Google lanza la Chromebook, una computadora portátil que ejecuta el sistema operativo
Google Chrome.

2012: Facebook gana 1 mil millones de usuarios el 4 de octubre.


2015: Apple lanza el Apple Watch. Microsoft lanza Windows 10.
2016: Se creó el primer ordenador cuántico reprogrammable. "Hasta ahora no ha habido ninguna
plataforma de computación cuántica que tuviera la capacidad de programar nuevos algoritmos en
su sistema, sino que cada uno de ellos está adaptado para atacar un algoritmo particular", dijo el
autor principal del estudio, Shantanu Debnath, físico cuántico e ingeniero óptico en la Universidad
de Maryland, College Park.
2017: La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) está desarrollando
un nuevo programa de "Informática Molecular" que utiliza moléculas como computadoras.
“Chemistry ofrece un rico conjunto de propiedades que podremos aprovechar para el
almacenamiento y el procesamiento de información rápida y escalable", dijo Anne Fischer,
directora de programa de la Oficina de Ciencias de Defensa de DARPA, en un comunicado.
"Millones de moléculas existen, y cada molécula tiene una estructura atómica tridimensional única,
así como variables como la forma, tamaño o incluso el color. Esta riqueza ofrece un amplio espacio
de diseño para explorar nuevas formas y múltiples valores para codificar y procesar datos más allá
de los 0s y 1s de las actuales arquitecturas digitales basadas en lógica".
(Elementos Intangibles): Software:
Conjunto de programas y rutinas que
permiten a la computadora realizar
determinadas tareas.

(Elementos Físicos): Hardware:
El hardware de una computadora son todos
aquellos elementos físicos que pueden ser
tocados y o manipulados, estos elementos
son los encargados de distribuir tanto datos
como información, existen varias formas de
definir el diseño del hardware de una computadora.

Los componentes básicos internos de una computadora:


Placa Madre: La placa madre es un elemento fundamental en una computadora dado que es la
encargada de entrelazar o comunicar todas las demás partes, placas periféricos y demás
componente uno entre otro.

Procesador: El procesador está ubicado en el corazón de la placa madre y prácticamente es el


cerebro de la computadora, científicamente es llamado CPU.

Memoria RAM: La memoria RAM es donde se va almacenando al información que se está


utilizando en el momento. También existe la memoria ROM que es donde se va almacenando la
configuración BIOS básica para el correcto funcionamiento de la computadora.

Fajas o Buses de comunicación: Estos son los que se encargan de ínter-conectar los


componentes entre sí.

Otros Componentes: Existen otros complementos adicionales que se pueden adherir a la placa


madre, tales como aceleradores de gráfico o comúnmente llamados Tarjetas de vídeo,
adaptadores de red o Tarjetas de sonido.

Complementos para enfriamiento: Estos complementos tienen una función muy específica, la


cual es mantener una temperatura ambiente dentro de lo que es el Case o gabinete.

Fuente eléctrica o Fuente de Poder: Este complemento es el que se encarga de proveer energía a


todos los dispositivos conectados a la placa madre de la computadora.

Puertos de comunicación: Estos puertos suelen ser llamados USB o puertos serial y también
puerto paralelo, estos sirven para conectar dispositivos tales como, memorias usb, impresoras o
teléfonos celulares.

Disco Duro: Son dispositivos típicos usados para almacenar información en una computadora,
existen de dos tipos, SATA e ID, aunque en la actualidad esta modalidad se ha vuelto muy popular
con los tan famosos discos duros portátiles.

Componentes de entrada salida: entre estos tenemos el más común que es el monitor por donde
el usuario emite órdenes a centro de procesamiento o CPU, actualmente existen monitores CTR o
LCD, entre otros dispositivos de salida tenemos la impresora que sirve para emitir imágenes
impresas en papel especifico. y los Parlantes que sirven para emitir sonidos.
Otros dispositivos de entrada y de salida:
CPU: Es el cerebro del ordenador y se encuentra dentro del gabinete. A través de la computadora,
esta se conecta con todos los demás elementos para darles órdenes y así realizar sus tareas.
Monitor: Es el dispositivo de entrada y de salida de datos que tiene la computadora. Su función es
permitir ver la información que se encuentra en uso.
Teclado: Se considera un dispositivo de entrada, ya que permite introducir información a la
computadora. Contiene las letras del abecedario y los números. Con él puedes escribir y, además,
tiene varios tipos de teclas que permiten realizar una determinada función.
Mouse: sirve para ínteractuar por medio de un puntero en la pantalla del ordenador. Teclado: este
es un dispositivo de entrada el cual sirve para ingresar datos mediante programas de
procesamiento tales como Word o excell.

Cámara Web o WebCam: este dispositivo cumple una función específica la cual es transmitir
vídeo.

Algoritmo
En Matemática, ciencias de la Computación y disciplinas
relacionadas, un algoritmo (del latín, dixit algorithmus y éste a su vez
del matemático persa Al Juarismi) es un conjunto reescrito de
instrucciones o reglas bien definidas, ordenadas y finitas que
permite realizar una actividad mediante pasos sucesivos que no
generen dudas a quien lo ejecute. Dados un estado inicial y una
entrada, siguiendo los pasos sucesivos se llega a un estado final y se
obtiene una solución. Los algoritmos son objeto de estudio de la
algoritmia.

Características principales y definición formal


En la vida cotidiana se emplean algoritmos en multitud de ocasiones para resolver problemas.
Algunos ejemplos son los manuales de usuario, que muestran algoritmos para usar un aparato, o
las instrucciones que recibe un trabajador por parte de su patrón. Algunos ejemplos en
matemáticas son el algoritmo de la división para calcular el cociente de dos números, el  Algoritmo
de Euclides para obtener el máximo común divisor de dos enteros positivos, o el método
de Gauss para resolver un sistema lineal de ecuaciones.

En general, no existe ningún consenso definitivo en cuanto a la definición formal de algoritmo.


Muchos autores los señalan como listas de instrucciones para resolver un problema abstracto, es
decir, que un número finito de pasos convierten los datos de un problema (entrada) en una
solución (salida). Sin embargo cabe notar que algunos algoritmos no necesariamente tienen que
terminar o resolver un problema en particular. Por ejemplo, una versión modificada de la criba
de Eratóstenes que nunca termine de calcular números primos no deja de ser un algoritmo. A lo
largo de la historia varios autores han tratado de definir formalmente a los algoritmos utilizando
modelos matemáticos como Máquinas de Turing entre otros.

Sin embargo estos modelos están sujetos a un tipo particular de datos como son números,
símbolos o gráficas mientras que, en general, los algoritmos funcionan sobre una vasta cantidad
de estructuras de datos. En general, la parte común en todas las definiciones se puede resumir en
las siguientes tres propiedades siempre y cuando no consideremos algoritmos paralelos:

 Tiempo secuencial. Un algoritmo funciona en tiempo discretizado –paso a paso–, definiendo


así una secuencia de estados "computacionales" por cada entrada válida (la entrada son los
datos que se le suministran al algoritmo antes de comenzar).
 Estado abstracto. Cada estado computacional puede ser descrito formalmente utilizando una
estructura de primer orden y cada algoritmo es independiente de su implementación (los
algoritmos son objetos abstractos) de manera que en un algoritmo las estructuras de primer
orden son invariantes bajo isomorfismo.
 Exploración acotada. La transición de un estado al siguiente queda completamente
determinada por una descripción fija y finita; es decir, entre cada estado y el siguiente
solamente se puede tomar en cuenta una cantidad fija y limitada de términos del estado
actual.

En resumen, un algoritmo es cualquier cosa que funcione paso a paso, donde cada paso se pueda
describir sin ambigüedad y sin hacer referencia a una computadora en particular, y además tiene
un límite fijo en cuanto a la cantidad de datos que se pueden leer/escribir en un solo paso. Esta
amplia definición abarca tanto a algoritmos prácticos como aquellos que sólo funcionan en teoría,
por ejemplo el método de Newton y la eliminación de Gauss–Jordan funcionan, al menos en
principio, con números de precisión infinita; sin embargo no es posible programar la precisión
infinita en una computadora, y no por ello dejan de ser algoritmos.

En particular es posible considerar una cuarta propiedad que puede ser usada para validar la tesis
de Church–Turing de que toda función calculable se puede programar en una máquina de Turing
(o equivalentemente, en un lenguaje de programación suficientemente general): Aritmetizabilidad.
Solamente operaciones innegablemente calculables están disponibles en el paso inicial.

Ejemplo de algoritmo
El problema consiste en encontrar el máximo de un conjunto de números. Para un ejemplo más
complejo véase Algorítmo de Dijkstra.

Descripción de alto nivel


Dado un conjunto finito C de números, se tiene el problema de encontrar el número más grande.
Sin pérdida de generalidad se puede asumir que dicho conjunto no es vacío y que sus elementos
están numerados. 
Para encontrar el elemento máximo, se asume que el primer elemento (c0) es el máximo; luego, se
recorre el conjunto y se compara cada valor con el valor del máximo número encontrado hasta ese
momento. En el caso que un elemento sea mayor que el máximo, se asigna su valor al máximo.

Cuando se termina de recorrer la lista, el máximo número que se ha encontrado es el máximo de


todo el conjunto.

Descripción formal
El algoritmo puede ser escrito de una manera más formal en el siguiente pseudocódigo:

Algoritmo Encontrar el máximo de un conjunto

función max(C) //C es un conjunto no vacío de números//

n ← | C | // | C | es el número de elementos de C//

m ← c0

para i ← 1 hasta n hacer

si ci > m entonces

m ← ci

devolver m

Sobre la notación:

"←" representa una asignación: m ← x significa que la variable m toma el valor de x;

"devolver" termina el algoritmo y devuelve el valor a su derecha (en este caso, el máximo de C).

Implementación

En lenguaje C++:

int max(int c[], int n){

int i, m = c[0];

for (i = 1; i < n; i++)

if (c[i] > m) m = c[i];

return m;

Referencias:
 https://culturizando.com/la-historia-la-computadora-una-breve-cronologia-1801-2017/
 https://medium.com/@dinocisterna28/partes-de-una-computadora-y-sus-funciones-
437178b3ce3
 https://www.ecured.cu/Algoritmo

También podría gustarte