¿Que es el hardware? Hardware es una palabra inglesa que hace referencia a las partes físicas tangibles de un sistema informático, es decir, todo aquello que podemos tocar con las manos. Dentro del hardware encontramos una gran variedad de componentes eléctricos, electrónicos, electromecánicos y mecánicos. El hardware es el chasis del ordenador, los cables, los ventiladores, los periféricos y todos los componentes que se pueden encontrar en un dispositivo electrónico. La Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora». “Formas de Clasificar el hardware “ Una forma de clasificar el hardware es en dos categorías: el hardware principal, que abarca el conjunto de componentes indispensables necesarios para otorgar la funcionalidad mínima, y por otro lado, el hardware complementario, que es el utilizado para realizar funciones específicas más allá de las básicas, no estrictamente necesarias para el funcionamiento del sistema informático. “_historia del hardware ” La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de gran importancia. Primera generación (1945-1956): electrónica implementada con tubos de vacío, que desplazaron los componentes electromecánicos (relés). Segunda generación (1957-1963): electrónica desarrollada con transistores. La lógica discreta era muy parecida a la anterior, pero con una implementación mucho más pequeña, reduciendo el tamaño de un ordenador en gran medida. Tercera generación (1964-hoy): electrónica basada en circuitos integrados, la cual permite integrar cientos de transistores y otros componentes electrónicos en un único circuito integrado impreso en una pastilla de silicio. Esto vuelve a suponer una notable reducción en el coste, consumo y tamaño. Cuarta generación (futuro): se originará cuando los circuitos de silicio sean reemplazados por un nuevo tipo de material o tecnología, las más prometedoras son el grafeno y los procesadores cuánticos. Segunda parte :
La historia del hardware comienza en el ya lejano año 1960, un
momento que está marcado por el paso de los tubos de vacío a los circuitos integrados basados en el silicio, la misma tecnología que se sigue usando hoy en día. Este importante cambio viene marcado por los transistores discretos, que empezaron a ser suficientemente viables desde el punto de vista de la economía y la fiabilidad, por lo que ya no había ninguna razón para seguir usando los tubos de vacío.
La memoria principal de los ordenadores vio una gran
evolución con el paso de las cintas magnéticas a los chips basados en transistores de silicio, este movimiento permitió reducir de forma muy importante el consumo de energía, el tamaño y el coste de fabricación de los equipos informáticos. Los años seguían pasando y la tecnología de los circuitos integrados era cada vez más barata, lo que hizo posible la aparición de los ordenadores personales. Un hardware más pequeño y asequible, también provocó el desarrollo de importantes nuevos sistemas operativos como Unix. El primer circuito integrado se creo en 1958, aunque tuvieron que pasar algunos años hasta que se empezaron a usar en los ordenadores. La NASA fue una de las pioneras en el uso de esta tecnología, el Apollo Guidance Computer del programa Apolo, y el misil balístico incontinentemente LGM-30 Minuteman fueron las primeras creaciones de la agencia espacial en usar ordenadores con circuitos integrados.
No fue hasta el 15 de noviembre de 1971, cuando Intel lanzó el
primer microprocesador comercial del mundo, el famoso Intel 4004. Este procesador fue desarrollado para Busicom, una compañía japonesa de calculadoras, que buscaba una alternativa al circuito cableado. Las grandes capacidades de este procesador hicieron que fuera usado para el desarrollo de ordenadores. Este procesador era capaz de ejecutar 60.000 instrucciones por segundo, un número que fue aumentando en los futuros procesadores Intel 8008, 8080, 8086 y 8088. El Intel 4004 funcionaba acompañado de un chip de RAM de varios kilobits, basado en una invención por Robert Dennard de IBM. Hasta la aparición del microprocesador, los ordenadores eran en general grandes y caros, sus dueños eran instituciones grandes como corporaciones, universidades, agencias de gobierno, y similares. Sus usuarios eran especialistas, que no interactuaban con la máquina en sí misma, sino que preparaban tareas para el ordenador en equipos fuera de línea, tal como perforadores de tarjetas. Un número de asignaciones para el ordenador serían recolectadas y procesadas en una modalidad de procesamiento por lotes. Después, los usuarios podían recoger las salidas en listados impresos y en tarjetas perforadas. En algunas organizaciones este proceso podía tardar horas o días en completarse. Después de que el procesador fuera comercializado, el coste de producir un sistema de computación cayó dramáticamente. La aritmética, la lógica, y las funciones de control que previamente ocuparon varias y costosas tarjetas de circuitos, ahora estaban disponibles en un circuito integrado que era muy costoso de diseñar, pero barato de producir en grandes cantidades una vez diseñado. Hardware y software ¿En que se diferencian?
El hardware representa un concepto contrario al Software, la parte
intangible de un sistema informático, es decir todo aquello que no podemos tocar con las manos como el sistema operativo, los programas y todos los archivos almacenados por el usuario, como las fotos, los vídeos, la música, los documentos… El software es tan importante como el hardware, ya que sin él, un sistema informático sería un aparato inútil que no serviría para nada. Software y hardware trabajan en armonía para permitir el correcto funcionamiento de todo un sistema informático, es un binomio inseparable. Tipos de hardware de un ordenador o PC
Una vez que tenemos claro el concepto de hardware, vamos a dar un
repaso a los componentes más importantes de un ordenador o un sistema informático, así como sus características más importantes. Esta lista podría ser casi interminable, por lo que hemos escogido los componentes más relevantes a nuestro juicio. ¡Allá vamos con el hardware básico de un PC! La Unidad Central de Procesamiento, más conocida por sus siglas en inglés CPU, es el componente fundamental de un ordenador, pues se trata del encargado de interpretar y ejecutar instrucciones y procesar datos. En el caso de que la CPU sea manufacturada como un único circuito integrado se conoce como microprocesador, abreviado comúnmente como procesador. Los ordenadores más potentes, como los utilizados en la supercomputación, pueden tener multitud de microprocesadores funcionando de forma conjunta, el conjunto de todos ellos conforma la unidad central de procesamiento. Las unidades centrales de procesamiento no sólo están presentes en los ordenadores, sino que se incluyen en todo tipo de dispositivos que incorporan una cierta capacidad de proceso, algunos ejemplos de ellos son los controladores de procesos industriales, videoconsolas, televisores, automóviles, calculadoras, aviones, teléfonos móviles, electrodomésticos, juguetes y muchos más.