Documentos de Académico
Documentos de Profesional
Documentos de Cultura
RECONOCIMIENTO DE COMPONENTES DE
LA PC Y SU FUNCIONAMIENTO
AÑO 2023
Enormes como una habitación o pequeñas como una memoria USB. Las computadoras forman parte
de la vida de todas las personas del mundo, incluso en aquellas que no las usan directamente pero que por
medio de la computación reciben todo tipo de servicios, desde los más esenciales hasta los más
especializados.
En este post, destacamos los 10 principales tipos de computadoras, sus características y por qué son
elementos importantes de la computación en el mundo.
Tabla de Contenidos
• 1. Supercomputadoras
• 2. Mainframes
• 3. Computadoras personales
• 4. Computadoras híbridas
• 5. Computadoras portátiles
• 6. Computadoras de escritorio
• 7. Netbooks
• 8. Tablets
• 9. Teléfonos inteligentes
• 10. Computadoras vestibles
o Bonus: computadoras del futuro
UNAH TEC, Danlí. Taller de hardware I.
1. Supercomputadoras
Estos son actualmente los diez más potentes del mundo y algunas de sus contribuciones al conocimiento.
Las computadoras más potentes del mundo, las que pueden procesar las mayores cantidades de
información y resuelven las operaciones más complicadas son las supercomputadoras. En realidad, las
supercomputadoras son un conjunto de ordenadores muy poderosos conectados entre sí para aumentar
su capacidad de forma exponencial.
El supercomputador más potente del mundo en la actualidad es Summit, construido por IBM para el Oak Ridge
National Laboratory de Tennessee, perteneciente al Departamento de Energía de EEUU. Ocupa el equivalente a
dos canchas de baloncesto y alcanza unos impresionantes 148,6 petaflops, gracias a sus 2,41 millones de núcleos
La compañía IBM es también responsable del segundo supercomputador más potente de la lista, Sierra, situado en
el Lawrence Livermore National Laboratory de California. Basado en un hardware similar a Summit, Sierra alcanza
los 94,6 petaflops.
UNAH TEC, Danlí. Taller de hardware I.
Los mainframes pueden funcionar con muchos sistemas operativos a la vez y servir para gestionar las
actividades de varios terminales virtuales. Necesitan refrigeración para evitar su sobrecalentamiento y
cuestan varios miles de dólares.
Una unidad central es una computadora grande, potente y costosa, usada principalmente por una gran compañía
para el procesamiento de una gran cantidad de datos, como, por ejemplo, para el procesamiento de transacciones
bancarias.
Suelen ser utilizadas por grandes empresas y con fines científicos. Son utilizadas principalmente para aplicaciones
de misión crítica que requieren grandes volúmenes de procesamiento de datos, como censos, estadísticas de la
industria y del consumidor, así como planificación de recursos empresariales.
UNAH TEC, Danlí. Taller de hardware I.
3. Minicomputadoras
Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un Mainframe, y esto ayudó
a reducir el precio y costos de mantenimiento.
Las minicomputadoras fueron diseñadas para una fácil conexión a instrumentos científicos y otros dispositivos de
entrada/salida, con una arquitectura simple, se construyeron utilizando transistores rápidos y se programaban en
lenguaje ensamblador, con poco soporte para lenguajes de alto nivel.
4. Micro computadoras.
En cualquier caso, el microcomputador es el equipo de computación que se diseñó para funcionar con un
microprocesador.
Los microordenadores están diseñados para uso doméstico, didáctico y funciones de oficina. En casa pueden servir
como herramienta para la gestión doméstica (cálculo de impuestos, almacenamiento de recetas) y como equipo de
diversión (juegos de computadora, catálogos de discos y libros).
La cara más vista de la computación son las computadoras personales, que tienen sus orígenes en los
equipos construidos desde 1970 y que en un principio se llamaron microcomputadoras. Se caracterizan
por tener un microprocesador y están diseñadas para cumplir las tareas más comunes de la informática
actual, como la navegación web, la productividad y el entretenimiento.
Las computadoras híbridas o dos en uno combinan la productividad de las laptop con la portabilidad de
las tablets.
Surgidas a partir del 2012, las computadoras híbridas son una mezcla entre una laptop y una tableta.
Pensadas principalmente como una tableta evolucionada para ofrecer más opciones de productividad, las
computadoras híbridas tienen mucho potencial en el futuro de la computación.
Casi todas las marcas de computadoras fabrican en la actualidad computadoras híbridas, si bien se
considera a la Microsoft Surface como la pionera en el campo y al iPad Pro, recién anunciado, como una
de las que impulsará más este mercado.
La primera computadora portátil como tal fue creada por Epson en 1981 y en su momento fue
considerada como la “cuarta revolución de la computación personal” por la revista BusinessWeek.
Después del lanzamiento de Windows 95, las computadoras portátiles se popularizaron, y son en la
actualidad las computadoras personales más vendidas.
El término laptop viene del inglés lap –regazo- y top –encima-, mientras que se les llama también
notebooks por su similitud con los cuadernos. Tienen pantalla, teclado, touchpad, procesador, discos
duros, memorias y batería.
4.5 Netbooks
UNAH TEC, Danlí. Taller de hardware I.
Las netbooks son las computadoras personales más básicas que existen. Son laptops con pantallas de 10
pulgadas en promedio, pero con menor potencia y capacidad que las computadoras portátiles más
grandes. Están diseñadas principalmente para acceder a Internet y hacer tareas de productividad
simples.
Este tipo de computadoras prescinden de los lectores de CD o DVD, característica que no obstante está
siendo imitada por las laptops de mayor tamaño. Las netbooks son también las computadoras
personales más baratas, lo que contribuyó a su éxito en ventas.
4.6. Tablets
El mundo conoció las tablets cuando Apple lanzó en 2010 el iPad. Las tablets o tabletas son
computadoras muy portátiles destinadas a tareas de entretenimiento, web y productividad. Su principal
característica es su pantalla táctil, que elimina el teclado y mouse para interactuar con sus contenidos y
los reemplaza por gestos con los dedos.
Las tabletas como computadoras personales han reemplazado en muchos usuarios las funciones las
netbooks o laptops, si bien este tipo de equipos son utilizados para tareas más exigentes.
4.7Teléfonos inteligentes
UNAH TEC, Danlí. Taller de hardware I.
Los teléfonos inteligentes son computadoras que sirven para hablar por teléfono.
Los teléfonos inteligentes pueden hacer muchas tareas de las computadoras personales, como
administrar el correo electrónico, navegar por internet y utilizar elementos multimedia.
Su principal empuje vino a través de la creación y consolidación de sistemas operativos móviles, como
iOS y Android, que ofrecen millones de aplicaciones, programas informáticos pequeños para utilizar
dentro de estos dispositivos. El iPhone, lanzado en 2007, fue el inaugurador del concepto del
smartphone, si bien existen en la actualidad una serie de marcas de celulares que compiten en esta
industria.
Hay muchos caminos que las computadoras del futuro podrían tomar.
La computación está cambiando todo el tiempo. En el futuro de las computadoras se abren panoramas
prometedores como la computación cuántica, máquinas con capacidades increíbles de procesamiento
que apenas comienzan a crearse, mientras que las computadoras de bolsillo o en miniatura buscarán
abrirse camino entre los usuarios comunes.
También están basados en computadoras en miniatura tecnologías como el Internet de las Cosas, que
planea convertir todos los objetos en inteligentes. Conforme pase el tiempo, los tipos de computadoras
existentes continuarán diversificándose, mientras que otros probablemente desaparecerán. Así
funciona el devenir de la tecnología.
UNAH TEC, Danlí. Taller de hardware I.
Historia de la informática
El computador no es invento de alguien en especial, sino el resultado de ideas y
realizaciones de muchas personas relacionadas con la electrónica, la mecánica, los
materiales semiconductores, la lógica, el álgebra y la programación.
¿Como Funciona
Mi PC?
El término “software” fue usado por primera vez en este sentido por John W. Tukey en 1957.
En las ciencias de la computación y la ingeniería de software, el software es toda la
El lenguaje de la
PC
Sistema Binario: Historia
En 1854, el matemático británico George Boole, publ icó un artículo que marcó un
antes y un después, detallando un sistema de lógica que terminaría
denominándose Álgebra de Boole. Dicho sistema jugaría un papel fundamental en
el desarrollo del sistema binario actual, particularmente en el desarrollo de circuitos
electrónicos.
En noviembre de 1937, George Stibitz, trabajando por aquel entonces en los Laboratorios
Bell, construyó un ordenador basado en relés - al cual apodó "Modelo K" (porque lo
construyó en una cocina, en inglés "kitchen")- que utilizaba la suma binaria para realizar los
cálculos. Los Laboratorios Bell autorizaron un completo programa de investigación a finales
de 1938, con Stibitz al mando. El 8 de enero de 1940 terminaron el diseño de una Calculadora
de Números Complejos, la cual era capaz de realizar cálculos c on números complejos. En
una demostración en la conferencia de la Sociedad Americana de Matemáticas, el 11 de
septiembre de 1940, Stibitz logró enviar comandos de manera remota a la Calculadora de
Números Complejos a través de la línea telefónica mediante un teletipo. Fue la primera máq
uina computadora utilizada de manera remota a través de la línea de teléfono. Algunos
participantes de la conferencia que presenciaron la demostración fueron John Von Neumann,
John Mauchly y Norbert Wiener, el cual escribió acerca de dicho suceso en sus diferentes
tipos de memorias en la cual alcanzo diferentes logros.
Archivo Binario
Bit es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de
numeración binario. La Real Academia Española (RAE) ha aceptado la palabra bit con el
plural bits.
Mientras que en nuestro sistema de numeración decimal se usan diez dígitos, en el binario
se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos
dos valores, 0 ó 1.
UNAH TEC, Danlí. Taller de hardware I.
Claude E. Shannon primero usó la palabra bit en un trabajo académico de 1948. Él atribuyó
su origen a John W. Tukey, que había escrito una nota en los laboratorios Bell el 9 de enero
de 1947 en la cual contrajo las palabras "binary digit" (dígito binario) a simplemente "bit",
formando una palabra combinada.
UNAH TEC,Danli. Taller de hardware I.
Octeto o Byte
Voz inglesa, se pronuncia báit, que si bien la Real Academia Española ha aceptado como
equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado
como una secuencia de bits contiguos, cuyo tamaño depende del código de información o
código de caracteres en que sea definido. Se usa comúnmente como unidad básica de
almacenamiento de información en combinación con los prefijos de cantidad.
Los prefijos kilo, mega, giga, etc. se consideran múltiplos de 1024 en lugar de múltiplos de
10
1000. Esto es así porque 1024 es la potencia de 2 (2 ) más cercana a 1000. Se utiliza
una potencia de dos porque la computadora trabaja en un sistema binario.
Sin embargo, para el SI, los prefijos mantienen su significado usual de potencias de mil.
Así:
El código ASCII (acrónimo inglés de American Standard Code for Information Interchange
— Código Estadounidense Estándar para el Intercambio de Información ), pronunciado
generalmente [áski], es un código de caracteres basado en el alfabeto latino tal como se usa
en inglés moderno y en otras lenguas occidentales. Fue creado en 1963 por el Comité
Estadounidense de Estándares (ASA, conocido desde 1 969 como el Instituto
Estadounidense de Estándares Nacionales, o ANSI) como una refundic ión o evolución de los
conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se
incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el
código conocido como US-ASCII.
UNAH TEC,Danli. Taller de hardware I.
Como hemos visto anteriormente la tabla sirve para funciones internas de codificación, pero
también el usuario puede utilizar esta tabla para poder introducir un código ASCII (Letra,
Símbolo o Número) en un procesador de texto o DOS, por ejemplo la letra Ñ, suele tener
problemas si se configura mal el teclado, utilizando el código ASCII, presionando la tecla ALT +
el código del carácter nos da automáticamente el có digo en pantalla.
UNAH TEC,Danli. Taller de hardware I.
Fuente de la PC
1. Transformación.
Esta parte del proceso de transformación, como bien indica su nombre, se realiza con un
transformador en bobina. La salida de este proceso generará de 5 a 12 voltios.
2. Rectificación.
La corriente que nos ofrece la compañía eléctrica es alterna, esto quiere decir, que sufre
variaciones en su línea de tiempo, se producen cambios en forma de ciclos de corriente positiva
y negativa, estos cambios se suceden 50 veces por segundo.
3. Filtrado.
Ahora ya, disponemos de corriente continua, que es lo que nos interesaba, no obstante, aún no
nos sirve de nada porque no es constante, y no nos serviría para alimentar a ningún circuito
Lo que se hace en esta fase de filtrado es aplanar al máximo la señal para que no haya
oscilaciones, se consigue con uno o varios condensadores que retienen la corriente y la dejan
pasar lentamente para suavizar la señal, así se logra el efecto deseado.
. Estabilización
Ya tenemos una señal continua bastante decente, casi del todo plana, ahora solo nos falta
estabilizarla por completo, para que cuando aumenta o descienda la señal de entrada a la
fuente, no afecte a la salida de la misma.
Tipos de Fuentes
Las dos fuentes que podremos encontrarnos cuando abramos un ordenador pueden ser:
AT o ATX
Las fuentes de alimentación AT, fueron usadas hasta que apareció el Pentium MMX, es en
ese momento cuando ya se empezarían a utilizar fuentes de alimentación ATX.
Las características de las fuentes AT, son que sus conectores a placa base varían de los
utilizados en las fuentes ATX, y por otra parte, quizás bastante más peligroso, es que la
fuente se activa a través de un interruptor, y en ese interruptor hay un voltaje de 220v, con
el riesgo que supondría manipular la PC.
También destacar que comparadas tecnológicamente con las fuentes ATX, las AT son un
tanto rudimentarias electrónicamente hablando.
Una de las ventajas es que las fuentes ATX no disponen de un interruptor que
enciende/apaga la fuente, sino que se trata de un pulsador conectado a la placa base, y
esta se encarga de encender la fuente, esto conlleva pues el poder realizar
conexiones/desconexiones por software.
No obstante, comentar, que estos datos son muy variables, y únicamente son orientativos,
ya que varía según el número de dispositivos conectado s a la PC.
Conexión de Dispositivos
En Fuentes AT, se daba el problema de que existían dos conectores a conectar a placa base,
con lo cual podía dar lugar a confusiones y a cortocircuitos, la solución a ello es basarse en un
truco muy sencillo, hay que dejar en el centro los cables negros que los dos conecto res tienen,
así no hay forma posible de equivocarse.
P9
Tampoco olvidemos los conectores típicos para Disquetera 3 ½, Discos Duros y Lectoras:
Los equipos modernos utilizan fuentes con conectores adicionales para alimentar los nuevos
Coolers y microprocesadores potentes como los Intel P4 o los AMD FX, el cambio constante de
los microprocesadores dio mayores velocidades al equipo y prestaciones, así aparecieron los
discos rígidos SATA, placas de video PCI-Express, y Periféricos USB, así como también neones
y coolers adicionales que se le pueden instalar al equipo.
Un dato importante a tener en cuenta son los Watts de potencia de la fuente, es decir la capacidad
de entregar corriente eléctrica (alimentación) a los componentes de la PC, sin que la energía se
corte o que por falta de ésta los componentes recalienten. En principio las fuentes eran fabricadas
de 150 a 200 Watts y esto era más q ue suficiente para alimentar todo lo interno, hoy en
día, dada la cantidad de hardware incluido en la PC y sus grandes consumos de energía hacen
muy importante contar con una fuente que aparte de robusta y de buena calidad tenga la
capacidad de alimentar todos los componentes de la PC. Por eso el estándar es de no menos de
400 a 450Watts.
ATX
12 Volt MP.
PCI-E
Adicionales al Motherboard
Código Colores
NUEVO EATX
La identificación de los procesadores Intel no es sencilla para una gran parte de usuarios. Si sumamos los que
forman parte del catálogo actual a los que todavía funcionan en equipos más antiguos, podemos irnos fácilmente a
tres centenares de modelos distintos que dificultan la comprensión de características a la hora de comprar un
nuevo ordenador personal o renovar uno existente.
Y cada uno ‘de su padre y de su madre’… por arquitectura, generación, serie, proceso tecnológico, plataforma,
segmento de mercado, enfoque, características y precios a tener en cuenta. Intel emplea un esquema
alfanumérico para su diferenciación y una página dedicada para verificar que dicho procesador cuenta con las
características que estás buscando, pero ni aún así es sencillo.
Un número de procesador más elevado en una clase o familia suele indicar más potencia o características,
pero no siempre, y además, los múltiples sufijos añadidos y la mezcla de arquitecturas de las últimas
generaciones han complicado la situación.
Los últimos modelos corresponden a la novena generación de procesadores Core y su identificación pasa por
conocer cada una de las partes del esquema alfanumérico empleado por Intel.
A tener en cuenta:
Para esta generación se comercializan dos series, diferenciadas pero que pueden confundir. Por un lado los
Core 9000 para el mercado del gran consumo (i9, i7, i5, i3) y por otro los Core X, procesadores de alto
rendimiento (HEDT) destinados a montaje en máquinas de trabajo profesionales o PCs grado entusiasta y
donde solo verás Core i9
Como hemos dicho queremos que esta guía sea útil y fácil de consultar. Para conseguirlo tenemos que marcar el
ámbito en el que nos vamos a mover, y en este caso hemos apostado por limitarnos a las generaciones de
procesadores que todavía hoy pueden ofrecer una buena experiencia de uso con un sistema operativo moderno.
Esto quiere decir, en resumen, que el límite queda fijado en los procesadores Core 2 Duo y Ahtlon 64 X2, y que
no hablaremos de procesadores más antiguos.
Esas dos generaciones de procesadores fueron rivales directos en su momento y todavía hoy pueden funcionar
sin problemas con Windows 10, pero están limitados a dos núcleos y por tanto no ofrecen un buen rendimiento en
aplicaciones que requieren cuatro núcleos (o cuatro hilos) para trabajar de forma óptima.
Sin más preámbulos pasamos a hacer un repaso exhaustivo de las principales arquitecturas y procesos de
fabricación de ambas compañías siguiendo el límite que hemos establecido al inicio de este apartado.
• Coffee Lake refresh: basada en el proceso de 14 nm++ y utilizada en las gamas Celeron, Pentium, Core
i3, Core i5, Core i7 y Core i9 de novena generación (serie 9xxx).
Dentro de su línea de procesadores HEDT (alto rendimiento) Intel ha lanzado también varias generaciones. Para
simplificar la exposición nos vamos a limitar a los procesadores que todavía se comercializan, ya que los modelos
más antiguos tienen una presencia anecdótica y han sido ampliamente superados por modelos de consumo
general con precios mucho menores.
• Haswell-E: arquitectura basada en el proceso de 22 nm. Se utiliza en los Core i7 Extreme serie 5000.
• Broadwell-E: arquitectura basada en el proceso de 14 nm. Se utiliza en los Core i7 Extreme serie 6000.
• Skylake-X: arquitectura basada en el proceso de 14 nm. Se utiliza en los Core i7 y Core i9 Extreme serie
7000X y 7000XE.
• Kaby Lake-X: arquitectura basada en el proceso de 14 nm+. Se utiliza en los Core i5 y Core i7 serie 7000X.
Como en el apartado de Intel os dejamos a continuación un resumen con las arquitecturas, procesos y líneas de
CPUs que ha comercializado AMD en esa misma franja de tiempo:
• K8: una arquitectura mítica sobre la que se han utilizado procesos de 90 nm y de 65 nm. Dio vida a
procesadores Athlon 64 X2 y Semprom.
• K10: basada en el proceso de 65 nm, 45 nm y 32 nm. Se utilizó en los procesadores Phenom, Phenom II,
Athlon X2, Athlon II y Sempron.
• Bulldozer: basada en el proceso de 32 nm. Ha tenido varias revisiones y se utiliza en los procesadores
AMD FX, Ahtlon II X4 (e inferiores) y en las APUs serie 4000 y superiores (hasta la serie 9000).
• Zen: está basada en el proceso de 14 nm y se utiliza en los nuevos procesadores Ryzen 3, Ryzen 5 y
Ryzen 7 serie 1000, así como en los Ryzen Pro serie 1000, ThreadRipper serie 1000 y en las APUs Ryzen
serie 2000.
• Zen+: está basada en el proceso de 12 nm y se utiliza en los procesadores Ryzen 3, Ryzen 5 y Ryzen 7
serie 2000, así como en los Ryzen Pro serie 2000 y ThreadRipper serie 2000.
Ya hemos visto las diferentes arquitecturas y procesos de fabricación que ha utilizado el gigante del chip desde
2006 hasta hoy. Con esto tenemos la base que necesitamos para profundizar en las características de cada
generación y ver las claves de cada gama y serie.
Con esto tendréis una visión más completa de las claves que definen a cada una de esas gamas y series, y del
rendimiento que podemos esperar de ellas.
• Core 2 Duo: son procesadores antiguos con dos núcleos y dos hilos. Han quedado desfasados, pero
todavía rinden bien con juegos de la generación anterior y en aplicaciones no muy exigentes.
• Core 2 Quad: mantienen el rendimiento base de los anteriores pero suben el total de núcleos e hilos a
cuatro, lo que les permite ofrecer un rendimiento superior en aplicaciones y juegos multihilo. Esto los coloca
en un nivel que todavía hoy podemos considerar como «aceptable».
•
• Celeron: procesadores económicos con dos núcleos y dos hilos que ofrecen un buen rendimiento en
ofimática general, multimedia y navegación. Los modelos para PC de escritorio rinden bien incluso con
juegos que no requieran cuatro hilos.
• Pentium: mantienen dos núcleos y dos hilos y en general no ofrecen una mejora de rendimiento importante
frente a los Celeron hasta la generación Skylake. Con la llegada de Kaby Lake los Pentium G4560 y
superiores saltaron a los dos núcleos y cuatro hilos, mejorando de forma notable su rendimiento, tanto que
son viables para jugar.
• Core i3: cuentan con dos núcleos y cuatro hilos hasta la generación Kaby Lake y dan el salto a los cuatro
núcleos y cuatro hilos en Coffee Lake. Esto, unido a su alto IPC, los convierte en una solución excelente
para los que quieran montar equipos económicos de alto rendimiento y eficiencia. Sirven para jugar y para
trabajar.
• Core i5: una de las gamas con mejor relación rendimiento-precio que ofrece Intel a día de hoy. Hasta la
generación Kaby Lake vienen con cuatro núcleos y cuatro hilos, pero a partir de Coffee Lake han dado el
salto a los seis núcleos y seis hilos. Sirven también para trabajar y para jugar. Los modelos con seis
núcleos están preparados para soportar una transición generacional de forma óptima.
• Core i7: formada por procesadores de cuatro núcleos y ocho hilos hasta la serie Kaby Lake. Suben a 6
núcleos y 12 hilos en Coffee Lake y hasta los 8 núcleos y 8 hilos en Coffee Lake refresh. Ofrecen un alto
rendimiento y están preparados para resistir también una transición generacional, sobre todo en el caso de
los modelos más actuales. Ofrecen una experiencia óptima en juegos y aplicaciones multihilo.
• Core i7 y Core i9 Extreme: son procesadores que tienen entre seis y dieciocho núcleos, aunque gracias a
la tecnología HyperThreading pueden trabajar con el doble de hilos. Sirven para trabajar y para jugar, y se
asientan sobre una plataforma superior que permite utilizar configuraciones de RAM en cuádruple canal y
un mayor número de líneas PCIE.
Ahora entramos de lleno a ver las características clave de las principales gamas y series de procesadores AMD.
Mantendremos el mismo esquema que con sus homónimos de Intel, lo que significa que partiremos de
generaciones bastante antiguas. Poneos cómodos, que empezamos.
• Athlon 64 X2: rivales de los Core 2 Duo. Suman dos núcleos y dos hilos y su rendimiento está por debajo
de aquellos, así que podemos esperar una experiencia un poco peor que con los equivalentes de Intel.
• Phenom II: llegaron en una época de transición, así que rivalizaron con los Core 2 Quad y los Core de
primera generación. Suman entre dos y seis núcleos y ofrecen un rendimiento bruto superior al de los
Athlon 64 X2. También están desfasados, pero los modelos con cuatro y seis núcleos todavía son viables
en una gran cantidad de aplicaciones y de juegos.
• Athlon: hay versiones que tienen entre dos y cuatro núcleos. El rendimiento de las versiones basadas en
Bulldozer y sus derivados es bueno en cualquier tarea básica y los modelos de cuatro núcleos ofrecen un
desempeño aceptable incluso en juegos actuales.
• APU: es una solución que integra procesador y unidad gráfica en un mismo encapsulado. Existen
configuraciones son muy variadas tanto por arquitectura CPU y GPU como por especificaciones. Los
modelos menos potentes y más antiguos se basan en Bulldozer a nivel CPU y en Terascale 3 a nivel GPU,
mientras que las más actuales utilizan la arquitectura Zen y Radeon RX Vega, respectivamente. Estas
variantes, las más actuales, montan procesadores de hasta 4 núcleos y 8 hilos y unidades gráficas con 704
shaders, lo que las convierte en soluciones bastante potentes.
• AMD FX 4000: suman dos módulos completos y tienen cuatro núcleos de enteros a unas frecuencias de
trabajo muy altas, además de multiplicador desbloqueado. Ofrecen un rendimiento aceptable incluso en
juegos actuales.
• AMD FX 6000: cuentan con tres módulos completos y tienen seis núcleos de enteros a unas frecuencias de
trabajo muy altas, además de multiplicador desbloqueado como los anteriores. Son capaces de mover
muchas aplicaciones y juegos ofreciendo una buena experiencia.
• AMD FX 8000-9000: tienen cuatro módulos completos y ocho núcleos de enteros. También trabajan a
una frecuencia muy alta y soportan overclock. Ofrecen todavía un rendimiento que podemos considerar
como bueno en casi cualquier circunstancia.
• Ryzen 3: representan un salto importante a nivel de arquitectura. Su IPC mejora un 52% frente a los
FX, tienen cuatro núcleos y son económicos. Pueden ofrecer una experiencia muy buena en juegos y
aplicaciones actuales.
• Ryzen 5: hay dos variantes, los modelos 1500 e inferiores, que suman 4 núcleos y 8 hilos, y los
modelos 1600 y 2600, que tienen 6 núcleos y 12 hilos. Ofrecen un rendimiento muy alto y tienen un
precio muy bueno. Sirven para trabajar y para jugar sin problemas.
• Ryzen 7: suman 8 núcleos y 16 hilos. Como todos los procesadores Ryzen soportan overclock y
ofrecen un excelente rendimiento en cualquier circunstancia. Son de lo mejor que podemos encontrar
en el mercado en relación calidad-precio.
• Threadripper 1000: utilizan la arquitectura Zen pero cuentan con hasta 16 núcleos y 32 hilos. Se
integran en una plataforma superior que permite utilizar configuraciones de memoria en cuádruple
canal y ofrecen una mayor cantidad de líneas PCIE.
• Threadripper 2000: una evolución de los anteriores. Fabricados sobre la arquitectura Zen+ y con hasta 32
núcleos y 64 hilos. Pensados para profesionales que utilicen aplicaciones multihilo muy exigentes.
Intel Athena Project es un proyecto de la firma norteamericana que se espera que dé resultados en 2020. A partir
de ese...
La memoria RAM es conocida como memoria volátil lo cual quiere decir que los datos no se guardan de
manera permanente, es por ello, que cuando deja de existir una fuente de energía en el dispositivo la información
se pierde. Asimismo, la memoria RAM puede ser reescrita y leída constantemente
Existen 2 tipos básicos de memoria RAM; RAM dinámica (DRAM) y RAM estática (SRAM), ambas utilizan
diferentes tecnologías para almacenar los datos. La RAM dinámica (DRAM) necesita ser refrescada 100 de veces
por segundos, mientras que la RAM estática (SRAM) no necesita ser refrescada tan frecuentemente lo que la
hace más rápida pero también más cara que la memoria RAM dinámica.
DDR conocida como SDRAM (Synchronous Dram) es un tipo de memoria RAM, dinámica que es casi un 20%
más rápida que la RAM EDO. Esta memoria entrelaza dos o más matrices de memoria interna de manera que
mientras se accede a una matriz, la próxima se está preparando para acceder, dicha memoria permite leer y
escribir datos a 2 veces la velocidad buz.
DDR2 son unas mejoras de la memoria DDR que permite que los búferes de entrada – salida funcionan al doble
de la frecuencia del núcleo, permitiendo que durante cada ciclo de reloj se realizan 4 transferencias. Una memoria
DDR a 200 MHZ reales entregaba 400 MHZ nominales, la DDR2 con esos mismos 200 MHZ entrega 800 MHZ
NOMINALES.
DDR3 puede ser 2 veces más rápida que la memoria DRR2, la DDR3 teóricamente podía transferir datos a una
tasa de reloj efectiva de 800-2600 MHZ, comparado con el rango de DDR2 de 400-1200MHZ o 200-533MHZ del
DDR2.
Memoria caché o RAM caché un caché es un sistema especial de almacenamiento de alta velocidad, puede ser
tanto un área de reservada de la memoria principal como un dispositivo de almacenamiento de alta velocidad
independiente. Una memoria caché es una parte de memoria RAM estática de alta velocidad (SRAM) más que la
lenta y barata RAM dinámica (DRAM) usada como memoria principal. La memoria caché es efectiva debido a que
los programas acceden una y otra vez a los mismos datos e instrucciones.
La memoria RAM sirve para mejorar la velocidad de respuesta al momento de utilizar algún programa en el
ordenador ya que la información que necesita dicho programa para hacerlo funcionar se encuentra almacenada en
la memoria RAM, de esta manera, al ejecutar el programa se traslada al procesador todas las instrucciones que
necesitan ser ejecutadas realizando diferentes transmisiones de datos según sea necesario, en consecuencia, la
memoria RAM y el procesador interactúan entre si intercambiando los datos solicitados.
La memoria RAM almacena dicha información y le envía al procesador los datos que necesitan ser procesados,
por lo tanto, mientras la memoria posea mayor velocidad de transmisión y mayor capacidad de almacenamiento el
usuario podrá utilizar más programas a la vez y de manera más rápida.
• DRAM (Memoria de tipo síncrono): La gran diferencia con las anteriores versiones de DRAM es que esta
cuenta con un reloj interno que es capaz de sincronizar la frecuencia de la memoria con el procesador para
mejorar los tiempos de acceso y la eficiencia de la comunicación. Este es el tipo de memoria RAM Que se
utiliza a día de hoy, y existen varias versiones de ella que ahora veremos.
• SDR RAM: éstas fueron las antecesoras de las conocidísimas DDR RAM y son de tipo síncrono. Se
construyeron bajo un encapsulado DIMM de 168 contactos y hasta hace unos 10 año eran las que tenían
nuestros ordenadores, ya que fueron utilizadas en los AMD Athlon y los Pentium 2 y 3. Solamente admitían
un tamaño por módulo de 512 MB.
Debido a que son las memorias RAM actuales, hemos decidido meterlas en un apartado aparte, ya que hay
bastantes variantes dentro de esta familia de memorias RAM. Todas ellas son de tipo síncrono, y se han ido
utilizando durante estos años atrás hasta el día de hoy.
Las memorias DDR permiten la transferencia de información mediante dos canales distintos de forma
simultánea en un mismo ciclo de reloj (Double Data), algo que nos permite alcanzar mayor rendimiento y
velocidades de acceso. Por supuesto existen barias versiones de estas memorias RAM utilizadas en los
ordenadores actuales.
Esta es la primera versión de la memoria RAM DDR que conocemos actualmente. Están montadas en módulos
DIMM de 182 contactos y SO-DIMM de 200 pines. Estas memorias funcionan a 2,5 Voltios y cuentan con una
velocidad de reloj de entre 100 MHz y 200 MHz.
Las DDR RAM fueron las primeras en implementar la tecnología Dual Channel, que permite repartir los módulos
de memoria RAM en dos bancos o ranuras para intercambiar datos con el bus en dos canales simultáneos. Por
ejemplo, si los módulos son de 64 bits, tendremos un ancho de bus de intercambio de 128 bits. Han existido las
siguientes configuraciones de memoria RAM en cuanto a velocidad:
Son la segunda versión de las memorias DDR, y cuentan con la novedad respecto a las anteriores de que son
capaces de doblar los bits transferidos a 4 en lugar de 2 por cada ciclo de reloj.
El encapsulamiento utilizado también es de tipo DIMM, pero con 240 contactos y la mueca en un lugar diferente
para diferenciarlas de las anteriores. Estos módulos trabajan a 1,8 V, por lo que consumen menos que las DDR.
También existen variantes con encapsulado So-DIMM y Mini DIMM para portátiles y versiones DDR2L para
portátiles con consumos de 1,5 V. Una memoria DDR2 no se puede instalar en una ranura DDR ni viceversa,
ya que no son compatibles entre ellas.
Compilo: Msc : Pedro Martin Fiallos Página 23
UNAH TEC,Danli. Taller de hardware I.
En este caso se mejora la eficiencia energética, al trabajar a un voltaje de 1,5 V en la versión de escritorio. El
encapsulado sigue siendo de tipo DIMM de 240 pines y la capacidad por módulo de memoria es de hasta 16 GB.
Tampoco son compatibles con el resto de especificaciones.
Un aspecto negativo de las versiones siguientes a las DDR es que, a pesar de que la velocidad sube, también lo
hace la latencia en ellas, aunque en esencia, son más veloces siempre que la generación anterior.
En esta nueva versión de memoria RAM, se introdujeron unas cuantas variantes en función de las necesidades
de los equipos portátiles y la invención de los Mini PC (NUC), que son básicamente equipos de sobremesa, pero
de dimensiones muy pequeñas y consumos muy bajos.
• DDR3: son las tradicionales de ordenadores de escritorio en encapsulado DIMM y trabajando a 1,5 V.
• DDR3L: en este caso funcionan a 1,35 V y están orientadas a portátiles, NUC y servidores bajo
encapsulados So-DIMM, SP-DIMM y Mini DIMM.
• DDR3U: bajan hasta los 1,25 V y no son demasiado utilizadas.
• LPDDR3: esta memoria consume solamente 1,2 V y están pensadas para su uso en Tablet y Smartphone.
Además, consumen muy poco voltaje cuando no están en uso, por lo que son muy eficientes. Este tipo de
chips están directamente soldados a la PCB del dispositivo.
Estas memorias operan a una frecuencia mayor y están montadas en un encapsulado DIMM de 288 pines. A
pesar de que la frecuencia aumenta de forma considerable, estas memorias son aún más eficientes, ya que
trabajan a 1,35 V en PC de escritorio y a 1,05 en los casos de portátiles. Las versiones más potentes de hasta
4600 MHz trabajan a 1,45 V.
Otra de las novedades que implementan las DDR4, es que son capaces de funcionar en triple y cuádruple canal
(Triple Channel y Quad Channel). Además, ya tenemos posibilidad de montar módulo de hasta 16 y 32 GB en un
solo encapsulado.
• DDR4: son las que se utilizan en los equipos de escritorio, vienen en un módulo DIMM de 288 contactos y
operan a voltajes de entre 1,35 y 1,2 V.
• DDR4L: Estas memorias están diseñadas para portátiles y servidores y están montadas en un módulo So-
DIMM a 1,2 V.
• DDR4U: Al igual que ocurre con las anteriores, se utilizan para servidores fundamentalmente y también
operan a 1,2 V. Su uso es escaso y están más extendidas las DDR4L.
• LPDDR4: Están diseñadas para dispositivos móviles y trabajan a 1,1 o 1,05 V, aunque son menos veloces
que las DDR4 de escritorio como es normal. Trabajan a unos 1600 MHz, aunque también existe otra
versión llamada LPDDR4E que alcanza los 2133 MHz.
CL15 = LATENCIA
La placa base, placa madre o tarjeta madre (en inglés motherboard, mainboard) sirve como
Estas tarjetas de expansión suelen realizar funciones de control de periféricos tales como
monitores, impresoras, unidades de disco, etc.
• Conexión física.
• Administración, control y distribución de energía eléctrica.
• Comunicación de datos.
• Temporización.
• Sincronismo.
• Control y monitoreo.
Para que la placa base cumpla con su cometido lleva instalado un software muy básico
denominado BIOS.
Arquitectura Abierta:
Gran cantidad de Zócalos
de expansión para cambiar
componentes.
El motherboard es mucho más
importante d e lo que
p a r e c e ; Hoy en día con el
concepto de arquitectura abierta
es posible incorporar o
intercambiar partes de la PC
luego de su compra o armado,
actualizar el equipo, de esta
manera distintos fabricantes
pueden producir partes para
incorporar en la PC.
Recordemos que las primeras
PC traían sus componentes
soldados a la Placa Madre lo
cual dificultaba su cambio.
Vista Lateral
Vista Superior
Este concepto se creo con la idea de abaratar el costo de los equipos, una generación de PC
salió al mercado con motherboards que además de sus componentes habituales que a
continuación veremos incluían en la misma placa de fábrica video, sonido, modem y red. De
esta manera un motherboard bajaba el costo final ya que uno se olvida de la compra del resto
de los componentes habituales. En su contra podemos decir que estos componentes son de
calidad media lo cual limita las prestaciones de la PC, también se ve reducido en espacio físico
al incorporar estos integrados y conectores adicionales para los que los fabricantes eliminaron
zócalos de expansión, esto limita el concepto de arquitectura modular o el intercambio de
partes.
RED
mouse PS/2 USB Puerto Paralelo SONIDO
Video
Mouse Serie
Teclado
TV OUT
El Diseño
El formato de la placa esta sujeta a un estándar de fabricación que se debe respetar para la fácil
instalación en el gabinete y su sujeción, referente a su forma rectangular y orificios de soporte.
Así como su compatibilidad a los componentes tanto internos como externos por ejemplo
zócalos de expansión PCI Express para las nuevas placas de video o conectores USB para una
cámara digital o impresora entre otras; es te formato es fundamental para la compatibilidad con
todo el hardware del mercado, así también determinados componentes requieren un diseño único
partiendo por ejemplo el zócalo del microprocesador que cada modelo del mercado tiene su propio
socket.
Chip
controlador Panel
Red Trasero
Zócalos PCI
Pila
Chipset
Conectores
USB Zócalos
Frontales Memorias
Conector ATX
RomBios
Conectores IDE Conector Floppy
Placas ATX:
El formato ATX (siglas de Advanced Technology Extended') es presentado por Intel en 1995. Con
un tamaño de 12 pulgadas de ancho por 9,6 pulgadas de profundo, este nuevo formato se
resuelven todos los inconvenientes que perjudicaron a la ya mencionada placa. Los puertos más
habituales (impresora Centronics, RS-232 en for mato DB-9, la toma de joystick/midi y de tarjeta
de sonido, los puertos USB y RJ-45 (para red a 100) y en algunos casos incluso la salida de
monitor VGA, se agrupan en el lado opuesto a los slots de ampliación. El puerto DIN 5 de
teclado es sustituido
por las tomas PS/2
de teclado y mouse
(llamadas así por
introducirlas IBM en su
gama de ordenadores
PS/2 y rápidamente
adoptada por todos los
grandes fabricantes) y
situados en el mismo
bloque.
La nueva fuente,
además del interruptor
físico de corriente
como en la AT, tiene
un modo de apagado
similar al de los
electrodomésticos de
consumo, alimentado
a la placa con una
pequeña corriente que
permite que responda
a eventos (como una
señal por la red o un
mando a distancia) encendiéndose o, si se ha habilitado el modo de hibernado heredado de las
portátiles, restablecer el trabajo en el punto dond e se dejó.
Cabe mencionar la versión reducida de este formato, las placas mini ATX.
Micro ATX:
El formato microATX (también conocida como µATX ) es un formato de placa base pequeño
con un tamaño máximo de 9,6 x 9,6 pulgadas (244 mm x 244 mm) empleada principalmente en
cajas tipo cubo y SFF. Debido a sus dimensiones sólo tiene sitio para 1 o 2 slots PCI y/o AGP,
por lo que suelen incorporar puertos FireWire y USB 2 en abundancia (para permitir conectar
unidades externas de disco duro y regrabadoras de DVD).
Placa LPX:
Basada en un diseño de Western Digital, permite el uso de cajas más pequeñas en un a placa
ATX situando los slots de expansión en una placa especial llamada riser card (una placa de
expansión en sí misma, situada en un lateral de la placa base). Este diseño sitúa a las placas
de ampliación en paralelo con la placa madre en lugar de en perpendicular. Generalmente es
usado sólo por grandes ensambladores como IBM, Compaq, HP o Dell, principalmente en sus
equipos SFF (Small Form Format o cajas de formato pequeño). Por eso no suelen tener más de
3 slots cada uno.
Como podemos apreciar en las distintas imágenes, ca da Placa tiene un diseño especial, el cual
se asemeja a otras pero nunca es el mismo. Cada fabricante decide que componentes utilizar
para lograr la máxima compatibilidad y rendimiento con la tecnología del momento. Esta
relación se ve reflejada directamente en el precio final de la Placa.
El Chipset:
El Circuito Integrado Auxiliar o Chipset es un conjunto de circuitos integrados que se
encarga de realizar las funciones que el microprocesador delega en ellos. Chipset traducido
literalmente del inglés significa conjunto de circuitos integrados. Se designa circuito integrado
auxiliar al circuito integrado que es periférico a un sistema pero necesario para el
funcionamiento del mismo. La mayoría de los sistemas necesitan más de un circuito integrado
auxiliar; sin embargo, el término chipset se suele emplear en la actualidad cuando se habla sobre
las placas base de las PCs IBM.
En los últimos modelos de placas el Southbridge aca para cada vez mayor número de
dispositivos a conectar y comunicar por lo que fabricantes como AMD o VIA han desarrollado
Chipset Simple:
Un Solo C.I.
Ranura, en español. Se trata de cada uno de los alojamientos que tiene la placa madre en los
que se insertan las tarjetas de expansión. Todas estas ranuras están conectadas entre sí y un
ordenador personal tiene generalmente
ocho, aunque puede llegar a doce.
1) Isa Simple.
2) Isa Doble.
3) VESA.
4) PCI.
5) AGP.
6) CNR o AMR.
7) PCI-E
Éste Bus se identifica en una motherboard, porque a sus líneas están conectados por soldadura,
varios zócalos conectores (Slots) de color negro, donde pueden insertarse plaquetas de
interfaces de periféricos. La función del Bus ISA, es permitir la comunicación entre la porción
central, ubicada en la plaqueta principal, y los registros ports de dichas interfaces.
Los zócalos vinculados al bus, permiten expandir el número de periféricos de una PC, de donde
resulta también su denominación de Bus de Expansión, habiendo sido creado por IBM para las
primeras PC, de donde resulta también su denominación de "I/O Channell". Si bien IBM nunca
publicó las normas mecánicas y eléctricas que debían cumplir los conectores, y el tipo de señal a
transmitir por cada línea del Bus, éste se convirtió en un Standard de hecho, conocido como
Industry Estándar Architecture (ISA), siendo otras denominaciones: Bus AT, Bus del Sistema,
Bus Convencional, Bus de E/S e IBM PC Bus.
Éstos se parecen a los conectores del Bus MCA de IBM, son de color marrón, tienen cincuenta y
seis contactos por lado, y están dispuestos cerca de la CPU alineados con los zócalos del Bus
ISA. Acorde a los estándares actuales, su número má ximo es de tres. Único con el zócalo Isa en
conjunto lograba un mejor desempeño en velocidad de datos. Poco tiempo después se lo
reemplazo definitivamente por el Zócalo PCI.
Local Bus
En 1992, la compañía Intel lideró la creación de un grupo que integraba fabricantes de hardware
para la industria de la PC. El Peripherial Component Interconnect (PCI) Bus, es otra forma de
acceder al Bus Local desarrollado para el Pentium, después de que el Bus VESA dominara el
mercado de las 486. Es apto para PC y otros tipos de computadoras.
A diferencia del VESA, el bus se acopla al bus local a través de un chip controlador especial, y
está pensado para soportar en sus zócalos (color blanco, de 124 conectores para 32 bits), además
de las interfaces de video, disco rígido y r ed local, las plaquetas para multimedia, audio,
video y otras.
La interfaz PCI
PCI ("Peripheral Component Interconnect") es básicamente una especificación para la
interconexión de componentes en ordenadores. Ha dado lugar a un bus PCI, denominado
también Mezzanine, en español entresuelo, porque funciona como una especie de nivel añadido
al bus ISA/EISA tradicional de la placa madre. Es un bus de 32 bits que funciona a 5 V, 33 MHz,
con una velocidad de transferencia inicial de 133 Mb/s (Megabits por segundo).
• Configuración por software (sin jumpers): PCI se creó pensando en el estándar PnP
("Plug and Play"), por lo que los dispositivos PCI pueden ser configurados
exclusivamente mediante software (aunque algunos fabricantes rompen la norma). Cada
dispositivo PCI debe estar diseñado para solicitar de forma inequívoca los recursos que
necesita (Zona de memoria mapeada, direcciones E/S, canales DMA, Interrupciones,
etc.).
Esta diferencia en prestaciones del PCI lleva a que muchos fabricantes cambien el color
tradicionalmente blanco, por otros.
AMR Bus
AMR del inglés Audio Modem Riser. Es una ranura de expansión en la placa madre para
dispositivos de audio como tarjetas de sonido o modems, lanzada en 1998, cuenta con 16 pines y
es parte del estándar de audio AC97 aun vigente e n nuestros días, generalmente utilizados en
Motherboards de tipo Genéricos. En un principio se diseñó como ranura de expansión para
dispositivos económicos de audio o comunicaciones ya que estos harían uso de los recursos de
la máquina como el microprocesador y la memoria RAM . Esto tuvo poco éxito ya que fue
lanzado en un momento en que la potencia de las máq uinas no era la adecuada para soportar
esta carga y el escaso soporte de los drivers para estos dispositivos en sistemas operativos que
no fuesen Windows.
CNR Bus
CNR Del inglés Comunication and Network Riser. Se trata de una ranura de expansión en la
placa madre para dispositivos de comunicaciones como modems, tarjetas Lan o USB. Fue
introducido en febrero del 2000 por Intel en sus placas para procesadores Pentium y se trataba
de un diseño propietario por lo que no se extendió más allá de las placas que incluían los
chipsets de Intel.
Adolecía de los mismos problemas de recursos de los dispositivos diseñados para ranura AMR.
Puerto especial para tarjetas especiales como modems.
AMR
AMR
CNR
CNR
Un par de tarjetas de vídeo bastante simples. Una es AGP y otra PCI Express
La tarjeta de vídeo es un dispositivo electrónico que se encarga de regular y determinar la forma en cómo se
mostraran las imágenes y texto que se observa en el monitor de la computadora. Son las que envían señal a
nuestro monitor, televisor o proyector. La calidad de la tarjeta de video en una computadora influye sobre todo a
la hora de jugar, editar vídeo o 3D.
Aquí podéis ver una tarjeta de Vídeo con DVI y HDMI. Generalmente cuanto mas caras las
tarjetas mas salidas suelen ofrecer.
Puerto VGA o estándar: Es el conector donde se instala el cable de la computadora que envía la
señal de salida al monitor.
Puerto DVI: (Digital Video Interface) es un conector de salida para monitores digitales planos.
Puerto HDMI: (High Definition Multimedia Interface) es un conector de salida cuya interfaz multimedia
de alta calidad se puede utilizar para conectar cualquier dispositivo que soporte esta tecnología de
audio y video digital.
Puerto TV: Algunas de las tarjetas de video que hay en el mercado disponen de este componente
para que se pueda ver televisión, pero se necesita de un chip que convierta la señal de audio digital
en análoga compatible con la TV para poder lograrlo.
Memoria: Las tarjetas de vídeo cuentan con su propia memoria en la cual se almacena la
información para posteriormente mostrarla, entre más memoria tenga una tarjeta de vídeo mayor
cantidad de datos se podrá procesar y mejor calidad se mostrara en el monitor, la mayoría de las
tarjetas utilizan memoria de tipo SDRAM, no confundir con memoria RAM, (Synchronous Dinamic
Random Access Memory) o DDR SDRAM (Double Data Rate), actualmente se pueden encontrar
tarjetas de video de 512mb, 1Gb y hasta más de memoria, las motherboard que ya traen
incorporada tarjeta de vídeo por lo regular tienen de 64mb a 128mb de memoria.
Chip de video. Este prácticamente es el CPU de la tarjeta de vídeo y se le conoce con el nombre de
GPU (Graphics Processing Unit) y es el encargado de generar los cálculos necesarios para mostrar
una imagen lo que ahorra tiempo y energía al microprocesador de la computadora.
Memor
ias
El puerto AGP (Accelerated Graphics Port en ocasiones llamado Advanced Graphics Port)
es un puerto (puesto que solo se puede conectar un dispositivo [Solo video], mientras que
en el bus se pueden conectar varios) desarrollado por Intel en 1996 como solución a los
cuellos de botella que se producían en las tarjetas gráficas q ue usaban el bus PCI. El diseño
parte de las especificaciones del PCI 2.1
Es el tipo de puerto de gráficos más moderno y velo z que existe, pero ya esta
siendo reemplazado por los más veloces y actuales PCI-E. A lgunas tarjetas multiplican su
velocidad
2x, 4x y 8x. AGP2x=512 Mb/seg Agp4x= 1Gb/seg
Agp8x=2Gb/seg.
Radeon
NVIDIA GE FORCE
UNAH TEC,Danli. Taller de hardware I.
La clave del AGP es la velocidad con la que se comunica con la memoria principal. Esto mejora
funciones 3D como el mapeado de texturas, que son almacenados en el frame buffer.
PCI Express:
Introducción
PCI Express (denominado aún a veces por su nombre clave 3GIO, por "tercera generación de
E/S") es el sucesor de la tecnología PCI, disponible en las máquinas de escritorio desde 1992.
PCI Express está pensado para sustituir no sólo al bus PCI para dispositivos como Modems y
tarjetas de red sino también al bus AGP, lugar de conexión para la tarjeta gráfica desde 1997. Al
contrario que su predecesor paralelo, PCI Express es un sistema de interconexión serie punto a
punto, capaz de ofrecer transferencias con un altísimo ancho de banda, desde 200MB/seg. Para
la implementación 1X, hasta 4GB/seg. Para el PCI Express 16X que se empleará con las
tarjetas gráficas.
La notación 1X y 16X se refiere al ancho del bus o número de líneas disponibles. La conexión
en el PCI Express es además, bidireccional lo que p ermite un ancho de banda teórico de hasta
8GB/seg. Para un conector 16X, o unos asombrosos 16GB/seg. Para el actual máximo de 32X.
PCI Express también incluye características novedosas, tales como gestión de energía,
conexión y desconexión en caliente de dispositivos (como USB), y la capacidad de manejar
transferencias de datos punto a punto, dirigidas todas desde un host. Esto último es importante
porque permite a PCI Express emular un entorno de red, enviando datos entre dos dispositivos
compatibles sin necesidad de que éstos pasen primero a través del chip host (un ejemplo sería
la transferencia directa de datos desde una capturadora de vídeo hasta la tarjeta gráfica, sin que
éstos se almacenen temporalmente en la memoria principal).
PCI Express también optimiza el diseño de placas madre, pues su tecnología serie precisa tan
sólo de un único cable para los datos, frente a los 32 necesarios para el PCI clásico, el cual
también necesitaba que las longitudes de estos fuesen extremadamente precisas. La
escalabilidad es otra característica clave, pues se pretende que las versiones posteriores de
PCI Express sustituyan cualquier característica que PCI o, en el segmento de servidores, PCI-
X, puedan ofrecer.
Dado que PCI Express es, a nivel físico un enlace chip a chip podría ser usado, en teoría,
para sustituir a la gran cantidad de tecnologías de interconexión actuales; sin embargo, está
siendo orientado únicamente hacia tareas muy específicas.
UNAH TEC,Danli. Taller de hardware I.
Arquitectura
Un simple canal en PCI-Express ofrecerá inicialmente una velocidad de 2,5 Gbits/s en cada
dirección. Cada ruta emplea dos pares de hilos (transmisión y recepción), ofreciendo un
rendimiento efectivo de 200MBytes/s en cada dirección una vez factorizamos las sobrecargas
del protocolo. No obstante, sus creadores afirman que tendrá una escalabilidad límite que
permitirá hasta, al menos, 10Gbits/s en cada ruta y por cada dirección.
La diferencia más obvia entre PCI-Express y su antecesor es que, mientras PCI emplea una
arquitectura en paralelo, su sucesor utiliza una arquitectura serie punto a punto o conmutada.
Una ventaja del bus Serie frente al Paralelo es el alto ancho de banda que se puede conseguir
con un número mucho menor de señales. Dichas conexiones no llegan a situaciones llamadas
"delay skew", donde los bits en paralelo llegan en distintos instantes de tiempo y han de ser
sincronizados. Además, son más baratas de implement ar. Ciertamente, los interfaces paralelos
pueden ser extremadamente veloces y muy efectivos para algunos interfaces a nivel de chips, o
en la tecnología SCSI por ejemplo.
En la siguiente tabla podemos ver el esquema de los pines genéricos de conexión (es decir,
que poseerán todos los slots de PCI-Express independientemente de la amplitud 1x, 2x, 4x,
etc.) y que serán ampliados conforme el bus crezca su ancho de banda.
Con tantas características nuevas y ancho de banda para derrochar, PCI Express es un gran
salto sobre PCI y AGP. Sin embargo, mantiene compatibilidad con el software PCI, al mantener
los modelos de inicialización y memoria, lo que significa que los drivers y sistemas operativos no
tendrán muchos problemas a la hora de soportar e l nuevo sistema.
Algunos de los más beneficiados por el avance de PC I Express serán los ya mencionados ATI
y NVIDIA, así como otros fabricantes de tarjetas gráf icas. Dado que el conector PCI Express
NO será compatible con las tarjetas AGP actuales, habr á que adaptar las tarjetas al bus, en
caso de que se desee un cambio de placa o bien de tarjeta.
Geforce Gt-Gtx-Rtx: es la nomenclatura que identifica a las tarjetas gráficas NVIDIA de consumo general.
GTX: se refiere a los modelos que ofrecen un rendimiento lo bastante bueno como para jugar con garantías.
GT: se refiere a modelos de baja potencia y bajo consumo, cuyo rendimiento es inferior al de las GTX.
RTX: introducido recientemente. Se refiere a modelos de alto rendimiento que son compatibles con trazado de
rayos (raytracing).
Junto al nombre GeForce GTX o RTX tenemos una serie de números que como dijimos representan la
generación, y también la gama en la que se ubica cada modelo concreto.
Ahora tenemos claro el tema de generaciones, pasaremos al lado de la gamas que son los números que vienen
después del que indica la ganeracion.
4Gb, se hace referencia a la cantidad de vram que tiene la tarjeta, también conocida como la vram, es un tipo de
memoria RAM que utiliza el controlador gráfico para poder manejar toda la información visual que le envía la CPU
del sistema.
128bits, Es el bus que se comunica la GPU con su propia memoria (la que va incluida en la tarjeta gráfica).
Cuanto más grande sea, más datos puede enviar por segundo y mejor, Es algo interno de la gráfica, no lo utiliza para
comunicarse con el resto del sistema, por ello debe ser lo más rápido posible para permitir que la GPU procese
correctamente.
Lista de sockets
Existen muchos tipos de sockets, usados por diferentes CPUs, listado hasta la fecha por orden
de antigüedad.
Los primeros Zócalos, no tenían ningún mecanismo que permitiera la fácil instalación del
Microprocesador, la tarea de colocarlo en el zócalo era fácil pero riesgosa a la vez, cualquier error
producía el quiebre de los pines. Con la introducción del ZIF (del inglés Zero Insertion Force) en
el mercado, se conecta un microprocesador con un mecanismo que permite una fuerza de
inserción nula, es decir la parte superior del Socket se desliza y permite una fácil colocación sin
riesgo alguno, gracias a un sistema mecánico es posible introducir el microprocesador sin
necesidad de fuerza alguna evitando así el riesgo de ruptura de una de sus pines de contacto.
Nombre: Socket 1
Pines: 169 LIF y 169 ZIF
Voltajes: 5 V
Bus: 16, 20, 25, 33 MHz
Multiplicadores: 1x - 3x
Micros soportados:
486SX (16~33 MHz)
486SX2 (50~66 MHz)
486SX OverDrive (P 25~33 MHz)
486SX2 OverDrive (P 50 MHz)
486DX (20~33 MHz
486DX2 (50~66 MHz)
Nombre: Socket 3
Pines: 237 LIF y 237 ZIF
Voltajes: 3.3 / 5 V
Bus: 25, 33, 40, 50 MHz
Multiplicadores: 1x - 3x
Micros soportados:
486SX (25~33 MHz)
486SX2 (50~66 MHz)
486SX OverDrive (P 25~33
MHz) 486SX2 OverDrive (P 50
MHz) 486DX (25~50 MHz)
486DX2 (50~80 MHz)
486DX4 (75~120 MHz)
Sockets de 5ª generación
Nombre: Socket 7
Pines: 296 LIF y 321 ZIF
Voltajes: Split, STD, VR, VRE, VRT (2.5 - 3.3 V)
Bus: 40, 50, 55, 60, 62, 66, 68, 75, 83, 90, 95, 100, 102, 112, 124
Multiplicadores: 1.5x - 6.0x
Micros soportados: Pentium
P45C (75~200 MHz) Pentium MMX
P55C (166~266 MHz) Pentium
OverDrive (P125~166 MHz) AMD K5
(75~200 MHz)
K6 (166~300 MHz) K6-
2 (266~570 MHz) K6-
2+ (450~550 MHz) K6-
III (400~450 MHz)
K6-III+ (450~500 MHz)
Cyrix 6x86 PR90+ a
PR200+
Cyrix 6x86L PR120+ a PR200+
Cyrix 6x86MX (PR166+ a
PR133+) Cyrix MII (233~433
MHZ)
Rise mP6 (166~266 MHz)
Winchip (150~240 MHz)
Winchip2 (200~240 MHz)
Winchip2A/B (200~300 MHz)
UNAH TEC,Danli. Taller de hardware I.
Notas: A las versiones superiores a 100 MHz de FSB se les llamó "Socket Super 7"
Socket 8: Socket válido para el micro de Intel "Pentium Pro ", muy famoso a pesar de su
antigüedad ya que fue el primero que implementaba l a caché dentro del encapsulado del
micro y permitía la comunicación a la misma velocidad.
Sockets de 6ª generación:
Sockets de 7ª generación:
Nombre: Socket A/462
Pines: 462 ZIF
Voltajes: VID VRM (1.1 - 2.05 V)
Bus: 1002, 133x2, 166x2, 200x2 MHz
Multiplicadores: 6.0x - 15.0x
Micros soportados:
Duron (Spitfire, 600-950 MHz),
Duron (Morgan, 1 - 1'3 GHz)
Duron (Appaloosa, 1'33 GHz)
Duron (Applebred, 1'4 - 1'8 GHz)
Athlon (Thunderbird 650 MHz - 1'4 GHz)
Atlon 4 Mobile (Palomino)
Athlon XP (Palomino, 1500+ a
2100+) Athlon XP (Thoroughbred A, 2200+)
Athlon XP (Thoroughbred B, 1600+ a
2800+) Athlon XP (Barton, 2500+ a 3200+)
Athlon MP (Palomino, 1 GHz a 2100+)
Athlon MP (Thoroughbred, 2000+ a
2600+) Athlon MP (Barton, 2800+)
1 GHz a 2100+)
Sempron (Thoroughbred 2200+ a 2300+)
UNAH TEC,Danli. Taller de hardware I.
Las placas base para el mercado de ordenadores de escritorio suelen tener dos tipos de sockets para montar el
procesador: PGA o LGA. Y cada uno de estos tipos de sockets tiene sus propias ventajas e inconvenientes a la
hora de trabajar con ellos. Sin embargo, ¿cuál de ellos es mejor para nuestros procesadores? Eso es lo que vamos
a intentar dilucidar en el artículo de hoy.
Como bien sabéis, toda placa base necesita tener un socket al que se conecte el procesador. En el mercado de
escritorio y servidores, donde es frecuente que los usuarios cambien el modelo de procesador, manteniendo la
placa base, estos sockets son el PGA (Pin Grid Array) y el LGA (Land Grid Array). Sin embargo, en el mercado de
portátiles, donde los procesadores suelen ir soldados a las placas base, el socket usado es el BGA (Ball Grid
Array).
UNAH TEC,Danli. Taller de hardware I.
Es habitual que una marca se especialice el lanzar sus procesadores para un único tipo de socket. Por ejemplo, Intel
lleva usando el socket LGA desde los tiempos de los antiguos Pentium 4 con núcleo Prescott. Y AMD ha usado el
socket PGA durante toda su existencia para la gama de escritorio. Aunque, por otro lado, la gama HEDT y la gama
de procesadores para servidores de esta marca, usan el socket LGA.
El socket PGA se caracteriza porque los pines de contacto entre el procesador y la placa base suelen situarse en el
procesador, no en la placa base. Esto hace que sea un tipo de socket más resistente al hecho de cambiar con cierta
frecuencia el procesador usado con la placa.
Como podéis ver en la imagen, el socket se compone de una serie de agujeros, en los que se insertarán los pines
de contacto, que van situados en la parte inferior del procesador. Para montar el procesador, el usuario solo ha
de levantar la palanca situada a la derecha de la imagen y orientar correctamente el procesador. Para ello, se
tendrá en cuenta la posición del triángulo presente, tanto en el socket como en el procesador.
UNAH TEC,Danli. Taller de hardware I.
El socket PGA es más sencillo de fabricar que el LGA, lo que se traduce en que las placas base pueden ser algo
más baratas. También el montaje del procesador en este tipo de socket es bastante sencillo.
Sin embargo, a pesar de todas sus ventajas intrínsecas, este tipo de socket también tiene desventajas. Una de
las principales es que no sujeta especialmente bien el procesador a la placa base. De hecho, es bastante habitual
arrancar los procesadores si intentamos separar el disipador del procesador de su IHS, si previamente no usamos
algún instrumento para separarlos. No es que este hecho vaya a crear un problema irreversible en el socket o en
Otro de los problemas de este tipo de socket es que, si nos entra pasta térmica en los agujeros del socket, no
existe manera de poderla retirar
A diferencia del socket PGA del que acabamos de hablar, el socket LGA tiene los pines de contacto incorporados
directamente a la propia estructura del socket. Esto hace que sea, de manera inherente, un socket más débil y
delicado a la hora de montar procesadores en él. Especialmente porque los pines usados no son como los pines
para el socket PGA, sino bastante más endebles.
UNAH TEC,Danli. Taller de hardware I.
De hecho, este sistema de retención del procesador es la gran ventaja que tiene este socket sobre el PGA. Es
imposible arrancar el procesador del socket, a diferencia de lo que hemos visto que sucedía con el PGA.
Aun así, este tipo de sockets es más complejo de manipular cuando se va a montar un procesador en él. Pero, sobre
todo, presenta un inconveniente más importante: es más complejo detectar pines doblados. E, igualmente, es mucho
más difícil el poder recuperar estos pines.
Al final, visto lo que hemos visto sobre ambos sockets, no podemos decir que las ventajas de un modelo lo hagan
muy superior a las ventajas del otro modelo. En realidad, lo ideal sería crear un socket híbrido que combinara la
facilidad de montaje del socket PGA, con la seguridad en el agarre del socket LGA.
Algunas placas base tienen un sistema de sujeción del procesador, que consiste en unas piezas
de plástico a cada lado del zócalo Slot 1. Este sistema no es tan cómodo como los de otros
sockets, y a veces hay que forzar estas piezas para colocar o quitar un procesador.
Slot A: En este conector iban instalados los antiguos procesadores Athlon de AMD.
Slot 1: A este conector le corresponden los procesadores Intel Pentium II y también los
procesadores más antiguos Pentium III.
Slot 2: Este conector es más conocido a nivel de servidor es de red, donde iba instalado
el procesador Xeon.
Los 3 tipos de Slot son muy similares y pueden englobarse dentro de la siguiente imagen:
Basicamente el slot fue un desarrollo de Intel ( Slot 1) por llevar mas arriba la velocidad de sus
Microprocesadores, los cuales en formato Socket estaban teniendo problemas. Con esta
ingeniosa idea Intel se reacomodo nuevamente al tope del desarrollo de Procesadores y salio al
mercado el Pentium II, III y Celeron, dejando atrás a su mas fuerte competidor AMD que se
mantuvo con su formato en Socket pero luego también adopto el Slot, pero lo denomino Slot A,
no son compatibles entre si.
Conector Floppy:
Es el encargado de controlar el dispositivo Floppy. Su trabajo consiste en aceptar solicitudes
del software y de los dispositivos y observar que se cumplan dichas solicitudes. Un ejemplo es
la lectura de un byte en este dispositivo que es de un bloque de datos en un lugar determinado
del disquete.
UNAH TEC,Danli. Taller de hardware I.
Motherboard
Cuatro
Conectores SATA
Dos Conectores
IDE
Conector FDC o
Floppy
Corte
Conectores IDE:
IDE son las siglas de Integrated Drive Electronics, o ATA
(Advanced Technology Attachment) controla los dispositivos de almacenamiento masivo de datos,
como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) añade
además dispositivos como, las unidades CD-ROM.
Se define por primera vez en el año 1988 utilizando el obsoleto modo PIO (Programmed Input
Output, Entrada y salida programada) para transmitir datos.
• Paralell ATA o
ATA.
o ATA2. Soporta transferencias rápidas en bloque y mu ltiword DMA.
o ATA3. Es el ATA2 revisado.
o ATA4. conocido como Ultra-DMA o ATA-33 que soporta transferencias en 33 MBps.
o ATA5 o ATA/66. Originalmente propuesta por Quantum
para transferencias en 66 MBps.
o ATA6 o ATA/100. Soporte para velocidades de Ide1
100MBps.
o ATA/133. Soporte para velocidades de 133MBps.
Ide2
UNAH TEC,Danli. Taller de hardware I.
Serial ATA. Remodelación de ATA con nuevos conectores (alimentación y datos), cables y
tensión de alimentación. Mas abajo detallaremos.
Las controladoras IDE casi siempre están incluidas en la placa base, normalmente dos conectores
para dos dispositivos cada uno. De los dos discos duros, uno tiene que estar como esclavo
y el otro como maestro para que la controladora sepa de qué disposivo mandar/recibir
los datos. La configuración se realiza mediante jumpers. Habitualmente, un disco duro puede estar
configurado de una de estas tres formas:
De todos modos aunque SCSI es superior se empieza a considerar la alternativa S-ATA para
sistemas informáticos de gama alta ya que su rendim iento no es mucho menor y su diferencia de
precio sí resulta más ventajosa.
UNAH TEC,Danli. Taller de hardware I.
Conector IDE 1
Dos Dispositivos
conectados.
No olvidemos que antes de conectar dos dispositivos por cable (IDE 1 o IDE 2) cuatro en total,
debe configurarse El Hardware Master y el Slave para que no choquen los datos en el cable.
Cada Disco Rígido y discos CD-ROM, tienen en su parte posterior Jumpers de configuración,
con su tabla de seteo correspondiente ya que varían de acuerdo a cada fabricante.
A) CD-ROM
B) DVD
C) Disco Rígido
D) Cables de Datos de 80 Hilos.
E) IDE 1 (Primaria)
UNAH TEC,Danli. Taller de hardware I.
F) IDE 2 (Secundaria)
Las diferentes denominaciones que utilizamos para referirnos a él. Este interfaz es
popularmente conocido como IDE pero su nombre oficial es ATA (AT Attachment, Conexión AT).
Los dispositivos que utilizan este interfaz se llaman IDE (siglas de "Integrated Drive Electronics",
Dispositivo con Electrónica Integrada) como los discos duros IDE, grabadoras de CD y DVD
IDE, lectores de CD y DVD IDE, etc. Pero, como he comentado, lo normal hoy en día es referirnos
tanto al interfaz como a las unidades que lo utilizan bajo la denominación IDE, en lugar de
llamar al interfaz ATA o EIDE y a los dispositivos que lo utilizan unidades IDE. La confusión no
queda solo aquí, mas adelante aclararé otros términos para que cuando te hablen de este interfaz
con mil denominaciones diferentes sepas en cada caso a que se refieren exactamente.
Con el formato antiguo, es cierto que a nivel físico está más cercano de lo que sería un puerto
Firewire o un USB, aunque únicamente disponible par a la conexión de unidades internas.
En los dibujos de abajo se puede ver la diferencia en las conexiones, disco tradicional ATA a la
izquierda y un Serial ATA a la derecha.
UNAH TEC,Danli. Taller de hardware I.
Se diferencia del P-ATA en que los conectores de datos y alimentación son diferentes y el cable
es un cable (7 hilos) no una cinta (40 hilos), con lo que se mejora la ventilación. Para asegurar
la compatibilidad, hay fabricantes que colocan los conectores de alimentación para P-ATA y S-
ATA en las unidades que fabrican.
Los discos duros se conectan punto a punto, un disco duro a cada conector de la placa, a
diferencia de P-ATA en el que se conectan dos discos a cada conector IDE.
La razón por la que el cable es serie es que, al tener menos hilos, produce menos interferencias
que si utilizase un sistema paralelo, lo que permite aumentar las frecuencias de funcionamiento
con mucha mayor facilidad.
Este nuevo estándar es compatible con el sistema ID E actual. Como su nombre indica (Serial
ATA) es una conexión tipo serie como USB o Firewire. La primera versión ofrece velocidades de
hasta 150MB/s, con la segunda generación (SATA 0.3Gb/s) permitiendo 300MB/s. Se espera que
alcance los 600MB/s alrededor de 2007.
SATA (Serial-ATA) mezcla las tecnologías de señal serie con los discos
ATA. Esto es importante debido a que soluciona un número importante
de problemas que afectan al uso de almacenamiento ATA en sistemas realmente grandes, o
cuando las necesidades de almacenamiento son muy altas. El cable es estrecho y flexible por lo
que no afecta a los sistemas de ventilación pudiendo llegar hasta el tamaño de 1 metro por lo
que los discos pueden ya estar alojados fuera del servidor.
Este cable usa tecnología de señal de bajo-voltaje (low-voltage) lo cual permite un mayor ancho
de banda sin usar componentes caros y adicionales. Esta tecnología también elimina el
requerimiento de tener que usar +5V en las actuales fuentes de alimentación cuyo único sentido
era proporcionar este voltaje a los discos.
Además, podemos añadir a lo beneficios anteriores que SATA tiene la característica de evitar
autobloqueos; en primer lugar, la conexión entre el disco y el controlador es una conexión punto
a punto en lugar de una conexión bus. Para cada disco existe un único cable dedicado que lo
conecta al controlador. Esto va a cambiar la manera de configurar y
desarrollar debido a que una topología de conexión punto a punto
permite el uso de controladores que pueden extraer mucho más
rendimiento a los discos ATA. ¿Por qué? Pues precisamente porque
este tipo de arquitectura permite acceso concurrente a todos los
discos, lo cual no es posible en una arquitectura de bus.
La idea es que los dispositivos ATA de cualquier tipo (serie o paralelo) compartan un juego común
de órdenes, y organizar la conexión de estos dispositivos en una estructura donde existen
direcciones, dominios y dispositivos concretos. Una organización que recuerda vagamente la de
Internet en la que está inspirada (un dominio ATA contiene un controlador host SATA y un
dispositivo).
Conexiones
Los dispositivos SATA tienen dos tipos de cables de conexión, de señal y de fuerza. La forma
concreta depende de la posición relativa del dispositivo respecto al controlador host. A este
respecto caben tres posibilidades:
• Dispositivo interno conectado directamente al controlador host mediante conectores
como el de la figura 2.
• Dispositivo interno conectado a una salida del controlador host mediante cables de
UNAH TEC,Danli. Taller de hardware I.
alimentación y señal.
Nomenclatura:
HT+, HT-. Par de señales diferenciales de transmisión del lado del host ("Host
Transmitter"). HR+, HR- Ídem de recepción ("Host Receiver").
DT+ y DT- par de señales diferenciales de transmisión del lado del dispositivo
("Device Transmitter").
También es digno de mención que para facilitar la transición, algunos dispositivos SATA disponen
de un conector de fuerza duplicado, de forma que pueden usar el conector de fuerza SATA o el
P4 de alimentación tradicional.
La figura muestra la disposición de contactos en dos dispositivos SATA de 2.5" y 3.5" de factor
de forma (son los formatos de disco de equipos portátiles y de sobremesa respectivamente). La
figura muestra la disposición habitual de contactos en un dispositivo IDE/ATA equivalente.
Los dispositivos SATA se han diseñado para ser conectados directamente en estrella. Sin que
exista ningún tipo de encadenamiento ("Daisy chaini ng") ni "Jumpers" o interruptores de
configuración (que se realiza por software). Quiero recalcarlo porque el otro día (Junio 2005),
me acerqué a mi proveedor habitual para adquirir una unidad SATA 3.5" de 300 GB, que pienso
utilizar como reserva y "Back-up" de los equipos en que trabajo habitualmente. Además de los
conectores habituales, que podéis ver en la figura 7 (sin el P4 de toma de fuerza), esta unidad
Barracuda de Seagate presenta otro pequeño conector auxiliar con de 4 pines. Ante mi extrañeza
al examinarlo, el vendedor me aseguró muyserio que, a pesar de ser Serial ATA, estos contactos
se utilizaban para conectar la unidad como primaria/secundaria al estilo ATA/IDE.
Me pareció muy extraño y en contra de lo que se sabía al respecto, pero de todas formas,
necesitaba una toma auxiliar de fuerza para alimentar un pequeño ventilador de refrigeración del
"Housing" donde pretendía instalar la unidad, y pensaba que quizás se trataba de esto. La
respuesta al misterio es que se trata de pines "Factory use only", que no deben ser tocados en
absoluto.
UNAH TEC,Danli. Taller de hardware I.
Cable y conector
El cable se compone de dos pares apantallados a los que se suministra una impedancia de
100 Ohmios.
Memoria ROMBIOS:
La BIOS (Basic Input Output System, Sistema de entrada/salida básico) es una memoria ROM,
EEPROM o FLASH-Ram la cual contiene las rutinas de más bajo nivel programas básicos de
control) que hace posible que el ordenador pueda
arrancar, controlando el teclado, el disco y la
disquetera permite pasar el control al sistema
operativo.
Además, la BIOS contiene el programa de configuraci ón, es decir, los menús y pantallas que
aparecen cuando accedemos a los parámetros del sist ema, pulsando una secuencia de teclas
durante el proceso de inicialización de la máquina.
Programas Internos:
BIOS:
En los primeros sistemas operativos para PC (como el DOS), el BIOS todavía permanecía
activo tras el arranque y funcionamiento del sistema operativo. El acceso a dispositivos como la
disquetera y el disco duro se hacían a través del BIOS. Sin embargo, los sistemas operativos
SO más modernos realizan estas tareas por sí mismos , sin necesidad de llamadas a las rutinas
del BIOS.
ejecuta desde ahí por el procesador (aunque en algunos casos el procesador ejecuta la BIOS
leyéndola directamente desde la ROM que la contiene), cuando realiza una rutina de verificación
e inicialización de los componentes presentes en la computadora, a través de un proceso
denominado POST (Power On Séla Test). Al finalizar esta fase busca el código de inicio del
sistema operativo en algunos de los dispositivos de memoria secundaria presentes, lo carga en
memoria y transfiere el control de la computadora a éste.
SETUP:
El "SETUP". Se llama así al programa que nos permite acceder a los datos de la CMOS y que
por eso también se suele denominar CMOS-SETUP. Este programa suele activarse al pulsar
cierta/s tecla/s durante el arranque del ordenador, teclas Delete, Suprimir, Etc. Usamos este
programa para consultar y/o modificar la información de la CMOS (cuántos discos duros y de
qué características; la fecha y hora, secuencia de arranque, etc). Lógicamente, este programa
SETUP está "archivado" (guardado) en alguna parte d entro del ordenador y debe funcionar
está guardado dentro de la ROM-BIOS y alimentado po r una pila para que los datos
permanezcan guardados aun con el equipo apagado.
PANTALLA PRINCIPAL:
En el arranque de la PC. Oprimir la tecla Delete, Suprimir, F1, F10, F3, Etc. Para ingresar al
Setup. Estas opciones dependerán del fabricante de Bios.
CPU Operating Speed: En "User Define" controlaremos todos los parámetro s referentes al
procesador. También podemos seleccionar directamente una velocidad, aunque en ese caso las
siguientes opciones no se encuentran activas.
Turbo Frecuency: Permite forzar la velocidad del reloj externo a un 2,5x. En principio sólo
existe para realizar control de calidad y comprobar que un sistema funciona correctamente por
encima de sus especificaciones.
Ext. Clock (PCI): Indica la velocidad del bus externo. Entre paréntesis se nos indica la relación
a la que trabajará nuestro bus PCI.
Multiplier Factor: Ajusta el factor de multiplicación. Por ejemplo, con un Pentium III a 550 Mhz
obtendremos la frecuencia multiplicando el bus por el factor multiplicador.
AGPCLK/CPUCLK: Señala la relación entre la velocidad del bus AGP y la del "microprocesador".
Con una CPU de 66 Mhz de bus, ha de estar a 1/1, con una de 100 Mhz, el valor ha de ser 2/3.
Speed Error Hold: Este campo hace referencia al comportamiento que tomará la máquina en
caso de que seleccionemos una velocidad errónea.
CPU Power Supply: Permite regular el voltaje del microprocesador. Debe dejarse siempre en
"CPU Default", dado que un voltaje incorrecto generará errores y problemas.
Core Voltaje: Nos marca el voltaje actual del procesador, admitiendo modificaciones.
CONFIGURACION STANDARD:
UNAH TEC,Danli. Taller de hardware I.
La fecha y hora: En esta sección podemos cambiar los datos relativos a fecha y hora de la BIOS.
Los discos duros IDE: Aquí configuramos los distintos discos duros conectados a la controladora
IDE de nuestra placa base. Es importante tener en cuenta esto para no caer en el error de intentar
configurar desde aquí los discos duros SCSI o los IDE conectados a una controladora adicional.
Hallamos varios valores como "Type", "Cyls" y otros. La opción "Type" ofrece los valores "Auto",
"User" o "None". Con el primero de ellos lograremos que cada disco pueda ser detectado
automáticamente cada vez que in iciamos el ordenador. Es la opción por defecto, aunque ralentiza
bastante el proceso de arranque.
Por su parte, "User" se usa cuando deseamos introducir nosotros mismos cada uno de los valores
de configuración, o bien hemos pasado por la opción IDE HARD DISK DETECTION, que, tras
detectar nuestros discos, habrá almacenad o su configuración en esta pantalla. En este modo,
el arranque resultará más rápido. Por último en "None" se indicará la inexistencia de un disco
duro.
Respecto a "Mode", podremos elegir entre los modos "LBA", "Normal" y "Large", aunque la
opción correcta para los discos actuales será LBA.
Las disqueteras: Aquí podemos seleccionar el tipo de disquetera instalada en nuestro PC.
Floppy 3 Mode Support: Esta es una opción a activar en caso de contar con disqueteras capaces
de usar discos de 1,2 Kbytes (utilizados normalmente en Japón).
La tarjeta de Video: Debemos elegir VGA para todos los equipos actuales.
Halt On: Se utilizará si queremos que la BIOS ignore cierto s errores. Sus opciones son "No
errors", para no detectarse ningún error; "All Erro rs" para pararse en todos; "All, But Keyboard"
para exceptuar los de teclado; "All, But Disquete" para obviar los de la disquetera; y "All, But
Disk/Key", para no atender a los de la disquetera o teclado.
ROMBIOS
Modelos de Pila
JUMPER
PILA 2032
CLEAR-CMOS
Virus Warning: Cuando se encuentra en posición "Enabled" genera un mensaje de aviso en caso
de que algún programa intente escribir en el s ector de arranque del disco duro. Sin embargo, es
necesario desactivarlo para poder llevar a cabo la instalación de Windows 95/98, ya que en
caso contrario, el programa de instalación no será capaz de efectuar la instalación de los archivos
de arranque.
CPU Level 1 Cache: Activa o desactiva la cache de primer nivel integrada en el núcleo de los
actuales procesadores. En caso de que se nos pase por la cabeza desactivarlo, veremos cómo
las prestaciones de nuestro equipo disminuyen considerablemente. Es muy recomendable tenerlo
activado.
CPU Level 2 Cache: Lo mismo que en el caso anterior, pero referido a la memoria cache de
segundo nivel. Igualmente la opción debe estar activada para conseguir un rendimiento óptimo.
CPU L2 Cache ECC Checking: A partir de ciertas unidades de Pentium II a 300 Mhz, se comenzó
a integrar una cache de segundo nivel con un sistema ECC para la corrección y control de
errores. Esto proporciona mayor seguridad en el trabajo con los datos delicados, aunque resta
prestaciones. Si esta opción se coloca en "Enabled", activaremos dicha característica.
Quick Power On Self Test: Permite omitir ciertos tests llevados a cabo durante el arranque, lo
que produce en consecuencia un inicio más rápido. L o más seguro sería colocarlo en modo
"Enabled".
Boot Sequence EXT Means: Desde aquí le indicamos a la BIOS a qué se refiere el parámetro
"EXT" que encontramos en la opción anterior. En este sentido podemos indicar un disco SCSI o
una unidad LS-120. Esta opción no se suele encontrar a menudo ya que las unidades se incluyen
directamente en el parámetro anterior.
Swap Floppy Drive: Muy útil en el caso de que contemos con 2 disquete ras. Nos permiten
intercambiar la A por la B y viceversa.
Boot Up Floppy Seek: Esta opción activa el testeo de la unidad de disquetes durante el
proceso de arranque. Era necesaria en las antiguas disqueteras de 5,25 pulgadas para detectar
la existencia de 40 u 80 pistas. En las de 3,5 pulgadas tiene poca utilidad, por ello lo dejaremos
en "Disabled" para ahorrar tiempo.
Boot Up NumLock Status: En caso de estar en "ON", la BIOS activa automátic amente la tecla
"NumLock" del teclado numérico en el proceso de arranque.
IDE HDD Block Mode: Activa el modo de múltiples comandos de lectura/es critura en múltiples
sectores. La gran mayoría de los discos actuales soportan el modo de transferencia en bloques,
por esta razón debe estar activado.
Typematic Rate Setting: Si se encuentra activo, podremos, mediante los valores que veremos
Typematic Rate (Chars/Sec): Indicará el número de veces que se repetirá la tec la pulsada por
segundo.
Typematic Delay (Msec): Señalará el tiempo que tenemos que tener pulsada una tecla para
que esta se empiece a repetir. Su valor se da en milisegundos.
Security Option: Aquí podemos señalar si el equipo nos pedirá una password de entrada a la
BIOS y/o al sistema.
placas base mini ATX Y a un a bahía de 3.5'' y dos bahías de 5.25'' como máximo.
Una caja debe tener al menos un ventilador posterior para evacuar el aire caliente de su
interior.
10 Drive Bays:
7 expansion slots
Motherboard Compatibility: ATX, MicroATX, BabyAT, MiniATX
Mid-tower steel ATX chassis
1 tri-color LED fan (side panel), 1 80mm rear fan; (expansion for 2 more)
External Ports: (2) USB 2.0 ports, headphone, mic jacks
Patented Guardian Fade Motion LED
ATX Full
Este tipo de gabinete es mas grande que los gabinetes típicos, este gabinete nos permite agregar
mas discos duros, dispositivos ópticos como quemadoras, DVD puertos USB, fireware.
BTX
Se trata de cajas de pequeño tamaño. Por lo general se venden o bien completamente montadas o
al menos con la fuente de alimentación y la placa base, ya que ambos elementos son específicos
para estas cajas.
nuestro ordenador, aunque sus posibilidades de expansión son mínimas. Este tipo de caja es
bastante utilizado en los equipos Media Center.
Son un tipo especial de cajas diseñadas para colocarlas dentro de un armario ''RACK''.
Tienen unas medidas estándar en el ancho (19'' (la más habitual), 24'' y 30'') y en la profundidad,
pudiendo variar su altura. Esta altura se mide en Unidades, siendo cada unidad de 1.75''
(44.45mm) de alto.
Hay cajas de 2, 3 y 4 unidades de altura, correspondiéndose esta última con el ancho normal de
una caja de ordenador.
Como siempre, repetir la importancia de que la caja se encuentre en un lugar bien ventilado, que
permita una correcta circulación de aire.
este diseño es famoso por permitir que un monitor sea puesto encima del gabinete.color
color de producto : blanco conectividad cantidad de puertos usb 2.0 : n entrada de audio
: n salida de audio : n detalles técnicos bahía externa de unidad de disco : 3 x 5.25;, 2 x
3.5; bahía interna de unidad de disco : 1 x 3.5; factor de forma : escritorio indicadores
led : y materiales : secc source : icecat.biz supp orted motherboard form factors : atx tipo
: pc unidad de bahía : 6 gerencia de la energía fuente de alimentación : 300 w tipo de
fuente de alimentación : atx peso y dimensiones altura : 420 mm ancho : 430 mm
dimensiones (ancho x alto x largo) : 430 x 155 x 420 mm profundidad : 155 mm red
tecnología de cableado : wired
La principal diferencia entre una caja AT o Baby AT y otra ATX, consiste en su adaptación
para incorporar los diferentes formatos de placas. Normalmente la Caja ATX trae una
ranura cuadrada de unos 16cm x 4,5cm en la parte trasera, donde se instala una tapa
que contiene los orificios por donde se conectan los distintos dispositivos (teclado, mouse,
video, modem, red, sonido, etc) que trae la placa madre que deseamos instalar.
Esta tapa por lo general las traen las cajas ATX de fabrica, viene incluida
dentro de la caja o instalada en la misma.
Actualmente está tapa viene incluida de fábrica dentro de la caja donde viene
la placa madre (mainboard). Algunas cajas ATX incluyen este mismo tipo de
tapa, aunque es muy raro que esta sea compatible con el board que usted
instala, ais que generalmente usted usará solo la tapa que viene incluida con
su board.
Todos sus sensibles componentes quedan encerrados en lo que se llama una burbuja,
herméticamente cerrada. El aire atrapado en su interior, recicla en un circuito atravesando un
filtro,que atrapa cualquier impureza que haya quedado durante su manufactura.
Una unidad destapada (ver figura 10.2), nos revela ahora algunos secretos. Vulgarmente nos
referimos a ella, como disco rígido, para diferenciarlo de otros medios de almacenamiento
como los disquetes. Estos últimos, están construidos con una base plástica flexible, mientras
que las unidades que hoy estudiamos, contienen platos de una base metálica, generalmente
aluminio, recubiertas con una pintura ferromagnética.
Descubrimos además, algo que no resulta evidente desde afuera. Al usar un disco rígido, percibimos
una unidad con determinada capacidad de almacenamiento. Pero al destaparla (ver figura10.2),
observamos la existencia de varios platos, que en conjunto se comportan como
una sola cosa. En este caso, la unidad mostrada es un disco de la firma IBM de 40 Gigabytes,
que incluye 10 platos. Pero ese número varía de acuerdo a la capacidad, velocidad y diseño
del fabricante.
cie de los platos. Se trata del brazo que soporta las cabezas de lectura/escritura. En la figura
10.3 podemos observar los brazos de una unidad de dos platos. En este caso, en el extremo
del brazo se encuentran cuatro cabezas.
Por cada cara de cada plato de una unidad, hay por lo menos una cabeza de lectura/escritura.
Es decir que los platos son utilizados de ambas caras.
En la figura 10.4 podemos apreciar un detalle de las cabezas de lectura/escritura que están en
el extremo del brazo de la figura 10.3.
Las cabezas de lectura/escritura tienen una superficie pulida. Cuando los platos están
detenidos, las cabezas descansan sobre su superficie sin rayarla. Pero si la unidad recibe un
aire atrapado dentro de la burbuja. Entonces las cabezas comienzan a volar sobre un colchón
de aire, por cierto muy delgado, que se forma sobre cada cara de cada plato. Gracias a esto, el
conjunto de cabezas (ver figura 10.5) puede volar sobre la superficie de los platos.
Este colchón es tan delgado, que anda en el orden de una décima de milímetro. Cualquier
impureza, como una partícula de carbón de hollín del aire que respiramos diariamente, puede
provocar un daño severo en la superficie del plato y de la cabeza.
Esto explica por que las cabezas, los platos y sus mecanismos asociados, están encerrados en
Figura 10.5
Las cabezas de un disco rígido planean sobre las superficies magnéticas de los platos,
sustentadas por un colchón de aire muy delgado. Las impurezas del aire ambiental,
provocarían daños irreversibles. Por eso bajo ningún concepto debemos abrir una unidad.
Instituto Tecnológico Argentino THP / Clase 10 5 una burbuja hermética; y también por que
nunca debemos abrir una unidad. Hacerlo permitiría el ingreso de aire contaminado dentro de
la unidad, provocando daños irreversibles en la superficie magnética de los platos y en las
cabezas.
LOS MOTORES
De una rápida observación de la figura 10.2, no resulta tan evidente la presencia de dos
motores:
uno para el movimiento de rotación de los platos, y otro para el desplazamiento del conjunto
de las cabezas.
Uno de los motores esta referido en las documentaciones técnicas en su idioma original como
spindle motor <-spindl mótor-> (del inglés: motor del eje de rotación) es justamente el que
hace girar los platos.
El eje del motor, es el eje de los platos (de allí su nombre en inglés), es decir que no existen
medios de acoplamiento como correas, poleas o engranajes. Esta forma de trabajo se la
conoce como tracción directa.
En la figura 10.6, se puede observar desmontado al motor y eje de los platos de una unidad de
disco rígido. Este es un motor sincrónico, controlado por los circuitos de la placa electrónica
montada sobre la unidad.
En la misma figura, se ve que el motor va montado de modo tal que atraviesa una cara de la
burbuja. El conector y los cables quedan del lado externo, conectados a la placa electrónica.
Del lado interno queda el eje del motor, donde se atornillan los platos.
El motor, montado en su posición, forma parte del sello de la burbuja, es decir que no hay
paso de aire desde el exterior, ya que el eje y partes móviles quedan dentro de ella, y por
fuera sólo están las conexiones eléctricas.
Estos motores no giran libremente como lo hacen los motores comunes, sino que avanzan
algunos grados y se detienen en una nueva posición de descanso. Cada posición de descanso
es un paso. Con una secuencia suficiente de pasos, se logra hacer girar al eje de estos
motores.
Con estos motores se puede tener no sólo el control del sentido de giro, sino también de
cuántos grados deseamos que gire en un sentido u otro.
disco ST-221 de la firma Seagate, de 20 Megabytes de capacidad total. El giro del eje del
motor, arrastraba por medio de un zuncho al pivote del brazo de las cabezas.
Las ventajas de estos motores son la sencillez de su control y su versatilidad. Con una
electrónica poco compleja, se los puede controlar fácilmente. Las desventajas de este tipo de
motores son dos: son ruidosos y lentos.
Otro de los problemas presentes con estos motores, es que siempre están en una posición de
descanso, aún cuando no tienen energía. Esto significa que si un disco rígido está operando
con las cabezas en la zona de datos, y ya sea que voluntaria o involuntariamente cortemos la
energía de alimentación de la unidad, las cabezas aterrizan en la zona de trabajo dejando a la
unidad en una situación de máximo riesgo, ya que frente a una vibración o golpe leve puede
haber pérdida de información almacenada. En los años en que se usaban estos discos, el
problema se evitaba ejecutando un programa llamado Park (estacionar en inglés), antes de
apagar la PC, que movía las cabezas fuera de la zona de trabajo.
Figura 10.7
Desarrollos posteriores incluían un mecanismo para forzar que el motor se mueva a determinada
posición (quitando las cabezas de la zona de trabajo) cuando se quedaba sin energía.
Este mecanismo se lo conoció como Auto Parking (estacionamiento automático). Todos los
discos modernos tienen un mecanismo de estacionamiento automático.
La segunda tecnología empleada en la construcción de motores para accionar las cabezas de
los discos rígidos, utilizada ampliamente en las rápidas unidades modernas, es curiosamente
más vieja que la implementación del motor de pasos.
Se trata de los motores de desplazamiento lineal, controlados electrónicamente. La complejidad
electrónica asociada al manejo de estos motores, los ha hecho prohibitivos para los discos de
bajo costo. Pero gracias a la evolución electrónica, la reducción de tamaño y precio de los
circuitos asociados, todas las unidades modernas cuentan con motores de este
tipo.
Tan similar es la operación a un parlante, que a la bobina del motor lineal se la conoce como
Voice Coil <-vois coil->, que en inglés significa bobina de voz.
Las ventajas que podemos enumerar rápidamente son: 1) Operación totalmente silenciosa. 2)
alta velocidad de reacción. 3) Son extremadamente compactos. 4) Se pueden enviar a una pos
Posición definida rápidamente, como por ejemplo para quitar las cabezas de la zona de
trabajo frente a un corte inesperado o programado de energía.
Todos los componentes internos que hemos visto, dependen de la placa electrónica, para
coordinar sus funciones.
El motor de rotación por ejemplo, debe girar a una velocidad fija y constante. Los discos
modernos de alta velocidad hacen girar sus platos a más de 10.000 revoluciones por minuto.
El circuito electrónico que controla y corrige la velocidad de rotación, reside en la placa
electrónica de control (ver figura 10.10). El motor lineal y su compleja electrónica
de control de posicionamiento, también residen en la placa electrónica.
Además allí reside tanto la lógica necesaria para la activación de una cabeza del
conjunto, como la amplificación y descodificación de datos; la interfaz con el
Motherboard, etc.
LAS PISTAS
En realidad, en la ilustración, sólo pudimos trazar algunas, ya que en realidad un disco actual
usa más de cinco mil pistas en cada cara de cada plato. Pero para darnos una idea de lo que es
una pista, basta con las pocas que hemos trazado.
LOS SECTORES.
Para organizar mejor aún la información, cada pista no se graba íntegra de una vez, sino que
se graba de a tramos, conocidos como sectores.
Para poder ilustrar qué es un sector, en la figura 10.12, se muestra otro plato con pistas
(imaginarias) pintadas en la superficie, donde además se han trazado líneas diametrales que
muestran la forma y ubicación de los sectores en el disco. En este caso, cada pista ha sido
fraccionada en 16 sectores.
Desde el diseño de la primer PC con disco rígido, hasta la actualidad, se ha normalizado el
uso de sectores con capacidad de 512 Bytes.
mejor el espacio de grabación de los platos.
10.13 se ilustra esto con dos rectángulos que contienen la misma cantidad de datos. El
superior representa a un sector cercano al borde del disco, mientras que el inferior (de menor
tamaño), representa un sector cercano al eje.
Si nuevamente observamos con detalle las figuras 10.3, 10.4 y 10.5, podremos apreciar que
las cabezas del brazo, están verticalmente alineadas. Esto implica que a determinada distancia
del eje, una pista grabada por cualquier cabeza, estará a la misma distancia del eje que las
pistas grabadas por cualquier otra cabeza del brazo.
Dejemos ahora volar un poco nuestra imaginación, y pensemos en la unión mental de todas
las pistas grabadas, por todas las cabezas de un brazo a determinada distancia del eje.
Formaremos así un cilindro. Para ello, puede ayudarnos la figura 10.15, que nos muestra a
modo de ejemplo, cuatro posibles cilindros imaginarios.
Mover las cabezas de un cilindro a otro, significa poner en marcha al motor correspondiente,
vencer la inercia de los brazos que las soportan, esperar el tiempo de viaje, estabilizar los
brazos en la nueva posición, y recién allí poder comenzar la búsqueda de información.
Esto implica que el viaje de las cabezas provoca una pérdida importante de tiempo. La menor
demora será entre cilindros consecutivos, y la mayor entre cilindros distantes.
Este problema se hace más evidente, cuando la información no queda almacenada en forma
contigua, es decir que se encuentra fragmentada (tal vez hayamos oído hablar de un proceso
de desfragmentación que reorganiza los datos dejándolos contiguos, y por consiguiente
mejora el rendimiento).
Además la pérdida de tiempo se ve potenciada con el uso de motores lentos, como los
motores de pasos empleados en las antiguas unidades (ver figura 10.7).
Por eso, es muy importante tratar de mantener quietas las cabezas la mayor parte del tiempo
posible. Visto desde otro punto de vista, sería deseable tratar de acceder a la mayor cantidad
admisible de información, sin cambiar de cilindro.
Para lograr esto último, el cilindro debería estar compuesto por muchas pistas, lo que implica
directamente el uso de muchas cabezas.
La conclusión final de este razonamiento, nos lleva a pensar que un disco con muchas
cabezas es más eficiente que un disco con pocas. O analizado desde otro punto de vista, si dos
discos tienen la misma capacidad total, es más eficiente el que tenga menor cantidad de
cilindros.
Esto es realmente así, y eso explica por qué el disco IBM de 40 Gigabytes de la figura 10.2
tiene 20 cabezas (tiene diez platos), y lo hace mucho más rápido que una unidad común de
cuatro cabezas (y seguramente más caro).
Puede parecer muy sofisticada la idea conceptual de cilindro, y sin un análisis cuidadoso, tal
vez pensemos que es un concepto inútil, o tal vez que si no reparamos en él, nuestras vidas no
cambiarán demasiado. Esto casi es cierto en la actualidad.
La estructura interna, también conocida como la geometría o los parámetros del disco, está
compuesta por: la cantidad de cilindros, la cantidad de cabezas de lectura/escritura, y la
cantidad de sectores existentes por pista. Estos parámetros eran requeridos por el programa de
configuración del las PCs de hace algunos años.
En la actualidad, las modernas unidades de alta capacidad, han sufrido una metam orfosis
interna, para acomodar más información en menos lugar. Por ejemplo, ya hemos estudiado el
caso del sectorizado (ver sección 4.2), donde la solución para aprovechar mejor el espacio,
fue acomodar más sectores en las pistas ubicadas en los cilindros de mayor diámetro, y menor
cantidad en los de menor diámetro.
Pero en la configuración de la PC, no está contemplado y no es posible configurar una
cantidad de sectores variable, dependiendo del diámetro de la pista.
Esto implica que sólo se puede declarar un valor en la cantidad de sectores por pista de la
unidad. Es decir que si en la PC declaramos que la unidad tiene la cantidad de sectores que
tiene una pista externa (cerca del borde), ese valor no será válido para las pistas internas
(cercanas al eje) porque de hecho hay menor cantidad. Y declarar que la unidad tiene la
cantidad de sectores de una pista interna, es directamente decirle a la PC que ignore los
sectores extra que se lograron incluir en las pistas externas, desperdiciando esa capacidad
extra. En otras palabras, esto se conoce como problema de compatibilidad.
Para poder mantener la compatibilidad, en las unidades modernas, los fabricantes incluyen en
la electrónica de las unidades un procesador que traduce una geometría compatible ficticia
(también conocida como geometría lógica o parámetros lógicos) utilizada desde el lado de la
PC, a la geometría incompatible real (conocida como geometría física o parámetros físicos)
interna del disco.
En conclusión, por lo que estamos viendo, la geometría de los discos actuales que publican
los fabricantes, es una geometría lógica (ficticia) para mantener la compatibilidad con las
PCs, y poco tiene que ver con la geometría real interna de los discos.
La única forma de saber realmente cuántos cilindros o cabezas tiene una unidad actual, como
para compararla con otra y evaluar sus características, es leyendo información específica de
ese modelo, obtenida directamente del fabricante, o (algo ciertamente no recomendado)
quitándole la tapa a la unidad.
Del lado de la PC, las cosas han evolucionado también. Actualmente para instalar un disco
rígido están habilitadas varias modalidades de configuración. La más moderna ignora
absolutamente la geometría de los discos, y sólo necesita saber cuántos sectores en total tiene
la unidad.
Posiblemente en el futuro esta última modalidad de configuración sea la única forma de
declarar las unidades, quedando oculta para siempre la estructura física real del disco.
Considerando que los traductores le dan libertad absoluta a los fabricantes de hacer lo que
deseen en el interior de las unidades, tal vez en un futuro los discos dejen de ser lo que
conocemos hoy en día. Tal vez en el mañana, si destapamos una unidad, nos encontremos con
un cubo cristalino, controlado por un par de láseres, sin partes móviles. Y por ese entonces,
será tal vez más extraño y sofisticado hablar del concepto cilindro.
tiene 1.000 cilindros, 8 cabezas y 63 sectores por pista, la cantidad de sectores será:
Los discos duros, también conocidos como HDD, son un componente informático que sirve para
almacenar de forma permanente tus datos. Esto quiere decir, que los datos no se borran cuando se
apaga la unidad como pasa en los almacenados por la memoria RAM. La primera empresa en
comercializarlos fue IBM en 1956.
Están compuestos de piezas mecánicas, de ahí que a veces se le llame discos duros mecánicos, y utilizan
el magnetismo para grabar tus datos y archivos. Se compone de uno o varios discos rígidos unidos por
un mismo eje y que giran a gran velocidad dentro de una caja metálica. En cada plato y en cada una de
sus caras, un cabezal de lectura/escritura lee o graba tus datos sobre los discos.
Cuanto más finos sean los discos mejor será la grabación, y cuanto más rápido giran a mayor velocidad se
transmiten los datos, tanto a la hora de leerlos como al escribirlos. Por lo general, la velocidad de los
discos duros suele ser de 5400 o 7200 RPM (revoluciones por minuto), aunque en algunos discos basados
en servidores pueden llegar a hasta 15.000 RPM
En cuanto al tamaño, las cajas de los discos duros mecánicos pueden ser de 2,5" o de 3,5". Su precio puede
variar dependiendo de este tamaño, pero sobre todo de su capacidad de almacenamiento. De hecho, la
gran ventaja de estos discos duros con respecto a los SSD es que son bastante más económicos.
Los SSD suelen utilizar memorias flash basadas en NAND, que como también son no-volátiles mantienen la
información almacenada cuando el disco se desconecta. No tienen cabezales físicos para grabar los datos,
en su lugar incluyen un procesador integrado para realizar operaciones relacionadas con la lectura y
escritura de datos.
Estos procesadores, llamados controladores, son los que toman las "decisiones" sobre cómo almacenar,
recuperar, almacenar en caché y limpiar los datos del disco, y su eficiencia es uno de los factores que
determinan la velocidad total de la unidad. Además, al no depender del giro de un componente físico,
también se logra una unidad más silenciosa que los discos mecánicos.
En cuanto al tamaño, estos discos suelen ser de 2,5", y tienen un diseño casi idéntico al de los discos duros
mecánicos, lo que ayuda a que puedan encajar en las mismas carcasas y ranuras donde van montados los
discos duros convencionales en un ordenador.
En esta tabla puedes ver cuales son las principales diferencias entre ambas tecnologías de
almacenamiento. La principal diferencia tiene que ver con capacidades máximas y precio. Hay que tener
en cuenta que las SSD son mucho más modernas, por lo que es normal que su precio sea notablemente
superior. A día de hoy, una SSD de 250 GB puede valer lo mismo que un HDD de 3 TB.
Anexos
Marcas reconocidas de tarjetas madres .
ASUS,ASRock,Biostar,ECS,EVGA,Foxconn,Gigabyte,MSI,Zotac,Intel