Está en la página 1de 113

UNAH TEC, Danlí. Taller de hardware I.

Universidad Nacional Autónoma de Honduras


Tecnológico de Danlí.

RECONOCIMIENTO DE COMPONENTES DE
LA PC Y SU FUNCIONAMIENTO

AÑO 2023

Nota: La parte técnica se desarrollará presencial ligado a la parte teórica.


UNAH TEC, Danlí. Taller de hardware I.

Los 10 principales tipos de computadoras

Enormes como una habitación o pequeñas como una memoria USB. Las computadoras forman parte
de la vida de todas las personas del mundo, incluso en aquellas que no las usan directamente pero que por
medio de la computación reciben todo tipo de servicios, desde los más esenciales hasta los más
especializados.

En este post, destacamos los 10 principales tipos de computadoras, sus características y por qué son
elementos importantes de la computación en el mundo.

Tabla de Contenidos

• 1. Supercomputadoras
• 2. Mainframes
• 3. Computadoras personales
• 4. Computadoras híbridas
• 5. Computadoras portátiles
• 6. Computadoras de escritorio
• 7. Netbooks
• 8. Tablets
• 9. Teléfonos inteligentes
• 10. Computadoras vestibles
o Bonus: computadoras del futuro
UNAH TEC, Danlí. Taller de hardware I.

1. Supercomputadoras

Estos son actualmente los diez más potentes del mundo y algunas de sus contribuciones al conocimiento.

La supercomputadora Tianhe-2 está ubicada en China.

Las computadoras más potentes del mundo, las que pueden procesar las mayores cantidades de
información y resuelven las operaciones más complicadas son las supercomputadoras. En realidad, las
supercomputadoras son un conjunto de ordenadores muy poderosos conectados entre sí para aumentar
su capacidad de forma exponencial.

La supercomputadora más potente del mundo se encuentra en la Universidad Nacional de Tecnología de


Defensa de China. Se llama Tianhe-2 y tiene un rendimiento promedio de 33.48 petaFLOPS. Como dato
informativo, cada petaflop significa que la computadora es capaz de realizar más de mil billones
operaciones por segundo.

1. Summit, Oak Ridge National Laboratory (EEUU)

El supercomputador más potente del mundo en la actualidad es Summit, construido por IBM para el Oak Ridge
National Laboratory de Tennessee, perteneciente al Departamento de Energía de EEUU. Ocupa el equivalente a
dos canchas de baloncesto y alcanza unos impresionantes 148,6 petaflops, gracias a sus 2,41 millones de núcleos

2. Sierra, Lawrence Livermore National Laboratory (EEUU)

La compañía IBM es también responsable del segundo supercomputador más potente de la lista, Sierra, situado en
el Lawrence Livermore National Laboratory de California. Basado en un hardware similar a Summit, Sierra alcanza
los 94,6 petaflops.
UNAH TEC, Danlí. Taller de hardware I.

3. Sunway TaihuLight, Centro Nacional de Supercomputación (Wuxi, China)


5. Frontera, Texas Advanced Computing Center, Universidad de Texas (EEUU)
6. Piz Daint, Centro Nacional de Supercomputación de Suiza
7. Trinity, Los Alamos National Laboratory (EEUU)
8. AI Bridging Cloud Infrastructure (ABCI), Instituto Nacional de Ciencia y Tecnología Industrial Avanzada (Japón)
9. SuperMUC-NG, Leibniz Rechenzentrum (Alemania)
10. Lassen, Lawrence Livermore National Laboratory (EEUU)

2.) Mainframes (MACRO COMPUTADORAS).

Los mainframes son computadoras muy importantes para miles de servicios.

También conocidos como macrocomputadoras o computadoras centrales, son capaces de procesar


millones de aplicaciones a la vez. Por eso, son utilizadas principalmente por entidades gubernamentales
y empresas que manejan grandes cantidades de información, operaciones bancarias o bases de datos.

Los mainframes pueden funcionar con muchos sistemas operativos a la vez y servir para gestionar las
actividades de varios terminales virtuales. Necesitan refrigeración para evitar su sobrecalentamiento y
cuestan varios miles de dólares.

Unidad central (Mainframe computer)

Una unidad central es una computadora grande, potente y costosa, usada principalmente por una gran compañía
para el procesamiento de una gran cantidad de datos, como, por ejemplo, para el procesamiento de transacciones
bancarias.

Suelen ser utilizadas por grandes empresas y con fines científicos. Son utilizadas principalmente para aplicaciones
de misión crítica que requieren grandes volúmenes de procesamiento de datos, como censos, estadísticas de la
industria y del consumidor, así como planificación de recursos empresariales.
UNAH TEC, Danlí. Taller de hardware I.

3. Minicomputadoras
Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un Mainframe, y esto ayudó
a reducir el precio y costos de mantenimiento.
Las minicomputadoras fueron diseñadas para una fácil conexión a instrumentos científicos y otros dispositivos de
entrada/salida, con una arquitectura simple, se construyeron utilizando transistores rápidos y se programaban en
lenguaje ensamblador, con poco soporte para lenguajes de alto nivel.

La computadora de gama media, originalmente llamada minicomputadora, y actualmente llamada servidor, se


encuentra entre un microprocesador y una computadora central (relacionado con el tamaño y la potencia). ... Las
computadoras de gama media proveen servicios para diversas aplicaciones.

4. Micro computadoras.

Una microcomputadora, un microcomputador o un microordenador es una computadora pequeña, con un


microprocesador como su unidad central de procesamiento CPU. Generalmente, el microprocesador incluye los
circuitos de almacenamiento (o memoria caché) y entrada/salida en el mismo circuito integrado (o chip).

En cualquier caso, el microcomputador es el equipo de computación que se diseñó para funcionar con un
microprocesador.

Los microordenadores están diseñados para uso doméstico, didáctico y funciones de oficina. En casa pueden servir
como herramienta para la gestión doméstica (cálculo de impuestos, almacenamiento de recetas) y como equipo de
diversión (juegos de computadora, catálogos de discos y libros).

4.1. Computadoras personales


UNAH TEC, Danlí. Taller de hardware I.

IBM PC, una de las primeras computadoras personales.

La cara más vista de la computación son las computadoras personales, que tienen sus orígenes en los
equipos construidos desde 1970 y que en un principio se llamaron microcomputadoras. Se caracterizan
por tener un microprocesador y están diseñadas para cumplir las tareas más comunes de la informática
actual, como la navegación web, la productividad y el entretenimiento.

Las computadoras portátiles y de escritorio son tipos de computadoras de escritorio.

4.2 Computadoras híbridas

Las computadoras híbridas o dos en uno combinan la productividad de las laptop con la portabilidad de
las tablets.

Surgidas a partir del 2012, las computadoras híbridas son una mezcla entre una laptop y una tableta.
Pensadas principalmente como una tableta evolucionada para ofrecer más opciones de productividad, las
computadoras híbridas tienen mucho potencial en el futuro de la computación.

Casi todas las marcas de computadoras fabrican en la actualidad computadoras híbridas, si bien se
considera a la Microsoft Surface como la pionera en el campo y al iPad Pro, recién anunciado, como una
de las que impulsará más este mercado.

4.3 Computadoras portátiles


UNAH TEC, Danlí. Taller de hardware I.

Las computadoras portátiles son prácticas y eficientes.

La primera computadora portátil como tal fue creada por Epson en 1981 y en su momento fue
considerada como la “cuarta revolución de la computación personal” por la revista BusinessWeek.
Después del lanzamiento de Windows 95, las computadoras portátiles se popularizaron, y son en la
actualidad las computadoras personales más vendidas.

El término laptop viene del inglés lap –regazo- y top –encima-, mientras que se les llama también
notebooks por su similitud con los cuadernos. Tienen pantalla, teclado, touchpad, procesador, discos
duros, memorias y batería.

4.4 Computadoras de escritorio

Las computadoras de escritorio son potentes para diferentes tareas.

Conformadas típicamente por un monitor, un CPU, un teclado y un mouse, además de aparatos


accesorios como cámaras web o bocinas. En la actualidad, sin embargo, existen computadoras de
escritorio que embuten todas estas partes en una sola pantalla, como las iMac, equipos todo-en-uno.

4.5 Netbooks
UNAH TEC, Danlí. Taller de hardware I.

Las netbooks son computadoras muy básicas y portátiles.

Las netbooks son las computadoras personales más básicas que existen. Son laptops con pantallas de 10
pulgadas en promedio, pero con menor potencia y capacidad que las computadoras portátiles más
grandes. Están diseñadas principalmente para acceder a Internet y hacer tareas de productividad
simples.

Este tipo de computadoras prescinden de los lectores de CD o DVD, característica que no obstante está
siendo imitada por las laptops de mayor tamaño. Las netbooks son también las computadoras
personales más baratas, lo que contribuyó a su éxito en ventas.

4.6. Tablets

Las tablets son pura pantalla.

El mundo conoció las tablets cuando Apple lanzó en 2010 el iPad. Las tablets o tabletas son
computadoras muy portátiles destinadas a tareas de entretenimiento, web y productividad. Su principal
característica es su pantalla táctil, que elimina el teclado y mouse para interactuar con sus contenidos y
los reemplaza por gestos con los dedos.

Las tabletas como computadoras personales han reemplazado en muchos usuarios las funciones las
netbooks o laptops, si bien este tipo de equipos son utilizados para tareas más exigentes.

4.7Teléfonos inteligentes
UNAH TEC, Danlí. Taller de hardware I.

Los teléfonos inteligentes son computadoras que sirven para hablar por teléfono.

Los smartphones son computadoras convertidas en teléfono. En menos de 6 pulgadas de tamaño


incorporan, además de batería, procesador, pantalla táctil y sensores como acelerómetro, brújula,
giroscopio y GPS. Tienen la capacidad de conectarse a Internet por medio de WiFi o conexiones móviles,
así como hacer y recibir llamadas y mensajes.

Los teléfonos inteligentes pueden hacer muchas tareas de las computadoras personales, como
administrar el correo electrónico, navegar por internet y utilizar elementos multimedia.

Su principal empuje vino a través de la creación y consolidación de sistemas operativos móviles, como
iOS y Android, que ofrecen millones de aplicaciones, programas informáticos pequeños para utilizar
dentro de estos dispositivos. El iPhone, lanzado en 2007, fue el inaugurador del concepto del
smartphone, si bien existen en la actualidad una serie de marcas de celulares que compiten en esta
industria.

4.8. Computadoras vestibles

Los dispositivos wearables son computadoras que puedes usar en tu muñeca.

Las nuevas tendencias de la computación se dirigen hacia la creación de computadoras en miniatura


para su uso personal. Incorporadas en relojes, gafas, pulseras y otros accesorios, sus funciones se
enfocan en la complementación de las funciones de otros dispositivos, principalmente de los teléfonos
inteligentes.
UNAH TEC, Danlí. Taller de hardware I.

A este apartado de la computación se le conoce como tecnología vestible o dispositivos wearables, y


destacan hasta el momento equipos como el Apple Watch, un reloj inteligente; Google Glass, unos
lentes inteligentes, o Pebble Watch, pionero de los relojes inteligentes.

4.8.1 Bonus: computadoras del futuro

Hay muchos caminos que las computadoras del futuro podrían tomar.

La computación está cambiando todo el tiempo. En el futuro de las computadoras se abren panoramas
prometedores como la computación cuántica, máquinas con capacidades increíbles de procesamiento
que apenas comienzan a crearse, mientras que las computadoras de bolsillo o en miniatura buscarán
abrirse camino entre los usuarios comunes.

También están basados en computadoras en miniatura tecnologías como el Internet de las Cosas, que
planea convertir todos los objetos en inteligentes. Conforme pase el tiempo, los tipos de computadoras
existentes continuarán diversificándose, mientras que otros probablemente desaparecerán. Así
funciona el devenir de la tecnología.
UNAH TEC, Danlí. Taller de hardware I.

Historia de la informática
El computador no es invento de alguien en especial, sino el resultado de ideas y
realizaciones de muchas personas relacionadas con la electrónica, la mecánica, los
materiales semiconductores, la lógica, el álgebra y la programación.

¿Qué es una PC?


PC son las siglas en inglés de Personal Computer, que traducido significa
Computadora Personal. Hay otras que se denominan Computadoras de escritorio, que
son la gama de equipos utilizados en el hogar o en las oficinas y que no son portátiles,
aunque esta categoría también podría considerarse una computadora personal.

¿Como Funciona
Mi PC?

A medida que el usuario va tomando confianza con su computadora surgen numerosas


inquietudes sobre el significado de las siglas y términos utilizados en la jerga
informática. Así en muchas ocasiones no sabe para que sirven o que representa.
A continuación intentaremos aclarar algunos de estos interrogantes.

¿Qué es software y qué es


hardware?

Se denomina software a todos los componentes intangibles de un ordenador o


computadora, es decir, al conjunto de programas y procedimientos necesarios para
hacer posible la realización de una tarea específica, en contraposición a los
componentes físicos del sistema (hardware). Esto incluye aplicaciones informáticas
tales como un procesador de textos, que permite al usuario realizar una tarea, y
software de sistema como un sistema operativo, que permite al resto de programas
funcionar adecuadamente, facilitando la interacción con los componentes físicos y el
resto de aplicaciones.

Probablemente la definición más formal


de software es la atribuida al Instituto
de Ingenieros Eléctricos y
Electrónicos , la suma total de los
programas de cómputo, procedimientos,
reglas documentación y datos
asociados que forman parte de las
operaciones de un sistema de cómputo.
Bajo esta definición, el concepto de
UNAH TEC, Danlí. Taller de hardware I.

software va más allá de los programas


de cómputo en sus distintas formas:
código fuente, binario o ejecutable,
además de su documentación: es decir,
todo lo intangible.

El término “software” fue usado por primera vez en este sentido por John W. Tukey en 1957.
En las ciencias de la computación y la ingeniería de software, el software es toda la

información procesada por los sistemas informáticos: programas y datos. El


concepto de leer diferentes secuencias de instrucciones de la memoria de un
dispositivo para controlar cálculos fue inventado por Charles Babbage como parte
de su máqu ina diferencial. La teoría que forma la base de la mayor parte del software
moderno fue propuesta por vez primera por Alan Turing en su ensayo de 1936, Los
números computables, con una aplicación
al problema de
decisión .

Se denomina hardware o soporte físico al conjunto de


elementos materiales que componen un ordenador.
Hardware también son los componentes físicos de una
computadora tales como el disco duro, CD-ROM,
disquetera (floppy), etc.

En dicho conjunto se incluyen los dispositivos electrónicos y electromecánicos,


circuitos, cables, tarjetas, periféricos de todo tipo y otros elementos físicos.

El hardware se refiere a todos los componentes físicos (que se pueden tocar)


de la computadora: discos, unidades de disco, monitor, teclado, ratón (mouse),
impresora, placas, chips y demás periféricos. En cambio, el software e s intangible,
existe como ideas, conceptos, símbolos, pero no tiene sustancia. Una buena metáfo ra
sería un libro: las páginas y la tinta son el hardware, mientras que las palabras,
oraciones, párrafos y el significado del texto son el software. Una computadora sin
software sería tan inútil como un libro con páginas en blanco.

El lenguaje de la
PC
Sistema Binario: Historia

El antiguo matemático Indio Pingala presentó la primera descripción que se conoce de


un sistema de numeración binario en el siglo tercero antes de Cristo, lo cual coincidió
UNAH TEC, Danlí. Taller de hardware I.

con su descubrimiento del concepto del número cero.

El sistema binario moderno fue documentado en su totalidad por Leibniz en el siglo


XVII en su artículo "Explication de l'Arithmétique Binaire". Leibniz usó el 0 y el 1, al
igual que el sistema de numeración binario actual.

En 1854, el matemático británico George Boole, publ icó un artículo que marcó un
antes y un después, detallando un sistema de lógica que terminaría
denominándose Álgebra de Boole. Dicho sistema jugaría un papel fundamental en
el desarrollo del sistema binario actual, particularmente en el desarrollo de circuitos
electrónicos.

En 1937, Claude Shannon realizó su tesis doctoral en el MIT, en la cual implementaba el


Álgebra de Boole y aritmética binaria utilizando re lés y conmutadores por primera vez en la
historia. Titulada Un Análisis Simbólico de Circuitos Conmutadores y Relés, la tesis de
Shannon básicamente fundó el diseño práctico de circuitos d igitales.

En noviembre de 1937, George Stibitz, trabajando por aquel entonces en los Laboratorios
Bell, construyó un ordenador basado en relés - al cual apodó "Modelo K" (porque lo
construyó en una cocina, en inglés "kitchen")- que utilizaba la suma binaria para realizar los
cálculos. Los Laboratorios Bell autorizaron un completo programa de investigación a finales
de 1938, con Stibitz al mando. El 8 de enero de 1940 terminaron el diseño de una Calculadora
de Números Complejos, la cual era capaz de realizar cálculos c on números complejos. En
una demostración en la conferencia de la Sociedad Americana de Matemáticas, el 11 de
septiembre de 1940, Stibitz logró enviar comandos de manera remota a la Calculadora de
Números Complejos a través de la línea telefónica mediante un teletipo. Fue la primera máq
uina computadora utilizada de manera remota a través de la línea de teléfono. Algunos
participantes de la conferencia que presenciaron la demostración fueron John Von Neumann,
John Mauchly y Norbert Wiener, el cual escribió acerca de dicho suceso en sus diferentes
tipos de memorias en la cual alcanzo diferentes logros.

Archivo Binario

Un Archivo binario es un archivo informático que contiene información de cualquier tipo,


codificada en forma binaria para el propósito de almacenamiento y procesamiento en
ordenadores. Por ejemplo los archivos informáticos que almacenan texto formateado o
fotografías.

Bit, lo más pequeño del lenguaje

Bit es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de
numeración binario. La Real Academia Española (RAE) ha aceptado la palabra bit con el
plural bits.

Mientras que en nuestro sistema de numeración decimal se usan diez dígitos, en el binario
se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos
dos valores, 0 ó 1.
UNAH TEC, Danlí. Taller de hardware I.

Origen del termino Bit

Claude E. Shannon primero usó la palabra bit en un trabajo académico de 1948. Él atribuyó
su origen a John W. Tukey, que había escrito una nota en los laboratorios Bell el 9 de enero
de 1947 en la cual contrajo las palabras "binary digit" (dígito binario) a simplemente "bit",
formando una palabra combinada.
UNAH TEC,Danli. Taller de hardware I.

Octeto o Byte

Voz inglesa, se pronuncia báit, que si bien la Real Academia Española ha aceptado como
equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado
como una secuencia de bits contiguos, cuyo tamaño depende del código de información o
código de caracteres en que sea definido. Se usa comúnmente como unidad básica de
almacenamiento de información en combinación con los prefijos de cantidad.

Los prefijos kilo, mega, giga, etc. se consideran múltiplos de 1024 en lugar de múltiplos de
10
1000. Esto es así porque 1024 es la potencia de 2 (2 ) más cercana a 1000. Se utiliza
una potencia de dos porque la computadora trabaja en un sistema binario.

Sin embargo, para el SI, los prefijos mantienen su significado usual de potencias de mil.

Así:

Nombre Abrev. Factor Tamaño en SI


Kilo K 1024 1000
Mega M 1.048.576 1.000.000
Giga G 1.073.741.824 1.000.000.000
Tera T 1.099.511.627.776 1.000.000.000.000
Peta P 1.125.899.906.842.624 1.000.000.000.000.000
Exa E 1.152.921.504.606.846.976 1.000.000.000.000.000.000

Codificación del sistema Binario:

American Standard Code for Information Interchange

El código ASCII (acrónimo inglés de American Standard Code for Information Interchange
— Código Estadounidense Estándar para el Intercambio de Información ), pronunciado
generalmente [áski], es un código de caracteres basado en el alfabeto latino tal como se usa
en inglés moderno y en otras lenguas occidentales. Fue creado en 1963 por el Comité
Estadounidense de Estándares (ASA, conocido desde 1 969 como el Instituto
Estadounidense de Estándares Nacionales, o ANSI) como una refundic ión o evolución de los
conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se
incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el
código conocido como US-ASCII.
UNAH TEC,Danli. Taller de hardware I.

Tabla de Caracteres ASCII

Como hemos visto anteriormente la tabla sirve para funciones internas de codificación, pero
también el usuario puede utilizar esta tabla para poder introducir un código ASCII (Letra,
Símbolo o Número) en un procesador de texto o DOS, por ejemplo la letra Ñ, suele tener
problemas si se configura mal el teclado, utilizando el código ASCII, presionando la tecla ALT +
el código del carácter nos da automáticamente el có digo en pantalla.
UNAH TEC,Danli. Taller de hardware I.

Fuente de la PC

1. Transformación.

Este paso es en el que se consigue


reducir la tensión de entrada a
la
fuente (220v o 125v con
transformador)
que son los que nos entrega la red
eléctrica, recordemos que la
corriente NUEVO EATX
eléctrica que llega a nuestro
domicilio 24 Pines
es de tipo Alterna y los
componentes
electrónicos funcionan con
corriente
Continua.
Fuente
Primaria

Compilo: Msc : Pedro Martin Fiallos Página 7


UNAH TEC,Danli. Taller de hardware I.

Esta parte del proceso de transformación, como bien indica su nombre, se realiza con un
transformador en bobina. La salida de este proceso generará de 5 a 12 voltios.

2. Rectificación.

La corriente que nos ofrece la compañía eléctrica es alterna, esto quiere decir, que sufre
variaciones en su línea de tiempo, se producen cambios en forma de ciclos de corriente positiva
y negativa, estos cambios se suceden 50 veces por segundo.

3. Filtrado.

Ahora ya, disponemos de corriente continua, que es lo que nos interesaba, no obstante, aún no
nos sirve de nada porque no es constante, y no nos serviría para alimentar a ningún circuito

Lo que se hace en esta fase de filtrado es aplanar al máximo la señal para que no haya
oscilaciones, se consigue con uno o varios condensadores que retienen la corriente y la dejan
pasar lentamente para suavizar la señal, así se logra el efecto deseado.

. Estabilización

Ya tenemos una señal continua bastante decente, casi del todo plana, ahora solo nos falta
estabilizarla por completo, para que cuando aumenta o descienda la señal de entrada a la
fuente, no afecte a la salida de la misma.

Esto se consigue con un regulador.

Tipos de Fuentes

Después de comentar estas fases de la fuente de alimentación, procederemos a diferenciar


los dos tipos que existen actualmente.

Las dos fuentes que podremos encontrarnos cuando abramos un ordenador pueden ser:
AT o ATX

Las fuentes de alimentación AT, fueron usadas hasta que apareció el Pentium MMX, es en
ese momento cuando ya se empezarían a utilizar fuentes de alimentación ATX.

Las características de las fuentes AT, son que sus conectores a placa base varían de los
utilizados en las fuentes ATX, y por otra parte, quizás bastante más peligroso, es que la
fuente se activa a través de un interruptor, y en ese interruptor hay un voltaje de 220v, con
el riesgo que supondría manipular la PC.

También destacar que comparadas tecnológicamente con las fuentes ATX, las AT son un
tanto rudimentarias electrónicamente hablando.

Compilo: Msc : Pedro Martin Fiallos Página 8


UNAH TEC,Danli. Taller de hardware I.

En ATX, es un poco distinto, ya que se moderniza el circuito de la fuente, y siempre está


activa, aunque el ordenador no esté funcionando, la fuente siempre está alimentada con
una tensión pequeña para mantenerla en espera.

Una de las ventajas es que las fuentes ATX no disponen de un interruptor que
enciende/apaga la fuente, sino que se trata de un pulsador conectado a la placa base, y
esta se encarga de encender la fuente, esto conlleva pues el poder realizar
conexiones/desconexiones por software.

Existe una tabla, para clasificar las fuentes según su potencia


y caja.

Plana AT => 150-200 W


MiniTower => 200-300 W
Tower => 230-250 W
Slim => 75-100 W
Plana ATX => 200-250 W

Actualmente los gabinetes utilizan Fuentes de 400 W en adelante, dado el consumo de


Hardware moderno.

No obstante, comentar, que estos datos son muy variables, y únicamente son orientativos,
ya que varía según el número de dispositivos conectado s a la PC.

Tecla Corta Corriente


Fan

Cableado para conectar


Motherboard y Componentes
ternos.

Compilo: Msc : Pedro Martin Fiallos Página 9


UNAH TEC,Danli. Taller de hardware I.

Entrada 220 Volt Switch selector Voltaje

Conexión de Dispositivos

En Fuentes AT, se daba el problema de que existían dos conectores a conectar a placa base,
con lo cual podía dar lugar a confusiones y a cortocircuitos, la solución a ello es basarse en un
truco muy sencillo, hay que dejar en el centro los cables negros que los dos conecto res tienen,
así no hay forma posible de equivocarse.

P9

Tampoco olvidemos los conectores típicos para Disquetera 3 ½, Discos Duros y Lectoras:

Los equipos modernos utilizan fuentes con conectores adicionales para alimentar los nuevos
Coolers y microprocesadores potentes como los Intel P4 o los AMD FX, el cambio constante de
los microprocesadores dio mayores velocidades al equipo y prestaciones, así aparecieron los
discos rígidos SATA, placas de video PCI-Express, y Periféricos USB, así como también neones
y coolers adicionales que se le pueden instalar al equipo.

Compilo: Msc : Pedro Martin Fiallos Página 11


UNAH TEC,Danli. Taller de hardware I.

Un dato importante a tener en cuenta son los Watts de potencia de la fuente, es decir la capacidad
de entregar corriente eléctrica (alimentación) a los componentes de la PC, sin que la energía se
corte o que por falta de ésta los componentes recalienten. En principio las fuentes eran fabricadas
de 150 a 200 Watts y esto era más q ue suficiente para alimentar todo lo interno, hoy en
día, dada la cantidad de hardware incluido en la PC y sus grandes consumos de energía hacen
muy importante contar con una fuente que aparte de robusta y de buena calidad tenga la
capacidad de alimentar todos los componentes de la PC. Por eso el estándar es de no menos de
400 a 450Watts.

ATX

Etiqueta en Fuente que indica:


Fabricante, conexión y Watts.
AT

Compilo: Msc : Pedro Martin Fiallos Página 12


UNAH TEC,Danli. Taller de hardware I.

12 Volt MP.

PCI-E

Adicionales al Motherboard

Código Colores

Compilo: Msc : Pedro Martin Fiallos


Página 13
UNAH TEC,Danli. Taller de hardware I.

Arquitectura de la fuente: Cableado Interno.

Puente entre cables Verde y Negro, para arranque en


vacío.

NUEVO EATX

Código de Colores y Voltajes:

Compilo: Msc : Pedro Martin Fiallos Página 15


UNAH TEC,Danli. Taller de hardware I.

LEER LA ETIQUETA DE LA PROCESADORES.

La identificación de los procesadores Intel no es sencilla para una gran parte de usuarios. Si sumamos los que
forman parte del catálogo actual a los que todavía funcionan en equipos más antiguos, podemos irnos fácilmente a
tres centenares de modelos distintos que dificultan la comprensión de características a la hora de comprar un
nuevo ordenador personal o renovar uno existente.

Y cada uno ‘de su padre y de su madre’… por arquitectura, generación, serie, proceso tecnológico, plataforma,
segmento de mercado, enfoque, características y precios a tener en cuenta. Intel emplea un esquema
alfanumérico para su diferenciación y una página dedicada para verificar que dicho procesador cuenta con las
características que estás buscando, pero ni aún así es sencillo.

Un número de procesador más elevado en una clase o familia suele indicar más potencia o características,
pero no siempre, y además, los múltiples sufijos añadidos y la mezcla de arquitecturas de las últimas
generaciones han complicado la situación.

Los últimos modelos corresponden a la novena generación de procesadores Core y su identificación pasa por
conocer cada una de las partes del esquema alfanumérico empleado por Intel.

Marca: Intel (Core,


Pentium, Celeron…)

• Modificador de marca: (i9, i7, i5, i3)


• Indicador de generación: en este caso el número 9 que corresponde a la novena generación de
procesadores Core
• Dígitos numéricos SKU: (Stock-keeping unit o número de referencia). Identificador usado para el
seguimiento de un producto. Un mayor número suele reflejar mayores prestaciones.
• Sufijos opcionales: representan la línea (serie) de procesadores y se colocan al final. Hay unos cuantos
en cada generación, aunque en ésta tenemos 3 (de momento porque se comercializarán más modelos):
o “K» – Multiplicador desbloqueado para facilitar overclocking.
o «T» – Bajo consumo para sobremesas.
o «HK» – Multiplicador desbloqueado y alto rendimiento
o «X» – Rendimiento superior HEDT
o «XE» – Rendimiento máximo HEDT Extreme Edition

Compilo: Msc : Pedro Martin Fiallos Página 16


UNAH TEC,Danli. Taller de hardware I.

A tener en cuenta:

Para esta generación se comercializan dos series, diferenciadas pero que pueden confundir. Por un lado los
Core 9000 para el mercado del gran consumo (i9, i7, i5, i3) y por otro los Core X, procesadores de alto
rendimiento (HEDT) destinados a montaje en máquinas de trabajo profesionales o PCs grado entusiasta y
donde solo verás Core i9

Procesadores Intel y AMD: generaciones

Como hemos dicho queremos que esta guía sea útil y fácil de consultar. Para conseguirlo tenemos que marcar el
ámbito en el que nos vamos a mover, y en este caso hemos apostado por limitarnos a las generaciones de
procesadores que todavía hoy pueden ofrecer una buena experiencia de uso con un sistema operativo moderno.
Esto quiere decir, en resumen, que el límite queda fijado en los procesadores Core 2 Duo y Ahtlon 64 X2, y que
no hablaremos de procesadores más antiguos.

Esas dos generaciones de procesadores fueron rivales directos en su momento y todavía hoy pueden funcionar
sin problemas con Windows 10, pero están limitados a dos núcleos y por tanto no ofrecen un buen rendimiento en
aplicaciones que requieren cuatro núcleos (o cuatro hilos) para trabajar de forma óptima.

Sin más preámbulos pasamos a hacer un repaso exhaustivo de las principales arquitecturas y procesos de
fabricación de ambas compañías siguiendo el límite que hemos establecido al inicio de este apartado.

Intel: arquitecturas y procesos de fabricación


A continuación os resumimos las arquitecturas, procesos y series de procesadores de consumo general que Intel
ha comercializado en los últimos doce años:

• Conroe y Wolfdale: basadas en los procesos de 65 nm y 45 nm y utilizadas en los Core 2 Duo.


• Kentsfield y Yorkfield: basadas en los procesos de 65 nm y 45 nm y utilizadas en los Core 2 Quad.
• Nehalem: basada en el proceso de 45 nm y utilizada en los procesadores Core i3, Core i5 y Core i7 de
primera generación (serie 5xx y superiores).
• Sandy Bridge: basada en el proceso de 32 nm y utilizada en los procesadores Celeron, Pentium, Core i3,
Core i5 y Core i7 de segunda generación (serie 2xxx).
• Ivy Bridge: basada en el proceso de 22 nm y utilizada en los procesadores Celeron, Pentium, Core i3,
• Core i5 y Core i7 de tercera generación (serie 3xxx).
• Haswell: basada en el proceso de 22 nm y utilizada en los procesadores Celeron, Pentium, Core i3,
• Core i5 y Core i7 de cuarta generación (serie 4xxx).
• Broadwell: basada en el proceso de 14 nm y utilizada en los procesadores Celeron, Pentium, Core i3, Core
i5 y Core i7 de quinta generación (serie 5xxx).
• Skylake: basada en el proceso de 14 nm y utilizada en las gamas Celeron, Pentium, Core i3, Core i5 y
Core i7 de sexta generación (serie 6xxx).
• Kaby Lake: basada en proceso de 14 nm+ y utilizada en las gamas Celeron, Pentium, Core i3, Core i5 y
Core i7 de séptima generación (serie 7xxx).
• Coffee Lake: basada en el proceso de 14 nm++ y utilizada en las gamas Celeron, Pentium, Core i3, Core i5
y Core i7 de octava generación (serie 8xxx).

Compilo: Msc : Pedro Martin Fiallos Página 17


UNAH TEC,Danli. Taller de hardware I.

• Coffee Lake refresh: basada en el proceso de 14 nm++ y utilizada en las gamas Celeron, Pentium, Core
i3, Core i5, Core i7 y Core i9 de novena generación (serie 9xxx).

Dentro de su línea de procesadores HEDT (alto rendimiento) Intel ha lanzado también varias generaciones. Para
simplificar la exposición nos vamos a limitar a los procesadores que todavía se comercializan, ya que los modelos
más antiguos tienen una presencia anecdótica y han sido ampliamente superados por modelos de consumo
general con precios mucho menores.

• Haswell-E: arquitectura basada en el proceso de 22 nm. Se utiliza en los Core i7 Extreme serie 5000.
• Broadwell-E: arquitectura basada en el proceso de 14 nm. Se utiliza en los Core i7 Extreme serie 6000.
• Skylake-X: arquitectura basada en el proceso de 14 nm. Se utiliza en los Core i7 y Core i9 Extreme serie
7000X y 7000XE.
• Kaby Lake-X: arquitectura basada en el proceso de 14 nm+. Se utiliza en los Core i5 y Core i7 serie 7000X.

AMD: arquitecturas y procesos de fabricación

Como en el apartado de Intel os dejamos a continuación un resumen con las arquitecturas, procesos y líneas de
CPUs que ha comercializado AMD en esa misma franja de tiempo:

• K8: una arquitectura mítica sobre la que se han utilizado procesos de 90 nm y de 65 nm. Dio vida a
procesadores Athlon 64 X2 y Semprom.
• K10: basada en el proceso de 65 nm, 45 nm y 32 nm. Se utilizó en los procesadores Phenom, Phenom II,
Athlon X2, Athlon II y Sempron.
• Bulldozer: basada en el proceso de 32 nm. Ha tenido varias revisiones y se utiliza en los procesadores
AMD FX, Ahtlon II X4 (e inferiores) y en las APUs serie 4000 y superiores (hasta la serie 9000).
• Zen: está basada en el proceso de 14 nm y se utiliza en los nuevos procesadores Ryzen 3, Ryzen 5 y
Ryzen 7 serie 1000, así como en los Ryzen Pro serie 1000, ThreadRipper serie 1000 y en las APUs Ryzen
serie 2000.
• Zen+: está basada en el proceso de 12 nm y se utiliza en los procesadores Ryzen 3, Ryzen 5 y Ryzen 7
serie 2000, así como en los Ryzen Pro serie 2000 y ThreadRipper serie 2000.

Procesadores Intel: un vistazo a las diferentes gamas

Ya hemos visto las diferentes arquitecturas y procesos de fabricación que ha utilizado el gigante del chip desde
2006 hasta hoy. Con esto tenemos la base que necesitamos para profundizar en las características de cada
generación y ver las claves de cada gama y serie.

Con esto tendréis una visión más completa de las claves que definen a cada una de esas gamas y series, y del
rendimiento que podemos esperar de ellas.

• Core 2 Duo: son procesadores antiguos con dos núcleos y dos hilos. Han quedado desfasados, pero
todavía rinden bien con juegos de la generación anterior y en aplicaciones no muy exigentes.
• Core 2 Quad: mantienen el rendimiento base de los anteriores pero suben el total de núcleos e hilos a
cuatro, lo que les permite ofrecer un rendimiento superior en aplicaciones y juegos multihilo. Esto los coloca
en un nivel que todavía hoy podemos considerar como «aceptable».

Compilo: Msc : Pedro Martin Fiallos Página 18


UNAH TEC,Danli. Taller de hardware I.

• Celeron: procesadores económicos con dos núcleos y dos hilos que ofrecen un buen rendimiento en
ofimática general, multimedia y navegación. Los modelos para PC de escritorio rinden bien incluso con
juegos que no requieran cuatro hilos.
• Pentium: mantienen dos núcleos y dos hilos y en general no ofrecen una mejora de rendimiento importante
frente a los Celeron hasta la generación Skylake. Con la llegada de Kaby Lake los Pentium G4560 y
superiores saltaron a los dos núcleos y cuatro hilos, mejorando de forma notable su rendimiento, tanto que
son viables para jugar.
• Core i3: cuentan con dos núcleos y cuatro hilos hasta la generación Kaby Lake y dan el salto a los cuatro
núcleos y cuatro hilos en Coffee Lake. Esto, unido a su alto IPC, los convierte en una solución excelente
para los que quieran montar equipos económicos de alto rendimiento y eficiencia. Sirven para jugar y para
trabajar.
• Core i5: una de las gamas con mejor relación rendimiento-precio que ofrece Intel a día de hoy. Hasta la
generación Kaby Lake vienen con cuatro núcleos y cuatro hilos, pero a partir de Coffee Lake han dado el
salto a los seis núcleos y seis hilos. Sirven también para trabajar y para jugar. Los modelos con seis
núcleos están preparados para soportar una transición generacional de forma óptima.
• Core i7: formada por procesadores de cuatro núcleos y ocho hilos hasta la serie Kaby Lake. Suben a 6
núcleos y 12 hilos en Coffee Lake y hasta los 8 núcleos y 8 hilos en Coffee Lake refresh. Ofrecen un alto
rendimiento y están preparados para resistir también una transición generacional, sobre todo en el caso de
los modelos más actuales. Ofrecen una experiencia óptima en juegos y aplicaciones multihilo.
• Core i7 y Core i9 Extreme: son procesadores que tienen entre seis y dieciocho núcleos, aunque gracias a
la tecnología HyperThreading pueden trabajar con el doble de hilos. Sirven para trabajar y para jugar, y se
asientan sobre una plataforma superior que permite utilizar configuraciones de RAM en cuádruple canal y
un mayor número de líneas PCIE.

Procesadores AMD: un vistazo a las diferentes gamas

Ahora entramos de lleno a ver las características clave de las principales gamas y series de procesadores AMD.
Mantendremos el mismo esquema que con sus homónimos de Intel, lo que significa que partiremos de
generaciones bastante antiguas. Poneos cómodos, que empezamos.

Compilo: Msc : Pedro Martin Fiallos Página 19


UNAH TEC,Danli. Taller de hardware I.

• Athlon 64 X2: rivales de los Core 2 Duo. Suman dos núcleos y dos hilos y su rendimiento está por debajo
de aquellos, así que podemos esperar una experiencia un poco peor que con los equivalentes de Intel.
• Phenom II: llegaron en una época de transición, así que rivalizaron con los Core 2 Quad y los Core de
primera generación. Suman entre dos y seis núcleos y ofrecen un rendimiento bruto superior al de los
Athlon 64 X2. También están desfasados, pero los modelos con cuatro y seis núcleos todavía son viables
en una gran cantidad de aplicaciones y de juegos.
• Athlon: hay versiones que tienen entre dos y cuatro núcleos. El rendimiento de las versiones basadas en
Bulldozer y sus derivados es bueno en cualquier tarea básica y los modelos de cuatro núcleos ofrecen un
desempeño aceptable incluso en juegos actuales.
• APU: es una solución que integra procesador y unidad gráfica en un mismo encapsulado. Existen
configuraciones son muy variadas tanto por arquitectura CPU y GPU como por especificaciones. Los
modelos menos potentes y más antiguos se basan en Bulldozer a nivel CPU y en Terascale 3 a nivel GPU,
mientras que las más actuales utilizan la arquitectura Zen y Radeon RX Vega, respectivamente. Estas
variantes, las más actuales, montan procesadores de hasta 4 núcleos y 8 hilos y unidades gráficas con 704
shaders, lo que las convierte en soluciones bastante potentes.
• AMD FX 4000: suman dos módulos completos y tienen cuatro núcleos de enteros a unas frecuencias de
trabajo muy altas, además de multiplicador desbloqueado. Ofrecen un rendimiento aceptable incluso en
juegos actuales.
• AMD FX 6000: cuentan con tres módulos completos y tienen seis núcleos de enteros a unas frecuencias de
trabajo muy altas, además de multiplicador desbloqueado como los anteriores. Son capaces de mover
muchas aplicaciones y juegos ofreciendo una buena experiencia.
• AMD FX 8000-9000: tienen cuatro módulos completos y ocho núcleos de enteros. También trabajan a
una frecuencia muy alta y soportan overclock. Ofrecen todavía un rendimiento que podemos considerar
como bueno en casi cualquier circunstancia.
• Ryzen 3: representan un salto importante a nivel de arquitectura. Su IPC mejora un 52% frente a los
FX, tienen cuatro núcleos y son económicos. Pueden ofrecer una experiencia muy buena en juegos y
aplicaciones actuales.
• Ryzen 5: hay dos variantes, los modelos 1500 e inferiores, que suman 4 núcleos y 8 hilos, y los
modelos 1600 y 2600, que tienen 6 núcleos y 12 hilos. Ofrecen un rendimiento muy alto y tienen un
precio muy bueno. Sirven para trabajar y para jugar sin problemas.
• Ryzen 7: suman 8 núcleos y 16 hilos. Como todos los procesadores Ryzen soportan overclock y
ofrecen un excelente rendimiento en cualquier circunstancia. Son de lo mejor que podemos encontrar
en el mercado en relación calidad-precio.
• Threadripper 1000: utilizan la arquitectura Zen pero cuentan con hasta 16 núcleos y 32 hilos. Se
integran en una plataforma superior que permite utilizar configuraciones de memoria en cuádruple
canal y ofrecen una mayor cantidad de líneas PCIE.
• Threadripper 2000: una evolución de los anteriores. Fabricados sobre la arquitectura Zen+ y con hasta 32
núcleos y 64 hilos. Pensados para profesionales que utilicen aplicaciones multihilo muy exigentes.

Intel Athena: la revolución de los portátiles se acerca

Intel Athena Project es un proyecto de la firma norteamericana que se espera que dé resultados en 2020. A partir
de ese...

• ¿Quieres un chip duradero? Entonces AMD es tu alternativa.


• ¿Quieres la mejor relación calidad/rendimiento/precio? Mira a AMD también en este caso. Sus chips
equivalentes son bastante más baratos que los de Intel. Por tanto, por el mismo precio que un chip de Intel
pCuoemdpeisloc: oMnssce:gPueirdruona
Mgaratm
inaFsiaulp
loesrior de AMD. Página 20
UNAH TEC,Danli. Taller de hardware I.

• ¿Quieres el mayor rendimiento posible single-core? Entonces puedes elegir un Intel.


• ¿Quieres el mayor rendimiento multi-core? Intel y AMD están bastante igualados, aunque AMD en
algunos modelos ofrece gran cantidad de cores y threads en paralelo, como en Ryzen 9.
• ¿Quieres alta eficiencia energética? Aquí también están bastante igualados, aunque AMD Ryzen basado
en la 3º Gen (Zen 2) ha dado un importante paso adelante gracias a la tecnología de fabricación de 7nm
que ha supuesto un duro golpe en la línea de flotación de Intel.

Significado de Memoria RAM


Qué es Memoria RAM

La memoria RAM es la memoria principal de un dispositivo donde se almacena programas y datos


informativos. Las siglas RAM significan “Random Access Memory” traducido al español es “Memoria de Acceso
Aleatorio”.

La memoria RAM es conocida como memoria volátil lo cual quiere decir que los datos no se guardan de
manera permanente, es por ello, que cuando deja de existir una fuente de energía en el dispositivo la información
se pierde. Asimismo, la memoria RAM puede ser reescrita y leída constantemente

Existen 2 tipos básicos de memoria RAM; RAM dinámica (DRAM) y RAM estática (SRAM), ambas utilizan
diferentes tecnologías para almacenar los datos. La RAM dinámica (DRAM) necesita ser refrescada 100 de veces
por segundos, mientras que la RAM estática (SRAM) no necesita ser refrescada tan frecuentemente lo que la
hace más rápida pero también más cara que la memoria RAM dinámica.

Tipos de memoria RAM

DDR conocida como SDRAM (Synchronous Dram) es un tipo de memoria RAM, dinámica que es casi un 20%
más rápida que la RAM EDO. Esta memoria entrelaza dos o más matrices de memoria interna de manera que
mientras se accede a una matriz, la próxima se está preparando para acceder, dicha memoria permite leer y
escribir datos a 2 veces la velocidad buz.

DDR2 son unas mejoras de la memoria DDR que permite que los búferes de entrada – salida funcionan al doble
de la frecuencia del núcleo, permitiendo que durante cada ciclo de reloj se realizan 4 transferencias. Una memoria
DDR a 200 MHZ reales entregaba 400 MHZ nominales, la DDR2 con esos mismos 200 MHZ entrega 800 MHZ
NOMINALES.

DDR3 puede ser 2 veces más rápida que la memoria DRR2, la DDR3 teóricamente podía transferir datos a una
tasa de reloj efectiva de 800-2600 MHZ, comparado con el rango de DDR2 de 400-1200MHZ o 200-533MHZ del
DDR2.

Memoria caché o RAM caché un caché es un sistema especial de almacenamiento de alta velocidad, puede ser
tanto un área de reservada de la memoria principal como un dispositivo de almacenamiento de alta velocidad
independiente. Una memoria caché es una parte de memoria RAM estática de alta velocidad (SRAM) más que la
lenta y barata RAM dinámica (DRAM) usada como memoria principal. La memoria caché es efectiva debido a que
los programas acceden una y otra vez a los mismos datos e instrucciones.

Compilo: Msc : Pedro Martin Fiallos Página 21


UNAH TEC,Danli. Taller de hardware I.
Dentro de cada una de estas memorias pueden existir distintos tipos de capacidad de almacenamiento, es decir,
pueden tener capacidad de 1GB, 2GB, 4GB, 8GB.

Para qué sirve la memoria RAM

La memoria RAM sirve para mejorar la velocidad de respuesta al momento de utilizar algún programa en el
ordenador ya que la información que necesita dicho programa para hacerlo funcionar se encuentra almacenada en
la memoria RAM, de esta manera, al ejecutar el programa se traslada al procesador todas las instrucciones que
necesitan ser ejecutadas realizando diferentes transmisiones de datos según sea necesario, en consecuencia, la
memoria RAM y el procesador interactúan entre si intercambiando los datos solicitados.

La memoria RAM almacena dicha información y le envía al procesador los datos que necesitan ser procesados,
por lo tanto, mientras la memoria posea mayor velocidad de transmisión y mayor capacidad de almacenamiento el
usuario podrá utilizar más programas a la vez y de manera más rápida.

• DRAM (Memoria de tipo síncrono): La gran diferencia con las anteriores versiones de DRAM es que esta
cuenta con un reloj interno que es capaz de sincronizar la frecuencia de la memoria con el procesador para
mejorar los tiempos de acceso y la eficiencia de la comunicación. Este es el tipo de memoria RAM Que se
utiliza a día de hoy, y existen varias versiones de ella que ahora veremos.

• SDR RAM: éstas fueron las antecesoras de las conocidísimas DDR RAM y son de tipo síncrono. Se
construyeron bajo un encapsulado DIMM de 168 contactos y hasta hace unos 10 año eran las que tenían
nuestros ordenadores, ya que fueron utilizadas en los AMD Athlon y los Pentium 2 y 3. Solamente admitían
un tamaño por módulo de 512 MB.

Memoria DDR SDRAM (Actuales)

Debido a que son las memorias RAM actuales, hemos decidido meterlas en un apartado aparte, ya que hay
bastantes variantes dentro de esta familia de memorias RAM. Todas ellas son de tipo síncrono, y se han ido
utilizando durante estos años atrás hasta el día de hoy.

Las memorias DDR permiten la transferencia de información mediante dos canales distintos de forma
simultánea en un mismo ciclo de reloj (Double Data), algo que nos permite alcanzar mayor rendimiento y
velocidades de acceso. Por supuesto existen barias versiones de estas memorias RAM utilizadas en los
ordenadores actuales.

DDR SDRAM (primera versión)

Compilo: Msc : Pedro Martin Fiallos Página 22


UNAH TEC,Danli. Taller de hardware I.

Esta es la primera versión de la memoria RAM DDR que conocemos actualmente. Están montadas en módulos
DIMM de 182 contactos y SO-DIMM de 200 pines. Estas memorias funcionan a 2,5 Voltios y cuentan con una
velocidad de reloj de entre 100 MHz y 200 MHz.

Las DDR RAM fueron las primeras en implementar la tecnología Dual Channel, que permite repartir los módulos
de memoria RAM en dos bancos o ranuras para intercambiar datos con el bus en dos canales simultáneos. Por
ejemplo, si los módulos son de 64 bits, tendremos un ancho de bus de intercambio de 128 bits. Han existido las
siguientes configuraciones de memoria RAM en cuanto a velocidad:

Nombre Frecuencia de Frecuencia de Velocidad de Nombre del Capacidad


estándar reloj bus trasferencia módulo de
transferencia
DDR-200 100 MHz 100 MHz 200 MHz PC-1600 1,6 GB/s
DDR-266 133 MHz 133 MHz 266 MHz PC-2100 2,1 GB/s
DDR-333 166 MHz 166 MHz 333 MHz PC-2700 2,7 GB/s
DDR-400 200 MHz 200 MHz 400 MHz PC-3200 3,2 GB/s

DDR2 SDRAM (segunda versión)

Son la segunda versión de las memorias DDR, y cuentan con la novedad respecto a las anteriores de que son
capaces de doblar los bits transferidos a 4 en lugar de 2 por cada ciclo de reloj.

El encapsulamiento utilizado también es de tipo DIMM, pero con 240 contactos y la mueca en un lugar diferente
para diferenciarlas de las anteriores. Estos módulos trabajan a 1,8 V, por lo que consumen menos que las DDR.
También existen variantes con encapsulado So-DIMM y Mini DIMM para portátiles y versiones DDR2L para
portátiles con consumos de 1,5 V. Una memoria DDR2 no se puede instalar en una ranura DDR ni viceversa,
ya que no son compatibles entre ellas.
Compilo: Msc : Pedro Martin Fiallos Página 23
UNAH TEC,Danli. Taller de hardware I.

Las configuraciones que han existidos son las siguientes:

Nombre Frecuencia Frecuencia Velocidad Nombre Capacidad


estándar de reloj de bus de del módulo de
trasferencia transferenci
DDR2-333 100 MHz 166 MHz 333 MHz PC2-2600 a
2,6 GB/s
DDR2-400 100 MHz 200 MHz 400 MHz PC2-3200 3,2 GB/s
DDR2-533 133 MHz 266 MHz 533 MHz PC2-4200 4,2 GB/s
DDR2-600 150 MHz 300 MHz 600 MHz PC2-4800 4,8 GB/s
DDR2-667 166 MHz 333 MHz 667 MHz PC2-5300 5,3 GB/s
DDR2-800 200 MHz 400 MHz 800 MHz PC2-6400 6,4 GB/s
DDR2-1000 250 MHz 500 MHz 1000 MHz PC2-8000 8 GB/s
DDR2-1066 266 MHz 533 MHz 1066 MHz PC2-8500 8,5 GB/s
DDR2-1150 286 MHz 575 MHz 1150 MHz PC2-9200 9,2 GB/s
DDR2-1200 300 MHz 600 MHz 1200 MHz PC2-9600 9,6 GB/s

DDR3 SDRAM (tercera versión)

En este caso se mejora la eficiencia energética, al trabajar a un voltaje de 1,5 V en la versión de escritorio. El
encapsulado sigue siendo de tipo DIMM de 240 pines y la capacidad por módulo de memoria es de hasta 16 GB.
Tampoco son compatibles con el resto de especificaciones.

Un aspecto negativo de las versiones siguientes a las DDR es que, a pesar de que la velocidad sube, también lo
hace la latencia en ellas, aunque en esencia, son más veloces siempre que la generación anterior.

En esta nueva versión de memoria RAM, se introdujeron unas cuantas variantes en función de las necesidades
de los equipos portátiles y la invención de los Mini PC (NUC), que son básicamente equipos de sobremesa, pero
de dimensiones muy pequeñas y consumos muy bajos.

• DDR3: son las tradicionales de ordenadores de escritorio en encapsulado DIMM y trabajando a 1,5 V.
• DDR3L: en este caso funcionan a 1,35 V y están orientadas a portátiles, NUC y servidores bajo
encapsulados So-DIMM, SP-DIMM y Mini DIMM.
• DDR3U: bajan hasta los 1,25 V y no son demasiado utilizadas.
• LPDDR3: esta memoria consume solamente 1,2 V y están pensadas para su uso en Tablet y Smartphone.
Además, consumen muy poco voltaje cuando no están en uso, por lo que son muy eficientes. Este tipo de
chips están directamente soldados a la PCB del dispositivo.

Veamos ahora las configuraciones que tenemos en el mercado:

Compilo: Msc : Pedro Martin Fiallos Página 24


UNAH TEC,Danli. Taller de hardware I.
Nombre Frecuencia Frecuencia de Velocidad de Nombre del Capacidad de
estándar de reloj bus trasferencia módulo transferencia
DDR3-800 100 MHz 400 MHz 800 MHz PC3-6400 6,4 GB/s
DDR3-1066 133 MHz 533 MHz 1066 MHz PC3-8500 8,5 GB/s
DDR3-1200 150 MHz 600 MHz 1200 MHz PC3-9600 9,6 GB/s
DDR3-1333 166 MHz 666 MHz 1333 MHz PC3-10600 10,6 GB/s
DDR3-1375 170 MHz 688 MHz 1375 MHz PC3-11000 11 GB/s
DDR3-1466 183 MHz 733 MHz 1466 MHz PC3-11700 11,7 GB/s
DDR3-1600 200 MHz 800 MHz 1600 MHz PC3-12800 12,8 GB/s
DDR3-1866 233 MHz 933 MHz 1866 MHz PC3-14900 14,9 GB/s
DDR3-2000 250 MHz 1000 MHz 2000 MHz PC3-16000 16 GB/s
DDR3-2133 266 MHz 1066 MHz 2133 MHz PC3-17000 17 GB/s
DDR3-2200 350 MHz 1100 MHz 2200 MHz PC3-18000 18 GB/s

DDR4 SDRAM (cuarta y actual versión)

Estas memorias operan a una frecuencia mayor y están montadas en un encapsulado DIMM de 288 pines. A
pesar de que la frecuencia aumenta de forma considerable, estas memorias son aún más eficientes, ya que
trabajan a 1,35 V en PC de escritorio y a 1,05 en los casos de portátiles. Las versiones más potentes de hasta
4600 MHz trabajan a 1,45 V.

Otra de las novedades que implementan las DDR4, es que son capaces de funcionar en triple y cuádruple canal
(Triple Channel y Quad Channel). Además, ya tenemos posibilidad de montar módulo de hasta 16 y 32 GB en un
solo encapsulado.

De igual forma, estas memorias se dividen en 4 tipos distintos en función de su uso:

Compilo: Msc : Pedro Martin Fiallos Página 25


UNAH TEC,Danli. Taller de hardware I.

• DDR4: son las que se utilizan en los equipos de escritorio, vienen en un módulo DIMM de 288 contactos y
operan a voltajes de entre 1,35 y 1,2 V.
• DDR4L: Estas memorias están diseñadas para portátiles y servidores y están montadas en un módulo So-
DIMM a 1,2 V.
• DDR4U: Al igual que ocurre con las anteriores, se utilizan para servidores fundamentalmente y también
operan a 1,2 V. Su uso es escaso y están más extendidas las DDR4L.
• LPDDR4: Están diseñadas para dispositivos móviles y trabajan a 1,1 o 1,05 V, aunque son menos veloces
que las DDR4 de escritorio como es normal. Trabajan a unos 1600 MHz, aunque también existe otra
versión llamada LPDDR4E que alcanza los 2133 MHz.

Descripción de la nomenclatura de la RAM.

G.SKILL RIPJAWS V RED DDR4 2133 PC4-17000 16GB 2X8GB CL15

Pasamos a describir las características de la RAM.

G.SKILL RIPJAWS V RED = MARCA Y MODELO


DDRR4 = TIPO DE MEMORIA RAM
2133MHZ= FRECUENCIA EN LA QUE TRABAJA LA RAM
PC4-17000 = NOMBRE DEL MODULO DE RAM

16GB (2X8GB) = CANTIDAD DE MEMORIA RAM TOTAL


(UTILIZA 2 MODULOS DE RAM)

CL15 = LATENCIA

Compilo: Msc : Pedro Martin Fiallos Página 26


UNAH TEC,Danli. Taller de hardware I.
MOTHERBOARD

El Motherboard es el elemento principal de la PC. Si decimos que el procesador es el cerebro.


El Motherboard es la espina dorsal, donde están conectados todos los demás elementos de
Hardware, es el componente más crítico de una computadora.

La placa base, placa madre o tarjeta madre (en inglés motherboard, mainboard) sirve como

medio de conexión entre: El microprocesador, circuitos electrónicos de soporte, ranuras para


conectar parte o toda la RAM del sistema, la ROM y ranuras especiales (slots) que permiten la
conexión de tarjetas adaptadoras adicionales.

Estas tarjetas de expansión suelen realizar funciones de control de periféricos tales como
monitores, impresoras, unidades de disco, etc.

Se diseña básicamente para realizar tareas específicas vitales para el funcionamiento de la


computadora, como por ejemplo las de:

• Conexión física.
• Administración, control y distribución de energía eléctrica.
• Comunicación de datos.
• Temporización.
• Sincronismo.
• Control y monitoreo.

Para que la placa base cumpla con su cometido lleva instalado un software muy básico
denominado BIOS.

Compilo: Msc : Pedro Martin Fiallos Página 27


UNAH TEC,Danli. Taller de hardware I.

Arquitectura Abierta:
Gran cantidad de Zócalos
de expansión para cambiar
componentes.
El motherboard es mucho más
importante d e lo que
p a r e c e ; Hoy en día con el
concepto de arquitectura abierta
es posible incorporar o
intercambiar partes de la PC
luego de su compra o armado,
actualizar el equipo, de esta
manera distintos fabricantes
pueden producir partes para
incorporar en la PC.
Recordemos que las primeras
PC traían sus componentes
soldados a la Placa Madre lo
cual dificultaba su cambio.

Por lo tanto gracias a estas

Compilo: Msc : Pedro Martin Fiallos Página 28


UNAH TEC,Danli. Taller de hardware I.

características uno puede


seleccionar los componentes de
la PC de acuerdo al uso del equipo o rendimiento que se necesite, luego actualizarlo o cambiar
algún componente dañado.

Compilo: Msc : Pedro Martin Fiallos Página 29


UNAH TEC,Danli. Taller de hardware I.

Vista Lateral
Vista Superior

Compilo: Msc : Pedro Martin Fiallos Página 17


UNAH TEC,Danli. Taller de hardware I.

Componentes Integrados (onboard)

Este concepto se creo con la idea de abaratar el costo de los equipos, una generación de PC
salió al mercado con motherboards que además de sus componentes habituales que a
continuación veremos incluían en la misma placa de fábrica video, sonido, modem y red. De
esta manera un motherboard bajaba el costo final ya que uno se olvida de la compra del resto
de los componentes habituales. En su contra podemos decir que estos componentes son de
calidad media lo cual limita las prestaciones de la PC, también se ve reducido en espacio físico
al incorporar estos integrados y conectores adicionales para los que los fabricantes eliminaron
zócalos de expansión, esto limita el concepto de arquitectura modular o el intercambio de
partes.
RED
mouse PS/2 USB Puerto Paralelo SONIDO

Video

Mouse Serie
Teclado

TV OUT

Compilo: Msc : Pedro Martin Fiallos Página 18


UNAH TEC,Danli. Taller de hardware I.

El Diseño

El formato de la placa esta sujeta a un estándar de fabricación que se debe respetar para la fácil
instalación en el gabinete y su sujeción, referente a su forma rectangular y orificios de soporte.
Así como su compatibilidad a los componentes tanto internos como externos por ejemplo
zócalos de expansión PCI Express para las nuevas placas de video o conectores USB para una
cámara digital o impresora entre otras; es te formato es fundamental para la compatibilidad con
todo el hardware del mercado, así también determinados componentes requieren un diseño único
partiendo por ejemplo el zócalo del microprocesador que cada modelo del mercado tiene su propio
socket.

Chip
controlador Panel
Red Trasero

Zócalos PCI

Zócalo AGP Microprocesador


(Socket)

Pila
Chipset

Conectores
USB Zócalos
Frontales Memorias

Conector ATX

RomBios
Conectores IDE Conector Floppy

Compilo: Msc : Pedro Martin Fiallos Página 19


UNAH TEC,Danli. Taller de hardware I.

• XT (8.5 × 11" or 216 × 279 mm)


• AT (12 × 11"–13" o 305 × 279–330 mm)
• Baby-AT (8.5" × 10"–13" o 216 mm × 254-330 mm)
• ATX (Intel 1996; 12" × 9.6" o 305 mm × 244 mm)
• EATX (12" × 13" o 305mm × 330 mm)
• Mini-ATX (11.2" × 8.2" o 284 mm × 208 mm)
• microATX (1996; 9.6" × 9.6" o 244 mm × 244 mm)

Placas ATX:

El formato ATX (siglas de Advanced Technology Extended') es presentado por Intel en 1995. Con
un tamaño de 12 pulgadas de ancho por 9,6 pulgadas de profundo, este nuevo formato se
resuelven todos los inconvenientes que perjudicaron a la ya mencionada placa. Los puertos más
habituales (impresora Centronics, RS-232 en for mato DB-9, la toma de joystick/midi y de tarjeta
de sonido, los puertos USB y RJ-45 (para red a 100) y en algunos casos incluso la salida de
monitor VGA, se agrupan en el lado opuesto a los slots de ampliación. El puerto DIN 5 de
teclado es sustituido
por las tomas PS/2
de teclado y mouse
(llamadas así por
introducirlas IBM en su
gama de ordenadores
PS/2 y rápidamente
adoptada por todos los
grandes fabricantes) y
situados en el mismo
bloque.
La nueva fuente,
además del interruptor
físico de corriente
como en la AT, tiene
un modo de apagado
similar al de los
electrodomésticos de
consumo, alimentado
a la placa con una
pequeña corriente que
permite que responda
a eventos (como una
señal por la red o un
mando a distancia) encendiéndose o, si se ha habilitado el modo de hibernado heredado de las
portátiles, restablecer el trabajo en el punto dond e se dejó.

Cabe mencionar la versión reducida de este formato, las placas mini ATX.

Compilo: Msc : Pedro Martin Fiallos Página 20


UNAH TEC,Danli. Taller de hardware I.

Micro ATX:

El formato microATX (también conocida como µATX ) es un formato de placa base pequeño
con un tamaño máximo de 9,6 x 9,6 pulgadas (244 mm x 244 mm) empleada principalmente en
cajas tipo cubo y SFF. Debido a sus dimensiones sólo tiene sitio para 1 o 2 slots PCI y/o AGP,
por lo que suelen incorporar puertos FireWire y USB 2 en abundancia (para permitir conectar
unidades externas de disco duro y regrabadoras de DVD).

Placa LPX:

Basada en un diseño de Western Digital, permite el uso de cajas más pequeñas en un a placa
ATX situando los slots de expansión en una placa especial llamada riser card (una placa de
expansión en sí misma, situada en un lateral de la placa base). Este diseño sitúa a las placas
de ampliación en paralelo con la placa madre en lugar de en perpendicular. Generalmente es
usado sólo por grandes ensambladores como IBM, Compaq, HP o Dell, principalmente en sus
equipos SFF (Small Form Format o cajas de formato pequeño). Por eso no suelen tener más de
3 slots cada uno.

Compilo: Msc : Pedro Martin Fiallos Página 21


UNAH TEC,Danli. Taller de hardware I.

Componentes del motherboard:

Como podemos apreciar en las distintas imágenes, ca da Placa tiene un diseño especial, el cual
se asemeja a otras pero nunca es el mismo. Cada fabricante decide que componentes utilizar
para lograr la máxima compatibilidad y rendimiento con la tecnología del momento. Esta
relación se ve reflejada directamente en el precio final de la Placa.

El Chipset:
El Circuito Integrado Auxiliar o Chipset es un conjunto de circuitos integrados que se
encarga de realizar las funciones que el microprocesador delega en ellos. Chipset traducido
literalmente del inglés significa conjunto de circuitos integrados. Se designa circuito integrado
auxiliar al circuito integrado que es periférico a un sistema pero necesario para el
funcionamiento del mismo. La mayoría de los sistemas necesitan más de un circuito integrado
auxiliar; sin embargo, el término chipset se suele emplear en la actualidad cuando se habla sobre
las placas base de las PCs IBM.

Entonces el "chipset" es el conjunto de chips que se encargan de controlar determinadas


funciones del ordenador, como la forma en que interacciona el microprocesador con la memoria
o la caché, o el control de los puertos y slots ISA, PCI, AGP, USB...

En los procesadores habituales el chipset está formado por 2


circuitos auxiliares al procesador principal:

En los últimos modelos de placas el Southbridge aca para cada vez mayor número de
dispositivos a conectar y comunicar por lo que fabricantes como AMD o VIA han desarrollado

tecnologías como HyperTransport o V-Link respectivamente para evitar el efecto cuello de


botella en el transporte de datos entre dispositivos.

A continuación veremos una serie de ejemplos de diagramas de Chipsets:

Compilo: Msc : Pedro Martin Fiallos Página 22


UNAH TEC,Danli. Taller de hardware I.

Compilo: Msc : Pedro Martin Fiallos Página 23


UNAH TEC,Danli. Taller de hardware I.

Chipset Simple:
Un Solo C.I.

Zócalos de expansión (slots):


Ranura dentro de un ordenador o computadora diseñada para contener tarjetas de expansión y
conectarlas al bus del sistema (Bus de datos). La mayoría de los equipos informáticos
personales tiene entre 3 y 8 zócalos de expansión (en inglés, slots). Los zócalos ofrecen un
medio para añadir características nuevas o mejoradas al sistema, así como también memoria.

Ranura, en español. Se trata de cada uno de los alojamientos que tiene la placa madre en los
que se insertan las tarjetas de expansión. Todas estas ranuras están conectadas entre sí y un
ordenador personal tiene generalmente
ocho, aunque puede llegar a doce.

1) Isa Simple.
2) Isa Doble.
3) VESA.
4) PCI.
5) AGP.
6) CNR o AMR.
7) PCI-E

Compilo: Msc : Pedro Martin Fiallos Página 24


UNAH TEC,Danli. Taller de hardware I.

El Bus de Expansión ISA:

Éste Bus se identifica en una motherboard, porque a sus líneas están conectados por soldadura,
varios zócalos conectores (Slots) de color negro, donde pueden insertarse plaquetas de
interfaces de periféricos. La función del Bus ISA, es permitir la comunicación entre la porción
central, ubicada en la plaqueta principal, y los registros ports de dichas interfaces.

Los zócalos vinculados al bus, permiten expandir el número de periféricos de una PC, de donde
resulta también su denominación de Bus de Expansión, habiendo sido creado por IBM para las
primeras PC, de donde resulta también su denominación de "I/O Channell". Si bien IBM nunca
publicó las normas mecánicas y eléctricas que debían cumplir los conectores, y el tipo de señal a
transmitir por cada línea del Bus, éste se convirtió en un Standard de hecho, conocido como
Industry Estándar Architecture (ISA), siendo otras denominaciones: Bus AT, Bus del Sistema,
Bus Convencional, Bus de E/S e IBM PC Bus.

VESA Local Bus (VLB)

En 1992, los fabricantes reunidos en la Video Electronics Standard Association (VESA),


establecieron el estándar VESA VL, con especificaci ones para la implementación del bus,
señales eléctricas, y diseño constructivo de los zócalos conectores de éste bus.

Éstos se parecen a los conectores del Bus MCA de IBM, son de color marrón, tienen cincuenta y
seis contactos por lado, y están dispuestos cerca de la CPU alineados con los zócalos del Bus
ISA. Acorde a los estándares actuales, su número má ximo es de tres. Único con el zócalo Isa en
conjunto lograba un mejor desempeño en velocidad de datos. Poco tiempo después se lo
reemplazo definitivamente por el Zócalo PCI.

Compilo: Msc : Pedro Martin Fiallos Página 25


UNAH TEC,Danli. Taller de hardware I.

Local Bus

En 1992, la compañía Intel lideró la creación de un grupo que integraba fabricantes de hardware
para la industria de la PC. El Peripherial Component Interconnect (PCI) Bus, es otra forma de
acceder al Bus Local desarrollado para el Pentium, después de que el Bus VESA dominara el
mercado de las 486. Es apto para PC y otros tipos de computadoras.

A diferencia del VESA, el bus se acopla al bus local a través de un chip controlador especial, y
está pensado para soportar en sus zócalos (color blanco, de 124 conectores para 32 bits), además
de las interfaces de video, disco rígido y r ed local, las plaquetas para multimedia, audio,
video y otras.

La interfaz PCI
PCI ("Peripheral Component Interconnect") es básicamente una especificación para la
interconexión de componentes en ordenadores. Ha dado lugar a un bus PCI, denominado
también Mezzanine, en español entresuelo, porque funciona como una especie de nivel añadido
al bus ISA/EISA tradicional de la placa madre. Es un bus de 32 bits que funciona a 5 V, 33 MHz,
con una velocidad de transferencia inicial de 133 Mb/s (Megabits por segundo).

• Configuración por software (sin jumpers): PCI se creó pensando en el estándar PnP
("Plug and Play"), por lo que los dispositivos PCI pueden ser configurados
exclusivamente mediante software (aunque algunos fabricantes rompen la norma). Cada
dispositivo PCI debe estar diseñado para solicitar de forma inequívoca los recursos que
necesita (Zona de memoria mapeada, direcciones E/S, canales DMA, Interrupciones,
etc.).

• Advanced Telecomunications Computing Architecture (ATCA o AdvancedTCA) es la


siguiente generación de buses para la industria de las telecomunicaciones.

Compilo: Msc : Pedro Martin Fiallos Página 26


UNAH TEC,Danli. Taller de hardware I.

Esta diferencia en prestaciones del PCI lleva a que muchos fabricantes cambien el color
tradicionalmente blanco, por otros.

AMR Bus

AMR del inglés Audio Modem Riser. Es una ranura de expansión en la placa madre para
dispositivos de audio como tarjetas de sonido o modems, lanzada en 1998, cuenta con 16 pines y
es parte del estándar de audio AC97 aun vigente e n nuestros días, generalmente utilizados en
Motherboards de tipo Genéricos. En un principio se diseñó como ranura de expansión para
dispositivos económicos de audio o comunicaciones ya que estos harían uso de los recursos de
la máquina como el microprocesador y la memoria RAM . Esto tuvo poco éxito ya que fue
lanzado en un momento en que la potencia de las máq uinas no era la adecuada para soportar
esta carga y el escaso soporte de los drivers para estos dispositivos en sistemas operativos que
no fuesen Windows.

CNR Bus

CNR Del inglés Comunication and Network Riser. Se trata de una ranura de expansión en la
placa madre para dispositivos de comunicaciones como modems, tarjetas Lan o USB. Fue
introducido en febrero del 2000 por Intel en sus placas para procesadores Pentium y se trataba
de un diseño propietario por lo que no se extendió más allá de las placas que incluían los
chipsets de Intel.

Adolecía de los mismos problemas de recursos de los dispositivos diseñados para ranura AMR.
Puerto especial para tarjetas especiales como modems.

AMR

AMR
CNR
CNR

Compilo: Msc : Pedro Martin Fiallos Página 27


UNAH TEC,Danli. Taller de hardware I.

Qué es y que función cumple la tarjeta de video

Un par de tarjetas de vídeo bastante simples. Una es AGP y otra PCI Express

La tarjeta de vídeo es un dispositivo electrónico que se encarga de regular y determinar la forma en cómo se
mostraran las imágenes y texto que se observa en el monitor de la computadora. Son las que envían señal a
nuestro monitor, televisor o proyector. La calidad de la tarjeta de video en una computadora influye sobre todo a
la hora de jugar, editar vídeo o 3D.

La tarjeta de vídeo se encarga de traducir la información que se procesa en la computadora y mostrarla de


manera que se pueda entender por el usuario común, a este dispositivo también se le conoce como controlador
de vídeo, adaptador de vídeo, acelerador de vídeo o acelerador gráfico, en la actualidad existen muchas
marcas y modelos de tarjetas de vídeo y la gran mayoría están destinadas para usuarios que requieren mucha
capacidad gráfica para trabajar, por ejemplo los diseñadores gráficos o los vídeo jugadores.

Los componentes electrónicos que conforman una tarjeta de video son:

Compilo: Msc : Pedro Martin Fiallos Página 30


UNAH TEC,Danli. Taller de hardware I.

Aquí podéis ver una tarjeta de Vídeo con DVI y HDMI. Generalmente cuanto mas caras las
tarjetas mas salidas suelen ofrecer.

Puerto VGA o estándar: Es el conector donde se instala el cable de la computadora que envía la
señal de salida al monitor.

Puerto DVI: (Digital Video Interface) es un conector de salida para monitores digitales planos.

Puerto HDMI: (High Definition Multimedia Interface) es un conector de salida cuya interfaz multimedia
de alta calidad se puede utilizar para conectar cualquier dispositivo que soporte esta tecnología de
audio y video digital.

Puerto TV: Algunas de las tarjetas de video que hay en el mercado disponen de este componente
para que se pueda ver televisión, pero se necesita de un chip que convierta la señal de audio digital
en análoga compatible con la TV para poder lograrlo.

Memoria: Las tarjetas de vídeo cuentan con su propia memoria en la cual se almacena la
información para posteriormente mostrarla, entre más memoria tenga una tarjeta de vídeo mayor
cantidad de datos se podrá procesar y mejor calidad se mostrara en el monitor, la mayoría de las
tarjetas utilizan memoria de tipo SDRAM, no confundir con memoria RAM, (Synchronous Dinamic
Random Access Memory) o DDR SDRAM (Double Data Rate), actualmente se pueden encontrar
tarjetas de video de 512mb, 1Gb y hasta más de memoria, las motherboard que ya traen
incorporada tarjeta de vídeo por lo regular tienen de 64mb a 128mb de memoria.

Chip de video. Este prácticamente es el CPU de la tarjeta de vídeo y se le conoce con el nombre de
GPU (Graphics Processing Unit) y es el encargado de generar los cálculos necesarios para mostrar
una imagen lo que ahorra tiempo y energía al microprocesador de la computadora.

Compilo: Msc : Pedro Martin Fiallos Página 30


UNAH TEC,Danli. Taller de hardware I.

Memor
ias

Video digital DVI

Disipador del calor


Salida TV sobre MC.
Video Analógico
DB15

Accelerated Graphics Port (AGP):

El puerto AGP (Accelerated Graphics Port en ocasiones llamado Advanced Graphics Port)
es un puerto (puesto que solo se puede conectar un dispositivo [Solo video], mientras que
en el bus se pueden conectar varios) desarrollado por Intel en 1996 como solución a los
cuellos de botella que se producían en las tarjetas gráficas q ue usaban el bus PCI. El diseño
parte de las especificaciones del PCI 2.1

Es el tipo de puerto de gráficos más moderno y velo z que existe, pero ya esta
siendo reemplazado por los más veloces y actuales PCI-E. A lgunas tarjetas multiplican su
velocidad
2x, 4x y 8x. AGP2x=512 Mb/seg Agp4x= 1Gb/seg
Agp8x=2Gb/seg.

La finalidad de este puerto es mejorar la calidad y velocidad de las aplicaciones 3D y liberar


así al procesador de los cálculos 3D.

Conectores y ranuras de AGP:

Compilo: Msc : Pedro Martin Fiallos Página 30


UNAH TEC,Danli. Taller de hardware I.

Radeon
NVIDIA GE FORCE
UNAH TEC,Danli. Taller de hardware I.

La clave del AGP es la velocidad con la que se comunica con la memoria principal. Esto mejora
funciones 3D como el mapeado de texturas, que son almacenados en el frame buffer.

Zócalos donde se conectan las tarjetas gráficas AGP:

PCI Express:
Introducción

PCI Express (denominado aún a veces por su nombre clave 3GIO, por "tercera generación de
E/S") es el sucesor de la tecnología PCI, disponible en las máquinas de escritorio desde 1992.

PCI Express está pensado para sustituir no sólo al bus PCI para dispositivos como Modems y
tarjetas de red sino también al bus AGP, lugar de conexión para la tarjeta gráfica desde 1997. Al
contrario que su predecesor paralelo, PCI Express es un sistema de interconexión serie punto a
punto, capaz de ofrecer transferencias con un altísimo ancho de banda, desde 200MB/seg. Para
la implementación 1X, hasta 4GB/seg. Para el PCI Express 16X que se empleará con las
tarjetas gráficas.

La notación 1X y 16X se refiere al ancho del bus o número de líneas disponibles. La conexión
en el PCI Express es además, bidireccional lo que p ermite un ancho de banda teórico de hasta
8GB/seg. Para un conector 16X, o unos asombrosos 16GB/seg. Para el actual máximo de 32X.
PCI Express también incluye características novedosas, tales como gestión de energía,
conexión y desconexión en caliente de dispositivos (como USB), y la capacidad de manejar
transferencias de datos punto a punto, dirigidas todas desde un host. Esto último es importante
porque permite a PCI Express emular un entorno de red, enviando datos entre dos dispositivos
compatibles sin necesidad de que éstos pasen primero a través del chip host (un ejemplo sería
la transferencia directa de datos desde una capturadora de vídeo hasta la tarjeta gráfica, sin que
éstos se almacenen temporalmente en la memoria principal).

PCI Express también optimiza el diseño de placas madre, pues su tecnología serie precisa tan
sólo de un único cable para los datos, frente a los 32 necesarios para el PCI clásico, el cual
también necesitaba que las longitudes de estos fuesen extremadamente precisas. La
escalabilidad es otra característica clave, pues se pretende que las versiones posteriores de
PCI Express sustituyan cualquier característica que PCI o, en el segmento de servidores, PCI-
X, puedan ofrecer.

Dado que PCI Express es, a nivel físico un enlace chip a chip podría ser usado, en teoría,
para sustituir a la gran cantidad de tecnologías de interconexión actuales; sin embargo, está
siendo orientado únicamente hacia tareas muy específicas.
UNAH TEC,Danli. Taller de hardware I.

Arquitectura

Un simple canal en PCI-Express ofrecerá inicialmente una velocidad de 2,5 Gbits/s en cada
dirección. Cada ruta emplea dos pares de hilos (transmisión y recepción), ofreciendo un
rendimiento efectivo de 200MBytes/s en cada dirección una vez factorizamos las sobrecargas
del protocolo. No obstante, sus creadores afirman que tendrá una escalabilidad límite que
permitirá hasta, al menos, 10Gbits/s en cada ruta y por cada dirección.

La diferencia más obvia entre PCI-Express y su antecesor es que, mientras PCI emplea una
arquitectura en paralelo, su sucesor utiliza una arquitectura serie punto a punto o conmutada.
Una ventaja del bus Serie frente al Paralelo es el alto ancho de banda que se puede conseguir
con un número mucho menor de señales. Dichas conexiones no llegan a situaciones llamadas
"delay skew", donde los bits en paralelo llegan en distintos instantes de tiempo y han de ser
sincronizados. Además, son más baratas de implement ar. Ciertamente, los interfaces paralelos
pueden ser extremadamente veloces y muy efectivos para algunos interfaces a nivel de chips, o
en la tecnología SCSI por ejemplo.

En la siguiente tabla podemos ver el esquema de los pines genéricos de conexión (es decir,
que poseerán todos los slots de PCI-Express independientemente de la amplitud 1x, 2x, 4x,
etc.) y que serán ampliados conforme el bus crezca su ancho de banda.

Compilo: Msc : Pedro Martin Fiallos Página 33


UNAH TEC,Danli. Taller de hardware I.
PCI Express en el mundo gráfico:

Con tantas características nuevas y ancho de banda para derrochar, PCI Express es un gran
salto sobre PCI y AGP. Sin embargo, mantiene compatibilidad con el software PCI, al mantener
los modelos de inicialización y memoria, lo que significa que los drivers y sistemas operativos no
tendrán muchos problemas a la hora de soportar e l nuevo sistema.

En el mundo del procesamiento gráfico, PCI-Express vuelve a cobrar protagonismo, y es que un


bus con tantas expectativas despierta gran ilusión entre los fabricantes de tarjetas gráficas, como
NVIDIA y ATI por ejemplo.

Algunos de los más beneficiados por el avance de PC I Express serán los ya mencionados ATI
y NVIDIA, así como otros fabricantes de tarjetas gráf icas. Dado que el conector PCI Express
NO será compatible con las tarjetas AGP actuales, habr á que adaptar las tarjetas al bus, en
caso de que se desee un cambio de placa o bien de tarjeta.

¿Qué es la tecnología SLI de NVIDIA?

La tecnología NVIDIA® SLI™ es una innovación revolucionaria que


permite aumentar drásticamente el rendimiento gráfi co
combinando varias GPU NVIDIA en un mismo sistema dotado de
un procesador de comunicaciones y contenidos multimedia (MCP)
NVIDIA nForce® SLI.
La tecnología NVIDIA SLI proporciona hasta el doble de
rendimiento de gráficos que una solución gráfica ún ica gracias al uso
de algoritmos de software patentados por NVIDIA y una lógica
de escalabilidad dedicada en cada GPU y cada MCP. Esto permite instalar dos placas de video
y conectarlas por medio de un puente que actúa de n exo entre los dos componentes, luego el
software hace el resto.

Compilo: Msc : Pedro Martin Fiallos Página 34


UNAH TEC,Danli. Taller de hardware I.

Nomenclatura de la tarjeta de video.

Ahora veremos que significa cada característica de la tarjeta de video:


NVIDIA GEFORCE GTX 1050 4GB 128BITS

Geforce Gt-Gtx-Rtx: es la nomenclatura que identifica a las tarjetas gráficas NVIDIA de consumo general.

GTX: se refiere a los modelos que ofrecen un rendimiento lo bastante bueno como para jugar con garantías.

GT: se refiere a modelos de baja potencia y bajo consumo, cuyo rendimiento es inferior al de las GTX.

RTX: introducido recientemente. Se refiere a modelos de alto rendimiento que son compatibles con trazado de
rayos (raytracing).

Junto al nombre GeForce GTX o RTX tenemos una serie de números que como dijimos representan la
generación, y también la gama en la que se ubica cada modelo concreto.
Ahora tenemos claro el tema de generaciones, pasaremos al lado de la gamas que son los números que vienen
después del que indica la ganeracion.

Numero 5, en este caso se refiere a tarjeta graficas de gama media-baja.

4Gb, se hace referencia a la cantidad de vram que tiene la tarjeta, también conocida como la vram, es un tipo de
memoria RAM que utiliza el controlador gráfico para poder manejar toda la información visual que le envía la CPU
del sistema.

128bits, Es el bus que se comunica la GPU con su propia memoria (la que va incluida en la tarjeta gráfica).
Cuanto más grande sea, más datos puede enviar por segundo y mejor, Es algo interno de la gráfica, no lo utiliza para
comunicarse con el resto del sistema, por ello debe ser lo más rápido posible para permitir que la GPU procese
correctamente.

Compilo: Msc : Pedro Martin Fiallos Página 35


UNAH TEC,Danli. Taller de hardware I.
socket de CPU:
Es una matriz de pequeños agujeros (zócalo) colocad en una placa base (motherboard) donde
encajan, sin dificultad los pines de un microprocesador; dicha matriz denominada Pin grid array
o simplemente PGA, permite la conexión entre el microprocesador y dicha placa base. En los
primeros ordenadores personales, el microprocesador venía directamente soldado a la placa
base, pero la aparición de una amplia gama de microprocesadores llevó a la creación del
Socket, permitiendo el intercambio de microprocesadores en la
misma placa.

En la actualidad, cada familia de microprocesadores requiere un


tipo distinto de zócalo, ya que existen diferencias en el número de
pines, su disposición geométrica y la interconexión requerida con
los componentes de la placa base. Por tanto, no es posible
conectar un microprocesador a una placa base con un zócalo no
diseñado para él.

Algunos sockets de CPU comercializados tienen las siguientes denominaciones:

• Socket 478, para microprocesadores Intel Pentium 4.


• Socket 775, para microprocesadores Pentium D y algunos Intel Pentium 4.
• Socket 939, para microprocesadores AMD Athlon 64.
• PAC611, para microprocesadores Intel Itanium 2.
• AM2, para procesadores AMD.

Lista de sockets

Existen muchos tipos de sockets, usados por diferentes CPUs, listado hasta la fecha por orden
de antigüedad.

Zócalo ZIF (Zero Insertion Force):

Los primeros Zócalos, no tenían ningún mecanismo que permitiera la fácil instalación del
Microprocesador, la tarea de colocarlo en el zócalo era fácil pero riesgosa a la vez, cualquier error
producía el quiebre de los pines. Con la introducción del ZIF (del inglés Zero Insertion Force) en
el mercado, se conecta un microprocesador con un mecanismo que permite una fuerza de
inserción nula, es decir la parte superior del Socket se desliza y permite una fácil colocación sin
riesgo alguno, gracias a un sistema mecánico es posible introducir el microprocesador sin
necesidad de fuerza alguna evitando así el riesgo de ruptura de una de sus pines de contacto.

Compilo: Msc : Pedro Martin Fiallos Página 36


UNAH TEC,Danli. Taller de hardware I.
Sockets de 4ª generación:

Nombre: Socket 1
Pines: 169 LIF y 169 ZIF
Voltajes: 5 V
Bus: 16, 20, 25, 33 MHz
Multiplicadores: 1x - 3x
Micros soportados:
486SX (16~33 MHz)
486SX2 (50~66 MHz)
486SX OverDrive (P 25~33 MHz)
486SX2 OverDrive (P 50 MHz)
486DX (20~33 MHz
486DX2 (50~66 MHz)

Compilo: Msc : Pedro Martin Fiallos Página 37


UNAH TEC,Danli. Taller de hardware I.

Socket 1 y 2: Para los primeros Microprocesadores 386 y 486. (Como se ve en la imagen


no tiene tecnología ZIF)

Nombre: Socket 3
Pines: 237 LIF y 237 ZIF
Voltajes: 3.3 / 5 V
Bus: 25, 33, 40, 50 MHz
Multiplicadores: 1x - 3x
Micros soportados:
486SX (25~33 MHz)
486SX2 (50~66 MHz)
486SX OverDrive (P 25~33
MHz) 486SX2 OverDrive (P 50
MHz) 486DX (25~50 MHz)
486DX2 (50~80 MHz)
486DX4 (75~120 MHz)

486DX OverDrive (P 25~33 MHz)


486DX2 OverDrive (P 50~66 MHz)
486DX4 OverDrive (P 75~100 MHz)
486DX2 OverDrive (PR 50~66 MHz)
486DX4 OverDrive (PR 75~100 MHz)
Pentium OverDRive (P 63~83
MHz) Am5x86 (133 MHz)
Cx486
Cx486S
Cx5x86 (100~120 MHz)

Sockets de 5ª generación

Socket 7: Permitían la inserción de una amplia gama de procesadores, ya que permaneció en


activo durante mucho tiempo. Este Socket era válido para instalar procesadores de Intel tipo
Pentium, Pentium MMX, procesadores de AMD tipo K6, K6-2, etc., entre otros muchos.

Nombre: Socket 7
Pines: 296 LIF y 321 ZIF
Voltajes: Split, STD, VR, VRE, VRT (2.5 - 3.3 V)
Bus: 40, 50, 55, 60, 62, 66, 68, 75, 83, 90, 95, 100, 102, 112, 124
Multiplicadores: 1.5x - 6.0x
Micros soportados: Pentium
P45C (75~200 MHz) Pentium MMX
P55C (166~266 MHz) Pentium
OverDrive (P125~166 MHz) AMD K5
(75~200 MHz)
K6 (166~300 MHz) K6-
2 (266~570 MHz) K6-
2+ (450~550 MHz) K6-
III (400~450 MHz)
K6-III+ (450~500 MHz)
Cyrix 6x86 PR90+ a
PR200+
Cyrix 6x86L PR120+ a PR200+
Cyrix 6x86MX (PR166+ a
PR133+) Cyrix MII (233~433
MHZ)
Rise mP6 (166~266 MHz)
Winchip (150~240 MHz)
Winchip2 (200~240 MHz)
Winchip2A/B (200~300 MHz)
UNAH TEC,Danli. Taller de hardware I.

Notas: A las versiones superiores a 100 MHz de FSB se les llamó "Socket Super 7"

Socket 8: Socket válido para el micro de Intel "Pentium Pro ", muy famoso a pesar de su
antigüedad ya que fue el primero que implementaba l a caché dentro del encapsulado del
micro y permitía la comunicación a la misma velocidad.

Sockets de 6ª generación:

Nombre: Socket 370


Pines: 370 ZIF
Voltajes: VID VRM (1.05 - 2.1
V) Bus: 66, 100, 133 MHz
Multiplicadores: 4.5x - 14.0x
Micros soportados:
Celeron (Mendocino, 300A - 533 MHz)
Celeron (Coppermine (500A MHz - 1'1 GHz)
Celeron (Tualatin, 900A MHz - 1'4 GHZ)
Pentium III (Coopermine, 500E MHz - 1'13 GHZ)
Pentium III (Coopermine-T, 866 MHz - 1'13
GHZ) Pentium III (Tualatin, 1'0B - 1'33 GHZ)
Pentium III-S (Tualatin, 700 - 1'4
GHZ) Cyrix III (Samuel, 533, 667
MHz)
Via C3 (Samuel 2, 733A - 800A
MHz) Via C3 (Ezra, 800A - 866A
MhZ)
Via C3 (Ezra-T 800T MHZ - 1'0T
GHz) Via C3 (Nehemiah, 1 - 1'4
GHz)
Socket 370 o PGA 370: Tipo de conector que usan los últimos procesadore s Pentium III y
Celeron de Intel. Por cierto, PGA significa "Pin Grid Array" o "Matriz de rejilla de
contactos".

Sockets de 7ª generación:
Nombre: Socket A/462
Pines: 462 ZIF
Voltajes: VID VRM (1.1 - 2.05 V)
Bus: 1002, 133x2, 166x2, 200x2 MHz
Multiplicadores: 6.0x - 15.0x
Micros soportados:
Duron (Spitfire, 600-950 MHz),
Duron (Morgan, 1 - 1'3 GHz)
Duron (Appaloosa, 1'33 GHz)
Duron (Applebred, 1'4 - 1'8 GHz)
Athlon (Thunderbird 650 MHz - 1'4 GHz)
Atlon 4 Mobile (Palomino)
Athlon XP (Palomino, 1500+ a
2100+) Athlon XP (Thoroughbred A, 2200+)
Athlon XP (Thoroughbred B, 1600+ a
2800+) Athlon XP (Barton, 2500+ a 3200+)
Athlon MP (Palomino, 1 GHz a 2100+)
Athlon MP (Thoroughbred, 2000+ a
2600+) Athlon MP (Barton, 2800+)
1 GHz a 2100+)
Sempron (Thoroughbred 2200+ a 2300+)
UNAH TEC,Danli. Taller de hardware I.

672/3,8 GHZ, FSB 533/800)

Nombre: Socket 775 o T Pines: 775 bolas FC-LGA


Voltajes: VID VRM (0.8 - 1.55 V) Bus: 133x4, 200x4, 266x4 MHz
Multiplicadores: 13.0x - 22.0x Micros soportados:
Celeron D (Prescott, 326/2'533 a 355/3'333 GHz, FSB533)
Celeron D (Cedar Mill, 352/3'2 a 356/3'333 GHZ, FSB533) Pentium 4 (Smithfield, 805/2'666 GHZ,
FSB 533)
Pentium 4 (Prescott, 505/2,666 a 571/3,8 GHZ, FSB 533/800) Pentium 4 (Prescott 2M, 630/3'0 a

¿Qué tipo de socket es mejor a la hora de comprar tu placa base?

Las placas base para el mercado de ordenadores de escritorio suelen tener dos tipos de sockets para montar el
procesador: PGA o LGA. Y cada uno de estos tipos de sockets tiene sus propias ventajas e inconvenientes a la
hora de trabajar con ellos. Sin embargo, ¿cuál de ellos es mejor para nuestros procesadores? Eso es lo que vamos
a intentar dilucidar en el artículo de hoy.

Como bien sabéis, toda placa base necesita tener un socket al que se conecte el procesador. En el mercado de
escritorio y servidores, donde es frecuente que los usuarios cambien el modelo de procesador, manteniendo la
placa base, estos sockets son el PGA (Pin Grid Array) y el LGA (Land Grid Array). Sin embargo, en el mercado de
portátiles, donde los procesadores suelen ir soldados a las placas base, el socket usado es el BGA (Ball Grid
Array).
UNAH TEC,Danli. Taller de hardware I.

Es habitual que una marca se especialice el lanzar sus procesadores para un único tipo de socket. Por ejemplo, Intel
lleva usando el socket LGA desde los tiempos de los antiguos Pentium 4 con núcleo Prescott. Y AMD ha usado el
socket PGA durante toda su existencia para la gama de escritorio. Aunque, por otro lado, la gama HEDT y la gama
de procesadores para servidores de esta marca, usan el socket LGA.

Socket PGA: ventajas y desventajas

El socket PGA se caracteriza porque los pines de contacto entre el procesador y la placa base suelen situarse en el
procesador, no en la placa base. Esto hace que sea un tipo de socket más resistente al hecho de cambiar con cierta
frecuencia el procesador usado con la placa.

Como podéis ver en la imagen, el socket se compone de una serie de agujeros, en los que se insertarán los pines
de contacto, que van situados en la parte inferior del procesador. Para montar el procesador, el usuario solo ha
de levantar la palanca situada a la derecha de la imagen y orientar correctamente el procesador. Para ello, se
tendrá en cuenta la posición del triángulo presente, tanto en el socket como en el procesador.
UNAH TEC,Danli. Taller de hardware I.

El socket PGA es más sencillo de fabricar que el LGA, lo que se traduce en que las placas base pueden ser algo
más baratas. También el montaje del procesador en este tipo de socket es bastante sencillo.

Sin embargo, a pesar de todas sus ventajas intrínsecas, este tipo de socket también tiene desventajas. Una de

las principales es que no sujeta especialmente bien el procesador a la placa base. De hecho, es bastante habitual
arrancar los procesadores si intentamos separar el disipador del procesador de su IHS, si previamente no usamos
algún instrumento para separarlos. No es que este hecho vaya a crear un problema irreversible en el socket o en

el procesador. Pero no es algo adecuado.

Otro de los problemas de este tipo de socket es que, si nos entra pasta térmica en los agujeros del socket, no
existe manera de poderla retirar

Socket LGA: ventajas y desventajas

A diferencia del socket PGA del que acabamos de hablar, el socket LGA tiene los pines de contacto incorporados
directamente a la propia estructura del socket. Esto hace que sea, de manera inherente, un socket más débil y
delicado a la hora de montar procesadores en él. Especialmente porque los pines usados no son como los pines
para el socket PGA, sino bastante más endebles.
UNAH TEC,Danli. Taller de hardware I.

Este modelo de socket se caracteriza con estar dividido en dos partes:

• La parte inferior, donde van los pines de contacto con el procesador.


• La parte superior, formada por el sistema de retención del procesador.

De hecho, este sistema de retención del procesador es la gran ventaja que tiene este socket sobre el PGA. Es
imposible arrancar el procesador del socket, a diferencia de lo que hemos visto que sucedía con el PGA.

Aun así, este tipo de sockets es más complejo de manipular cuando se va a montar un procesador en él. Pero, sobre
todo, presenta un inconveniente más importante: es más complejo detectar pines doblados. E, igualmente, es mucho
más difícil el poder recuperar estos pines.

Conclusión: lo mejor sería un socket híbrido entre PGA y LGA

Al final, visto lo que hemos visto sobre ambos sockets, no podemos decir que las ventajas de un modelo lo hagan
muy superior a las ventajas del otro modelo. En realidad, lo ideal sería crear un socket híbrido que combinara la
facilidad de montaje del socket PGA, con la seguridad en el agarre del socket LGA.

Microprocesadores por SLOT

El Slot 1 introdujo un cambio respecto a los anteriores


sockets: mientras que los Pentium y anteriores usaban
un Socket ZIF PGA/SPGA, que es cuadrado, el Slot 1
UNAH TEC,Danli. Taller de hardware I.
está montado en un cartucho conector de un solo lado
(SECC), que es alargado. El procesador es como una
tarjeta PCI, pero con una conexión de 242 pines a la
placa base.
La parte de detrás es una pieza sólida de plástico. Si se le quiere conectar un disipador, éste
iría en la parte de arriba.

Algunas placas base tienen un sistema de sujeción del procesador, que consiste en unas piezas
de plástico a cada lado del zócalo Slot 1. Este sistema no es tan cómodo como los de otros
sockets, y a veces hay que forzar estas piezas para colocar o quitar un procesador.

Existen 3 tipos de Slot:

Slot A: En este conector iban instalados los antiguos procesadores Athlon de AMD.
Slot 1: A este conector le corresponden los procesadores Intel Pentium II y también los
procesadores más antiguos Pentium III.
Slot 2: Este conector es más conocido a nivel de servidor es de red, donde iba instalado
el procesador Xeon.

Los 3 tipos de Slot son muy similares y pueden englobarse dentro de la siguiente imagen:

donde se aprecian también los orificios donde se instalaba un soporte para el


microprocesador, el cual era tan alto y voluminoso que necesitaba sujeción extra:
UNAH TEC,Danli. Taller de hardware I.

Por último en este rango vemos un microprocesador P entium II:

Basicamente el slot fue un desarrollo de Intel ( Slot 1) por llevar mas arriba la velocidad de sus
Microprocesadores, los cuales en formato Socket estaban teniendo problemas. Con esta
ingeniosa idea Intel se reacomodo nuevamente al tope del desarrollo de Procesadores y salio al
mercado el Pentium II, III y Celeron, dejando atrás a su mas fuerte competidor AMD que se
mantuvo con su formato en Socket pero luego también adopto el Slot, pero lo denomino Slot A,
no son compatibles entre si.

Conector Floppy:
Es el encargado de controlar el dispositivo Floppy. Su trabajo consiste en aceptar solicitudes
del software y de los dispositivos y observar que se cumplan dichas solicitudes. Un ejemplo es
la lectura de un byte en este dispositivo que es de un bloque de datos en un lugar determinado
del disquete.
UNAH TEC,Danli. Taller de hardware I.

Motherboard
Cuatro
Conectores SATA

Dos Conectores
IDE

Conector FDC o
Floppy

Antiguo Cable Floppy para Disqueteras 5 ¼ y 3 1/2

Corte

La Disquetera debe conectarse luego de la sección cortada en


uno de los extremos del cable Floppy, eso le indica al sistema
que es el dispositivo A:. Actualmente la disquetera es un
Hardware casi obsoleto, por lo tanto no se instala aunque muchos
UNAH TEC,Danli. Taller de hardware I.

usuarios las piden. En reemplazo a este cable salio al mercado


un cable más moderno y con dos conectores únicament e (uno al
Motherboard y otro a la Disquetera).

Conectores IDE:
IDE son las siglas de Integrated Drive Electronics, o ATA
(Advanced Technology Attachment) controla los dispositivos de almacenamiento masivo de datos,
como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) añade
además dispositivos como, las unidades CD-ROM.

Se define por primera vez en el año 1988 utilizando el obsoleto modo PIO (Programmed Input
Output, Entrada y salida programada) para transmitir datos.

Las diversas versiones de ATA son:

• Paralell ATA o
ATA.
o ATA2. Soporta transferencias rápidas en bloque y mu ltiword DMA.
o ATA3. Es el ATA2 revisado.
o ATA4. conocido como Ultra-DMA o ATA-33 que soporta transferencias en 33 MBps.
o ATA5 o ATA/66. Originalmente propuesta por Quantum
para transferencias en 66 MBps.
o ATA6 o ATA/100. Soporte para velocidades de Ide1
100MBps.
o ATA/133. Soporte para velocidades de 133MBps.
Ide2
UNAH TEC,Danli. Taller de hardware I.
Serial ATA. Remodelación de ATA con nuevos conectores (alimentación y datos), cables y
tensión de alimentación. Mas abajo detallaremos.

Las controladoras IDE casi siempre están incluidas en la placa base, normalmente dos conectores
para dos dispositivos cada uno. De los dos discos duros, uno tiene que estar como esclavo
y el otro como maestro para que la controladora sepa de qué disposivo mandar/recibir
los datos. La configuración se realiza mediante jumpers. Habitualmente, un disco duro puede estar
configurado de una de estas tres formas:

• Como maestro ('master'). Si es el único dispositivo en el cable, debe tener esta


configuración, aunque a veces también funciona si está como esclavo. Si hay otro
dispositivo, el otro debe estar como esclavo.
• Como esclavo ('slave'). Debe haber otro dispositivo que sea maestro.
• Selección por cable (cable select). El dispositivo será maestro o esclavo en función de su
posición en el cable. Si hay otro dispositivo, también debe estar configurado como cable
select. Si el dispositivo es el único en el cable, debe e star situado en la posición de maestro.
Para distinguir el conector en el que se conectará el primer bus Ide (Ide 1) se utilizan colores
distintos.

Este diseño (dos dispositivos a un bus) tiene el


inconveniente de que mientras se accede a un dispositivo
el otro dispositivo del mismo conector IDE no se puede
usar. En algunos chipset (Intel FX triton) no se podría usar
siquiera el otro IDE a la vez.

Este inconveniente está resuelto en S-ATA y en SCSI ,


que pueden usar dos dispositivos por canal.

Los discos IDE están mucho más extendidos que los


SCSI debido a su precio mucho más bajo. El
rendimiento de IDE es menor que SCSI pero se están
reduciendo las diferencias. El UDMA hace la función del
Bus Mastering en SCSI con lo que se reduce la carga
de la CPU y aumenta la velocidad y el Serial ATA
permite que cada disco duro trabaje sin interferir a los demás.

De todos modos aunque SCSI es superior se empieza a considerar la alternativa S-ATA para
sistemas informáticos de gama alta ya que su rendim iento no es mucho menor y su diferencia de
precio sí resulta más ventajosa.
UNAH TEC,Danli. Taller de hardware I.

Conector IDE 1

Dos Dispositivos
conectados.

No olvidemos que antes de conectar dos dispositivos por cable (IDE 1 o IDE 2) cuatro en total,
debe configurarse El Hardware Master y el Slave para que no choquen los datos en el cable.

Cada Disco Rígido y discos CD-ROM, tienen en su parte posterior Jumpers de configuración,
con su tabla de seteo correspondiente ya que varían de acuerdo a cada fabricante.
A) CD-ROM
B) DVD
C) Disco Rígido
D) Cables de Datos de 80 Hilos.
E) IDE 1 (Primaria)
UNAH TEC,Danli. Taller de hardware I.

F) IDE 2 (Secundaria)

Cable de Datos de 80 Hilos:

Las diferentes denominaciones que utilizamos para referirnos a él. Este interfaz es
popularmente conocido como IDE pero su nombre oficial es ATA (AT Attachment, Conexión AT).
Los dispositivos que utilizan este interfaz se llaman IDE (siglas de "Integrated Drive Electronics",
Dispositivo con Electrónica Integrada) como los discos duros IDE, grabadoras de CD y DVD
IDE, lectores de CD y DVD IDE, etc. Pero, como he comentado, lo normal hoy en día es referirnos
tanto al interfaz como a las unidades que lo utilizan bajo la denominación IDE, en lugar de
llamar al interfaz ATA o EIDE y a los dispositivos que lo utilizan unidades IDE. La confusión no
queda solo aquí, mas adelante aclararé otros términos para que cuando te hablen de este interfaz
con mil denominaciones diferentes sepas en cada caso a que se refieren exactamente.

Conectores y tecnología SATA:


Serial ATA es el nuevo estándar de conexión de discos duros. Hasta hace relativamente poco
tiempo, en el mercado del consumo se hacía uso del interfaz ATA normal o Pararell ATA, del
que existen variedades de hasta 133Mbytes/seg. Teóricos. Dicho
interfaz consistía en unas fajas planas a las cuales se podían
conectar hasta dos discos duros (o unidades ópticas).

Serial ATA, la nueva tecnología, es totalmente compatible con la


anterior, de manera que no habrá problemas de compa tibilidad
con los sistemas operativos. De hecho se pueden encontrar
conversores
UNAH TEC,Danli. Taller de hardware I.

Disco Rígido y Cable SATA

Disco Rígido y Cable IDE

Con el formato antiguo, es cierto que a nivel físico está más cercano de lo que sería un puerto
Firewire o un USB, aunque únicamente disponible par a la conexión de unidades internas.

Ventajas que nos reporta este nuevo sistema? En


cuanto a velocidad hay ventajas, ya que la nueva
interfaz comienza trabajando a 150Mbytes/seg. (133
como máximo en ATA), sin embargo la máxima mejora
respecto al sistema anterior (en mi opinión) es el tipo de
cableado que se utiliza, mucho más fino y aerodinám
ico que el anterior , lo que permite que estos cables, al
ser muchísimo más finos, faciliten el flujo de aire den tro
de la caja, reduciendo el calentamiento de nuestro
equipo. Otra de las mejoras de este tipo de cableado es
que permite hasta 1 metro de longitud (medio metro en
ATA).
Respecto al cable de alimentación también es diferente
al de los discos ATA originales, y las tensiones de
trabajo son menores, además no es necesaria la conf iguración “Master/Slave” tradicional.

En los dibujos de abajo se puede ver la diferencia en las conexiones, disco tradicional ATA a la
izquierda y un Serial ATA a la derecha.
UNAH TEC,Danli. Taller de hardware I.

Los Cables de Datos


IDE fueron
reemplazados por
cables
más delgados, con
mejores prestaciones,
que no frena el flujo de
aire dentro del equipo.

Diferencias entre S-ATA (Serial ATA) y P-ATA (Parallel ATA)

Se diferencia del P-ATA en que los conectores de datos y alimentación son diferentes y el cable
es un cable (7 hilos) no una cinta (40 hilos), con lo que se mejora la ventilación. Para asegurar
la compatibilidad, hay fabricantes que colocan los conectores de alimentación para P-ATA y S-
ATA en las unidades que fabrican.

Los discos duros se conectan punto a punto, un disco duro a cada conector de la placa, a
diferencia de P-ATA en el que se conectan dos discos a cada conector IDE.

La razón por la que el cable es serie es que, al tener menos hilos, produce menos interferencias
que si utilizase un sistema paralelo, lo que permite aumentar las frecuencias de funcionamiento
con mucha mayor facilidad.

Su relación rendimiento/precio le convierte en un competidor de SCSI. Están apareciendo


discos de 10000rpm que sólo existían en SCSI de gama alta. Esta relación rendimiento/precio lo
hace muy apropiado en sistemas de almacenamiento masivos, como RAID.

Este nuevo estándar es compatible con el sistema ID E actual. Como su nombre indica (Serial
ATA) es una conexión tipo serie como USB o Firewire. La primera versión ofrece velocidades de
hasta 150MB/s, con la segunda generación (SATA 0.3Gb/s) permitiendo 300MB/s. Se espera que
alcance los 600MB/s alrededor de 2007.

S-ATA no supone un cambio únicamente de velocidad s ino también de


cableado: se ha conseguido un cable más fino, con menos hilos, que
funciona a un voltaje menor (0.25V vs. los 5V del P-ATA) gracias a la
tecnología LVDS. Además permite cables de mayor longitud (hasta 1
metro, a diferencia del P-ATA, que no puede sobrepasar los 45 cm.).

Un punto a tener en consideración es que para poder instalarlo en un PC,


la placa madre debe poseer un conector S-ATA. S-ATA en contrario
a P-ATA facilita tecnología NCQ.
UNAH TEC,Danli. Taller de hardware I.

SATA (Serial-ATA) mezcla las tecnologías de señal serie con los discos
ATA. Esto es importante debido a que soluciona un número importante
de problemas que afectan al uso de almacenamiento ATA en sistemas realmente grandes, o
cuando las necesidades de almacenamiento son muy altas. El cable es estrecho y flexible por lo

que no afecta a los sistemas de ventilación pudiendo llegar hasta el tamaño de 1 metro por lo
que los discos pueden ya estar alojados fuera del servidor.

Este cable usa tecnología de señal de bajo-voltaje (low-voltage) lo cual permite un mayor ancho
de banda sin usar componentes caros y adicionales. Esta tecnología también elimina el
requerimiento de tener que usar +5V en las actuales fuentes de alimentación cuyo único sentido
era proporcionar este voltaje a los discos.

Además, podemos añadir a lo beneficios anteriores que SATA tiene la característica de evitar
autobloqueos; en primer lugar, la conexión entre el disco y el controlador es una conexión punto
a punto en lugar de una conexión bus. Para cada disco existe un único cable dedicado que lo
conecta al controlador. Esto va a cambiar la manera de configurar y
desarrollar debido a que una topología de conexión punto a punto
permite el uso de controladores que pueden extraer mucho más
rendimiento a los discos ATA. ¿Por qué? Pues precisamente porque
este tipo de arquitectura permite acceso concurrente a todos los
discos, lo cual no es posible en una arquitectura de bus.

La nueva arquitectura, conocida como Serial ATA (SATA), adopta


una estructura de capas. La capa de órdenes es un súper conjunto
de la arquitectura ATA anterior; de forma que los nuevos dispositivos
son compatibles con los protocolos ATA tradicionales, y son por
tanto compatibles respecto a las aplicaciones existentes. Sin
embargo la capa física es distinta, lo que representa un punto de
ruptura en el sentido de que los nuevos dispositivos SATA no
son compatibles con los anteriores. No obstante, la nueva arquitectura ofrece mejoras
suficientes para justificar el cambio.

La idea es que los dispositivos ATA de cualquier tipo (serie o paralelo) compartan un juego común
de órdenes, y organizar la conexión de estos dispositivos en una estructura donde existen
direcciones, dominios y dispositivos concretos. Una organización que recuerda vagamente la de
Internet en la que está inspirada (un dominio ATA contiene un controlador host SATA y un
dispositivo).

Conexiones
Los dispositivos SATA tienen dos tipos de cables de conexión, de señal y de fuerza. La forma
concreta depende de la posición relativa del dispositivo respecto al controlador host. A este
respecto caben tres posibilidades:
• Dispositivo interno conectado directamente al controlador host mediante conectores
como el de la figura 2.
• Dispositivo interno conectado a una salida del controlador host mediante cables de
UNAH TEC,Danli. Taller de hardware I.
alimentación y señal.

• Dispositivo externo conectado al controlador host mediante un cable de señal. En estos


casos, el dispositivo suele disponer de su propia fuente de alimentación.
• La figura muestra el aspecto de los conectores SATA para conexión directa Controlador
host Dispositivo interno. Puede observarse que el zócalo SATA estándar tiene
dos zonas, aquí se denominan segmentos; una de señal y otra de fuerza ("Signal
segment" y "Power segment"). La zona de señal tiene 7 contactos (S1-S7), que
corresponden con otros tantos conductores, de los cuales tres son de tierra, quedando 2
pares para datos.

Nomenclatura:

HT+, HT-. Par de señales diferenciales de transmisión del lado del host ("Host
Transmitter"). HR+, HR- Ídem de recepción ("Host Receiver").
DT+ y DT- par de señales diferenciales de transmisión del lado del dispositivo
("Device Transmitter").

DR+, DR-. Ídem de recepción ("Device Receiver").


G. Tierra ("Ground").

Es destacable que el estándar utiliza distinto tipo


de conectores para las conexiones externas e
internas. Por ejemplo, los conectores de la figura 4
situados al exterior, son distintos de los que
quedarían en la parte interior del chasis. Los
conectores internos son conocidos como tipo L en
razón de su perfil, mientras que los externos tienen
una carcasa metálica conectada a tierra para
protegerlos de las interferencias EM y adoptan la
forma indicada en la figura.
UNAH TEC,Danli. Taller de hardware I.

También es digno de mención que para facilitar la transición, algunos dispositivos SATA disponen
de un conector de fuerza duplicado, de forma que pueden usar el conector de fuerza SATA o el
P4 de alimentación tradicional.

La figura muestra la disposición de contactos en dos dispositivos SATA de 2.5" y 3.5" de factor
de forma (son los formatos de disco de equipos portátiles y de sobremesa respectivamente). La
figura muestra la disposición habitual de contactos en un dispositivo IDE/ATA equivalente.

Los dispositivos SATA se han diseñado para ser conectados directamente en estrella. Sin que
exista ningún tipo de encadenamiento ("Daisy chaini ng") ni "Jumpers" o interruptores de
configuración (que se realiza por software). Quiero recalcarlo porque el otro día (Junio 2005),
me acerqué a mi proveedor habitual para adquirir una unidad SATA 3.5" de 300 GB, que pienso
utilizar como reserva y "Back-up" de los equipos en que trabajo habitualmente. Además de los
conectores habituales, que podéis ver en la figura 7 (sin el P4 de toma de fuerza), esta unidad
Barracuda de Seagate presenta otro pequeño conector auxiliar con de 4 pines. Ante mi extrañeza
al examinarlo, el vendedor me aseguró muyserio que, a pesar de ser Serial ATA, estos contactos
se utilizaban para conectar la unidad como primaria/secundaria al estilo ATA/IDE.
Me pareció muy extraño y en contra de lo que se sabía al respecto, pero de todas formas,
necesitaba una toma auxiliar de fuerza para alimentar un pequeño ventilador de refrigeración del
"Housing" donde pretendía instalar la unidad, y pensaba que quizás se trataba de esto. La
respuesta al misterio es que se trata de pines "Factory use only", que no deben ser tocados en
absoluto.
UNAH TEC,Danli. Taller de hardware I.

Cable y conector

El cable se compone de dos pares apantallados a los que se suministra una impedancia de
100 Ohmios.

Pin Nombre Descripción


1 GND Tierra
2 A+ Transmisión +
3 A- Transmisión -
4 GND Tierra
5 B- Recepción -
6 B+ Recepción +
7 GND Tierra
UNAH TEC, Danlí. Taller de hardware I.

Memoria ROMBIOS:

La BIOS (Basic Input Output System, Sistema de entrada/salida básico) es una memoria ROM,
EEPROM o FLASH-Ram la cual contiene las rutinas de más bajo nivel programas básicos de
control) que hace posible que el ordenador pueda
arrancar, controlando el teclado, el disco y la
disquetera permite pasar el control al sistema
operativo.

Además, la BIOS se apoya en otra memoria, la


CMOS (llamada así porque suele estar hecha con
esta tecnología Complementary Metal Oxide
Semiconductor), que almacena todos los datos
propios de la configuración del ordenador, como
pueden ser los discos duros que tenemos
instalados, número de cabezas, cilindros, número
y tipo de disqueteras, la fecha, hora, etc., así
como otros parámetros necesarios para el
correcto funcionamiento del ordenador.
Esta memoria está alimentada constantemente por una batería, de modo que, una vez
apaguemos el ordenador no se pierdan todos esos datos que nuestro ordenador necesita para
funcionar. Ahora todos los motherboards suelen venir con una pila tipo botón, la cual tiene una
duración de unos 4 ó 5 años (aunque esto puede ser muy variable), y es muy fácil de
reemplazar. Antiguamente, las placas traían una pila corriente soldada en el motherboard, lo
que dificultaba muchísimo el cambio, además de otro s problemas como que la pila tuviera
pérdidas y se sulfataran ésta y la placa.

Además, la BIOS contiene el programa de configuraci ón, es decir, los menús y pantallas que
aparecen cuando accedemos a los parámetros del sist ema, pulsando una secuencia de teclas
durante el proceso de inicialización de la máquina.

Programas Internos:

POST: Significa Power On Self Test, Test en el


encendido de la PC. Es un proceso de verificación e
inicialización de los componentes de entrada y salida en
un sistema que se encarga de configurar y diagnosticar
el estado del hardware, puntualmente lo denominamos
Hardware Básico (Teclado, Microprocesador, Memorias
RAM, video y el correcto funcionamiento del
Motherboard) Si estos componentes funcionan
correctamente emite un BEEP por el speaker, si alguno
funciona mal emite mas sonidos, de los cuales existe una
tabla de códigos por fabricantes.
UNAH TEC,Danli. Taller de hardware I.
TABLAS POST:

BIOS:

El sistema básico de entrada/salida Basic Input-Output System de datos,


este programa le da instrucciones al Microprocesador para poder interpretar
las instrucciones del sistema para poder comunicarse con el resto del
Hardware. El BIOS usualmente está escrito en lengua je Assembler. El
primer término BIOS apareció en el sistema operativo CP/M, y describe la
parte de CP/M que se ejecutaba durante el arranque y que iba unida
directamente al hardware (las máquinas de CP/M usua lmente tenían un simple cargador iniciador
en la ROM, y nada más). La mayoría de las versiones de MS-DOS tienen un archivo llamado
"IBMBIO.COM" o "DOSIS" que es análogo al CP /M BIOS.

En los primeros sistemas operativos para PC (como el DOS), el BIOS todavía permanecía
activo tras el arranque y funcionamiento del sistema operativo. El acceso a dispositivos como la
disquetera y el disco duro se hacían a través del BIOS. Sin embargo, los sistemas operativos
SO más modernos realizan estas tareas por sí mismos , sin necesidad de llamadas a las rutinas
del BIOS.

Al encender el ordenador, el BIOS se carga automáti camente en la memoria principal y se

ejecuta desde ahí por el procesador (aunque en algunos casos el procesador ejecuta la BIOS
leyéndola directamente desde la ROM que la contiene), cuando realiza una rutina de verificación
e inicialización de los componentes presentes en la computadora, a través de un proceso
denominado POST (Power On Séla Test). Al finalizar esta fase busca el código de inicio del
sistema operativo en algunos de los dispositivos de memoria secundaria presentes, lo carga en
memoria y transfiere el control de la computadora a éste.

Se puede resumir diciendo que el BIOS es el firmare presente en computadoras IBM PC y


compatibles, que contiene las instrucciones más ele mentales para el funcionamiento de las
mismas por incluir rutinas básicas de control de lo s dispositivos de entrada y salida. Está
almacenado en un chip de memoria ROM o Flash, situado en la placa base de la computadora.
Este chip suele denominarse en femenino "la BIOS", pues se refiere a una memoria (femenino)
concreta; aunque para referirnos al contenido, lo correcto es hacerlo en masculino "el BIOS", ya
que nos estamos refiriendo a un sistema (masculino) de
entrada/salida.

Vista del Chip sin la tapa plástica y


la etiqueta que la recubre.
UNAH TEC,Danli. Taller de hardware I.

SETUP:

El "SETUP". Se llama así al programa que nos permite acceder a los datos de la CMOS y que
por eso también se suele denominar CMOS-SETUP. Este programa suele activarse al pulsar
cierta/s tecla/s durante el arranque del ordenador, teclas Delete, Suprimir, Etc. Usamos este
programa para consultar y/o modificar la información de la CMOS (cuántos discos duros y de
qué características; la fecha y hora, secuencia de arranque, etc). Lógicamente, este programa
SETUP está "archivado" (guardado) en alguna parte d entro del ordenador y debe funcionar

está guardado dentro de la ROM-BIOS y alimentado po r una pila para que los datos
permanezcan guardados aun con el equipo apagado.

Pantallas del SETUP:


En las siguientes pantallas que verás a continuación, se ve los distintos Ítems del menú principal
del SETUP.

PANTALLA PRINCIPAL:

En el arranque de la PC. Oprimir la tecla Delete, Suprimir, F1, F10, F3, Etc. Para ingresar al
Setup. Estas opciones dependerán del fabricante de Bios.

ROM PCI/ISA BIOS (2A59IS2B)


CMOS SETUP UTILITY AWARD
SOFTWARE, INC.

¡¡ CPU SOFT MENU !! INTEGRATED PERIPHERALS

STANDARD CMOS SETUP LOAD SETUP DEFAULTS

BIOS FEATURES SETUP PASSWORD SETTING

CHIPSET FEATURES SETUP IDE HARD DISK DETECTION

POWER MANAGEMENT SETUP SAVE & EXIT SETUP

PNP/PCI CONFIGURATION EXIT WITHOUT SAVING

Esc : Quit : Select Item


F10 : Save & Exit Setup (Shift) F2 : Change Color

Defaults (Shift)F2 : Color


UNAH TEC,Danli. Taller de hardware I.

En esta pantalla definiremos los valores relativos al funcionamiento de la CPU.

CPU Operating Speed: En "User Define" controlaremos todos los parámetro s referentes al
procesador. También podemos seleccionar directamente una velocidad, aunque en ese caso las
siguientes opciones no se encuentran activas.

Turbo Frecuency: Permite forzar la velocidad del reloj externo a un 2,5x. En principio sólo
existe para realizar control de calidad y comprobar que un sistema funciona correctamente por
encima de sus especificaciones.

Ext. Clock (PCI): Indica la velocidad del bus externo. Entre paréntesis se nos indica la relación
a la que trabajará nuestro bus PCI.

Multiplier Factor: Ajusta el factor de multiplicación. Por ejemplo, con un Pentium III a 550 Mhz
obtendremos la frecuencia multiplicando el bus por el factor multiplicador.

AGPCLK/CPUCLK: Señala la relación entre la velocidad del bus AGP y la del "microprocesador".
Con una CPU de 66 Mhz de bus, ha de estar a 1/1, con una de 100 Mhz, el valor ha de ser 2/3.

L2 Cache Latency: Ajusta la velocidad de la cache de segundo nivel integrada en el


microprocesador. Cuanto mayor sea el valor, más ráp ido trabajará la citada memoria. Una
velocidad demasiado alta puede provocar fallos.

Speed Error Hold: Este campo hace referencia al comportamiento que tomará la máquina en
caso de que seleccionemos una velocidad errónea.

CPU Power Supply: Permite regular el voltaje del microprocesador. Debe dejarse siempre en
"CPU Default", dado que un voltaje incorrecto generará errores y problemas.

Core Voltaje: Nos marca el voltaje actual del procesador, admitiendo modificaciones.

CONFIGURACION STANDARD:
UNAH TEC,Danli. Taller de hardware I.

Esc : Quit : Select


F10 : Save & Exit Item PU/PD/+/- : Modify
Setup (Shift) F2 : Change
Color

En esta pantalla podremos configurar la fecha y la hora, parámetros de los discos


duros, tipos de disqueteras, chequear la memoria.... Usaremos Av Pag y Re Pag para
movernos entre los distintos valores.

La fecha y hora: En esta sección podemos cambiar los datos relativos a fecha y hora de la BIOS.

Los discos duros IDE: Aquí configuramos los distintos discos duros conectados a la controladora
IDE de nuestra placa base. Es importante tener en cuenta esto para no caer en el error de intentar
configurar desde aquí los discos duros SCSI o los IDE conectados a una controladora adicional.
Hallamos varios valores como "Type", "Cyls" y otros. La opción "Type" ofrece los valores "Auto",
"User" o "None". Con el primero de ellos lograremos que cada disco pueda ser detectado
automáticamente cada vez que in iciamos el ordenador. Es la opción por defecto, aunque ralentiza
bastante el proceso de arranque.

Por su parte, "User" se usa cuando deseamos introducir nosotros mismos cada uno de los valores
de configuración, o bien hemos pasado por la opción IDE HARD DISK DETECTION, que, tras
detectar nuestros discos, habrá almacenad o su configuración en esta pantalla. En este modo,
el arranque resultará más rápido. Por último en "None" se indicará la inexistencia de un disco
duro.

Respecto a "Mode", podremos elegir entre los modos "LBA", "Normal" y "Large", aunque la
opción correcta para los discos actuales será LBA.

Las disqueteras: Aquí podemos seleccionar el tipo de disquetera instalada en nuestro PC.

Floppy 3 Mode Support: Esta es una opción a activar en caso de contar con disqueteras capaces
de usar discos de 1,2 Kbytes (utilizados normalmente en Japón).

La tarjeta de Video: Debemos elegir VGA para todos los equipos actuales.

Halt On: Se utilizará si queremos que la BIOS ignore cierto s errores. Sus opciones son "No
errors", para no detectarse ningún error; "All Erro rs" para pararse en todos; "All, But Keyboard"
para exceptuar los de teclado; "All, But Disquete" para obviar los de la disquetera; y "All, But
Disk/Key", para no atender a los de la disquetera o teclado.

Memoria: Es un breve resumen informativo de la cantidad y tipo de memoria instalada en nuestro


sistema.

Compilo: Msc : Pedro Martin Fiallos Página 69


UNAH TEC,Danli. Taller de hardware I.

ROMBIOS

Modelos de Pila
JUMPER
PILA 2032
CLEAR-CMOS

Compilo: Msc : Pedro Martin Fiallos Página 70


UNAH TEC,Danli. Taller de hardware I.
Actualmente las pilas son del tipo redonda (2032) de 3 volts, estas pilas según la marca pueden durar
hasta diez años, luego requiere un cambio, generalmente aparece un cartel en pantalla que indica Low
Battery o en el peor de los casos lo notaremos cuando la fecha de la PC. Se desconfigure.

BIOS FEATURES SETUP:


ROM PCI/ISA BIOS (2A59IS2B)
BIOS FEATURES SETUP
AWARD SOFTWARE, INC.

Virus Warning : Disabled


CPU Level 1 Cache : Enabled
CPU Level 2 Cache : Enabled
CPU L2 Cache ECC Checking : Enabled
Quick Power On Self Test : Enabled
Boot Sequence : A,C,EXT
Boot Sequence EXT Means : SCSI
Swap Floppy Drive : Disabled
Boot Up Floppy Seek Boot : Disabled
Up NumLock Status IDE : On
HDD Block Mode Typematic : Enabled
Rate Setting Typematic Rate : Enabled
(Chars/Sec) Typematic : 30
Delay (Msec) Security : 250
Option : Setup
PCI/VGA Palette Snoop : Disabled
OS Select For DRAM > 64MB : Non-OS2
Report No FDD For WIN 95 : No
Delay IDE initial (Sec) :0
Processor Number Feature : Enabled

Video BIOS Shadow : Enabled


C8000-CBFFF Shadow : Disabled
CC000-CFFFF Shadow : Disabled
D0000-D3FFF Shadow : Disabled
D4000-D7FFF Shadow : Disabled
D8000-DBFFF Shadow : Disabled
DC000-DFFFF Shadow : Disabled
En esta pantalla ajustaremos la configuración de la propia BIOS y del proceso de
arranque

Virus Warning: Cuando se encuentra en posición "Enabled" genera un mensaje de aviso en caso
de que algún programa intente escribir en el s ector de arranque del disco duro. Sin embargo, es
necesario desactivarlo para poder llevar a cabo la instalación de Windows 95/98, ya que en
caso contrario, el programa de instalación no será capaz de efectuar la instalación de los archivos
de arranque.

Compilo: Msc : Pedro Martin Fiallos Página 71


UNAH TEC,Danli. Taller de hardware I.

CPU Level 1 Cache: Activa o desactiva la cache de primer nivel integrada en el núcleo de los
actuales procesadores. En caso de que se nos pase por la cabeza desactivarlo, veremos cómo
las prestaciones de nuestro equipo disminuyen considerablemente. Es muy recomendable tenerlo
activado.

CPU Level 2 Cache: Lo mismo que en el caso anterior, pero referido a la memoria cache de
segundo nivel. Igualmente la opción debe estar activada para conseguir un rendimiento óptimo.

CPU L2 Cache ECC Checking: A partir de ciertas unidades de Pentium II a 300 Mhz, se comenzó
a integrar una cache de segundo nivel con un sistema ECC para la corrección y control de
errores. Esto proporciona mayor seguridad en el trabajo con los datos delicados, aunque resta
prestaciones. Si esta opción se coloca en "Enabled", activaremos dicha característica.

Quick Power On Self Test: Permite omitir ciertos tests llevados a cabo durante el arranque, lo
que produce en consecuencia un inicio más rápido. L o más seguro sería colocarlo en modo
"Enabled".

Boot Sequence: Indica el orden de búsqueda de la unidad en la que arrancará el sistema


operativo. Podemos señalar varias opciones, de tal forma que siempre la primera de ellas (las
situada más a la izquierda) será la que se chequear á primero. Si no hubiera dispositivo "de inicio"
pasaría a la opción central, y así sucesivamente. Como lo normal es que arranquemos siempre
de un disco duro, deberíamos poner la unidad C como primera unidad.

Boot Sequence EXT Means: Desde aquí le indicamos a la BIOS a qué se refiere el parámetro
"EXT" que encontramos en la opción anterior. En este sentido podemos indicar un disco SCSI o
una unidad LS-120. Esta opción no se suele encontrar a menudo ya que las unidades se incluyen
directamente en el parámetro anterior.

Swap Floppy Drive: Muy útil en el caso de que contemos con 2 disquete ras. Nos permiten
intercambiar la A por la B y viceversa.

Boot Up Floppy Seek: Esta opción activa el testeo de la unidad de disquetes durante el
proceso de arranque. Era necesaria en las antiguas disqueteras de 5,25 pulgadas para detectar
la existencia de 40 u 80 pistas. En las de 3,5 pulgadas tiene poca utilidad, por ello lo dejaremos
en "Disabled" para ahorrar tiempo.

Boot Up NumLock Status: En caso de estar en "ON", la BIOS activa automátic amente la tecla
"NumLock" del teclado numérico en el proceso de arranque.

IDE HDD Block Mode: Activa el modo de múltiples comandos de lectura/es critura en múltiples
sectores. La gran mayoría de los discos actuales soportan el modo de transferencia en bloques,
por esta razón debe estar activado.

Typematic Rate Setting: Si se encuentra activo, podremos, mediante los valores que veremos

Compilo: Msc : Pedro Martin Fiallos Página 72


UNAH TEC,Danli. Taller de hardware I.

a continuación, ajustar los parámetros de retraso y repetición de pulsación de nuestro teclado.

Typematic Rate (Chars/Sec): Indicará el número de veces que se repetirá la tec la pulsada por
segundo.

Typematic Delay (Msec): Señalará el tiempo que tenemos que tener pulsada una tecla para
que esta se empiece a repetir. Su valor se da en milisegundos.

Security Option: Aquí podemos señalar si el equipo nos pedirá una password de entrada a la
BIOS y/o al sistema.

PCI/VGA Palette Snoop: Este parámetro únicamente ha de estar operativo si tenemos


instalada una antigua tarjeta de vídeo ISA en nuestro sistema, cosa muy poco probable.

El gabinete de la computadoras tipos.

En informática, la carcasa, torre,


gabinete, caja o chasis de computadora,
es la estructura metálica o plástica, cuya
función consiste en albergar y proteger los
componentes internos como la CPU, la
RAM, la placa madre, la fuente de
alimentación, la/s placas de expansión y
los dispositivos o unidades de
almacenamiento: disquetera, unidad de
disco rígido, unidad de disco óptico
(lectora o grabadora de: CD, DVD, Blu-
Ray).

ATX MID O MINI

Esta es la torre ATX mediana y es la más común.

tiene gabinetes para tarjetas madre mas pequeñas que las de la


ATX, las cajas mini ATX son más bajas y con un poco
menos de profundidad que las ATX, aunque con el
mismo ancho, por lo que suelen estar limitadas a

Compilo: Msc : Pedro Martin Fiallos Página 73


UNAH TEC,Danli. Taller de hardware I.

placas base mini ATX Y a un a bahía de 3.5'' y dos bahías de 5.25'' como máximo.

Una caja debe tener al menos un ventilador posterior para evacuar el aire caliente de su
interior.

NZXT Guardian ATX Mid-Tower Case

10 Drive Bays:
7 expansion slots
Motherboard Compatibility: ATX, MicroATX, BabyAT, MiniATX
Mid-tower steel ATX chassis
1 tri-color LED fan (side panel), 1 80mm rear fan; (expansion for 2 more)
External Ports: (2) USB 2.0 ports, headphone, mic jacks
Patented Guardian Fade Motion LED

Compilo: Msc : Pedro Martin Fiallos Página 74


UNAH TEC,Danli. Taller de hardware I.

ATX Full

Este tipo de gabinete es mas grande que los gabinetes típicos, este gabinete nos permite agregar
mas discos duros, dispositivos ópticos como quemadoras, DVD puertos USB, fireware.

• Caja ATX ligera con chasis de


aluminio. •
Compatible con Nvidia 8800GTX. •
Ventiladores de 12 Cm en quad
optimizados para configuraciones SLI o
Cross FIRE. •
Completo equipo de refrigeración con 7
ventiladores de 12cm en Quad
optimizados para configuraciones SLI o
CrossFire y uno de 8 cm, organizados
de la siguiente forma: •
1 x 12 Cm en frontal. • 2 x 12 Cm
traseros. •
4 x 12 Cm en plancha lateral.• 1 x 8 Cm
en panel superior.
• Posibilidad de ver el interior del
frontal (lcds, etc) a través del acrílico
ahumado.• Gran capacidad para discos
duros y unidades ópticas. •
Puertos externos: 2 puertos USB 2.0,
Mic., Firewire.

Compilo: Msc : Pedro Martin Fiallos Página 75


UNAH TEC,Danli. Taller de hardware I.

BTX

El BTX fue diseñado para reemplazar el


ATX. Se basa en el mismo concepto del
ATX, pero tambien se enfoca en
mejorar la circulación de aire. Las CPUs
y las tarjetas gráficas consumen cada
vez más y más potencia, y esto resulta
en un a mayor
disipación térmica. Por otro lado,
los usuarios reclaman cada vez más
PC que sean silenciosos.

Las actuales cajas y placas madre


ATX no fueron diseñadas para los
increíbles niveles de calor que se
producen en ellas. Así comienza la
necesidad de un nuevo formato.

En cuestión de tamaños, hay tres

tipos: picoBTX, microBTX y

regularBTX, con los siguientes tamaños máximos:

• picoBTX: 20.3 x 26.7 cm


• microBTX: 26.4 x 26.7 cm
• regularBTX: 32.5 x 26.7 c m
• Precio: $170.000

CAJAS DE TIPO ''Cubo '' o ''Barebone'':

Se trata de cajas de pequeño tamaño. Por lo general se venden o bien completamente montadas o
al menos con la fuente de alimentación y la placa base, ya que ambos elementos son específicos
para estas cajas.

Son ideales si no disponemos de mucho espacio y no necesitamos unas altas prestaciones en

Compilo: Msc : Pedro Martin Fiallos Página 76


UNAH TEC,Danli. Taller de hardware I.

nuestro ordenador, aunque sus posibilidades de expansión son mínimas. Este tipo de caja es
bastante utilizado en los equipos Media Center.

Cajas tipo ''RACK''

Son un tipo especial de cajas diseñadas para colocarlas dentro de un armario ''RACK''.

Tienen unas medidas estándar en el ancho (19'' (la más habitual), 24'' y 30'') y en la profundidad,
pudiendo variar su altura. Esta altura se mide en Unidades, siendo cada unidad de 1.75''
(44.45mm) de alto.

Hay cajas de 2, 3 y 4 unidades de altura, correspondiéndose esta última con el ancho normal de
una caja de ordenador.

Compilo: Msc : Pedro Martin Fiallos Página 77


UNAH TEC,Danli. Taller de hardware I.

En cuanto a marcas de cajas, podemos citar a LIAN


LI, NZXT, ASUS, GIGABYTE, THERMALTAKE, XION, PLANET CASE, NOX, APLUS
CASE, ANTEC, COOLER MASTER o ZALMAN entre otras.
Como se puede observar, la mayoría son también fabricantes de sistemas de refrigeración o de otros
componentes como fuentes de alimentación.

Como siempre, repetir la importancia de que la caja se encuentre en un lugar bien ventilado, que
permita una correcta circulación de aire.

Caja ATX desktop

este diseño es famoso por permitir que un monitor sea puesto encima del gabinete.color
color de producto : blanco conectividad cantidad de puertos usb 2.0 : n entrada de audio
: n salida de audio : n detalles técnicos bahía externa de unidad de disco : 3 x 5.25;, 2 x
3.5; bahía interna de unidad de disco : 1 x 3.5; factor de forma : escritorio indicadores
led : y materiales : secc source : icecat.biz supp orted motherboard form factors : atx tipo
: pc unidad de bahía : 6 gerencia de la energía fuente de alimentación : 300 w tipo de
fuente de alimentación : atx peso y dimensiones altura : 420 mm ancho : 430 mm
dimensiones (ancho x alto x largo) : 430 x 155 x 420 mm profundidad : 155 mm red
tecnología de cableado : wired

Compilo: Msc : Pedro Martin Fiallos Página 78


UNAH TEC,Danli. Taller de hardware I.

Como se diferencia una caja AT con una ATX?

La principal diferencia entre una caja AT o Baby AT y otra ATX, consiste en su adaptación
para incorporar los diferentes formatos de placas. Normalmente la Caja ATX trae una
ranura cuadrada de unos 16cm x 4,5cm en la parte trasera, donde se instala una tapa
que contiene los orificios por donde se conectan los distintos dispositivos (teclado, mouse,
video, modem, red, sonido, etc) que trae la placa madre que deseamos instalar.

Compilo: Msc : Pedro Martin Fiallos Página 79


UNAH TEC,Danli. Taller de hardware I.

Recuerde que las cajas ATX soportan tambien la instalacion de boards AT


(usando una tapa trasera con el orificio grande para el teclado).

Esta tapa por lo general las traen las cajas ATX de fabrica, viene incluida
dentro de la caja o instalada en la misma.

Actualmente está tapa viene incluida de fábrica dentro de la caja donde viene
la placa madre (mainboard). Algunas cajas ATX incluyen este mismo tipo de
tapa, aunque es muy raro que esta sea compatible con el board que usted
instala, ais que generalmente usted usará solo la tapa que viene incluida con
su board.

Compilo: Msc : Pedro Martin Fiallos Página 80


UNAH TEC,Danli. Taller de hardware I.

Si su caja no trae una ranura en la parte de atras de 16cmx4,5cm


entonces es muy seguro que su caja sea un formato AT.

ESTRUCURA FISICA DE UN DISCO DURO.

DESDE EL EXTERIOR DE LA UNIDAD.

Un disco rígido observado desde el exterior, no revela mucho de su funcionamiento interno.


Esto se debe a que los discos rígidos son unidades selladas, es decir que todas sus partes
mecánicas, y sus delicados componentes, están encerrados en una caja metálica.
Del otro lado, podemos observar la presencia de una placa electrónica, donde concurren
las conexiones de energía e interfaz con la PC (ver figura 10.10).
No vemos los componentes mecánicos, porque por sus características constructivas, que
ahondaremos en un momento más, no toleran la presencia de humedad y mucho menos
suciedad o humo.

Compilo: Msc : Pedro Martin Fiallos Página 81


UNAH TEC,Danli. Taller de hardware I.

Todos sus sensibles componentes quedan encerrados en lo que se llama una burbuja,
herméticamente cerrada. El aire atrapado en su interior, recicla en un circuito atravesando un
filtro,que atrapa cualquier impureza que haya quedado durante su manufactura.

EL INTERIOR DE LA UNIDAD DE DISCO RÍGIDO


Tracemos un viaje imaginario hacia el interior de un disco rígido, para descubrir cómo están
construidos y cómo funcionan.

DISCOS RÍGIDOS. ¿POR QUÉ RIGIDOS?

Una unidad destapada (ver figura 10.2), nos revela ahora algunos secretos. Vulgarmente nos
referimos a ella, como disco rígido, para diferenciarlo de otros medios de almacenamiento

Compilo: Msc : Pedro Martin Fiallos Página 82


UNAH TEC,Danli. Taller de hardware I.

como los disquetes. Estos últimos, están construidos con una base plástica flexible, mientras
que las unidades que hoy estudiamos, contienen platos de una base metálica, generalmente
aluminio, recubiertas con una pintura ferromagnética.
Descubrimos además, algo que no resulta evidente desde afuera. Al usar un disco rígido, percibimos
una unidad con determinada capacidad de almacenamiento. Pero al destaparla (ver figura10.2),
observamos la existencia de varios platos, que en conjunto se comportan como
una sola cosa. En este caso, la unidad mostrada es un disco de la firma IBM de 40 Gigabytes,
que incluye 10 platos. Pero ese número varía de acuerdo a la capacidad, velocidad y diseño
del fabricante.

Un factor de diseño a considerar es el volumen de la unidad. La cantidad de platos que incluya,


influye directamente en la altura del dispositivo. Generalmente las unidades delgadas, incluyen
sólo uno o dos platos. A medida que avanza la tecnología constructiva de los platos, se
logra mayor densidad de grabación (es decir más bits en menos espacio), y en consecuencia
se obtiene mayor capacidad con menor cantidad de platos, es decir, mayor capacidad en unidades
cada vez más pequeñas.

Compilo: Msc : Pedro Martin Fiallos Página 83


UNAH TEC,Danli. Taller de hardware I.

LOS BRAZOS Y CABEZAS DE LECTURA/ESCRITURA


Podemos observar además que hay un brazo metálico, cuyo extremo reposa sobre la superfi-

cie de los platos. Se trata del brazo que soporta las cabezas de lectura/escritura. En la figura
10.3 podemos observar los brazos de una unidad de dos platos. En este caso, en el extremo
del brazo se encuentran cuatro cabezas.
Por cada cara de cada plato de una unidad, hay por lo menos una cabeza de lectura/escritura.
Es decir que los platos son utilizados de ambas caras.
En la figura 10.4 podemos apreciar un detalle de las cabezas de lectura/escritura que están en
el extremo del brazo de la figura 10.3.
Las cabezas de lectura/escritura tienen una superficie pulida. Cuando los platos están
detenidos, las cabezas descansan sobre su superficie sin rayarla. Pero si la unidad recibe un

Compilo: Msc : Pedro Martin Fiallos Página 84


UNAH TEC,Danli. Taller de hardware I.

golpe en estas condiciones, la vibración puede dañar permanentemente a la pintura magnética


del plato o a la cabeza misma.
Por eso las unidades de disco son muy frágiles, y deben ser siempre manejadas con mucho
cuidado. Cuando se pone la unidad a trabajar, los platos comienzan a girar velozmente,
arrastrando el

aire atrapado dentro de la burbuja. Entonces las cabezas comienzan a volar sobre un colchón
de aire, por cierto muy delgado, que se forma sobre cada cara de cada plato. Gracias a esto, el
conjunto de cabezas (ver figura 10.5) puede volar sobre la superficie de los platos.
Este colchón es tan delgado, que anda en el orden de una décima de milímetro. Cualquier
impureza, como una partícula de carbón de hollín del aire que respiramos diariamente, puede
provocar un daño severo en la superficie del plato y de la cabeza.
Esto explica por que las cabezas, los platos y sus mecanismos asociados, están encerrados en

Figura 10.5

Las cabezas de un disco rígido planean sobre las superficies magnéticas de los platos,
sustentadas por un colchón de aire muy delgado. Las impurezas del aire ambiental,
provocarían daños irreversibles. Por eso bajo ningún concepto debemos abrir una unidad.
Instituto Tecnológico Argentino THP / Clase 10 5 una burbuja hermética; y también por que
nunca debemos abrir una unidad. Hacerlo permitiría el ingreso de aire contaminado dentro de
la unidad, provocando daños irreversibles en la superficie magnética de los platos y en las
cabezas.

Compilo: Msc : Pedro Martin Fiallos Página 85


UNAH TEC,Danli. Taller de hardware I.

LOS MOTORES

De una rápida observación de la figura 10.2, no resulta tan evidente la presencia de dos
motores:
uno para el movimiento de rotación de los platos, y otro para el desplazamiento del conjunto
de las cabezas.

El motor de los platos

Uno de los motores esta referido en las documentaciones técnicas en su idioma original como
spindle motor <-spindl mótor-> (del inglés: motor del eje de rotación) es justamente el que
hace girar los platos.
El eje del motor, es el eje de los platos (de allí su nombre en inglés), es decir que no existen
medios de acoplamiento como correas, poleas o engranajes. Esta forma de trabajo se la
conoce como tracción directa.

En la figura 10.6, se puede observar desmontado al motor y eje de los platos de una unidad de
disco rígido. Este es un motor sincrónico, controlado por los circuitos de la placa electrónica
montada sobre la unidad.

En la misma figura, se ve que el motor va montado de modo tal que atraviesa una cara de la
burbuja. El conector y los cables quedan del lado externo, conectados a la placa electrónica.
Del lado interno queda el eje del motor, donde se atornillan los platos.

Compilo: Msc : Pedro Martin Fiallos Página 86


UNAH TEC,Danli. Taller de hardware I.

El motor, montado en su posición, forma parte del sello de la burbuja, es decir que no hay
paso de aire desde el exterior, ya que el eje y partes móviles quedan dentro de ella, y por
fuera sólo están las conexiones eléctricas.

El motor de las cabezas.

Dos tecnologías de motores se han empleado en la construcción de los discos rígidos.


En las primitivas unidades se usaban motores especiales, muy utilizados en la actualidad para
aplicaciones de robótica: los motores paso a paso o stepper motor <-stiper mótor-> (que en
inglés significa motor de pasos).

Estos motores no giran libremente como lo hacen los motores comunes, sino que avanzan
algunos grados y se detienen en una nueva posición de descanso. Cada posición de descanso
es un paso. Con una secuencia suficiente de pasos, se logra hacer girar al eje de estos
motores.

Con estos motores se puede tener no sólo el control del sentido de giro, sino también de
cuántos grados deseamos que gire en un sentido u otro.

En la figura 10.7, se puede apreciar la implementación de un motor de pasos, en un vetusto

disco ST-221 de la firma Seagate, de 20 Megabytes de capacidad total. El giro del eje del
motor, arrastraba por medio de un zuncho al pivote del brazo de las cabezas.

Compilo: Msc : Pedro Martin Fiallos Página 87


UNAH TEC,Danli. Taller de hardware I.

Las ventajas de estos motores son la sencillez de su control y su versatilidad. Con una
electrónica poco compleja, se los puede controlar fácilmente. Las desventajas de este tipo de
motores son dos: son ruidosos y lentos.
Otro de los problemas presentes con estos motores, es que siempre están en una posición de
descanso, aún cuando no tienen energía. Esto significa que si un disco rígido está operando
con las cabezas en la zona de datos, y ya sea que voluntaria o involuntariamente cortemos la
energía de alimentación de la unidad, las cabezas aterrizan en la zona de trabajo dejando a la
unidad en una situación de máximo riesgo, ya que frente a una vibración o golpe leve puede
haber pérdida de información almacenada. En los años en que se usaban estos discos, el
problema se evitaba ejecutando un programa llamado Park (estacionar en inglés), antes de
apagar la PC, que movía las cabezas fuera de la zona de trabajo.

Figura 10.7

Desarrollos posteriores incluían un mecanismo para forzar que el motor se mueva a determinada
posición (quitando las cabezas de la zona de trabajo) cuando se quedaba sin energía.
Este mecanismo se lo conoció como Auto Parking (estacionamiento automático). Todos los
discos modernos tienen un mecanismo de estacionamiento automático.
La segunda tecnología empleada en la construcción de motores para accionar las cabezas de
los discos rígidos, utilizada ampliamente en las rápidas unidades modernas, es curiosamente
más vieja que la implementación del motor de pasos.
Se trata de los motores de desplazamiento lineal, controlados electrónicamente. La complejidad
electrónica asociada al manejo de estos motores, los ha hecho prohibitivos para los discos de
bajo costo. Pero gracias a la evolución electrónica, la reducción de tamaño y precio de los
circuitos asociados, todas las unidades modernas cuentan con motores de este
tipo.

El principio de funcionamiento del motor es muy sencillo y elemental: funciona como un


parlante.
Una bobina se desplaza por el campo magnético fijo de un imán, en respuesta a la energía
eléctrica que recibe de un circuito electrónico. La complejidad radica en la tecnología
necesaria para lograr que ese movimiento pueda ser controlado.

Tan similar es la operación a un parlante, que a la bobina del motor lineal se la conoce como
Voice Coil <-vois coil->, que en inglés significa bobina de voz.

Las ventajas que podemos enumerar rápidamente son: 1) Operación totalmente silenciosa. 2)
alta velocidad de reacción. 3) Son extremadamente compactos. 4) Se pueden enviar a una pos

Compilo: Msc : Pedro Martin Fiallos Página 88


UNAH TEC,Danli. Taller de hardware I.

Posición definida rápidamente, como por ejemplo para quitar las cabezas de la zona de
trabajo frente a un corte inesperado o programado de energía.

PLACA ELECTRÓNICA DE CONTROL.

Todos los componentes internos que hemos visto, dependen de la placa electrónica, para
coordinar sus funciones.
El motor de rotación por ejemplo, debe girar a una velocidad fija y constante. Los discos
modernos de alta velocidad hacen girar sus platos a más de 10.000 revoluciones por minuto.
El circuito electrónico que controla y corrige la velocidad de rotación, reside en la placa
electrónica de control (ver figura 10.10). El motor lineal y su compleja electrónica
de control de posicionamiento, también residen en la placa electrónica.
Además allí reside tanto la lógica necesaria para la activación de una cabeza del
conjunto, como la amplificación y descodificación de datos; la interfaz con el
Motherboard, etc.

Compilo: Msc : Pedro Martin Fiallos Página 89


UNAH TEC,Danli. Taller de hardware I.

ALMACENAMIENTO Y ORGANIZACIÓN DE DATOS


La información que se almacena en un disco rígido, se graba de modo tal que sea posible el
acceso veloz a las zonas vacantes de su estructura, y que posteriormente sea sencilla su
recuperación.
Para lograr este objetivo, la información se almacena con la siguiente organización:
Pistas, Cilindros y Sectores.

LAS PISTAS

Las cabezas de lectura/escritura se desplazan por la superficie ferromagnética de los platos,


gracias al motor de las cabezas. Este último, ubica a las cabezas en distintas posiciones con
respecto al eje de rotación.
En cada una de estas posiciones de descanso, las cabezas pueden grabar o leer datos de la
superficie de los platos, completando una vuelta completa. Es decir, que si pudiéramos ver la
información que queda grabada en los platos de los discos, veríamos que forma pistas
circulares concéntricas.
Para ilustrar esto, a un plato de un disco rígido le trazamos las pistas (imaginarias) con un
marcador (ver figura 10.11).

En realidad, en la ilustración, sólo pudimos trazar algunas, ya que en realidad un disco actual
usa más de cinco mil pistas en cada cara de cada plato. Pero para darnos una idea de lo que es
una pista, basta con las pocas que hemos trazado.

Compilo: Msc : Pedro Martin Fiallos Página 90


UNAH TEC,Danli. Taller de hardware I.

LOS SECTORES.

Para organizar mejor aún la información, cada pista no se graba íntegra de una vez, sino que
se graba de a tramos, conocidos como sectores.
Para poder ilustrar qué es un sector, en la figura 10.12, se muestra otro plato con pistas
(imaginarias) pintadas en la superficie, donde además se han trazado líneas diametrales que
muestran la forma y ubicación de los sectores en el disco. En este caso, cada pista ha sido
fraccionada en 16 sectores.
Desde el diseño de la primer PC con disco rígido, hasta la actualidad, se ha normalizado el
uso de sectores con capacidad de 512 Bytes.
mejor el espacio de grabación de los platos.

Si analizamos un poco el aprovechamiento de la superficie de la figura 10.12, vemos que los


sectores de las pistas cercanas al eje del disco, tienen menor tamaño que los sectores de las

Compilo: Msc : Pedro Martin Fiallos Página 91


UNAH TEC,Danli. Taller de hardware I.

Este esquema de distribución de sectores ha sido empleado tradicionalmente en los discos


rígidos por bastante tiempo. Pero el mercado informático comenzó a demandar mayor
capacidad en las unidades de disco, y hubo que desarrollar nuevos esquemas que permitan
aprovechar pistas cercanas a la periferia del disco. Si cualquier sector posee una capacidad de
almacenamiento de 512 bytes, ello significa que los 512 bytes en un sector cercano a la
periferia del disco entrarán holgados, y que en los sectores cercanos al eje, entrarán apretados.
En la figura

10.13 se ilustra esto con dos rectángulos que contienen la misma cantidad de datos. El
superior representa a un sector cercano al borde del disco, mientras que el inferior (de menor
tamaño), representa un sector cercano al eje.

Compilo: Msc : Pedro Martin Fiallos Página 92


UNAH TEC,Danli. Taller de hardware I.

La conclusión es sencilla: Si se puede lograr mayor densidad de grabación en las pistas


cercanas al eje, en las pistas cercanas al borde se está desperdiciando espacio.

La solución utilizada en la fabricación de las unidades modernas, es la siguiente: Emplear la


misma densidad de grabación en todos los sectores del disco, es decir que todos los sectores
sean del mismo tamaño y tan pequeños como sea posible.

En la figura 10.14, se muestra un ejemplo de distribución de sectores, donde el tamaño de un


sector en las pistas internas es prácticamente el mismo que el de las pistas externas. En este
ejemplo, las pistas internas se fraccionan en nueve sectores, mientras que las pistas externas
se fraccionan en dieciséis.

LOS CILINDROS: UN CONCEPTO ABSTRACTO

Si nuevamente observamos con detalle las figuras 10.3, 10.4 y 10.5, podremos apreciar que
las cabezas del brazo, están verticalmente alineadas. Esto implica que a determinada distancia
del eje, una pista grabada por cualquier cabeza, estará a la misma distancia del eje que las
pistas grabadas por cualquier otra cabeza del brazo.
Dejemos ahora volar un poco nuestra imaginación, y pensemos en la unión mental de todas
las pistas grabadas, por todas las cabezas de un brazo a determinada distancia del eje.
Formaremos así un cilindro. Para ello, puede ayudarnos la figura 10.15, que nos muestra a
modo de ejemplo, cuatro posibles cilindros imaginarios.

Compilo: Msc : Pedro Martin Fiallos Página 93


UNAH TEC,Danli. Taller de hardware I.

Usando este concepto, se pueden derivar las siguientes conclusiones:

Si en la superficie de un plato se pueden grabar


N pistas, y ese plato se puede grabar en
ambas caras, entonces en ese plato hay
2xN
pistas. Como un cilindro es la unión
imaginaria de las pistas grabadas en
ambas caras, en ese plato existen N
cilindros.
En cualquier unidad de disco rígido,
hay tantos cilindros como pistas en
una de las superficies.
En la figura 10.15 por ejemplo, vemos
cuatro pistas en la cara superior, y
cuatro cilindros definidos.
Un cilindro está formado por tantas
pistas, como cabezas de
lectura/escritura haya en el
brazo. Por ejemplo en la figura 10.15,
cada cilindro está formado por ocho
pistas, que es el número de cabezas
necesarias en el brazo para
escribir en todas las caras de todos los platos.
La cantidad total de pistas en un disco, es
igual a la cantidad de cilindros multiplicado
por la cantidad de cabezas de lectura/escritura
que posea el brazo. Por ejemplo en la figura
10.15, hay en total 4 x 8 = 32 pistas.
El motor que mueve las cabezas, siempre las
desplaza de cilindro en cilindro.

El cilindro: un factor del rendimiento.

Mover las cabezas de un cilindro a otro, significa poner en marcha al motor correspondiente,
vencer la inercia de los brazos que las soportan, esperar el tiempo de viaje, estabilizar los
brazos en la nueva posición, y recién allí poder comenzar la búsqueda de información.
Esto implica que el viaje de las cabezas provoca una pérdida importante de tiempo. La menor
demora será entre cilindros consecutivos, y la mayor entre cilindros distantes.
Este problema se hace más evidente, cuando la información no queda almacenada en forma

Compilo: Msc : Pedro Martin Fiallos Página 94


UNAH TEC,Danli. Taller de hardware I.

contigua, es decir que se encuentra fragmentada (tal vez hayamos oído hablar de un proceso
de desfragmentación que reorganiza los datos dejándolos contiguos, y por consiguiente
mejora el rendimiento).
Además la pérdida de tiempo se ve potenciada con el uso de motores lentos, como los
motores de pasos empleados en las antiguas unidades (ver figura 10.7).
Por eso, es muy importante tratar de mantener quietas las cabezas la mayor parte del tiempo
posible. Visto desde otro punto de vista, sería deseable tratar de acceder a la mayor cantidad
admisible de información, sin cambiar de cilindro.
Para lograr esto último, el cilindro debería estar compuesto por muchas pistas, lo que implica
directamente el uso de muchas cabezas.
La conclusión final de este razonamiento, nos lleva a pensar que un disco con muchas
cabezas es más eficiente que un disco con pocas. O analizado desde otro punto de vista, si dos
discos tienen la misma capacidad total, es más eficiente el que tenga menor cantidad de
cilindros.
Esto es realmente así, y eso explica por qué el disco IBM de 40 Gigabytes de la figura 10.2
tiene 20 cabezas (tiene diez platos), y lo hace mucho más rápido que una unidad común de
cuatro cabezas (y seguramente más caro).

Cilindro: utilidad pasada, presente y futura del concepto

Puede parecer muy sofisticada la idea conceptual de cilindro, y sin un análisis cuidadoso, tal
vez pensemos que es un concepto inútil, o tal vez que si no reparamos en él, nuestras vidas no
cambiarán demasiado. Esto casi es cierto en la actualidad.

Lo analizado en el párrafo 4.3.1, parte de la premisa de que nosotros conocemos


exactamente la estructura y organización interna del disco.

En el pasado, el fabricante estaba obligado a publicar la estructura interna fielmente, ya que


los valores de esa estructura formaban parte de la configuración en la instalación de un disco
en la PC.

La estructura interna, también conocida como la geometría o los parámetros del disco, está
compuesta por: la cantidad de cilindros, la cantidad de cabezas de lectura/escritura, y la
cantidad de sectores existentes por pista. Estos parámetros eran requeridos por el programa de
configuración del las PCs de hace algunos años.

En la actualidad, las modernas unidades de alta capacidad, han sufrido una metam orfosis
interna, para acomodar más información en menos lugar. Por ejemplo, ya hemos estudiado el
caso del sectorizado (ver sección 4.2), donde la solución para aprovechar mejor el espacio,
fue acomodar más sectores en las pistas ubicadas en los cilindros de mayor diámetro, y menor
cantidad en los de menor diámetro.
Pero en la configuración de la PC, no está contemplado y no es posible configurar una
cantidad de sectores variable, dependiendo del diámetro de la pista.

Compilo: Msc : Pedro Martin Fiallos Página 95


UNAH TEC,Danli. Taller de hardware I.

Esto implica que sólo se puede declarar un valor en la cantidad de sectores por pista de la
unidad. Es decir que si en la PC declaramos que la unidad tiene la cantidad de sectores que
tiene una pista externa (cerca del borde), ese valor no será válido para las pistas internas
(cercanas al eje) porque de hecho hay menor cantidad. Y declarar que la unidad tiene la
cantidad de sectores de una pista interna, es directamente decirle a la PC que ignore los
sectores extra que se lograron incluir en las pistas externas, desperdiciando esa capacidad
extra. En otras palabras, esto se conoce como problema de compatibilidad.
Para poder mantener la compatibilidad, en las unidades modernas, los fabricantes incluyen en
la electrónica de las unidades un procesador que traduce una geometría compatible ficticia
(también conocida como geometría lógica o parámetros lógicos) utilizada desde el lado de la

PC, a la geometría incompatible real (conocida como geometría física o parámetros físicos)
interna del disco.
En conclusión, por lo que estamos viendo, la geometría de los discos actuales que publican
los fabricantes, es una geometría lógica (ficticia) para mantener la compatibilidad con las
PCs, y poco tiene que ver con la geometría real interna de los discos.
La única forma de saber realmente cuántos cilindros o cabezas tiene una unidad actual, como
para compararla con otra y evaluar sus características, es leyendo información específica de
ese modelo, obtenida directamente del fabricante, o (algo ciertamente no recomendado)
quitándole la tapa a la unidad.
Del lado de la PC, las cosas han evolucionado también. Actualmente para instalar un disco
rígido están habilitadas varias modalidades de configuración. La más moderna ignora
absolutamente la geometría de los discos, y sólo necesita saber cuántos sectores en total tiene
la unidad.
Posiblemente en el futuro esta última modalidad de configuración sea la única forma de
declarar las unidades, quedando oculta para siempre la estructura física real del disco.
Considerando que los traductores le dan libertad absoluta a los fabricantes de hacer lo que
deseen en el interior de las unidades, tal vez en un futuro los discos dejen de ser lo que
conocemos hoy en día. Tal vez en el mañana, si destapamos una unidad, nos encontremos con
un cubo cristalino, controlado por un par de láseres, sin partes móviles. Y por ese entonces,
será tal vez más extraño y sofisticado hablar del concepto cilindro.

CÁLCULO DE LA CAPACIDAD TOTAL DE UN DISCO


La capacidad total de un disco rígido, se puede saber fácilmente, si conocemos cuántos sectores
hay en la unidad. Ya hemos dicho que en un sector cabe 512 bytes. Basta entonces averiguar
cuántos sectores tiene un disco, multiplicarlo por 512, y el resultado será la capacidad total
expresada en bytes.
Los discos actuales, informan directamente la cantidad de bloques (sectores) disponibles en el
mismo. Las unidades algo más viejas, informan una geometría lógica: una cantidad de
cilindros,una cantidad de cabezas y una cantidad de sectores por pista (generalmente 63).
Si conocemos la geometría lógica, bastará multiplicar entre sí esos valores, para saber cuál es
la cantidad total de sectores contenidos en la unidad. Por ejemplo, supongamos que un disco

Compilo: Msc : Pedro Martin Fiallos Página 96


UNAH TEC,Danli. Taller de hardware I.

tiene 1.000 cilindros, 8 cabezas y 63 sectores por pista, la cantidad de sectores será:

HDD vs SSD: diferencias y ventajas de ambos tipos de disco duro


Disco duro o HDD (Hard Drive Disk)

Los discos duros, también conocidos como HDD, son un componente informático que sirve para
almacenar de forma permanente tus datos. Esto quiere decir, que los datos no se borran cuando se
apaga la unidad como pasa en los almacenados por la memoria RAM. La primera empresa en
comercializarlos fue IBM en 1956.

Están compuestos de piezas mecánicas, de ahí que a veces se le llame discos duros mecánicos, y utilizan
el magnetismo para grabar tus datos y archivos. Se compone de uno o varios discos rígidos unidos por
un mismo eje y que giran a gran velocidad dentro de una caja metálica. En cada plato y en cada una de
sus caras, un cabezal de lectura/escritura lee o graba tus datos sobre los discos.

Cuanto más finos sean los discos mejor será la grabación, y cuanto más rápido giran a mayor velocidad se
transmiten los datos, tanto a la hora de leerlos como al escribirlos. Por lo general, la velocidad de los
discos duros suele ser de 5400 o 7200 RPM (revoluciones por minuto), aunque en algunos discos basados
en servidores pueden llegar a hasta 15.000 RPM

En cuanto al tamaño, las cajas de los discos duros mecánicos pueden ser de 2,5" o de 3,5". Su precio puede
variar dependiendo de este tamaño, pero sobre todo de su capacidad de almacenamiento. De hecho, la
gran ventaja de estos discos duros con respecto a los SSD es que son bastante más económicos.

Unidad de estado sólido o SSD

Compilo: Msc : Pedro Martin Fiallos Página 97


UNAH TEC,Danli. Taller de hardware I.
Las unidades de estado sólido o SSD (Solid State Drive) son una alternativa a los discos duros. La gran
diferencia es que mientras los discos duros utilizan componentes mecánicos que se mueven, las SSD
almacenan los archivos en microchips con memorias flash interconectadas entre sí. Por lo tanto, casi
podríamos considerarlos como una evolución de las memorias USB.

Los SSD suelen utilizar memorias flash basadas en NAND, que como también son no-volátiles mantienen la
información almacenada cuando el disco se desconecta. No tienen cabezales físicos para grabar los datos,
en su lugar incluyen un procesador integrado para realizar operaciones relacionadas con la lectura y
escritura de datos.

Estos procesadores, llamados controladores, son los que toman las "decisiones" sobre cómo almacenar,
recuperar, almacenar en caché y limpiar los datos del disco, y su eficiencia es uno de los factores que
determinan la velocidad total de la unidad. Además, al no depender del giro de un componente físico,
también se logra una unidad más silenciosa que los discos mecánicos.

En cuanto al tamaño, estos discos suelen ser de 2,5", y tienen un diseño casi idéntico al de los discos duros
mecánicos, lo que ayuda a que puedan encajar en las mismas carcasas y ranuras donde van montados los
discos duros convencionales en un ordenador.

HDD vs SSD: principales diferencias


Principales ventajas SSD HDD
Capacidad En general entre 256 GB y 4 TB En general entre 1 y 10 TB
Consumo Menor consumo Mayor consumo
Coste Bastante más caros Mucho más económicos
Ruido Más silencioso por no tener partes Algo más ruidoso por tener partes
móviles móviles
Vibraciones No vibra por no tener partes móviles El giro de sus discos puede provocar
leves vibracioness
Fragmentación No tiene Puede darse
Durabilidad Sus celdas pueden reescribirse un Con partes mecánicas que pueden
número limitado de veces dañarse con movimientos
Tiempo de arranque 7 segundos 16 segundos
de SO
Transferencia de En general, entre 200 y 550 MB/s En general entre 50 y 150 MB/s
datos
Afectado por el No El magnetismo puede eliminar datos
magnetismo

En esta tabla puedes ver cuales son las principales diferencias entre ambas tecnologías de
almacenamiento. La principal diferencia tiene que ver con capacidades máximas y precio. Hay que tener
en cuenta que las SSD son mucho más modernas, por lo que es normal que su precio sea notablemente
superior. A día de hoy, una SSD de 250 GB puede valer lo mismo que un HDD de 3 TB.

Compilo: Msc : Pedro Martin Fiallos Página 98


UNAH TEC,Danli. Taller de hardware I.

Anexos
Marcas reconocidas de tarjetas madres .
ASUS,ASRock,Biostar,ECS,EVGA,Foxconn,Gigabyte,MSI,Zotac,Intel

Compilo: Msc : Pedro Martin Fiallos Página 99


UNAH TEC,Danli. Taller de hardware I.

Compilo: Msc : Pedro Martin Fiallos Página 100

También podría gustarte