Está en la página 1de 159

Manual del Curso de Reparación de PC

Manual del Curso de Reparación de PC

Basado en

A+ Training & Test Preparation Guide


Volume I – 6th Edition
Specialized Solutions,

Specialized Solutions, Inc.


338 E. Lemon Street
Tarpon Springs, FL 34689

Traducido y Adaptado por Ulises Bosio

- Página 1 –
Manual del Curso de Reparación de PC

Tabla de contenidos

1- Instalación configuración y actualización


2- Diagnostico y resolución de Problemas
3- Mantenimiento Preventivo y Correctivo de PC
4- Placas madre y Procesadores
5- Impresoras
6- Funcionamiento Básico de Redes

- Sistemas Operativos
7- Fundamentos de sistemas operativos
8- Instalación, configuración y actualización
9- Diagnósticos y resolución de Problemas
10- Redes

- El bus de la computadora
11- Procesamiento
12- Imput-Output (Entrada y Salida)
13- Soporte de Hardware

- Cableado y Conectores
14- Cable Paralelo
15- Cables de comunicación
16- IEE1394 Bus de Serie de alta Velocidad
17- Otros tipos de Cables
18- Identificando cables y conectores
19- Sumario de conectores

- Electricidad Básica y Seguridad


20- Corriente Continua (DC)
21- Corriente Alterna (AC)
22- Midiendo Electricidad
23- EL Multímetro (TESTER)
- Página 2 –
Manual del Curso de Reparación de PC

24-Testeando corriente Alterna (AC)


Tomacorrientes con un tester
Testeo de AC en DC
Testeando Resistencia
Testeo de continuidad
Testeo de Fuente (POWER SUPPLY)

25- Componentes Electrónicos


Capacitores
Bobinas
Diodos
Fusibles
Rectificadores
Transformadores
Transistores

- Riesgos Eléctricos
26- ESD (Descargas Electroestáticas)
27- Descargas a Tierra
28- Alto Voltaje
29- Riesgo de Fuego

- Placas Madre y Procesadores


30- Placas XT
Placas AT
Baby AT
Placas ATX
Micro ATX
Flex ATX
LPX
Mini Lpx
31- El Gabinete
32- Componentes
- Página 3 –
Manual del Curso de Reparación de PC

33- Chipsets
Rom
BIOS
34- Configuración de Bios
35- La Pila de la Bios
36- Test de arranque
37-Arquitectura del Bus
38- Un bus de computadora
39- Compatibilidad de Placas Madre
40-Tecnología de Procesadores
41- El procesador central (CPU o Micro)
Transistores
Circuito Integrado
Microprocesadores
Registros
Reloj
Voltajes de procesador
Montajes de Procesador (Zócalos SECC,DIPP, PGA, LCC)

- Estándares Actuales
Pentium
Pentium Pro
Pentium II
Celeron
Pentium MMX
Pentium III
Pentium III Xeon
Pentium IV
Itanium
AMD K6, K7, K8 (Athlon, Duron, Sempron, Athlon64)

- Refrigeración
Ventiladores
- Página 4 –
Manual del Curso de Reparación de PC

Disipadores
Compuestos Térmicos
Refrigeración Liquida

- Memorias
- RAM y ROM
- DRAM
- EDO RAM
- SDRAM
- DDR SDRAM
- DRDRAM
- Simas
- DIMMs
- RIMMs
42- Instalando Memoria
43- Optimizando Memoria

- Fuentes (POWER SUPPLY)


44- Cuanta Energía necesito?
45- P8 y P9
46- Molex o mini?

- Unidades de Almacenamiento
47- Floppy, instalación y mantenimiento

- Discos Rígidos
48- Tecnología de los discos
49- los cabezales
50- Arquitectura de los discos

- Interfaces de los Discos Rígidos


51- ESDI
52- IDE
- Página 5 –
Manual del Curso de Reparación de PC

53- ATA, ATA2, ATA3, ATA4, ATA5, Ultra-ATA


54- SCSI
55- SATA

- Instalación y Set-up de un disco


56- Procedimiento de instalación
57- EL Cmos y el Disco
58- El Formateo de Bajo Nivel
59- El disco de Arranque
60- Particionado
61- Formateo Estándar
62- Defrag y Scandisk
63- Cuando todo lo demás falla

- Unidades Ópticas
64- CD-Roms
65- Conexiones
66- La capacidad de Audio
67- Grabadoras y compatibilidades
68- Mouse y Teclado

- Página 6 –
Manual del Curso de Reparación de PC

- Página 7 –
Manual del Curso de Reparación de PC

Capítulo – 1 instalación, configuración y actualización

Identificar los nombres y propósitos de los módulos de una Pc


Por vista y/ o por definición:
Por Ejemplo: Procesador, fuente, placas de Expansión, Cpu, Gabinetes,
memorias.
Identificar los procedimientos básicos de agregar, o remover
componentes de una Pc, y los componentes (o módulos) reemplazables de una
Pc, en un caso de reemplazo este seria la secuencia de reemplazo
Por Ejemplo:
Placa Madre,
-Unidades de Almacenamiento: discos, Floppy, Cdrom, fuentes,
-Fuente

Sistemas de Refrigeración
-Ventiladores (Coolers)
-Disipadores

Procesador
Memorias
Placas de Expansión
Placas de Video
Teclado /Mouse
Placa de Red
Placa de Audio
MODEM

Como se comunica una Pc?


Si bien la Pc, es o se parece a un dispositivo complejo, es un dispositivo
compuesto, es decir que esta formado por diferentes componentes
interconectados entre si e ínter operables, que quiere decir que uno opera junto
con otro, pero al Igual que una calculadora, una computadora maneja la

- Página 8 –
Manual del Curso de Reparación de PC

información en 3 etapas, estas son Entrada, Procesamiento y Salida y cada


pieza de hardware puede ser clasificada en 2 de las tres etapas

Las 3 Etapas del Cómputo


A pesar de que el computo es la segunda de las etapas comenzaremos
desde aquí ya que es el corazón de la computadoras, inicialmente las
computadoras fueron pensadas como súper calculadoras, o para “computar
datos o números” en algunos casos de manera redundante, pero en el DIA de
hoy no solo se encarga de realizar estas tareas, sino que también se encarga
de esto sino de nuestros negocios, entretenimiento, educación y en ocasiones
de de nuestra frustración.
Incluso si no posee una computadora, o no usa una de ellas se
encuentra en muchos dispositivos mecánicos y electrónicos inclusive un auto
por ejemplo:
Entrada: la asombrosa capacidad de computo de una maquina no puede
ser aprovechada si no se ingresa en la misma los datos a procesar o computar,
por ello existen los componentes de entrada de datos de una Pc, como por
ejemplo un teclado, un Mouse, un floppy, un CD-Rom.
Salida: Toda esta información procesada por la Pc nos resultaría inútil si
no podemos disponer de ella, o no podemos sacarla de la máquina de alguna
manera, como por ejemplo imprimirla, verla en la pantalla, grabarla en un
floppy, o en un cd, que es la tercera etapa del computo, la Salido u Output.

- Página 9 –
Manual del Curso de Reparación de PC

Ejemplos:
Procesador de Textos Entrada - los datos que uno escribe
Procesamiento – darle formato al
texto, colores, letras, etc.
Salida – Guardar el archivo, imprimirlo

Juego Entrada – uno realiza un movimiento


en el juego
Procesamiento – la computadora
muestra los movimientos que uno
hace en el juego
Salida – la computadora hace su
movimiento en e l juego

Los seres humano se comunican primordialmente por medio oral y


escrito, pero si nos tenemos que comunicar a distancia esto ya se vuelve algo
mas complicado, con el advenimiento de la era industrial y de la electricidad, la
aparición de el código Morse, trajo el telégrafo, y se hizo posible el poder enviar
mensajes a distancia a través de un cable, que consistía en un dispositivo que
transmitía el mensaje y otro que lo recibía y el mensaje viajaba por un cable en
forma de impulsos eléctricos.
Como estarán deduciendo esta fue la primera forma de comunicación
DIGITAL que es lo que creó las bases del CODIGO MAQUINA (los famosos
BITS y BITES) por eso se dice que los pulsos eléctricos de el telégrafo (el
código Morse) fueron el primer dispositivo digital de comunicación, pero solo
podía transmitir un mensaje por cable a la vez.
Y hasta que no se desocupara o finalizara un mensaje, no se podía
realizar otro, que es lo que se conoce como comunicación en serie. Para
solucionar esto se creo la comunicación en paralelo
Que era poner más de un filamento para poder enviar y recibir más de
un mensaje a la vez, (entrada y salida).

- Página 10 –
Manual del Curso de Reparación de PC

Los binarios, o la forma en que las Pc se comunican de a 2.


Las pc tienen su propio lenguaje de comunicación que se denomina
Binario, esta basado en 1 o 0 es decir encendida u apagada.
Es muy similar a encender la luz o apagarla por dar un ejemplo
cotidiano.
BIT es la mínima unidad de información que es reconocida por una
computadora, y es similar a encender un foco por ejemplo ya que solo posee 2
estados (encendido y apagado).
Bytes es un grupo de 8 bits, el bite es necesario para poder representar
un carácter de información, por ejemplo presionar una tecla, equivale a enviar
un bite de información a la CPU de la computadora, y el Byte, es la unidad
estándar de de medición de memoria, los términos expresados en Kilobytes o
Megabytes; y la siguiente Tabla nos ilustra este tema:

BIT Es la mínima Unidad de información


Nibble 4 Bits o sea medio Byte
Byte 8 Bits 1 Carácter equivale a 8-bits
Word 16-Bits Las computadoras Grandes pueden
utilizar “WORDS” de hasta 64 bits
Kilobyte KB 1024 Bytes
Megabytes 1024 Kilobytes
Gigabyte 1024 Megabytes
Terabyte 1024 Gigabytes
Exabyte 1024 Terabytes

- Página 11 –
Manual del Curso de Reparación de PC

Como mencionamos antes el BIT solo puede existir en 2 estados


encendido y apagado
1 Equivale a encendido
0 Equivale a apagado
El siguiente es un byte de información en el cual los 8 Bits son Ceros, y
en el sistema binario esto representa un solo carácter, en este caso “0”.
El sistema binario es muy similar a el decimal usado diariamente el prefijo
“d.C.” es por diez y el “bit” es por dos.
Y de aquí luego en mas es de donde se desprende el Hexadecimal, es
decir 16bits, y así sucesivamente, hasta llegar al DIA de hoy, en el que los
sistemas operativos y aplicaciones de 64bits, están llegando a los
consumidores finales; y decimos que llegan a los consumidores finales ya que
hace algunos años que existen sistemas operativos de 64bits a niveles de
Plataformas UNIX y Derivados como ser AIX, Solaris; y HP-UX.

El bus de Pc
El principio de la comunicación serial utilizada por el telégrafo es aun
utilizado por la comunicación telefónica; como mencionamos antes en este
capitulo las comunicaciones de una pc son similares pero mucho mas rápidas y
un determinado numero de señales son procesadas a la vez, la diferencia es
que la Pc mueve la información a través de un bus, en vez de por un cable, y
en una pc existen varios tipo de buses cada uno de ellos con una función
especifica y una velocidad también correspondiente.
Un bus es un grupo de conductores eléctricos (no confundir con las
pistas de una plaqueta, si bien son similares) que contienen trazas de cobre (o
aluminio para abaratar costos) en una placa electrónica o filamentos en el caso
de un cable y estos normalmente son múltiplos de 8 (8,16, 32, 64,128 y así
sucesivamente) las primeras computadoras usaban 8 conductores por bus es
decir que permitían las transmisión de 8 bits o un Byte por vez.

- Página 12 –
Manual del Curso de Reparación de PC

Por demás esta decir de que a mayor cantidad de filamentos un bus mas
datos permite que viajen por el al mismo tiempo.
Tenemos dentro de la pc distintos tipos de buses como mencionamos antes
que básicamente serian estos.
Hay tres clases de buses: bus de datos, bus de direcciones y bus de control.
Una placa base tipo ATX tiene tantas pistas eléctricas destinadas a buses,
como anchos sean los Canales de Buses del Microprocesador de la CPU: 64
para el Bus de datos y 32 para el Bus de Direcciones. El "ancho de canal"
explica la cantidad de bits que pueden ser transferidos simultáneamente. Así,
el Bus de datos transfiere 8 bytes a la vez.
Para el Bus de Direcciones, el "ancho de canal" explica así mismo la
cantidad de ubicaciones o Direcciones diferentes que el microprocesador
puede alcanzar. Esa cantidad de ubicaciones resulta de elevar el 2 a la 32ª
potencia. "2" porque son dos las señales binarias, los bits 1 y 0; y "32ª
potencia" porque las 32 pistas del Bus de Direcciones son, en un instante dado,
un conjunto de 32 bits.
Así, el Canal de Direcciones del Microprocesador para una PC-ATX
puede "direccionar" más de 4 mil millones de combinaciones diferentes para el
conjunto de 32 bits de su bus.

Bus de direcciones

El bus de direcciones, por otra parte, está vinculado al bloque de control


de la CPU para tomar y colocar datos en el sub-sistema de memoria durante la
ejecución de los procesos de cómputo.

Bus de control

Este bus transporta señales de estado de las operaciones efectuadas por la


CPU con las demás unidades.
- Página 13 –
Manual del Curso de Reparación de PC

Capítulo -2 Componentes de una PC

Bien como pueden suponer los componentes de la pc reflejan su función


y la función de la maquina.

Específicamente las 3 etapas de el computo, que vimos antes nos


ayudan a ver algunos de los componentes que hacen a una computadora y los
clasifican por tarea o por Etapa

Procesamiento

EL CPU, o Unidad Central de Procesamientos considerado el cerebro de


la computadora, este componente o chip, se encargar de procesar datos,
números y la administración de los datos; es tan importante que generaciones
enteras de tecnologías de computadoras están basadas y medidas en “cada
nuevo y mejorado CPU O MICRO”
El Cpu, generalmente se refiere al procesador, pero también involucra
otros componentes que lo ayudan en la administración de datos, estos cuando
trabajan armónicamente hacen la computadora que conocemos hoy.
Veamos algunos componentes de procesamiento:

- Página 14 –
Manual del Curso de Reparación de PC

- Placa Madre o Motherboard, es la placa que contiene otros componentes.


- Chipset es un grupo de Chips que administra y controla el sistema de la
computadora.
- Bus de Datos grupo de conductores paralelos que se encuentran en la placa
madre usados por la CPU para enviar y recibir datos de todos los dispositivos.
- Bus de direcciones grupo de conductores paralelos usados para direccionar
memoria y que determina que información es enviada hacia, o recibida desde
el bus de datos.

Bus de Datos

Buses de Expansión ISA

- Página 15 –
Manual del Curso de Reparación de PC

Zócalos que permiten añadir componentes a la placa madre

Reloj, Establece la velocidad máxima a la cual el procesador puede ejecutar


comandos.

Pila o Batería, Previene que información única del setup se pierda cuando se
corta corriente

Memoria, almacena temporariamente información que la CPU y el software


necesitan para funcionar

- Página 16 –
Manual del Curso de Reparación de PC

Entrada
- Un dispositivo de entrada provee un sendero para la información que
fluye desde nosotros hacia la computadora. Estos son algunos de los
dispositivos de entrada que uno puede encontrar como técnico.

Teclado, es un dispositivo de entrada primario.

Mouse o dispositivo Señalador, que solo es útil cuando se trabaja en un


entorno Grafico para poder seleccionar elementos.

Micrófono, permite la entrada de voz o de audio para poder ser digitalizada.

Un CD-ROM, o dispositivo de de almacenamiento de solo lectura para poder


almacenar grandes cantidades de datos, lo mismo se aplica a un DVD –ROM.

- Página 17 –
Manual del Curso de Reparación de PC

Firmware, es un chip que contiene información grabada o preprogramada de


forma permanente Ej: una BIOS.

Software vario, en este caso en un diskette o Floppy que se introduce en una


computadora para poder ejecutarlo en ella.

Salida
Así como existen dispositivos de entrada, existen los de salida cuya
función es la de proporcionarnos los datos ya procesados para que nosotros
los utilicemos.

Una impresora, Genera una copia impresa de la información.

- Página 18 –
Manual del Curso de Reparación de PC

Un Monitor, es el dispositivo de salida de datos primario por excelencia ya que


en el podemos ver los datos o las tareas que la computadora está ejecutando.

Parlantes, reproducen sonidos.

Entrada/Salida
Los dispositivos de entrada y salida son dispositivos combinados, es
decir que son dispositivos en los cuales se puede ingresar o extraer
información o datos.

Una diskettera; graba y lee información en discos magnéticos.

Un disco Rígido, almacena grandes cantidades de datos de forma magnética.

- Página 19 –
Manual del Curso de Reparación de PC

Un Modem, convierte datos en información que puede ser transmitida a través


de una línea telefónica.

Una placa de red que permite que las computadoras se conecten entre si.

Una unidad WORM es una unidad que solo graba sobre discos ópticos
(se la conoce también como DUPLICADORA).

Hardware de Soporte
Normalmente se lo denomina de esta manera ya que son los
componentes sin los cuales la computadora no podría funcionar, no hacen al
trabajo de la computadora, pero si a su funcionamiento en si

La fuente, que es la que proporciona la corriente eléctrica para que la


computadora y sus componentes internos funcionen.

- Página 20 –
Manual del Curso de Reparación de PC

Un supresor de voltajes, conocido como estabilizador, que impide de que


excesos de corriente eléctrica entren en la PC y quemen o dañen sus
componentes.

Una UPS, cumple una función similar al estabilizador con la diferencia de que
contiene baterías, por lo que permite que la computadora siga funcionando
cuando se producen cortes de corriente eléctrica en la red.

Cables y Conectores
Los cables y conectores, son muy importantes, en una computadora, y
los hay muy importantes para un técnico, ya que comprendiendo los distintos
tipos de conectores un técnico puede identificar los componentes y sus
funciones, si bien algunos cables y conectores son similares, no siempre son
iguales y conectar erróneamente alguno puede llevar a una falla de la
computadora.

Cable Paralelo DB 25

Los cables y puertos paralelos, son usados para enchufar impresoras, y


otros dispositivos, como Cd-Roms externos, y escáneres, lo invento la
Corporación Centronics (de ahí su nombre de Centronic DB-25), es un conector

- Página 21 –
Manual del Curso de Reparación de PC

tipo paralelo de 8 bits, utiliza 8 hilos del cable, para enviar señales de control
entre la computadora y la impresora; estas señales le dicen a la computadora
cuando parar de enviar datos, un “Centronics” estándar tiene dos puntas una
de 36 contactos y otra de 25, la de 25 se conecta en la pc y la de 36 en la
impresora por ejemplo, un conector de este tipo en la pc se denomina “Puerto
Paralelo”
Existen diferentes modelos de este tipo de conector clasificados por sus
modos.
Bi-tronics: es un centronics modificado por Hewlett Packard, que utiliza
comunicación bidireccional, permitiendo a la impresora enviar mensajes a la
computadora, como por ejemplo falta de papel, papel trabado, etc. Este se
considera el estándar original de los bi-dir y puede transferir unos 80-
300kb/segundo
EPP: Puerto Paralelo Ampliado, puede transferir hasta unos
2mb/Segundo, y funcionamiento a 8bits, y que permite varios dispositivos en
una sola PC (por ejemplo: impresora y scanner)
ECP: Puerto de capacidad extendida fue desarrollado por HP y
Microsoft, tiene 2mb/segundo, 8bits, pero estos puertos pueden designer
cuando se esta transmitiendo datos a la impresora que no son comandos, o
datos para ser impresos, tiene acceso directo a memoria (DMA) utiliza menos
recursos del procesador y es mas rápido que el EPP.

- Página 22 –
Manual del Curso de Reparación de PC

Capítulo 3 - Electricidad Básica y Seguridad


No hay caso si uno va a ser técnico de computadoras uno va a tener que
saber algo de electricidad básica, por lo que uno va a tener que se capaz de
testear enchufes, y componentes de la PC, y lo mas importante de manera
segura para evitar accidentes; y daños.

Revisión Eléctrica
La electricidad es lo que hace que una computadora funcione, si ella la
computadora seria lo más parecido a un pisapapeles. Esto puede parecer muy
evidente, pero es cierto, por lo que en este capitulo no encargaremos de ver el
estudio de la electricidad, ya que todos los componentes necesitan electricidad
para poder funcionar (estén enchufados a un tomacorrientes, a una zapatilla, a
un estabilizador o una Ups).
La energía o corriente que se usan para hacer funcionar una PC derivan
de la electricidad (sic…) sin importar si son 120V (USA) Ac, o 220v (Europa)
Ac. Si bien como técnicos de computadoras, no debemos ser electricistas, o
expertos en electrónica, debemos ser capaces de realizar tests para determinar
la confiabilidad del suministros eléctrico.

Algunas Definiciones:
- Electricidad: La electricidad es un fenómeno físico originado por
cargas eléctricas estáticas o en movimiento y por su interacción. Cuando una
carga se encuentra en reposo produce fuerzas sobre otras situadas en su
entorno. Si la carga se desplaza produce también fuerzas magnéticas. Hay dos
tipos de cargas eléctricas, llamadas positivas y negativas. La electricidad está
presente en algunas partículas subatómicas. La partícula fundamental más
ligera que lleva carga eléctrica es el electrón, que transporta una unidad de
carga. Los átomos en circunstancias normales contienen electrones, y a
menudo los que están más alejados del núcleo se desprenden con mucha
facilidad. En algunas sustancias, como los metales, proliferan los electrones
libres. De esta manera un cuerpo queda cargado eléctricamente gracias a la

- Página 23 –
Manual del Curso de Reparación de PC

reordenación de los electrones. Un átomo normal tiene cantidades iguales de


carga eléctrica positiva y negativa, por lo tanto es eléctricamente neutro. La
cantidad de carga eléctrica transportada por todos los electrones del átomo,
que por convención son negativas, esta equilibrada por la carga positiva
localizada en el núcleo. Si un cuerpo contiene un exceso de electrones
quedará cargado negativamente. Por lo contrario, con la ausencia de
electrones un cuerpo queda cargado positivamente, debido a que hay más
cargas eléctricas positivas en el núcleo.
- Volts: El voltio o volt es la unidad derivada del SI para el potencial
eléctrico, fuerza electromotriz y el voltaje. Recibe su nombre en honor de
Alessandro Volta, quien en 1800 inventó la pila voltaica, la primera batería
química. Es representado simbólicamente por V.
El voltio se define como la diferencia de potencial a lo largo de un
conductor cuando una corriente con una intensidad de un amperio utiliza un
vatio de potencia.
El voltio también puede ser definido como la diferencia de potencial
existente entre dos puntos tales que hay que realizar un trabajo de 1 julio para
trasladar del uno al otro la carga de 1 culombio:
1 V = 1 W·A-1 = 1 J·C-1 = 1 m2·kg·s-3·A-1
- Amper: El amperio o ampere es la unidad de intensidad de corriente
eléctrica. Forma parte de las unidades básicas en el Sistema Internacional de
Unidades. Equivale a una intensidad de corriente tal que, al circular por dos
conductores paralelos, rectilíneos, de longitud infinita, de sección circular
despreciable y separados entre sí, en el vacío, una distancia de un metro,
produce una fuerza entre los conductores de 2 x 10-7 newtons por cada metro
de conductor. Se representa con el símbolo A. A la carga que transporta una
corriente de un amperio en un segundo se le llama Culombio. Fue nombrado
en honor de André-Marie Ampère.
- Ohm: El ohmio u ohm es la unidad de resistencia eléctrica en el
Sistema Internacional de Unidades.
Un ohmio es la resistencia eléctrica que presenta un conductor al paso
de una corriente eléctrica de un amperio, cuando la diferencia de potencial
entre sus extremos es de un voltio.
- Página 24 –
Manual del Curso de Reparación de PC

Se representa con la letra griega Ω (Omega). Su nombre se deriva del apellido


del físico alemán Georg Simon Ohm autor de la Ley de Ohm.
- Impedancia: La impedancia eléctrica mide la oposición de un circuito o
de un componente eléctrico al paso de una corriente eléctrica alterna
sinusoidal. El concepto de impedancia generaliza la ley de Ohm en el estudio
de circuitos en corriente alterna (AC). El término impedancia fue inventado por
Oliver Heaviside en julio de 1886.
En general, la solución para las corrientes y las tensiones de un circuito
formado por resistencias, condensadores e inductancias y sin ningún
componente de comportamiento no lineal, son soluciones de ecuaciones
diferenciales. Pero, cuando todos los generadores de tensión y de corriente
tienen la misma frecuencia constante y que sus amplitudes son constantes, las
soluciones en estado estacionario (cuando todos fenómenos transitorios han
desaparecido) son sinusoidales y todas las tensiones y corrientes tienen la
misma frecuencia (la de los generadores) y tienen la amplitud y la fase
constante.
- Potencia: El vatio o watt es la unidad de potencia del Sistema
Internacional de Unidades. Su símbolo es W. Es el equivalente a 1 julio por
segundo (1 J/s) y es una de las unidades derivadas. Expresado en unidades
utilizadas en electricidad, el vatio es la potencia producida por una diferencia
de potencial de 1 voltio y una corriente eléctrica de 1 amperio (1 VA).
Las siguientes ecuaciones relacionan dimensionalmente el vatio con las
Unidades básicas del Sistema Internacional. El vatio recibe su nombre de
James Watt, por las contribuciones de éste al desarrollo de la máquina de
vapor.
- La corriente continua (CC en español, en inglés DC, de Direct
Current) es el flujo continuo de electrones a través de un conductor entre dos
puntos de distinto potencial. A diferencia de la corriente alterna (CA en español,
AC en inglés), en este caso, las cargas eléctricas circulan siempre en la misma
dirección del punto de mayor potencial al de menor potencial. Aunque
comúnmente se identifica la corriente continúa con la corriente constante (por
ejemplo la suministrada por una batería), es continua toda corriente que
mantenga siempre la misma polaridad.
- Página 25 –
Manual del Curso de Reparación de PC

Corriente Continua

Voltaje continúo

Se denomina corriente alterna (abreviada CA en español y AC en inglés)


a la corriente eléctrica en la que la magnitud y dirección varían cíclicamente. La
forma de onda de la corriente alterna más comúnmente utilizada es la de una
onda senoidal (figura 1), puesto que se consigue una transmisión más eficiente
de la energía. Sin embargo, en ciertas aplicaciones se utilizan otras formas de
onda periódicas, tales como la triangular o la cuadrada.

Flujo de Electrones

- Página 26 –
Manual del Curso de Reparación de PC

Corriente Alterna

Utilizada genéricamente, la CA se refiere a la forma en la cual la


electricidad llega a los hogares y a las empresas. Sin embargo, las señales de
audio y de radio transmitidas por los cables eléctricos, son también ejemplos de
corriente alterna. En estos usos, el fin más importante suele ser la transmisión
y recuperación de la información codificada (o modulada) sobre la señal de la
CA.

Midiendo Corriente eléctrica: En el Sistema Internacional de Unidades,


la unidad de medida de la intensidad de corriente eléctrica es el amperio,
representado con el símbolo A.
El aparato utilizado para medir corrientes eléctricas pequeñas es el
galvanómetro.
Cuando la intensidad a medir supera el límite que los galvanómetros,
que por sus características, aceptan, se utiliza el Amperímetro.
En nuestro caso la idea es utilizar un Multimetro, o “tester”

Un Multímetro típico

- Página 27 –
Manual del Curso de Reparación de PC

Un multímetro, a veces también denominado polímetro o tester, es un


instrumento electrónico de medida que combina varias funciones en una sola
unidad. Las más comunes son las de voltímetro, amperímetro y óhmetro.
Funciones comunes:
Existen funciones básicas citadas algunas de las siguientes:
Un comprobador de continuidad, que emite un sonido cuando el circuito
bajo prueba no está interrumpido o la resistencia no supera un cierto nivel.
(También puede mostrar en la pantalla 00.0, dependiendo el tipo y modelo).
Presentación de resultados mediante dígitos en una pantalla, en lugar de
lectura en una escala. Amplificador para aumentar la sensibilidad, para medida
de tensiones o corrientes muy pequeñas o resistencias de muy alto valor.
Medida de inductancias y capacitancias. Comprobador de diodos y transistores.
Escalas y zócalos para la medida de temperatura mediante termopares
normalizados.
Multímetros con funciones avanzadas.
Multímetro analógico.
Más raramente se encuentran también multímetros que pueden realizar
funciones más avanzadas como:
Generar y detectar la Frecuencia intermedia de un aparato, así como un
circuito amplificador con altavoz para ayudar en la sintonía de circuitos de estos
aparatos. Permiten el seguimiento de la señal a través de todas las etapas del
receptor bajo prueba.
Realizar la función de osciloscopio por encima del millón de muestras
por segundo en velocidad de barrido, y muy alta resolución.
Sincronizarse con otros instrumentos de medida, incluso con otros
multímetros, para hacer medidas de potencia puntual ( Potencia = Voltaje *
Intensidad ).
Utilización como aparato telefónico, para poder conectarse a una línea
telefónica bajo prueba, mientras se efectúan medidas por la misma o por otra
adyacente.
Comprobación de circuitos de electrónica del automóvil.
Grabación de ráfagas de alto o bajo voltaje.

- Página 28 –
Manual del Curso de Reparación de PC

Testeando un tomacorrientes con el Multímetro (AC)


Antes de testear un tomacorrientes (enchufe) debemos asegurarnos de
que el tester este configurado correctamente, algunos de loas mas nuevos y
mas caros, tienen seteos automáticos de voltaje y se auto ajustan, de todos
modos uno tiene que decirle al tester si queremos medir AC o DC, si los cables
rojos y negros del tester no están conectados al tester hay que asegurarse de
que el cable negro este conectado a (-) y el rojo a (+) en el tester.
Hay que ser cuidadoso con esto ya que de conectarlo mal por ejemplo
en (Ohm o Amp) produciría daño permanente en el aparato y esto es lo primero
que hay que ver cuando no hay corriente.
Entonces nos aseguramos que el tester esta en ACy que el rango de
seteo esta al máximo (o el mas elevado )por ejemplo si medimos 120v nos
aseguramos que este en 200V .
Y con el tester correctamente configurado realizaremos estas 3 pruebas

Pruebas con el Tester

Mediciones en PC
En una PC se realizan mediciones de Tensión, de resistencia y de
Continuidad.
Mediciones de Tensión: la Fuente de Alimentación de la PC convierte la
Tensión Alterna (220 v ACV) en Tensiones Continuas (DCV) que necesitan los
componentes para funcionar.
Mediciones de Tensión ALTERNA (ACV): sea su salida de 110v o de
220v, para medirla debemos elegir el parámetro ACV (alterna), en un rango de
valores superior al que deseamos medir y hacer contacto con las puntas del
tester (roja y negra) en los contactos del tomacorriente a medir. Aquí no
importa el sentido de conexión de las puntas ya que la tensión alterna cambia
de sentido permanentemente.
Mediciones de Tensión CONTINUA (DCV): la PC trabaja con
Tensiones Continuas (DCV) que toma desde la fuente de alimentación. Son
cuatro:

- Página 29 –
Manual del Curso de Reparación de PC

+ 5 volts
cable ROJO

- 5 volts
cable NEGRO

+ 12 volts
cable AMARILLO

- 12 volts
cable NEGRO

Los signos + y - indican el sentido de circulación de la corriente. Todas


estas tensiones son tomadas en referencia a 0 volts.
0 volts cable NEGRO.
El valor 0v no es una quinta tensión sino un valor de referencia para que
existan los otros.
El conector que usamos para darle corriente a los dispositivos de la PC,
consta de cuatro cables. Dos de ellos (amarillo y negro) alimentan a los
motores de los dispositivos; los otros dos (rojo y negro) se encargan de los
circuitos. Si se conectara esta ficha al revés, se quemaría al dispositivo.
Un único cable de color NARANJA, llamado POWER GOOD, sirve para
informar al motherboard si los restantes valores de tensión se encuentran
dentro del 10 % de su valor nominal; si es así, presenta una tensión de +5v.
P G cable NARANJA + 5 v.
Durante un proceso de búsqueda de fallas en el hardware, hay que
verificar si existen tensiones correctas a la salida de la Fuente de alimentación.
Para ello, se coloca al tester en el parámetro DCV (continua) en un rango de
valores superior al que deseamos medir (20v o más) y conectaremos las
puntas de prueba de la siguiente manera en cualquier conector de salida de la
fuente:

- Página 30 –
Manual del Curso de Reparación de PC

para medir + 5v
punta negra a cable negro, punta roja a cable rojo

para medir - 5v
punta negra a cable rojo, punta roja a cable negro

para medir +12v


punta negra a cable negro, punta roja a cable amarillo

para medir -12v


punta negra a cable amarillo, punta roja a cable negro

Los valores a medir deben encontrarse en ± 10% del valor nominal.

Medición de Continuidad: es la posibilidad de circulación de corriente


en un conductor de punta a punta. Esta medición se realiza ubicando en el dial
el parámetro Resistencia en la escala más cercana a cero, para luego hacer
contacto con las puntas de prueba en ambos extremos del conductor a medir.
Si la medición en un cable arroja 0 Ohms indicará que el cable no está cortado.
Si el resultado es infinito ó 1 el cable está cortado.
Bajo este mismo concepto y de la misma forma tendremos la posibilidad
de comprobar el funcionamiento del Turbo Switch, el Reset Switch, el Power
Switch y el Keylock Switch. Estando el TESTER seteado en Ohms, debemos
hacer contacto con ambas puntas en los pines de la llave a medir para luego
llevarlo a la posición de encendido y apagado. Si el switch estuviera en
condiciones deberá arrojarnos 0 Ω en la posición "ON", o ‘infinito ó 1’ en la
posición "OFF".
La Electricidad Estática
La electricidad estática La electricidad estática es como su nombre lo indica
estática (no se mueve) pues a diferencia de la corriente que todos conocen es
una corriente que no va a ninguna parte. Tanto la corriente continua como la
corriente alterna fluyen en algún sentido la corriente estática no.

- Página 31 –
Manual del Curso de Reparación de PC

Esta corriente aparece principalmente por el efecto de la fricción entre


dos cuerpos. Este efecto se da, por ejemplo, cuando se camina sobre una
alfombra, cuando una persona se peina, el roce entre el peine y el cabello
causa que un cuerpo pierda y el otro gane electrones, etc.
Cuando hay contacto entre dos cuerpos hay electrones de un cuerpo
que pasan al otro, de manera que un cuerpo queda con más electrones y en
consecuencia más negativo y otro con menos electrones (los electrones que
acaba de perder) y en consecuencia más positivo. Como no existe un camino
para que los electrones regresen al cuerpo original, este desbalance se
mantiene.
En caso de que el rozamiento no se mantuviera, la electricidad estática
desaparecería poco a poco.
Si este proceso (de carga eléctrica), de que un cuerpo pierda electrones
para que otro lo gane, continúa, el desbalance se hará mayor y mayor hasta
que llegará un momento en que la descarga se produce y estos electrones
buscan el camino de regreso a su estado anterior.
Un caso por todos conocidos son los rayos que saltan de una nube a
otra. Esta diferencia de tensión creada por el roce entre nubes se hace muy
grande al punto que se crea un arco de corriente que todos llamamos rayo.
La electricidad estática no ninguna tiene utilidad que se conozca.

Riesgos de la Electricidad Estática o ESD


Uno de los mecanismos comunes de generación de cargas estáticas es
la fricción entre las superficies de cuerpos, se produce gran cantidad de calor lo
que hace que los átomos en proximidad vibren a alta frecuencia, los electrones
en las órbitas de los átomos son acelerados lo que permite su escape a otros
átomos de la otra superficie en contacto, fácilmente, esto crea cargas estáticas.
También está el caso de la triboelectricidad dónde las superficies no se
friccionan, pero eso sí están en íntimo contacto y bajo presión de manera que
electrones débiles son atraídos a los átomos positivos cruzando así entre las
superficies, al separarse éstas superficies violentamente (como un zapato lo
hace cuando caminamos) los electrones se quedan adheridos a los átomos en
una u otra de las superficies de manera impredecible creando así cargas
- Página 32 –
Manual del Curso de Reparación de PC

estáticas. El efecto de una descarga estática o ESD es similar a la descarga de


un rayo durante una tormenta, pero en tamaño mucho menor. El efecto de la
chispa de ESD es bastante común y conocido, nosotros mismos la hemos
sentido en menor o mayor grado cuando acercamos la mano a la perilla
metálica de una puerta, particularmente cuando la humedad del ambiente es
baja.
Los materiales que permiten la transferencia de electrones entre los
átomos son los conductores, los electrones se mueven libremente en un
conductor, particularmente en los metales. Los materiales que impiden el
movimiento de los electrones absolutamente se llaman aislantes y hay muchas
variedades de materiales disipativos en diferentes grados que se ubican entre
estos dos extremos. El ser humano no puede sentir una descarga o chispa de
descarga que tiene un potencial bajo 3.000V ya que la cantidad de energía
disipada se encuentra bajo el nivel de sensitividad de la piel, sin embargo
muchos elementos electrónicos son sensitivos y son dañados con descargas
estáticas que exhiben potenciales bajo 100V, e incluso 10V. Un excesivo
acumulamiento de cargas de la misma polaridad sobre una superficie pequeña
produce una gran fuerza repulsiva entre las cargas mismas, que finalmente es
disminuida al producirse la chispa o arco de ESD. La chispa no es siempre
visible al ojo humano y también depende grandemente de la distancia al objeto
o tierra, de la cantidad de cargas acumuladas así como de otros parámetros,
por ejemplo el ambiente. El arco que la chispa forma al saltar es de muy corta
duración, típicamente en el rango de picosegundos. Esta descarga
normalmente crea interferencias de radio frecuencia (RF) a equipo electrónico
en su vecindad, esto es debido a que se produce una emisión similar a un
transmisor de radio, ésta frecuencia a veces se encuentra en los 30+ gigahertz.
La cantidad de energía transferida de un cuerpo a otro está limitada por
el medio ambiente en que ocurre, ej humedad relativa (RH), temperatura,
impurezas en el aire, distancia entre los cuerpos, etc. El efecto de ESD en
circuitos electrónicos cómo en circuitos integrados puede ser del tipo
catastrófico o puede ser tipo latente (ver fallas latentes). En todo caso ESD
debe ser controlado para así disminuir o evitar fallas electrónicas mayores,
aunque la generación de cargas no puede ser eliminada. Desafortunadamente
- Página 33 –
Manual del Curso de Reparación de PC

ESD tiene un efecto destructor en circuitos electrónicos y está probado que


puede ocurrir una falla catastrófica o latente, como resultado. Los circuitos
electrónicos están normalmente expuestos a descargas de ESD a lo largo de
su viaje desde el fabricante hasta el momento en que es instalado en un
equipo, típicamente las descargas serán generadas por las acciones del
personal. Una falla catastrófica impide el funcionamiento de un elemento
electrónico. El derretimiento de líneas conductoras metálicas que son de
espesores extremadamente pequeños en los circuitos integrados, pueden
producir corto circuitos a tierra ya que se abren las paredes aislantes, o
también puede ocurrir la vaporización de las mismas creando circuitos abiertos,
el elemento electrónico a este punto es inservible.
Una de las maneras de evitar este problema es utilizar una pulsera
antiestática cuando se trabaja con el equipo, evitar lo más posible las
alfombras, las prendas de vestir con gran cantidad de tejido sintético, y como
regulación ambiental, el grado de humedad de los equipos de
refrigeración/calefacción central, con la humedad ambiente del 50%.

- Página 34 –
Manual del Curso de Reparación de PC

Capítulo – 4 Placas Madre y Procesadores

En este capitulo comenzaremos por ver los motherboards, que es la


pieza fundamental de las pc, esta es una gran placa de circuitos impresos cuyo
propósito es el de soportar el CPU (unidad central de procesamiento o
microprocesador o comúnmente llamado micro). Junot con este todos sus
accesorios y chips, (el chipset por ejemplo) e interconectarlos con el resto de
los componentes de la placa madre, también es responsable de administrar los
sistemas de buses, que como hablamos antes se encargan de distribuir los
datos entre los distintos componentes de la placa madre, todo el hardware de
la computadora se encuentra mayoritaria mente en el motherboard, que es su
centro de actividad, y todos los dispositivos de una manera o de otra se
encuentran conectados a esta, existen diferentes tipos de motherboards, cada
una de ellas con sus características.
Veamos en esta tabla algunas de ellas:
Tipos de placas Madre Características que la definen
At El procesador y los zócalos de memoria
se encuentran al frente de las misma con
zócalos de expansión mas largos, manejo
de energía por medio de switch
ATX Conectores integrados de entrada y
salida conectores Mouse y teclado tipo
PS2, utiliza 3,3v (estándar Intel) manejo
de encendido y apagado por voltaje, no
por switch
Baby AT Utilizada por los micros 486 y Pentium
usualmente poseen conectores de
teclado tipo DIN soldados
LPX Utilizan un Riser Card, poseen video
integrado (utilizado por marcas
propietarias IBM, HP, Compaq, etc)
Mini ATX Similar al ATX pero de menores
Dimensiones

- Página 35 –
Manual del Curso de Reparación de PC

Mini LPX Idéntico a LPX pero de menores


Dimensiones, utilizada en pc Small Form
Factor Propietarias
NLX Es la evolución del formato LPX mejoras
en la refrigeración , incluye AGP y video
integrado también utiliza un Riser CARD

Motherboard XT

Mother AT

- Página 36 –
Manual del Curso de Reparación de PC

Mother Baby AT

Mother ATX

Mother Micro ATX

- Página 37 –
Manual del Curso de Reparación de PC

Mother Flex ATX

Motherboard LPX

- Página 38 –
Manual del Curso de Reparación de PC

Mother Mini LPX

Mother NLX

- Página 39 –
Manual del Curso de Reparación de PC

Capítulo – 5 El Gabinete
Seamos relistas ninguna discusión sobre motherboards estaría completa
sino habláramos del gabinete. La mayoría de los componentes que forman las
computadoras entrarían en casi cualquier gabinete (si bien hay diseños
propietarios que limitan el hardware a instalar dentro) de todos modos el
gabinete y el motherboard son diseñados de manera interrelacionada y son
especifico para funcionar juntos. Si bien la motherboard es un subcomponente
del gabinete son frecuentemente tratados como uno.

Un Gabinete tipo Tower

El gabinete es más que solo una caja para albergar una computadora,
generalmente pueden identificar a una marca y en muchas ocasiones es lo que
nos decide a comprarla
Ya que todos nosotros queremos que la comp. Se vea bien , o que sea
linda o que encaje con nuestro estilo, o no?.
En un principio eran cajas que contenían los componentes y que
cumplían la función de sostener el monitor. Por lo que algunos modelos
ocupaban el escritorio completo así que los usuarios construían soportes para
poner los gabinetes a un lado del escritorio. La idea fue tan buena que los
fabricantes comenzaron a fabricar este tipo de gabinetes que se llamaron
“TOWERS” y por supuesto subieron de precio.

- Página 40 –
Manual del Curso de Reparación de PC

Un Gabinete Tipo Desktop

Desde una perspectiva técnica el gabinete es solo una caja de metal o


plástico
Que contiene el hardware de la computadora, como por ejemplo la
mother, que contiene la CPU axial como otros elementos primarios. Además un
buen gabinete debería poder reducir las Interferencias Electromagnéticas, que
podrían producir funcionamiento extraño, prevenir o incluso reducir el ruido
generado por la maquina, tampoco es bueno que funcione por periodos de
tiempo muy prolongados de manera abierta por el tema de las interferencias, y
porque no tiene un flujo de aire adecuado para poder evacuar el calor de su
interior. Así como tampoco es bueno tener parlantes o motores cerca de la
pantalla por este tema de las interferencias por ejemplo. Aunque si bien los
técnicos no reniegan con los gabinetes que el cliente ya posee si es bueno
tener este tipo de consideraciones a la hora de armar un equipo nuevo.
Por lo general hay 2 reglas a considerar
- Más grande el gabinete mayor cantidad de cosas se pueden meter en
él, esto es básico.
Además de tener mayor volumen de aire para circular dentro de el,
además son mas simples para poder trabajar.
- Más pequeño es menos capacidad de expansión tiene, tiene menos
ventilación, pero es mucho mas fácil de ubicar y es mas complicado para
trabajar.

- Página 41 –
Manual del Curso de Reparación de PC

Componentes
La mother, es la computadora, si vemos la siguiente imagen veremos un
motherboard básico que contiene muchos componentes que veremos en
detalle durante el curso, contiene pequeños componentes como resistores,
capacitares, transistores, estos no son muy importantes para nosotros, pero
debemos comprobar que estos funcionen correctamente.

La mother y sus componentes son lo que definen los límites de


velocidad, memoria y expansión de la misma, la mother es el principal circuito
dentro de la computadora, y el CPU es el principal componente de el mother,
además de los modelos de CPU, los mothers vienen en una amplia variedad de
formas.
Por lo que de acuerdo al tamaño del gabinete es el mother que tendrá
cabida en el; y tendrá la ventilación y emisión de ruidos adecuada asi como no
tener conflictos con otro hardware dentro del gabinete. Por ejemplo los Pentium
I y los AMD K5-K6 requerian un cooler que se ponía encima de el micro para
poderlo refrigerar, mientras que los Pentium II y III el cooler era parte del
paquete del micro, por lo que si la ventilación era inadecuada, se producía
fallas y cuelgues de la maquina.
A tener en Cuenta:
- Mothers muy genéricos caben en gabinetes muy genéricos. Por lo que las
computadoras llamadas clones son típicamente más económicas y mas
sencillas de actualizar.

- Página 42 –
Manual del Curso de Reparación de PC

- A los fabricantes de “Marca” no son muy amigos de que los usuarios pongan
componentes que no son de ellos o placas “genéricas” por lo que si se tiene
una maquina de marca deberán recurrir al fabricante para reponer esa placa
por ejemplo.
Pero no siempre es posible y a veces se pueden realizar adaptaciones
exitosas y de buena calidad!!
Antes de comprar conviene revisar el manual de referencia técnica para
asegurarse de que el gabinete se ubique bien (o consultar la web de fabricante
y buscar el modelo).

Chip Set
Las principales características de la mother incluyen los chips de las
computadoras o procesadores de mother, si hay muchos cables y conectores,
pero los circuitos integrados (IC) trabajan en armonía para dar al mother su
identidad.
Por ejemplo en un momento eran necesarios unos 6 chips para poder
controlar un INTEL 8088 con el avance de la tecnología, esto se a reducido a
uno o a lo sumo dos Chipsets debido a la combinación de funciones que
incluyen. Además las motherboards actuales poseen solo algunos pero muy
integrados de estos chipsets. Pero afortunadamente solo nos debemos
preocupar de uno solo que es el CPU, nos debemos ocupar de que se
encuentre en condiciones operacionales de temperatura y voltajes óptimos por
decir un ejemplo. Pero no es cuestión de salir corriendo a comprar el primer
CPU que encontremos ya que entre otras cosas debemos asegurarnos de que
sean compatibles.
Digamos que tenemos un Pentium 4 por ejemplo, el chipset mas
recomendable seria un Intel, ya que esta firma fabrica el CPU, debemos
recordad de que en muchas ocasiones es siempre mas recomendable usar los
chipset y CPU del mismo fabricante.
Por no decir que un Chipset para INTEL no va a ser compatible con CPU
AMD y viceversa. Para solucionar este tema existen fabricantes de Chipsets
“genéricos” como VIA o SIS, que tienen chipsets “todo terreno” es decir un

- Página 43 –
Manual del Curso de Reparación de PC

mismo chipset funciona correctamente tanto para AMD como para Intel sin
destacar en nada en particular, pero que funcionan correctamente. Y en la otra
mano tenemos fabricantes especializados con Nvidia y ATi (esta ultima ahora
en manos de AMD) que buscan la máxima perfomance a todo costo en sus
productos.
Estas son algunas funciones de los chipsets
-Controlar los Buses
-Buffers y Datos
-DMA y controladores de interrupciones
-Controlar periféricos (discos, floppy, cd-roms)
-ROM/BIOS
-Y algún que otro chip especifico al diseño del mother

ROM – Memoria de Solo Lectura


Todos los que trabajamos con computadoras, sabemos una cosa que la
memoria nunca es suficiente, mas adelante veremos estos de la memoria RAM
(o memoria de acceso aleatorio) y de otros componentes.
En las computadoras y en otros dispositivos tenemos memorias que no
se pueden borrar que se llaman ROM (memorias de solo lectura). Estos chips
poseen un tipo de memoria especial que es permanente es decir que no se
borran de manera normal. En estas memorias se almacenan datos o
información específica para el funcionamiento de los dispositivos que la
poseen.
Una modificación de las BIOS (con la capacidad de poder ser modificada
en sus parámetros es la PROM ya que las BIOS tradicionales si se cambiaba
algún componente critico del mother la BIOS debía ser cambiada

PROM & Firmware


PROM es el acrónimo de Programmable Read-Only Memory (ROM
programable). Es una memoria digital donde el valor de cada bit depende del
estado de un fusible (o antifusible), que puede ser quemado una sola vez. Por
esto la memoria puede ser programada (pueden ser escritos los datos) una

- Página 44 –
Manual del Curso de Reparación de PC

sola vez a través de un dispositivo especial, un programador PROM. Estas


memorias son utilizadas para grabar datos permanentes en cantidades
menores a las ROMs, o cuando los datos deben cambiar en muchos o todos
los casos.
Pequeñas PROM han venido utilizándose como generadores de
funciones, normalmente en conjunción con un multiplexor. A veces se preferían
a las ROM porque son bipolares, habitualmente Schottky, consiguiendo
mayores velocidades. que originalmente fue desarrollada por BOSCH en el
departamento ARMA , esta ultima evoluciono en el.
Firmware o Programación en Firme, es un bloque de instrucciones de
programa para propósitos específicos, grabado en una memoria tipo ROM, que
establece la lógica de más bajo nivel que controla los circuitos electrónicos de
un dispositivo de cualquier tipo. Al estar integrado en la electrónica del
dispositivo es en parte hardware, pero también es software, ya que proporciona
lógica y se dispone en algún tipo de lenguaje de programación.
Funcionalmente, el firmware es el intermediario (interfaz) entre las órdenes
externas que recibe el dispositivo y su electrónica, ya que es el encargado de
controlar a ésta última para ejecutar correctamente dichas órdenes externas.
Encontramos Firmware en memorias ROM de los sistemas de diversos
dispositivos periféricos, como en monitores de video, unidades de disco,
impresoras, etc., pero también en los propios microprocesadores, chips de
memoria principal y en general en cualquier circuito integrado.
Muchos de los Firmwares almacenados en ROM están protegidos por
Derechos de Autor.
El programa BIOS de un computador es un firmware cuyo propósito es
activar una máquina desde su encendido y preparar el entorno para la
instalación de un Sistema Operativo complejo, así como responder a otros
eventos externos (botones de pulsación humana) y al intercambio de órdenes
entre distintos componentes del computador.
En un microprocesador el firmware es el que recibe las instrucciones de
los programas y las ejecuta en la compleja circuitería del mismo, emitiendo
órdenes a otros dispositivos del sistema.

- Página 45 –
Manual del Curso de Reparación de PC

Lo que significo que ya podían actualizarse las mothers y modificar la


info de las BIOS, por medio de programas creados por el fabricante de las
BIOS o de los motherboars para así siempre mantenerla actualizada o incluso
incorporarles info que les permitiera reconocer dispositivos mas nuevos (un
caso típico es el de los discos rígidos o procesadores), que pueden ser
cambiados sin mayores inconvenientes ya que estos dispositivos sobre todo los
discos tienen sus propias EEPROMS y BIOS

Dentro de la BIOS

Cuando uno arranca un motherboard con BIOS AWARD por ejemplo nos
encontraremos con algo como esto

Award Modular BIOS v4.51PG, An Energy Start Ally

Copyright © 1984-97, Award Software, Inc.

05/22/1998 For Apollo VPX/97 PCIset

Award Plug and Play BIOS Extension v1.0A

Copyright © 1997, Award Software Inc.

Press DEL to enter SETUP

Como verán al final hay una sentencia que dice presione “DEL” para
ingresar al SETUP. Este mensaje nos dice como acceder al programa de setup
de la BIOS, la mayoría de los fabricantes nos dice como hacerlo con algunas
Excepciones como IBM o algunos modelos de Compaq, o Intel, normalmente
hay que ser rápido ya que solo dura unos segundos y la BIOS continúa con su
proceso de carga.

En otros modelos es muy importante poseer la documentación de la


mother ya que en ella nos dirá como poder ingresar en la BIOS.

- Página 46 –
Manual del Curso de Reparación de PC

Un Setup de BIOS Tipico

Phoenix un fabricante de BIOS de alto nivel, y fue la compañía que


originalmente desarrollo la BIOS. Para ingresar en una de estas BIOS debemos
presionar la tecla F2, veamos algunas funciones de estas BIOS.

En esta imágenes vemos la primera pantalla de este CMOS SETUP,


desde aquí uno puede elegir paginas alternativas, (avanzado, seguridad,
energía) o incluso poder ajustar algunos de sus parámetros. Como la Fecha y
hora, discos unidades extraíbles, floppys, idioma.

Aquí dentro del menú main entramos en el sub-menú de discos, donde


podemos ver la configuración seteo del o los discos. Por supuesto que
debemos prestar mucha atención tanto aquí como en otros sub-menús así
como sus advertencias.

- Página 47 –
Manual del Curso de Reparación de PC

- Página 48 –
Manual del Curso de Reparación de PC

Esta por ejemplo es la ventana de Seguridad, donde nosotros podemos poner


passwords de seguridad, de arranque, etc. Atención con no olvidarse las claves
ya que son necesarias para volverlas a blanquear.

En esta pantalla de seguridad, podemos ver que también tenemos la


opción de Antivirus desactivada, recuerden que a los Win95 y 98 no les gusta
los antivirus de CMOS ya que cada ves que el sistema arranca este antivirus
envía mensajes de advertencia, por ello es que debemos desactivarlo cuando
estamos por instalar o reinstalar un SO (sistema operativo)
Si uno no recuerda la password de BIOS uno siempre puede volver a
restaurar los seteos del fabricante y con ellos borrar todo parámetro modificado
volviéndola a su estado optimo, también es útil cuando uno “mete la pata” y
luego de esto la pc no vuelve a arrancar.
En la pantalla power es donde podemos modificar los parámetros de
energía, es decir el ahorro los tiempos de suspensión, y ahorrar corriente
suspendiendo monitor, discos duros por ejemplo, esto es particularmente muy
útil en las computadoras tipo Notebooks, o portables, o en las pc estándar
cuando están mucho tiempo encendidas por cuestiones de trabajo.

- Página 49 –
Manual del Curso de Reparación de PC

Ventana de Administración de Corriente

- Página 50 –
Manual del Curso de Reparación de PC

Configuración de la BIOS
Si alguna vez encendieron una pc, y si por alguna razón desconocida es
incapaz de detectar el disco rígido, o disquetera o cd-rom, es muy posible que
estén experimentando una falla de configuración de BIOS, si bien es moles,
generalmente es sencillo de corregir. Así también como es indicativo de que
otro problema también hay, generalmente de corriente, y es lo que causa que
la BIOS falle, y son generalmente problemas que involucran al CMOS que
pierde los valores de configuración, y aquí es donde entra en escena la pila de
la placa madre, que no es mas ni menos que una pila estándar de oxido de
plata, también conocida como pila botón por su forma.
Este error al borrarse la CMOS indica que la configuración de Hardware
no coincide con la ultima configuración que la “computadora recuerda”, así es
que vemos un mensaje de presione “F1”o alguna otra tecla para continuar, que
luego nos lleva a al setup de la BIOS, generalmente se debe a que el error se
debe a alguno de estos:
- Error de coincidencia de CMOS
- Error de muestreo de CMOS
- Error de tamaño de Memoria
- Error de Fecha y Hora
Estos son errores generalmente debidos a la poca carga de la batería,
ya que al no poseer suficiente corriente es incapaz de mantener los datos
“vivos” dentro de la CMOS, así también como pueden producirse errores de
“Checksum” ; esto es muy útil, ya que si por alguna razón olvidamos la
password de BIOS o de Arranque de equipo (si es que la tiene) es por ello que
removiendo el jumper correspondiente y cambiándolo de lugar unos segundos
borraremos estos datos haciendo que la BIOS y el CMOS regresen a los
valores por defecto, permitiéndonos realizar la configuración que necesitamos.
ATENCION: si un seteo cambia sin razón aparente generalmente es
síntoma de alguna falla, y no la cusa de la falla; por ejemplo en algunos
mothers Intel, la aparición constante de mensajes de presiones F1 para
continuar, puede deberse a que es posible que la placa lógica del disco rígido

- Página 51 –
Manual del Curso de Reparación de PC

se encuentre con fallas o este por fallar definitivamente. (se debería hacer
backup del disco y proceder a su reemplazo).
O por ejemplo al cambiar una placa de expansión por ejemplo un
MODEM o placa de red en un gabinete con algunas rebarbas de matriceria
puede causar supresión de voltaje y hacer que la pila se descargue
reiteradamente y prematuramente.
O incluso puede ser que el instalar un sofá cause esto, un vez sucedió
instalando Win95 en un mother propietario (recuerden que Win95 en adelante
tiene la capacidad de interactuar directamente con el hardware) “Plug and Play
S.O. Y/N.
Puede ser práctico realizar un backup de la CMOS así como de
cualquier dato importante por ejemplo escribiendo los valores por defecto de la
configuración de la CMOS, o imprimiéndola por medio de la Tecla ( Print
Screen )
Hay que recordar que usualmente hay que actualizar las BIOS cuando
se realizan cambios muy profundos de Hardware, como por ejemplo cambiar
un procesador Ej: caso típico en nuestros días cuando se compra un
procesador Pentium D o Core 2 DUO y la mother no reconoce correctamente el
modelo o características de procesador, al ser el procesador mas nuevo que el
mother. Ejemplos de errores de BIOS/CMOS:
161 – CMOS battery failure -Error de Pila
301 – Keyboard error –Error de Teclado
501 – Memory failure –Falla de memoria (a veces cuando se agregan o quita
memoria)
602 – Floppy Drive failure –Falla de Diskettera
1302 – Joystick failure –Falla de Joystick
Por eso mismo aquí tenemos una pequeña tabla que nos muestra los
errores más comunes de BIOS/CMOS.
Significado de las Categorías, recuerden que se acompañan con
uno o Varios “bips”
1xx System board -Mother
2xx Memory -Memoria
3xx Keyboard -Teclado
4xx Monochrome video –Video monocromo
5xx Color video –Video a Color
6xx Floppy disk -Diskettera
17xx Hard disk –Disco rígido
- Página 52 –
Manual del Curso de Reparación de PC

3xxx NIC card –Placa de RED


Es muy importante leer los códigos y si es posible escribirlos; nunca asuman
que “ya se lo que es”, porque pueden estar equivocados.
El Bus de la Computadora
La información transmitida a través de la computadora utilizando un BUS
y Código BINARIO, los buses de datos externos son los buses primario de
datos para manejar los flujos de datos, todos los elementos que requieren
datos están conectados a un bus de datos externo, todo dato que circula por la
computadora, es conectado al bus de datos primario, antes de que cualquier
dato se encuentre disponible a todos los dispositivos de la Pc.
Las primeras computadoras,
utilizaban buses de datos de 8
conductores (8bits) que permitían la
transferencia de información de a
un bit por vez, las maquinas
evolucionaron, y los buses de datos
internos se incrementaron a 16, 32
y ahora 64 conductores, estas mejoras permiten mayores y mejores
transmisiones de datos o mas datos al ser procesados, de manera simultanea,
el siguiente dibujo nos muestra un CPU, asociado a su mother, ya que la
mother es el principal circuito integrado de una Pc que contiene el bus de datos
primarios, por lo que todos los dispositivos, se conectan al mother, y de ahí al
bus de datos .
Por eso siempre se asocial al bus de datos Externo como una autopista
para los datos donde la idea es que circulen a la máxima velocidad posible,
aplicándole voltaje o leyendo la presencia de este en alguno de los
conductores, es donde se efectúa la comunicación, los mensajes de código
pueden ser enviados en cualquier dirección, conectados al bus de datos, por lo
que el Bus de datos externos equivale a un punto de partida para estos.
Hay que recordar que todo lo que usa datos esta conectado a un bus de
datos, y el numero de conductores, numero de bits, afecta al rendimiento de la
computadora; típicamente estos buses son incrementales de a bits, es decir
que cada nuevo bus es del doble de bits que el modelo anterior, todo esto para

- Página 53 –
Manual del Curso de Reparación de PC

poder incrementar la perfomance, hasta llegar a los modelos de 64 bits de hoy


en día.

El Bus de Direcciones
La función del bus de datos externo es la de conectar todo y mover los
datos entre el CPU y los dispositivos, mover datos entre los dispositivos, solo
requiere que las cadenas de datos sean colocados en los buses, de a un bit
por vez, por el otro lado la memoria, almacena grandes cantidades de datos,
que provienen de la CPU así como de otros dispositivos, ahora la pregunta es
como le dice la Cpu a la memoria cuando y que datos deben ser leídos o
colocados en el bus de datos?.
Para poder realizar esto necesitamos un segundo bus de datos que es
llamado el bus de direcciones, y su tamaño determina la cantidad máxima de
datos que el CPU puede almacenar, una porción de la circuiteria de la CPU es
usada como controlador de memoria, y solamente manda sobre los chips de
memoria y le dice donde almacenar todos y cada uno de los datos y como y
cuando leerlos o mandarlos al bus de datos, técnicamente esta tarea la
realizan hoy en día los chipsets de placa madre, pero una de las ventajas
técnicas de los procesadores Athlon 64 de AMD, es que justamente tienen su
propio controlador de memoria dentro del CPU y no fuera de el, lo que le
garantiza que funcione a la velocidad del núcleo del procesador .
Antes de comprender como la memoria es direccionala veamos como y
bit de datos es almacenado en un chip de memoria llamados memoria RAM,
este tipo de memoria es llamada de acceso aleatorio, porque el CPU puede
colocar o retirar bytes de información de cualquier localización en cualquier
momento.
Imaginen que la memoria es un gran
arreglo de (las columnas son bits individuales, y
las filas contienen 8bits, o 1 byte de datos) así en
la próxima figura podemos ver gráficamente un
arreglo de 1 y 0 cada celda equivale a un bit de
información y cada fila es un byte de información.

- Página 54 –
Manual del Curso de Reparación de PC

Ahora de regreso al bus de direcciones el numero de conductores


asignados al bus de dirección es lo que determina la máxima cantidad de
memoria direccionable por la CPU siempre hay que tener en cuenta que las
computadoras son BINARIAS, cada digito binario que se agrega duplica el
numero de posibles combinaciones, los buses de 8bits tenían hasta 256
combinaciones de memoria podían ser usadas: cuando hablamos de bus de
direcciones, nos interesamos en la cantidad máxima de memoria RAM que
puede direccional, las primeras computadoras utilizaban 20 conductores de
dirección y podían direccional hasta 1.048.576 combinaciones de memoria
(bytes)en localizaciones físicas de memoria; es decir que bajo ninguna
circunstancia podías usar un programa de mas de 1 mega de datos. Y cuando
hablamos de memoria debemos tener en cuenta 2 números, por ejemplo 1kb
de memoria direccionable, equivale a 2 a la décima (2x2x2x2x2x2x2x2x2x2) o
1024, que es lo que llamamos 1 kilobite y un Megabite es 1000x 1000 o 1k x 1k
o mas precisamente 1024x1024 o 1.048.56 bytes, por eso no hay que
confundir los números redondos (1024) con el numero real (1.048.576).
Las combinaciones de 1 y o en el bus de direcciones le dice a los chips
de memoria cual byte de la memoria debe direccionar, en el caso de de un bus
de direcciones de 32 bits, son o todas encendidas o todas apagadas o
cualquier otra combinación de entre 4.294.967.296 o 2 a la 32 potencia, las
tablas muestran como afectan a la máxima memoria cuando se aumentan los
conductores de direcciones.

Maximum Memory
Number of Address
Wires
Maximum Addressable
Memory
20 1,048,576 or 1 MB
24 16,777,216 or 16 MB
32 4, 294, 967, 296 or 4GB

- Página 55 –
Manual del Curso de Reparación de PC

La siguiente figura muestra gráficamente el bus externo y la CPU, vean


que el bus de direcciones esta conectado al chip de memoria, que es el que le
dice en que fila del arreglo debe poner los datos.

CPU y RAM
Se pueden preguntar como el chip de memoria sabe cuando debe leer o
escribir.
En el bus de datos?, la respuesta es mas o menos simple, el bus de
direcciones actualmente usa mas que el requerido numero de conectores para
definir la dirección.
Existen conectores extras que el CPU utiliza para decirle a la memoria
cuando leer o escribir, son parte del bus, pero no determinan el diseccionado
máximo.

Compatibilidad de los Motherborads


Y por supuesto lo mas importante en mothers COMPATIBILIDAD!!!!
Los mothers son como los autos, muchos fabricantes utilizan las mismas
partes o muy similares, pero no son intercambiables uno debe conocer las
partes especificas, o no podrán actualizarlas por eso mismo también es muy
importante conocer sus características antes de comprarla, por ejemplo en el
caso de reemplazar un mother por otro de la misma marca de similares
características, o de otra marca sino uno se puede llegar a encontrar con
alguna sorpresa medio desagradable, como por ejemplo que no se compatible

- Página 56 –
Manual del Curso de Reparación de PC

con el tipo de procesador que uno tiene, es decir que no calce en la mother
nueva. O peor aun que entre en el gabinete que tenemos……
Entonces debemos ver
-Tamaño físico de la mother
- Localización y tipo de tornillos
-Tamaño y velocidad del CPU
- Número y tipos de buses de expansión, que es lo que determina el
tema de cuanto se puede expandir
- Tipo y cantidad de Memoria

Tecnología de Procesadores
Si uno se pone a ver la tecnología de el antiguo ABACO, a las maravillas
modernas, veremos que las tecnologías avanzan a saltos, generalmente
centrados en algún avance tecnológico, que la hace ser elevada a nuevas
alturas, la mayoría de ellos debidos a los avances de los procesadores, o
CPU, para identificarlo para la mayoría de la gente podríamos verlo como el
cerebro de la computadora.
Se podría decir que es una definición muy simple ya que es una pieza
de circuiteria muy compleja que debe realizar múltiples operaciones de manera
simultánea, por fortuna no es necesario que nosotros diseñemos un
procesador, pero comprender como funciona el procesador es comprender
como funciona la computadora.
En la sección anterior el procesador utiliza el bus de datos externo y el
bus de direcciones para comunicarse con los dispositivos y la memoria ahora
veremos algunos dispositivos adicionales que soportan o apoyan a la CPU.

El Procesador Principal
El CPU es la parte de la computadora
donde se desarrollan las operaciones
aritméticas o matemáticas, el CPU controla
las operaciones de la computadora, el
procesador es un circuito integrado que

- Página 57 –
Manual del Curso de Reparación de PC

contiene la CPU, la siguiente figura nos muestra un circuito que contiene un


CPU completo en un chip, así veremos mas de cerca la CPU y otros chips del
motherboard
En este caso un Intel 386

Microprocesadores
Si bien como dijimos el microprocesador es un circuito que contiene el
CPU completo de una computadora solo hace falta memoria y los dispositivos
de entrada y salida.
El primer procesador el Intel 8080 se vendía en 1973en alrededor de
400 dólares y hoy vale un dólar (…)

Registros
Una vez que los datos han sido puestos en el bus de datos, la CPU
necesita un método para momentáneamente almacenar o manipular estos
datos que son los que se denominan registros, y cada registro tiene un circuito
diminuto que se llama TTL (Transistor-Transistor Logic) que están compuestos
por 16 circuitos tipo “Flip-Flop” (16 bits de largo), cada uno de ellos solo tienen
2 estados, encendido y apagado que el CPU usa como llaves para el manejo
de los datos.

Reloj
El tiempo es casi todo sin el tiempo no es posible sincronizar, lo que
seria un caos ya que todos los datos querrían entrar al mismo tiempo, por eso
se utilizan los relojes para marcar el paso de las actividades dentro de la pc, un
ciclo eléctrico o pulso es considerado un ciclo de reloj, cada vez que el reloj
hace un “tic” es un pulso eléctrico por lo que cada pulso es considerado un
ciclo de reloj, todas las actividades de on/off o de switcheo ocurren cada vez
que el reloj hace un ciclo, por lo que mas rápido es el reloj, mayor velocidad de
procesos realiza el CPU, entre ciclo y ciclo la computadora se estabiliza para
ejecutar los comandos internos, usualmente la mother tiene 2 relojes, uno para
el control de velocidad del cpu, mientras que el otro es utilizado para el control

- Página 58 –
Manual del Curso de Reparación de PC

del bus externo. De esta manera es que un mother puede acomodar diferentes
velocidades de CPU mientras puede mantener una velocidad constante de de
todos los dispositivos del bus de datos externo.
En la siguiente imagen podemos ver gráficamente un bus de datos
externo con una CPU y 2 dispositivos.

Es por ello que el argumento de ventas más poderoso para los CPU
es la velocidad del reloj.
Que se miden en Megahertzo millones de ciclos por segundos si un
comando necesita 2 ciclos para completar un comando, entonces una
computadora podría ejecutar 500.000 comandos por segundo este hecho de
agregar 2 números (aparear) juntos tomaría alrededor de 4 comandos (8 ciclos
de reloj) o 125.000 cálculos por segundo por lo que una pc con un CPU de
350mhz podría hacer 44 millones de cálculos por segundo de tipo simple (es
decir de coma fija)
La velocidad de reloj es determinada por el fabricante del CPU y
generalmente es la máxima velocidad a la que puede operar el CPU: un Intel
8080tenia un reloj de 4.77Mhz, los procesadores de hoy están en los 3Ghz y
subiendo!!!!!!!!
Zócalos de inserción
Los procesadores o CPU, como cualquier circuito integrado deben hacer
contacto con otra placa, pero al contrario de muchos de estos, los
procesadores pueden ser removidos o insertados en las placa madre o
mothers, para poder cambiarlos o actualizarlos, a no ser que estos se

- Página 59 –
Manual del Curso de Reparación de PC

encuentren soldados a la mother existen muchos modelos de zócalos casi


tantos como modelos de procesadores por ejemplo
Este listado de modelos de acuerdo a su antigüedad (de mas nuevo a
mas antiguo):

• PAC611 Intel Itanium


• PAC418 Intel Itanium
• Socket T (Land Grid Array-775) Intel Pentium 4 & Celeron1
• Socket 604 Xeon
• Socket 480 Intel Pentium M (Double core)
• Socket 479 Intel Pentium M (Single core)
• Socket 775 Intel Pentium 4, Pentium D, Core, Core 2 & Celeron
• Socket 478 Intel Pentium 4 & Celeron
• Socket 423 Intel Pentium 4 Willamette
• Socket 370 Intel Celeron & Pentium III
• Socket AM2 Zócalo de 940 pines, pero incompatible con los primeros
Opteron y Athlon64 FX. Algunos integrantes serán: AMD "Orleans" Athlon 64,
AMD "Windsor" Athlon 64 X2, AMD "Orleans4" Athlon 64 FX. Será introducido
el 6 de junio de 2006
• Socket F AMD Opteron. Será introducido el 2006
• Socket S AMD Turion 64, Será introducido el 2006
• Socket 939 AMD Athlon 64 / AMD Athlon 64 FX a 1GHz / Sempron
• Socket 940 AMD Opteron
• Socket 754 AMD Athlon 64 / Sempron / Turion 64
• Socket A Últimos AMD Athlon, Athlon XP, Duron y primeros Sempron
• Socket 563 Low-power Mobile Athlon XP-M (µ-PGA Socket, Mobile parts
ONLY)
• Slot 1 Intel Pentium II & early Pentium III
• Slot A Primeros AMD Athlon y Alpha 21264
• Socket 8 Intel Pentium Pro
• Super Socket 7 AMD K6-2 & AMD K6-III
• Socket 7 Intel Pentium & compatibles de Cyrix, AMD
• Socket 6 Intel 486
• Socket 5 Intel Pentium 75-133MHz y compatibles
• Socket 4 Intel Pentium 60/66MHz
• Socket 3 Intel 486 (3.3v and 5v) y compatibles
• Socket 2 Intel 486
• Socket 1 Intel 486
• 486 Socket Intel 486

- Página 60 –
Manual del Curso de Reparación de PC

Historia de los Procesadores

Núcleo de Intel 486 por dentro

Comenzó siendo del tamaño de un armario, posteriormente se redujo al


de una gran caja, después se construyó en un placa de unos 15 por 15,00
pulgadas. Finalmente se construyó en un solo circuito integrado, encapsulado
en un "chip", que se inserta en un zócalo de la placa-base (0). La historia de los
procesadores, ha pasado por diferentes situaciones siguiendo la lógica
evolución de este mundo. Desde el primer procesador 4004 del año 1971,
hasta el actual pentium VI del presente año ha llovido mucho en el campo de
los procesadores. Aquel primer procesador presentado en el mercado el día 15
de noviembre, poseía unas características únicas para su tiempo. Para
empezar, la velocidad del reloj sobrepasaba por poco los 100 KHz (Kilo hertzio)
disponía de un ancho de bus de 4 bits y podía manejar un máximo de 640
bytes de memoria. Realmente una auténtica joya, que para entonces podía
realizar gran cantidad de tareas pero que no tiene punto de comparación con
los actuales micros, entre sus aplicaciones podemos descartar su presencia en
la calculadora Busicom, así como dotar de los primeros tintes de inteligencia a
objetos inanimados. Sin embargo el 1º de Abril de 1972 Intel anunciaba una
versión mejorada de su procesador. Se trataba del 8008, que contaba como
pricipal novedad un bus de 8 bytes y la memoria direccionable se ampliaba a
los 16 Kb. Además, llegaba a la cifra de los 3500 transistores, casi el doble que
su predecesor, y se le puede considerar como el antecedente del procesador

- Página 61 –
Manual del Curso de Reparación de PC

que serviría de corazón al primer computador personal. Justo 2 años después


Intel anunciaba ese tan esperado computador personal, de nombre Altair, cuyo
nombre proviene de un destino de la nave Enterprise, en uno de los capítulos
de la popular serie de televisión Star Trek, la semana en la que se creó el
computador. Este computador tenía un costo alrededor de los 400 dólares de la
época, y el procesador suponía multiplicar por 10 el rendimiento del anterior,
gracias a sus 2 MHz de velocidad (por primera vez se utiliza esta medida) con
una memoria de 64 Kb. en unos meses logró vender decenas de miles de
unidades en lo que suponía la aparición del primer computador que la gente
podía comprar, y no ya simplemente utilizar. Intel al cual se le ocurrió que su
procesador 586 se llamara PENTIUM, por razones de mercado. Tiene varios
como son: Pentium, Pentium MMX, Pentium Pro y Pentium II, AMD tiene el
AMD586, K5 y el K6 los 586 ya están totalmente obsoletos.

LEY DE MOORE

El Dr. Gordon Moore, uno de los fundadores del Intel Corporation,


formuló en el año de 1965 una ley que se ha venido a conocer como la " Ley de
Moore". La citada ley que esta reflejada en el Gráfico adjunto, nos viene a
decir, que el número de transistores contenido en un microprocesador se dobla
más o menos de cada 18 meses. Esta afirmación que en principio estaba
destinada a los dispositivos de memoria, pero también los microprocesadores
han cumplido la ley. Una ley que significa para el usuario que cada 18 meses,
de forma continua pueda disfrutar de una mejor tecnología, algo que se ha
venido cumpliendo durante los últimos 30 años, y se espera siga vigente en los
próximos 15 o 20 años. De modo que el usuario puede disponer de mejores
equipos, aunque también signifique la necesidad de cambiar de equipo cada
poco tiempo, algo que no todo el mundo se puede permitir. y eso que el precio
aumenta de forma obsoleta pero no relativa, puesto que la relación MIPS-
dinero está decreciendo a velocidad vertiginosa. Algo que sin embargo no
sucede con la industria del automóvil por ej., ya que la potencia de los coches

- Página 62 –
Manual del Curso de Reparación de PC

no se ha multiplicado de la misma forma que los precios, en cualquier caso,


queda claro que en los próximos años nos espera una auténtica revolución en
lo que a rendimiento de los procesadores se refiere, como ya predijera Moore
hace más de 30 años.

Nuevas tecnologías

Los procesadores ahora se pueden fabricar en mayor cantidad por


Waffer de silicio utilizado, esto le da una ventaja al fabricante: menores costos.
Pero no todo se reduce en eso, ahora era posible poner dos núcleos del
procesador en el mismo espacio que antes ocupaba uno solo!! Así pues el
siguiente paso es el llamado Dual Core, es decir, un mismo procesador tiene,
en realidad, dos cerebros, dos procesadores con sus respectivas memorias
Caché pero la misma cantidad de conectores. El paso fue achicar aún más
todo y además cambiar materiales, AMD e Intel pasaron entonces a los 90nm,
más chico aún, y a nuevas tecnologías de proceso (SOI, por ejemplo: Silicon
On Insulator), esto trae dos ventajas: menos calor, menos energía necesaria
para mover el mismo electrón a la misma velocidad, y... más espacio! La
ventaja de AMD sobre Intel está en el multiprocesamiento debido a que cada
núcleo posee su conector HyperTransport y su controlador de memoria, Intel
resolvió en cierta manera esto, pero AMD tiene, al poseer el controlador de
memoria y el HT incluidos, la posibilidad no de Dual Core solamente... si no de
N Cores! es decir, el paso que le sigue para el año que viene es meter 4, si
CUATRO, procesadores en un mismo envase!! y luego 8. Pero es carísimo! el
precio por unidad es, actualmente, de 2,649 dólares, es decir, una fortuna, pero
sigue siendo una opción excelente para un centro de procesamiento, todavía
falta para ver uno en nuestros escritorios. El Opteron para un solo procesador
ronda los 999 dólares, sigue siendo muy caro.

EL FUTURO DE LOS MICROPROCESADORES

- Página 63 –
Manual del Curso de Reparación de PC

El último paso conocido ha sido la implementación de la nueva


arquitectura de 0.25 micras, que viene a sustituir de forma rotunda la empleada
hasta el momento, de 0.35 micras en los últimos modelos de procesador. Esto
va a significar varias cosas en un futuro no muy lejano, para empezar la
velocidad se incrementará una medida del 33% con respecto a la generación
del anterior.
Es decir, el mismo procesador usando esta nueva tecnología puede ir un
33% más rápido que el anterior. Para los que no podamos hacer una idea de
este tamaño de tecnología, el valor de 0.25 micras es unas 400 veces más
pequeño que un cabello de cualquier persona. Y este tamaño es el que tienen
transistores que componen el procesador. El transistor, como muchos
sabemos, permite el paso de la corriente eléctrica, de modo que en función de
en qué transistores halla corriente, el computador realiza las cosas (esto es una
simplificación de la realidad pero se ajusta a ella). Dicha corriente eléctrica
circula entre dos puntos de modo que cuanto menor sea esta distancia, más
cantidad de veces podrá pasar, pues el tiempo es menor. Aunque estamos
hablando de millonésimas de segundo, tener en cuenta que un procesador está
trabajando continuamente, de modo que ese tiempo que parece insignificante
cuando es sumado a lo largo de las miles de millones de instrucciones que
realizar, nos puede dar una cantidad de tiempo importante. De modo que la
tecnología que se utilice puede dar resultados totalmente distintos, incluso
utilizando el mismo procesador. en un futuro cercano además de contar con la
arquitectura de 0.25 micras podremos disfrutar de una duna de 0.07, para el
año 2011, lo que supondrá la introducción en el procesador de mil millones de
transistores, alcanzando una velocidad de reloj cercana a los diez mil MHz, es
decir, diez GHz.
Han pasado más de 25 años desde que Intel diseñara el primer
microprocesador, que actualmente cuenta con más del 90% del mercado. Un
tiempo en el que todo ha cambiado enormemente, y en el hemos visto pasar
varias generaciones de maquinas que nos han entretenido y ayudado en el
trabajo diario. Dicen que es natural en el ser humano quiere mirar
constantemente hacia el futuro, buscando información de hacia donde vamos,

- Página 64 –
Manual del Curso de Reparación de PC

en lugar de en donde hemos estado. Por ello no podemos menos que


asombrarnos de las previsiones que los científicos barajan para dentro de unos
15 años. Según el Dr. Albert Yu, vicepresidente de Intel y responsable del
desarrollo de los procesadores desde el año 1984, para el año 2011,
utilizaremos procesadores cuyo reloj ira a una velocidad de 10 GHz (10,000
MHz) contendrán mil millones de transistores y será capaz de procesar cerca
de 100 mil millones de instrucciones por segundo. Un futuro prometedor,
permitirá realizar tareas nunca antes pensadas.

Memoria virtual

Memoria virtual es un concepto que permite al software usar más


memoria principal (RAM) que la que realmente posee el computador.
La mayoría de los computadores tienen cuatro tipos de memoria:
registros en la CPU, la memoria cache (tanto dentro como fuera del CPU), la
memoria física (generalmente en forma de RAM, donde la CPU puede escribir
y leer directamente y razonablemente rápido) y el disco duro que es mucho
más lento, pero también más grande y barato.
Muchas aplicaciones requieren el acceso a más información (código y
datos) que la que puede ser mantenida en memoria física. Esto es
especialmente cierto cuando el sistema operativo permite múltiples procesos y
aplicaciones corriendo simultáneamente. Una solución al problema de
necesitar mayor cantidad de memoria de la que se posee, consiste en que las
aplicaciones mantengan parte de su información en disco, moviéndola a la
memoria principal cuando sea necesario. Hay varias formas de hacer esto. Una
opción es que la aplicación misma sea responsable de decidir qué información
será guardada en cada sitio segmentación, y de traerla y llevarla. La
desventaja de esto, además de la dificultad en el diseño e implementación de
cada programa, es que es muy probable que los intereses sobre la memoria de
dos o varios programas generen conflictos entre sí: cada programador podría
realizar su diseño tomando en cuenta que es el único programa corriendo en el
sistema. La alternativa es usar memoria virtual, donde la combinación entre

- Página 65 –
Manual del Curso de Reparación de PC

hardware especial y el sistema operativo hace uso de la memoria principal y la


secundaria para hacer parecer que la computadora tiene mucha más memoria
principal (RAM) que la que realmente posee. Este método es invisible a los
procesos. La cantidad de memoria máxima que se puede hacer ver que existe
tiene que ver con las características del procesador. Por ejemplo, en un
sistema de 32 bits, el máximo es 232, lo que da aproximadamente 4000
Megabytes (4 Gigabytes). Todo esto hace el trabajo del programador de
aplicaciones mucho más fácil, al poder ignorar completamente la necesidad de
mover datos entre los distintos espacios de memoria.
Aunque la memoria virtual podría ser implementada por software del
sistema operativo, en la práctica casi universalmente se usa una combinación
de hardware y software, dado el esfuerzo extra que implicaría ello para el
procesador.

Operación básica

Cuando se usa Memoria Virtual, o cuando una dirección es leída o


escrita por la CPU, una parte del hardware dentro de la computadora traduce
las direcciones de memoria generadas por el software (direcciones virtuales)
en:
• La dirección real de memoria (la dirección de memoria física), o
• Una indicación de que la dirección de memoria deseada no se encuentra
en memoria principal (llamado excepción de memoria virtual).
En el primer caso, la referencia a la memoria es completada, como si la
memoria virtual no hubiera estado involucrada: el software accede donde debía
y sigue ejecutando normalmente. En el segundo caso, el sistema operativo es
invocado para manejar la situación y permitir que el programa siga ejecutando
o aborte según sea el caso. La memoria virtual es una técnica para
proporcionar la simulación de un espacio de memoria mucho mayor que la
memoria física de una máquina. Esta "ilusión" permite que los programas se
hagan sin tener en cuenta el tamaño exacto de la memoria física.

- Página 66 –
Manual del Curso de Reparación de PC

La ilusión de la memoria virtual está soportada por el mecanismo de


traducción de memoria, junto con una gran cantidad de almacenamiento rápido
en disco duro. Así en cualquier momento el espacio de direcciones virtual hace
un seguimiento de tal forma que una pequeña parte de él, está en memoria real
y el resto almacenado en el disco, y puede ser referenciado fácilmente.
Debido a que sólo la parte de memoria virtual que está almacenada en la
memoria principal, es accesible a la CPU, según un programa va ejecutándose,
la proximidad de referencias a memoria cambia, necesitando que algunas
partes de la memoria virtual se traigan a la memoria principal desde el disco,
mientras que otras ya ejecutadas, se pueden volver a depositar en el disco
(archivos de paginación).
La memoria virtual ha llegado a ser un componente esencial de la mayoría
de los sistemas operativos actuales. Y como en un instante dado, en la
memoria sólo se tienen unos pocos fragmentos de un proceso dado, se pueden
mantener más procesos en la memoria. Es más, se ahorra tiempo, porque los
fragmentos que no se usan no se cargan ni se descargan de la memoria. Sin
embargo, el sistema operativo debe saber cómo gestionar este esquema.
La memoria virtual también simplifica la carga del programa para su
ejecución llamada reubicación, este procedimiento permite que el mismo
programa se ejecute en cualquier posición de la memoria física.
En un estado estable, prácticamente toda la memoria principal estará
ocupada con fragmentos de procesos, por lo que el procesador y el S.O
tendrán acceso directo a la mayor cantidad de procesos posibles, y cuando el
S.O traiga a la memoria un fragmento, deberá expulsar otro. Si expulsa un
fragmento justo antes de ser usado, tendrá que traer de nuevo el fragmento de
manera casi inmediata. Demasiados intercambios de fragmentos conducen a lo
que se conoce como hiperpaginación: donde el procesador consume más
tiempo intercambiando fragmentos que ejecutando instrucciones de usuario.
Para evitarlo el sistema operativo intenta adivinar, en función de la historia
reciente, qué fragmentos se usarán con menor probabilidad en un futuro
próximo.
Los argumentos anteriores se basan en el principio de cercanía o principio
de localidad que afirma que las referencias a los datos y el programa dentro de
- Página 67 –
Manual del Curso de Reparación de PC

un proceso tienden a agruparse. Por lo tanto, es válida la suposición de que,


durante cortos períodos de tiempo, se necesitarán sólo unos pocos fragmentos
de un proceso.
Una manera de confirmar el principio de cercanía es considerar el
rendimiento de un proceso en un entorno de memoria virtual.
El principio de cercanía sugiere que los esquemas de memoria virtual
pueden funcionar. Para que la memoria virtual sea práctica y efectiva, se
necesitan dos ingredientes. Primero, tiene que existir un soporte de hardware
y, en segundo lugar, el S.O debe incluir un software para gestionar el
movimiento de páginas o segmentos entre memoria secundaria y memoria
principal.
Justo después de obtener la dirección física y antes de consultar el dato
en memoria principal se busca en memoria-cache, si esta entre los datos
recientemente usados la búsqueda tendrá éxito, pero si falla, la memoria virtual
consulta memoria principal, ó, en el peor de los casos se consulta de disco
(swapping).

Procesadores Pentium

Los Intel Pentium son una gama de microprocesadores con arquitectura


x86 producidos por la compañía Intel.
El microprocesador Pentium se lanzó al mercado el 22 de marzo de 1993,
sucediendo al procesador Intel 80486. Intel no lo llamó 586 debido a que no es
posible registrar una marca compuesta solamente de números y a que la
competencia utilizaba hasta ahora los mismos números que Intel para sus
procesadores equivalentes (AMD 486, IBM 486). También es conocido por su
nombre clave P54C.
Se descubrió en 1994, en el Intel Pentium, que algunos Pentium
presentaron un error de división.
Los tipos de microprocesadores Intel Pentium que han salido al mercado
son:

- Página 68 –
Manual del Curso de Reparación de PC

1993: Intel Pentium


1995: Intel Pentium Pro
1997: Intel Pentium II, con Intel Pentium MMX
1998: Intel Pentium II Xeon
1999: Intel Pentium III
2000: Intel Pentium III Xeon
2000: Intel Pentium 4
2001: Intel Xeon
2002: Intel Xeon MP, con tecnologías Hyper-Threading y NetBurst
2004: Intel Pentium M
2004: el 9 de mayo Intel anunció que los futuros procesadores Xeon estarían
basados en la arquitectura Pentium M, el cual está basado en la arquitectura
Pentium III, por lo que el "nuevo" Xeon puede ser más parecido al Pentium III
Xeon que los Xeon basados en NetBurst.
2005: Intel Pentium D
2006: el 26 de junio Intel anunció la nueva generación Xeon Dual Core, con
tecnología de doble núcleo.
2006: surge el microprocesador Intel Core 2 Duo, el cual marcó la desaparición
de los microprocesadores de la familia Intel Pentium; para dar paso a una
nueva generación tecnológica en microprocesadores.

Los procesadores no Intel

Afortunadamente para algunos no todos son procesadores Intel o


Pentium o sus derivados lo que hizo que se generara otros procesadores
compatibles con otro tipo de características
Cyrix fue una empresa dedicada a la fabricación de procesadores que
comenzó a operar en 1988 como un proveedor de coprocesadores
matemáticos de alto rendimiento para sistemas 286 y 386. La compañía fue
fundada por ex-empleados de Texas Instruments, con la que mantuvo una
larga pero difícil relación a lo largo de su historia.

- Página 69 –
Manual del Curso de Reparación de PC

El fundador de Cyrix Jerry Rogers reclutó agresivamente a varios


ingenieros y los puso a trabajar juntos, logrando finalmente un pequeño pero
eficiente equipo de diseño de 30 personas.
Cyrix se fusionó con National Semiconductor el 11 de noviembre de
1997.
Aunque la compañía tuvo una vida corta y su marca no ha sido usada
activamente por su dueño actual, la competencia de Cyrix con AMD creó el
mercado de los procesadores de bajo coste, que redujo de forma significativa
el precio medios de los PCs y en terminó obligando a Intel a lanzar su línea de
procesadores Celeron de bajo coste y a bajar rápidamente el precio de sus
procesadores más veloces para poder competir.
Además, la adquisición de la propiedad intelectual y los acuerdos de
Cyrix serían usados por VIA para defenderse en sus batallas legales con Intel,
incluso después de que VIA Technologies dejase de usar la marca Cyrix.
Advanced Micro Devices, Inc. (AMD) es la segunda compañía mundial
productora de microprocesadores x86-compatibles (detrás de Intel) y uno de
los más importantes fabricantes de cpu's, chipsets y otros dispositivos
semiconductores. Fue fundada en 1969 y su central está situada en Sunnyvale,
California.
8089, 80286, 80386, AM486
En 1982 AMD firmó un contrato con Intel, convirtiéndose en otro
fabricante licenciatario de procesadores 8086 y 8088. IBM quería usar Intel
8088 en sus IBM PC, pero las políticas de IBM de la época exigían al menos
dos proveedores para sus chips. AMD produjo después, bajo el mismo
acuerdo, procesadores 80286, o 286, pero Intel canceló el contrato en 1986,
rehusándose a revelar detalles técnicos del i386. La creciente popularidad del
mercado de los clones de PC significaba que Intel podría producir CPUs según
sus propios términos y no según los de IBM.
AMD apeló esa decisión y posteriormente ganó bajo arbitrio judicial.
Comenzó un largo proceso judicial que solo acabaría en 1991, cuando la
Suprema Corte de California finalmente falló a favor de AMD, y forzó a Intel a
pagar más de 1.000 millones de dólares en compensación por violación de

- Página 70 –
Manual del Curso de Reparación de PC

contrato. Disputas legales subsiguientes se centraron en si AMD tenía o no


derechos legales de usar derivados del micro código de Intel. Los fallos fueron
favoreciendo a las dos partes. En vista de la incertidumbre, AMD se vio forzado
a desarrollar versiones "en limpio" del código de Intel. Así, mientras un equipo
de ingeniería describía las funciones del código, un segundo equipo sin acceso
al código original debía desarrollar micro código que realizara las mismas
funciones.
Llegado este punto, Jerry Sanders bien pudo retirarse del mercado. Pero
en 1991 AMD lanza el Am386, su clon del procesador Intel 80386. En menos
de un año AMD vendió un millón de unidades. El 386DX-40 de AMD fue muy
popular entre los pequeños fabricantes independientes. Luego, en 1993 llegó
Am486 que, al igual que su antecesor se vendió a un precio significativamente
menor que las versiones de Intel. Am486 fue utilizado en numerosos equipos
OEM e incluso por Compaq probando su popularidad. Pero nuevamente se
trataba de un clón de la tecnología Intel; y a medida que los ciclos de la
industria de las PCs se acortaban, seguir clonando productos Intel era una
estrategia cada vez menos viable dado que AMD siempre estaría tras Intel.
El 30 de diciembre de 1994, la Suprema Corte de California finalmente
negó a AMD el derecho de usar microcódigo de i386. Posteriormente, un
acuerdo entre las dos empresas (cuyos términos aun siguen en el mayor de los
secretos) permitió a AMD producir y vender microprocesadores con
microcódigo de Intel 286, 386, y 486. El acuerdo parece haber permitido
algunos licenciamientos cruzados de patentes, permitiendo a ambas partes el
uso de innovaciones tecnológicas sin pago de derechos. Más allá de los
detalles concretos del acuerdo, desde entonces no hubo acciones legales
significativas entre las empresas.
K5
El primer procesador completamente propio de AMD, fue lanzado en
1995. La "K" hacía referencia a "Kryptonite", en el mundo de los comics la
conocida substancia que podía dañar a Superman (siendo esto una clara
referencia a la posición dominante de Intel en el mercado).

- Página 71 –
Manual del Curso de Reparación de PC

Estaba pensado para competir directamente con el micro Intel Pentium,


presentado al público ya en 1993. Sin embargo, a nivel de arquitectura tenía
más en común con el recién lanzado Pentium Pro o con el 6x86 de Cyrix;
procesadores que decodifican las instrucciones x86 en micro-instrucciones y
las ejecutan en un núcleo estilo RISC. Hubo numerosos inconvenientes de
todos modos. Entre ellos la indignación de muchos consumidores al descubrir
que la velocidad de reloj del procesador no correspondía al valor indicado en la
etiqueta de algunos productos, hecho que era obvio al momento de iniciar el
equipo.
Concretamente, el K5 no igualaba el rendimiento del 6x86 ni de la FPU
de los Pentium. AMD solía usar pruebas de rendimiento que no implicaban
tareas intensivas para la Unidad de Coma Flotante. Todo esto combinado con
el tamaño del procesador y la pobre escalabilidad del diseño, condenó al K5
casi al punto del fracaso total en el mercado. Como punto a favor de este
procesador puede mencionarse que no tenía los problemas de compatibilidad
de 6x86, y no se calentaba tanto como aquel que era microprocesador.
NexGen / K6
En 1996, AMD compra NexGen especialmente por los derechos sobre
su línea de procesadores Nx compatibles con x86. Clara muestra de que AMD
carecía de las habilidades técnicas necesarias para desarrollar arquitecturas de
procesador originales que compitieran con Intel. Bien se puede decir que la
tecnología adquirida salvó a AMD, e irónicamente NexGen fue fundada por ex-
empleados de Intel.
Jerry Sanders dio al equipo de diseño de NexGen edificio propio, tiempo
y dinero para reelaborar el Nx686. El resultado fue bautizado K6. Su diseño
incluía un mecanismo retroalimentado de reordenamiento dinámico de
instrucciones, instrucciones MMX y agregaba la Unidad de Punto Flotante que
faltaba. Fue construido compatible pin a pin con Intel Pentium, de modo que
podía ser utilizado en las -por ese entonces- populares placas base con zócalo
"Socket 7". Al igual que los anteriores Nx586 y Nx686, K6 traducía el conjunto
de instrucciones x86 a un set RISC. Al año siguiente, AMD lanza K6-2 que
agregó un conjunto de instrucciones multimedia de punto flotante llamado

- Página 72 –
Manual del Curso de Reparación de PC

3DNow! que antecedió las instrucciones SSE de Intel e instauró un nuevo


estándar de zócalos, "Super Socket 7" que extendía la velocidad del bus FSB
de 66 a 100 MHz.
En enero de 1995, tuvo lugar el último lanzamiento de la serie K6-x, el
K6-III de 450 MHz, que compitió muy bien con los mejores productos de Intel.
El chip era esencialmente un K6-2 con 256KB de caché Nivel 2 de alta
velocidad integrados al núcleo, y una unidad mejorada de predicción de saltos
lógicos. Aún cuando alcanzó (y en general superó) a los procesadores Pentium
II/III en operaciones con enteros, el diseño de su FPU (serial non-pipeline) no
podía competir con la de Intel, más avanzada. A pesar que las extensiones
3DNow! podrían en teoría compensar esa diferencia, pocos juegos la
aprovecharon. La excepción más notable fue Quake 2 de Id Software.
A lo largo de su vida, el procesador K6 se acercó mucho al rendimiento
de Intel, pero no llegó a superarlo. Y en los momentos en que anunció ventajas
en la velocidad de reloj, afrontó problemas de manufactura que resultaron en la
poca disponibilidad de sus productos. Y una vez desviado del estándar con el
formato Super Socket 7, el abanico de calidad de las placas base que
soportaron K6 fue muy variado, especialmente en lo que se refiere a la
implementación de las especificaciones AGP.
Con todo, K6 fue muy popular entre los consumidores, en especial fuera
de Norteamérica, ofreciendo un desempeño decente a un precio
comparativamente bajo. Pero los pequeños inconvenientes técnicos alrededor
de la plataforma y la falta de disponibilidad de los componentes de alto
rendimiento anunciados, evitaron la entrada de los productos de AMD al
mercado corporativo. Intel respondió a los precios bajos de AMD con su versión
de "bajo presupuesto" de Pentium, los procesadores Celeron. Y aunque estos
no fueron tan populares como Intel esperaba, efectivamente acorralaron a AMD
en el sector del mercado de "ganancias pequeñas".

Las revisiones de Athlon (XP)

En 2001, Intel lanza su arquitectura Pentium 4 (código Willamette) que


tenía una microarquitectura radicalmente distinta a la de los núcleos Athlon y

- Página 73 –
Manual del Curso de Reparación de PC

P6. Mientras Pentium 4 soporta velocidades de reloj más altas, el rendimiento


de su arquitectura por ciclo de reloj es inferior. Las velocidades más altas
llevaron a muchos a creer que el rendimiento de Pentium 4 es superior, aún
contra los resultados de las pruebas de rendimiento.
Mientras varios analistas de la industria predijeron que P4 volvería a
restringir a AMD al mercado de baja performance/bajo costo, AMD respondió
con revisiones incrementales de su núcleo básico K7. Palomino introdujo un
mecanismo inteligente de pre-fetching de memoria, compatibilidad con SSE de
Intel y cache L2 en el chip, con una mejora en velocidad de alrededor del 10%.
AMD volvió a adoptar entonces la nomenclatura PR, que proyectaría el
rendimiento relativo del reloj en estos nuevos Athlon versus las versiones
anteriores. Para un número de modelo determinado, un procesador Pentium 4
con velocidad de reloj correspondiente al número muestra un rendimiento
equiparable en una amplia variedad de pruebas. Por esta razón, el etiquetado
PR fue ampliamente aceptado a diferencia de lo ocurrido en los sistemas K5.
AMD se aseguró también, que las pantallas de inicio de los equipos exhibieran
el número de modelo y no los MHz reales.
Intel contraatacó a AMD elevando la velocidad de sus procesadores, y
por un tiempo AMD debió luchar. En particular, el núcleo "Thoroughbred" con
tecnología de 130nm (2002) sufrió inesperados problemas de calentamiento y
debió ser puesto en una revisión B, con una capa de metal extra que mejorara
la disipación de calor. Posteriormente se presentó el núcleo "Barton" que
incrementó el caché L2 a 512KB. En cada revisión AMD hizo lo suficiente para
mantener el rendimiento de sus Athlon en niveles de competitividad y evitar el
retroceso al mercado del bajo costo.
AMD64 / K8
K8 es una revisión mayor de la arquitectura K7, cuya mejora más
notable es el agregado de extensiones de 64 bit sobre el conjunto de
instrucciones x86. Esto es importante para AMD puesto que marca un intento
de definir el estándar x86 e imponerse, en vez de seguir los estándares
marcados por Intel. Y al respecto, AMD ha tenido éxito. La historia ha dado un
giro y Microsoft adoptó el conjunto de instrucciones de AMD, dejando a Intel el

- Página 74 –
Manual del Curso de Reparación de PC

trabajo de ingeniería inversa de las especificaciones de AMD (EM64T). Otras


características notables de K8 son el aumento de los registros de propósito
general (de 8 a 16 registros), la arquitectura Direct Connect Architecture y el
uso de HyperTransport.
El proyecto AMD64 puede ser la culminación de la visionaria estrategia
de Jerry Sanders, cuya meta corporativa para AMD fue la de convertirla en una
poderosa empresa de investigación por derecho propio, y no sólo una fábrica
de clones de bajo precio, con estrechos márgenes de ganancia.
AMD Opteron es la versión para servidores corporativos de K8; y
aunque fue concebida por la compañía para competir contra la línea IA-64
Itanium de Intel, dados los bajos volúmenes de venta y producción de esta
última, compite actualmente con la línea Xeon de Intel. El liderazgo tecnológico
de AMD ha mejorado considerablemente su credibilidad y su llegada en el
sector corporativo del mercado.
AMD K10 (K8L)
En noviembre de 2006, AMD hace público el desarrollo de su nuevo
procesador con nombre código "BARCELONA", que seria lanzado a mediados
del 2007; Con este procesador se da inicio a la arquitectura K8L. Tras el
dominio total de Intel con su arquitectura "CORE", AMD tuvo que re-diseñar su
tecnología de producción y finalmente dar el salto a los 65nm y al los Quad
Core nativos, a diferencia de los Quad FX, que son 2 dual core en una misma
placa madre. Un Quad core nativo (Monolitico), quiere decir que los cuatro
núcleos del procesador son totalmente independientes entre si, a diferencia de
los "Kentsfield" (2 "Conroe") y los "Clovertown" (2 Ketsfield) de Intel, y de los
Quad FX del propio AMD. Los primeros procesadores en usar el núcleo
Barcelona, serán los Quad Core Opteron.
Las nuevas innovaciones que trae consigo la arquitectura K8L
(Barcelona) son:
- Proceso de fabricación de 65nm.
- Configuración y compatibilidad para plataformas multi-socket (4x4).
- 2MB de cache L3. (Compartido para los 4 núcleos).
- 512KB de cache L2 para cada núcleo.

- Página 75 –
Manual del Curso de Reparación de PC

- Hyper Transport 2.0


- Soporte para memorias DDR3.
- Soporte para instrucciones extendidas SSE4.
Con la arquitectura K8L, a parte de los Barcelona, también están en desarrollo
los núcleos:
- Barcelona (Próxima generación de los Opteron, versión Quad Core).
- Rana (Próxima generación de los Sempron, versión Dual Core).
- Kuma (Dual Core 65nm).
- Agena (Próxima generación de los Phenom X2 y X4, versión Quad Core).
- Agena FX (Próxima generación de los Phenom FX, version Quad Core).
Después de Barcelona (2Q-2007), seguirá "Budapest" (4Q-2007), después
"Shanghai" (2Q-2008) y por ultimo "Montreal".

Geode
En agosto de 2003 AMD compra también Geode business
(originalmente Cyrix MediaGX) a National Semiconductor para extender su
línea ya existente de productos x86 para sistemas embebidos. A mediados de
2004, lanzó sus procesadores Geode de bajo consumo con velocidad máxima
de 1,4 GHz y consumo máximo de 19W.

AMD / ATI
Después de completar la compra de ATI, AMD se reestructura como la
única empresa en el mundo que provee un abanico de soluciones en todos los
ramos de microprocesadores, tarjetas de video y chipsets así también se
convierte en el mayor productor mundial de chips para TV, consolas y celulares
en el mundo, con esto AMD se convierte hoy en día en el mayor rival de Intel
en cuanto a soluciones en semiconductores se refiera.

Manteniéndolo Fresco!
Ahora bien en toda esta parafernalia de velocidades, voltajes y diseño,
es mas que importante el tema de la disipación del calor ya que la temperatura,
o mejor dicho el exceso de ella es la principal causa de muerte de los

- Página 76 –
Manual del Curso de Reparación de PC

procesadores o de los chips en General, por ello mismo es que tanto el diseño
de la mother, como del gabinete y de los disipadores de temperatura son tan
importantes para prevenir los daños por sobrecalentamiento que generalmente
son fatales, y para ellos a la superficie de los CPU se les acopla un disipador
también llamado cooler.
Un 'disipador (heat sink)' es un elemento físico, sin partes móviles,
destinado a eliminar el exceso de calor de cualquier elemento.
Su funcionamiento se basa en la Segunda ley de la termodinámica,
transfiriendo el calor de la parte caliente que se desea disipar al aire. Este
proceso se propicia aumentando la superficie de contacto con el aire
permitiendo una eliminación más rápida del calor excedente. Cada disipador
tiene un coeficiente de disipación específico que se calcula de esta manera:

Donde:
Rd − a es el coeficiente de disipación específico de cada disipador (ºC/W).
Td es la temperatura del disipador (ºC).
Ta es la temperatura ambiental (ºC).
P es la energía disipada (W).
Al usar esta fórmula hay que tener en cuenta que el flujo de aire que
recibe el disipador influye en el valor del coeficiente de disipación, siendo
menor el coeficiente cuanto mayor sea el flujo. Dicho de otra manera, cuanto
mayor sea la corriente de aire que roce con el disipador menor tendrá que ser
la diferencia de temperaturas para disipar la misma cantidad de calor.

- Página 77 –
Manual del Curso de Reparación de PC

Capítulo 6 –La Memoria


La Memoria normalmente se divide en 2 categorías la RAM que es el
acrónimo inglés de Random Access Memory Module (memoria de acceso
aleatorio ó memoria de acceso directo).
Módulo SDRAM de 128 Mb
Se trata de una memoria de semiconductor en la que se
puede tanto leer como escribir información. Es una memoria
volátil, es decir, pierde su contenido al desconectar la energía
eléctrica. Se utiliza normalmente como memoria temporal para
almacenar resultados intermedios y datos similares no
permanentes. Se dicen "de acceso aleatorio" o "de acceso
directo" porque los diferentes accesos son independientes
entre sí. Por ejemplo, si un disco rígido debe hacer dos accesos
consecutivos a sectores alejados físicamente entre sí, se pierde
un tiempo en mover la cabeza hasta la pista deseada (o
esperar que el sector pase por debajo, si ambos están en la
misma pista), tiempo que no se pierde en la RAM.
Su denominación surge en contraposición a las
denominadas memorias de acceso secuencial. Debido a que en
los comienzos de la computación las memorias principales (o
primarias) de las computadoras eran siempre de tipo RAM y las
memorias secundarias (o masivas) eran de acceso secuencial (cintas o tarjetas
perforadas), es frecuente que se hable de memoria RAM para hacer referencia
a la memoria principal de una computadora. En estas memorias se accede a
cada celda (generalmente se direcciona a nivel de bytes) mediante un
cableado interno, es decir, cada byte tiene un camino prefijado para entrar y
salir, a diferencia de otros tipos de almacenamiento, en las que hay una cabeza
lectograbadora que tiene que ubicarse en la posición deseada antes de leer el
dato deseado.
Las RAMs se dividen en estáticas y dinámicas. Una memoria RAM
estática mantiene su contenido inalterado mientras esté alimentada. En cambio
en una memoria RAM dinámica la lectura es destructiva, es decir que la
- Página 78 –
Manual del Curso de Reparación de PC

información se pierde al leerla, para evitarlo hay que restaurar la información


contenida en sus celdas, operación denominada refresco.
Las memorias se agrupan en módulos, que se conectan a la placa base
de la computadora. Según los tipos de conectores que lleven los módulos, se
clasifican en Módulos SIMM (Single In-line Memory Module), con 30 ó 72
contactos, módulos DIMM (Dual In-line Memory Module), con 168 contactos y
módulos RIMM (RAMBUS In-line Memory Module) con 184 contactos.
Y dentro de lo que es la memoria RAM tenemos diferentes Categorías y
modelos o tipos de memoria, así que pasemos a ver algunas de ellas y sus
características mas destacadas

FPM-RAM (Fast Page Mode RAM)


Memoria asíncrona, más rápida que la anterior (modo de Página Rápida)
y con tiempos de acceso de 70 ó 60 ns. Esta memoria se encuentra instalada
en muchos sistemas de la primera generación de Pentium. Incorpora un
sistema de paginado debido a que considera probable que el próximo dato a
acceder este en la misma columna, ganando tiempo en caso afirmativo.

EDO-RAM (Extended Data Output RAM)


Memoria asíncrona, esta memoria permite a la CPU acceder más rápido
porque envía bloques enteros de datos; con tiempos de acceso de 40 ó 30 ns.

BEDO-RAM (Burst Extended Data Output RAM)


Memoria asíncrona, variante de la anterior, es sensiblemente más rápida
debido a que manda los datos en ráfagas (burst).

SDR SDRAM (Single Data Rate Synchronous Dynamic RAM)


Memoria sincrónica (misma velocidad que el sistema), con tiempos de acceso
de entre 25 y 10 ns y que se presentan en módulos DIMM de 168 contactos.
Fue utilizada en los Pentium 2, así como en los AMD K7. Dependiendo de la
frecuencia de trabajo se dividen en:

- Página 79 –
Manual del Curso de Reparación de PC

• PC66: la velocidad de bus de memoria es de 66 Mhz, temporización de


15 ns y ofrece tasas de transferencia de hasta 533 MB/s.
• PC100: la velocidad de bus de memoria es de 125 Mhz, temporización
de 8 ns y ofrece tasas de transferencia de hasta 800 MB/s.
• PC133: la velocidad de bus de memoria es de 133 Mhz, temporización
de 7,5 ns y ofrece tasas de transferencia de hasta 1066 MB/s.
Está muy extendida la creencia de que se llama SDRAM a secas, y que la
denominación SDR SDRAM es para diferenciarla de la memoria DDR, pero no
es así, simplemente se extendió muy rápido la denominación incorrecta. El
nombre correcto es SDR SDRAM ya que ambas (tanto la SDR como la DDR)
son Memorias Sincronas Dinamicas.

DDR SDRAM (Double Data Rate SDRAM)


Memoria síncrona, envía los datos dos veces por cada ciclo de reloj. De
este modo trabaja al doble de velocidad del bus del sistema, sin necesidad de
aumentar la frecuencia de reloj. Se presenta en módulos DIMM de 184
contactos. Del mismo modo que la SDRAM, en función de la frecuencia del
sistema se clasifican en (según JEDEC):
• PC 1600 ó DDR200: funciona a 2.5 V, trabaja a 200MHz, es decir
100MHz de bus de memoria y ofrece tasas de transferencia de hasta 1,6
GB/s (de ahí el nombre PC1600). Este tipo de memoria la utilizaron los
Athlon XP de AMD, y los primeros Pentium 4.
• PC 2100 ó DDR266: funciona a 2.5 V, trabaja a 266MHz, es decir
133MHz de bus de memoria y ofrece tasas de transferencia de hasta 2,1
GB/s (de ahí el nombre PC2100).
• PC 2700 ó DDR333: funciona a 2.5 V, trabaja a 333MHz, es decir
166MHz de bus de memoria y ofrece tasas de transferencia de hasta 2,7
GB/s (de ahí el nombre PC2700).
• PC 3200 ó DDR400: funciona a 2.5V, trabaja a 400MHz, es decir,
200MHz de bus de memoria y ofrece tasas de transferencia de hasta 3,2
GBs (de ahí el nombre PC3200).

- Página 80 –
Manual del Curso de Reparación de PC

• PC-4200 ó DDR2-533: trabaja a 533Mhz, es decir, 266 MHz de bus de


memoria y ofrece tasas de transferencia de hasta 4,2 GBs (de ahí el
nombre PC4200).
• PC-4800 ó DDR2-600: trabaja a 600Mhz, es decir, 300 MHz de bus de
memoria y ofrece tasas de transferencia de hasta 4,8 GBs (de ahí el
nombre PC4800).
• PC-5300 ó DDR2-667: trabaja a 667Mhz, es decir, 333 MHz de bus de
memoria y ofrece tasas de transferencia de hasta 5,3 GBs (de ahí el
nombre PC5300).
• PC-6400 ó DDR2-800: trabaja a 800Mhz, es decir, 400 MHz de bus de
memoria y ofrece tasas de transferencia de hasta 6,4 GBs (de ahí el
nombre PC6400).
También existen las especificaciones DDR433, DDR466, DDR500, DDR533
y DDR600 pero según muchos ensambladores es poco práctico utilizar DDR a
más de 400MHz, por lo que está siendo sustituida por la revisión DDR2 de la
cual sólo se comercializan las versiones DDR2-400, DDR2-433, DDR2-466,
DDR2-500, DDR2-533, DDR2-600, DDR2-667, DDR2-800, DDR2-1000, DDR2-
1066, DDR2-1150 y DDR2-1200.

RDRAM (Rambus DRAM)


Memoria de gama alta basada en un protocolo propietario creado por la
empresa Rambus, lo cual obliga a sus compradores a pagar royalties en
concepto de uso. Esto ha hecho que el mercado se decante por la memoria
DDR de uso libre, excepto algunos servidores de grandes prestaciones (Cray) y
la famosa PlayStation 2. Se clasifica en:
• Rambus PC600: se caracteriza por utilizar dos canales en vez de uno y
ofrece unas tasas de transferencia de 1,06 Gb/s por canal => 2,12 Gb/s
a una frecuencia de 266MHz.
• Rambus PC700: igual que el anterior, trabaja a una frecuencia de
356MHz y ofrece unas tasas de transferencia de 1,42 Gb/s por canal =>
2,84 Gb/s.

- Página 81 –
Manual del Curso de Reparación de PC

• Rambus PC800: del mismo modo, trabaja a 400MHz y ofrece unas tasas
de transferencia de 1,6 Gb/s por canal => 3,2 Gb/s.

ESDRAM (Enhanced SDRAM)


Esta memoria incluye una pequeña memoria estática en el interior del
chip SDRAM. Con ello, las peticiones de ciertos ser resueltas por esta rápida
memoria, aumentando las prestaciones. Se basa en un principio muy similar al
de la memoria caché utilizada en los procesadores actuales.

Memoria SRAM
Representa la abreviatura de "Static RAM". El hecho de ser estática
quiere decir que no es necesario refrescar los datos (al contrario que la DRAM),
ya que sus celdas mantienen los datos, siempre y cuando estén alimentadas.
Otra de sus ventajas es su velocidad, comparable a la de los
procesadores actuales. Como contraprestación, debido al elevado número de
transistores por bit, las SRAM tienen un elevado precio, por lo que su uso se
limita a las memorias caché de procesadores y microcontroladores.
Así, y atendiendo a la utilización de la SRAM como memoria caché de
nuestros sistemas informáticos, tenemos tres tipos:
• Async SRAM: la memoria caché de los antiguos i386, i486 y primeros
Pentium, asíncrona y con tiempos de acceso entre 20 y 12
nanosegundos.
• Sync SRAM: es la siguiente generación, capaz de sincronizarse con el
procesador y con un tiempo de acceso entre 12 y 8,5 nanosegundos.
Muy utilizada en sistemas a 66 MHz de bus.
• Pipelined SRAM: se sincroniza igualmente con el procesador. Tarda en
cargar los datos más que la anterior, aunque una vez cargados, accede
a ellos con más rapidez. Opera con tiempos entre 8 y 4,5 nanosegundos
Y ahora que tenemos una idea un poco más amplia de la memoria RAM,
vemos algo más o más que nada un repaso de lo que es la Memoria ROM que
generalmente es de sistema.

- Página 82 –
Manual del Curso de Reparación de PC

ROM es la sigla de read-only memory, que significa "memoria de sólo


lectura": una memoria de semiconductor destinada a ser leída y no destructible,
es decir, que no se puede escribir sobre ella y que conserva intacta la
información almacenada, incluso en el caso de que se interrumpa la corriente
(memoria no volátil). La ROM suele almacenar la configuración del sistema o el
programa de arranque de la computadora.
La memoria de sólo lectura o ROM es utilizada como medio de
almacenamiento de datos en las computadoras. Debido a que no se puede
escribir fácilmente, su uso principal reside en la distribución de programas que
están estrechamente ligados al soporte físico de la computadora, y que
seguramente no necesitarán actualización. Por ejemplo, una tarjeta gráfica
puede realizar algunas funciones básicas a través de los programas contenidos
en la ROM.
Las computadoras domésticas a comienzos de los 80 venían con todo
su sistema operativo en ROM. No había otra alternativa razonable ya que las
unidades de disco eran generalmente opcionales. La actualización a una nueva
versión significa usar un soldador o un grupo de interruptores DIP y reemplazar
el viejo chip de ROM por uno nuevo. En el año 2000 los sistemas operativos en
general ya no van en ROM. Todavía las computadoras pueden dejar algunos
de sus programas en memoria ROM, pero incluso en este caso, es más
frecuente que vaya en memoria flash. Los teléfonos móviles y los asistentes
personales digitales (PDA) suelen tener programas en memoria ROM (o por lo
menos en memoria flash).
Algunas de las consolas de videojuegos que utilizan programas basados
en la memoria ROM son la Super Nintendo, la Nintendo 64, la Mega Drive o la
Game Boy. Estas memorias ROM, pegadas a cajas de plástico aptas para ser
utilizadas e introducidas repetidas veces, son conocidas como cartuchos. Por
extensión la palabra ROM puede referirse también a un archivo de datos que
contenga una imagen del programa que se distribuye normalmente en memoria
ROM, como una copia de un cartucho de videojuego.
Una razón de que todavía se utilice la memoria ROM para almacenar
datos es la velocidad ya que los discos son más lentos. Aún más importante,
no se puede leer un programa que es necesario para ejecutar un disco desde
- Página 83 –
Manual del Curso de Reparación de PC

el propio disco. Por lo tanto, la BIOS, o el sistema de arranque oportuno de la


computadora normalmente se encuentran en una memoria ROM.
La memoria RAM normalmente es más rápida para lectura que la
mayoría de las memorias ROM, por lo tanto el contenido ROM se suele
traspasar normalmente a la memoria RAM cuando se utiliza.
Bien ahora que tenemos los conceptos de memoria desarrollados y los
tipos de memoria, viene la pregunta “como es que los módulos de memoria se
comunican con los buses de la pc?: Por convención la memoria siempre se
considera en términos de “byte”, así también como los buses, una pc 8088
usaba un bus de 8 bits, o de a un byte, así como una 386 usaba un bus de 32
bits o sea 4 y un Pentium, por ejemplo utiliza un bus de 64bits u 8 bytes, que
para que funcionen cualquiera de ellos, deben cubrir por completo el bus de
datos, existen 2 maneras de poder resolver este tema una de ellas es agregar
mas módulos de memoria, y la otra es que los módulos de memoria tengan
mas chips, así de una u otra manera se puede lograr llenar el bus de memoria.
A esta técnica se la denomina “BANKING” es decir llenar los bancos de
memoria, en los gráficos de abajo, podemos ver un bus de 8 bits y 2 de 16bits,
en uno un SIMM de de 30 pines que es de de 8bits es necesario para llenar un
bus de 8bits, y en el otro 2 SIMMS de 30 pines son necesarios para llenar un
bus de 16 bits, o de otra manera se podría usar un SIMM de 72 pines (16bits)
para llenar un bus de 72 pines.

Memoria un Banco

- Página 84 –
Manual del Curso de Reparación de PC

Memoria a 2 Bancos

Para comprender un poquito mejor como es que esto funciona en el


siguiente grafico vemos 1megabite de memoria en 4 filas de 256 chips, aquí lo
que es importante es como están divididas las filas en bancos para cada
arquitectura de bus, como se puede ver un 8088 necesita 4 bancos de 1 fila, y
un 386 necesitaría 1 banco de 4 filas

Memorias Especiales
Uno de los problemas inherentes de la memoria DRAM siempre ha sido
el tema de las tasas de refresco su impacto en la velocidad, otros tipos de
memorias RAM no tiene estos problemas solo son mas grandes y mas
costosas: Un chip SRAM será unas 30 veces mas grande y 30 veces mas
costosa (sic…) que la DRAM, que es llamada SDRAM (Static RAM) recuerden
- Página 85 –
Manual del Curso de Reparación de PC

que la DRAM es dinámica y necesita ser refrescada, mientras que la SRAM no;
electrónicamente no utiliza capacitares para poder almacenar los bits en
cambio utiliza un arreglo de 6 transistores, lo que hace la ventaja de no tener
intervalos de espera para el procesador, y por ellos es significativamente mas
veloz, y pueden operar en el rango de los 2 nanosegundos y así poder seguir el
paso de un procesador de por ejemplo 5mhz, sin problemas, debido a su costo
es que tiene una aplicación especial que es la de memoria CACHE, CACHE
podría definirse como el lugar para almacenar u ocultar cosas; en una
computadora es el lugar de almacenamiento del CPU para las cosas
“importantes” a las que necesita acceso instantáneo, desde que esta es
muchísimo mas rápida es que una maquina puede mejorar enormemente su
rendimiento, usando una pequeña cantidad de memoria cache.

El Cacheo
La memoria cache de una computadora se puede encontrar de 3
maneras en una computadora designadas L1, L2, L3. La L1 es la cache interna
o integral reciba su nombre ya que esta integrada dentro del procesador, y es
la mas rápida de la computadora, ya que se ejecuta a la velocidad del
procesador. La L2 es la segunda más rápida, llamada externa porque a veces
puede ser externa al procesador y corre a la velocidad del bus de datos, mas
rápido el bus, mas rápida la cache. L3 es una cache adicional en el
motherboard, que se encuentra entre el CPU y la memoria RAM, si el CPU
incorpora cache L2 (hoy en día todos los procesadores en mayor o menor
cantidad tiene tanto cache L1 como L2), entonces la del mother es L3.
Normalmente los datos de la cach3 L1 no se transmiten a la memoria
Ram, hasta que es reemplazada por otros datos.

- Página 86 –
Manual del Curso de Reparación de PC

Capítulo 7- Fuentes

Dicen que la fuente de corriente es la menos problemática de las partes


de pc.
Para todos los propósitos prácticos, un solo tamaño cabe en todos los
gabinetes (bueno casi todos), excepto las fuentes o trafos de las notebooks y
de algún que otro modelo diseñado para gabinetes específicos. Usualmente
una fuente toma corriente de un toma corrientes o enchufe de la paredy lo
convierte en +/- 3,3 y 5 volts para la electrónica de la placa y todo lo que se le
enchufe y en +/- 12volts para todos los motores y discos, muchas fuentes
poseen switeches universales que le permiten utiliza tanto 120v como 220v:
cuando se reemplaza una fuente normalmente se deben tener en cuenta 3
cosas:
• Tamaño
• Wattage
• Conectores
Así que comencemos a ver sus características básicas y resolución de
problemas.
Las fuentes están disponibles en tamaños estándar y formas estándar,
estos son 6 tipos típicos:
• PC/XT – Fuentes Estandar de PC
• LPX – Linea Slim
• AT/Desk – AT Desktop ATX (mini)
• AT/Tower – Full Size NLX – low profile
• Baby AT – Fuentes de tamaño recortado del AT
• SFX – Para equipos pequeños
La mas común es la “ATX Mini” que es la que se incluye en la mayoría de
los gabinetes mini tower, generalmente van desde los 200 a los 400watts de
potencia. Por ello generalmente un gabinete más grande incluye una fuente
con más potencia ya que se considera que se le van a enchufar mas cosas
dentro. Por lo que una fuente “Full ATX” puede tener 500 watts o más.

- Página 87 –
Manual del Curso de Reparación de PC

¿Cuanta Potencia necesito?


Bien normalmente la potencia de la fuente es directamente proporcional
a la cantidad de elementos que se le vaya a incorporar internamente a la pc, el
watt es la unidad de potencia eléctrica equivalente a un voltio-amper (Volt X
Amp) si se toma el voltaje de entrada y se multiplica por la corriente usada
tenemos la potencia estimada en watts; por lo que es importante recordar de
que la fuente debe producir suficiente corriente para que todos los elementos
de la pc operen con normalidad, generalmente durante el arranque muchos
componentes pueden requerir corriente extra para poder operar.
Un promedio general podría ser que la pc utilice entre 115 y 200watts
para operar y unos 200 o 250 o mas para arrancar, si la pc no tiene suficiente
corriente es muy posible que se reinicie inesperadamente.
En esta pequeña tabla, podemos usarla para calcular los requerimientos
de potencia de una PC

Consumos estimados

- Página 88 –
Manual del Curso de Reparación de PC

Conectores de Fuente
Como podemos ver del lado
externo de la fuente podemos ver los
conectores de entrada de corriente y el
selector de voltajes 120/240v siempre
debemos fijarnos que este ultimo se
encuentre en 220 / 230/ 240V de lo
contrario los daños en la fuente pueden ser permanentes, mientras que del otro
lado nos encontramos con un grupo de cables, entre 20 y 30 terminados en
diferentes conectores. En las fuentes AT tenemos 2 conectores llamados P8 y
P9 que son los encargados de llevar la corriente a la placa madre cada uno de
ellos con un juego de unos 6 cables c/u los otros conectores desde el P10 al
P13, tienen cuatro cables cada uno y son utilizados para darle corriente a la a
los floppys, discos rígidos, y cd roms, tanto como sean necesarios.

P8 yP9
Estos son quizás los
más importantes de los
conectores ya que se
conectan en la placa madre y
si estos son conectados
incorrectamente pueden
producir daños permanentes
a la placa madre pero con un
solo un poco de cuidado nos
evitaremos disgustos
Y la podremos instalar
sin ningún tipo de complicaciones; esto es debido a que los 2 conectores son
idénticos, y tienen unos inconvenientes que debemos considerar, uno ellos es
que no debemos conectarlos al revés. Si bien esto es posible no es muy
sencillo de hacer y por otro lado en las fuentes de buen calidad estos cables

- Página 89 –
Manual del Curso de Reparación de PC

están marcados en sus fichas como P8 y P9, pero no en todas, si bien tiene
marcas de calce, es muchísimo mas fácil recordar la regla de “negro con negro”
esto es debido a que ambos para tienen 2 cables negros,, y que estos deben ir
apareados.
Adicionalmente a esto es que los cables tienen colores que
corresponden a sus voltajes

- Amarillo +12v Detalle de la conexión P8-P9


- Azul -12v
- Rojo +5v
- Blanco -5
- Negro Masa

Molex o Mini
En adición a esto se encuentran los conectores Mini o Molex que son los
que se encargan de llevar la corriente a los dispositivos de almacenamiento
como discos y lectoras o hardware periférico en general, ya que hay algunos
modelos de mother ASUS que contiene algo llamado EZ Plug que no es mas ni
menos que un conector Molex estándar en el motherboard, diseñado para
suministrar voltajes a la dicha placa
Y habiendo visto los cables y sus colores podemos deducir los voltajes
que estos conectores manejan

- Página 90 –
Manual del Curso de Reparación de PC

Conector Molex

Mini Molex o Mini Conector para Disketteras


(no a escala)

Conectores de Dispositivos

Subcapítulo 7- Reparación de Fuentes


Estas notas se basan en la experiencia, indicando por área lo que se debe
cambiar para solucionar las averías, basándose en lecturas contrarias a las
especificaciones técnicas de cada componente y de acuerdo a los síntomas de
la fuente tanto en el área del primario como del secundario.

- Página 91 –
Manual del Curso de Reparación de PC

NOTA: En las siguientes imágenes se mostrará una fuente escaneada sin los
correspondientes transistores del área primaria, como los rectificadores del
área secundaria de la misma, para que se aprecie mejor los componentes
pequeños. Se ha denominado primario a la entrada de la fuente (primario de
los transformadores) y secundario a la parte correspondiente a la salida de la
fuente.

Primario

Fusible quemado
Antes de cambiarlo hay que revisar si el puente rectificador está en
cortocircuito: con el multímetro en comprobación de diodos, y escuchando el
sonido, hay que verificar los cortocircuitos (lectura cero). Para ello conectar el

- Página 92 –
Manual del Curso de Reparación de PC

tester probando en todos los sentidos entre los dos pines de los cuatro que
tiene el puente, o bien, si es un puente de cuatro diodos, cada uno de ellos. Si
esta mal o con diferencias en las mediciones hay que cambiarlo.
Luego hay que comprobar los transistores sin desoldarlos, no tienen que
mostrarse nunca en corto y siempre con las mismas mediciones entre ellos, o
sea colector con base, lo mismo que el colector con la base del otro. En este
caso hay que cambiarlos si presentan fugas.
Ha continuación hay un conjunto de resistencias, condensadores electrolíticos
y diodos que se presentan de dos en dos, o sea dos de 2 o 1.5 ohm, 2 diodos
1n4140, 2 condensadores electrolíticos de 10 mf, etc. Inclusive los grande de la
derecha, normalmente de 220 mf x 200 voltios o similares.
Cada uno de ellos va conectado de la misma manera, entre un transistor y el
otro. Quiere decir que al medir en el mismo sentido de la salida a medir, con las
puntas del multímetro en la misma dirección de conexión con respecto a los
transistores, las mediciones debe ser exactamente iguales. En caso contrario
hay que sacar el componente fuera y medirlo, para ello se puede sólo desoldar
la pata más fácil de acceder y listo.
Este es todo el misterio del área primaria y se deben hacer esas mediciones de
esta forma, ya que cualquier componente que este en corto en esa área haría
volar los transistores y seria un ciclo de nunca acabar.
Fusible sano
Es exactamente igual que antes, ya que normalmente no se quema el fusible
pero se abre uno de los componentes, como los transistores, y no quedan en
corto.
Algunas veces, si la fuente trabaja intermitente y especialmente en frío, no
arranca o lo hace después de varias veces de encenderla y apagarla. Esto es
motivado por los diodos 1n4140 o similares que tienen fuga o los
condensadores pequeños que están casi secos.

- Página 93 –
Manual del Curso de Reparación de PC

Secundario

Como hemos comentado previamente, algunas veces si la fuente trabaja


intermitente, especialmente en frío, no arranca o lo hace después de varios
intentos. Esto es debido a que los diodos 1n4140 o similares tienen una fuga, o
los condensadores pequeños están casi secos. En el secundario del trafo
pequeño, donde se cumple lo mismo que en el área primaria, o sea tiene dos
transistores, diodos 1n4140 y condensadores pequeños, hay que verificar las
fugas levantando uno de los pines de cada componente.
Los transistores pequeños, siguiendo el orden de sus características con el
multímetro, parecen tener sus valores correctos pero resulta que en ambos no
debería haber resistencia entre colector y emisor y sin embargo, haciendo
pulsos con las puntas del tester entre los pines mencionados, el multímetro
marca fugazmente fugas muy altas. Reemplazando los transistores se
solucionará el problema de arranque en frío y otros problemas.
Hay que verificar si hay un cortocircuito en cada una de las salidas de los
cables rojo/amarillo/azul y blanco, que corresponden a los +5 +12 -5 y -12
respectivamente. De ser así hay que seguir el circuito levantando componentes

- Página 94 –
Manual del Curso de Reparación de PC

y verificándolos, lo que sólo puede haber es una medición de R en paralelo con


las masas (cable negro) de entre 40/300 ohm, y no un corto bien claro.
Si verificamos que todo está bien pero la placa madre no funciona o lo hace
igual, es que algo se nos ha pasado.

Tensión de PG
Falta lo más importante. Al final de la reparación la medición más importante de
las tensiones es la tensión denominada PG, tensión de control. Todas las
fuentes la tienen y es el cable naranja, o de otro color, que en la placa de la
fuente puede o no estar identificada pero es el cable que sobra a la salida de la
fuente y no responde a ninguna de las tensiones mencionadas anteriormente.
Esta tensión, estando cargada con una lámpara de 12 volts 40 watts, debe dar
5 voltios positivos (cable rojo) con uno de los cables negros de masa. Si la
tensión PG no es igual a 5 volts, o no está presente, hay que seguir sus
conexiones. Seguramente tendremos alguna fuga o bien será responsable
algún transistor pequeño o falsos contactos. Algunas veces hay que cambiar el
CI de control, otras una resistencia fuera de valor, e incluso puede que uno de
los capacitores pequeño en el área primaria hace que trabaje uno solo de los
transistores grandes, haciendo que las tensiones de +12 estuvieran presentes
pero no así las restantes.
Integrados de mayor empleo en la etapa secundaria de las fuentes
Si se desea mayor información sobre tensiones, etc. y características de
trabajo para emplear con el osciloscopio puede encontrar las hojas siguientes
en http://www.semi.com.tw

- Página 95 –
Manual del Curso de Reparación de PC

Este es el principal responsable, normalmente, de la regulación de las


tensiones de salida y el que tiene que ver con la tensión de PG. Se encuentra
en el secundario.

- Página 96 –
Manual del Curso de Reparación de PC

Cara de soldaduras de una fuente AT


Presentamos la cara de las soldaduras con mayor detalle, fíjense como el
primario esta totalmente separado del secundario en cuanto a soldaduras.
Electrónicamente no es así, ya que uno de los bobinados del transformador
más pequeño esta conectado hacia el primario dándole tensiones y corrientes
para permitir el control ante cortos y sobre las tensiones finales secundarias.

- Página 97 –
Manual del Curso de Reparación de PC

Si estas fotos se imprimen sobre transparencias, y montamos una sobre otra al


trasluz, veremos el circuito completo y serán mas fáciles las mediciones
siguiendo los parámetros que deben dar cada una en las mediciones.

- Página 98 –
Manual del Curso de Reparación de PC

Diferencias entre AT/XT y ATX


Entre una fuente XT y una AT no hay diferencias. Puede existir una notable
ampliación del tamaño de su alojamiento, pero la circuiteria sigue siendo la
misma hasta tal punto que en varias ocasiones llegue a desarmar y reparar
fuentes XT colocándoles plaquetas de las AT.
No tengan temor: desarmen, cambien plaquetas, etc... las tensiones son las
mismas y las disposiciones de las salidas de tensiones también, por mas que
cambien los colores de los cables (como en el caso de las Compaq Presarios o
IBM). Los colores no son normas establecidas, sino engaños a los técnicos de
las pequeñas empresas.
Como podrán apreciar esta es una fuente ATX, y no hay diferencias en su
conformación física externa:

Ahora bien, ¿en que se diferencian las circuiteria de las XT/AT con las ATX?
Muy sencillo el primario no cambia para nada, una R más o menos, pero no
significan diferencias sustanciales, ya que si incrementan una R lo hacen por
dos o si colocan otro transistor lo hacen para reforzar las corrientes o hacerlas
más confiables en la conmutación del par de transistores del lado del primario
La diferencia fundamental está en que no hay llave de encendido, ya que se
realiza un encendido por "software" a través de líneas de control.

- Página 99 –
Manual del Curso de Reparación de PC

PERO CUIDADO ESTO ES UNA MENTIRA ENCUBIERTA, RESULTA QUE


EL PRIMARIO ESTA SIEMPRE FUNCIONANDO A LOS 110/220 CON
TODAS SUS CAPACIDADES... PELIGRO... PELIGRO. No hay forma de
solucionar este tema, lo único que se puede hacer es aislar la fuente con un
trafo de 220 / 220 o del valor de las tensiones de línea de sus domicilios.
La placa base es la que, a través de un pulso, le da la orden de encendido
pleno a la fuente y es cuando uno escucha el típico sonido del ventilador, eso
implica que la fuente esta entregando, aun apagada, dos valores de tensión:
Los 3,3 volts a la CPU
Los +5 volts de mantenimiento
Lo cual significa que con la fuente enchufada a la red no se debe tocar la placa
base, ya que ésta recibe aún alimentación. En ciertos casos incluso puede
estar funcionando la CPU y la memoria, denominado modo Sleep o de espera,
por lo que se puede averiar algo si manipulamos el computador así.
No obstante hay que mencionar que si apagamos el computador
completamente, sin activar el modo de espera, sólo ciertas zonas de la placa
base estarán funcionando para realizar el arranque pero sin tener conectado ni
CPU ni memoria. Por si acaso es recomendable desenchufar al fuente.
Un ejemplo de las consecuencias que acarrean las fuentes ATX en los
servicios técnicos es que en muchos casos el computador se arranca sólo al
insertar alguna placa en los slots de expansión, o viceversa, con el
consecuente peligro de avería.
Si en algún caso la fuente no se apaga al pulsar el botón de apagado hay
dejarlo pulsado hasta que se apague (apagado secundario).
Bueno sigamos con las diferencias:
Las fuentes XT/AT solo tiene las tensiones +5 +12 -5 -12 y la tensión de control
PG (+5 con carga en los +5, cable rojo).
La diferencia esta en que las ATX tiene las mismas tensiones además de la de
+3,3 volts, tres cables de color naranja y cambia el color de naranja de los +5
PG (mantiene esta misma tensión) por otro color que en la mayoría de los
casos es de color gris, y además incrementa un cable mas de color
normalmente verde, que es el arranque por soft de la fuente (la placa base la
manda a masa, o sea a uno de los tantos negros que salen de la fuente).

- Página 100 –
Manual del Curso de Reparación de PC

Para ver si la fuentes están bien solo hay que puentear el cable verde con uno
de los negros, previo a cargar la fuente con una lámpara de 12v / 40w sobre el
cable rojo y un negro de la fuente, para luego medir que las tensiones estén
presente
Gracias Rodrigo V. A. Barber.

- Página 101 –
Manual del Curso de Reparación de PC

Capitulo 8- Unidades de Almacenamiento

Las Unidades de almacenamiento son aquellos dispositivos, ya sea internos o


externos, donde se guardan físicamente los archivos de un sistema de
envergadura computo.

Disco Duro

Plato de un Disco Duro


El disco duro almacena casi toda la información que manejamos al trabajar con
una computadora. En él se aloja, por ejemplo, el sistema operativo que permite
arrancar la máquina, los programas, los archivos de texto, imagen...
Un disco duro está formado por varios discos apilados sobre los que se mueve
una pequeña cabeza magnética que graba y lee la información.
Este componente, al contrario que el micro o los módulos de memoria, no se
pincha directamente en la placa, sino que se conecta a ella mediante un cable.
También va conectado a la fuente de alimentación, pues, como cualquier otro
componente, necesita energía para funcionar.
Además, una sola placa puede tener varios discos duros conectados.
Las características principales de un disco duro son:

- Página 102 –
Manual del Curso de Reparación de PC

La capacidad. Se mide en gigabytes (GB). Es el espacio disponible para


almacenar secuencias de 1 byte. La capacidad aumenta constantemente
cientos de MB, decenas de GB, cientos de GB.
La velocidad de giro. Se mide en revoluciones por minuto (rpm). Cuanto más
rápido gire el disco, más rápido podrá acceder a la información la cabeza
lectora. Los discos actuales giran desde las 4.200 a 15.000 rpm, dependiendo
del tipo de computador al que estén destinadas.
La capacidad de transmisión de datos. De poco servirá un disco duro de
gran capacidad si transmite los datos lentamente. Los discos actuales pueden
alcanzar transferencias de datos de más de 100 Mb por segundo.
También existen discos duros externos que permiten almacenar grandes
cantidades de información. Son muy útiles para intercambiar información entre
dos equipos. Normalmente se conectan al PC mediante un conector USB.
Cuando el disco duro está leyendo, se enciende en la carcasa un diodo LED
(de color rojo, verde..). Esto es útil para saber, por ejemplo, si la máquina ha
acabado de realizar una tarea o si aún está procesando datos.

Estructura física

Cabezal de lectura/escritura
Dentro de un disco duro hay varios platos (entre 2 y 4), que son discos (de
aluminio o cristal) concéntricos y que giran todos a la vez. El cabezal
(dispositivo de lectura y escritura) es un conjunto de brazos alineados
verticalmente que se mueven hacia dentro o fuera según convenga, todos a la
vez. En la punta de dichos brazos están las cabezas de lectura/escritura, que
gracias al movimiento del cabezal pueden leer tanto zonas interiores como
exteriores del disco.

- Página 103 –
Manual del Curso de Reparación de PC

Cada plato tiene dos caras, y es necesaria una cabeza de lectura/escritura


para cada cara (no es una cabeza por plato, sino una por cara). Si se mira el
esquema Cilindro-Cabeza-Sector (más abajo), a primera vista se ven 4 brazos,
uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2
cabezas: una para leer la cara superior del plato, y otra para leer la cara
inferior. Por tanto, hay 8 cabezas para leer 4 platos. Las cabezas de
lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3
nanómetros). Si alguna llega a tocarlo, causaría muchos daños en el disco,
debido a lo rápido que giran los platos (uno de 7.200 revoluciones por minuto
se mueve a 120 km/h en el borde).

• Direccionamiento
• Cilindro, Cabeza y Sector

Hay varios conceptos para referirse a zonas del disco:


Plato: Cada uno de los discos que hay dentro del disco duro.
Cara: Cada uno de los dos lados de un plato
Cabeza : Número de cabezal; equivale a dar el número de cara, ya que hay un
cabezal por cara.

- Página 104 –
Manual del Curso de Reparación de PC

Pista: Una circunferencia dentro de una cara; la pista 0 está en el borde


exterior.
Cilindro: Conjunto de varias pistas; son todas las circunferencias que están
alineadas verticalmente (una de cada cara).
Sector: Cada una de las divisiones de una pista. El tamaño del sector es fijo,
siendo el estándar actual 512 bytes. Antiguamente el número de sectores por
pista era fijo, lo cual desaprovechaba el espacio significativamente, ya que en
las pistas exteriores pueden almacenarse más sectores que en las interiores.
Así, apareció la tecnología ZBR (grabación de bits por zonas) que aumenta
el número de sectores en las pistas exteriores, y usa más eficientemente el
disco duro.
El primer sistema de direccionamiento que se usó fue el CHS (cilindro-
cabeza-sector), ya que con estos tres valores se puede situar un dato
cualquiera del disco. Más adelante se creó otro sistema más sencillo: LBA
(direccionamiento lógico de bloques), que consiste en dividir el disco entero
en sectores y asignar a cada uno un único número; éste es el sistema usado
actualmente.

Estructura lógica

Dentro del disco se encuentran:


• el Master Boot Record (en el sector de arranque), que contiene la tabla
de particiones
• las particiones, necesarias para poder colocar los sistemas de ficheros

- Página 105 –
Manual del Curso de Reparación de PC

Funcionamiento mecánico

Piezas de un disco duro


Un disco duro suele tener:
• Platos en donde se graban los datos
• Cabezal de lectura/escritura
• Motor que hace girar los platos
• Electroimán que mueve el cabezal
• circuito electrónico de control, que incluye: interfaz con la computadora,
memoria caché
• Bolsita desecante (gel de sílice) para evitar la humedad
Caja, que ha de proteger de la suciedad (aunque no está al vacío)
Tornillos, a menudo especiales
Historia

- Página 106 –
Manual del Curso de Reparación de PC

Antiguo disco duro de IBM (modelo 62PC, "Piccolo"), de 64.5 MB, fabricado en
1979
El primer disco duro fue el IBM 350, inventado por Reynold Johnson y
presentado en 1955 junto con el computador IBM 305. Este disco tenía 50
platos de 61 cm de diámetro cada uno, con una capacidad total de 5 millones
de caracteres. Se usaba un solo cabezal para acceder a todos los platos, por lo
que el tiempo de acceso medio era muy lento.
Características de un disco duro

Disco duro Maxtor de 1GB abierto


Las características que se deben tener en cuenta en un disco duro son:
Tiempo medio de acceso
Tiempo medio que tarda en situarse la aguja en el cilindro deseado; es la suma
de la Latencia y el Tiempo medio de Búsqueda.
Tiempo medio de Búsqueda (seek)
Es la mitad del tiempo que tarda la aguja en ir de la periferia al centro del disco.
Latencia
Tiempo que tarda el disco en girar media vuelta, que equivale al promedio del
tiempo de acceso (tiempo medio de acceso). Una vez que la aguja del disco
duro se sitúa en el cilindro el disco debe girar hasta que el dato se sitúe bajo la
cabeza; el tiempo en que esto ocurre es, en promedio, el tiempo que tarda el
disco en dar medio giro; por este motivo la latencia es diferente a la velocidad
de giro, pero es aproximadamente proporcional a ésta.
- Página 107 –
Manual del Curso de Reparación de PC

Tiempo de acceso máximo


Tiempo máximo que tarda la aguja en situarse en el cilindro deseado. Es el
doble del Tiempo medio de acceso.
Tiempo pista a pista
Tiempo de saltar de la pista actual a la adyacente.
Tasa de transferencia
Velocidad a la que puede transferir la información al computador. Puede ser
velocidad sostenida o de pico.
Caché de pista
Es una memoria de estado sólido, tipo RAM, dentro del disco duro de estado
sólido. Los discos duros de estado sólido utilizan cierto tipo de memorias
construidas con semiconductores para almacenar la información. El uso de
esta clase de discos generalmente se limita a las supercomputadoras, por su
elevado precio.
Interfaz
Medio de comunicación entre el disco duro y el computador. Puede ser IDE,
SCSI, SATA, USB o Firewire.
Velocidad de rotación
Número de revoluciones por minuto del plato. Ejemplo: 7200rpm.

Unidades externas
Los discos duros tienen una gran capacidad, pero al estar alojados
normalmente dentro de la carcasa, no son transportables. Para intercambiar
información con otros equipos (si no están conectados en red) necesitamos
utilizar unidades de disco, como los populares disquetes, los CD-ROM o DVD-
ROM, los discos magneto-ópticos, etc.
Unidad de 3,5 pulgadas

- Página 108 –
Manual del Curso de Reparación de PC

Disquete de 5 ¼ y de 3/12 Pulgadas


La unidad de 3,5 pulgadas permite intercambiar información utilizando
disquetes magnéticos de 1,44 Mb de capacidad. Aunque la capacidad de
soporte es muy limitada si tenemos en cuenta las necesidades de las
aplicaciones actuales se siguen utilizando para intercambiar archivos
pequeños, pues pueden borrarse y reescribirse cuantas veces se desee de una
manera muy cómoda, aunque la transferencia de información es bastante lenta
si la comparamos con otros soportes, como el disco duro o un CD-ROM.
Para usar el disquete basta con introducirlo en la ranura de la disquetera. Para
expulsarlo se pulsa el botón situado junto a la ranura, o bien se ejecuta alguna
acción en el entorno gráfico con el que trabajamos (por ejemplo, se arrastra el
símbolo del disquete hasta un icono representado por una papelera).
La unidad de disco se alimenta mediante cables a partir de la fuente de
alimentación del sistema. Y también va conectada mediante un cable a la placa
base. Un diodo LED se ilumina junto a la ranura cuando la unidad está leyendo
el disco, como ocurre en el caso del disco duro.
En los disquetes solo se puede escribir cuando la pestaña esta cerrada.

ATENCION: Los Disquetes son muy inseguros e inestables,


por lo tanto están en extinción.
Unidad de CD-ROM
La unidad de CD-ROM permite utilizar discos ópticos de una mayor capacidad
que los disquetes de 3,5 pulgadas hasta 700 Mb. Esta es su principal ventaja,
pues los CD-ROM se han convertido en el estándar para distribuir sistemas
operativos, aplicaciones, etc.

- Página 109 –
Manual del Curso de Reparación de PC

El uso de estas unidades está muy extendido, ya que también permiten leer los
discos compactos de audio.
Para introducir un disco, en la mayoría de las unidades hay que pulsar un
botón para que salga una especie de bandeja donde se deposita el CD-ROM.
Pulsando nuevamente el botón, la bandeja se introduce.
En estas unidades, además, existe una toma para auriculares, y también
pueder estar presentes los controles de navegación y de volumen típicos de los
equipos de audio para saltar de una pista a otra, por ejemplo.
Una característica básica de las unidades de CD-ROM es la velocidad de
lectura que normalmente se expresa como un número seguido de una «x»
(40x, 52x,..). Este número indica la velocidad de lectura en múltiplos de 128
Kb/s. Así, una unidad de 52x lee información de 128 Kb/s × 52 = 6,656 Kb/s, es
decir, a 6,5 Mb/s.

Un CD-ROM estándar puede albergar 650 o 700 MiB de datos. El CD-ROM es


popular para la distribución de software, especialmente aplicaciones
multimedia, y grandes bases de datos. Un CD pesa menos de 30 gramos.
Para poner la memoria del CD-ROM en contexto, una novela promedio
contiene 60,000 palabras. Si se asume que una palabra promedio tiene 10
letras —de hecho es considerablemente menos de 10 de letras— y cada letra
ocupa un byte, una novela por lo tanto ocuparía 600,000 bytes (600 kb). Un CD
puede por lo tanto contener más de 1000 novelas. Si cada novela ocupa por lo
menos un centímetro en un estante, entonces un CD puede contener el
equivalente de más de 10 metros en el estante. Sin embargo, los datos
textuales pueden ser comprimidos diez veces más, usando algoritmos
compresores, por lo tanto un CD-ROM puede almacenar el equivalente a más
de 100 metros de estante.

Capacidades de los discos compactos

Capacidad máxima de Capacidad máxima de


Tiempo
Tipo Sectores datos audio

(MB) (MiB) (MB) (MiB) (min)

- Página 110 –
Manual del Curso de Reparación de PC

8 cm 94,500 193.536 ≈ 184.6 222.264 ≈ 212.0 21

283,500 580.608 ≈ 553.7 666.792 ≈ 635.9 63

650
333,000 681.984 ≈ 650.3 783.216 ≈ 746.9 74
MB

700
360,000 737.280 ≈ 703.1 846.720 ≈ 807.4 80
MB

405,000 829.440 ≈ 791.0 952.560 ≈ 908.4 90

445,500 912.384 ≈ 870.1 1,047.816 ≈ 999.3 99


Nota: Estos valores son exactos.

Lectores de CD-ROM

Un lector de CD-ROM
Los CD-ROM son leídos por una lectora de CD-ROM y escritos por grabadoras
de CD (a menudo llamadas "quemadoras"). Los lectores CD-ROM ——ahora
casi universalmente usados en las computadoras—— puede ser conectado a
la computadora por la interfase IDE (ATA), por una interfaz SCSI o una interfaz
propietaria, como la interfaz de Panasonic. La mayoría de los lectores de CD-
ROM pueden también leer CD de audio (CDA) y CD de vídeo (VCD) con el
software apropiado.
Los datos binarios se almacenan en forma de pozos y llanos, de tal forma que
al incidir el haz de luz del láser, el ángulo de reflexión es distinto en función de
si se trata de un pozo o de un llano.
Los pozos tienen una anchura de 0,6 micras, mientras que su profundidad
(respecto a los llanos) se reduce a 0,12 micras. La longitud de pozos y llanos
está entre las 0,9 y las 3,3 micras. Entre una revolución de la espiral y las

- Página 111 –
Manual del Curso de Reparación de PC

adyacentes hay una distancia aproximada de 1,6 micras (lo que hace cerca de
45.000 pistas por centímetro).
Es creencia muy común el pensar que un pozo corresponde a un valor binario
y un llano al otro valor. Sin embargo, esto no es así, sino que los valores
binarios son detectados por las transiciones de pozo a llano, y viceversa: una
transición determina un 1 binario, mientras que la longitud de un pozo o un
llano indica el número consecutivo de 0 binarios.

Conexionado de una unidad Óptica

Unidad de CD-RW (grabadora)


Las unidades de CD-ROM son sólo de lectura. Es decir, pueden leer la
información en un disco, pero no pueden escribir datos en él.
Una grabadora (CD-RW) puede grabar y re-grabar discos compactos. Las
características básicas de estas unidades son la velocidad de lectura, de
grabación y de regrabación. Los discos que son para grabaciones de una sola
vez, son normalmente menores que en los discos de re-grabación. Las
grabadoras que trabajan a 8X, 16X, 20X, 24X, etc., permiten grabar los 650,
700 Mb o más tamaño (hasta 900 Mb) de un disco compacto en unos pocos
minutos. Es habitual observar tres datos de velocidad, según la expresión ax,
bx, cx (a: velocidad de lectura; b: velocidad de grabación; c: velocidad de
regrabación).

Unidad de DVD-ROM
Las unidades de DVD-ROM son aparentemente iguales que las de CD-ROM,
pueden leer tanto discos DVD-ROM como CD-ROM. La diferencia de las
unidades lectoras de CD-ROM en que el soporte empleado tiene hasta 17 Gb
- Página 112 –
Manual del Curso de Reparación de PC

de capacidad, y en la velocidad de lectura de los datos. La velocidad se


expresa con otro número de la «x»: 12x, 16x... Pero ahora la x hace referencia
a 1,32 Mb/s. Así: 16x = 21,12 Mb/s.
Las conexiones de una unidad de DVD-ROM son similares a las de la unidad
de CD-ROM: placa base, fuente de alimentación y tarjeta de sonido. La
diferencia más destacable es que las unidades lectoras de discos DVD-ROM
también pueden disponer de una salida de audio digital. Gracias a esta
conexión es posible leer películas en formato DVD y escuchar seis canales de
audio separados si disponemos de una buena tarjeta de sonido y un juego de
altavoces apropiado (subwoofer más cinco satélites).

El disco compacto (conocido popularmente como CD, del inglés compact disc)
es un soporte digital óptico utilizado para almacenar cualquier tipo de
información (audio, video, documentos,...). Este tipo de Cd sirve para tanto
grabar como para después borrar esa información. Fue desarrollado
conjuntamente en 1980 por las empresas Sony y Philips, y comenzó a
comercializarse en 1982. Hoy en día tecnologías como el DVD pueden
desplazar o minimizar esta forma de almacenamiento, aunque su uso sigue
vigente.
A pesar de que cada fabricante utiliza pequeñas variaciones en la composición
de los materiales empleados en la fabricación de los discos, todos siguen un
mismo patrón: la información es almacenada en un sustrato de poli-carbonato
plástico, al que se le añade una capa refractante de aluminio que reflejará la
luz del láser (comúnmente en el rango del espectro infrarrojo, y por tanto no
apreciable visualmente); se le añade una capa protectora que lo cubre y,
opcionalmente, una etiqueta en la parte superior.

Unidad de DVD-RW
Puede leer y grabar imágenes, sonidos y datos en discos de varios giga-bytes
de capacidad.

Unidades magneto-ópticas

- Página 113 –
Manual del Curso de Reparación de PC

Estas unidades son menos usadas en entornos domésticos que las unidades
de CD-ROM, pero tienen varias ventajas:
Por una parte; admiten discos de gran capacidad: 230 Mb, 640 Mb o 1,3 Gb.
Además; son discos que se pueden re-escribir, por lo que es interesante
emplearlos, por ejemplo, para realizar copias de seguridad.
Un DVD+RW es un disco óptico de re-grabación con una capacidad de
almacenamiento equivalente a un DVD+R, típicamente 4,7 GB (interpretado
como ≈ 4,7 · 109, realmente 2295104 sectores de 2048 bytes cada uno). El
formato fue desarrollado por una coalición de corporaciones, conocida como la
DVD+RW Alliance, a finales de 1997, aunque el estándar fue abandonado
hasta 2001, cuando fue profundamente revisado y la capacidad creció de 2,8
GB a 4,7 GB. El reconocimiento por desarrollar el estándar es a menudo
atribuido unilateralmente a Philips, uno de los miembros de la DVD+RW
Alliance. Aunque DVD+RW no ha sido aún aprobado por el DVD Forum, el
formato es demasiado popular para que sea ignorado por los fabricantes, y por
tanto, los discos DVD+RW se pueden reproducir en 3 de cada 4 reproductores
de DVD de hoy en día.
Este formato de DVD, graba los datos en el recubrimiento de cambio de fase,
de un surco espiral ondulado inscrito, ya de fábrica, en el sustrato inferior del
disco virgen.
El surco del DVD+RW ondula a mayor frecuencia que el DVD-RW, y permite
mantener constante la velocidad de rotación del disco o la velocidad lineal a
medida que el tramo leído pasa por la cabeza lectora. La mayor ventaja
respecto al DVD-RW es la rapidez a la hora de grabarlos, ya que se evitan los
2-4 minutos de formateo previo, y el cierre de disco posterior que puede llegar
a tardar más de 30 minutos.
Además es compatible con la tecnología los sless linking que permite parar la
grabación en cualquier momento, manteniendo la compatibilidad con DVD-
Video.
Otra ventaja de esta tecnología es la posibilidad que da el sistema Mount
Rainier, para usar el disco, como un disquete de 4,3 GB. Para ello se necesita
un controlador en el computador.

- Página 114 –
Manual del Curso de Reparación de PC

Otros dispositivos de almacenamiento


Otros dispositivos de almacenamiento son las memorias flash o los dispositivos
de almacenamiento magnético de gran capacidad.
La memoria flash. Es un tipo de memoria que se comercializa para el uso de
aparatos portátiles, como cámaras digitales o agendas electrónicas. El aparato
correspondiente o bien un lector de tarjetas, se conecta a la computadora a
través del puerto USB o FIRE-Wire.
Los discos duros o memorias portátiles. Son memorias externas que se
conectan directamente al puerto USB.
Discos y cintas magnéticas de gran capacidad. Son unidades especiales
que se utilizan para realizar copias de seguridad o respaldo en empresas y
centros de investigación. Su capacidad de almacenamiento puede ser de
cientos de gigas bytes.
Conexionado de las Unidades Internas
-Serial ATA o S-ATA es una interfaz para discos que sustituye a la tradicional
Parallel ATA o P-ATA (estándar que también se conoce como IDE o ATA). El
S-ATA proporciona mayores velocidades, mejor aprovechamiento cuando hay
varios discos, mayor longitud del cable de transmisión de datos y capacidad
para conectar discos en caliente (con la computadora encendida).
Mientras que la especificación SATA1 llega como máximo a unos 150 MB/s,
SATA2 incrementa el límite a 300 MB/s. Actualmente es una interfaz
ampliamente aceptada y estandarizada en las placas base de PC.
Cable y conector

El cable se compone de dos pares apantallados a los que se suministra una


impedancia de 100 Ohmios

Pin Nombre Descripción

1 GND Tierra

- Página 115 –
Manual del Curso de Reparación de PC

2 A+ Transmisión +

3 A- Transmisión -

4 GND Tierras

5 B- Recepción -

6 B+ Recepción +

7 GND Tierra

SATA Externo
Fue estandarizado a mediados de 2004, con definiciones específicas de
cables, conectores, y requisitos de la señal para unidades eSATA externas.
eSATA se caracteriza por:
Velocidad de SATA en los discos externos (se han medido 115 MB/s con RAID
externos)
Sin conversión de protocolos de PATA/SATA a USB/Firewire, todas las
características del disco están disponibles para el anfitrión.
La longitud de cable se restringe a 2 metros; USB y Firewire permiten mayores
distancias.
Se aumentó el voltaje de transmisión mínimo y máximo a 500mV - 600mV (de
400mV - 600mV)
Voltaje recibido disminuido a 240mV - 600mV (de 325 mV - 600 mV)
Actualmente, la mayoría de las placas bases no tienen un conector para
eSATA, pero es posible usar adaptadores de bus o tarjetas PC-Card y
CardBus.
La interfaz eSATAII es la especificación para SATAII externo. eSATAII permite
disfrutar de las funciones SATAII ofreciendo velocidades de transferencia
superiores a 3.0Gb/s.
Alternativas
También en SCSIW se está preparando un sistema en serie, que además es
compatible con SATA, esto es, se podrán conectar discos SATA en una
controladora SAS (Serial Attached SCSI). Estos conectores de 7 contactos
también permiten una mayor circulación de aire ; disminuyendo así la
temperatura dentro del gabinete.

- Página 116 –
Manual del Curso de Reparación de PC

El IDE
El sistema IDE (Integrated Device Electronics, "Dispositivo con electrónica
integrada") o ATA (Advanced Technology Attachment,) controla los dispositivos
de almacenamiento masivo de datos, como los discos duros y ATAPI
(Advanced Technology Attachment Packet Interface) y además añade
dispositivos como las unidades CD-ROM.

En el sistema IDE el controlador del dispositivo se encuentra integrado en la


electrónica del dispositivo. Las diversas versiones de sistemas ATA son:
Paralell ATA (algunos están utilizando la sigla PATA)
ATA-1
ATA-2, soporta transferencias rápidas en bloque y multiword DMA.
ATA-3, es el ATA2 revisado.
ATA-4, conocido como Ultra-DMA o ATA-33 que soporta transferencias en 33
MBps.
ATA-5 o Ultra ATA/66, originalmente propuesta por Quantum para
transferencias en 66 MBps.
ATA-6 o Ultra ATA/100, soportes para velocidades de 100MBps.
ATA-7 o Ultra ATA/133, soportes para velocidades de 133MBps.
Serial ATA, remodelación de ATA con nuevos conectores (alimentación y
datos), cables, tensión de alimentación y conocida por algunos como SATA.
Las controladoras IDE casi siempre están incluidas en la placa base,
normalmente dos conectores para dos dispositivos cada uno. De los dos
discos duros, uno tiene que estar como esclavo y el otro como maestro
para que la controladora sepa a/de qué dispositivo mandar/recibir los datos. La
configuración se realiza mediante jumpers. Habitualmente, un disco duro puede
estar configurado de una de estas tres formas:

- Página 117 –
Manual del Curso de Reparación de PC

Como maestro ('master'). Si es el único dispositivo en el cable, debe tener esta


configuración, aunque a veces también funciona si está como esclavo. Si hay
otro dispositivo, el otro debe estar como esclavo.
Como esclavo ('slave'). Debe haber otro dispositivo que sea maestro.
Selección por cable (cable select). El dispositivo será maestro o esclavo en
función de su posición en el cable. Si hay otro dispositivo, también debe estar
configurado como cable select. Si el dispositivo es el único en el cable, debe
estar situado en la posición de maestro. Para distinguir el conector en el que se
conectará el primer bus Ide (Ide 1) se utilizan colores distintos.
Este diseño (dos dispositivos a un bus) tiene el inconveniente de que mientras
se accede a un dispositivo el otro dispositivo del mismo conector IDE no se
puede usar. En algunos chipset (Intel FX triton) no se podría usar siquiera el
otro IDE a la vez.
Este inconveniente está resuelto en S-ATA y en SCSI, que pueden usar dos
dispositivos por canal.
Los discos IDE están mucho más extendidos que los SCSI debido a su precio
mucho más bajo. El rendimiento de IDE es menor que SCSI pero se están
reduciendo las diferencias. El UDMA hace la función del Bus Mastering en
SCSI con lo que se reduce la carga de la CPU y aumenta la velocidad y el
Serial ATA permite que cada disco duro trabaje sin interferir a los demás.
De todos modos aunque SCSI es superior se empieza a considerar la
alternativa S-ATA para sistemas informáticos de gama alta ya que su
rendimiento no es mucho menor y su diferencia de precio sí resulta más
ventajosa.

EL SCSI
SCSI, acrónimo inglés Small Computer System Interface, es un interfaz
estándar para la transferencia de datos entre distintos dispositivos del bus de la
computadora.
Para montar un dispositivo SCSI en un computador es necesario que tanto el
dispositivo como la placa madre dispongan de un controlador SCSI. Es habitual
que el dispositivo venga con un controlador de este tipo, pero no siempre es
así, sobre todo en los primeros dispositivos. Se utiliza habitualmente en los
- Página 118 –
Manual del Curso de Reparación de PC

discos duros y los dispositivos de almacenamiento sobre cintas, pero también


interconecta una amplia gama de dispositivos, incluyendo scanners, unidades
CD-ROM, grabadoras de CD, y unidades DVD. De hecho, el estándar SCSI
entero promueve la independencia de dispositivos, lo que significa que
teóricamente cualquier cosa puede ser hecha SCSI (incluso existen impresoras
que utilizan SCSI).
En el pasado, era muy popular entre todas las clases de computadores.
Actualmente sigue siendo popular en lugares de trabajo de alto rendimiento,
servidores, y periféricos de gama alta. Los computadores de sobremesa y los
portátiles utilizan habitualmente las interfaces más lentas de IDE para los
discos duros y USB (el USB emplea un conjunto de comandos SCSI para
algunas operaciones) así como Firewire a causa de la diferencia de coste entre
estos dispositivos.
Se está preparando un sistema SCSI en serie, denominado Serial Attached
SCSI o SAS, que además es compatible con SATA, dado que utiliza el mismo
conector, por lo tanto se podrán conectar unidades SATA en una controladora
SAS.

Tipos de SCSI

SCSI 1 Bus de 8 bits. Velocidad de transmisión de datos a 5 Mbps. Su conector


genérico es de 50 pins (conector Centronics) y baja densidad. La longitud
máxima del cable es de seis metros. Permite hasta 8 dispositivos (incluida la
controladora), identificados por las direcciones 0 a 7.
SCSI 2 Fast: Con un bus de 8, dobla la velocidad de transmisión (de 5 Mbps a
10 Mbps). Su conector genérico es de 50 pins y alta densidad. La longitud
máxima del cable es de tres metros. Permite hasta 8 dispositivos (incluida la
controladora), identificados por las direcciones 0 a 7.
Wide: Dobla el bus (pasa de 8 a 16 bits). Su conector genérico es de 68 pins y
alta densidad. La longitud máxima del cable es de tres metros. Permite hasta
16 dispositivos (incluida la controladora), identificados por las direcciones 0 a
15.
SCSI 3 1.- SPI: SCSI 3 (Parallel Interface o Ultra SCSI).
1.1.-Ultra: Dispositivos de 8 bits con velocidad de ejecución de 20 Mb/s.
- Página 119 –
Manual del Curso de Reparación de PC

Su conector genérico es de 50 pins y alta densidad.


La longitud máxima del cable es de tres metros. Admite un máximo de 8
dispositivos. También se conoce como Fast 20 o SCSI-3.
1.2.-Ultra Wide: Dispositivos de 16 bits con velocidad de ejecución de 40 Mb/s.
Su conector genérico es de 68 pins y alta densidad. La longitud máxima del
cable es de 1,5 metros. Admite un máximo de 15 dispositivos. También se
conoce como Fast SCSI-3.
1.3.-Ultra 2: Dispositivos de 16 bits con velocidad de ejecución de 80 Mb/s.
Su conector genérico es de 68 pines y alta densidad. La longitud máxima del
cable es de doce metros. Admite un máximo de 15 dispositivos.
2.-Firewire (IEEE 1394).
3.- SSA: Serial Storage Arquitecture. De IBM. Usa full-duplex con canales
separados.
4.- FC-AL: Fibre Channel Arbitrated Loop. Usa cables de fibra óptica (hasta 10
km) o coaxial (hasta 24 m). Con una velocidad máxima de 100Mbps.
Características de SCSI Utilizan CCS (Command Common Set). Es un
conjunto de comandos para acceder a los dispositivos que los hacen más o
menos compatibles.
SCSI 1, SCSI2 y SCSI 3.1(SPI) conectan los dispositivos en paralelo. SCSI
3.2(Firewire), SCSI 3.3(SSA) y SCSI 3.4(FC-AL) conectan los dispositivos en
serie.
Hacen falta terminadores (jumpers, por BIOS, físicos) en el inicio y fin de la
cadena.
Número máximo de dispositivos: La controladora cuenta como un dispositivo
(identificador 7, 15) BUS Dispositivos Identificadores Conector 8 bits 7 Del 0 al
6 50 pins 16 bits 15 Del 0 al 14 68 pins.

EL RAID
En informática, el acrónimo RAID (originalmente del inglés Redundant Array
of Inexpensive Disks, ‘conjunto redundante de discos baratos’, en la
actualidad también de Redundant Array of Independent Disks, ‘conjunto
redundante de discos independientes’) hace referencia a un sistema de
almacenamiento informático que usa múltiples discos duros entre los que
distribuye o replica los datos. Dependiendo de su configuración (a la que suele
- Página 120 –
Manual del Curso de Reparación de PC

llamarse «nivel»), los beneficios de un RAID respecto a un único disco son uno
o varios de los siguientes: mayor integridad, mejor tolerancia a fallos, más
throughput (rendimiento) y más capacidad. En sus implementaciones
originales, su ventaja clave era la habilidad de combinar varios dispositivos de
bajo coste y tecnología más antigua en un conjunto que ofrecía mayor
capacidad, fiabilidad, velocidad o una combinación de éstas que un solo
dispositivo de última generación y coste más alto.
En el nivel más simple, RAID combina múltiples discos en una sola unidad
lógica. Entonces en lugar de ver diferentes discos, el sistema operativo solo ve
uno. Con el descenso en precios de los discos duros y la amplia variedad de
opciones RAID en las placas base, los RAIDS se encuentran también como
opción en los computadores personales más avanzados. Esto es
especialmente frecuente en los computadores dedicados a tareas intensivas de
almacenamiento, como edición de audio y vídeo.
A Norman Ouchi de IBM le fue concedida en 1978 la Patente USPTO nº
4,092,732, titulada «Sistema para recuperar datos almacenados en una unidad
de memoria averiada» (System for recovering data stored in failed memory
unit), cuyas demandas describen los que más tarde sería denominado escritura
totalmente dividida (full striping). Esta patente de 1978 también menciona la
copia espejo (mirroring o duplexing), que más tarde sería denominada RAID 1,
y la protección con cálculo de paridad dedicado, que más tarde sería
denominada RAID 4, que eran ya arte previo en aquella época.
La tecnología RAID fue definida por primera vez en 1987 por un grupo de
informáticos de la Universidad de California, Berkeley. Este grupo estudió la
posibilidad de usar dos o más discos que aparecieran como un único
dispositivo para el sistema.
En 1988, los niveles RAID 1 a 5 fueron definidos formalmente por David A.
Patterson, Garth A. Gibson y Randy H. Katz en el ensayo «Un Caso para
Conjuntos de Discos Redundantes Económicos (RAID)» —A Case for
Redundant Arrays of Inexpensive Disks (RAID)—, publicado en la Conferencia
SIGMOD de 1988 (desde la pág. 109 a la 116). El término «RAID» se usó por
vez primera en este ensayo, que dio origen a toda la industria de los conjuntos
de discos.

- Página 121 –
Manual del Curso de Reparación de PC

Niveles RAID estándar


Los niveles RAID más comúnmente usados son:
RAID 0: Conjunto dividido
RAID 1: Conjunto en espejo
RAID 5: Conjunto dividido con paridad distribuida
RAID 0

Diagrama de una configuración RAID 0


Un RAID 0 (también llamado conjunto dividido o volumen dividido)
distribuye los datos equitativamente entre dos o más discos sin información de
paridad o redundancia, es decir, no ofrece tolerancia al fallo (si ocurriese
alguno, la información de los discos se perdería y debería restaurarse desde
una copia de seguridad). Es importante señalar que el RAID 0 no era uno de
los niveles RAID originales y que no es redundante. El RAID 0 se usa
normalmente para incrementar el rendimiento, aunque también puede utilizarse
como forma de crear un pequeño número de grandes discos virtuales a partir
de un gran número de pequeños discos físicos. Un RAID 0 puede ser creado
con discos de diferentes tamaños, pero el espacio de almacenamiento añadido
al conjunto estará limitado al tamaño del disco más pequeño (por ejemplo, si un
disco de 120 GB se divide con uno de 100 GB, el tamaño del conjunto
resultante será 200 GB). Una buena implementación de un RAID 0 dividirá las
operaciones de lectura y escritura en bloques de igual tamaño y los distribuirá
equitativamente entre los dos discos. También es posible crear un RAID 0 con
más de un disco, si bien la fiabilidad del conjunto será igual a la fiabilidad

- Página 122 –
Manual del Curso de Reparación de PC

media de cada disco entre el número de discos del conjunto; es decir, la


fiabilidad total —medida como MTTF o MTBF— es (aproximadamente)
inversamente proporcional al número de discos del conjunto. Esto se debe a
que el sistema de ficheros se distribuye entre todos los discos sin redundancia,
por lo que cuando uno de ellos falla se pierde una parte muy importante de los
datos.
Con un RAID 0, si todos los sectores accedidos están en el mismo disco,
entonces el tiempo de búsqueda será el de dicho disco. Si los sectores a
acceder están distribuidos equitativamente entre los discos, entonces el tiempo
de búsqueda aparente estará entre el más rápido y el más lento de los discos
del conjunto, pues todos los discos necesitan acceder a su parte de los datos
antes de que la operación pueda completarse. Esto podría llevar a tiempos de
búsqueda cercanos al peor escenario para un único disco, salvo si los discos
giran sincronizadamente, lo que daría tiempos de búsqueda sólo ligeramente
superiores al de un único disco. La velocidad de transferencia del conjunto será
la suma de la de todos los discos, limitada sólo por la velocidad de la
controladora RAID.
El RAID 0 es útil para configuraciones tales como servidores NFS de solo
lectura en las que montar muchos discos es un proceso costoso en tiempo y la
redundancia es irrelevante. Otro uso es cuando el número de discos está
limitado por el sistema operativo: por ejemplo, en Microsoft Windows el número
de unidades lógicas (letras) está limitado a 24, por lo que el RAID 0 es una
forma de usar más discos (en Windows 2000 Professional y posteriores es
posible montar particiones en directorios, de forma parecida a Unix, eliminando
así la necesidad de asignar una letra a cada unidad). El RAID 0 es también una
opción popular para sistemas destinados a juegos en los que se desea un buen
rendimiento y la integridad no es muy importante, si bien el coste es una
preocupación para la mayoría de los usuarios.
JBOD

- Página 123 –
Manual del Curso de Reparación de PC

Diagrama de una configuración JBOD


Aunque la concatenación de discos (también llamada JBOD, de Just a Bunch
Of Drives, ‘Sólo un Montón de Discos’) no es uno de los niveles RAID
numerados, sí es un método popular de combinar múltiples discos duros físicos
en un solo disco virtual. Como su nombre indica, los discos son meramente
concatenados entre sí, de forma que se comporten como un único disco.
En este sentido, la concatenación es como el proceso contrario al particionado:
mientras éste toma un disco físico y crea dos o más unidades lógicas, JBOD
usa dos o más discos físicos para crear una unidad lógica.
Al consistir en un conjunto de discos independientes (sin redundancia), puede
ser visto como un primo lejano del RAID. JBOD es usado a veces para
combinar varias unidades pequeñas (obsoletas) en una unidad mayor con un
tamaño útil.
JBOD es parecido al ampliamente usado gestor de volúmenes lógicos LVM y
LSM en los sistemas Unix. JBOD es útil para sistemas que no soportan
LVM/LSM (como Microsoft Windows, si bien Windows 2003 Server, Windows
XP Pro y Windows 2000 soportan JBOD vía software, llamado spanning de
discos dinámicos). La diferencia entre JBOD y LVM/LSM es que la traducción
de la dirección lógica del dispositivo concatenado a la dirección física del disco
es realizada por el hardware RAID en el primer caso y por el núcleo en el
segundo.
Una ventaja de JBOD sobre RAID 0 es que, en caso de fallo de un disco, en
RAID 0 suele producirse la pérdida de todos los datos del conjunto, mientras en
JBOD sólo se pierden los datos del disco afectado, conservándose los de los
restantes discos. Sin embargo, JBOD no supone ninguna mejora de
rendimiento.

- Página 124 –
Manual del Curso de Reparación de PC

RAID 1

Diagrama de una configuración RAID 1


Un RAID 1 crea una copia exacta (o espejo) de un conjunto de datos en dos o
más discos (array). Esto resulta útil cuando el rendimiento en lectura es más
importante que la capacidad y también desde el punto de vista de la seguridad,
pues un RAID 0 por ejemplo no es tolerante al fallo de uno de los discos,
mientras que un RAID 1 sí, al disponer de la misma información en cada disco.
Un conjunto RAID 1 es tan grande como el más pequeño de sus discos. Un
RAID 1 clásico consiste en dos discos en espejo, lo que incrementa
exponencialmente la fiabilidad respecto a un solo disco; es decir, la
probabilidad de fallo del conjunto es igual al producto de las probabilidades de
fallo de cada uno de los discos (pues para que el conjunto falle es necesario
que lo hagan todos sus discos).
Adicionalmente, dado que todos los datos están en dos o más discos, con
hardware habitualmente independiente, el rendimiento de lectura se incrementa
aproximadamente como múltiplo linear del número del copias; es decir, un
RAID 1 puede estar leyendo simultáneamente dos datos diferentes en dos
discos diferentes, por lo que su rendimiento se duplica. Para maximizar los
beneficios sobre el rendimiento del RAID 1 se recomienda el uso de
controladoras de disco independientes, una para cada disco (práctica que
algunos denominan splitting o duplexing).
Como en el RAID 0, el tiempo medio de lectura se reduce, ya que los sectores
a buscar pueden dividirse entre los discos, bajando el tiempo de búsqueda y

- Página 125 –
Manual del Curso de Reparación de PC

subiendo la tasa de transferencia, con el único límite de la velocidad soportada


por la controladora RAID. Sin embargo, muchas tarjetas RAID 1 IDE antiguas
leen sólo de un disco de la pareja, por lo que su rendimiento es igual al de un
único disco. Algunas implementaciones RAID 1 antiguas también leen de
ambos discos simultáneamente y comparan los datos para detectar errores. La
detección y corrección de errores en los discos duros modernos hacen esta
práctica poco útil.
Al escribir, el conjunto se comporta como un único disco, dado que los datos
deben ser escritos en todos los discos del RAID 1. Por tanto, el rendimiento no
mejora.
El RAID 1 es un sistema apropiado en entornos donde la disponibilidad es
crítica 24 horas al día. Aparte de los discos en espejo que crean el array en
RAID 1 podemos marcar discos adicionales como reserva. Éstos se pueden
definir como hot spare si queremos que estén en funcionamiento o standby hot
spare, si queremos que estén en modo de espera. En el momento que alguno
de los discos del espejo sufra algún fallo, uno de los discos de reserva entra a
formar parte del array de discos espejo (entra instantáneamente si es un disco
hot spare o tarda unos instantes si tiene que arrancar al ser un disco standby
hot spare), duplicándose la información en él. Ésto requiere que la aplicación
de gestión del conjunto soporte la recuperación de los datos del disco en el
momento de la división, procedimiento denominado recomposición (rebuilding).
Éste es menos crítico que la presencia de una característica de snapshot en
algunos sistemas de ficheros, en la que se reserva algún espacio para los
cambios, presentando una vista estática en un punto temporal dado del
sistema de ficheros. Alternativamente, un conjunto de discos puede ser
almacenado de forma parecida a como se hace con las tradicionales cintas.
RAID 2
Un RAID 2 divide los datos a nivel de bits en lugar de a nivel de bloques y usa
un código de Hamming para la corrección de errores. Los discos son
sincronizados por la controladora para funcionar al unísono. Éste es el único
nivel RAID original que actualmente no se usa. Permite tasas de trasferencias
extremadamente altas.

- Página 126 –
Manual del Curso de Reparación de PC

Teóricamente, un RAID 2 necesitaría 39 discos en un sistema informático


moderno: 32 se usarían para almacenar los bits individuales que forman cada
palabra y 7 se usarían para la corrección de errores.
RAID 3

Diagrama de una configuración RAID 3. Cada número representa un byte de


datos; cada columna, un disco.
Un RAID 3 usa división a nivel de bytes con un disco de paridad dedicado. El
RAID 3 se usa rara vez en la práctica. Uno de sus efectos secundarios es que
normalmente no puede atender varias peticiones simultáneas, debido a que por
definición cualquier simple bloque de datos se dividirá por todos los miembros
del conjunto, residiendo la misma dirección dentro de cada uno de ellos. Así,
cualquier operación de lectura o escritura exige activar todos los discos del
conjunto.
En el ejemplo del gráfico, una petición del bloque «A» formado por los bytes A1
a A9 requeriría que los tres discos de datos buscaran el comienzo (A1) y
devolvieran su contenido. Una petición simultánea del bloque «B» tendría que
esperar a que la anterior concluyese.

RAID 4

Diagrama de una configuración RAID 4.


Cada número representa un bloque de datos; cada columna, un disco.

- Página 127 –
Manual del Curso de Reparación de PC

Un RAID 4 usa división a nivel de bloques con un disco de paridad dedicado. El


RAID 4 es parecido al RAID 3 excepto porque divide a nivel de bloques en
lugar de a nivel de bytes. Esto permite que cada miembro del conjunto funcione
independientemente cuando se solicita un único bloque. Si la controladora de
disco lo permite, un conjunto RAID 4 puede servir varias peticiones de lectura
simultáneamente. En principio también sería posible servir varias peticiones de
escritura simultáneamente, pero al estar toda la información de paridad en un
solo disco, éste se convertiría en el cuello de botella del conjunto.
En el gráfico de ejemplo anterior, un petición del bloque «A1» sería servida por
el disco 1. Una petición simultánea del bloque «B1» tendría que esperar, pero
una petición de «B2» podría atenderse concurrentemente.

RAID 5

Diagrama de una configuración RAID 5


Un RAID 5 usa división de datos a nivel de bloques distribuyendo la
información de paridad entre todos los discos miembros del conjunto. El RAID 5
ha logrado popularidad gracias a su bajo coste de redundancia. Generalmente,
el RAID 5 se implementa con soporte hardware para el cálculo de la paridad.
En el gráfico de ejemplo anterior, un petición de lectura del bloque «A1» sería
servida por el disco 1. Una petición de lectura simultánea del bloque «B1»
tendría que esperar, pero una petición de lectura de «B2» podría atenderse
concurrentemente.
Cada vez que un bloque de datos se escribe en un RAID 5, se genera un
bloque de paridad dentro de la misma división (stripe). Un bloque se compone
a menudo de muchos sectores consecutivos de disco. Una serie de bloques
(un bloque de cada uno de los discos del conjunto) recibe el nombre colectivo
de división (stripe). Si otro bloque, o alguna porción de un bloque, es escrita en
esa misma división, el bloque de paridad (o una parte del mismo) es

- Página 128 –
Manual del Curso de Reparación de PC

recalculada y vuelta a escribir. El disco utilizado por el bloque de paridad está


escalonado de una división a la siguiente, de ahí el término «bloques de
paridad distribuidos». Las escrituras en un RAID 5 son costosas en términos de
operaciones de disco y tráfico entre los discos y la controladora.
Los bloques de paridad no se leen en las operaciones de lectura de datos, ya
que esto sería una sobrecarga innecesaria y disminuiría el rendimiento. Sin
embargo, los bloques de paridad se leen cuando la lectura de un sector de
datos provoca un error de control de redundancia cíclica (CRC). En este caso,
el sector en la misma posición relativa dentro de cada uno de los bloques de
datos restantes en la división y dentro del bloque de paridad en la división se
utilizan para reconstruir el sector erróneo. El error CRC se oculta así al resto
del sistema. De la misma forma, si falla un disco del conjunto, los bloques de
paridad de los restantes discos son combinados matemáticamente con los
bloques de datos de los restantes discos para reconstruir los datos del disco
que ha fallado «al vuelo».
Lo anterior se denomina a veces Modo Interno de Recuperación de Datos
(Interim Data Recovery Mode). El sistema sabe que un disco ha fallado, pero
sólo con el fin de que el sistema operativo pueda notificar al administrador que
una unidad necesita ser reemplazada: las aplicaciones en ejecución siguen
funcionando ajenas al fallo. Las lecturas y escrituras continúan normalmente en
el conjunto de discos, aunque con alguna degradación de rendimiento. La
diferencia entre el RAID 4 y el RAID 5 es que, en el Modo Interno de
Recuperación de Datos, el RAID 5 puede ser ligeramente más rápido, debido a
que, cuando el CRC y la paridad están en el disco que falló, los cálculos no
tienen que realizarse, mientras que en el RAID 4, si uno de los discos de datos
falla, los cálculos tienen que ser realizados en cada acceso.

Se necesita un mínimo de tres unidades para implementar una solución RAID


5. Los niveles 4 y 5 de RAID pueden utilizarse si se disponen de tres o más
unidades de disco en la configuración, aunque su resultado óptimo de
capacidad se obtiene con siete o más unidades. RAID 5 es la solución más
económica por mega-byte, que ofrece la mejor relación de precio, rendimiento y
disponibilidad para la mayoría de los servidores.

- Página 129 –
Manual del Curso de Reparación de PC

El número máximo de discos en un grupo de redundancia RAID 5 es


teóricamente ilimitado, pero en la práctica es común limitar el número de
unidades. Los inconvenientes de usar grupos de redundancia mayores son una
mayor probabilidad de fallo simultáneo de dos discos, un mayor tiempo de
reconstrucción y una mayor probabilidad de hallar un sector irrecuperable
durante una reconstrucción. A medida que el número de discos en un conjunto
RAID 5 crece, el MTBF (tiempo medio entre fallos) puede ser más bajo que el
de un único disco. Esto sucede cuando la probabilidad de que falle un segundo
disco en los N-1 discos restantes de un conjunto en el que ha fallado un disco
en el tiempo necesario para detectar, reemplazar y recrear dicho disco es
mayor que la probabilidad de fallo de un único disco. Una alternativa que
proporciona una protección de paridad dual, permitiendo así mayor número de
discos por grupo, es el RAID 6.
Algunos vendedores RAID evitan montar discos de los mismos lotes en un
grupo de redundancia para minimizar la probabilidad de fallos simultáneos al
principio y el final de su vida útil.
Las implementaciones RAID 5 presentan un rendimiento malo cuando se
someten a cargas de trabajo que incluyen muchas escrituras más pequeñas
que el tamaño de una división (stripe). Esto se debe a que la paridad debe ser
actualizada para cada escritura, lo que exige realizar secuencias de lectura,
modificación y escritura tanto para el bloque de datos como para el de paridad.
Implementaciones más complejas incluyen a menudo cachés de escritura no
volátiles para reducir este problema de rendimiento.
En el caso de un fallo del sistema cuando hay escrituras activas, la paridad de
una división (stripe) puede quedar en un estado inconsistente con los datos. Si
esto no se detecta y repara antes de que un disco o bloque falle, pueden
perderse datos debido a que se usará una paridad incorrecta para reconstruir
el bloque perdido en dicha división. Esta potencial vulnerabilidad se conoce a
veces como «agujero de escritura». Son comunes el uso de caché no volátiles
y otras técnicas para reducir la probabilidad de ocurrencia de esta
vulnerabilidad.

- Página 130 –
Manual del Curso de Reparación de PC

Capitulo 9 – BUSES de Expansión

Estos son los buses que se encuentran en la placa madre cuya función es la de
poder como dice su nombre expandir la conectividad o características de la
computadora, por medio de placas agregadas (placas hijas) para tal fin como
puede ser un módem, una placa de audio, una sintonizadota de TV/FM, etc …
Existen dos Tipos Básicos,
• ISA
• PCI
Y Buses especializados
• AGP
• PCI-Express
Además de los de Interconexión
• USB
• Firewire
ISA se creó como un sistema de 8 bits en el IBM PC en 1980, y se extendió en
1983 como el XT bus architecture. El nuevo estándar de 16 bits se introduce
en 1984 y se le llama habitualmente AT bus architecture. Diseñado para
conectar tarjetas de ampliación a la placa madre, el protocolo también permite
el bus mastering aunque sólo los primeros 16 MiB de la memoria principal
están disponibles para acceso directo. El bus de 8 bits funciona a 4,77 MHz (la
misma velocidad que el procesador Intel 8088 empleado en el IBM PC),
mientras que el de 16 bits opera a 8 MHz (el del Intel 80286 del IBM AT). Está
también disponible en algunas máquinas que no son compatibles IBM PC,
como el AT&T Hobbit (de corta historia), los Commodore Amiga 2000 y los
BeBox basados en PowerPC.
Físicamente, el slot XT es un conector de borde de tarjeta de 62 contactos (31
por cara) y 8,5 cm, mientras que el AT se añade un segundo conector de 36
contactos (18 por cara), con un tamaño de 14 cm. Ambos suelen ser en color
negro. Al ser retro compatibles, puede pincharse una tarjeta XT en un slot AT
sin problemas, excepto en placas mal diseñadas.
En 1987, IBM comienza a reemplazar el bus ISA por su bus propietario MCA
(Micro Channel Architecture) en un intento por recuperar el control de la
arquitectura PC y con ello del mercado PC. El sistema es mucho más
- Página 131 –
Manual del Curso de Reparación de PC

avanzado que ISA, pero incompatible física y lógicamente, por lo que los
fabricantes de computadores responden con el Extended Industry Standard
Architecture (EISA) y posteriormente con el VESA Local Bus (VLB). De hecho,
VLB use algunas partes originalmente diseñados para MCA debido a que los
fabricantes de componentes ya tienen la habilidad de fabricarlos. Ambos son
extensiones compatibles con el estándar ISA.
Los usuarios de máquinas basadas en ISA tenían que disponer de información
especial sobre el hardware que iban a añadir al sistema. Aunque un puñado de
tarjetas eran esencialmente Plug-and-play (enchufar y listo), no era lo habitual.
Frecuentemente había que configurar varias cosas al añadir un nuevo
dispositivo, como la IRQ, las direcciones de entrada/salida, o el canal DMA.
MCA había resuelto esos problemas, y actualmente PCI incorpora muchas de
las ideas que nacieron con MCA (aunque descienden más directamente de
EISA).
Estos problema con la configuración llevaron a la creación de ISA PnP, un
sistema Plug-and-play que usa una combinación de modificaciones al
hardware, la BIOS del sistema, y el software del sistema operativo que
automáticamente maneja los detalles más gruesos. En realidad, ISA PnP
acabó convirtiéndose en un dolor de cabeza crónico, y nunca fue bien
soportado excepto al final de la historia de ISA. De ahí proviene la extensión de
la frase sarcástica "plug-and-pray" (enchufar y rezar).
Los slots PCI fueron el primer puerto de expansión físicamente incompatible
con ISA que lograron expulsarla de la placa madre. Al principio, las placas base
eran en gran parte ISA, incluyendo algunas ranuras del PCI. Pero a mitad de
los 90, los dos tipos de slots estaban equilibrados, y al poco los ISA pasaron a
ser minoría en los computadores de consumo. Las especificaciones PC 97 de
Microsoft recomendaban que los slots ISA se retiraran por completo, aunque la
arquitectura del sistema todavía requiera de ISA en modo residual para
direccionar las lectoras de disquete, los puertos RS-232, etc. Los slots ISA
permanecen por algunos años más y es posible ver pacas con un slot
Accelerated Graphics Port (AGP) justo al lado de la CPU, una serie de slots
PCI, y uno o dos slots ISA cerca del borde.
Es también notable que los slots PCI estan "rotados" en comparación con los
ISA. Los conectores externos y circuitos principales del ISA están dispuestos
- Página 132 –
Manual del Curso de Reparación de PC

en el lado izquierdo de la placa, mientras que los de PCI lo están en el lado


derecho, siempre mirando desde arriba. De este modo ambos slots podían
estar juntos, pudiendo usarse sólo uno de ellos, lo que exprimía la placa
madre.
El ancho de banda máximo del bus ISA de 16 bits es de 16 MBytes/segundo.
Este ancho de banda es insuficiente para las necesidades actuales, tales como
tarjetas de vídeo de alta resolución, por lo que el bus ISA no se emplea en los
PCs modernos (2004), en los que ha sido substituido por el bus PCI.
Slot ISA de 8 bits (arquitectura XT)

Bus ISA 8bits


La arquitectura XT es una arquitectura de bus de 8 bits usada en los PCs con
procesadores Intel 8086 y 8088, como los IBM PC e IBM PC XT en los 80.
Precede al la arquitectura AT de 16 bits usada en las máquinas compatibles
IBM PC AT.
el bus XT tiene cuatro canales DMA, de los que tres están en los slots de
expansión. De esos tres, dos están normalmente asignados a funciones de la
máquina :
Canal DMA Expansión Función estandar

0 No Refresco de la RAM dinámica

1 Sí Tarjetas de ampliación

2 Sí Controladora de disquetes

3 Sí Controladora de disco duro

Uso actual
Salvo para usos industriales especializados, ya no se emplea ISA. Incluso
cuando está presente, los fabricantes de sistemas protegen a los usuarios del
término "bus ISA", refiriéndose en su lugar al "bus heredado". El bus PC/104,
empleado en la industria, es un derivado del bus ISA, que utiliza las mismas

- Página 133 –
Manual del Curso de Reparación de PC

líneas de señales pero con diferente conector. El bus LPC ha reemplazado a


ISA en la conexión de dispositivos de Entrada/Salida en las modernas placas
base. Aunque son físicamente bastante diferentes, LPC se presenta ante el
software como ISA, por lo que las peculiaridades de ISA como el límite de 16
Mb para DMA seguirán todavía presentes por un tiempo

Bus ISA de 16bits

Un Peripheral Component Interconnect (PCI, "Interconexión de


Componentes Periféricos") consiste en un bus de computador estándar para
conectar dispositivos periféricos directamente a su placa base. Estos
dispositivos pueden ser circuitos integrados ajustados en ésta (los llamados
"dispositivos planares" en la especificación PCI) o tarjetas de expansión que se
ajustan en conectores. Es común en PCs, donde ha desplazado al ISA como
bus estándar, pero también se emplea en otro tipo de computadores.
A diferencia de los buses ISA, el bus PCI permite configuración dinámica de un
dispositivo periférico. En el tiempo de arranque del sistema, las tarjetas PCI y el
BIOS interactúan y negocian los recursos solicitados por la tarjeta PCI. Esto
permite asignación de IRQs y direcciones del puerto por medio de un proceso
dinámico diferente del bus ISA, donde las IRQs tienen que ser configuradas
manualmente usando jumpers externos. Aparte de esto, el bus PCI proporciona
una descripción detallada de todos los dispositivos PCI conectados a través del
espacio de configuración PCI.
La especificación PCI cubre el tamaño físico del bus, características eléctricas,
cronómetro del bus y sus protocolos. El grupo de interés especial de PCI (PCI
Special Interest Group) comercializa copias de la especificación en
http://www.pcisig.com.
Variantes convencionales de PCI
PCI 2.2 para utilizarlo internamente en los portátiles
Cardbus es un formato PCMCIA de 32 bits, 33 MHz PCI
Compact PCI, utiliza módulos de tamaño Eurocard conectado en una placa hija
PCI.

- Página 134 –
Manual del Curso de Reparación de PC

Tarjeta de expansión PCI-X Gigabit Ethernet


PCI 2.2 funciona a 66 MHz (requiere 3.3 voltios en las señales) (índice de
transferencia máximo de 503 MiB/s (533MB/s)
PCI 2.3 permite el uso de 3.3 voltios y una señalización universal, pero no
soporta los 5 voltios en las tarjetas.
PCI 3.0 es el estándar final oficial del bus, con el soporte de 5 voltios
completamente removido.
PCI-X cambia el protocolo levemente y aumenta la transferencia de datos a
133 MHz (índice de transferencia máximo de 1014 MiB/s)
PCI-X 2.0 especifica un ratio de 266 MHz (índice de transferencia máximo de
2035 MiB/s) y también de 533 MHz, expande el espacio de configuración a
4096 bytes, añade una variante de bus de 16 bits y utiliza señales de 1.5
voltios
Mini PCI es un nuevo formato de PC/104-Plus es un bus industrial que utiliza
las señales PCI con diferentes conectores.
Advanced Telecommunications Computing Architecture (ATCA o
AdvancedTCA) es la siguiente generación de buses para la industria de las
telecomunicaciones.

Accelerated Graphics Port (AGP, Puerto de Gráficos Acelerado, en ocasiones


llamado Advanced Graphics Port, Puerto de Gráficos Avanzado) es un puerto
(puesto que solo se puede conectar un dispositivo, mientras que en el bus se
pueden conectar varios) desarrollado por Intel en 1996 como solución a los
cuellos de botella que se producían en las tarjetas gráficas que usaban el bus
PCI. El diseño parte de las especificaciones del PCI 2.1.
El puerto AGP es de 32 bits como PCI pero cuenta con notables diferencias
como 8 canales más adicionales para acceso a la memoria RAM. Además

- Página 135 –
Manual del Curso de Reparación de PC

puede acceder directamente a esta a través del NorthBrigde pudiendo emular


así memoria de vídeo en la RAM. La velocidad del bus es de 66 MHz.
El bus AGP cuenta con diferentes modos de funcionamiento:
• AGP 1X: velocidad 66 MHz con una tasa de transferencia de 264 MB/s y
funcionando a un voltaje de 3,3V.
• AGP 2X: velocidad 133 MHz con una tasa de transferencia de 528 MB/s
y funcionando a un voltaje de 3,3V.
• AGP 4X: velocidad 266 MHz con una tasa de transferencia de 1 GB/s y
funcionando a un voltaje de 3,3 o 1,5V para adaptarse a los diseños de
las tarjetas gráficas.
• AGP 8X: velocidad 533 MHz con una tasa de transferencia de 2 GB/s y
funcionando a un voltaje de 0,7V o 1,5V.
Estas tasas de transferencias se consiguen aprovechando los ciclos de reloj
del bus mediante un multiplicador pero sin modificarlos físicamente.

Tarjeta gráfica ATI Radeon 9800 con conexión AGP


El puerto AGP se utiliza exclusivamente para conectar tarjetas gráficas, y
debido a su arquitectura sólo puede haber una ranura. Dicha ranura mide unos
8 cm y se encuentra a un lado de las ranuras PCI.
A partir de 2006, el uso del puerto AGP ha ido disminuyendo con la aparición
de una nueva evolución conocida como PCI-Express, que proporciona mayores
prestaciones en cuanto a frecuencia y ancho de banda. Así, los principales
fabricantes de tarjetas gráficas, como ATI y NVIDIA, han ido presentando cada
vez menos productos para este puerto.
PCI-Express (anteriormente conocido por las siglas 3GIO, 3rd Generation I/O)
es un nuevo desarrollo del bus PCI que usa los conceptos de programación y
los estándares de comunicación existentes, pero se basa en un sistema de
comunicación serie mucho más rápido. Este sistema es apoyado

- Página 136 –
Manual del Curso de Reparación de PC

principalmente por Intel, que empezó a desarrollar el estándar con nombre de


proyecto Arapahoe después de retirarse del sistema Infiniband.
PCI-Express es abreviado como PCIE o PCIX. Sin embargo, no tiene nada que
ver con PCI-X. PCI-X es una evolución de PCI, en la que se consigue aumentar
el ancho de banda mediante el incremento de la frecuencia, llegando a ser 32
veces más rápido que el PCI 2.1. Su velocidad es mayor que PCI-Express,
pero presenta el inconveniente de que al instalar más de un dispositivo la
frecuencia base se reduce y pierde velocidad de transmisión.

Tarjeta gráfica nVIDIA GeForce 6200 con conexión PCI-Express 16x


PCI-Express está pensado para ser usado sólo como bus local. Debido a que
se basa en el bus PCI, las tarjetas actuales pueden ser reconvertidas a PCI-
Express cambiando solamente la capa física. La velocidad superior del PCI-
Express permitirá reemplazar casi todos los demás buses, AGP y PCI
incluidos. La idea de Intel es tener un solo controlador PCI-Express
comunicándose con todos los dispositivos, en vez de con el actual sistema de
puente norte y puente sur.
Este conector es usado mayormente para conectar tarjetas graficas.
PCI-Express no es todavía suficientemente rápido para ser usado como bus de
memoria. Esto es una desventaja que no tiene el sistema similar
HyperTransport, que también puede tener este uso. Además no ofrece la
flexibilidad del sistema InfiniBand, que tiene rendimiento similar, y además
puede ser usado como bus interno externo.
PCI-Express en 2006 es percibido como un estándar de las placas base para
PC, especialmente en tarjetas gráficas. Marcas como Ati Technologies y
nVIDIA entre otras tienen tarjetas graficas en PCI-Express.

El USB Fue creado en 1996 por siete empresas: IBM, Intel, Northern Telecom,
Compaq, Microsoft, Digital Equipment Corporation y NEC.

- Página 137 –
Manual del Curso de Reparación de PC

El estándar incluye la transmisión de energía eléctrica al dispositivo conectado.


Algunos dispositivos requieren una potencia mínima, así que se pueden
conectar varios sin necesitar fuentes de alimentación extra. La mayoría de los
concentradores incluyen fuentes de alimentación que brindan energía a los
dispositivos conectados a ellos, pero algunos dispositivos consumen tanta
energía que necesitan su propia fuente de alimentación. Los concentradores
con fuente de alimentación pueden proporcionarle corriente eléctrica a otros
dispositivos sin quitarle corriente al resto de la conexión (dentro de ciertos
límites).
El diseño del USB tenía en mente eliminar la necesidad de adquirir tarjetas
separadas para poner en los puertos bus ISA o PCI, y mejorar las capacidades
plug-and-play permitiendo a esos dispositivos ser conectados o desconectados
al sistema sin necesidad de reiniciar. Cuando se conecta un nuevo dispositivo,
el servidor lo enumera y agrega el software necesario para que pueda
funcionar.
El USB puede conectar periféricos como ratones, teclados, escáneres,
cámaras digitales, impresoras, discos duros, tarjetas de sonido y componentes
de red. Para dispositivos multimedia como escáneres y cámaras digitales, el
USB se ha convertido en el método estándar de conexión. Para impresoras, el
USB ha crecido tanto en popularidad que ha empezado a desplazar a los
puertos paralelos porque el USB hace sencillo el poder agregar más de una
impresora a un computador personal.

Tarjeta PCI-USB 2.0


En el caso de los discos duros, el USB es poco probable que reemplace
completamente a los buses como el ATA (IDE) y el SCSI porque el USB tiene
un rendimiento un poco más lento que esos otros estándares. El nuevo
estándar Serial ATA permite tasas de transferencia de hasta aproximadamente
150 MB por segundo. Sin embargo, el USB tiene una importante ventaja en su

- Página 138 –
Manual del Curso de Reparación de PC

habilidad de poder instalar y desinstalar dispositivos sin tener que abrir el


sistema, lo cual es útil para dispositivos de almacenamiento que se pueden
desinstalar. Hoy en día, una gran parte de los fabricantes ofrece dispositivos
USB portátiles que ofrecen un rendimiento casi indistinguible en comparación
con los ATA (IDE).

Adaptador de mouse USB a PS/2


El USB no ha remplazado completamente a los teclados AT y ratones PS/2,
pero virtualmente todas las placas base de PC traen uno o más puertos USB.

El estándar USB 1.1 tenía dos velocidades de transferencia: 1.5 Mbit/s para
teclados, ratón, joysticks, etc., y velocidad completa a 12 Mbit/s. La mayor
ventaja del estándar USB 2.0 es añadir un modo de alta velocidad de 480
Mbit/s. En su velocidad más alta, el USB compite directamente con FireWire.
Las especificaciones USB 1.0, 1.1 y 2.0 definen dos tipos de conectores para
conectar dispositivos al servidor: A y B. Sin embargo, la capa mecánica ha
cambiado en algunos conectores. Por ejemplo, el IBM UltraPort es un conector
USB privado localizado en la parte superior del LCD de los computadores
portátiles de IBM. Utiliza un conector mecánico diferente mientras mantiene las
señales y protocolos característicos del USB. Otros fabricantes de artículos
pequeños han desarrollado también sus medios de conexión pequeños, y una
gran variedad de ellos han aparecido. Algunos de baja calidad.
Una extensión del USB llamada "USB-On-The-Go" permite a un puerto actuar
como servidor o como dispositivo - esto se determina por qué lado del cable
está conectado al aparato. Incluso después de que el cable está conectado y
las unidades se están comunicando, las 2 unidades pueden "cambiar de papel"
bajo el control de un programa. Esta facilidad está específicamente diseñada
para dispositivos como PDA, donde el enlace USB podría conectarse a un PC
como un dispositivo, y conectarse como servidor a un teclado o ratón. El "USB-

- Página 139 –
Manual del Curso de Reparación de PC

On-The-Go" también ha diseñado 2 conectores pequeños, el mini-A y el mini-B,


así que esto debería detener la proliferación de conectores miniaturizados de
entrada.

El IEEE 1394 o FireWire o i.Link es un estándar multiplataforma para


entrada/salida de datos en serie a gran velocidad. Suele utilizarse para la
interconexión de dispositivos digitales como cámaras digitales y videocámaras
a computadores.
El FireWire fue inventado por Apple Computer a mediados de los 90, para
luego convertirse en el estándar multiplataforma IEEE 1394. A principios de
este siglo fue adoptado por los fabricantes de periféricos digitales hasta
convertirse en un estándar establecido. Sony utiliza el estándar IEEE 1394 bajo
la denominación i. Link, que sigue los mismos estándares pero solo utiliza 4
conexiones, de las 6 disponibles en la norma IEEE 1394, suprimiendo las dos
conexiones encargadas de proporcionar energía al dispositivo, que tendrá que
proveerse de ella mediante una toma separada.
Características
Elevada velocidad de transferencia de información.
Flexibilidad de la conexión.
Capacidad de conectar un máximo de 63 dispositivos.
Su velocidad hace que sea la interfaz más utilizada para audio y vídeo digital.
Así, se usa mucho en cámaras de vídeo, discos duros, impresoras,
reproductores de vídeo digital, sistemas domésticos para el ocio, sintetizadores
de música y escáneres.
Existen dos versiones:
FireWire 400: tiene un ancho de banda 30 veces mayor que el USB 1.1.
IEEE 1394b, FireWire 800 ó FireWire 2: duplica la velocidad del FireWire 400.
Así, para usos que requieran la transferencia de grandes volúmenes de
información, resulta muy superior al USB.
Arquitectura altamente eficiente. IEEE 1394b reduce los retrasos en la
negociación, gracias a 8B10B (código que codifica 8 bits en 10 bits, que fue
desarrollado por IBM y permite suficientes transiciones de reloj, la codificación
de señales de control y detección de errores. El código 8B10B es similar a
4B5B de FDDI, el que no fue adoptado debido al pobre equilibrio de corriente
- Página 140 –
Manual del Curso de Reparación de PC

continua), que reduce la distorsión de señal y aumenta la velocidad de


transferencia. Proporciona, por tanto, una mejor vivencia como usuario.
Da igual cómo conectes tus dispositivos entre ellos, FireWire 800 funciona a la
perfección. Por ejemplo, puedes incluso enlazar a tu Mac la cadena de
dispositivos FireWire 800 por los dos extremos para mayor seguridad durante
acontecimientos en directo.
Compatibilidad retroactiva. Los fabricantes han adoptado el FireWire para una
amplia gama de dispositivos, como videocámaras digitales, discos duros,
cámaras fotográficas digitales, audio profesional, impresoras, escáneres y
electrodomésticos para el ocio. Los cables adaptadores para el conector de 9
contactos del FireWire 800 te permiten utilizar productos FireWire 400 en el
puerto FireWire 800. FireWire 800 comparte las revolucionarias prestaciones
del FireWire 400.
Flexibles opciones de conexión. Conecta hasta 63 computadores y dispositivos
a un único bus: puedes incluso compartir una cámara entre dos Macs o PCs.
Distribución en el momento. Fundamental para aplicaciones de audio y vídeo,
donde un fotograma que se retrasa o pierde la sincronización arruina un
trabajo, el FireWire puede garantizar una distribución de los datos en perfecta
sincronía.
Alimentación por el bus. Mientras el USB 2.0 permite la alimentación de
dispositivos sencillos y lentos que consumen un máximo de 2,5 W, como un
ratón, los dispositivos con FireWire pueden proporcionar o consumir hasta 45
W, más que suficiente para discos duros de alto rendimiento y baterías de
carga rápida.
Conexiones de enchufar y listo. No tienes más que enchufar un dispositivo para
que funcione.

Ventajas de FireWire
Alcanzan una velocidad de 400 megabits por segundo.
Es hasta cuatro veces más rápido que una red Ethernet 100Base-T y 40 veces
más rápido que una red Ethernet 10Base-T.
Soporta la conexión de hasta 63 dispositivos con cables de una longitud
máxima de 425 cm.

- Página 141 –
Manual del Curso de Reparación de PC

No es necesario apagar un escáner o una unidad de CD antes de conectarlo o


desconectarlo, y tampoco requiere reiniciar el computador.
Los cables FireWire se conectan muy fácilmente: no requieren números de
identificación de dispositivos, conmutadores DIP, tornillos, cierres de seguridad
ni terminadores.
FireWire funciona tanto con Macintosh como con PC.
FireWire 400 envía los datos por cables de hasta 4,5 metros de longitud.
Mediante fibra óptica profesional, FireWire 800 puede distribuir información por
cables de hasta 100 metros, lo que significa que podrías disparar ese CD hasta
la otra punta de un campo de fútbol cada diez segundos. Ni siquiera necesitas
computador o dispositivos nuevos para alcanzar estas distancias. Siempre que
los dispositivos se conecten a un concentrador FireWire 800, puedes enlazarlos
mediante un cable de fibra óptica supereficiente.

Aplicaciones de FireWire
Edición de vídeo digital
La edición de vídeo digital con FireWire ha permitido que tuviera lugar una
revolución en la producción del vídeo con sistemas de escritorio. La
incorporación de FireWire en cámaras de vídeo de bajo costo y elevada calidad
(ambas cosas no suelen ir juntas) permite la creación de vídeo profesional en
Macintosh o PC. Atrás quedan las costosas tarjetas de captura de vídeo y las
estaciones de trabajo con dispositivos SCSI de alto rendimiento. FireWire
permite la captura de vídeo directamente de las nuevas cámaras de vídeo
digital con puertos FireWire incorporados y de sistemas analógicos mediante
conversores de audio y vídeo a FireWire..

Redes IP sobre FireWire


Como explica Apple, "con este software instalado, se pueden utilizar entre
computadores Macintosh y periféricos los protocolos IP existentes, incluyendo
AFP, HTTP, FTP, SSH, etcétera. En todos los casos, se puede utilizar
Rendezvous para su configuración, resolución de nombres y descubrimiento."
Si unimos la posibilidad de usar las conexiones FireWire para crear redes
TCP/IP a las prestaciones de FireWire 2 (FireWire 800), tenemos razones muy
serias para que Apple recupere rápidamente la atención de los fabricantes de
- Página 142 –
Manual del Curso de Reparación de PC

periféricos para satisfacer las necesidades de los usuarios de aplicaciones que


requieren gran ancho de banda en redes locales, como todas las relacionadas
con el vídeo digital. Por no hablar de introducirse en un posible mercado nuevo.

- Página 143 –
Manual del Curso de Reparación de PC

Capitulo 10 –Teclado y Mouse

El mouse (del inglés, pronunciado [ maȚs ]) o ratón es un periférico de


computadora de uso manual, generalmente fabricado en plástico, utilizado
como entrada o control de datos. Se utiliza con una de las dos manos del
usuario y detecta su movimiento relativo en dos dimensiones por la superficie
horizontal en la que se apoya, reflejándose habitualmente a través de un
puntero o flecha en el monitor.
Hoy en día es un elemento imprescindible en un equipo informático para la
mayoría de las personas, y pese a la aparición de otras tecnologías con una
función similar, como la pantalla táctil, la práctica ha demostrado que tendrá
todavía muchos años de vida útil. No obstante, el futuro podría ser posible
mover el cursor o el puntero con los ojos o basarse en el reconocimiento de
voz.

Un Mouse Típico
Habitualmente se compone de al menos uno, dos, tres o cuatro botones
principales y otros dispositivos opcionales como una «rueda», más otros
botones secundarios o de distintas tecnologías como sensores del movimiento
que pueden mejorar o hacer más cómodo su uso.
Se suele presentar para manejarse con ambas manos por igual, pero algunos
fabricantes también ofrecen modelos únicamente para usuarios diestros o
zurdos. Los sistemas operativos pueden también facilitar su manejo a todo tipo
de personas, generalmente invirtiendo la función de los botones.
En los primeros años de la informática, el teclado era casi siempre la forma
más popular como dispositivo para la entrada de datos o control de la
computadora. La aparición y éxito del mouse, además de la posterior evolución
de los sistemas operativos, logró facilitar y mejorar la comodidad, aunque no
relegó el papel primordial del teclado. Aún hoy en día, pueden compartir

- Página 144 –
Manual del Curso de Reparación de PC

algunas funciones dejando al usuario o interesado que escoja la más


conveniente a sus gustos o tareas.
Historia
Fue diseñado por Douglas Engelbart y Bill English durante los años 60 en el
Institute Research of Stanford, un laboratorio de la Universidad de Standford, a
poca distancia de Silicon Valley en California. Más tarde fue mejorado en los
laboratorios de Palo Alto de la compañía Xerox (conocidos como Xerox PARC).
Su invención no fue un hecho banal ni fortuito, sino que surgió dentro de un
proyecto importante que buscaba aumentar el intelecto humano mejorando la
comunicación entre el hombre y la máquina. Con su aparición, logró también
dar el paso definitivo a la aparición de los primeros entornos o interfaces
gráficas.

Imagen de un modelo de 1987 de IBM


La primera maqueta

Copia del primer prototipo.


La primera maqueta se construyó de manera artesanal de madera, y pese a
este aspecto arcaico, su funcionamiento básico sigue siendo igual hoy en día.
Tenía un aspecto de adoquín, encajaba bien en la mano y disponía de dos
ruedas metálicas que, al desplazarse por la superficie, movían dos ejes: uno

- Página 145 –
Manual del Curso de Reparación de PC

para controlar el movimiento vertical del cursor en pantalla y el otro para el


sentido horizontal, contando además con un botón rojo en su parte superior.
Por primera vez se lograba un intermediario directo entre una persona y la
computadora, era algo que, a diferencia del teclado, cualquiera podía aprender
a manejar sin apenas conocimientos previos. En esa época además la
informática todavía estaba en una etapa primitiva: ejecutar un simple cálculo
necesitaba de instrucciones escritas en un lenguaje de programación.
Su nombre oficial cuando se patentó fue: "X-Y Position Indicator for a Display
System", que puede traducirse como: Indicador de posición X-Y para un
dispositivo de pantalla. Sin embargo desde el principio el propio equipo empezó
a denominarlo mouse, ratón en español, al ver el largo cable que lo conectaba,
similar a la cola de un roedor, a todos les pareció un nombre apropiado.
Presentación
En San Francisco, a finales de 1968 se presentó públicamente el primer
modelo oficial. Durante hora y media además se mostró una presentación
multimedia de un sistema informático interconectado en red, además de por
primera vez se daba a conocer un entorno gráfico con el sistema de ventanas
que luego adoptarían la practica totalidad de sistemas operativos modernos. En
ese momento además, se exhibió hipermedia, un mecanismo para navegar por
Internet y usar videoconferencia.
Engelbart realmente se adelantó varias décadas a un futuro posible, ya desde
1951 había empezado a desarrollar las posibilidades de conectar
computadoras en redes, cuando apenas existían unas docenas y bastante
primitivas, entre otras ideas como el propio correo electrónico, del que sería su
primer usuario. Pensó que la informática podía usarse para mucho más que
cáculos matemáticos y mouse, formaba parte de este ambicioso proyecto, que
pretendía aumentar la inteligencia colectiva fundando el Augmentation
Research Center (Centro para la investigación del incremento) en la
Universidad de Stanford.
Y pese a las esperanzas iniciales de Engelbart de que fuera la punta del
iceberg, para un desarrollo de distintos componentes informáticos similares,
una década después era algo único, revolucionario que todavía no había
cobrado popularidad. De hecho varios de los conceptos e ideas surgidos aún
hoy en día han conseguido éxito. Engelbart tampoco logró una gran fortuna, la
- Página 146 –
Manual del Curso de Reparación de PC

patente adjudicaba todos los derechos a la Universidad de Stanford y él recibió


un cheque de unos 10000 dólares.
El éxito de Apple
El 27 de abril de 1981 se lanzaba al mercado la primera computadora con
mouse incluido: Xerox Star 8010, fundamental para la nueva y potente interfaz
gráfica que dependía de este periférico, que fue a su vez, otra revolución. Otros
surgieron posteriormente incluyéndolo, algunas de ellas fueron la Amiga de
Commodore, el Atari ST, y la conocida Lisa de Apple. Dos años después,
Microsoft, que había tenido acceso al mouse de Xerox en sus etapas de
prototipo, da a conocer su propio diseño disponible además con las primeras
versiones del procesador de texto Word. Tenía dos botones en color verde y
podía adquirirse por 195 dólares, pero su precio elevado para entonces y el no
disponer de un sistema operativo que realmente lo aprovechará, hizo que
pasara completamente desapercibido.
No fue hasta la aparición del Macintosh en 1984 cuando este periférico se
popularizo. Su diseño y creación corrió a cargo de nuevo de la Universidad de
Standford, en 1980 cuando Apple pidió a un grupo de jóvenes un periférico
seguro, barato y que se pudiera producir en serie. Partían de un mouse basado
en tecnología de Xerox de un coste alrededor de los 400 dólares, con un
funcionamiento regular y casi imposible de limpiar. El presidente, Steve Jobs,
quería un precio entre los 10 y los 35 dólares.

- Página 147 –
Manual del Curso de Reparación de PC

Cómo se captura el movimiento de un mouse, mecánico estándar:


1: Al arrastrarlo sobre la superficie gira la bola,
2: esta a su vez mueve los rodillos ortogonales,
3: estos están unidos a unos discos de codificación óptica, opacos pero
perforados,
4: Dependiendo de su posición pueden dejar pasar o interrumpir señales
infrarrojas de un diodo LED.
5: Estos pulsos ópticos son captados por sensores que obtienen así unas
señales digitales de la velocidad vertical y horizontal actual para trasmitirse
finalmente al computador.
Si bien existen muchas variaciones posteriores, algunas innovaciones recientes
y con éxito han sido el uso de una rueda central o lateral, el sensor de
movimiento óptico por diodo LED, ambas introducidas por Microsoft en 1996,
1999 respectivamente, o el sensor basado en un láser no visible del fabricante
Logitech.
En la actualidad, la marca europea Logitech es una de las mayores empresas
dedicadas a la fabricación y desarrollo de estos periféricos, más de la mitad de
su producción la comercializa a través de terceras empresas como IBM,
Hewlett-Packard, Compaq o Apple.

Funcionamiento
Su funcionamiento principal depende de la tecnología que utilice para capturar
el movimiento al ser desplazado sobre una superficie plana, por ejemplo
mousepad, y transmitir esta información para mover una flecha o puntero sobre
el monitor de la computadora. Dependiendo de las tecnologías empleadas en
el sensor del movimiento o por su mecanismo y del método de comunicación
entre este y el computador, existen multitud de tipos o familias.
El objetivo principal o más habitual es seleccionar distintas opciones que
pueden aparecer en la pantalla, con uno o dos clic, pulsaciones, en algún botón
o botones. Para su manejo el usuario debe acostumbrarse tanto a desplazar el
puntero como a pulsar con uno o dos clic para la mayoría de las tareas.

- Página 148 –
Manual del Curso de Reparación de PC

Tipos o modelos
Por mecanismo

Mecánico
Tiene una gran bola de plástico, de varias capas, en su parte inferior para
mover dos ruedas que generan pulsos en respuesta al movimiento de este
sobre la superficie. Una variante es el modelo de Honeywell, utiliza dos ruedas
inclinadas 90 grados entre ellas en vez de una bola.

Parte inferior de mouse de cable y sensor óptico


El circuito interno cuenta los pulsos generados por las rueda y envía la
información a la computadora, que mediante software procesa e interpreta.
Óptico
Es una variante que carece de la bola de goma, que evitando el frecuente
problema de la acumulación de suciedad en el eje de transmisión, y por sus
características ópticas es menos propenso a sufrir un inconveniente similar. Se
considera uno de los más modernos y prácticos actualmente. Puede ofrecer un
límite de 800 DPI (dpi, acrónimo del inglés: Dots per inch, literalmente: puntos
por pulgada), como cantidad de puntos distintos que puede reconocer en 2,54
centímetros (una pulgada), a menor cifra peor actuará el sensor de
movimientos. Su funcionamiento se basa en un sensor óptico que fotografía la
superficie sobre la que se encuentra, detectando las variaciones entre
sucesivas fotografías, se determina si el mouse ha cambiado su posición. En
superficie pulida el mouse óptico causa movimiento nervioso sobre la pantalla.
Este problema se arregla con el uso de un mousepad.
Láser
Este tipo es más sensible, haciéndolo aconsejable especialmente para los
diseñadores gráficos y los fanáticos de videojuegos, por su excelente
rendimiento. Usa también la superficie donde se apoya, como de mousepad,

- Página 149 –
Manual del Curso de Reparación de PC

pero el haz de luz de tecnología óptica se sustituye por un láser (invisible al ojo
humano) de 2000 ppp lo que se traduce en un aumento significativo de la
precisión y sensibilidad.
Trackball

Un modelo trackball de Logitech


El concepto de trackball es una idea novedosa que parte del hecho: se debe de
mover el puntero, no el dispositivo, por lo que se adapta para presentar una
bola, de tal forma cuando se coloque la mano encima se pueda mover
mediante el dedo pulgar, sin necesidad de desplazar nada más ni toda la mano
como antes. De esta manera se reduce el esfuerzo y la necesidad de espacio,
además de evitarse un posible dolor de antebrazo por el movimiento de éste.
Algunas personas sin embargo, no les termina de resultar realmente cómodo.
Este tipo ha sido muy útil en por ejemplo la informatización de la navegación
marítima.

Por conexión

Por cable
Es el formato más popular y más económico, sin embargo existen multitud de
características añadidas que pueden elevar su precio por ejemplo si hacen uso
de tecnología láser como sensor de movimiento. Actualmente se distribuyen
con dos tipos de conectores posibles, tipo USB y PS/2, antiguamente también
era popular usar el puerto serie.

- Página 150 –
Manual del Curso de Reparación de PC

Un modelo inalámbrico con rueda, cuatro botones y su base receptora de


la señal
Inalámbrico
En este caso el dispositivo se usa sin un cable físico de comunicación entre
este y el computador, utilizando algún tipo de tecnología inalámbrica. Para ello
requiere un punto de concentración de la señal inalámbrica, un receptor, que
produce mediante baterías el mouse o ratón, el emisor. El receptor
normalmente se conecta a la computadora por USB, o por PS/2. Según la
tecnología inalámbrica usada pueden distinguirse varias posibilidades:
Radio Frecuencia (RF)
Es el tipo más común y económico de este tipo de tecnologías. Funciona
enviando una señal a una frecuencia de 2.4Ghz, popular en la telefonía móvil o
celular, la misma que los estándares IEEE 802.11b y IEEE 802.11g. Es popular
por entre otras cosas, sus pocos errores de desconexión o interferencias con
otros equipos inalámbricos, además de disponer de un alcance suficiente: 3
metros o unos 10 pies.
Infrarrojo (IR)
Ésta tecnología utiliza una señal de frecuencia infrarroja como medio de
transmisión de datos, popular también entre los controles o mandos remotos de
televisiones, equipos de música o en telefonía celular. A diferencia de la
anterior, al tener un alcance medio inferior a los 3 metros, su éxito ha sido
menor. Además de que tanto el emisor como el receptor deben de estar en una
misma línea visual de contacto, de manera directa e ininterrumpida, para que la
señal se reciba correctamente
- Página 151 –
Manual del Curso de Reparación de PC

Bluetooth (BT)
Bluetooth es la tecnología más reciente como transmisión inalámbrica
(estándar IEEE 802.15.1), que cuenta con un cierto éxito en otros dispositivos.
Su alcance es de unos 10 metros o 30 pies (que corresponde a la Clase 2 del
estándar Bluetooth).
El controlador
Es desde hace un tiempo, común en cualquier equipo informático de tal
manera que todos los sistemas operativos modernos suelen incluir de serie un
software, controlador (driver), básico para que este pueda funcionar de manera
inmediata y correcta. No obstante, es normal encontrar software propio del
fabricante que puede añadir una serie de funciones opcionales o propiamente
los controladores si son necesarios.

Modelo Mighty Mouse de Apple


Uno, dos o tres botones
Hasta mediados de 2005, la conocida empresa Apple seguía para sus sistemas
Mac apostaba por un mouse o ratón de un sólo botón, pensado para facilitar y
simplificar al usuario las distintas tareas posibles. Actualmente ha lanzado un
modelo con dos botones simulados o virtuales con sensores debajo de la
cubierta plástica, dos botones laterales programables y una bola para mover el
puntero, llamado Mighty Mouse.

- Página 152 –
Manual del Curso de Reparación de PC

Modelo inalámbrico con cuatro botones

En Windows, lo más habitual es el uso de dos o tres botones principales. En


sistemas UNIX como GNU/Linux que utilicen entorno gráfico (X Window), era
habitual disponer de tres botones (para facilitar la operación de copiar y pegar
datos directamente). En la actualidad la funcionalidad del tercer botón queda
en muchos casos integrada en la rueda central de tal manera que además de
poder girarse, puede pulsarse.
Hoy en día cualquier sistema operativo moderno puede hacer uso de hasta
estos tres botones distintos e incluso reconocer más botones extra a los que el
software reconoce y puede añadir distintas funciones concretas como por
ejemplo asignar a un cuarto y quinto botón la operación de copiar y pegar texto.
La sofisticación ha llegado a extremos en algunos casos, por ejemplo el MX610
de Logitech, lanzado en Septiembre de 2005. Preparado anatómicamente para
diestros, dispone de hasta 10 botones.

Problemas frecuentes
Como se ha comentado, el fallo más frecuente en los de tecnología mecánica
se origina a causa de la acumulación de suciedad frenando o dificultando el
movimiento del puntero en la pantalla. La solución es sencilla, puede utilizar un
mousepad, o puede retirarse fácilmente la bola de goma por la parte inferior y
así acceder a los ejes de plástico para su limpieza, por ejemplo con un
pequeño pincel de cerdas duras.
Este problema es inexistente o inapreciable con tecnología óptica, gracias a
sustituir el sensor mecánico por uno óptico para detectar el desplazamiento. Es
uno de los principales motivos de su éxito. Aunque el óptico causa movimiento
nervioso sobre la pantalla cuando es utilizado sobre una superficie pulida cual
solución es usar un mousepad.
Otro problema puede ser la pérdida de sensibilidad o contacto de los botones:
se manifiesta cuando se pulsa una vez un botón y la computadora lo recibe
como ninguno, dos o mas clic consecutivos, de manera errónea. Esto se debe
al desgaste de unas piezas de plástico, parte de los botones del ratón, que ya
no golpean o pulsan correctamente sobre el pulsador electrónico. Para
- Página 153 –
Manual del Curso de Reparación de PC

solucionarlo normalmente debe desmontarse completamente y colocar varias


capas de papel adhesivo sobre la posible zona desgastada hasta recuperar su
forma original. En caso de uso frecuente, el desgaste es normal, se puede dar
a una cifra inferior del milímetro por cada 5 años de vida útil.
Si el uso de un computador es frecuente, es importante usar un modelo lo mas
ergonómico posible, ya que se pueden acarrear importantes problemas físicos.
La vista, la columna vertebral, o la muñeca que hace uso del periférico. Esto es
por la posición totalmente plana que adopta la mano que puede resultar
forzada, o puede también producirse un fuerte desgaste del huesecillo que
sobresale de la muñeca, hasta el punto de considerarse una enfermedad
profesional. Un mousepad cómodo ayuda a mejorar los problemas
ergonómicos.

Teclado
Un teclado de computadora es un periférico utilizado para la introducción de
órdenes y datos en una computadora. Existen distintas disposiciones de
teclado, para que se puedan utilizar en diversos lenguajes. El tipo estándar de
teclado inglés se conoce como QWERTY. Denominación de los teclados de
computadora y máquinas de escribir que se utilizan habitualmente en los
países occidentales, con alfabeto latino. Las siglas corresponden a las
primeras letras del teclado, comenzando por la izquierda en la fila superior. El
teclado en español o su variante latinoamericana son teclados QWERTY que
se diferencian del inglés por presentar la letra "ñ" y "Ñ" en su distribución de
teclas.
Se han sugerido distintas alternativas a la disposición de teclado QWERTY,
indicando ventajas tales como mayores velocidades de tecleado. La alternativa
más famosa es el Teclado Simplificado Dvorak.
Sólo las teclas etiquetadas con una letra en mayúscula pueden ofrecer ambos
tipos: mayúsculas y minúsculas. Para teclear un símbolo que se encuentra en
la parte superior izquierda de una tecla, se emplea la tecla de mayúsculas,
etiquetada como "↑". Para teclear un símbolo que se encuentra en la parte
inferior derecha de una tecla, se emplea la tecla Alt-Gr.

- Página 154 –
Manual del Curso de Reparación de PC

Disposición de las teclas


La disposición de las teclas se remonta a las primeras máquinas de escribir.
Aquellas máquinas eran enteramente mecánicas. Al pulsar una letra en el
teclado, se movía un pequeño martillo mecánico, que golpeaba el papel a
través de una cinta impregnada en tinta. Al escribir con varios dedos de forma
rápida, los martillos no tenían tiempo de volver a su sitio antes de que se
moviesen los siguientes, de forma que se encallaban. Para que esto ocurriese
lo menos posible, el diseñador del teclado QWERTY hizo una distribución de
las letras de forma contraria a lo que hubiese sido lógico con base en la
frecuencia con la que cada letra aparecía en un texto. De esta manera la
pulsación era más lenta y los martillos se encallaban menos veces.
Cuando aparecieron las máquinas de escribir eléctricas, y después las
computadoras, con sus teclados también eléctricos, se considero seriamente
modificar la distribución de las letras en los teclados, colocando las letras más
corrientes en la zona central. El nuevo teclado ya estaba diseñado y los
fabricantes preparados para iniciar la fabricación. Sin embargo, el proyecto se
canceló debido al temor de que los usuarios tuvieran excesivas incomodidades
para habituarse al nuevo teclado, y que ello perjudicara la introducción de las
computadoras personales, que por aquel entonces se encontraban en pleno
auge.

Teclado QWERTY de 102-teclas con distribución Inglés de Estados Unidos


La distribución es, como ocurre normalmente en nuestra historia, un "lastre
cultural" como el de la puntuación del tenis.

- Página 155 –
Manual del Curso de Reparación de PC

Tipos de teclado
Ha habido y hay muchos teclados diferentes, dependiendo del idioma,
fabricante… IBM ha soportado tres tipos de teclado: el XT, el AT y el MF-II.
El primero (1981) de éstos tenía 83 teclas, usaban es Scan Code set1,
unidireccionales y no eran muy ergonómicos, ahora está obsoleto.
Más tarde (1984) apareció el teclado PC/AT con 84 teclas (una más al lado de
SHIFT IZQ), ya es bidireccional, usa el Scan Code set 2 y al igual que el
anterior cuenta con un conector 5-pin DIN.
En 1987 IBM desarrolló el MF-II (Multifunción II o teclado extendido) a partir del
AT. Sus características son que usa el mismo interfaz que el AT, añade
muchas teclas más, se ponen leds y soporta el Scan Code set 3, aunque usa
por defecto el 2. De este tipo hay dos versiones, la americana con 101 teclas y
la europea con 102.
Los teclados PS/2 son básicamente iguales a los MF-II. Las únicas diferencias
son el conector (mini-DIN de 6 pin) más pequeño que el AT y más comandos,
pero la comunicación es la misma, usan el protocolo AT. Incluso los mouse
PS/2 usan el mismo protocolo.
Actualmente la denominación AT ó PS/2 sólo se refiere al conector porque hay
una gran diversidad de ellos.

Estructura
Un teclado está realizado mediante un microcontrolador, normalmente de las
familias 8048 u 8051 de Intel. Estos microcontroladores ejecutan sus propios
programas que están grabados en sus respectivas ROMs internas. Estos
programas realizan la exploración matricial de las teclas para determinar cuales
están pulsadas.
Para lograr un sistema flexible los microcontroladores no identifican cada tecla
con su carácter serigrafiado en la misma, sino que se adjudica un valor
numérico a cada una de ellas que sólo tiene que ver con su posición física. Si
no se hiciera así ese sistema sería muy dependiente de cada idioma, también
hay que tener en cuenta que idiomas como por ejemplo en francés tienen
teclados AZERTY en lugar del que se tiene en Estados Unidos QWERTY. Los
teclados usados en América latina y España extienden la configuración básica
- Página 156 –
Manual del Curso de Reparación de PC

del teclado QWERTY con el fin de incluir la letra eñe y facilidades para letras
acentuadas. Como el teclado español debe servir para las diversas lenguas de
la península ibérica se facilita sobre todo la escritura de diversos acentos aún
los no utilizados en el castellano. El teclado latinoamericano sólo da soporte
con teclas directas a los caracteres específicos del castellano, que incluyen dos
tipos de acento, la letra eñe y los inicios de exclamación e interrogación. El
resto de combinaciones de acentos se obtienen usando una tecla de extensión
de grafismos (<ALT-GR>). Por lo demás el teclado latinoamericano está
orientado hacia la programación, con fácil acceso al juego de símbolos de la
norma ASCII.
Por cada pulsación o liberación de una tecla el microcontrolador envía un
código de identificación llamado Scan Code. Para permitir que varias teclas
sean pulsadas simultáneamente, el teclado genera un código diferente cuando
una tecla se pulsa y cuando dicha tecla se libera. Si el microcontrolador nota
que ha cesado la pulsación de la tecla, el nuevo código generado (Break
Code) tendrá un valor de pulsación incrementado en 128. Estos códigos son
enviados al circuito microcontrolador donde serán tratados gracias al
administrador de teclado, que no es más que un programa de la BIOS y que
determina qué carácter le corresponde a la tecla pulsada comparándolo con
una tabla de caracteres que hay en el kernel, generando una interrupción por
hardware y enviando los datos al procesador. El microcontrolador también
posee cierto espacio de memoria ROM que hace que sea capaz de almacenar
las últimas pulsaciones en caso de que no se puedan leer a causa de la
velocidad de tecleo del usuario. Hay que tener en cuenta, que cuando
realizamos una pulsación se pueden producir rebotes (Bouncing) que duplican
la señal. Con el fin de eliminarlos, el teclado también dispone de un circuito que
limpia la señal.
En los teclados AT los códigos generados son diferentes, por lo que por
razones de compatibilidad es necesario traducirlos. De esta función se encarga
el controlador de teclado que es otro microcontrolador (normalmente el 8042),
éste ya situado en el PC. Este controlador recibe el Keyboard Scan Code
(Kscan Code) y genera el propiamente dicho Scan Code. En cualquier caso ya
sea teclado PS/2 ó AT el Scan Code es entregado a la BIOS del PC para
identificar la tecla pulsada.
- Página 157 –
Manual del Curso de Reparación de PC

La comunicación del teclado es vía serie. El protocolo de comunicación es


bidireccional, por lo que el host puede enviarle comandos al teclado para
configurarlo, resetearlo, diagnósticos, etc.

Disposición del teclado


En cualquier primer vistazo a un teclado podemos notar una división de teclas,
tanto por la diferenciación de sus colores, como por su distribución. Las teclas
grisáceas sirven para distinguirse en las demás por ser teclas especiales
(borrado, teclas de función, tabulación, tecla del sistema…). Si nos fijamos en
su distribución vemos que están agrupadas en cuatro grupos:
Teclas de función. Situadas en la primera fila de los teclados. Combinadas con
otras teclas, nos proporcionan acceso directo a algunas funciones del
programa en ejecución.
Teclas de edición. Sirven para mover el cursor por la pantalla.
Teclas alfanuméricas. Son las más usadas. Su distribución suele ser la de los
teclados QWERTY, por herencia de la distribución de las máquinas de escribir.
Reciben este nombre por ser la primera fila de teclas, y su orden es debido a
que cuando se organizaban alfabéticamente la máquina tendía a engancharse,
y a base de probar combinaciones llegaron a la conclusión de que así es como
menos problemas daban. A pesar de todo esto, se ha comprobado que hay
una distribución mucho más cómoda y sencilla, llamada DVORAK, pero en
desuso debido sobre todo a la incompatibilidad con la mayoría de los
programas que usamos.
Bloque numérico. Situado a la derecha de el teclado. Comprende los dígitos del
sistema decimal y los símbolos de algunas operaciones aritméticas. Añade
también la tecla especial Bloq Num, que sirve para cambiar el valor de algunas
teclas para pasar de valor numérico a desplazamiento de cursor en la pantalla.

Clasificación de teclados
En el mercado hay una gran variedad de teclados. A la hora de estudiarlos
podemos clasificarlos en dos grupos:
Según su forma física:
-Teclado XT de 83 teclas: Se usaba en el PC XT (8086/88).
-Teclado AT de 83 teclas: Usado con los PC AT (286/386).
- Página 158 –
Manual del Curso de Reparación de PC

-Teclado expandido de 101/102 teclas: Es el teclado actual, con un mayor


número de teclas.
-Tipo ergonómico: Diseñados para dar una mayor comodidad para el usuario,
ayudándole a tener una posición más relajada de los brazos.
-Teclado multimedia: Añade teclas especiales que llaman a algunos programas
en el computador, a modo de acceso directo, como pueden ser el programa de
correo electrónico, la calculadora, el reproductor multimedia…
-Teclado inalámbrico. Suelen ser teclados comunes donde la comunicación
entre el computador y el periférico se realiza a través de rayos infrarrojos,
ondas de radio o mediante bluetooth.
Según la tecnología de sus teclas se pueden clasificar como teclados de
cúpula de goma, teclados de membrana, teclados capacitores y teclados de
contacto metálico.

- Página 159 –

También podría gustarte