Está en la página 1de 82

Arquitectura De Una PC

Compatible IBM PC
Se denomina Compatible IBM PC o IBM PC compatible a un tipo de ordenadores similares al IBM
PC, IBM Personal Computer XT e IBM Personal Computer/AT. Estos ordenadores también llamados PC
clones, IBM clones o clónicos, se denomina así porque casi duplican exactamente todas las
características importantes de la arquitectura PC, hecho facilitado por la posibilidad de realizar
legalmente ingeniería inversa de la BIOS mediante el diseño de sala limpia por parte de varias
compañías. Columbia Data Products construyó el primer clon de un IBM PC mediante una
implementación de sala limpia de la BIOS.

Muchos de los primeros compatibles IBM PC utilizan el mismo bus que los IBM PC e IBM AT originales.
El bus compatible IBM AT es posteriormente llamado Bus ISA por los fabricantes de ordenadores
compatibles.

Los descendientes de los compatibles IBM PC constituyen la mayoría de las computadoras


personales del mercado actual, pese a que la interoperabilidad con la estructura de bus y periféricos de
la arquitectura PC original sea limitada o inexistente.

Índice
[ocultar]

 1 Orígenes

 2 Problemas de compatibilidad

 3 La decreciente influencia de IBM

 4 Expansión

 5 "IBM PC compatible" se convierte en "Wintel"

 6 Limitaciones de diseño y otros problemas de compatibilidad

 7 Los desafíos al dominio de Wintel

 8 El PC compatible hoy

 9 Referencias

 10 Véase también

 11 Enlaces externos

[editar]Orígenes
IBM PC original (Model 5150) motivó la fabricación de clones a princpios de la década de 1980.

Los orígenes de esta plataforma se inician con la decisión adoptada por IBM en 1980 de comercializar
un ordenador personal de bajo costo lo antes posible en respuesta al éxito de Apple Computer en el
creciente mercado. El 12 de agosto de 1981 se pone en venta el primer IBM PC. Había tres sistemas
operativos disponibles para él, pero el más popular y menos caro fue PC DOS, una versión de MS
DOS licenciada porMicrosoft. En una concesión crucial, el acuerdo con IBM permitió a Microsoft vender
su propia versión, MS-DOS, para las plataformas no-IBM. El único componente propietario del PC es
la BIOS (Basic Input/Output System).

Se fabricaron gran cantidad de ordenadores basados en los microprocesadores Intel 8086 y 8088,
durante ese período, pero con arquitectura diferente a la del PC, y que desarrolló por ello sus propias
versiones de DOS y CP/M-86. Sin embargo, el software que aborda directamente el hardware en lugar
de hacer llamadas a nivel de MS-DOS es más rápido. Esto es particularmente relevante en
los videojuegos. El IBM PC fue la única máquina que se vende en volúmenes lo suficientemente altos
como para justificar el software escrito específicamente para ella, y esto motiva a otros fabricantes a
producir máquinas que puedan usar los mismos programas, tarjetas de expansión y periféricos que el
PC. El mercado de ordenadores 808x excluye rápidamente todas las máquinas que no fueran
funcionalmente muy similares al PC. El límite de 640 Kilobytes dememoria RAM convencional disponible
para MS-DOS es una herencia de este período; otras máquinas no clónicas no tienen ese límite.

Los "clones" del IBM PC se crearon sin la participación o aprobación de IBM. Columbia imita
estrechamente al IBM PC y produce el primer "compatible" PC (es decir, más o menos compatible con el
estándar IBM PC) en junio de 1982, seguido al poco por Eagle Computer. Compaq Computer
Corp. anuncia su primer compatible unos meses después en noviembre de 1982, el Compaq Portable.
El Compaq fue el primer ordenador portable del tamaño de una máquina de coserque es esencialmente
100% compatible. La empresa no podía copiar directamente la BIOS, como resultado de la decisión
judicial en el caso Apple v. Franklin, pero sí puede realizar ingeniería inversa de la BIOS de IBM y luego
escribir su propia BIOS utilizando el diseño de sala limpia.
[editar]Problemas de compatibilidad

El Compaq Portable fue el primer clon totalmente compatible con la PC de IBM.

Al mismo tiempo, muchos fabricantes, como Xerox, Hewlett Packard, Digital, Sanyo, Texas
Instruments, Tulip, Wang y Olivetti lanzaron ordenadores personales que era compatibles MS-DOS,
pero no completamente software o hardware compatibles con el IBM PC.

La intención de Microsoft, y la de la industria desde 1981 hasta mediados de los 80, era que los
programadores de aplicaciones utilizaran las APIs en MS-DOS o el firmware de la BIOS, utilizando lo
que hoy llamamos una capa de abstracción de hardware. Cada ordenador tendría su propia
versiónOEM de MS-DOS, personalizado para su hardware. Cualquier software escrito para MS-DOS
podría ejecutarse en cualquier ordenador MS-DOS, a pesar de las variaciones en el diseño de
hardware. Un camino similar se siguió con los ordenadores domésticos MSX.

Esta expectativa parece razonable para el mercado de computadoras de la época. Hasta entonces,
Microsoft se centra principalmente en lenguajes de programación como BASIC. El por entonces sistema
operativo por excelencia para pequeños ordenadores era CP/M de Digital Research que se utilizaba
tanto en el por usuarios aficionados como profesionales. Para lograr ese uso generalizado y, por tanto,
hacer el producto económicamente viable, el sistema operativo tenía que poder funcionar en un rango
de ordenadores de diferentes fabricantes con una amplia variedad de hardware. Aquellos clientes que
necesitan otras aplicaciones más allá de los Starter Pack podría esperar razonablemente que los
diferentes editores de software les ofrecieran sus productos para una amplia variedad de ordenadores,
en el soporte adecuado para cada uno.

El sistema operativo de Microsoft estaba inicialmente orientado para ejecutarse en una variada gama de
hardware, aunque todas basadas en el procesador 8086. Por ello, MS-DOS fue vendido durante muchos
años sólo como un producto OEM. No había MS-DOS con marca Microsoft: MS-DOS no podía
adquirirse directamente a Microsoft, y cada versión OEM era empaquetada con la marca del fabricante
de PCs licenciatario. Las diferentes versiones eran en general incompatibles con hardware diferente.
Los errores debían notificarse al OEM, no a Microsoft. Sin embargo, cuando se extendieron los clones,
pronto quedó claro que las versiones OEM de MS-DOS eran prácticamente idénticas, excepto tal vez
por la presencia de algunos programas de utilidad.

MS-DOS proporciona el soporte adecuado para aplicaciones orientadas a caracteres como las que se
pueden implementar para un terminal de computadora de sólo texto. La mayor parte del software con
importancia comercial entraba en estos límites, donde el bajo nivel de compatibilidad hardware no tenía
importancia. Sin embargo, con el fin de proporcionar el máximo rendimiento y aprovechar las
características de hardware (o trabajar sobre los errores de hardware), las aplicaciones de PC
evolucionaron muy rápidamente más allá del simple terminal de aplicaciones que MS-DOS soporta
directamente. Hojas de cálculo, procesador de textos WYSIWYG, soft de presentaciones y software de
comunicaciomes remotas establecieron nuevos mercados que explotaban los puntos fuertes del PC,
pero requieren capacidades más allá de lo que proporciona MS-DOS. Por ello, desde muy temprano en
el entorno de desarrollo de aplicaciones para MS-DOS, muchos productos de software comerciales
importantes fueron escritos directamente para el hardware, por una variedad de razones:

 MS-DOS en sí no proporciona ninguna manera de colocar el cursor de texto (excepto para avanzar
después de la impresión de cada carácter). Mientras que las rutinas de la BIOS para la interfaz de
vídeo eran adecuadas par un manejo rudimentario, eran muy ineficaces; no había salida de cadena
de caracteres (sólo salida carácter a carácter) y esto añade períodos de retardo para compensar
el efecto nieve del hardware CGA (cuando en las tarjetas CGA se escribía directamente en
la VRAM se mostraban artefactos en la pantalla) algo especialmente malo cuando se llaman
via IRQs, lo que hace muy difícil la multitarea. Un programa que escriba la salida directamente a la
memoria de vídeo puede alcanzar tasas de 5 a 20 veces más rápido que utilizar llamadas estándar
a la BIOS y MS-DOS. Turbo Pascal utiliza esta técnica desde sus primeras versiones.

 La capacidad gráfica no fue tomada en serio en el diseño original de IBM, que se consideró una
novedad exótica. MS-DOS no tenía un API para gráficos, y la BIOS sólo incluía las funciones más
rudimentarias de gráficos (por ejemplo, los cambios de modo de pantalla o el dibujo punto a punto).
Para realizar una llamada de la BIOS por cada punto dibujado o modificado se incrementaba
considerablemente el trabajo, haciendo la interfaz de la BIOS notoriamente lenta. Debido a esto,
dibujar líneas o arcos, y el bit blit, tuvo que ser llevado a cabo por cada aplicación para lograr una
velocidad aceptable, que se solía hacer ignorando la BIOS y accediendo directamente a la memoria
de vídeo.

 Los videojuegos, incluso los primeros, en su mayoría requerían un modo gráfico verdadero.
También se realizó algún truco dependiente de la máquina que los programadores podían utilizar
para ganar velocidad. Aunque en un principio el principal mercado del PC fue el profesional, la
capacidad de los juegos se convirtió en un factor importante en el impulso de las compras de PC
cuando sus precios cayeron. La disponibilidad y calidad de los juegos podría significar la diferencia
entre la compra de un PC compatible o una plataforma interoperable diferente como elCommodore
Amiga.

 El software de comunicaciones accedía directamente al chip UART, ya que el API de MS-DOS y el


BIOS no proporcionaba soporte completo a las capacidades del chip y era demasiado lento para
mantenerse al día con hardware que pudiera transferir datos a 19200 baudios.

 Incluso para las aplicaciones empresariales estándar, la velocidad de ejecución fue una ventaja
competitiva significativa. Esto se demostró dramáticamente en el golpe de gracia de Lotus 1-2-3 a
su rival Context MBA en el popular género del software integrado. Context MBA, ahora casi
olvidado, precedió a Lotus en el mercado e incluía más funciones; fue escrito en lenguaje Pascal, lo
que lo hacía altamente portable, pero, habida cuenta de los compiladores del momento, resultaba
demasiado lento para ser realmente útil en un PC. Lotus fue escrito en lenguaje ensamblador puro y
realizaba algunas tareas directamente en la máquina. Era mucho más rápido que el Context MBA,
que desapareció tan pronto como Lotus llegó.

 Los sistemas de protección de copia de disco, de uso común en el momento, funcionaban


buscando patrones de datos no estándar en el disquete para verificar la originalidad. Estos patrones
eran difíciles o imposibles de detectar usando DOS estándar o llamadas a la BIOS, por tanto el
acceso directo al hardware controlador de disco era necesario para la protección del trabajo.

La compatibilidad PC era un aspecto importante. Incluso el Commodore Amigatenía un módulo de compatibilidad


PC, elSidecar.

Al principio, pocos compatibles aparte del Compaq ofrecían compatibilidad más allá del nivel DOS/BIOS.
Los evaluadores y los usuarios desarrollaronsuites de programas para probar la compatibilidad; la
capacidad de ejecutar el Lotus 1-2-3 o Microsoft Flight Simulator se convirtió en uno de los más
importantes pruebas. Los vendedores no sólo aprendieron gradualmente la manera de emular la BIOS
de IBM, sino también dónde utilizar chips idénticos para desempeñar funciones clave dentro del sistema.
Finalmente, el Phoenix BIOS y productos similares disponibles comercialmente permitieron a los
fabricantes de computadoras la fabricación de clones prácticamente 100% compatibles sin necesidad de
realizar ingeniería inversa de la BIOS del IBM PC.

Con el tiempo, IBM perjudicó su propio mercado al no apreciar la importancia de la compatibilidad IBM,
introduciendo productos como el IBM portátil(que fue superado en ventas por el anterior Compaq
Portable) y el PCjr (que tenía importantes incompatibilidades con el PC original y se retiró en breve).

Desde mediados de la década de 1980 hasta finales de la misma, los compradores comenzaron a
considerar el PC como el producto básico, y dudaban de que el plus de seguridad de la marca IBM
estaba garantizado por el precio más alto. Mientras tanto, los sistemas compatibles MS-DOS (pero no
compatibles en hardware) no tuvieron éxito en el mercado. Su incapacidad para ejecutar los paquetes
de software de alto rendimiento para IBM PC y compatibles verdaderos motivó sus bajas ventas y la
extinción de esta categoría de sistemas. Por su incompatibilidad de hardware con el diseño del IBM PC,
el procesador 80186, lanzado sólo un año después del IBM PC, nunca fue popular en los ordenadores
personales de uso general.

[editar]La decreciente influencia de IBM

Después de 1987, los PCs compatibles IBM dominaron en el mercado de productos básicos, tanto en el
campo doméstico como en el profesional,1 con otras notables arquitecturas alternativas como los
equipos Macintosh ofertados por Apple Inc., el Commodore 64 de 8 bits que finalmente se convirtió en el
ordenador de mayor venta en el mundo, y la línea Commodore Amiga de 32 bits utilizada en la televisión
y producción de vídeo. Sin embargo, la propia IBM perdió el liderazgo en el mercado de los compatibles
IBM PC en 1990. Algunos pocos sucesos fueron probablemente los puntos de inflexión:

 La introducción en 1982 del Compaq Portable, el primer ordenador 100% compatible con IBM PC
(Columbia Data Products), un ordenador portátil del que IBM no disponía en ese momento. La
compatibilidad y el rendimiento del portátil legitimó este clon de PC para muchas empresas.

 Compaq superó a IBM en el mercado en 1986 con el primer PC basado en 80386.

 La introducción por IBM de tecnologías incompatibles en 1987, tales como su sistema patentado de
Arquitectura de microcanal (bus MCA) para bus de computadora , en su línea IBM PS/2.

 La introducción en 1988 por las empresas de la "Banda de los Nueve" de un bus rival, EISA ,
destinado a competir con MCA en lugar de copiarlo.

 El duelo entre las normas de memoria expandida y memoria extendida en la década de 1980,
ambas desarrolladas sin la participación de IBM.

 La disponibilidad en 1989 de ordenadores compatibles con el PC-XT por debajo de 1000 dólares,
incluyendo las tempranas ofertas de Dell Computer, reduciendo la demanda de la última tecnología
de IBM.
Sin embargo, con la evolución del mercado, y a pesar del fracaso del bus MCA, IBM obtuvo un flujo de
ingresos considerables por las tasas de licencia de empresas que pagaron por licencias de uso de las
patentes de IBM que estaban en el diseño del PC, en la medida que los objetivos de IBM habían
cambiado desde la disuasión de clones de PC hacia el aumento de ingresos por ventas de licencias.
Paralelamente al desarrollo del PS/2, IBM también siguió vendiendo PCs compatibles, que esta vez
incorporaban los estándares que habían sido desarrollados por sus competidores. IBM finalmente
renunció a su papel como fabricante de PC en abril de 2005, cuando vendió su división de PC
a Lenovo por 1.750 millones de dólares.

A partir de octubre de 2007, Hewlett-Packard y Dell Computer acapararon las mayores cuotas del
mercado de PC en América del Norte. También son exitosos fuera de América, junto
a Acer,Lenovo y Toshiba. A nivel mundial, un gran número de ordenadores son "caja blanca", sistemas
ensamblados por un gran número de fabricantes de sistemas locales. A pesar de los avances en la
tecnología informática, todos los actuales PC compatibles IBM guardan en gran medida cierta
compatibilidad con las computadoras IBM PC originales, aunque la mayoría de los componentes
implementan la "compatibilidad hacia atrás" con versiones anteriores en modos especiales, utilizados
sólo durante el arranque del sistema.

[editar]Expansión

Uno de los puntos fuertes de la plataforma compatible PC es su diseño modular de hardware. Los
usuarios finales pueden actualizar fácilmente los periféricos y, hasta cierto punto, el procesador y la
memoria sin necesidad de modificar la placa base del equipo o reemplazar todo el equipo, como así
ocurría con muchas de las microcomputadoras de la época. Sin embargo, a la vez que la velocidad del
procesador y la cantidad de memoria fueron incrementándose, los límites del diseño de bus de la XT/AT
original se alcanzaron en poco tiempo, sobre todo con las nuevas tarjetas gráficas. IBM introdujo un bus
actualizado en el IBM PS/2, que superó muchos de los límites técnicos del bus de los XT/AT, pero rara
vez se utilizó como base para computadoras compatibles con IBM, ya que requería el pago de licencias
a IBM tanto para el bus PS/2 como para los diseños previos del bus AT que quedaban bajo licencia.
Esto fue impopular entre los fabricantes de hardware, y varios estándares de bus en competencia fueron
desarrollados por consorcios, con términos de licencia más asequibles. Se hicieron varios intentos de
estandarizar las interfaces, pero en la práctica, muchos de estos intentos tuvieron fallos o bien fueron
ignorados. Aun así, había muchas opciones de expansión, y la plataforma "PC compatible" avanzó
mucho más rápidamente que otras plataformas competidoras de la época, incluso aunque sólo sea por
su dominio del mercado.

[editar]"IBM PC compatible" se convierte en "Wintel"


En la década de 1990, la influencia de IBM en la arquitectura del PC era cada vez más irrelevante. Un
PC de marca IBM se convirtió en la excepción, no ya la regla. En lugar de centrarse en permanecer
compatibles con el IBM PC, los vendedores comenzaron a centrarse en la compatibilidad con la
evolución de Microsoft Windows. En 1993, fue puesta a la venta una versión deWindows NT que podía
ejecutarse en procesadores distintos de los x86. (Esto requería que se volvieran a compilar las
aplicaciones, un paso que la mayoría de desarrolladores no tomó.) Sin embargo, su independencia del
hardware fue aprovechada por las estaciones de trabajo x86 de Silicon Graphics -gracias a la HAL de
NT-, que podían funcionar con NT (y su vasta biblioteca de aplicaciones). Ningún vendedor de hardware
de ordenador para el gran mercado se atrevió a ser incompatible con la última versión de Windows, y las
conferencias anuales WinHEC de Microsoft sirvieron de marco en el que Microsoft podía ejercer presión
a favor y en algunos casos dictar el ritmo y la dirección del hardware de la industria del PC. Intel y
Microsoft se habían vuelto tan importantes para el continuo desarrollo del hardware de PC que los
eperiodistas de la informática comenzaron a usar la contracción Wintel para referirse a la plataforma de
hardware Intel y software Windows combinado. Este término se está convirtiendo en un término
equivocado, ya que Intel ha perdido el control absoluto sobre la dirección del desarrollo de hardware, y
otros sistemas operativos como Linux han comenzado a establecer una presencia notable.

[editar]Limitaciones de diseño y otros problemas de compatibilidad

Aunque el IBM PC fue diseñado para permitir su expansión, los diseñadores no podían anticipar el
desarrollo del hardware de los años 80. Para empeorar las cosas, la elección de la CPU Intel 8088 por
IBM presentaba varias limitaciones que fueron obstáculos para el desarrollo de software para la
plataforma PC compatible. Por ejemplo, el procesador 8088 sólo tenía un espacio de direccionamiento
de memoria de 20 bits. Para poder expandir la memoria del PC más allá de un megabyte, Lotus, Intel y
Microsoft crearon conjuntamente la memoria expandida (EMS), un esquema de conmutación de banco
para permitir más memoria proporcionada por complemento de hardware, y visto a través de un
conjunto de cuatro "ventanas " de 16 kilobytes dentro del direccionamiento de 20 bits. Más tarde, las
CPUs Intel tuvieron mayor espacio de direcciones y podían ocuparse directamente de
16 megabytes (caso del Intel 80286) o más, lo que permitió a Microsoft desarrollar la memoria
extendida (XMS), que no requería hardware adicional.

La memoria expandida y la extendida tienen interfaces incompatibles, por lo que cualquier software que
utilizaba más de un megabyte tenía que mantener soporte para los dos sistemas. Para dar mayor
compatibilidad, MS-DOS comenzó a incluir el programa EMM386, que simula la memoria EMS utilizando
memoria XMS. Un sistema operativo en modo protegido también podía ser escrito para el 80286, pero
su compatibilidad con aplicaciones DOS era más difícil de lo esperado, no sólo porque la mayoría de
aplicaciones para DOS accedían directamente al hardware, sino también porque la mayoría de llamadas
al BIOS eran realizadas a través de IRQs marcadas como "reservadas" por Intel.

Las tarjetas gráficas tuvieron sus propias incompatibilidades. Una vez que las tarjetas de vídeo
evolucionaron hacia SVGA, el estándar para acceder a ellas ya no estaba claro. A la vez, la
programación para PC utilizaba un modelo de memoria por segmentos de 64 KB. El más común modo
de pantalla VGA quedaba alojado en un único segmento de memoria. Los modos SVGA requerían más
memoria, por lo que el acceso a la memoria completa de pantalla era complicado. Cada fabricante
desarrolló sus propias formas de acceso a la memoria de pantalla, incluso sin enumerar los modos de
forma coherente. Se hizo un intento de crear un estándar, llamado VBE, pero no todos los fabricantes se
adhirieron a ella.

Debido al gran número de adaptadores de terceros y no estándar para ellos, la programación para PC
resultaba difícil. Los desarrolladores profesionales debían someter sus programas a prueba con un gran
conjunto de combinaciones de hardware diferentes. Incluso el propio PC no tenía una clara interfaz de la
aplicación al modelo de memoria plana que los 386 y superiores podrían proporcionar en modo
protegido.

Cuando llegó el 386, de nuevo se podía programar un sistema operativo en modo protegido para él.
Esta vez, la compatibilidad con MS-DOS era mucho más fácil, pues este procesador incluíamodo virtual
8086. Desafortunadamente los programas no podían cambiar directamente entre ellos, así quese
desarrollaron nuevos modelos de memoria API, VCPI y DPMI, este último se hizo el más popular.

Mientras tanto, los consumidores se vieron desbordados por los diferentes estándares incompatibles y
las diferentes combinaciones de hardware que se ofrecían. Para dar una idea de qué clase de PC que
necesitarían para ejecutar sus programas, se estableció el estándar PC Multimedia (MPC) en 1990. Un
PC que cumplía el mínimo estándar MPC podía ser considerado, y comercializado como, un MPC. El
software que podía ejecutarse en un PC con la más mínima compatibilidad MPC estaría garantizado
para funcionar en cualquier MPC. Las normas de MPC nivel 2 y MPC nivel 3 se crearon más tarde, pero
el término "MPC compatible" nunca tuvo éxito. Después del nivel 3 MPC en 1996, no se establecieron
más normas MPC.

[editar]Los desafíos al dominio de Wintel

Al principios del siglo XXI, el éxito de Microsoft Windows había llevado a casi todos los otros sistemas
operativos a casi la extinción, y se aseguró que la plataforma "IBM PC compatible" fuese el equipo
informático dominante. Esto significó que si un programador sólo desarrollaba su software para la
plataforma Wintel, sería capaz de llegar a la gran mayoría de usuarios de computadoras. A fines de
1980, el único competidor importante para Windows fue el Macintosh de Apple Inc.. El Mac fue
presentado como "el ordenador para el resto de nosotros", pero la pujanza del conjunto
DOS/Windows/Intel redujo rápidamente a los Macintosh al nicho de la educación y el diseño gráfico, del
que sólo recientemente ha comenzado a surgir. A mediados de 1990, la cuota de mercado de Macintosh
se había reducido a cerca del 5%, y la introducción de un nuevo sistema operativo rival se había vuelto
demasiado arriesgada comercialmente. La experiencia había demostrado que incluso si un sistema
operativo era técnicamente superior a Windows, sería un fracaso en el mercado (BeOS y OS/2, por
ejemplo). En 1989, Steve Jobs lanzó su nueva plataforma NeXT, de la que dijo que "será la última
plataforma nueva de hardware en tener éxito, o la primera en fracasar." En 1993, NeXT anunció que
ponía fin a la producción del ordenadorNeXTcube y portaba NeXTSTEP a los procesadores Intel. En
1997, NeXT fue adquirida por Apple, que presentó a continuación el ordenador iMac en 1998. Después
de este lanzamiento, los Mac han recuperado cuota de mercado, aunque muy lentamente. En agosto de
2009, la cuota de mercado de Mac OS era sólo de un 4,59%. {cita requerida}

En el mercado de hardware, Intel inicialmente licenció su tecnología para que otros fabricantes pudieran
fabricar x86 CPUs. Como la plataforma "Wintel" consiguió el dominio del mercado, Intel terminó
abandonando esta práctica. Compañías como AMD y Cyrix desarrollaron CPUs alternativas que eran
funcionalmente compatibles con Intel. Hacia el final de la década de 1990, AMD estaba tomando una
parte creciente del mercado de las CPU para PC. AMD incluso terminó jugando un papel importante en
la dirección de la evolución de la plataforma x86, cuando su línea de procesadores Athlon siguió
desarrollando la clásica arquitectura x86, de la que Intel se desvió con su arquitectura Netburst de las
CPUs Pentium 4 y la arquitectura IA-64 para la línea de CPUsItanium para servidores. AMD desarrolló
el AMD64, el primer desarrollo importante no creado por Intel, que más tarde adoptó Intel. En 2006, Intel
comenzó a abandonar Netburst con el lanzamiento de su línea de procesadores Intel Core, que
representaba una evolución del anterior Pentium III.

[editar]El PC compatible hoy

El término "compatible con IBM" no es de uso común para los ordenadores actuales, porque
prácticamente todos los equipos principales se basan en la arquitectura PC. La mayoría de plataformas
competidoras han desaparecido o han sido relegadas a los mercados minoritarios de entusiastas, como
el Commodore Amiga. Una excepción notable fue el Apple Macintosh, que utilizó la
arquitectura PowerPC hasta 2006, cuando Apple adoptó la arquitectura Intel x86 tal como se utiliza en el
PC. La arquitectura x86 que Apple comercializa actualmente es, a todos los efectos, "IBM PC
Compatible".

La velocidad del procesador y capacidad de memoria de los ordenadores modernos son muchísimo
mayores de lo que eran en el original de PC de IBM y, sin embargo la compatibilidad hacia atrás se ha
mantenido en gran medida. Un sistema operativo de 32 bits publicado en la década de 2000 todavía
puede ejecutar muchas de los programas más simples escritos para los sistemas operativos de la
década de 1980 sin necesidad de un emulador, aunque un emulador como DOSBox tiene ahora cerca
de la funcionalidad nativa a toda velocidad.

Arquitectura de computadoras

Una visión típica de una arquitectura de computadora como una serie de capas de
abstracción: hardware, firmware,ensamblador, kernel, sistema operativo yaplicaciones.

La arquitectura de computadoras es el diseño conceptual y la estructura operacional fundamental de


un sistema de computadora. Es decir, es un modelo y una descripción funcional de los requerimientos y
las implementaciones de diseño para varias partes de una computadora, con especial interés en la
forma en que la unidad central de proceso (UCP) trabaja internamente y accede a las direcciones
de memoria.

También suele definirse como la forma de seleccionar e interconectar componentes de hardware para
crear computadoras según los requerimientos de funcionalidad, rendimiento y costo.
El ordenador recibe y envía la información a través de los periféricos por medio de los canales. La UCP
es la encargada de procesar la información que le llega al ordenador. El intercambio de información se
tiene que hacer con los periféricos y la UCP. Todas aquellas unidades de un sistema exceptuando la
UCP se denomina periférico, por lo que el ordenador tiene dos partes bien diferenciadas, que son: la
UCP (encargada de ejecutar programas y que está compuesta por la memoria principal, la UAL y la UC)
y los periféricos (que pueden ser de entrada, salida, entrada-salida y comunicaciones).

Índice
[ocultar]

 1 Introducción

 2 Almacenamiento de operandos en la CPU

o 2.1 Ventajas de las arquitecturas

o 2.2 Desventajas de las arquitecturas

 3 Véase también

 4 Enlaces externos

[editar]Introducción

La implantación de instrucciones es similar al uso de una serie de desmontaje en


una fábrica de manufacturación. En las cadenas de montaje, el producto pasa a través de muchas
etapas de producción antes de tener el producto desarmado. Cada etapa o segmento de la cadena está
especializada en un área específica de la línea de producción y lleva a cabo siempre la misma actividad.
Esta tecnología es aplicada en el diseño de procesadores eficientes.

A estos procesadores se les conoce como pipeline processors. Estos están compuestos por una lista de
segmentos lineales y secuenciales en donde cada segmento lleva a cabo una tarea o un grupo de
tareas computacionales. Los datos que provienen del exterior se introducen en el sistema para ser
procesados. La computadora realiza operaciones con los datos que tiene almacenados en memoria,
produce nuevos datos o información para uso externo.

Las arquitecturas y los conjuntos de instrucciones se pueden clasificar considerando los siguientes
aspectos:

 Almacenamiento de operativos en la CPU: dónde se ubican los operadores aparte de la


substractora informativa (SI)

 Número de operandos explícitos por instrucción: cuántos operandos se expresan en forma explícita
en una instrucción típica. Normalmente son 0, 1, 2 y 3.
 Posición del operando: ¿Puede cualquier operando estar en memoria?, o deben estar algunos o
todos en los registros internos de la CPU. Cómo se especifica la dirección de memoria (modos de
direccionamiento disponibles).

 Operaciones: Qué operaciones están disponibles en el conjunto de instrucciones.

 Tipo y tamaño de operandos y cómo se especifican.


[editar]Almacenamiento de operandos en la CPU

La diferencia básica está en el almacenamiento interno de la CPU.

Las principales alternativas son:

 Acumulador.

 Conjunto de registros.

 Memoria

Características: En una arquitectura de acumulador un operando está implícitamente en el acumulador


siempre leyendo e ingresando datos. (Ej.: calculadora Standard -estándar-)

En la arquitectura de pila no es necesario nombrar a los operandos ya que estos se encuentran en el


tope de la pila. (Ej.: calculadora de pila HP)

La Arquitectura de registros tiene sólo operandos explícitos (es aquel que se nombra) en registros o
memoria.

[editar]Ventajas de las arquitecturas

 Pila: Modelo sencillo para evaluación de expresiones (notación polaca inversa). Instrucciones cortas
pueden dar una buena densidad de código.

 Acumulador: Instrucciones cortas. Minimiza estados internos de la máquina (unidad de control


sencilla).

 Registro: Modelo más general para el código de instrucciones parecidas. Automatiza generación de
código y la reutilización de operandos. Reduce el tráfico a memoria. Una computadora actualmente
tiene como estándar 32 registros. El acceso a los datos es más rápido, y veloz.
[editar]Desventajas de las arquitecturas

 Pila: A una pila no se puede acceder aleatoriamente. Esta limitación hace difícil generar código
eficiente. También dificulta una implementación eficiente, ya que la pila llega a ser un cuello de
botella es decir que existe dificultad para la transferencia de datos en su velocidad mk.

 Acumulador: Como el acumulador es solamente almacenamiento temporal, el tráfico de memoria es


el más alto en esta aproximación.
 Registro: Todos los operadores deben ser nombrados, conduciendo a instrucciones más largas.

¿Cómo sé la arquitectura de mi PC/Sistema Operativo?


Solución

Si desea ver la arquitectura de su Sistema Operativo, simplemente siga las siguientes


instrucciones:

 Para windows Vista/7:


1. Haga click en Inicio
2. Haga click derecho en Equipo
3. Haga click en propiedades
4. En la sección "Sistema" aparece "Tipo de Sistema", corresponde a la
arquitectura de su sistema (32 o 64 bits)
5. En la sección "Edición de Windows" aparece la información de sus sistema
operativo.
 Para windows XP:
1. Presione la tecla Windows + R (tecla R).
2. En la ventana que aparecerá escriba: "dxdiag" sin comillas
3. En la ventana que se abrirá (Herramienta de diagnóstico de DirectX) aparece
todo el detalle de su equipo, en la información del sistema puede ver el
sistema operativo. Ver Captura de pantalla

1. LA PLACA BASE
Componente fundamental del PC, también denominada frecuentemente placa madre o
mediante los términos en inglés motherboard o mainboard. Es la placa más importante del PC.
Sobre ella se conectan el resto de componentes y de sus características se derivan, en gran
medida, las prestaciones que nos va a ofrecer finalmente nuestro ordenador.

 LOS COMPONENTES DE UNA PLACA BASE.


Aunque placas base existen de muchas formas, tipos y tamaños, sin embargo la estructura
general de la mayoría de ellas así como los elementos que las integran vienen a ser muy
similares entre si. Una placa base no es sino una gran placa de circuito impreso que conecta
entre sí los diferentes elementos contenidos en ella y que conforman la estructura básica del
ordenador personal conocido como PC. Básicamente los elementos que componen toda placa
base son: el zócalo del microprocesador, los zócalos de memoria, los diferentes conectores
tanto internos como externos, las ranuras de expansión y, finalmente, una serie de chips o
circuitos integrados encargados en mayor o menor medida de ciertas tareas específicas.

 Zócalos del microprocesador  Chipset (tercer chip)


 Zócalos de memoria  Conector disquetera
 Northbridge (chipset)  Conector SMBus
 Southbridge (chipset)  Conector USB Externo
 Conectores IDE/RAID IDE  Conector del ventilador 3
 Conector del ventilador (fan)  Conectores USB externos
 Conector del ventilador 2  Conector PS/2 ratón
 Conector AGP  Conector PS/2 teclado
 Conectores PCI  Puerto paralelo
 Conector WakeOn LAN  Puerto serie COM1
 Conector infrarrojos (IrDA)  Puerto serie COM2
 Conector WakeOn Ring  BIOS

 LA BIOS
Se denomina BIOS (Basic Input-Output System, Sistema Básico de Entrada y Salida) a un
software o código específico almacenado en un chip de memoria EPROM (Erasable
Programable Read Only Memory, Memoria de Sólo Lectura que puede ser borrada y
programada), cuyo contenido permanece inalterable al apagar el PC, aunque puede ser
reprogramado. Este software es el prime en ejecutarse durante el proceso de arranque de una
placa base, de ahí su vital importancia.
Actualmente, la práctica totalidad de placas existentes en el mercado incorpora un chip de
memoria de tipo EPROM denominada flash BIOS, que además cuenta con el apoyo de otro
chip de memoria estática llamado CMOS. Este chip flash BIOS puede ser actualizado
mediante software, y permite mucha más flexibilidad a la hora de disponer de una BIOS que
incorpore nuevas prestaciones. Basta con conseguir del fabricante la última versión disponible
de BIOS para nuestro modelo de placa base y, con un sencillo programa que generalmente
también es suministrado por el fabricante. Las opciones más actuales permiten realizar el
proceso de actualización desde una opción en la propia BIOS o incluso desde el propio
sistema operativo, como es el caso de determinados modelos que permiten llevar a cabo todo
el proceso directamente desde una aplicación Windows.
En la actualidad, los principales fabricantes de BIOS para placas base son AMI (American
Megatrends Inc.), y sobre todo AWARD (actualmente integrada con Phoenix Technologies).
Algunas de las principales características incorporadas en todas las BIOS actuales son el
soporte para Plug and Play, que permite la detección automática de dispositivos, la gestión
avanzada de energía mediante estándares como APM, y la configuración del microprocesador
a través de la propia BIOS.
Generalmente se suele acceder al menú de opciones de la BIOS pulsando la tecla Supr
(suprimir). Este es el caso de las BIOS AWARD-Phoenix y AMI. En otras BIOS la tecla
“mágica” suele ser la tecla F2. La BIOS dispone además de funciones de protección de
acceso mediante contraseña para evitar el acceso a nuestro PC. Debido a esto, puede ocurrir
que un usuario asigne contraseñas de acceso a la BIOS y posteriormente no las recuerde.
Para solucionar este problema, la mayoría de las placas base incorporan un puente (jumper)
denominado ClearCMOS (“limpiar” CMOS), que permite eliminar las configuraciones
almacenadas en BIOS, entre ellas las contraseñas, y dejar así la BIOS con los valores
originales de fábrica. El inconveniente de esta solución es que se pierden los valores que
hubiéramos modificado.

 EL PROCESO DE ARRANQUE.
Cuando arrancamos el PC se realizan una serie de procesos que duran tan solo unos pocos
segundos. La BIOS realiza inicialmente un autochequeo de encendido denominado POST
(Power On Self Test, Test Automático de Encendido), que se encarga de verificar todos los
componentes vitales de nuestra placa base: memoria, microprocesador, caché, DMA, teclado,
sistema gráfico, disqueteras y discos duros. Si durante esta comprobación se detecta algún
error, la BIOS responderá con una serie de pitidos a través del altavoz del PC. Según sea el
número de pitidos y su duración podremos determinar el tipo de error. Estos códigos de error
generalmente están estandarizados.
La BIOS también configura todos los parámetros de funcionamiento de los distintos
componentes del sistema, asignando varios recursos como la IRQ, direcciones de memoria y
los puertos de entrada/salida a cada uno de estos componentes.
El proceso de arranque de la BIOS es el responsable de todos los mensajes que nos
aparecen en el tiempo que transcurre justo desde que encendemos el ordenador hasta que
vemos el mensaje del sistema operativo. La secuencia de aparición de los mensajes, en líneas
generales, suele ser la siguiente:

 Mensaje de la BIOS de la tarjeta gráfica.


 Nombre del fabricante de la BIOS
 La BIOS nos indica que microprocesador tenemos instalado en nuestro PC y su frecuencia en Mhz.
 Comprobación de la memoria RAM.
 Un mensaje indicativo que nos indica lo que debemos hacer para acceder a la BIOS de nuestro PC.
 Aparecerán mensajes informativos referidos a otros dispositivos.
 La BIOS enseña un cuadro donde aparece un resumen de todas las características más significativas
acerca de la configuración de nuestro PC.

1.1.2. LA BATERÍA.
Todas las placas base suelen incluir una pequeña pila o batería de tipo botón que se encarga
básicamente de mantener la alimentación eléctrica del reloj de tiempo real (RTC, Real Time
Clock), así como los parámetros sobre nuestros discos duros y otros parámetros de usuario
almacenados en la CMOS RAM. Si observamos alguna anomalía al encender nuestro equipo
y recibimos algún mensaje en pantalla del tipo cheksum failure, posiblemente sea debido a
que la pila está agotada. Generalmente la duración de la batería suele oscilar entre tres y
cinco años.
1.1.3. EL ZÓCALO DEL MICROPROCESADOR.
Este zócalo ha sufrido una constante evolución desde la aparición del PC original en 1980.
En determinadas placas base 486, existían varios tipos de zócalos, en función del tipo de
microprocesador para los que estuviese diseñada la placa. Los de estructura cuadrada con
palanca se conocen como zócalo ZIF (Zero Inserction Force, zócalos de fuerza de inserción
cero). Se denomina así porque no es necesario hacer fuerza al insertar el microprocesador.
Estos fueron los zócalos más habituales durante unos años, hasta la irrupción en el mercado
del Pentium II y sus sucesores, que impusieron el zócalo de tipo Slot. Posteriormente, se
volvió de nuevo a los zócalos de tipo ZIF con un número de patillas mucho mayor.
Los zócalos de tipo ZIF cuentan con una pequeña marca triangular que debe hacerse coincidir
con otra marca triangular o muesca presente en el microprocesador. Si el microprocesador no
es insertado de esta manera, las patillas no coincidirán y se corre el peligro de dañar sus
patillas al forzarlo en una posición incorrecta. Por lo tanto, en los zócalos de tipo ZIF hay que
tener en cuenta la orientación del microprocesador a la hora de insertarlo.
En el caso de los zócalos rectangulares tipo Slot, la inserción del microprocesador en los
mismos se hace por simple presión, siempre teniendo en cuenta la orientación de la muesca
que tienen tanto el zócalo como la fila de contactos del propio microprocesador, muesca que
evita el montaje incorrecto.
Los tipos mas frecuentes de zócalos presentes en las diferentes placas base para PC han sido
desarrollados en su mayoría por Intel, y se recogen en la siguiente tabla:

Zócalo antiguo presente en las placas 486. Tenía


Socket -1 169 patillas y operaba con una tensión de 5 voltios.
Pequeña actualización del Socket-1. Tenía 238
Socket -2 patillas y seguía funcionando a 5 voltios.

Contenía 237 patillas y operaba a 5 voltios, pero


añadía la capacidad de funcionar a 3,3 voltios,
configurando el voltaje mediante un puente en la
Socket -3 placa base.

Especialmente diseñado para su uso con los


primeros microprocesadores Pentium de 5 voltios a
60 y 66 Mhz. Tenía 273 patillas y operaba a 5
Socket -4 voltios.

Socket -5 Operaba a 3,3 voltios y disponía de 320 patillas.

Versión avanzada del SOCKET-3. Tenía 235


Socket T-6 patillas y operaba a 3,3 voltios.

Es el estándar para procesadores Pentium y


Pentium-MMX. Este zócalo también daba soporte
sin problemas a microprocesadores de otros
fabricantes tales como AMD K5, K6, K6-2, K6-III
y los procesadores Cyrix. Tenía 321 patillas y
Socket -7 operaba en un rango de 2,5 a 3,3 voltios.

Es el zócalo empleado de manera exclusiva por los


microprocesadores Pentium Pro. Disponía de 387
Socket -8 patillas y operaba a voltajes de 3,1 y 3,3 voltios.

No se trata de un zócalo del tipo ZIF, sino de tipo


SEC (Single Edge Conector, Conector de Borde
Simple). Patentado por Intel para sus
microprocesadores Pentium II y Celeron. Constaba
de 242 contactos y permitía operar en un rango de
Slot-1 voltajes que oscilaban entre 2,8 y 3,3 voltios.

Versión mejorada del Slot-1 para Pentium II/III


Xeon. A diferencia del Slot-1, disponía de dos
muescas. Tenía 330 patillas y permitía operar con
Slot-2 voltajes que variaban entre los 1,3 y 3,3 voltios.

Se emplea principalmente con las últimas versiones


de los microprocesadores Pentium III y Celeron de
Intel. Soporta un rango de voltajes entre 1,3 y 2,1
Socket-370 voltios.
Versión muy similar al Slot-1, aunque
incompatible desarrollada por el fabricante AMD
para sus primeros microprocesadores Athlon.
Constaba de 242 contactos y permitía un rango de
Slot-A voltajes entre 1,3 y 2,05 voltios.

Es la respuesta de AMD al Socket-370 de Intel. Es


el zócalo empleado con las actuales versiones de
Socket-A los microprocesadores Athlon y Duron de AMD.

Especialmente diseñado para albergar a los


primeros microprocesadores Pentium 4 de Intel.
Socket-423 También se le denomina PGA423.

Nueva versión del zócalo de tipo ZIF, surgida


como evolución del Socket-423, pero en este caso
con 478 patillas, especialmente diseñado para
alojar a los últimos modelos de Pentium 4 de Intel
con núcleo Northwood de 0,13 micras. También se
Socket-478 le denomina PGA478.

Son las más recientes versiones del zócalo de tipo


ZIF destinadas a alojar a los distintos
microprocesadores de AMD de 64 bits.
Concretamente, el Socket-754 está diseñado para el
Socket-754 y Socket-940 AMD Opteron y el Socket-940 para el Athlon 64

Denominación Nº de patillas Microprocesadores soportados

486SX, 486DX, 486DX2,


Socket-1 169 486DX4 y 486DX4 OverDrive

486SX, 486DX, 486DX2,


486DX4, 486DX4 OverDrive y
Socket-2 238 Pentium OverDrive.

486SX, 486DX, 486DX2,


486DX4, AMD5x86, Cyrix5x86
Socket-3 237 Y Pentium OverDrive.

Pentium 60-66 y Pentium


Socket-4 273 OverDrive 120/133.

Pentium 75-133 y Pentium


Socket-5 320 OverDrive 125-166.
Socket-6 235 486DX4 y Pentium OverDrive

Pentium 75-200, Pentium


OverDrive, Pentium MMX,
6x86, K5, K6, K6-2, K6-III,
Socket-7 321 Cyrix 6x86, 6x86L, 6x86MX.

Pentium Pro, Pentium Pro


OverDrive y Pentium II
Socket-8 387 387OverDrive.

Celeron, Pentium II y Pentium


Slot-1 242 III.

Pentium II Xeon y Pentium III


Slot-2 330 Xeon.

Socket-370 370 Celeron.

Slot-A 242 AMD Athlon.

Socket-A 462 AMD Athlon y Duron.

Socket-423 423 Pentium 4 (Willamette)

Socket-478 478 Pentium 4 (Northwood)

Socket-754 754 AMD Opteron.

Socket-940 940 AMD Athlon 64.

1.1.3.1. CONFIGURACIÓN DEL MICROPROCESADOR.


Cuando se monta un microprocesador en una placa base, es necesario configurar algunos
parámetros tales como la frecuencia de funcionamiento del mismo y, en el caso de las placas
antiguas, los niveles de voltaje. Un microprocesador mal configurado puede verse seriamente
dañado. Esto es así debido a que las placas base se fabrican con objeto de dar soporte a una
amplia variedad de frecuencias de funcionamiento y diferentes voltajes de alimentación.
La configuración de un microprocesador básicamente consiste en ajustar dos parámetros: la
frecuencia base del microprocesador y el multiplicador, que simplemente es el factor por el
que una vez multiplicada la frecuencia base nos permitirá obtener su frecuencia de
funcionamiento. Para ello generalmente existe un conjunto de tres o cuatro puentes o
microinterruptores en la placa para configurar la frecuencia, y otro pequeño conjunto para
configurar el multiplicador.
La única forma de obtener la configuración correcta es consultando el manual de la placa base
o cualquier información adicional del fabricante. En la mayoría de las placas base suelen
aparecer impresas unas tablas donde se indican las diferentes combinaciones de puentes
necesarias para cada valor de frecuencia base y multiplicador.
En la actualidad prácticamente no se utilizan jumpers, salvo para la configuración de
parámetros concretos, por lo que las placas base suelen incorporar otros mecanismos de
configuración. Algunas lo hacen mediante unos microinterruptores, cuyas combinaciones
(abierto/cerrado) nos permiten configurar de manera mucho más cómoda todo lo que antes se
configuraba por medio de jumpers. No obstante, lo habitual hoy en día es la configuración
automática de los parámetros del microprocesador, simplemente accediendo a la BIOS de la
placa base y modificando dichos parámetros en el menú correspondiente. Para ellos, se han
desarrollado diferentes tecnologías de configuración automática, dependiendo de cada
fabricante en particular.
1.1.4. LOS ZÓCALOS DE MEMORIA RAM.
En función del tipo de placa base es importante determinar el tipo de memoria que debemos
usar. En las placas base empleadas en los primeros tiempos del PC, los chips de memoria se
solían insertar directamente en la placa. Posteriormente se consideró la posibilidad de agrupar
esos chips de memoria en un pequeño módulo o circuito impreso que se insertaba a su vez en
la placa en una ranura. Nacía así el SIMM de 30 contactos, muy usado en las placas 386 y
486. Posteriormente aparecieron los SIMM de 72 contactos usados en las antiguas placas
Pentium. Actualmente los dos tipos de módulos más habituales que podemos encontrar en el
mercado son los DIMM de memoria SDRAM y los RIMM de memoria RDRAM.
Los SIMM (Single In-Line Memory Module, Modulo de Memoria Simple en Línea) que
diferenciaban en función de la tecnología empleada en los chips de memoria que llevaban
integrados. Estos podría ser de tipo FPM (Fast Page Mode, Modo de Página Rápida) o EDO
(Extended Data Out, Salida Extendida de Datos). Estas tecnologías de memoria hoy en día
están muy desfasadas y prácticamente han desaparecido del mercado.
La SDRAM (Synchornous Dynamic RAM, Memoria RAM Dinámica Síncrona) es el tipo de
memoria más habitual que podemos encontrar en la actualidad. Es un tipo de memoria que
opera de manera síncrona con el bus de memoria, empleando la misma señal de reloj.
Generalmente presenta tiempos de acceso entre 8 y 10 nanosegundos, mientras que el
estándar DRAM presentaba tiempos de accesos típicos de 60, 70 y 80 nanosegundos.
Tradicionalmente, los módulos de memoria han funcionado con una frecuencia igual a la del
bus del sistema. Durante mucho tiempo, esta frecuencia fue de 66 Mhz, pero actualmente, con
el aumento de la frecuencia del bus del sistema a 133 Mhz y superiores, aparecieron módulos
de memoria más rápidos: los denominados PC-133, que no son más que módulos DIMM de
memoria SDRAM que funcionan a una frecuencia de 133 Mhz. Para que alcancen esta
frecuencia de funcionamiento necesitan ser montados en placa base que cuenten con un
chipset que dé soporte al menos a dicha frecuencia base de funcionamiento.
En la práctica, la memoria SDRAM actual se integra en dos tipos de módulos DIMM parecidos:
los de 168 contactos (SDRAM estándar) que funcionan a 3,3 voltios y los de 184 contactos
(SDRAM DDR) con un voltaje de 2,4 voltios. En placas base con determinados chipsets Intel
podemos encontrar un tercer tipo de módulos, los denominados RIMM, de memoria RDRAM
(Rambus), un diseño de memoria capaz de elevadas prestaciones, pero con un elevado
precio.
El tipo de memoria más avanzado en la actualidad es la SDRAM DDR de canal dual (Dual
Channel DDR), que permite el acceso simultáneo a dos módulos de memoria, lo que puede
llegar a duplicar las prestaciones en lo que a acceso a memoria se refiere. La gran mayoría de
chipsets de última generación ofrecen soporte para este tipo de memoria.
El número de zócalos de memoria RAM que integran las actuales placas base está
directamente relacionado con el chipset de la placa base y con la cantidad máxima de
memoria que este es capaz de gestionar. Generalmente, en las actuales placas base
encontramos un máximo de 4 zócalos para módulos DIMM. En cuanto a la cantidad de
memoria que puede admitir una placa base, generalmente cada zócalo DIMM admite todos los
módulos existentes en el mercado, que suelen tener tamaños de 64, 128, 256, 512 Mb y 1 Gb.

Nota: en determinados casos puede ocurrir que dos zócalos de memoria estén compartidos, lo que viene
a significar que sólo se puede usar uno de los dos. Esto ocurre en determinados modelos de placas base
con cuatro zócalos, estando compartidos el zócalo 3 y 4. No obstante, todos estos detalles, así como la
configuración precisa de la memoria de la placa, son aspectos que suelen estar perfectamente
contemplados por todos los fabricantes de placas base en sus correspondientes manuales y hay que
referirse a ellos para una correcta configuración.

1.1.5. LA MEMORIA CACHÉ.


La memoria caché es una memoria mucho más rápida y por tanto más cara que la memoria
RAM del ordenador. Su función consiste en almacenar los últimos datos e instrucciones leídos
de la memoria RAM. De esta forma, el siguiente acceso a una posición de la memoria ya leída
anteriormente se realizará de forma más rápida que si se tuviera que hacer directamente
desde la memoria RAM, ya que el acceso tiene lugar en la propia caché, bastante más rápida.
El sistema de memoria caché se empezó a implantar en las placas base para 386 y fue a
partir de las placas para 486 cuando su uso se hizo mas generalizado. Actualmente, la
memoria caché ha desaparecido de las placas y se suele encontrar integrada en el interior del
microprocesador. Esta modificación tuvo lugar a partir del desarrollo del Pentium II y ha
continuado con todos los desarrollos de microprocesadores posteriores. Al integrarse la
memoria caché en el propio microprocesador se consigue una velocidad de acceso mucho
mayor, ya que las vías de comunicación entre el microprocesador y la memoria son muy
cortas.
1.1.5.1. NIVELES DE MEMORIA CACHÉ.
La memoria caché de una placa base se conoce como caché de nivel 2 (L2, Level 2) para
diferenciarla de la caché de nivel 1 (L1, Level 1), que es la que desde el primer momento se
viene integrando dentro del propio microprocesador. La caché de nivel 1 es la memoria más
rápida que existe en el ordenador, después de los propios registros internos del
microprocesador, y suele ser pequeña, tanto que está integrada en el propio núcleo del
microprocesador. Generalmente suele tener un tamaño de 32 Kb, de los que se emplean 16
Kb para instrucciones y 16 Kb para datos. No obstante, esta cantidad puede variar
dependiendo de cada modelo de microprocesador. Concretamente, algunos
microprocesadores recientes integran 64 o incluso 128 Kb de caché L1.
1.1.6. RANURAS DE EXPANSIÓN.
Todas las placas base permiten la conexión de cualquier tipo de periféricos adicionales en
forma de tarjeta. Ello es posible gracias a las denominadas ranuras de expansión. De los
muchos buses que han existido a lo largo de la historia del PC, hoy en día básicamente han
quedado tres: PCI, AGP y conectores de tipo raiser (AMR, CNR y ACR).
Uno de los buses más antiguos es el bus ISA (Industry Standard Architecture, Arquitectura
Estándar de la Industria). No obstante, la tendencia actual del mercado ha conducido a su total
desaparición, según las últimas especificaciones de los fabricantes, a favor de placas base
que integren únicamente ranuras PCI, AGP y en determinados casos otras más específicas
como AMR, CNR y ACR.
1.1.7. EL BUS PCI.
Actualmente el PCI se ha convertido en el bus local de 32 bits más extendido y utilizado en
placas base para PC. Las iniciales PCI responden a Preripehral Component Interconnect
(Interconexión de Componentes Periféricos). Fue desarrollado por Intel en 1993 e introducido
en las primeras placas base Pentium y en la última generación de placas 486 que aparecieron
en el mercado.
El PCI Local Bus es un bus de 32 bits que puede alcanzar un máximo de transferencia de 133
Mbits/s a una frecuencia de 33,3 Mhz. Otra característica especia del bus PCI es que es
independiente del sistema, lo que significa que cualquier periférico PCI desarrollado
originalmente para un PC puede funcionar en cualquier otro sistema que incorpore
arquitectura y conectores PCI.
El PCI es un bus que ofrece altas prestaciones, por sus características especiales:

 El modo burst (ráfaga).


 Soporta arbitraje del bus.
El bus PCI puede ser configurado para que trabaje en modo síncrono o asíncrono, en función
de cada placa base y del chipset integrado. En el modo síncrono, el más habitual en placas
base actuales, el bus PCI funciona a la mitad de la frecuencia de la memoria, que además
suele coincidir con la frecuencia base del bus de la placa base, la denominaba frecuencia
FSB. Así, si la memoria funciona a 66 Mhz, el bus PCI funciona a 33 Mhz. En el modo
asíncrono, la frecuencia del bus PCI puede ser configurada independientemente de la
frecuencia de la memoria.
1.1.7.1. EL ARBITRAJE DEL BUS (BUS MASTERING).
Es la capacidad que tienen los dispositivos PCI de tomar el control del bus y realizar
transferencias de información directamente.
Debe estar soportado por el chipset de la placa base. Permite que varios dispositivos PCI
compitan por el uso en exclusiva del bus PCI sin interferirse entre ellos. Para ello, los
dispositivos que han de competir se comunican entre ellos y el chipset de la placa base hace
de “arbitro” para que no se produzcan interferencias por el uso del bus.
El bus PCI permite además aplicar la técnica de Bus Mastering a los dispositivos IDE/ATA.
Usando Bus Mastering, el rendimiento de estos dispositivos, típicamente los discos duros,
aumenta sensiblemente. Para que sea posible el uso del Bus Mastering en dispositivos IDE se
tienen que dar una serie de condiciones:

 Un hardware que soporte Bus Mastering. Tanto el chipset integrado en la placa base como la BIOS
deben soportar esta tecnología.

 Discos duros con soporte Bus Mastering. Esto se traduce en que los discos duros deben soportar al
menos el modo de transferencia Multiword DMA modo 2.

 Un sistema operativo multitarea de 32 bits.


 Tener instalados drivers para el soporte del Bus Mastering.
1.1.7.2. NUEVOS ESTÁNDARES DE BUS PCI.
La elevada demanda de velocidad requerida por muchas de las actuales tarjetas de expansión
del PC ha hecho necesaria una importante evolución del bus PCI, un bus que en la actualidad
ya está empezando a quedarse obsoleto, lo que provoca en muchos casos un considerable
cuellos de botella a la hora de comunicar placa base y tarjetas de expansión. En las ultimas
revisiones del bus PCI se ha mantenido los 32 bits y la frecuencia estándar de 33 Mhz, pero
se ha aumentado la tasa de transferencia hasta los 133 Mbps y se ha disminuido el voltaje,
pasando de 5 a 3,3 voltios.
Entre los nuevos desarrollos se encuentra el denominado PCI Express. Anteriormente habían
surgido otras actualizaciones del bus PCI, como el PCI-64 y el PCI-X.
El PCI-64 fue el primer bus PCI de 64 bits destinado a plataformas profesionales. Aumenta su
frecuencia base a 66 Mhz, así como la tasa de transferencia máxima hasta situarla en 266
Mbps. Incluye las siguientes novedades:
 PCI Hot Plug (conexión en caliente). Permite conectar y desconectar tarjetas de expansión al bus PCI
sin necesidad de apagar el ordenador.

 Gestión de energía PCI.


El PCI-X es la evolución del PCI-64. Permite configurar la frecuencia base de forma variable,
alcanzando inicialmente frecuencias de 66, 100 y 133 Mhz y velocidades de transferencia de
hasta 1 Mbps. La versión más reciente de PCI-X es la 2.0, con frecuencias de 266 y 533 Mhz
y una tasa de transferencia máxima de 4,2 Gbps, exactamente el doble que el bus AGP 8x.
El más reciente desarrollo del bus PCI, eso sí, orientado ya a plataformas domésticas, es el
PCI Express, un desarrollo conjunto de fabricantes, destinado a hacer desaparecer los
tradicionales buses PCI y AGP. Una enorme ventaja es que con este bus se conseguirá la
unificación de todas las tarjetas de expansión de la placa base con un mismo tipo de bus. Las
primeras versiones parten de una tasa de transferencia de 4,8 Mbps, con un consumo de tan
solo 0,8 voltios, aunque experimentalmente se han llegado a conseguir velocidades de hasta
16 Gbps con 32 líneas de datos.
1.1.8. EL PUERTO DE GRÁFICOS ACELERADO (AGP)
Permite alcanzar una tasa de transferencia de datos máxima de 2 Gbit/s en modo de 8x, frente
a los 133 Mbits/s máximos que puede alcanzar el PCI.
El primer chipset en dar soporte completo al bus AGP fue el LX de Intel. Este chipset sólo
soportaba AGP 1x. Posteriormente, y hasta el chipset BX de Intel, el modo habitualmente
soportado era el AGP 2x. De ahí se pasó al AGP 4x; actualmente el soporte del modo AGP 8x
y AGP 16x son los más habituales. Dichos valores están calculados en el caso supuesto de
que la tarjeta gráfica esté empleando ella sola todo el ancho de banda de la memoria, sin que
el microprocesador tenga ocasión de acceder a ella, lo cual nunca es una situación real.

Tipo de bus Frecuencia de Reloj Tasa de transferencia

PCI compartido 33 Mhz 133 Mb/s

AGP 1x 66 Mhz 266 Mb/s

AGP 2x 133 Mhz 533 Mb/s

AGP 4x 266 Mhz 1 Gb/s

AGP 8x 533 Mhz 2 Gb/s

1.1.9. LAS CLAVES DEL BUS AGP.


Una de las piezas claves del rendimiento que ofrece el bus AGP es el uso de segmentación
encauzada (pipeline), técnica que permite que la tarjeta gráfica AGP pueda llevar a cabo
varias peticiones a la memoria principal, sin tener que esperar a recibir los resultados de una
petición anterior. El bus AGP puede hacer nuevas peticiones, con lo que se gana en tiempo y
velocidad.
Otra de las claves reside en la denominada memoria AGP, que no es más que una parte de la
memoria RAM del sistema que se asigna dinámicamente para uso exclusivo de la tarjeta
gráfica AGP. Todo esto forma parte de la denominada UMA (Unified Memory Achitecture,
Arquitectura de Memoria Unificada).
Otro concepto introducido por el bus AGP es el DIME (Direct Memory Excute, Ejecución
directa de memoria). Este concepto está muy relacionado con la aplicación de texturas en el
desarrollo de gráficos 3D. En el caso de una tarjeta gráfica, la textura se almacena en la
memoria RAM, y cuando va a ser aplicada se pasa a la memoria gráfica de la propia tarjeta
donde se llevan a cabo las operaciones necesarias.
En el caso del AGP, la tarjeta hace todas estas operaciones en memoria RAM, y el resultado
solo se pasa a la memoria gráfica cuando va a ser visualizado. De ahí lo de “ejecución directa
de memoria”. Sin embargo, el uso de DIME no es común en todas las tarjetas y existen
métodos alternativos.
1.1.10. CONECTORES RAISER: AMR, CNR y ACR.
El AMR (Audio and Moden Raiser) es el primer conector que inauguraba la arquitectura raiser
de Intel, estandarizado a raíz de la aparición del chipset i810 de Intel. Es un puerto que
soporta la conexión de módem y tarjeta de sonido, proporcionando un alto nivel de integración
a bajo costo.
Permite el uso de tarjetas de sonido AMR, basadas en el estándar AC'97 y módems AMR, que
pueden funcionar como primarios o secundarios, configuración que el fabricante determina a
nivel de hardware.
El CNR (Comunication and Network Raiser) es uno de los últimos puertos aparecidos en las
placas base que permite la conexión de varios tipos de tarjetas basadas en este formato,
parecido al AMR, pero con funciones más amplias. Soportan el uso de hasta cinco interfaces
diferentes, según las especificaciones:
 Interfaz AC'97. Permite el soporte para funciones de audio y módem en tarjetas CNR.
 Interfaz para conexión de LAN. Para tarjetas de red CNR basabas en chips de Intel.

 Interfaz independiente del medio.


 Bus serie Universal (USB). Permite el soporte de nuevas tecnologías de comunicaciones basadas en
conexión USB.
 Bus de Gestión del Sistema. Proporciona funcionalidad de Plug and Play a las tarjetas CNR.
Finalmente, el ACR (Advanced Communications Raiser) es muy similar al CNR, aunque con
características específicas:
 Utiliza el espacio dedicado a uno de los conectores PCI y reemplaza los conectores ISA.
 Es totalmente compatible hacia atrás con el conector AMR.
 Ofrece soporte a tecnologías de comunicaciones xDSL, a través de la interfaz USB.
 Ofrece soporte para futuras tecnologías inalámbricas.

1.1.11. EL BUS INTERNO DE LA PLACA BASE (FSB).


Al igual que los dispositivos de almacenamiento y muchos otros dispositivos comunican sus
datos mediante un cable (bus), la placa también dispone internamente de un camino general
de comunicaciones conocido como bus de la placa o bus del sistema. Técnicamente se le
conoce como Front Side Bus o FSB.
Este bus se caracteriza por tener una frecuencia característica de funcionamiento, de tal forma
que a mayor frecuencia de bus tendremos una placa base más rápida en términos generales.
La frecuencia de funcionamiento del bus del sistema depende directamente del chipset
integrado en la placa base, por lo que se convierte en un factor muy a tener en cuenta a la
hora de elegir una placa base.
Desde que Intel introdujo el procesador Pentium en 1992, la frecuencia típica de bus se había
mantenido en 66 Mhz. Sin embargo, la industria ha evolucionado enormemente en este
sentido, orientándose hacia mayores frecuencias de bus. Actualmente, las frecuencias
habituales son de 333, 400, 533 y hasta 800 Mhz, frecuencia que se ha alcanzado con los
últimos chipsets para el microprocesador Pentium 4.

 EL FORMATO FÍSICO DE LA PLACA BASE.


Han existido diversos formatos desde el momento de la aparición del PC, al formato habitual
durante mucho tiempo se le bautizó como Baby-AT o simplemente AT. Determinaba la
posición de los diferentes componentes de la placa, así como las características del conector
de alimentación eléctrica dividido en dos piezas. Una placa base con formato AT se identifica
principalmente por el conector de teclado, así como por el conector de alimentación eléctrica,
formado por dos piezas con seis cables cada una, con cuatro cables negros situados en el
centro (P8 y P9), característica que servía de referencia a la hora de hacer la conexión.
1.2.1. LA ESPECIFICACIÓN ATX.
En Julio de 1995, Intel presentaba la especificación ATX 1.0.
Existen versiones reducidas como Micro-ATX o Flex-ATX. El formato ATX permite que los
conectores y zócalos estén mucho más accesibles, así como una reducción en la longitud de
los cables. Se reduce la posibilidad de interferencias y emisión de radiación electromagnética.
La fuente de alimentación se ha rediseñado. El conector de alimentación ahora es de una sola
pieza y soporta no sólo los clásicos voltajes de 5 y 12 voltios sino también 3,3 voltios. Además,
se le añade una nueva línea para el control por software, para que sistemas operativos con
soporte para gestión avanzada de energía sean capaces de apagar el PC sin la intervención
del usuario.
Hoy en día, la norma ATX en cualquiera de sus variantes es la que impera en el mercado.
Resumiendo, estas son las características más significativas de las placas base con formato
ATX:
 Un nuevo diseño que cambia la situación de todos los componentes.
 Presentan una mayor integración de componentes (audio, video y adaptadores de red).
 Todos los conectores de entrada/salida se localizan en la parte posterior derecha.
 El conector de alimentación presenta un aspecto más compacto con nuevas funciones.
 Los zócalos de memoria están en una posición más accesible y lejos de las ranuras de expansión.
 Los conectores para disqueteras, discos duros y otros sistemas de almacenamiento se sitúan más cerca de
estos.

1.2.2. LAS NUEVAS ESPECIFICACIONES ITX y BTX.


Últimamente, cada vez está siendo más habitual la presencia de modelos de PC de muy
reducidas dimensiones, denominados Mini-PC, gracias a nuevas cajas de pequeños formato y
componentes cada vez más reducidos e integrados. Esto ha sido posible en especial gracias a
un nuevo formato de placa base: el denominado ITX, con distintas variantes desarrolladas por
algunos fabricantes.
Debido a sus reducidas dimensiones, estas placas integran el máximo número de
componentes posible, disponiendo de una sola ranura PCI para tarjetas de expansión, lo que
hace que los equipos que montan estas placas cuenten con muy pocas posibilidades de
ampliación.
Otra de las nuevas especificaciones de factor de forma es la denominada BTX (Balanced
Technology eXtended, Tecnología Extendida Balanceada). Este estándar viene a ser una
evolución del tradicional ATX, pero adaptado a los nuevos tiempos y a todas las nuevas
tecnologías desarrolladas hasta la fecha.
Las diferentes opciones de tamaño de placa base basadas en este estándar se denominan
BTX (7 ranuras de expansión), microBTX (4 ranuras de expansión) y picoBTX (1 ranura de
expansión), siguiendo un tamaño decreciente.

 EL CHIPSET.
La placa base de un ordenador es el dispositivo sobre el que se montan los demás
componentes del PC, tales como el microprocesador, las diferentes tarjetas de expansión y la
memoria.
La función de la placa base es la de servir de vía de comunicación entre los citados
componentes, proporcionando las líneas eléctricas necesarias y las señales de control para
que todas las transferencias de datos se lleven a cabo de manera rápida y fiable.
Si analizamos la arquitectura de un PC, podemos ver que existen varios caminos por los que
fluye la información, siendo el centro neurálgico el microprocesador, ya que es el componente
que maneja y procesa toda esa información. Así pues podemos diferencias tres canales de
comunicaciones principales en una placa base:
 Entre el microprocesador y la memoria (RAM y caché).
 Entre el microprocesador y las tarjetas de expansión (ISA, PCI, AGP, AMR, CNR y ACR).
 Entre el microprocesador y los diferentes dispositivos de almacenamiento.
La velocidad con que se mueven los datos en el interior de un PC está muy estrechamente
relacionada con el chipset integrado en la placa base. Prácticamente desde la aparición de la
arquitectura PCI Intel fijó como estándar una frecuencia máxima de comunicación de 66 Mhz
entre microprocesador, memoria y caché. La frecuencia de funcionamiento del
microprocesador y de otros componentes como la memoria era un múltiplo de esos 66 Mhz.
Por otro lado, la velocidad con la que se mueve la información a través del bus PCI es de 33
Mhz, justo la mitad de los 66 Mhz fijados como base.

 ¿QUÉ ES UN CHIPSET?
Es un grupo de circuitos altamente integrados que cumplen una serie de tareas fundamentales
para el funcionamiento de la placa base. Implementa en unos pocos chips, habitualmente dos,
todas las funciones de una placa.
Las diferentes funciones lógicas que suele integrar son las siguientes:
 Soporte para el microprocesador. Una de las principales funciones del chipset es la detección correcta
del microprocesador y el pleno soporte de todas sus funciones. Cada chipset se diseña pensando en un
procesador o familia de procesadores. Es el responsable directo de que la placa base soporte más de un
microprocesador.
 Controlador de memoria (MMU, Memory Management Unit). Gestiona la memoria RAM.
 Controlador IDE/ATA. Directamente relacionados con esta función están los modos de transferencia.
El que una placa soporte los más recientes modos de transferencia UltraDMA es responsabilidad directa
del chipset.
 Control de periféricos y del bus de E/S. El chipset es el responsable de la gestión de los buses PCI y de
ofrecer el soporte para el bus gráfico AGP. Esta función también incluye el soporte para nuevas
tecnologías, como USB 2.0 o IEEE 1394.

 Controlador de interrupciones.
 Reloj de Tiempo Real (RTC, Real Time Clock). Mantener la hora del sistema.

 El soporte para gestión de energía.


 Controlador de Acceso Directo a Memoria (DMA, Direct Memory Access). Permite el acceso
directo a la memoria a determinados dispositivos, sin pasar por el microprocesador, lo que agiliza el
rendimiento de ciertas operaciones con dispositivos específicos como los discos duros. El DMA es
controlado por una parte del chipset denominada controlador de DMA. Igualmente, el driver es que
soporta la función de arbitraje de bus (bus mastering), que es una mejora del DMA que permite que un
dispositivo tome directamente el control del bus del sistema para llevar a cabo las transferencias de
datos.

 Controlador de infrarrojos (IrDA).


 Controlador de teclado.
 Controlador PS/2,
Generalmente los chipsets se suelen agrupar según sus funciones en lo que se denomina
Northbridge y Southbridge. El Northbridge, también llamado controlador del sistema, es uno de
los chips de control que forman el conjunto del chipset, y se encarga de gestionar la memoria,
el microprocesador y los puertos AGP y PCI. El segundo chip, denominado Southbridge,
gestiona otros componentes de la placa como pueden ser los canales IDE, las unidades de
disquete, los puertos USB, la gestión avanzada de energía, el sistema de audio integrado en
la placa base o el reloj de tiempo real (RTC).
Entre los fabricantes alternativos, además del propio Intel, podemos mencionar los siguientes:

 AMD (Advanced Micro Devices).


 VIA Technologies.
 SiS (Silicon Integrated Systems).
 Ali (Hacer Laboratorios Inc.).
 NVidia. Entre sus lanzamientos más importantes se encuentran los modelos nForce, nForce2, nForce3
Pro y nForce4 todos ellos para microprocesadores de AMD.

 FUNCIONES SOPORTADAS POR LOS CHIPSETS ACTUALES.


Los chipsets soportan una serie de funciones comunes. Estas características, son básicamente las
siguientes:

o Frecuencia de bus del sistema (FSB).


o Buses de comunicación entre los chips que forman el chipset. Generalmente, cada fabricante dispone
de un bus propietario. Así, Intel emplea la denominada Arquitectura de Bus Acelerado; en el caso de
AMD se usa el HiperTransport. VIA usa el bus V-Link y SiS emplea el bus denominado MultiOL.
o Estándares de memoria soportados. Es una de las principales características que los distintos
fabricantes ofrecen en sus modelos de chipsets. En la actualidad, el mercado se decanta hacia dos tipos
de memoria fundamentales: la SDRAM estándar y la SDRAM DDR (de doble tasa de transferencia de
datos). Un tercer caso lo ocupan determinados chipsets de Intel con soporte para memorias RDRAM
(RAMBus), pero en una proporción mucho menor. La SDRAM estándar sigue las especificaciones
denominadas PC100 y PC133 (porque los módulos DIMM correspondientes funcionan a 100 y 133 Mhz,
respectivamente). Por otra parte, la memoria SDRAM DDR sigue otras especificaciones: DDR200,
DDR266 y DDR333 principalmente (en referencia a la frecuencia de funcionamiento de 200, 266 y 333
Mhz, respectivamente). Cuando se especifican las características de un modelo de chipset, generalmente
se hace referencia al tipo de memoria más avanzado que soporta. El tipo de memoria más avanzada en la
actualidad es la SDRAM DDR de canal dual (Dual Channel DDR), que permite el acceso simultáneo a
dos módulos de memoria, soporte que ofrecen los chipsets de última generación.
o ATA/100, ATA/133 y Serial ATA. Son dos estándares de transferencia de datos en dispositivos de
almacenamiento IDE, principalmente discos duros, también denominados UltraDMA/100 y
UltraDMA/133, respectivamente. Los más recientes desarrollos soportan incluso un novedoso modo de
transferencia: el Serial ATA, con una tasa máxima de 150 MB/seg.

o AGP 3.0 (8x).


o 8 puertos USB 2.0. Esta es otra característica muy frecuente en los chipsets actuales. En su versión 2.0,
que incrementa drásticamente la velocidad de transferencia de datos frente a su anterior versión, al
tiempo que permite el uso de 8 puertos USB.

o Audio compatible AC'97 2.2 con seis canales y Dolby Digital 5.1.
o Módem MC'97.
o Tarjetas de red Ethernet 10/100 integrada.
o CHIPSETS INTEL PARA PENTIUM Y PENTIUM MMX.
Intel ha experimentado una rápida evolución en los últimos años, a partir de su conocido Chipset FX
Tiritón.

o Intel 82430FX.
El FX fue, el chipset que marcó una revolución en el mundo de las placas base para PC. El juego de
chips que lo formaba llevaba la referencia conjunta 82430FX y fue bautizado con el nombre clave de
Triton. Los cuatro chips que lo integraban eran:

 Un controlador de sistema.
 Dos unidades de Encaminamiento de Datos.
 Un Acelerador PCI/ISA IDE denominado PIIX
o Intel 82430HX.
Apareció un año después que el FX, y mejoraba sus prestaciones, estando orientado según Intel al
mercado profesional. La diferencia con respecto al FX radica en que era capaz de ofrecer toda su
funcionalidad con tan solo dos chips. Estos dos chips eran:

 Un controlador del Sistema denominado TXC.


 Un Acelerador PCI/ISA IDE denominado PIIX3.
o Intel 82430VX.
Permitía un máximo de 128 Mb de memoria RAM de tipo FPM, EDO e incluso SDRAM. Sin embargo,
no permitía el uso de memoria con paridad.

o Intel 82430TX.
Se desarrolló como el chipset idóneo para sacarle todo el rendimiento a los procesadores Pentium MMX.
Permitía un máximo de 256 Mb de RAM, soportando FPM, EDO y SDRAM. Incluía una memoria caché
adicional de tercer nivel.

o CHIPSETS INTEL PARA PENTIUM II.


o Intel 440LX.
Fue el primero de una serie de chipsets con soporte para el bus gráfico AGP.
Para aumentar el ancho de banda del sistema y optimizar la concurrencia, se implementó la denominada
arquitectura QPA (Quadric Port Architecture, Aceleración de Puerto Cuádruple). Esta arquitectura
ofrecía cuatro puertos que accedían directamente al chipset:
 Desde el microprocesador.
 Desde el sistema de vídeo.
 Desde la memoria.
 Desde el bus PCI.
Permitía configuraciones duales con soporte de hasta dos microprocesadores.

o Intel 440BX.
Es conocido por ser el primer chipset de Intel que aumentó la frecuencia del bus del sistema a 100 Mhz.
A partir de la aparición del BX Intel lanzó toda una nueva gama de microprocesadores que funcionaban
a una frecuencia base de 100 Mhz, de los cuales el primero fue el Pentium II a 350 Mhz.
El chipset Intel 440BX AGPSet se componía de dos chips con encapsulado BGA: el Controlador
Principal (82443BX) y el Puente PCI-ISA (82371AB).

o Intel 440EX.
Orientado básicamente para ser usado en PC con los primeros microprocesadores Intel Celeron, una
versión de Pentium II con prestaciones recortadas. Entre otras cosas no incorporaba memoria caché de
nivel 2.
La frecuencia base con este chipset permanece en los hasta entonces habituales 66 Mhz.
El EX también soportaba el estándar de ahorro de energía ACPI, AGP, UltraDMA/33 y USB.

o Intel 440ZX.
Se desarrolló en dos versiones, una a 66 Mhz y otra a 100 Mhz de frecuencia base, y venía a ser una
versión reducida de los chipsets LX y BX, respectivamente.

o CHIPSETS PARA PENTIUM III.


o Intel i810.
Intel inauguraba con el i810 su nueva arquitectura de hub acelerado. Los chips que forman el chipset no
se comunican entre sí mediante el bus PCI, sino que existe un nuevo bus dedicado exclusivamente para
comunicar los chips entre sí, que ofrece el doble de ancho de banda del PCI. Este bus funcionaba
inicialmente a 133 Mhz y proporcionaba una velocidad de 256 Mb/s.
El i810 se componía de tres chips (o dos, en función de la versión):

 Hub Controlador Gráfico y de Memoria.


 Hub Controlador de E/S.
 Hub de Firmware.
El i810 se desarrolló en las siguientes versiones, de la más básica a la más avanzada:
 i810-L. No soportaba la caché gráfica externa, por lo que resultaba más lento en la parte gráfica.
 i810. Tampoco soportaba caché gráfica externa.
 i810-DC100. Soportaba caché gráfica externa.
Finalmente, la versión i810E2 de este chipset se lanzó para permitir el soporte de nuevos
microprocesadores de Intel (Celeron y Pentium III) con núcleo de 0,13 micras.

o Intel i815.
La frecuencia del bus se situaba en 133 Mhz, lo que daba soporte completo a la memoria SDRAM PC-
133 y a microprocesadores con una frecuencia base de 133 Mhz.
Otra característica especial del i815 es que en el apartado gráfico incluía una tarjeta gráfica integrada en
la propia base, tal y como sucedía en el i810, pero además se incluía un conector AGP 4x, lo que
permitía anular la tarjeta gráfica integrada en la placa y utilizar en su lugar una tarjeta externa.
Una posible limitación del i815 podría ser su soporte de memoria, ya que la máxima cantidad de
memoria capaz de gestionar se situaba en los 512 Mb.
Se incluyó un nuevo conector denominando ACNR (Advanced Configuration and Netework Riser,
Conector de Red y Configuración Avanzada), que permitía la conexión de tarjetas de red que cumplieran
con el estándar AC'97 Plus.

o Intel i820.
Conocido con el nombre clave de Camino, es el primer chipset que Intel lanzó con soporte para módulos
RIMM de memoria RDRAM, con frecuencias iniciales de 300 y 400 Mhz. Destaca el soporte de AGP
4x, así como un bus del sistema de 133 Mhz.

o CHIPSETS INTEL PARA PENTIUM 4.


o Intel i845.
Conocido con el nombre clave de Brookdale. Ofrece soporte para memoria SDRAM DDR de doble tasa
de transferencia.
Contaba con las siguientes características significativas:
 Ofrece una frecuencia de bus del sistema de 400 Mhz.
 Soporte AGP 4x con una tasa de transferencia de datos máxima de 1 Gb/s.
 Cuenca con dos controladores USB que permiten integrar en la placa base hasta 4 puertos USB con una
tasa de transferencia mejorada de 24 Mbps, frente a los 2 Mbps que habían sido habituales con chipsets
anteriores.
 La última implementación del estándar de audio AC'97 proporciona hasta seis canales de audio de alta
calidad.
 Integra controladores UltraDMA/100 duales para la conexión de dispositivos IDE, lo que permite altas
velocidades.
 Permite integrar en la placa base el conector CNR (Comunication and Network Riser), para la conexión
de tarjetas de sonido, módems o tarjetas de red que cumplan esta especificación.

o Intel i850.
La característica más notable es que se trata de un chipset específicamente diseñado para dar soporte a la
memoria RDRAM, sin que ofrezca soporte a otros tipos de memoria más habituales como la SDRAM
DDR.

o Intel E7205.
Conocido con el nombre clave de Granite Bay. El E7205 es un chipset destinado, según Intel, a ser
empleado en estaciones de trabajo y pequeños servidores.

o Intel i865 / Intel i875.


Se trata de uno de los primeros chipsets desarrollados específicamente para obtener el máximo
rendimiento de las plataformas basadas en Pentium 4 con tecnología HyperThreading. Cuenta con una
serie de características avanzadas, como son: soporte para memoria SDRAM DDR de canal dual, AGP
8x, un bus específico para conexiones de red Gigabit Ethernet denominado DNB (Dedicated Network
Bus), soporte para puertos y discos duros Serial ATA y finalmente un máximo de 8 puertos USB 2.0.
El i865 está compuesto por dos chips:

 Hub Controlador de Memoria.


 Hub Controlador de E/S.
Por otra parte, el Intel i875 es un modelo algo más avanzado que cuenta prácticamente con las mismas
características que el anterior i865, siendo mínimas las diferencias entre ambos.
A partir de estos modelos de chipsets, Intel ha implementado la denominada tecnología PAT
(Performance Acceleration Technology, Tecnología de Aceleración de Prestaciones), que optimiza
notablemente el acceso entre memoria y microprocesador en aquellas plataformas dotadas con un bus
del sistema de 800 Mhz que utilizan memoria SDRAM DDR400.

o CHIPSETS INTEL PARA PROCESADORES XEON.


o Intel i840.
Conocido con el nombre clave de Carmel está orientado a estaciones de trabajo de alto rendimiento y
servidores basados en Xeon.
Ofrece soporte AGP 4x, un bus del sistema de 133 Mhz y soporte para la memoria RDRAM con canales
duales.
Da soporte para cuatro procesadores, bus PCI de 64 bits y un direccionamiento máximo de 8 Gb de
memoria.
Los chips de los que se compone el chipset i840 son los siguientes:

 Hub Controlador de Memoria.


 Hub Controlador de E/S.
 Hub de Firmware.
Sin embargo, el i840 permite el uso de otros chips adicionales que incrementan considerablemente sus
prestaciones. Estos son los siguientes:

 Hub Controlador PCI 64 bits.


 Hub Repetidor de Memoria RDRAM.
 Hub Repetidor de Memoria SDRAM.
o Intel i860.
Este chipset utiliza la misma arquitectura modular que el resto de chipsets de la serie i8xxx de Intel.
Concretamente está compuesto por dos chips:

 Hub Controlador de Memoria.


 Hub Controlador de E/S.
Para aumentar la escalabilidad, existen dos componentes opcionales:

 Hub Controlador de PCI de 64 bits.


 Hub Repetidor de Memoria RDRAM.
o Intel E7505.
Está orientado a servidores duales basados en Xeon y como tal ofrece una serie de características
avanzadas.
Bus del sistema de 533 Mhz, lo que proporciona un ancho de banda máximo de 4,3 Gb/seg. Asimismo,
permite operar con canales duales de memoria SDRAM DDR, lo que facilita aumentar la tasa de
transferencia de memoria hasta situarla en 4,3 Gb/seg.
Además, permite el uso de memoria ECC con características avanzadas de detección y corrección de
errores gracias al uso de 3 dispositivos SHCD (Single Device Data Correction, Dispositivo Simple de
Corrección de Datos). También soporta la especificación 3.0 de AGP, o lo que es igual, el modo AGP
8x.
Los tres chips que componen este avanzado chipset son los siguientes:

 Hub Controlador de Memoria.


 Hub Controlador PCI de 64 bits.
 Hub Controlador de E/S.
o OTROS FABRICANTES DE CHIPSETS.
Actualmente el mercado se reparte sobre todo entre las familias Pentium 4 de Intel y Athlon XP de
AMD. Intel fabrica sus chipsets para Pentium 4 y AMD hace lo propio para sus procesadores Athlon XP.
El resto del mercado lo ocupan una serie de fabricantes alternativos que cuentan con chipsets específicos
para los dos tipos de procesadores. Estos fabricantes son VIA Technologies, SiS (Silicon Integrated
System) y Ali (Acer Labs Inc.).
Únicamente ha entrado en este mercado algún otro fabricante cono nVidia, conocido por sus excelentes
chips gráficos.

o AMD.
AMD es el directo competidor de Intel en el mercado de microprocesadores. Los chipsets necesarios
para gobernar los procesadores AMD Athlon deben ser específicos para cada familia.

o AMD 750.
Entre sus características figuraban el bus del sistema de 200 Mhz, AGP 2x, soporte de memoria SDRAM
PC-100 con y sin ECC (detección y corrección de errores).

o AMD 760.
Esta es una versión más avanzada del chipset de AMD para dar soporte a sus microprocesadores Athlon
XP. Destaca el bus a 266 Mhz, el soporte para AGP 4x, soporte de memoria SDRAM DDR con
frecuencias de hasta 266 Mhz, además de soportar tecnologías anteriores como la SDRAM sin ECC,
UltraDMA/100, soporte para cuatro puestos USB y gestión de energía ACPI.
Más tarde, AMD lanzó una revisión de este chipset denominada 760-MP, orientada a placas base
multiprocesador.

o LA SERIE 800 DE AMD.


Esta es la versión más avanzada hasta la fecha de chipsets desarrollados por AMD para dar soporte a sus
microprocesadores de 64 bits. Este chipset se compone de los siguientes chips:
 AMD-8111. Sustituye al tradicional Southbridge y se denomina Hub de E/S HyperTransport. Soporta
una velocidad e transferencia de datos máxima de 800 Mbps con una frecuencia de reloj de 200 Mhz.
Otras características soportadas son: audio de seis canales compatible AC'97, conector ACR, hasta seis
puertos USB 2.0 y controlador de red LAN Ethernet 10/100.
 AMD-8131. Este chip se denomina Túnel PCI-X HyperTransport. Proporciona el soporte necesario para
uso del nuevo desarrollo avanzado del bus PCI denominado PCI-X. Da soporte a dos túneles PCI-X
denominados A y B. Cada uno de ellos soporta un bus de datos de 64 bits, compatibilidad con el anterior
estándar PCI 2.2.
 AMD-8151. Es el denominado Túnel Gráfico AGP 3.0 HyperTransport. Soporta todas las funciones
AGP para sistemas basados en microprocesadores AMD de 64 bits. El túnel AGP dispone de dos caras:
A y B. La cara A es de 16 bits y soporta un máximo de 1600 millones de transferencias de datos gráficos
por segundo. Por su parte, la cara B es de 8 bits y soporta un máximo de 800 millones de transferencias
de datos gráficos por segundo.
En la serie 800 de AMD no existe ningún chip específico que realice las funciones de Northbridge, ya
que en los microprocesadores de 64 bits de AMD estas funciones ya han sido integradas en el propio
núcleo del microprocesador.

o VIA TECHNOLOGIES.
Es hoy por hoy una de las más serias alternativas en cuanto a chipsets en cuanto a chipsets integrados en
placa base se refiere, tanto para Pentium 4 como para Athlon XP. Prueba de ello ha sido la incorporación
de novedades tecnológicas mucho tiempo antes de que fabricantes como Intel las integraran en sus
chipsets. A ello hay que unir una cualidad y estabilidad en sus chipsets bastante notables, lo que
convierte a las placas base con chipsets VIA en una muy buena opción a un precio muy competitivo.

o VIA PT800.
Este es el más reciente chipset de VIA para los últimos modelos de Pentium 4 con tecnología
HyperThreading. El bus del sistema de 800 Mhz, junto con el soporte de hasta 8 Gb de memoria
SDRAM DDR 400. Ofrece una transferencia de datos entre el Northbridge y Southbridge de hasta 533
MB/s. El chipset VIA PT800 se compone de Northbridge PT800 y del Southbridge VT8237.
Entre el resto de prestaciones, se encuentra el soporte AGP 8x, ATA/133 y Serial-ATA para dispositivos
IDE con soporte de varios niveles de RAID, así como la integración de un chip de red en el propio
Southbridge. Además permite la integración de 8 conectores USB 2.0, así como AC'97 con soporte
Dolby Digital 5.1 y un módem MC'97.

o VIA KT600.
Ofrece una frecuencia de bus del sistema de 400 Mhz. Soporta memoria SDRAM DDR a 266, 333 y 400
Mhz, así como SDRAM estándar. Soporta el estándar gráfico AGP 8x y los estándares ATA/133 para
dispositivos IDE, así como el nuevo Serial-ATA. Entre otras características que cabe destacar figura el
audio compatible AC'97 con soporte Dolby Digital 5.1 y 7.1 gracias a la tecnología Vinyl Multichannel
Audio. También soporta módem integrado compatible MC'97, una tarjeta de red Fast Ethernet VIA y
ocho puertos USB 2.0.
El conjunto lo integran los chips: el Northbridge es el denominado propiamente KT600 y el Southbridge
es el VT8237. Ambos chips se comunican entre gracias al bus específico de VIA denominado V-Link,
con una tasa de transferencia máxima de 533 MB/seg.

o VIA K8T800.
El chipset VIA K8T800 es uno de los más avanzados para la plataforma AMD hasta la fecha, orientado
totalmente a la plataforma ADM de 64 bits basadas en los microprocesadores AMD Opteron y Athlon
64. Ofrece una frecuencia del bus del sistema de 1,6 Ghz, algo totalmente sorprendente, gracias al bus
denominado HyperTransport que emplea la denominada tecnología Hyper8. Este bus es el que comunica
los dos chipsets que forman el chipset.
El VIA K8T800 soporta hasta 4 Gb de memoria SDRAM DDR a 266, 333 y 400 Mhz. El VIA K8T800
soporta el estándar gráfico AGP 8x y los estándares ATA/133 para dispositivos IDE, así como el nuevo
Serial-ATA.

o SiS (SILICON INTEGRATED SYSTEMS).


Este es otro fabricante de chipsets con una serie de modelos alternativos tanto para Pentium 4 como para
Athlon XP y Athlon 64.
o SIS 648FX.
Se trata de una solución para los más recientes modelos de Pentium 4 con bus del sistema de hasta 800
Mhz que integra un controlador de memoria con soporte para SDRAM DDR con una frecuencia máxima
de 400 Mhz, admitiendo un máximo de 3 Gb de memoria RAM.
Los dos chips que componen el chipset se intercomunican mediante un bus denominado MultiOL.
El SiS 648FX integra además una tarjeta gráfica AGP con soporte 2D y 3D, aceleración de vídeo y
descompresión MPEG 1 y 2, lo que hace idóneo para la reproducción de vídeo digital y DVD-Vídeo.
Además de la tarjeta gráfica integrada también permite el uso de otra tarjeta gráfica externa AGP 8x.

o SIS 748.
La actual propuesta del fabricante SiS para la plataforma AMD Athlon XP es el chipset 748. Con una
frecuencia de bus del sistema de 400 Mhz, soporta memoria SDRAM DDR a 266, 333 y 400 Mhz, hasta
un máximo de 3 Gb, AGP 8x y el estándar ATA/133 para dispositivos IDE. Además, integra audio
compatible AC'97 en su versión 2.2 con soporte Dolby Digital 5.1, un códec para módem con soporte de
la norma v.90, seis puertos USB 2.0, soporte de gestión de energía USB y controladora IEEE 1394 que
permite hasta tres puertos de este tipo con tasas de transferencia de 400 MB/seg.

o SIS 755.
El fabricante SiS también ha desarrollado un chipset específico para la plataforma AMD de 64 bits. Se
trata del chipset SiS 755. Con una frecuencia de bus del sistema de 800 Mhz, soporta memoria SDRAM
DDR a 266, 333 y 400 Mhz, hasta un máximo de 2 Gb, AGP 8x y el estándar ATA/133 para dispositivos
IDE. Como es habitual, integra un sistema de audio compatible AC'97 2.2 con soporte para Dolby
Digital 5.1 y seis puertos USB 2.0

o ALI (ACER LABS INC.).


Fabricante histórico de chipsets alternativo para las dos plataformas dominantes en el mercado, Intel y
AMD. Cuenta también con un amplio catálogo de chipsets.

o ALI ALADDIN P4.


Es la apuesta de Ali para el procesador Pentium 4. Entre sus bazas se encuentra un bus de sistema de 400
Mhz, así como el soporte para una amplia variedad de memoria: SDRAM PC-100/PC-133 y SDRAM
DDR hasta 333 Mhz, con lo que soporta hasta un total de 3 Gb de RAM. En el terreno de los
dispositivos IDE también hay que destacar el soporte para ATA/100 e incluso ATA/133. En el terreno
gráfico, sólo soporta AGP 4x y permite la integración de un sistema de audio compatible con
SoundBlaster Pro/16.

o ALI M1687.
La propuesta actual de Ali para la plataforma Athlon XP de AMD es el chip M1687. Ofrece una
frecuencia de bus del sistema de 333 Mhz. Soporta memoria SDRAM DDR 200/266 con frecuencia
máxima de 333 Mhz, así como SDRAM normal, AGP 8x y el estándar ATA/133 para dispositivos IDE.

o nVIDIA.
Conocido fabricante de algunos de los más avanzados chips gráficos, ha encontrado recientemente en el
mundo de los chipsets, con dos modelos, denominados nForce y nForce2, ambos destinados a la
plataforma AMD Athlon XP.
o LA FAMILIA nFORCE
El bus de comunicaciones, específico entre sus dos chips es denominado HyperTransport, que
proporciona una tasa de transferencia de 800 Mbytes/seg.
El bus del sistema soporta frecuencias de 200 y 266Mhz, mientras que el bus de memoria soporta
frecuencias de 100, 133, 200 y 266 Mhz. Soporta hasta 1,5 Gb de memoria SDRAM, tanto estándar
como DDR.
El nForce3 Pro, es uno de los primeros chipsets que dan soporte a los microprocesadores AMD de 64
bits (Optaron y AMD 64).

o ATI
Los modelos de chipsets de ATI existentes se encuadran en dos familias:

 Radeon IGP 320.


 Radeon IGP 330/340. Este es el chip de ATI específico para plataformas Intel Pentium 4.
Todos ellos se denominan IGP (Integrated Graphic Processor, Procesador Gráfico Integrado). El bus de
comunicaciones de alta velocidad que emplean estos chipsets se llama A-Link, y es propietario del
fabricante ATI. Entre las características generales de todos estos modelos se incluye el potente núcleo
gráfico.

o CHIPSETS PARA ORDENADORES PORTATILES.


El mercado de chipsets no sólo se reduce a plataformas PC. La gran mayoría de fabricantes cuentan con
modelos específicos para ordenadores portátiles. En este tipo de ordenadores, al igual que ocurre en los
de sobremesa, el chipset juega una importancia vital en el rendimiento del sistema y en las posibilidades
que este puede ofrecer.

o CHIPSETS INTEL PARA PORTÁTILES.


Intel acapara la mayor parte del mercado de chipsets para portátiles. Algunos de los chipsets para
portátiles más representativos de Intel son los siguientes:

 815EM.
 830MP.
 845MP.
o CHIPSETS VIA PARA PORTÁTILES.
Los chipsets KN266 y PN266T son los actuales modelos que VIA ofrece para microprocesadores Athlon
4 y Pentium 4, respectivamente.

o CHIPSETS ALI PARA PORTÁTILES.


Ali dispone de los chipsets CyberALADDIN-T y ALADDIN-Pro, 5M, que constituyen la propuesta más
avanzada del fabricante Ali para ofrecer soporte a microprocesadores Intel Pentium III Mobile.

o CHIPSETS SiS PARA PORTÁTILES.


SiS ofrece unas de las soluciones más integradas en portátiles: el SiS M650.
Entre sus principales características cabe, destacar la integración de una tarjeta gráfica AGP 4x con
motor de 2D y 3D. El bus del sistema funciona a 100 Mhz, aunque el fabricante afirma que se puede
aumentar hasta los 133 Mhz mediante overcloking.
El conjunto lo forman los chips M658 (Northbridge) y el 961 (Southbridge).

o EL RESTO DE COMPONETES DE LA PLACA BASE.


o EL CONECTOR DE ALIMENTACIÓN.
Es el conector gracias al cual la placa base recibe alimentación eléctrica de la fuente de alimentación del
ordenador. Podemos encontrar básicamente dos tipos de conectores: AT y ATX.
En la actualidad todas las placas base llevan un conector de tipo ATX. Este tipo de conector tiene
funciones avanzadas que permiten encender y apagar el equipo mediante software, desde el propio
sistema operativo, así como activar y desactivar varios modos de ahorro de energía.
Suele tener forma trapezoidal, de tal forma que se haga imposible la conexión en sentido equivocado,
con lo que queda una única posición posible para la correcta conexión.
En el caso de nuevos microprocesadores, como el Pentium 4, las placas base ATX necesitan de un
conector adicional (conector auxiliar P14), además del ya especificado ATX estándar. Este conector
proporciona señales eléctricas suplementarias necesarias para la plataforma Pentium 4.

o LOS PUERTOS Y CONECTORES EXTERNOS.


En la actualidad, todos los conectores externos suelen ir integrados directamente en la propia placa base,
eliminando así cables de distintos datos innecesarios.
Los puertos que habitualmente integra toda placa base, recogidos de manera detallada, son los
siguientes:
 Dos puertos serie. Se suelen denominar COM1 y COM2 respectivamente. Existen conectores serie
externos de tipo DB9 y DB25 (de 9 y 25 patillas, respectivamente). En las placas antiguas, el COM1
solía ser de tipo DB9 y el COM2 de tipo DB25.
 Un puerto paralelo multimodo. El término multimodo hace referencia a que el puertos es capaz de
soportar tres modos de funcionamiento característicos: SSP, ECP y EPP.
 Varios puertos USB. Permiten la conexión en caliente de dispositivos que cumplan con este estándar.
Actualmente la mayoría de las placas base soporta la especificación 2.0.
 Dos puertos IEE 1394 (Firewire). Permiten la conexión en caliente de dispositivos que cumplan este
estándar de alta velocidad.
 Dos puertos PS/2. Ambos son conectores de tipo mini-DMI de seis patillas. Este suele ser el tipo
habitual de conectores para ratón y teclado en las actuales placas base ATX.

 Puerto para juegos.


 Conectores de audio.
 Conector VGA. Es un conector estándar para tarjeta gráfica. Consta de 15 pines agrupados en tres filas
(para monitores en color) o 2 filas (para conectores en B/N).

o LOS CONECTORES INTERNOS.


 Conector para la disquetera. Es un conector de 34 patillas donde se inserta la banda de cable para
datos de la disquetera. Es necesario temer en cuenta el sentido de la conexión. Para ello, el conector
suele tener indicada cual es la patilla numero 1. Asimismo, el cable de datos también lleva coloreado en
rojo el cable número 1 de la banda, que habrá que hacer coincidir con la patilla 1.
 Conectores IDE, para la conexión de dispositivos IDE, principalmente discos duros y lectores de CD-
ROM. La placa base típicamente integra dos conectores, cada uno con posibilidad de conectar dos
dispositivos, con lo que podemos conectar un máximo de 4 dispositivos IDE a nuestra placa base. El
conector IDE es similar al de la disquetera, pero un poco más largo, con 40 patillas. En ocasiones, este
número se reduce a 39, ya que la patilla 20 carece de utilidad. Suele llevar marcada la posición de la
patilla número 1 para la correcta conexión de la banda de datos.
 Conectores para el refrigerador del microprocesador o los microprocesadores, denominados
generalmente Fan Power.
 Conector para arranque desde red (Wake On-LAN). Conector que permite el inicio y apagado
remoto mediante la conexión a una tarjeta de red,

 Conector para arranque desde línea telefónica mediante módem (Wake On-Ring).
 Conector para módulo de infrarrojos (irDA).
o ATA/33, 66, 100 y 133.
UltraDMA/33 es un protocolo desarrollado por Quantum Corporation que incrementaba las prestaciones
del bus IDE hasta conseguir una tasa de transferencia máxima de 33 Mb/s, frente a los 16,6 Mb/s que
proporcionaba el estándar ATA-2. Este protocolo se implementó en los chipsets TX y ha sido
perfeccionado sucesivamente hasta llegar al UltraDMA/133. No hay que olvidarse que la velocidad de
transferencia especificada en los modos UltraDMA siempre es teórica. En la práctica nunca se llega a
alcanzar.
Posteriormente se implantó la tecnología UltraDMA/66, que doblaba la velocidad de transferencia
máxima teórica del bus IDE hasta situarla a 66,6 Mb/s. También se la conoce como Ultra ATA/66. La
principal innovación que supone esta tecnología es que se necesitan nuevos cables para alcanzar dichas
velocidades. Aunque se mantienen los 40 pines del conector, sin embargo ahora la banda de datos
incorpora un total de 80 cables. Se usan los 40 habituales, mas otros 40 adicionales para control de
errores y para permitir una mayor claridad de la señal transmitida. Este nuevo estándar incorpora un
sistema de código de redundancia cíclica (CRC) para control de errores, al igual que ya hacía el estándar
SCSI. El UltraDMA/66 es totalmente compatible con los estándares anteriores, por lo que, si montamos
un disco duro con un cable IDE estándar, la unidad funcionará correctamente, aunque nunca llegará a
obtener la velocidad de transferencia máxima permitida por esta tecnología.
Posteriormente surgió el UltraDMA/100. Actualmente, el último estándar en transferencia IDE es el
UltraDMA/133 que implementan todas las placas bases de última generación. Esta evolución del
estándar UltraDMA permite una tasa de transferencia teórica máxima de 133 Mb/s.

o SERIAL ATA.
La principal diferencia es que se pasa de un modo de transferencia de datos paralelo a un modo de
transferencia serie, donde se emplean básicamente dos cables para datos, uno para transmisión y otro
para reopción, obteniéndose unas tasas de transferencias máximas de 150 Mb/s, aunque con revisiones
posteriores de este estándar se espera conseguir velocidades aún mayores.
Entre otras características del Serial ATA figuran la conexión de discos duros en caliente, la posibilidad
de usar cables de datos de una mayor longitud y unos voltajes de funcionamiento menores. Una
característica a la que no estamos acostumbrados es que el ATA es un interfaz punto a punto, por lo que
en cada cable Serial ATA sólo se puede conectar un solo disco duro, en lugar de dos como ocurría con el
ATA paralelo.

o CONECTORES DEL PANEL FRONTAL.


Los habituales suelen ser:

 Alimentación ATX.
 LED de disco duro.
 LED de alimentación.
 Altavoz.
 Bloqueo de teclado (en placas base antiguas).

 Reinicio (Reset).
o CONTROLADOR DE ENTRADA/SALIDA.
Es un chip de gran importancia, ya que controla gran parte de las comunicaciones de la placa base.
Dentro de este chip se suelen integrar, entre otros, los siguientes elementos:

 El controlador de puertos serie.


 El controlador de puerto paralelo.
 La controladora de la disquetera.
o EL USB Y EL IEEE 1394.
La propia placa base cuenta con dos o cuatro conectores USB, pero la potencia de este sistema radica en
que los dispositivos USB cuentan a su vez con nuevos conectores, por lo que podemos tener una gran
cantidad de dispositivos USB conectados en cascada.
El ancho de banda teórico del USB es de 12 Mbps, ancho de banda que se comparte entre todos los
dispositivos conectados. No obstante, algunos de los nuevos chipsets lanzados al mercado ofrecen una
tasa de transferencia de hasta 24 Mbps, valores siempre teóricos. También se contempla un modo de un
modo de baja velocidad de 1,5 Mbps. Es posible conectar un máximo de 127 dispositivos USB en
cascada. Los segmentos de cable que se pueden usar entre dispositivos pueden ser de hasta 5 metros de
longitud. Además, el USB cuenta con la ventaja de que la mayoría de los dispositivos que hay que
conectar no necesitan alimentación eléctrica, ya que el propio conector USB suministra una alimentación
de 5 voltios.
En cuanto al IEEE 1394, también conocido comercialmente como Firewire, es una norma dirigida a
dispositivos de alta velocidad como cámaras de video, impresoras profesionales, etc.
Su principal característica es el elevado ancho de banda que permite, con velocidades de 100, 200 y
hasta 400 Mbits por segundo. Se están investigando soluciones que un futuro podrían ofrecer de 1 a 8
Gbits por segundo. Estas velocidades al igual que el USB, se tienen que repartir entre el número de
dispositivos conectados. Una característica interesante del IEEE 1394 es que los dispositivos pueden
comunicarse entre sí, sin que intervenga para nada el microprocesador.
Una particularidad no citada hasta ahora en ambas tecnologías es que tanto USB como IEEE 1394
permiten la conexión “en caliente”. Esto quiere decir que los dispositivos pueden ser conectados y
desconectados directamente, sin necesidad de tener que apagar el ordenador, lo que hace a estas
tecnologías sumamente útiles y atractivas.

o SISTEMAS DE MONITORIZACIÓN DE PLACA BASE.


Desde hace un tiempo se han hecho bastante frecuentes una serie de sistemas y estándares para la
monitorización de determinadas características de nuestra placa base, lo que permite disponer en tiempo
real de un completo diagnóstico sobre el estado de salud de nuestro PC.

o DMI.
Estas iniciales hacen referencia a Desktop Management Interface (Interfaz para Gestión de Escritorio).
Se trata de un estándar que permite la monitorización de determinadas funciones del PC, así como
parámetros que pueden servir como indicadores del buen o mal funcionamiento de los diferentes
componentes, todo ello de manera centralizada y única.
El DMI es un estándar totalmente independiente del hardware y del sistema operativo y permite
gestionar tanto ordenadores aislados como conectados en red.
DMI está formado por cuatro componentes:
 Formato para la Gestión de Información (Management Information Format, MIF). Se trata de un
archivo de texto que contiene información específica sobre el hardware y el software de un ordenador
concreto. Los archivos MIF de cada componente hardware concreto suelen ser suministrados por el
propio fabricante.
 Capa de servicio (Service Layer). Es un código residente en memoria que hace de intermediario entre
el componente hardware y el DMI. Permite al software acceder a los archivos MIF en la base de datos
MIF. Esta capa de servicio generalmente suele ser una aplicación que al instalarse permite al usuario
gestionar los diferentes elementos a monitorizar.
 Interfaz de Componente (Component Interface, CI). Suele ser una librería que permite manipular
información del MIF haciendo uso de la capa de servicio.
 Interfaz de Gestión (Management Interface, MI). Es una interfaz que permite al software de gestión
comunicarse con la capa de servicio.
Para hacer uso del DMI y de todas sus funciones de monitorización que este ofrece, se necesita una placa
base que soporte DMI, así como un paquete software de monitorización.
De todos los existentes, sin duda alguna uno de los más conocidos es el Intel LanDesk Manager, en sus
versiones cliente servidor.

o INTEL LDCM (LANDESK CLIENT MANAGER).


Se trata de una solución conjunta hardware y software que permite manejar y monitorizar los
componentes que forman parte de un PC, ya sea local o remotamente.
Para ello, LCDM está basado completamente en la especificación DMI explicada con anterioridad.
Mediante LDCM, desde una máquina central y a través de red se pueden controlar todos los parámetros
indicadores del estado de salud de un PC.

o IDHMS.
Este sistema nos permite visualizar en cada instante información acerca de las variaciones en el voltaje
de la fuente de alimentación, voltaje y temperatura del microprocesador, ciclo de vida de la batería en
ordenadores portátiles, el sistema de memoria o los discos duros. El IDHMS trabaja generalmente a
nivel de BIOS y ya está totalmente implantando en la BIOS de todas las placas bases actuales.

o LA GESTIÓN DE ENERGÍA EN LAS PLACAS BASE.


La gestión de energía en las placas base y en otros componentes ha sido una de las funciones que más se
han desarrollado en los últimos tiempos. Estas funciones se conocen genéricamente con las siglas SMM
(System Management Mode, Modo de Gestión del Sistema).
La circuitería SMM se integra en el chipset de la placa base y en el microprocesador, y permite,
generalmente a través de la BIOS, especificar los intervalos de tiempo en los que el microprocesador y
otros componentes reducen su actividad, en mayor o menor nivel, así como los eventos ante los cuales
esta actividad es reanudada de nuevo.

o APM.
Las siglas APM responden a Advanced Power Management (Gestión Avanzada de Energía). Se
denomina así un componente software integrado en determinados sistemas operativos que en conjunción
con la BIOS del sistema, y basándose en esta, permite el control del las diferentes funciones de ahorro de
energía.
Es muy importante distinguir este punto. Tanto APM como ACPI son dos estándares de gestión de
energía. La diferencia fundamental es que APM realiza la gestión desde la BIOS, a un nivel más bajo,
mientras que con ACPI la práctica totalidad de funciones de gestión de energía se encuentra en el propio
sistema operativo, que debe incluir soporte para ACPI.

o ACPI.
ACPI (Advanced Configuration and Power Interface, Interfaz Avanzado de Configuración y Gestión de
Energía) es un estándar de gestión de energía desarrollado por Intel, Microsoft y Toshiba en 1996 que
permite pasar todo el control de la gestión de energía directamente al sistema operativo, lo que facilita
funciones tales como apagar automáticamente nuestro sistema o dejarlo en estado de hibernación.
ACPI se estructura en dos apartados: por un lado, la configuración de dispositivos, siguiendo el estándar
Plug and Play, y por otra parte las funciones de ahorro de energía. Las especificaciones ACPI para el
ahorro de energía se basan en cuatro niveles, que llevan al ordenador a un consumo de energía casi nulo
en el último nivel. El paso de uno a otro nivel de energía se puede observar en la velocidad de parpadeo
del LED de alimentación de la caja.
ACPI se diferencia de APM principalmente en una característica. Con APM es la BIOS la que determina
cuándo se debe entrar en los diferentes modos de ahorro de energía. Con ACPI, este control ahora se
pasa al sistema operativo y es desde aquí donde el usuario controla en qué momento entrarán en
funcionamiento los modos de ahorro de energía. Otra de las diferencias entre APM y ACPI es el número
de estados en el que el sistema se puede encontrar. En APM se definen cuatro estados posibles:
Habilitado, StandBy, Suspendido y Apagado. En ACPI, el número de estados diferentes es mayor:
 S0. Encendido
 S1, S2, S3. Durmiendo (en diferentes niveles). El nivel S3 es el más conocido, y se suele denominar
Suspend To RAM (STR).
 S4. Apagado por software (mediante el sistema operativo).
 S5. Apagado normal.
El estándar ACPI fue introducido con la aparición del chipset TX de Intel y se ha mantenido con todos
los chipsets posteriores. Para que un sistema pueda soportar ACPI se necesitas varios elementos:
 Un sistema operativo con soporte ACPI. Todas las versiones actuales de Microsoft lo soportan.
 Un microprocesador con soporte SMM. Todos los microprocesadores actuales incluyen dicho soporte.
 Un chipset con soportes SMM. Todos los chipsets de Intel a partir del TX lo soportan.
 Circuitería para el software ACPI. Todas las placas actuales incorporan dicha circuitería.

o LOS RECURSOS DEL SISTEMA. CONFIGURACIÓN DE UNA PLACA BASE.


En principio la mayoría de componentes que podemos encontrar en el PC son o podrían considerase
recursos: la cantidad de memoria RAM, la frecuencia del microprocesador, la cantidad de espacio en el
disco duro. Existen además una serie de recursos compartidos por varios dispositivos que hacen uso de
ellos. No son recursos físicos, sino lógicos. A estos recursos lógicos se les suele denominar recursos del
sistema.
Los recursos del sistema cobran una gran importancia, puesto que son compartidos por diferentes
dispositivos físicos. La cantidad de recursos del sistema es bastante limitada, de tal forma que, a medida
que añadimos dispositivos a nuestro sistema, la cantidad de recursos disponible disminuye, hasta el
punto de convertirse en un serio problema en sistemas con gran cantidad de dispositivos instalados. Esto
puede llevar a conflictos entre dispositivos que intenten hacer uso de un mismo recurso, lo que
representa uno de los principales problemas en la configuración de un PC.

o LAS PETICIONES DE INTERRUPCIÓN (IRQ).


Las interrupciones son los recursos del sistema más conocidos.
Básicamente una interrupción es un mensaje enviado por algún componente del PC a otro componente,
generalmente el microprocesador, que indica a este que debe detener la ejecución de todo lo que esté
haciendo, atender al dispositivo que envía la petición de interrupción, y posteriormente continuar donde
lo había dejado. Las señales enviadas se denominan peticiones de interrupción o IRQ (Interrupt
ReQuest).
Las interrupciones son enviadas al microprocesador por los dispositivos mediante el uso de un elemento
hardware denominando Controlador de Programable de Interrupciones (PIC, Programmable Interrupt
Controller). El controlador de interrupciones de cualquier placa base actual dispone de 16 líneas de
petición de interrupción (IRQ) que permiten el uso de las mismas por 16 dispositivos diferentes. De esta
forma, el primer PIC se comunicaba con el segundo a través de la IRQ 2. Esta es la razón por la que la
IRQ 2 se considera mutilizable, y cuando un dispositivo se fuerza a emplear la IRQ 2 en realidad está
empleando la 9 (la primera IRQ del segundo PIC). Es por esto por lo que la IRQ 9 en la práctica aparece
como ocupada.

o CONFLICTOS ENTRE DISPOSITVOS.


Las IRQ son recursos asignados generalmente a un único dispositivo. Una misma IRQ no puede ser
usada por más de un dispositivo simultáneamente. Esto podría provocar que el microprocesador
respondiera en un momento dado a un dispositivo equivocado, con el consiguiente error. Cuando dos
dispositivos intentan compartir una misma IRQ decimos que se ha producido un conflicto de IRQ.
Los conflictos entre dispositivos producidos al compartir determinados recursos pueden manifestarse de
diferentes formas. Unos son fácilmente reconocibles, pero otros son de difícil diagnóstico. Algunos de
los síntomas más frecuentes de un conflicto son los siguientes:
 El PC se cuelga, generalmente sólo cuando se utiliza un dispositivo determinado, el que está causando el
conflicto.
 La memoria devuelve errores de paridad en sistemas con control de paridad.
 Ruido o algún problema similar en tarjetas de sonido.
 Resultados de impresión erróneos en la impresora.
 Cuelgue del puntero del ratón o movimientos extraños del mismo.
 Errores del sistema operativo.
 Errores y cuelgues de las aplicaciones software sin motivo aparente.
Para resolver cualquiera de estos conflictos lo primero que hay que hacer es tratar de determinar qué
dispositivo o dispositivos están produciendo el conflicto, así como habrá que precisar qué recursos
utiliza cada dispositivo. Una vez que se cuente con estos datos, basta con reasignar los recursos de tal
manera que no vuelvan a entrar en conflicto. Esto se suele llevar a cabo en la BIOS, bien haciendo que la
asignación de IRQ´s sea automática o bien forzando una asignación manual de las mismas en caso
necesario, a fin de evitar que dos o más dispositivos hagan uso de una misma IRQ.

o EL ESTÁNDAR PLUG AND PLAY.


La gran variedad de tarjetas de expansión que se pueden añadir a un PC ha hecho que la asignación de
los recursos del sistema comience a ser un grave problema. En un intento por resolver esta cuestión,
surgió el estándar Plug and Play (conectar y funcionar). El objetivo fundamental del Plug and Play era
conseguir que los dispositivos fuesen detectados de manera automática, y que la configuración de los
mismos se llevara a cabo de forma igualmente automática. El Plug and Play hizo su aparición en 1995,
con el lanzamiento del sistema operativo Windows 95 de Microsoft.
El Plug and Play requiere de una serie de elementos:

 El hardware del sistema.


 Los propios dispositivos.
 La BIOS.
 El sistema operativo.
o CANALES DE ACCESO DIRECTO A MEMORIA DMA.
Los canales de acceso directo a memoria son caminos empleados por determinados dispositivos del
sistema para enviar y recibir información directamente desde y hacia la memoria RAM, sin intervención
del microprocesador. Cada canal DMA debe ser asignado a un único dispositivo. Si varios dispositivos
intentan acceder aun mismo canal DMA, la información de ambos dispositivos se mezclará, produciendo
errores y resultados imprevisibles.
El acceso directo a memoria es controlado por un elemento hardware denominado controlador DMA,
que desde hace tiempo se integra formando parte del chipset. Los controladores DMA actuales permiten
la gestión de 8 canales DMA. La configuración de estos canales en la configuración típica de cualquier
PC es la siguiente:

Canal DMA Uso típico Otros usos habituales

0 Refresco de memoria Ninguno

Adaptadores SCSI, puertos


paralelo ECP, tarjetas de red y
1 Tarjeta de sonido (DMA bajo) módem con voz

2 Controladora de disquetera Ninguno

Adaptadores SCSI, puertos


paralelo ECP, tarjetas de red,
tarjetas de sonido (DMA bajo) y
3 Ninguno módem con voz

4 Ninguno Ninguno

5 Tarjetas de sonido (DMA alto) Adaptadores SCSI, tarjetas de red

Tarjetas de sonido (DMA alto) y


6 Ninguno tarjetas de red

Tarjetas de sonido (DMA alto) y


7 Ninguno tarjetas de red

o DIRECCIONES BASE DE MEMORIA E/S.


Generalmente, cuando hablamos de E/S hacemos referencia a un rango completo comprendido entre una
dirección inicial y otra final. Sin embargo, para hacer referencia a este rango, solemos especificar su
dirección inicial, conocida como dirección base de E/S.

o PLACAS BASE DUALES.


Los modelos duales son aquellos que incorporan dos zócalos para el montaje de dos microprocesadores
de idénticas características., lo que aumenta de manera significativa la potencia de proceso, aunque esta
potencia nunca llega a ser el doble que la de una placa monoprocesador, ya que esto depende de varios
factores.
Depende directamente del software que se esté usando y cómo esté programada la ejecución en paralelo.
Es muy importante tener en cuenta que para sacarle el rendimiento necesario a una placa base dual
debemos ejecutar un sistema operativo con soporte multiproceso. No basta con que el sistema operativo
soporte el multiproceso. La aplicación a ejecutar también debe serlo.
Otro factor que limita el rendimiento de las placas duales es el tiempo que se necesita para el
intercambio de datos a través de los buses del sistema, que aunque es pequeño también influye. En
términos reales, una placa dual puede llegar a ofrecer un rendimiento máximo de 1,8 veces por encima
de su correspondiente versión monoprocesador. Nunca llegará a ser el doble.
Una placa base dual debe incorporar un chipset con soporte para tal fin. El microprocesador también
debe ser un modelo diseñado para su uso en placas bases duales y es importante señalar que los
microprocesadores deben ser idénticos.

Arquitectura significa el arte de la elaboración y diseño de edificios y otras estructuras.


Los diseñosarquitectónicos realizados por los arquitectos se ponen en la realidad por los
ingenieros y otros trabajadores de la técnica en el campo. Ahora, con el cambio en el escenario
mundial, la tendencia de la arquitectura también ha sufrido un cambio radical en su perspectiva.
Esta es la razón de por qué dibujo arquitectónico se han convertido en mucho más fiable,
personalizada y creativa.

Los arquitectos tienen que tener en cuenta una serie de detalles antes de empezar a diseñar sus
proyectos. Los datos incluyen las mediciones, las direcciones geográficas, las dimensiones, la
mano de obra, materiales, dinero, tiempo, las proporciones de la construcción de teorías, etc
matemático y científico se toman en consideración antes de hacer el diseño real. El propósito de
la estructura y el tamaño de la construcción son otros factores que entran en la composición del
edificio.

Dibujo arquitectónico en realidad incluye la verificación, validación, modificación de


los diseños del edificio, el examen y el diseño de los arquitectos. El proceso de elaboración
requiere de instrumentos especiales, tales como balanzas, reglas, plazas T, redactor, junto con
la pluma y el papel obvio. Con la redacción, cada ínfima parte de la construcción se dibuja en
una hoja de papel y de las concepciones del edificio que estaba en la mente toma forma delante
de los ojos. Sin embargo, con el avance de la tecnología, existen diversos métodos nuevos, en el
que se lleva a cabo la redacción. La redacción de CAD es uno de esos métodos que está ganando
gran popularidad. Diseño Asistido por Computadora o CAD en términos breves es el método de
elaboración de utilizar herramientas tecnológicas en las pantallas de ordenador. Con esta
tecnología, se pueden diseñar los edificios de una forma mucho más eficiente, eficaz, aunque de
manera más simple. A veces, la redacción de CAD hacen que el diseño del edificio parece más
sencillo que solía aparecer en el papel. Con la redacción de CAD, uno puede preparar fácilmente
el dibujo de la estructura del edificio y observar el dibujo de casi todas las direcciones posibles
de movimiento, rotación, etc principios de usar la pluma y el papel, los arquitectos tenían que
dibujar el diseño de todas las direcciones por separado e incluso crear un diseño independiente
para la estructura interna del edificio. Este utiliza para hacer las cosas se ven complicadas e
incomprensibles.

Redacción no sólo ahorra tiempo y energía, pero también aumenta la eficiencia de los
arquitectos. Por otra parte, con el diseño estructural frente a los ojos de los arquitectos, que
fácilmente se puede jugar con el diseño hacer cambios sin tener que volver todo el proyecto una
y otra vez.
Procesos de la Comunicación

El proceso de comunicación resulta muy sencillo. Por un lado tenemos una


computadora que solicita información la cual genera una serie de peticiones. Esta
computadora es generalmente llamada Cliente. Por otro lado, tenemos una
computadora más potente que se encarga de recibir dichas peticiones y
procesarlas para luego devolver los datos procesados a la computadora que ha
solicitado peticiones. Esta computadora es llamada Servidor.

 Curso de PHP Online Aprende a Programar en PHP Ahora! Solo 2 pagos de US$ 99,
Reserva Hoy
Capacityacademy.com/Curso-PHPEnlaces patrocinados

Los paquetes de información se envían de un extremo a otro y pueden


darse entre idas y vueltas. Este proceso de envió en doble sentido es conocido
con el nombre de Postback. Dichos paquetes se trata de las transacciones
comunes que suceden entre una computadora Cliente y una computadora
Servidor. Las transacciones portan información que pueden ser de proceso
(petición) y de información (respuesta). Es por ello que para garantizar que el
sistema funcione correctamente, habrá que depender de varios mecanismos de
sustento. Recuérdese que este sistema de comunicaciones se basa en un modelo
no conectado. Ello significa que si no se garantiza un proceso de soporte ideal de
la información, esta misma se pierde. De allí el hecho del uso de copias de
archivos locales en los sistemas, el uso de cookies, credenciales, etc., y otros
tantos mecanismos de sustento de la información. Resultan finalmente en un
medio para garantizar las funcionalidades de este sistema.

Detalles de los Procesos de la Comunicación

Ahora bien, la computadora Cliente tan solo recibe una copia de las
páginas para la consulta y las almacena temporalmente en su sistema con el
objeto de re utilizarlas. Esto sucede cuando un usuario visita el sitio Web de un
portal. Las páginas transferidas hacia la computadora Cliente, resultan totalmente
estáticas y en formato HTML. En alguna sección de dicha página, se establece un
formulario de acción con el propósito de poder enviar una petición a la
computadora Servidor. El formulario se encuentra en espera y reaccionará cuando
el usuario accione algún mecanismo, por ejemplo, que haga clic en un botón
Enviar con el objeto de que se envíe la solicitud deseada. Por tanto, la
computadora Cliente solamente utiliza la página estática en formato HTML para
proceder con dicha comunicación y petición con el Servidor.
Arquitectura de 2 Capas ~ Cliente / Servidor

Mientras tanto, la computadora Servidor contiene todos los archivos


dinámicos que son capaces de realizar procesos específicos. Además de los
archivos dinámicos, también cuenta con otros tipos de recursos tales como bases
de datos o archivos de soporte, etc. La computadora Servidor, recibe la petición de
la computadora Cliente e inmediatamente la procesa. Al procesar la petición
enviada por la computadora Cliente y según como esté desarrollado el sistema de
proceso para las consultas, el Servidor reaccionara de varias formas. Si la
consulta estriba en el proceso de verificar datos en una base de datos para que la
computadora Cliente pueda obtener información peticionada, entonces, la
computadora Servidor procesará la información enviando de regreso a la
computadora Cliente el resultado de la búsqueda solicitada. Este resultado de
envío se trata de otra página estática en formato HTML que es recibida y copiada
en el sistema local de la computadora Cliente para que luego pueda ser leída en
pantalla. La página estática es generada de forma dinámica por el proceso de
páginas dinámicas desde la computadora Servidor.

En la sección Servidor, encontramos a grandes rasgos dos capas más


internas de proceso en la capa Servidor. Una capa interna es llamada Negocio
dado que opera con el código en conjunto de los procesos de servicios Web. La
otra capa interna es llamada Legacy, se encarga de operar en este caso un gestor
de base de datos. La gestión de la capa de Negocio se monta sobre el lenguaje
PHP que nos permite operar al servidor junto a un software de gestión que se
comporta en caridad de servicios Web llamado Apache. Ambos mecanismos, nos
permiten establecer la comunicación entre el Cliente y el Servidor y establecer
negociaciones para procesar todo tipo de peticiones y datos. Por otro lado, en la
capa interna Legacy, nos encontramos con el gestor de base de datos, que en
nuestro caso se trata de MySQL Server Web. Cuando un cliente realiza una
petición, esta es dirigida al servidor y es analizada y procesada por la capa de
negocio. Según el proceso, desviará la petición hacia la capa Legacy o hacia la
computadora cliente nuevamente.
Operación entre la Capa de Negocio

Por ejemplo, si una petición no consiste en consultar la base de datos, el


proceso se reduce a procesar dicha petición y luego devolver al cliente los datos.
Un ejemplo de ello podría ser una aplicación que realiza cálculos financieros sin la
necesidad de consultar datos en una base de datos. Durante el curso, Ud., ha
confeccionado en una de las prácticas una calculadora financiera que le permitía
calcular la rentabilidad de un plazo fijo. Los datos eran procesados y calculados
por el mismo gestor de PHP, por tanto, el proceso se realizaba en su totalidad
dentro de la capa de Negocio. Luego de que la capa de negocio finalice su
proceso, los datos, son devueltos de regreso a la computadora cliente.

Operación entre la Capa de Negocio y la Capa Legacy

A veces la consulta o petición del cliente podría ser dirigida hacia una base
de datos. Por ejemplo, consultar acerca de la existencia de un libro en un catálogo
virtual que posee una librería virtual que opera en la Internet. A continuación,
analizaremos un caso de consultas Online. En el siguiente ejercicio práctico que
hará más tarde, tendrá la oportunidad de construir este ejemplo que analizaremos
en este apartado. Por tanto, empezaremos describiendo las partes que operan en
esta solución y sus detalles operativos.

Procesos Operativos de un Sitio Web con Consultas Online

Comenzando la descripción, imaginaremos que un usuario con su


computadora personal visita el sitio Web de la librería. Una vez que sucede esto,
la página HTML llamadalibrería.html y el resto de los archivos de recursos, como
por ejemplo, los gráficos, archivos de estilos si los hubiere, etc., que se encuentran
en el servidor, son transferidos y copiados en el sistema local de la computadora
Cliente. Este archivo en formato HTML llamado librería.html, contiene el soporte
para el formulario de acción que se utilizado para realizar las consultas Online y el
resto de los recursos para estructurar y embellecer la interfaz gráfica.

Una vez transferido todos los archivos, el usuario podrá disponer del uso
interactivo que esta página Web le ofrece. Para ello, comienza a rellenar los
campos de búsqueda y selecciona el tipo de búsqueda que desea dependiendo de
las opciones ofrecidas por dicho recurso. Una vez que completa correctamente
todos los requisitos básicos de dicho formulario, procede a ejecutar la consulta
haciendo clic en el botón Buscar. A partir de este instante, la petición es enviada
directamente al servidor Web.

Sin embargo, el formulario de acción tiene una característica de envío


específica. Por un lado determina el método de envío y, por el otro, el llamado al
archivo de proceso en la capa de Negocio en la sección de la capa del Servidor,
cuyo archivo es llamadoresultados.php. El envió de la solicitud y todos sus datos
pueden realizarse mediante dos métodos distintos llamados POST y GET. La
diferencia entre ambos métodos de envío erradica en la forma en cómo es enviado
la solicitud y sus datos.

Cuando el envío es a través del método GET, la solicitud de envío en


conjunto con los datos son anexados a la dirección del espacio de
direccionamiento URL que hace referencia al sitio Web. Este método es el más
sencillo y el que garantiza más velocidad, pero es inseguro dado que los datos
pueden ser observados y capturados fácilmente por algún delincuente informático.
En cambio, el método POST resulta ser más seguro dado que la solicitud más los
datos es incorporado en el encabezado de la petición, por lo que resulta en un
método seguro puesto que se anexa sobre el encabezado del archivo de petición,
lo cual y por razones de seguridad, puede ser encriptado para mayor seguridad
operativa. De esta forma, un delincuente informático, no podría capturar los
paquetes de envío y le resultaría en más difícil de hacerlo. El método POST es el
que se recomienda por defecto, incluso, muy recomendado en casos de donde se
opera con información crítica y sensible.

La solicitud y según el método utilizado, es enviada hacia el servidor en


forma de un archivo específico. Este archivo se copia en la memoria del servidor y
es procesado por el mismo. El ciclo de vida de este archivo temporal en el
servidor, depende del resultado de los procesos en la capa de Negocio. Si el
proceso falla, el servidor inmediatamente lo elimina de la memoria y si el proceso
es útil, lo utiliza hasta culminar con el proceso de ejecución en la capa de Negocio.
Gracias a este sustento temporal, el motor de lenguaje PHP hace uso disponible
de las variables que son transferidas y manipuladas desde el momento que se
envía la solicitud hasta su culminación en los procesos en la capa de Negocio en
el Servidor.

Los datos de solicitud enviados desde la computadora cliente, como


dijimos, se almacenan en un archivo temporal en el servidor. La capa de negocio y
en conjunto con el gestor del lenguaje PHP, hace uso de este archivo para
manipular las variables de datos que contienen la información que han sido
envidas desde la computadora cliente. De esta forma, el gestor PHP procede a
utilizarlas durante la ejecución del archivo de procesos de destino, que en este
caso se trata del archivo resultados.php que se encuentra en el servidor y en el
directorio raíz del sitio Web. Luego de haber sido procesado dicho archivo, la capa
de Negocio transfiere la información al gestor de PHP y este se encarga o, bien,
de reenviar la solicitud de respuesta al cliente o de procesar el dato y luego
reenviar los resultados finales a la computadora cliente. A continuación,
analizaremos muy detenidamente el proceso que sucede en el
archivo resultados.php.

Procesos Operativos en la Capa de Negocio y en la Capa Legacy

El archivo llamado resultados.php se encargará de realizar varios


subprocesos que describiré en detalles a continuación. A grandes rasgos, el
archivo se puede analizar y partir al menos en tres grandes fases. Una fase es la
de verificar si los datos que han sido enviados desde la computadora cliente estén
libres de errores tipográficos o semánticos. Luego, una fase donde se determina si
la base de datos está disponible, y por último, una fase que nos permite realizar la
consulta en la base de datos.

Importante: Caber señalar de antemano que esta descripción que sigue


luego de este párrafo, tan solo se trata de una serie de extractos del código real
completo. Se han tomado pequeñas partes para analizar su comportamiento.

Funciones Específicas para Tratar Cadenas

La verificación de los datos que han sido enviado por la computadora


cliente deben ser verificados para evitar errores de excepción, además también,
para hacer que los valores ingresados sean los correctos de modo que sean
fácilmente interpretados por el sistema o aplicación para proceder con la consulta
sobre la base de datos. Ud., encontrará el uso de dos funciones
llamadas addslashes y stripslashes y al principio el uso de una función
llamada trim.

El uso de la función trim es para quitar los posibles espacios vacíos por
delante o por detrás de los datos escritos en el formulario del cliente. Puede que el
usuario escriba los datos en el campo de texto y haya dejado espacios vacíos por
delante o por detrás de sus escritos. La función trim nos garantiza que estos
espacios no pasen directamente al código dado que podrían incidir en los
resultados de las consultas finales.

El uso de addslashes tiene como objeto evitar potenciales errores en el


proceso de consultas. Por ejemplo, el carácter (') apóstrofe suele ser un gran
generador de errores cuando se lo utiliza durante la gestión de base de datos. El
error se debe a que este carácter suele ser utilizado por el motor SQL como un
carácter especial. Para subsanar el problema, se suele utilizar un carácter
específico para salvar el error. En nuestro caso, se agrega una contra barra. La
función stripslashes realiza el proceso a la inversa. Véase los siguientes códigos
para mayores detalles.
Funciones Específicas para Tratar Acceso a Base de Datos

Para poder acceder al a base de datos y poder manipular consultas, ya


sean estas estáticas o dinámicas, se requiere de un serie de funciones que se
encuentran dentro de una librería en el propio proveedor de bases de datos. En
síntesis, MySQL posee una serie de librerías y ofrece una serie de funciones
específicas para que a través de los lenguajes de desarrollo, en este caso PHP, se
puedan acceder y manipular los recursos de las bases de datos. La capa Legacy
se encarga de administrar estos procesos. La capa de Negocio accede a la base
de datos a través de la capa Legacy. La capa Legacy es independiente de la capa
de Negocio. Todo lo que ocurre dentro del gestor de MySQL y cómo se proceden
a realizar diversos procesos específicos en la base de datos, son totalmente
ajenos a la capa de Negocio. Tan solo desde la capa de Negocio se pueden pasar
mensajes o directivas, que la capa Legacy, se encargará de ejecutar de forma
personal. Por tanto, la capa de Negocio delega y depende de los procesos
internos que realice la capa Legacy. A continuación, analizaremos las funciones
más importantes de este ejemplo de consultas Online.

La función mysql_pconnect(server, user, password, [flags]) es utilizada


para establecer la conexión de datos. Utiliza cuatro parámetros formales. La
función requiere pasar como parámetros la ubicación de la base de datos, el
nombre de usuario y la contraseña. El cuarto parámetro formal resulta ser opcional
y se lo utiliza para casos especiales. A continuación se muestra un extracto del
código para establecer una conexión a una base de datos.

El carácter inicial (@) arroba es utilizado para indicarle al procesador que


se espera el resultado de algún tipo de lectura para capturar y manipular errores.
La variable $db carga el valor que le pasa la función mysql_pconnect(). Dicho
valor tiene dos resultados finales. Si existe algún error durante la conexión el valor
es nulo y, por lo tanto, la variable $db asume el valor nulo. Ahora bien, si la
conexión resulta exitosa, el valor será distinto de nulo.
En la siguiente línea del código se anuncia al usuario del problema en caso
de que no sea posible conectarse a la base de datos. Dado que la
variable $db asume como nulo y la negación de nulo resulta en un valor
verdadero, se muestra en pantalla el mensaje contenido en el código, de lo
contrario, los procesos continuarán y este mensaje será omitido.

La función mysql_select_db(base_de_datos) es utilizada para abrir una


base de datos y asignarla para su posterior uso. Recuérdese que en el gestor de
MySQL Ud., puede contar con más de una base de datos. En consecuencia, es
recomendable que seleccione la tabla que corresponde.

A partir del resto del código, se utiliza una serie de funciones que tienen el
propósito de manipulación y obtención de los datos en pantalla, los cuales, pueden
ser formateados para su presentación final en la pantalla. Empecemos
describiendo dichas funciones.
La variable $consulta alberga la cadena en formato SQL para construir la
consulta estática. Notará que hemos utilizado el predicado LIKE para poder
realizar consultas de rango amplio. Para potenciar los métodos de búsqueda, la
variable llamada$terminbusqueda es la que inserta las palabras que ha escrito el
usuario en el formulario para luego su posterior envío. Si observa bien, se ha
encerrado entre signos porcentuales (%). Estos caracteres junto al
predicado LIKE se los utiliza para hacer que la búsqueda busque todos los
registros posibles cuyas palabras que figuran en la
variable$terminbusqueda coincidan con las que se hallan dentro de la tabla de la
base de datos.

La variable llamada $consulta es asignada al parámetro formal de la


función llamadamysql_query(). Esta función se encarga de ejecutar la consulta.
El resultado de la consulta o de la función realizada es asignado a la variable
llamada $resultado. El valor de la variable$resultado es utilizado dentro del
parámetro formal de la función llamadamysql_num_row(). Esta última función
permite determinar la cantidad de registros que posee la tabla en la base de datos.
Este valor resultará útil luego para poder controlar el recorrido de cada uno de
estos registros dados y su posterior proceso de carga en pantalla. El resultado de
esta función es asignado a la variable $num_resultados. Esta variable última es
utilizada dentro de un bucle for(). El bucle sabe cuántos registros posee la
consulta y procederá a contar hasta el valor asignado. Por último, la función
llamadamysql_fetch_array() en conjunto con su parámetro formal
llamado $resultado, es utilizada para asignar la matriz vector a una variable de
filas utilizadas para representar los valores obtenidos en función a la fila y la
columna de dicha tabla. Al finalizar y para cada campo de la tabla de la base de
datos, se escribe el código pertinente que hace referencia al campo y el valor que
figura en dicho campo. Todo ello se realiza mediante la variable de
objeto$row[campo].

Resulta importante aclarar un detalle. Es probable que al escribir el campo


como$row[“title”] suele no no funcionar. Para subsanar este problema, Ud.,
puede sustituir la expresión literal por el índice de valor de campo, es decir, si el
campo se ubica en la tercera columna, su campo podría escribirlo
como $row[2] dado que la primera columna tiene el valor 0. Las columnas o
campos se encuentran indexados.

Recuérdese que la función stripslashes() es utilizada para quitar los


caracteres barra que son utilizados para evitar errores internos en las consultas
SQL del motor de base de datos.

Para ir finalizando, una vez que la consulta es realizada y se determina la


cantidad de registros existentes, el motor del lenguaje PHP a través de este
archivo fuente prepara un informe de datos de envío hacia la computadora cliente.
El envío se hace a través de otra página estática en formato HTML, la cual, es
recibida por la computadora cliente y copiada localmente en dicha máquina. Una
vez hecha la copia, el cliente tendrá toda la información consultada en pantalla y
se habrá culminado con el proceso de consulta.

FASES DEL PROCESO DE LA Programación


1. Definición del problema
Requiere que el problema sea definido y comprendido claramente para que pueda ser
analizado con todo detalle .
2. Análisis del problema
El propósito del análisis de un problema es ayudar al programador para llegar a una cierta
comprensión de la naturaleza del problema. El problema debe estar bien definido si se desea
llegar a una solución satisfactoria.
Para poder definir con precisión el problema se requiere que las especificaciones de entrada,
proceso y salida sean descritas con detalles.

 Entrada, son todos los datos que hay que ingresar para la resolución del problema.
 Proceso, son los diferentes procedimientos en los cuales usare los datos proporcionados por el usuario
en el paso anterior para resolver el problema.

 Salida, la resolución del problema.


Una buena definición del problema, junto con una descripción detallada de las
especificaciones de entrada y salida, son los requisitos mas importantes para llegar a una
solución eficaz.
El análisis del problema exige una lectura previa del problema a fin de obtener una idea
general de lo que se solicita . la segunda lectura deberá servir para responder a las preguntas:
 ¿Qué información debe proporcionar la resolución del problema?
 ¿Qué datos se necesitan para resolver el problema?

La respuesta a la primera pregunta indicara los resultados deseados o las salidas del
problema. La respuesta a la segunda pregunta indicara que datos proporcionan o las entradas
del problema.
En esta fase debemos aprender a analizar la documentación de la empresa , investigar,
observar todo lo que rodea el problema.
3. Diseño de la solución
Una computadora no tiene la capacidad para solucionar mas que cuanto se le proporcionan
los sucesivos pasos a realizar. Estos pasos sucesivos que indican las instrucciones a ejecutar
por la maquina constituyen, como ya sabemos el algoritmo.
La información proporcionada al algoritmo constituye su entrada y la información producida
por el algoritmo constituye su salida.
Los problemas complejos se pueden resolver mas eficazmente con la computadora cuando se
rompen en subproblemas que sean mas fáciles de solucionar que el original. La
descomposición del problema original en subproblemas mas simples y a continuación dividir
estos subproblemas en otros mas simples que puedan ser implementados para su solución en
la computadora de denomina diseño descendente (top - down design ).
Es presiso representar el algoritmo mediante una determinada herramienta de
programación: diagramas de flujo, pseudocódigo o diagramas N - S.
4. Codificación
Es el algoritmo traspasado a la computadora a través de un lenguaje de programación,
debe ser escrito de acuerdo a las reglas gramaticales o sintaxis del mismo.
Generamos un algoritmo el cual se denomina código, y al pasarlo a un lenguaje de
programación se le llama código fuente.
5. Compilación y ejecución
Compilación, el lenguaje de programación seleccionado revisa que ya no halla errores en el
código fuente.
Ejecución, ejecutar el programa después del ser compilado.
6. Verificación y pruebas
Revisar que el programa de los resultados que el usuario quiere, hay que revisar si hay algún
error el cual puede ser de tipo lógico, de semántica o ejecución.
7. Depuración
Corregir los errores encontrados en la etapa anterior, si hubiese algún error se tiene que
regresar hasta la etapa que sea necesaria para que la solución sea la que el usuario requiere.
8. Documentación
Son todos los comentarios, referencias desde que se dio el problema hasta que se encontró la
solución.
a) documentación interna, es el encabezado, descripción, declaración del problema, son todos
los comentarios que puedan llegar a servir dentro del código fuente.
b) documentación externa, son los manuales que se hacen para una mejor ejecución del
programa, ahí se explicara como usar el programa.
9. Capacitación
Una ves que tenemos lo manuales viene la capacitación de usuarios, como no a todos les
interesa los mismo porque hay diferentes tipos de usuarios, se tienen que dividir de acuerdo a
sus conveniencias.
10. Implantación o implementación del sistema
Hay diferentes formas de implementar el sistema:
 Depende del tamaño del sistema
 Si existiera un sistema se tiene que poner el nuevo y quitar el que ya estaba.
 Trabajar primero con el sistema viejo(si existe), y después empezar a trabajar con el nuevo.
 Sistemas implantados por regiones.
 Trabajar con el sistema viejo (si existe) y con el sistema nuevo simultáneamente después quitar el
sistema viejo.
 Ir quitando el sistema viejo(si existe) poco a poco e ir implantando el sistema nuevo.

11. Mantenimiento
El mantenimiento preventivo es que hagamos lo posible por no caer en errores, la
actualización si el usuario tiene la necesidad de quitar o poner algo; téngase en cuenta que
cuando surge mantenimiento tenemos que volver a hacer todos los pasos anteriores revisando
que todas la condiciones sean favorables alrededor del sistema.
Fases de la programación:
1.- ANALISIS: Cuando se tiene y piensa la idea o problema a ejecutar.
2.- DISEÑO: Se plantea un algoritmo con los pasos a dibujar o realizarse.
3.- IMPLEMENTACION: Los pasos de algoritmo se transforma en un código pascal y se
plasman en el programa
4.- PRUEBAS: Se corre el programa y se registra su efectividad.
5.- DEPURACION: después de haber corrido el programa se hacen las correcciones
necesarias.
6.- RETROALIMENTACION Y LIBERACION: Después de haber corregido los errores se
regresa al paso 4 en caso de haber existido.

Introducción
Las arquitecturas de las computadoras evolucionando de forma rápida alcanzando sorprendes
velocidades y capacidades , sobre sus orígenes y sus partes más importantes, aclararemos
puntos muy importante sobre buses, puertos de comunicación, configuración de placas sobre
algunos modelos, en capitulo trato sobre la evolución de la mainboard y muestro alguno planos
y estructura de mainboard sacadas por asi decirlo de un museo, también
incluyo descripción fuentes y case se desarrollaron, en el capitulo tres vero sobre los socket y
slot para microprocesadores.

Presentación
Este documento fue recopilado buscando realidades diferentes que hay mercado, bueno espero
que se gran utilidad este documento para los que desean profundizar sobre el tema
de arquitectura de PC´s, espero que me envíen sus comentarios
a fersystem_soft@hotmail.com, agradecido anticipadamente a todos los lectores.
CAPITULO I

Historia y evolución de computadoras


HISTORIA DEL PC
Para todo estudiante de Computación el estudio de la HISTORIA DEL PC es necesario para
comprender y valorar lo que hoy son los PC. Consecuentes con ello citamos a continuación las
principales etapas, hechos y hombres de ciencia que dieron origen a una de las más grandes
revoluciones científicas de la civilización occidental.
¿QUIÉN INVENTÓ EL PC?
Ante esta pregunta hemos de responder que NADIE COMO PERSONA EXCLUSIVA INVENTO
EL PC, porque no se trata de una máquina simple. La realidad es que el PC - como muchos
otros inventos - es el resultado del trabajo investigativo de muchos científicos, empresas,
emprendedores y estudiosos, quienes aportaron secuencialmente innovaciones para producir
lo que hoy tenemos: equipos poderosos, compactos y versátiles en un espacio reducido.
La historia de la informática y el hardware de las computadoras constituye una emocionante
aventura cuyo estudio merece un capitulo aparte. En las paginas siguientes veremos como se
dio el invento del PC.
Los antecedentes de la computación. Es importante tener en cuenta que el desarrollo de
la electrónica a partir de del sistema digital aplicado en el trabajo de las computadoras es
quien marca el inicio de las actuales generaciones de PC. Aunque sus antecesores fueron
las máquinas mecánicas - analógicas, este análisis se centra en la era electrónica.
EVOLUCIÓN DEL PC
Entre los precursores del PC, existieron hombres de ciencia y emprendedores que se unieron
en torno a un punto común: EL CALCULO MATEMATICO. Partiendo de una era a la que
podemos llamar MECANICA el hombre creó aparatos basados en el movimiento coordinado de
ejes y ruedas para simplificar las 4 operaciones básicas: sumar, restar, multiplicar y dividir.
Uno de ellos fué el científico alemán WILHEILM SCHICKARD (1592-1635) quien en el año
1623 creó una máquina a la que llamó RELOJ CALCULANTE pues trabajaba con ruedas
dentadas y era capaz de sumar y restar. No obstante su novedad, no se pudo fabricar
completamente. Posteriormente seria BLAISE PASCAL (filósofo frances, 1623-1662) quien en
el año 1662 inventó la primera máquina automática de calcular completa a base de ruedas
dentadas. Dicha máquina mostraba los resultados en una ventanilla y se la llamó PASCALINA.
Diez años más tarde, el filósofo y matemático alemán GOTTFRIED WILHELM
von LEIBNITZ (1646-1716) mejoró la máquina de Pascal creando la CALCULADORA
UNIVERSAL, capaz de sumar, restar, multiplicar, dividir y extraer raíces cuadradas, además de
hacer la multiplicación en forma directa, en vez de realizarla por sumas sucesivas, como la
máquina de Pascal.
En el año 1805 el francés JOSEPTH MARIE JACQUARD (1752 -1834) dio el paso siguiente.
Después de varios intentos, construyó un telar automático que efectuaba un control perfecto
sobre las agujas tejedoras mediante la utilización de TARJETAS PERFORADAS que contenían
los datos de control de las agujas. Esta máquina se puede considerar como la primera
máquina mecánica programada. Se conoció como el TELAR DE JACQUARD.
Posteriormente y dando un paso muy grande - según muchos, demasiado adelantado para su
época -, en el año 1822 el inglés y profesor de laUniversidad de Cambridge CHARLES
BABBAGE (1792-1871), diseñó la MAQUINA DE DIFERENCIAS. Su funcionamiento se basaba
en mecanismos con ruedas dentadas. Podía resolver funciones y obtener tablas de las mismas.
Pero las deficiencias tecnológicas de la época no permitieron su fabricación completa sino hasta
años después.
En 1937, HOWARD H. AIKEN de la Universidad de Harvard enasociación con un grupo de
científicos universitarios e ingenieros de IBM crea una calculadora numérica basada en el uso
de relés electromagnéticos, ruedas dentadas y embragues electromecánicos dando origen a la
que se puede considerar como la PRIMERA COMPUTADORA ELECTROMECANICA. Se la
denominó MARK-I. Utilizaba medios de entrada tarjetas y cinta perforadas que procesaba en
unidades aritméticas, unidad de control y una unidad de memoria. Se terminó de construír en
1944 y a pesar de que funcionó bien, fué rápidamente superada por las COMPUTADORAS
ELECTRONICAS que aparecieron a casi a la par que su construcción.

LOS INICIOS DE LA COMPUTACIÓN DIGITAL.


La aparición de varios factores coincidentes propiciaron la rápida evolución de las
computadoras a partir de este punto: la aplicación de la teoría delálgebra de Boole en la
representación de circuitos lógicos, la definición de la medida de información BIT, la invención
de la válvula de vacío y el interésdel gobierno estadounidense (a través del Ministerio de
Defensa). Esto propició que en 1940 JOHN W. MAUCHLY y JOHN PRESPER ECKERT junto
con científicos de la Universidad de Pensilvania construyeran en la Escuela Moore
de Ingeniería Eléctrica, la PRIMERA COMPUTADORA ELECTRONICA a la que llamaron
ENIAC(Electronic NUmerical Integrator and Calculator).
ENIAC era programable y universal (se podía utilizar para cualquier tipo de calculo), era mil
veces más rápida que MARK-I, ocupaba 160 metros cuadrados, pesaba 30 toneladas, con
17.468 válvulas de vacío, 70.000 resistencias, 10.000 condensadores y un consumo de
aproximadamente 200.000
vatios. En los años 50 (la generación del transistor) con la creación de los semiconductores, el
diodo y el transistor, surge la segunda generación de aparatos de cómputo. El tamaño se redujo
sustancialmente. Se crean las compuertas lógicas y sus circuitos derivados. Esta fase duró hasta
aproximadamente el año 1964.
El primer PC de uso general (universal) fué una creación de IBM en unión de INTEL (que
aportó el Microprocesador) y MICROSOFT (que aportó elSistema Operativo). Fué lanzado el 12
de Agosto de 1981 y rápidamente se convirtió en el estándar de la industria opacando a sus
rivales que en ese entonces construían máquinas con sistemas
operativos y programas incompatibles entre sí . Este primer IBM PC (IBM Personal Computer)
llamado así por IBM utilizaba un procesador Intel 8088, tenia una velocidad de 4,8 MHz, no
tenía disco duro sino una unidad de disquete de 160 KB de capacidad y una memoria Ram de
64 KB (expandible hasta 256 KB).
 EQUIPO XT
Año 1981, (IBM) con procesador 8086 u 8088 de Intel, máquina pionera de los PC, usaba 64-
128K de memoria Ram. Funcionaba con el Sistema operativo D.O.S, unidad de disquete de 160
KB y posteriormente de 256KB y 360KB, inicialmente sin disco duro y posteriormente con 5 o
10 megabytes de capacidad en disco, gabinete (chasis) horizontal, bus de 8 bits,
el monitor monocromático con fondo negro y letras de color verde. Su velocidad de
procesamiento estaba entre los 4 y 8 MHz.
 EQUIPO AT 80286. ( ADVANCED TECHNOLOGY DE IBM)
Su memoria Ram podía alcanzar los 16 MB adicionándole una placa de expansión especial, el
disco duro normal para él era de 30 o 40MB, las unidades de disquetes eran de 1.2 y 1.44 MB
de capacidad, microprocesador Intel 80286, Sistema operativo DOS 2.1, gabinete horizontal,
monitor a color contecnología EGA (baja resolución comparados con los actuales VGA).
Velocidad promedio: los 25MHz.
 EQUIPOS AT 80386 (IBM)
Usaban en promedio 8 y 16 MB de Ram, utilizando módulos removibles de memoria, tipo
SIMM de 32 pines, el disco disco duro promediaba los 512 MB, DOS 4.0, monitores super
VGA, modem interno de 14.400 baudios por segundo. Velocidad promedio: 40MHz. Aparece la
unidad Cd-ROM de simple velocidad. El programa Windows de Microsoft empieza a
popularizarse y los clones inician su auge auspiciados por los fabricantes de partes de oriente
(China, Taiwan, Singapur, Malasia).
 EQUIPOS AT 80486 (VARIOS FABRICANTES)
Ram promedio de 8 y 16 MB, discos duros de 1 gigabyte promedio, DOS 6.22, modem de
28.800 bps, monitores con resolución .28. Unidad CD-ROM de 2, 4 y 8
velocidades. Internet empieza a popularizarse.
 EQUIPOS BASADOS EN PENTIUM DE 75MZ DE INTEL Y EN 586 DE AMD
Ram promedio de 16 MB expandible a 128 MB, discos duros de 3 gigas o mayor, modem de
33.600 bps, Windows 95, coprocesador matemático y memoria caché interna. Unidad CD-
ROM de 16 velocidades. Otros procesadores: el 586 y 686 de AMD.
 EQUIPOS BASADOS EN PENTIUM MMX Y EN 686 DE AMD
Tecnología con prestaciones para multimedia, con velocidades de 200, 233 y 266 MHz, discos
duros de 4 y 6 gigas, ram promedio de 16 y 32 MB expandible, unidad de Cd rom de 24 y 36
velocidades. Sistema Operativo Windows 95 A y Windows 95 B.
 EQUIPOS BASADOS EN PENTIUM CELERON, CON VELOCIDADES DESDE
300 MHZ A 1.3 GHZ
Caché de 128 KB, discos duros mayores de 6 gigas como promedio, monitores no entrelazados,
ram promedio de 32 MB expandible, motherboard multifuncional, tanto en equipos genéricos
como de marca, incluyen normalmente sonido, video y modem fax incorporado en la placa
madre, la velocidad de los modems promedio es de 56.600 bps, las unidades de Cd rom
alcanzan velocidades de 40X, se mejora Windows 95 creando Windows 98.
 LAS GENERACIONES DE PENTIUM II, PENTIUM III Y PENTIUM IV
Básicamente utilizan los mismos elementos de base: motherboard multifuncional, ram
promedio de 128 MB, discos de 15, 30, 40 o más gigas, multimedias de 52x - 56x, modem de
56.600, y sus velocidades varian desde los 350MHz a 550MHz los pentium II, de 500, 1 GHz
los pentium III y 1.4 a 2GHz los Pentium IV. Sistemas Operativos: Windows 98, Windows
2000, Windows NT, Windows Me y Windows XP. Otros procesadores: los K6-2 y Athlon de
AMD.
 LAS GENERACIONES DE PENTIUM D, CORE
Estas nuevas en la actualidad tienen capacidades potentes de multitarea por incorporar
tecnología de varios núcleos de trabajo esto permite ejecutar varias aplicaciones e incluso
varios usuarios simultáneamente
CAPITULO II

Mainboard (placa base)


ANTECEDENTES
Desde su aparición en 1974, las microcomputadoras han incluido la mayor parte de su
electrónica esencial en una placa de circuito impreso, llamada motherboard (tarjeta o placa
madre). IBM la denomino system board(tarjeta o placa de sistema) o placa base. Yo lo
denominare (Tarjeta o placa principal).
La mainboard es una placa donde se encuentra la circuitería principal de una computadora. Se
caracteriza por tener en su interior circuitos integradostales como el microprocesador,
controladores y diversos tipos de soporte.
Para profundizar el tema sobre mainboard debemos narrar parte de sus orígenes.
HISTORIA
La historia de las tarjetas madres comienza en 1947 cuando William Shockley, Walter Brattain
y John Bardeen, científicos de los laboratorios Bell, muestran su invento, el transistor
amplificador de punto-contacto, iniciando el desarrollo de la miniaturización de circuitos
electrónicos. Dummer, un británico que en 1952 presentó sobre la utilización de un bloque de
material sólido que puede ser utilizado para conectar componentes electrónicos sin cables de
conexión.
1961 cuando Fairchild Semiconductor anuncia el primer circuito integrado, Con estos inventos
se comienza a trabajar en la computadora con una tarjeta, como las que mencionamos a
continuación estas en orden de evolución.
CONCEPTO DE UNA MAINBOARD
La mainboard es la parte principal de un computador ya que nos sirve de alojamiento de los
demás componentes permitiendo que estos interactúen entre si y puedan realiza procesos.
La tarjeta madre es escogida según nuestras necesidades.
PARTES DE LA TARJETA MADRE

Mencionare a continuación las partes más principales y destacadas de una mainboard.


Aclarando que estas partes varían según el avance de la tecnología.
 Bios
 Ranuras PCI
 Caché
 Chipset
 Conectores USB
 Zócalo ZIF
 Ranuras DIMM
 Ranuras SIMM
 Conector EIDE (disco duro)
 Conector disquetera
 Ranuras AGP
 Ranuras ISA
 Pila del sistema
 Conector disquetera
 Conector electrónico
 A. BIOS (basic input output sistem)- (sistema básico de entrada-salida)
Programa incorporado en un chip de la tarjeta madre que se encarga de realizar las funciones
básicas de manejo y configuración del ordenador.
Es un código de software que localiza y carga el sistema operativo en la RAM; es un software
muy básico instalado en la placa base que permite que ésta cumpla su cometido. Proporciona la
comunicación de bajo nivel, el funcionamiento y configuración del hardware del sistema que,
como mínimo, maneja el teclado y proporciona salida básica (emitiendo pitidos normalizados
por el altavoz de la computadora si se producen fallos) durante el arranque.

 B. CACHÉ
Es un tipo de memoria del ordenador; por tanto, en ella se guardarán datos que el ordenador
necesita para trabajar.
Para explicar su funcionamiento haremos la siguiente analogía: supongamos que se debe
realizar una torta, para ello se recurre al supermecado y se compra la harina. Luego se va a una
cocina y se coloca la harina necesaria según la receta. Esta indica que debe agregarse leche;
nuevamente se va al supermercado y se compra leche. De vuelta en la casa se agrega la leche,
pero el próximo ítem es azúcar por lo que se debe recurrir nuevamente al supermercado y así
sucesivamente con cada ingrediente. Definitivamente jamás se haría esto en la vida real, sino
que se compraría todo lo necesario y se lo guardaría en la alacena, recurriendo a ésta por cada
ingrediente sin mayor pérdida de tiempo.
Llevando la analogía a la computadora, supongamos que la memoria principal es el mercado, el
programa a ejecutar es la receta, el microprocesador la persona que realiza la torta y la
memoria caché la alacena.
 C. CHIPSET
Es el conjunto de chips que se encargan de controlar determinadas funciones del ordenador
El chipset como tal, no incluye todos los integrados instalados sobre una misma tarjeta madre,
por lo general son los dos o tres mas grandes. Los demás son los que realizan funciones
especificas como red, sonido, PLL, alimentación eléctrica y control de las temperaturas. El
chipset determina muchas de las características de una tarjeta madre y por lo general, la
referencia de la misma, esta relacionada con la del Chipset.

 D. ZÓCALO ZIF
El zócalo o (en inglés) socket es un sistema electromecánico de soporte y conexión eléctrica,
instalado en la placa base, que se usa para fijar y conectar un microprocesador. Se utiliza en
equipos de arquitectura abierta, donde se busca que haya variedad de componentes
permitiendo el cambio de la tarjeta o el integrado. Es decir que se pueden retirar de la placa
base cuando se quiera cambiar.
Es el lugar donde se aloja el procesador

 E. SLOT DE EXPANSIÓN
Son ranuras de plástico con conectores eléctricos (slots) donde se introducen las tarjetas de
expansión.
También llamado slot de expansión o ranura de expansión, es un elemento de la placa base de
un ordenador que permite conectar a ésta una tarjeta adaptadora adicional o de expansión, la
cual suele realizar funciones de control de dispositivos periféricos adicionales, tales como
monitores,impresoras o unidades de disco.

 F. RANURAS PCI
Peripheral Component Interconnect ("Interconexión de Componentes Periféricos")
Generalmente son de color blanco, miden 8.5 cm es de hasta 132 MB/s a 33 MHz, no es
compatible para alguna tarjetas de vídeo 3D.

 G. RANURAS DIMM
Son ranuras de 168 contactos y 13 cm. de color negro, es lugar donde nos permite
inserta memorias RAM tipo DIMM

 H. RANURAS SIMM
Son ranuras de 30 conectores, y meden 8,5 cm. En 486 aparecieron los de 72 contactos, más
largos: unos 10,5 cm de color blanco, es lugar donde almacenaremos las memorias RAM tipo
SIMM.
 I. RANURAS AGP
Puerto de Gráficos Acelerado, en ocasiones llamado Advanced Graphics Port, Puerto de
Gráficos Avanzado) es un puerto (puesto que solo se puede conectar un dispositivo, mientras
que en el bus se pueden conectar varios) desarrollado por Intel en 1996 como solución a los
cuellos de botella que se producían en las tarjetas gráficas que usaban el bus PCI.
El diseño parte de las especificaciones del PCI 2.1.
El puerto AGP es de 32 bit como PCI pero cuenta con notables diferencias como 8 canales más
adicionales para acceso a la memoria RAM. Además puede acceder directamente a esta a través
del puente norte pudiendo emular así memoria de vídeo en la RAM. La velocidad del bus es de
66 MHz.
Se dedica exclusivamente a conectar tarjetas de vídeo 3D,. ofrece 264 MB/s o incluso 528
MB/s. Mide unos 8 cm

 J. RANURAS ISA
Son las más antiguas,. Funcionan con 8 MHz-16MB/s sirve para conectar un módem o una
tarjeta de sonido , Miden unos 14 cm y su color suele ser negro.

 K. PILA
Se encarga de conservar los parámetros de la BIOS como la fecha y hora.

 L. JUMPER
Es la forma mas simple de un conmutador de encendido/apagado, es un habilitador o
deshabilitado de funciones , trata de un conjunto de pines que se encuentran en los circuitos
impresos de mainboard, discos, etc.
Mediante los mismos, se configuran determinados aspectos periféricos. La tarea de las
características del seteo, se lleva a cabo mediante el uso de puentes(de conexión).
 M. CONECTORES FRONTALES
Es un conjunto de pines donde conectamos el panel frontal del case, es decir los botones de
encendido , reset y los leds o indicadores, posee una regla de conexión: "Cables oscuros hacia el
pin positivo (+), y en el caso del speaker, el cable negro es tierra y el rojo tiene +5 v DC"

Después de haber detallado alguna de las partes de mainboard, se le vendrá a las memoria
que he obviado varias partes como: conectores SATA, IDE, Puertos USB, Ranuras para
memorias RIM, DDR1,DDR2, Slot para microprocesadores y otros más que faltan el tema es
muy amplio, por lo que voy a dividirlo en: Motherboards viejos, Motherboards
modernos y Motherboards contemporáneos, les aclaro que no hablo de tipos de placa
que otro tema.
 1. MOTHERBOARDS VIEJOS
En los motherboard viejos existe una serie de switches, (pequeños interruptores) y Jumpers
(puentecitos metálicos que se pueden sacar y poner). En la mayoría de los casos, no es
necesario meterse con los jumpers éstos ya vienen configurados por el fabricante.
Los switches de opciones son otra historia; estos le dicen al motherboard que tipo de accesorios
tiene conectados al mismo, y cuanta memoria tiene instalada. Los switches están localizados en
un pequeño banco, denominado DIP (por Dual In-Line Package). El conjunto de switches DIP
tiene ocho pequeños controles en un algunos motherboards. Se pueden mover con la punta de
una lapicera o cualquier otro instrumento de punta.
 2. MOTHERBOARDS MODERNOS
En los motherboards modernos la configuración no esta dada por los switches, sino por un
pequeño programa de setup. Este programa esta disponible en discos de utilidades embalados
junto con la maquina o insertos dentro del sistema y siempre disponibles. Este programa de
setup es accedido por muchos motherboards presionando la tecla Delete mientras la maquina
esta booteando (recién arrancada).
Los cambios que usted realiza en el programa de Setup son almacenados en un tipo especial
de memoria denominado CMOS (los circuitos integrados CMOS con conocidos por su poco
consumo de energía). El contenido de esta memoria no se pierde al apagar la maquina gracias a
una pequeña batería conectada al motherboard.
Aunque se usa el programa de setup, también hay una serie de switches para setear(reiniciar)
las opciones, muchos motherboards tienen al menos dos o tres conjuntos del tipo de chips
RAM y ROM que se tengan instalados.
Las motherboards tienen diferentes configuraciones acceso para entrar al programa Setup, en
otros se presiona la tecla F1, F10, CRTL+S, F12 y otros. Esto se debe a las diferentes marcas que
existen en el marcado
 3. MOTHERBOARDS CONTEMPORÁNEOS
En los motherboards contemporáneos son similares a los modernos, con algunos avances como
detección y configuración automática, también se puede actualizar el programa Setup,
para poder reconocer nuevos dispositivos.
Gracias a al avance de las Flash Rom, además hay modelos donde incorporan doble BIOS,
como respaldo lo cual nos permite un mejor rendimiento, esta forma de trabajo lo patentan
mainboard que son de la familia AMD
PROBLEMAS GENERALES DE INCOMPATIBILIDAD
La flexibilidad de las computadoras personales nos permiten incorporar las llamadas tarjetas o
placas de expansión. Estas tarjetas agregan funciones que pueden no estar disponibles en el
mainboard, tales como interfaces extras, aceleradores de gráficos, etc. Estas placas de han
estandarizado bastante, pero subsisten algunas cuestiones de incompatibilidad, como puede
ser:
 a) VELOCIDAD DEL RELOJ DEL SISTEMA:
A veces sucede que el sistema opera demasiado rápido para la expansión. Generalmente la
memoria suele ser lugar que causa el problema de incompatibilidad.
 b) ESPECIFICACIONES DEL BUS:
Las maquinas mas veloces suelen tener un bus levemente modificado y esto tiende a causar la
mayor parte de los problemas Interferencia de radiofrecuencia: algunas placas
emiten señales de radio a un nivel suficientemente alto como para llegar a causar interferencia
sobre otros dispositivos. Esto generalmente sucede con las tarjetas gráficas.
 c) INCOMPATIBILIDAD DE DIRECCIONES:
Puede suceder que distintas placas instaladas en una misma máquina posean direcciones
conflictivas.
 d) CALOR Y CONSUMO DE ENERGÍA:
Aunque no es exactamente un problema de compatibilidad, el exceso de calor puede presentar
dificultades
 N. PUERTOS DE COMUNICACIÓN EN LA MAINBOARD
Los ports(puertos de comunicacion) son muy importantes pues representan la interfase entre
el procesador y el hardware del sistema. El procesador utiliza el bus de datos para comunicarse
con los ports. Si necesita acceder a alguno de ellos, transmite una señal de control. Esta señal le
avisa al hardware que el procesador desea acceder a un port en lugar de acceder a la RAM.
La dirección del port se coloca en los 16 bits mas bajos del bus de direcciones. Esto instruye al
sistema para que transfiera los ocho bits de información presentes en el bus de datos hacia el
port correcto. El hardware conectado, a su vez, recibe la información y responde.
Existen dos instrucciones para controlar los ports: IN y OUT (enviar y recibir información de
un port).
Cada dispositivo de hardware es responsable de un área de direcciones de ports. Es por esta
razón que se producen conflictos entre las placas de expansión que utilizan las mismas
direcciones de ports. Así es que muchas de estas placas incluyen switches DIP para modificar la
dirección del port al cual van a responder.
 O. INTERRUPCIONES
Existen dos tipos de interrupciones que puede manejar la PC.
 1. INTERRUPCIONES DE SOFTWARE:
Éstas ejecutan una determinada parte de un código a partir de la ejecución de una instrucción
de interrupción. Para esto existe la tabla de vectores de interrupción en la parte baja de
memoria. En esta tabla se encuentra la dirección que va a tomar el registro IP, a partir de la
cual seguirá ejecutando. Por supuesto, en el momento de la interrupción se guarda el contexto
inherente a la parte del programa que estaba en ejecución, para ser restaurado luego de
finalizada la interrupción.
Una de las ventajas del uso de interrupciones es que un fabricante puede escribir sus propias
rutinas en BIOS y, aunque estas sean totalmente diferentes a las originales de IBM, le basta con
mantener el numero de interrupción y el formato de parámetros que se le pasa (y en los
mismos registros) para mantener la compatibilidad.
 2. INTERRUPCIONES DE HARDWARE:
Estas interrupciones son producidas por diferentes componentes del hardware, y son pasadas
al procesador por el controlador de interrupciones. Seguidamente se da un listado detallado de
las mismas:
00h - División por cero
01h - Paso a paso
02h - NMI (Non-Maskable Interrup)
03h - Breakpoint
04h - Overflow
05h - Impresión de pantalla
08h - Timer
09h – Teclado
PRECAUCIONES GENERALES
Debido a que los componentes de la plaqueta madre son sumamente delicados, un
descarga electrostática puede fácilmente dañarla. Es muy importante, por lo tanto, tomar
ciertos recaudos a la hora de manipular la plaqueta, sobre todo en ambientes secos o
con aire acondicionado.
A continuación detallamos algunas de las precauciones que deben de llevarse a cabo con el fin
de evitar posibles daños al equipo:
 Mantenga la plaqueta en su envoltorio anti-estático, hasta que esté listo para instalarlo.
 Antes de retirar cualquier componente de su envoltura es conveniente tocar un superficie a
tierra con el fin de descargar posibles corrientes estáticas en el cuerpo.
 Durante la instalación de los componentes o la configuración de los conectores se
recomienda descargarse frecuentemente.
 P. LOS BUSES
Es el que envía la información entre las partes del computador, son los canales de
comunicación por el que circulan los datos entre el micro, la memoria, la memoria caché, etc.
En el ordenador hay varios buses, pero por «bus» se entiende al bus principal, que es el que
comunica el micro con el chipset.
Se trata de un conjunto de conductores (líneas) muy delgadas de cobre que están fijas,
colocadas sobre la superficie de la placa madre, se utilizan para intercambiar información y
conectar entre sí a los diferentes elementos que posee la placa madre, como así también los que
se encuentran conectados a ella.
Los buses son espacios físicos que permiten el transporte de información y energía entre dos
puntos de la computadora. Los Buses Generales son los siguientes:
 BUS DE DATOS
 BUS DE DIRECCIÓN
 BUS DE CONTROL.
Vemos como están ubicados y como se comunican con las partes de la mainboard mediante
una representación grafica
 1. BUS DE DATOS
El bus de datos es el camino por el que se transmite la instrucción o dato apuntado por el bus
de direcciones. Este bus se usa para realizar el intercambio de instrucciones y datos tanto
internamente, entre los diferentes componentes del sistema informático y los diferentes
subsistemas periféricos que se encuentran en el exterior.
 2. BUS DE DIRECCIÓN
Es el camino por el que se envía la dirección de memoria que ocupa o va a ocupar la
información a tratar. Para determinar la cantidad de memoria directamente accesible por
la CPU, hay que tener en cuenta el número de líneas que integran el bus de direcciones, ya que
cuanto mayor sea el número de líneas, mayor será la cantidad de direcciones y, por lo tanto, el
tamaño máximo de memoria a manejar por el sistema informático. Este bus se compone de 32
líneas.
 3. BUS DE CONTROL
El bus de control se encarga de manejar las señales de lectura/escritura a memoria, las
peticiones de interrupciones , las señales de reloj. Su trabajo, como lo dice su nombre es
controlar que la transmisión de datos se efectué sin problemas (colisiones).
EL ANCHO DEL BUS:
Es «él número de líneas disponibles para transferir datos», éste determina la cantidad de bits
que se pueden transportar a la vez. Cuanto más ancho sea el canal, mayor cantidad de datos
podrá transportar en cada ciclo de trabajo.

VELOCIDAD DEL BUS:


Los buses son también responsables del rendimiento final de una PC. La velocidad a la que es
capaz de trabajar el bus marca la tasa de transferencia a la que los datos viajan entre el micro y
otros componentes del sistema (memoria, etc.). Esta frecuencia depende de la arquitectura del
micro, y elComportamiento del sistema depende de la buena conjunción de la potencia interna
del micro (que continuamente ofrece información a este bus), y de la velocidad a la que puedan
transmitirse los datos a través del bus.
FRECUENCIA DE BUS
La frecuencia del bus debe de ser la misma que la frecuencia base del microprocesador. Ésta se
determina en el caso de motherboards antiguos mediante el uso de Jumpers de configuración.
En la actualidad este parámetro es determinado mediante el uso del programa SETUP.
FACTOR DE MULTIPLICACIÓN INTERNO
El multiplicador determina la frecuencia interna (cantidad total de Mhz.) del procesador.Este
parámetro realiza el trabajo de multiplicar la frecuencia base del bus, por la cantidad de
X, valor correspondiente al factor de multiplicación interno (2x,3x,...etc) se establece por
medio del uso de jumpers (mothers antiguos) o bien mediante el uso del programa SETUP
(mothers actuales). Ejemplo: En una placa base con un bus de 66 MHz, si multiplicamos este
valor (66 Mhz) por tres (3x, factor de multiplicación) se conseguirá una frecuencia total de 198
MHz, que comercialmente se equivaldría con un procesador de 200 MHz.
TECNOLOGÍA P54C Y P55C
La tecnología del tipo P54C se relaciona con los micros de Intel que no trabajan con tecnología
MMX(Multi-Media-eXtension) que aceleran hasta un 400% el procesamiento
de archivos multimedia, esta tecnología aparece a partir del Pentium 166Mhz (P55C) hasta el
233Mhz. Para establecer el tipo de procesador (P54C o P55C) se lo hacia por medio de un
Jumper de configuración.

CONFIGURACIÓN DEL VOLTAJE DE LOS MÓDULOS DE MEMORIA DIMM PC-


100
Este parámetro (voltaje) se debe determinar en los mothers antiguos, porque los módulos
DIMM PC-100 requieren de un voltaje de 3,3v , este valor se configura mediante un Jumper
que permite setear el voltaje para los módulos de memoria en 5v o 3,3v.
Como muestra la imagen anterior existen distintas formas de configurar un Jumper, la misma
se lleva a cabo mediante la lectura de las serigrafías (tablas impresas en las placas). Si la placa
base carece de serigrafías, para determinar la configuración de los Jumpers se debe poseer
el manual del motherboard. A continuación se muestra cómo se debe proceder para setear los
parámetros de un microprocesador.
Ejemplo:

Como puede observar el microprocesador tiene una frecuencia de 166Mhz, siendo su frecuencia
base de 60Mhz, su factor de multiplicación es de 2.5x y la tensión del microprocesador es de
2.9v.
En este ejemplo solamente se configurará la tensión del microprocesador y la configuración
P54C o P55C (dependiendo de si posee instrucciones MMX o no.)
PASOS PARA CONFIGURAR UN MICROPROCESADOR EN UNA MODELO DE
MAINBOARD
1º PASO
Identificar las serigrafías impresas al motherboard o bien siguiendo las indicaciones del
manual correspondiente al motherboard, utilizar el mismo para ubicar donde están situados
los jumpers para poder realizar el seteo correspondiente.
CPU Voltage Setting (JP30,JP1 and JP2)

2º Paso
Una vez identificados los jumpers de seteo, procederá a leer las tablas que se encuentran en el
manual para la configuración o lo que sería lo mismo leer las serigrafías impresas en el
motherboard para así saber cuál es la combinación de jumpers que se debe utilizar de acuerdo
al microprocesador que vaya a incorporar al motherboard.
En este caso el microprocesador es un Cyrix 6x86MX por lo tanto el tipo de
voltaje es (Dual Voltaje: Voltaje Doble).
Esta imagen detalla como debe ser configurado el jumper JP30 que determina el voltaje, en el
caso del procesador que se está explicando, el mismo es de 2,9v, ubicando este valor en la tabla
se procederá a setear el jumper de la manera indicada.

Así quedará seteado el motherboard:


El jumper jp30 es seteado en la posición 1-2 y en la posición 7-8 para determinar la tensión
correspondiente al microprocesador (2,9v), y es seteado el jumper jp2 para indicar la tensión
dual.
EVOLUCIÓN DE LOS BUSES
A lo largo de la evolución de los sistemas de PC y de sus microprocesadores se han ido
desarrollando y adaptando los diferentes sistemas de bus. La frecuencia y el ancho del bus han
evolucionado paralelamente al aumento de las prestaciones de los microprocesadores. A lo
largo de este camino han aparecido una serie de estándares:
 Bus XT
 Bus ISA
 Bus local VESA (VLB)
 Bus PCI
 Bus AGP
Cada uno de estos sistemas de bus necesita slots de expansión específicos.
 Q. EL BUS PCI (PERIPHEREAL COMPONENENT INTERCONNECT)
Fue desarrollado por Intel en 1990 para superar las limitaciones del bus ISA en las
computadoras personales.
El bus PCI emplea un conector tipo Micro Channel de 124 pines (188 en caso de una
implementación de 64 bits) miden unos 8,5 cm y generalmente son blancas, es el estándar
actual. tiene una capacidad de transferencia de 132 MB/s a 33 MHz, actualmente llega a
manejar hasta 64 bits , con una transferencia máxima de 256 MBytes por segundo, lo que es
suficiente para casi todo, excepto quizá para algunas tarjetas de vídeo 3D.
Este bus es independiente de la CPU, ya que entre la CPU y el bus PCI se instalará siempre un
controlador de bus PCI, lo que facilita en gran medida el trabajo de los diseñadores de placas.
el bus PCI no depende del reloj de la CPU, porque está separado de ella por el controlador del
bus.
 R. BUS AGP(ACCELERATED GRAPHICS PORT)
El puerto AGP fue diseñado especialmente para potenciar la tecnologia 3D aprovechando todas
las prestaciones que ofrece el más rápido y moderno slot de conexión de tarjetas gráficas, que
implementan una mayor velocidad debido a la comunicación directa de la tarjeta con el
microprocesador.
El AGP opera con un ancho de 32 bits y una velocidad de reloj de 66 MHz esta es el doble de la
velocidad de reloj del PCI estándar (32bits/33 MHz).

Para calcular la tasa de transferencia deberá utilizar la siguiente fórmula

 S. BUSES AMR, CNR Y ACR (CONECTADOS AL BUS PCI)


 AMR (AUDIO/MODEM RISER).