Está en la página 1de 32

ARQUITECTURA DE COMPUTADORAS

Unidad 2 Comunicación interna en la Computadora.
2.1 Buses.
Se denomina bus, en informática, al conjunto de conexiones físicas (cables, placa de circuito impreso, etc.) que pueden compartirse con múltiples componentes de hardware para que se comuniquen entre sí. El propósito de los buses es reducir el número de rutas necesarias para la comunicación entre los distintos componentes, al realizar las comunicaciones a través de un solo canal de datos. Ésta es la razón por la que, a veces, se utiliza la metáfora "autopista de datos".

En el caso en que sólo dos componentes de hardware se comuniquen a través de la línea, podemos hablar de puerto hardware( puerto serial o puerto paralelo).

Características de un bus
Un bus se caracteriza por la cantidad de información que se transmite en forma simultánea. Este volumen se expresa en bits y corresponde al número de líneas físicas mediante las cuales se envía la información en forma simultánea. Un cable plano de 32 hilos permite la transmisión de 32 bits en paralelo. El término "ancho" se utiliza para designar el número de bits que un bus puede transmitir simultáneamente. En su forma más simple, el ancho de banda es la capacidad de transferencia de datos, en otras palabras, la cantidad de datos que se pueden mover de un punto a otro en cierta cantidad de tiempo. El tener una comunicación de datos de punto a punto implica dos cosas: Un conjunto de conductores eléctricos utilizados para hacer posible la comunicación a bajo nivel Un protocolo para facilitar la comunicación de datos confiable y eficiente
1
ING. JOSE ANTONIO MOLINA CARRILLO

ARQUITECTURA DE COMPUTADORAS

Por otra parte, la velocidad del bus se define a través de su frecuencia (que se expresa en Hercios o Hertz), es decir el número de paquetes de datos que pueden ser enviados o recibidos por segundo. Cada vez que se envían o reciben estos datos podemos hablar de ciclo. De esta manera, es posible hallar la velocidad de transferencia máxima del bus (la cantidad de datos que puede transportar por unidad de tiempo) al multiplicar su ancho por la frecuencia.

Velocidad de transferencia o tasa de transferencia:
El término tasa de bits (en inglés bit rate) define el número de bits que se transmiten por unidad de tiempo a través de un sistema de transmisión digital o entre dos dispositivos digitales. Así pues, es la velocidad de transferencia de datos. La tasa de transferencia se refiere al ancho de banda real medido en un momento concreto del día empleando rutas concretas de internet mientras se transmite un conjunto específico de datos, desafortunadamente, por muchas razones la tasa es con frecuencia menor al ancho de banda máximo del medio que se está empleando. Los siguientes son algunos de los factores que determinan la tasa de transferencia: Dispositivos de Internet-Working. Tipos de datos que se van a transferir. Topología de la red. Número de usuarios en la red. La computadora del usuario. El servidor. Condiciones de la energía. Congestión.

2
ING. JOSE ANTONIO MOLINA CARRILLO

ARQUITECTURA DE COMPUTADORAS

El ancho de banda teórico de la red es una consideración importante en el diseño de la red, porque la tasa de transferencia de la red nunca es mayor que dicho ancho de banda, debido a las limitaciones puestas por el medio y a las tecnologías de red elegidas. La unidad con que el Sistema Internacional de Unidades expresa el bit rate es el bit por segundo (bit/s, b/s, bps). La b debe escribirse siempre en minúscula, para impedir la confusión con byte por segundo (B/s). Para convertir de bytes/s a bits/s, basta simplemente multiplicar por 8 y viceversa. Que la unidad utilizada sea el bit/s, no implica que no puedan utilizarse múltiplos del mismo: kbit/s o kbps (kb/s, kilobit/s o mil bits por segundo) Mbit/s o Mbps(Mb/s, Megabit/s o un millón de bits por segundo) Gbit/s o Gbps (Gb/s, Gigabit, mil millones de bits) byte/s (B/s u 8 bits por segundo) kilobyte/s (kB/s, mil bytes u ocho mil bits por segundo) megabyte/s (MB/s, un millón de bytes u 8 millones de bit por segundo) gigabyte/s (GB/s, mil millones de bytes u 8 mil millones de bits)

Ejemplos
Velocidades típicas de los accesos de conexión a Internet (abril de 2006): Módem RTB: 56 kbps = 7 kB/s (7 kilobytes por segundo) ADSL: 1024 kbps (nominal 1 Mbps) = 128 kB/s (128 kilobytes por segundo) Cable: 2400 kbps = 300 kB/s (300 kilobytes por segundo) VSAT: 600 kbps = 75 kB/s (75 kilobytes por segundo) Telefonía móvil 3G: 384 kbps = 48 kB/s (48 kilobytes por segundo)

Tasas de bits de compresión a MP3:
4 kbit/s Mínimo para reconocer el habla. 8 kbit/s Calidad telefónica convencional 32 kbit/s Radio AM 96 kbit/s Radio FM 128 kbit/s Sonido calidad semi CD, muy común en MP3 192 kbit/s Sonido calidad CD en formato MP3 320 kbit/s Máxima calidad para formato MP3 Las velocidades de conexión a Internet son brutas. En la práctica, la velocidad neta disponible para el usuario, suele ser entre un 10-15 % menor, debido al ancho de banda consumido por las cabeceras y las colas de los protocolos. Otro error frecuente es utilizar el baudio como sinónimo de bit por segundo. La velocidad en baudios o baud rate no debe confundirse con la tasa de bits. La velocidad en baudios de una señal representa el número de cambios de estado, o eventos de señalización, que la señal tiene en un segundo. Cada evento de señalización
3
ING. JOSE ANTONIO MOLINA CARRILLO

niveles de voltage. Tienen poca (o ninguna) estandarización mecánica. que permitiría despreciar (emplear una tasa de bits menor) el fondo azul y centralizar la atención (utilizar una tasa de bits mayor) en el motivo: el paracaidista. Otras características distintivas: Características eléctricas estandarizadas (tales como el número de conductores. Sin embargo. aún en situaciones donde un bus es propiedad de un fabricante. velocidades de señales. En muchos casos. 4 ING. En este caso. Ejemplos de buses No importa dónde revise usted en el computador. los datapaths permiten la comunicación punto a punto. 2.ARQUITECTURA DE COMPUTADORAS transmitido puede transportar uno o más bits. También a igual que los buses. los datapaths: Utilizan un protocolo más simple (si es que lo utilizan). están en todas partes. a diferencia de los buses. ISA. sino que cuantifica toda la señal por igual.) Protocolo estándar La palabra "estandarizado" es importante porque los buses son la principal forma en la que diferentes componentes de software se juntan. etc. Sin embargo. sin estandarización. sería más conveniente utilizar una tasa de bits variable. etc. Tasa de bits variable (VBR): Aplica una cuantificación no uniforme que sí que hace diferencia entre las zonas con mayor o menor densidad de información. tamaño de la tarjeta. JOSE ANTONIO MOLINA CARRILLO . He aquí algunos de los más comunes: Buses de almacenamiento masivo (ATA y SCSI) Redes (Ethernet y Token Ring) Los buses de memoria (PC133 y Rambus®) Buses de expansión (PCI. formato físico. como los buses. Tasa de bits constante (CBR): Aplica una cuantificación uniforme. USB) Datapaths Los datapaths pueden ser más difíciles de identificar pero. los buses permiten la interconexión del hardware hecho por diferentes fabricantes. esto no sería posible. Tipos La velocidad de transferencia de datos puede ser constante o variable: 1. habrá buses. por lo que la cuantificación resulta más eficaz. por lo que no tiene en cuenta si en la señal hay zonas con mayor o menor densidad de información. la estandarización es importante porque permite a ese fabricante implementar más fácilmente diferentes componentes usando una interfaz común — el bus mismo. Sólo cuando cada evento de señalización transporta un solo bit coinciden la velocidad de transmisión de datos en baudios y en bits por segundo.) Características mecánicas estandarizadas (tales como el tipo de conector.

El resultado final es que toda la E/S a cualquiera de estos dispositivos en el bus es lenta. JOSE ANTONIO MOLINA CARRILLO . este es más el caso con datapaths que con buses. De hecho. En esta situación. los altos niveles de competencia por el bus reducen el ancho de banda efectivo disponible para todos los dispositivos en el bus.ARQUITECTURA DE COMPUTADORAS La razón de estas diferencias es que los datapaths son normalmente internos a algunos componentes de sistemas y no son usados para facilitar la interconexión ad-hoc de componentes diferentes. El bus o datapath puede representar un recurso compartido. Un bus SCSI con discos duros altamente activos serían un buen ejemplo de esto. si un bus está sobrecargado y otro está ocioso. los datapaths son muy optimizados para una situación particular. aún si cada dispositivo en el bus no está demasiado activo. Las unidades de disco altamente activas saturan el bus SCSI. En este caso. Como tal. 5 ING. los problemas relacionados al ancho de banda se pueden resolver. 2. quizás la situación sería mejorada moviendo algo de la carga hasta el bus ocioso. El bus o datapath puede ser un recurso dedicado con un número fijo de dispositivos conectados a él. se pueden tomar varios enfoques: Distribuir la carga Reducir la carga Incrementar la capacidad Las secciones siguientes exploran cada uno de estos enfoques en más detalles. En otras palabras. hay más datos que transmitir a través del datapath que conecta la memoria de vídeo al procesador gráfico. donde la velocidad y el bajo costo se prefieren sobre una flexibilidad más lenta y más costosa de propósito general. dejando poco ancho de banda disponible para cualquier otro dispositivo en el mismo bus. las características eléctricas del bus (y hasta cierto punto la naturaleza del protocolo utilizado) limitan el ancho de banda disponible. Ejemplos de Datapaths He aquí algunos datapaths típicos: Datapath de CPU a caché en chip Datapath de procesador gráfico a memoria de vídeo Problemas potenciales relacionados al ancho de banda Hay dos formas en la que pueden ocurrir problemas relacionados al ancho de banda (tanto para buses como para datapaths): 1. Usualmente. Esta es una de las razones por las que los adaptadores gráficos tienden a funcionar más lentamente cuando se operan a altas resoluciones y/o profundidades de color — por cada refrescado de pantalla. Distribuir la carga El primer enfoque es distribuir más uniformemente la actividad del bus. Soluciones potenciales relacionadas al ancho de banda Afortunadamente.

también se está reduciendo la misma (al menos en un bus sobrecargado). pero uno de los componentes conectados al bus. Por ejemplo. la mayoría de los PCs incluyen al menos dos canales ATA (lo cual es simplemente otro nombre para un bus). no es lo mismo que reducir la carga globalmente. el reducir y distribuir la carga parecen ser los diferentes lados de la misma moneda. es el de incrementarlo de alguna manera. Los gastos de hardware en hacer esto serán mucho menos costosos que reemplazando un bus existente por hardware con mayor capacidad. ¿cierto? Mientras que este punto de vista es correcto. se vuelve mucho más difícil justificar económicamente este cambio. un controlador SCSI y su bus sobrecargado. Considere. La clave aquí es determinar si hay algún aspecto de la carga del sistema que esté causando que este bus particular esté sobrecargado. Incrementar la capacidad La solución obvia a un ancho de banda insuficiente. Si tiene dos unidades de disco ATA y dos canales ATA. En resumen… Todos los administradores de sistemas deberían estar conscientes del ancho de banda y de cómo la configuración y uso del sistema impacta el ancho de banda disponible. Desafortunadamente. esto sería un proceso bien directo. Para incrementar el ancho de banda. no siempre es aparente cuando se trata de un problema de ancho de banda y cuando no. pero si el controlador es parte de la tarjeta madre del sistema. JOSE ANTONIO MOLINA CARRILLO . cuando uno distribuye la carga. considere un adaptador SCSI que está conectado a un bus PCI. puede ser el resultado de un adaptador SCSI funcionando muy mal. este es el primer enfoque que debería considerar. Si hay problemas de rendimiento con la E/S del disco SCSI. Algunas veces. 6 ING. Si el controlador SCSI es una tarjeta separada. el problema no es el bus mismo. ¿por qué deberían estar ambas unidades en el mismo canal? Aún si su configuración no incluye buses adicionales. Después de todo. Reducir la carga A primera vista. Sin embargo. se necesita reemplazar el controlador SCSI (y probablemente todos los dispositivos conectados a el) con hardware más rápido. esto es usualmente una proposición costosa. aún cuando los buses SCSI y PCI mismos no esten ni siquiera cerca de sus capacidades de ancho de banda. por ejemplo.ARQUITECTURA DE COMPUTADORAS Como administrador del sistema. Si ese archivo temporal reside en un servidor de la red. se podría eliminar una gran parte del tráfico de la red trabajando con el archivo localmente. distribuir la carga puede ser todavía el mejor enfoque. pues a menudo existen buses adicionales ya instalados en su sistema. ¿está la red sobrecargada debido a actividades que no son necesarias? Quizás un pequeño archivo temporal es el recipiente de grandes lecturas/escrituras de E/S. Por ejemplo. Por ejemplo.

NEC. HP. Por este motivo. en el Comité VESA. Fueron y son todavía las tarjetas gráficas quienes sufren la menor velocidad del bus AT. el 7 ING. Fiel a sus orígenes. pero una mayor cantidad de conectores supone una mayor capacitancia. de tal manera que las otras ranuras permanecen sin ser molestadas y las tarjetas ISA pueden hacer su servicio sin inconvenientes. el VL-BUS no puede superar los 66 Mhz. en estos años se han ideado otros conceptos de bus. dos o incluso tres ranuras de expansión. A velocidades de bus superiores. exceptuando unas cuantas menos estrictas destinadas a mantener la compatibilidad con los 386. que se propuso el definir estándares en el ámbito de las tarjetas gráficas y así por primera vez y realmente tuviera poco que ver con el diseño del bus del PC. Por eso surgió. El VL es una expansión homogeneizada de bus local. De hecho presenta las mismas necesidades de señal de dicho chip. Solamente estos slots están conectados con la CPU a través de un bus VL. ANTECEDENTES NOMBRE BUS DE EXPANSION XT ISA(Industry standard Arquitecture) BUS MICRO CHANNEL (MCA) EISA (Extended ISA) 1987-1988 AST. MCA y PCI. lo que hace que la fiabilidad disminuya a la par que aumenta la frecuencia.33 Mhz PROCESADOR 8086 AT Teniendo en cuenta las mencionadas limitaciones del bus AT y la infalibilidad de los buses EISA y MCA para asentarse en el mercado.1 Bus Local. una. Tandy Vesa Local Bus PCI (Peripheral Componet Interconect) 1992 1992 VESA INTEL 32 BITS 32 BITS 32 Mhz – 66 Mhz 32 Mhz – 66 Mhz 80286 . sin embargo. La aceptación por parte del mercado fue inmediata. casi siempre gráficos. La especificación VL-Bus como tal. que fue concebido y propagado independientemente por el comité VESA. la propuesta para un bus más rápido que fue el VESA Local Bus. En la práctica. la especificación VL-BUS original recomienda que los diseñadores no empleen más de tres dispositivos de bus local en sistemas que operan a velocidades superiores a los 33 Mhz. Compaq. pero que puede realizar operaciones a 16 bits. VESA presentó la primera versión del estándar VL-BUS en agosto de 1992. Un PC con bus VL dispone para ello de un bus ISA y de las correspondientes ranuras (slots) para tarjetas de ampliación. para la colocación de tarjetas concebidas para el bus VL. en la velocidad del reloj. no establece límites.ARQUITECTURA DE COMPUTADORAS 2. que funciona a 32 bits. Además. JOSE ANTONIO MOLINA CARRILLO . en un PC con bus VL puede haber. el VL-BUS se acerca mucho al diseño del procesador 80486. el bus VL no sustituye al bus ISA sino que lo complementa. ni superiores ni inferiores. Se inició con el llamado Vesa Local Bus (VL-Bus).1. Olivetti. epson. Vesa Local Bus Al contrario que con el EISA.80486 Pentium – Pentium 2 32 BITS 8.33 Mhz OS/2 Y UNIX 1987 IBM 32 BITS 10 Mhz PS/2 AÑO 1980 1980 FABRICANTE IBM IBM ANCHO DE BUS 8 BITS 16 BITS VELOCIDAD 4.77 Mhz (vel de reloj) 8.

y a 50 Mhz un único dispositivo que ha de integrarse en la placa. que hoy tenemos procesadores de 64 bits en lugar de 32 ó 16. Tras la presentación del procesador Pentium a 64 bits. De forma distinta al bus ISA éste se acopla directamente en la CPU. Esto le proporciona por un lado una mejora substancial de la frecuencia de reloj (de la CPU) y hace que dependa de las líneas de control de la CPU y del reloj. mouse. 2.3 Bus de direcciones. La propia palabra “Bus” ya está anunciando el “transporte” de algo. Es por ello. y en este marco. etc) como de salida (monitor. En el nombre del bus VL queda de manifiesto que se trata de un bus local. Es común dibujar y describir el Bus de Datos como una autopista de información y órdenes.2 Bus de datos. el Bus de Direcciones ubica los datos en el Sub-sistema de Memoria teniendo relación directa con los procesos de CPU. JOSE ANTONIO MOLINA CARRILLO . porque la evolución de la PC y la exigencia informativa de los usuarios lo demandaron. porque la evolución de la PC y la exigencia informativa de los usuarios lo demandaron. y finalmente el Bus de Control tiene la tarea de marcar el estado de una instrucción dada a la PC. 2. El Bus de Datos soporta tanto la información como las instrucciones declaradas sobre la misma. A estas desventajas hay que añadirle que no en todos los puntos están bien resueltas las especificaciones del comité VESA. Mientras el Bus de Datos se encarga de mover la información por los componentes de hardware del sistema de computación.1.0 redefine además la cantidad máxima de ranuras VL-BUYS que se permiten en un sistema sencillo. la mejor combinación de rendimiento y funciones aparece a 33 Mhz. el CPU cumple la función primaria. se da lugar a 3 tipos de “Buses”: Datos. que hoy tenemos procesadores de 64 bits en lugar de 32 ó 16. En la práctica. el CPU cumple la función primaria. 8 ING. impresora. porque no es otra cosa que eso. y en este marco. y en este caso. Se rige por la cantidad de bits capaz de soportar en el camino. Ahora consta de hasta tres ranuras a 40 Mhz y dos a 50 Mhz.0). La nueva especificación define un interface de 64 bits pero que mantienen toda compatibilidad con la actual especificación VL-BUS. porque no es otra cosa que eso. se refiere a datos para procesarse por un equipo informático. hecho que a la larga le llevará a que el éxito del bus VL se vea empañado por ello. Es por ello. Es común dibujar y describir el Bus de Datos como una autopista de información y órdenes. VESA comenzó a trabajar en un nuevo estándar (VL-Bus versión 2. tanto de Entrada (teclado.1. de tal forma de gestionar operaciones. La nueva especificación 2. pero su mejor momento ya ha pasado.ARQUITECTURA DE COMPUTADORAS total disminuye: a 40 Mhz solo se pueden incorporar dos dispositivos. En sistemas 486 económicos se podía encontrar a menudo. Se rige por la cantidad de bits capaz de soportar en el camino. Direcciones y Control. siempre que el sistema utilice un diseño de baja capacitancia.). De este modo. etc.

JOSE ANTONIO MOLINA CARRILLO . si hay dos tarjetas que reclaman para ellas el mismo campo de dirección o campos de dirección que se solapan entre ellos. y se tendrá que encontrar en primer lugar una tarjeta que mediante el envío de una señal adecuada indique a la CPU que es responsable de la dirección que se ha introducido. Es decir solo pueden representar 0 o 1 y de esta manera forman conjuntamente el número de la posición dentro de la memoria (es decir: la dirección). mayor es la dirección máxima y mayor es la memoria a la cual puede dirigirse de esta forma. Las demás tarjetas se despreocupan del resto de la comunicación y quedan a la espera del próximo ciclo de transporte de datos que quizás les incumba a ellas. Cuanto más líneas haya disponibles. teniendo cada una de las líneas carácter binario. el bus de datos y el bus de direcciones. 9 ING. En el bus de direcciones original había ya 20 direcciones. ya que aparte de los bus de datos y de direcciones existen también casi dos docenas más de líneas de señal en la comunicación entre la CPU y la memoria.ARQUITECTURA DE COMPUTADORAS En el bus se encuentran dos pistas separadas. Esto que en le teoría parece tan fácil es bastante mas complicado en la práctica. ya que con 20 bits se puede dirigir a una memoria de 1 MB y esto era exactamente lo que correspondía a la CPU. Este mismo concepto es también la razón por la cual al utilizar tarjetas de ampliación en un PC surgen problemas una y otra vez. Todas las tarjetas del bus escuchan. a las cuales también se acude. La CPU escribe la dirección de la posición deseada de la memoria en el bus de direcciones accediendo a la memoria.

es de una importancia básica la regulación del tiempo de las señales del bus. Este bus especial que utiliza el bus dedicado tiene 4 componentes fundamentales: Datos: Intercambio de información entre la CPU y los periféricos. El ancho de banda de este bus (8 bits) con el procesador 8088 formaba un tandem perfecto. Por lo tanto no es de extrañar que se pusieran en juego tolerancias que dejaron algunas tarjetas totalmente eliminadas. tenía que desdoblarlos en dos bytes y efectuar la transferencia de datos uno detrás de otro. El bus XT tenía solo 8 bits con lo cual sólo podía transportar 1 byte a la vez. La mayor ventaja del bus único es su simplicidad de estructura que le hace ser más económico. que en relación con el bus de datos tenía finalmente 16 bits (ISA). Pero precisamente este protocolo no ha sido nunca publicado por lBM con lo que se obliga a los fabricantes a medir las señales con la ayuda de tarjetas ya existentes e imitarlas. el bus del PC no era ni mucho menos la solución para una comunicación fluida con el exterior del micro. para poder trabajar de forma inmejorable con el PC. EL BUS XT y EL BUS ISA (AT) Cuando en 1980 IBM fabricó su primer PC. pero que era compatible 10 ING. ESTRUCTURACIÓN DE LOS BUSES Existen dos organizaciones físicas de operaciones E/S que tienen que ver con los buses que son: Bus único Bus dedicado La primera gran diferencia entre estas dos tipos de estructuras es que el bus único no permite un controlador DMA (todo se controla desde la CPU). pero la ampliación del bus de datos en el 8086 a 16 bits dejo en entredicho este tipo de bus (aparecieron los famosos cuellos de botella). Si la CPU quería depositar el contenido de un registro de 16 bits o por valor de 16 bits. Sincronización: Temporiza las señales de reloj. Dada la evolución de los microprocesadores. Por contra su estructura es más compleja y por tanto sus costes son mayores. mientras que el bus dedicado si que soporta este controlador. Por lo tanto con la introducción del AT apareció un nuevo bus en el mundo del PC. El bus dedicado trata a la memoria de manera distinta que a los periféricos (utiliza un bus especial) al contrario que el bus único que los considera a ambos como posiciones de memoria (incluso equipara las operaciones E/S con las de lectura/escritura en memoria).77 Mhz). Direcciones: Identifica el periférico referido. De todas maneras para los fabricantes de tarjetas de ampliación. pero no permite que se realice a la vez transferencia de información entre la memoria y el procesador y entre los periféricos y el procesador. este contaba con un bus de expansión conocido como XT que funcionaba a la misma velocidad que los procesadores Intel 8086 y 8088 (4. JOSE ANTONIO MOLINA CARRILLO .ARQUITECTURA DE COMPUTADORAS Los datos en si no se mandan al bus de direcciones sino al bus de datos. cuyos productos deben atenderse a este protocolo. En definitiva no podía hablarse de una autopista de datos en un PC cuando esta sólo tenía un ancho de 8 bits. Control: Lleva información referente al estado de los periféricos (petición de interrupciones). Por otro lado el bus dedicado es mucho más flexible y permite transferencias simultáneas.

La tarjeta en este momento sólo sabe si la dirección de la memoria se encuentre en el área entre 0 y 127 KB. que sin embargo. la tarjeta de 16 bits se despreocupa del resto de la transferencia y deja la tarjeta de 8 bits a su propia suerte. 11 ING. concretamente hasta 24 bits. concretamente en forma de una señal de estado de espera (wait state). de manera que toda la circulación de bus se desarrollaba más rápidamente. La única diferencia fue que el bus XT era síncrono y el nuevo AT era asíncrono. la relación (ratio) de transferencia de datos ya es superior al ratio del bus. Las viejas tarjetas de 8 bits de la época del PC pueden por tanto manejarse con las nuevas tarjetas de 16 bits en un mismo dispositivo. hablará de esta forma por el resto de las tarjetas que se encuentren dentro de este área. En cualquier caso el resultado será una función de error de la tarjeta de ampliación. El dilema empieza cuando una tarjeta de 16 bits debe señalizar mediante una línea de control al principio de una transferencia de datos. debido a otros motivos. del cual estas tarjetas son responsables. Estos sin embargo cubren siempre un área completa de 128 KB. De todas maneras las tarjetas de 16 bits son considerablemente más rápidas. 128 y 255. con lo cual la tarjeta reconoce sólo los bits 17 hasta 23 de la dirección.77 Mhz en el XT se pasó a 8. independientemente de lo que pueda haber en los bits de dirección 0 hasta 16. Especialmente por este motivo el bus AT encontró sucesores de más rendimiento en Micro Channel y en el Bus EISA. ya que transfieren la misma cantidad de datos en comparación con las tarjetas de 8 bits en la mitad de tiempo (transferencia de 16 bits en lugar de transferencia de 8 bits). Ya que de las 24 líneas de dirección que contienen la dirección deseada. Ésta no podrá resolver la transferencia ya que está configurada sólo para transmisiones de 8 bits. que ella puede recoger una palabra de 16 bits del bus y que al contrario de una tarjeta de 8 bits no tiene que desdoblar la transferencia en dos bytes. De 4.33 Mhz. En los discos duros modernos por ejemplo. se encuentre en cualquier área de 128 KB. Esto podrá notarse acto seguido ya que una vez también hayan llegado al bus los bits de dirección 0 a 16. A las tarjetas de ampliación se les ha asignado incluso un freno de seguridad. quedará claro cual es la tarjeta a la cual realmente se estaba dirigiendo. JOSE ANTONIO MOLINA CARRILLO . No tan solo se amplió el bus de datos sino que también se amplió el bus de direcciones. La coexistencia hoy en día de tarjetas de ampliación de 8 bits y de tarjetas de ampliación de 16 bits es problemática mientras el campo de direcciones. Sin embargo esta señal la tiene que mandar en un momento en el que todavía no puede saber que la dirección del bus de datos se refiere verdaderamente a ella y que por tanto tiene la obligación de contestar.ARQUITECTURA DE COMPUTADORAS con su antecesor. Además también se aumentó la velocidad de cada una de las señales de frecuencia. Si realmente se trata de una tarjeta de 16 bits todo irá bien. hasta ahora no se han podido introducir en el mercado. de manera que este se podía dirigir al AT con memoria de 16 MB. hasta este momento sólo están inicializadas correctamente las líneas A17 hasta A23. etc. que deja todavía más tiempo a las tarjetas lentas para depositar los datos deseados en la CPU. Pero si se estaba dirigiendo a una tarjeta de 8 bits. Si en este momento la tarjeta de 16 bits manda por tanto una señal para una transmisión de 16 bits. Como consecuencia el bus forma un cuello de botella por el cual no pueden transferirse nunca los datos entre la memoria y la CPU lo suficientemente rápido.

Bajo MCA. que resultan más fiables que el sistema de interrupciones del bus ISA. El diseño MCA (Micro Channel Arquitecture) permitía una ruta de datos de 32 bits. y una velocidad de reloj ligeramente más elevada de 10 Mhz. más ancha. llamada CAP (punto de decisión central). con una velocidad de transferencia máxima de 20 Mbps frente a los 8 Mbps del bus ISA. De esta forma es posible compartir interrupciones. Pero lo que es más importante el novedoso diseño de bus de IBM incluyó un circuito de control especial a cargo del bus.ARQUITECTURA DE COMPUTADORAS BUS MICRO CHANNEL (MCA) Vistas las limitaciones que tenía el diseño del bus ISA en IBM se trabajó en un nueva tecnología de bus que comercializó con su gama de ordenadores PS/2. el bus MCA especifica interrupciones sensibles al nivel. Pero además se impusieron estándares de rendimiento superiores en las tarjetas de expansión. que le permitía operar independientemente de la velocidad e incluso del tipo del microprocesador del sistema. De esta forma se ayudaba a reducir las interferencias. Es cierto que el progreso conlleva un precio: La nueva arquitectura de IBM es totalmente incompatible con las tarjetas de expansión que se incluyen en el bus ISA. Para permitir la conexión de más dispositivos. Las señales del bus estaban reorganizadas de forma que se introducía una señal de tierra cada 4 conectores. La circuitería de control. De esto se pueden sacar dos conclusiones. JOSE ANTONIO MOLINA CARRILLO . la CPU no es más que uno de los posibles dispositivos dominantes del bus a los que se puede acceder para gestionar transferencias. se enlaza con un proceso denominado control del bus para determinar y responder a las prioridades de cada uno de los dispositivos que dominan el bus. 12 ING. Por un lado el coste de estas tarjetas era menor y por otro ofrecía un mayor espacio interior en las pequeñas cajas de sobremesa. Esto viene derivado de que los conectores de las tarjetas de expansión MCA eran más pequeños que las de los buses ISA.

en estos años se han ideado otros conceptos de bus. Esta limitación fue al postre la que adjudico el papel de estándar a esta arquitectura. Solamente estos slots están conectados con la CPU a través de un bus VL. el bus VL no sustituye al bus ISA sino que lo complementa. El motivo para que ni MCA ni EISA hayan sustituido por completo a ISA es muy sencillo: Estas alternativas aumentaban el coste del PC (incluso más del 50%) y no ofrecían ninguna mejora evidente en el rendimiento del sistema. LOCAL BUS Teniendo en cuenta las mencionadas limitaciones del bus AT y la infalibilidad de los buses EISA y MCA para asentarse en el mercado. la propuesta para un bus más rápido que fue el VESA Local Bus. Epson. Si bien esta característica no es utilizada más que por sistemas operativos como UNIXo Windows NT. Es más. ya que los usuarios no veían factible cambiar sus antiguas tarjetas ISA por otras nuevas que en realidad no podían aprovechar al 100%. NEC. para la colocación de tarjetas concebidas para el bus VL. Olivetti. Vesa Local Bus Al contrario que con el EISA. Wyse y Zenith. JOSE ANTONIO MOLINA CARRILLO . integrar en el sistema varios buses dentro del sistema. ya que fue desarrollado por la mayoría de fabricantes de ordenadores compatibles PC que no aceptaron el monopolio que intentó ejercer IBM. Estos fabricantes fueron: AST. Fueron y son todavía las tarjetas gráficas quienes sufren la menor velocidad del bus AT. que se propuso el definir estándares en el ámbito de las tarjetas gráficas y así por primera vez y realmente tuviera poco que ver con el diseño del bus del PC. que fue concebido y propagado independientemente por el comité VESA.ARQUITECTURA DE COMPUTADORAS EISA (Extended ISA) El principal rival del bus MCA fue el bus EISA. una. Por eso surgió. En una máquina EISA. cada uno con su procesador. también basado en la idea de controlar el bus desde el microprocesador y ensanchar la ruta de datos hasta 32 bits. puede haber al mismo tiempo hasta 6 buses principales con diferentes procesadores centrales y con sus correspondientes tarjetas auxiliares. sin embargo. Este chip recibe el nombre de Chip del Sistema Periférico Integrado (ISP). dos o incluso tres ranuras de expansión. Un PC con bus VL dispone para ello de un bus ISA y de las correspondientes ranuras (slots) para tarjetas de ampliación. en un PC con bus VL puede haber. casi siempre gráficos. Compaq. Además. en el Comité VESA. Esta arquitectura de bus permite multiproceso. Hewlett Packard. MCA y PCI. 13 ING. es decir. En este bus hay un chip que se encarga de controlar el tráfico de datos señalando prioridades para cada posible punto de colisión o bloqueo mediante las reglas de control de la especificación EISA. en el momento en que se presentaron estos buses (1987-1988) esta superioridad en el rendimiento no resultaba excesivamente necesaria: Muy pocos dispositivos llegaban a los límites del rendimiento del bus ISA ordinario. Se inició con el llamado Vesa Local Bus (VL-Bus). Sin embargo EISA mantuvo compatibilidad con las tarjetas de expansión ISA ya existentes lo cual le obligo a funcionar a una velocidad de 8 Mhz (exactamente 8.33). Tandy. Este chip actúa en la CPU como un controlador del tráfico de datos. de tal manera que las otras ranuras permanecen sin ser molestadas y las tarjetas ISA pueden hacer su servicio sin inconvenientes. Su mayor ventaja con respecto al bus MCA es que EISA era un sistema abierto.

VESA presentó la primera versión del estándar VL-BUS en agosto de 1992. En el nombre del bus VL queda de manifiesto que se trata de un bus local. el total disminuye: a 40 Mhz solo se pueden incorporar dos dispositivos. La aceptación por parte del mercado fue inmediata. canales DMA e interrupciones se ha automatizado finalmente de tal manera que el usuario no deberá preocuparse más por ello. ni superiores ni inferiores. Ahora consta de hasta tres ranuras a 40 Mhz y dos a 50 Mhz. la especificación VL-BUS original recomienda que los diseñadores no empleen más de tres dispositivos de bus local en sistemas que operan a velocidades superiores a los 33 Mhz. siempre que el sistema utilice un diseño de baja capacitancia. Tras la presentación del procesador Pentium a 64 bits. La nueva especificación define un interface de 64 bits pero que mantienen toda compatibilidad con la actual especificación VL-BUS. Fiel a sus orígenes. y a 50 Mhz un único dispositivo que ha de integrarse en la placa. Por este motivo. el VL-BUS se acerca mucho al diseño del procesador 80486. lo que hace que la fiabilidad disminuya a la par que aumenta la frecuencia. PCI Visto lo anterior. A estas desventajas hay que añadirle que no en todos los puntos están bien resueltas las especificaciones del comité VESA.0). JOSE ANTONIO MOLINA CARRILLO . en la velocidad del reloj. Las tarjetas de expansión PCI trabajan eficientemente en todos los sistemas y pueden ser intercambiadas de la manera que se desee. Por ello también será posible instalarlo en sistemas que no estén basados en el procesador Intel si no que pueden usar otros. Solamente los controladores de dispositivo deben naturalmente ser ajustados al sistema anfitrión (host) es decir a su correspondiente CPU. De forma distinta al bus ISA éste se acopla directamente en la CPU. En la práctica. 14 ING. A velocidades de bus superiores. El bus PCI es independiente de la CPU. De hecho presenta las mismas necesidades de señal de dicho chip. PCI significa: interconexión de los componentes periféricos (Peripheral Component Interconnect) y presenta un moderno bus que no sólo está meditado para no tener la relación del bus ISA en relación a la frecuencia de reloj o su capacidad sino que también la sincronización con las tarjetas de ampliación en relación a sus direcciones de puerto. También los procesadores PowerMacintosh de Apple se suministran en la actualidad con bus PCI. En la práctica.ARQUITECTURA DE COMPUTADORAS El VL es una expansión homogeneizada de bus local. exceptuando unas cuantas menos estrictas destinadas a mantener la compatibilidad con los 386. la mejor combinación de rendimiento y funciones aparece a 33 Mhz. lo que facilita en gran medida trabajo de los diseñadores de placas. hecho que a la larga le llevará a que el éxitodel bus VL se vea empañado por ello. VESA comenzó a trabajar en un nuevo estándar (VL-Bus versión 2. La nueva especificación 2. pero una mayor cantidad de conectores supone una mayor capacitancia. ya que entre la CPU y el bus PCI se instalará siempre un controlador de bus PCI. no establece límites. La especificación VL-Bus como tal.0 redefine además la cantidad máxima de ranuras VL-BUYS que se permiten en un sistema sencillo. que funciona a 32 bits. un procesador Alpha de DEC. Esto le proporciona por un lado una mejora substancial de la frecuencia de reloj (de la CPU) y hace que dependa de las línea de control de la CPU y del reloj. como por ejemplo. el VL-BUS no puede superar los 66 Mhz. En sistemas 486 económicos se podía encontrar a menudo. pero que puede realizar operaciones a 16 bits. se puede ver que el bus del futuro es claramente el PCI de Intel. pero su mejor momento ya ha pasado.

Se trata de un chip que se conecta entre los distintos slots ISA y el controlador del bus PCI. Así pues. como ocurre con el VL. no debería preocuparse porque las tarjetas de expansión instaladas no pudieran soportar las frecuencias de reloj superiores. El actual estándar PCI autoriza frecuencias de reloj que oscilan entre 20 y 33 Mhz. pues con la separación del bus PCI de la CPU éstas no son influidas por esas frecuencias de reloj. Una ventaja del bus SCSI frente a otros interfaces es que los dispositivos del bus se direccionan lógicamente en vez de físicamente. El bus PCI emplea un conector estilo Micro Channel de 124 pines (188 en caso de una implementación de 64 bits) pero únicamente 47 de estas conexiones se emplean en una tarjeta de expansión( 49 en caso de que se trate de un adaptador bus-master). SCSI (Small Computer System Interface) Además de todas las arquitecturas mencionadas anteriormente. una técnica que minimiza la radiación. la diferencia se debe a la incorporación de una línea de alimentación y otra de tierra. Esto sirve para 2 propósitos: 15 ING. En lugar de disponer de su propio reloj. Un solo adaptador host SCSI puede controlar hasta 7 dispositivos inteligentes SCSI conectados a él. completa y bidireccional. sigue y seguirá habiendo buses y tarjetas de expansión ISA ya que no todas las tarjetas de expansión requieren las ratios de transferencia que permite el bus PCI. La ventaja de la velocidad de este sistema de bus es que este hardware puede participar del continuo incremento de velocidad de los procesadores. Esta tecnología tiene su origen a principios de los años 80 cuando un fabricante de discos desarrollo su propia interface de E/S denominado SASI (Shugart Asociates System Interface) que debido a su gran éxito comercial fue presentado y aprobado por ANSI en 1986. El límite práctico en la cantidad de conectores para buses PCI es de tres. por tanto los componentes del PCI están sincronizados con el procesador. más conectores aumentarían la capacitancia del bus y las operaciones a máxima velocidad resultarían menos fiables. A pesar de presentar un rendimiento similar al de un bus local conectado directamente. Cada una de las señales activas del bus PCI está bien junto o frente a una señal de alimentación o de tierra. en realidad PCI no es más que la eliminación de un paso en el microprocesador. A pesar de que el bus PCI es el presente. SCSI no se conecta directamente al microprocesador sino que utiliza de puente uno de los buses anteriormente nombrados. a menudo se puede encontrar en un equipo con bus PCI la interfaz «puente» llamada «PCI-To-ISA-Bridge». Podríamos definir SCSI como un subsistema de E/S inteligente. A pesar que de que las tarjetas ISA no pueden ser instaladas en una ranura PCI. Si se instalara una CPU más rápida en su ordenador. porque está separado de ella por el controlador del bus. Sin embargo las tarjetas gráficas. no debería renunciarse a la posibilidad de inserción de una tarjeta ISA. Su tarea consiste en transponer las señales provenientes del bus PCI al bus ISA. tarjetas SCSI y tarjetas de red se han decantando cada vez más fuertemente hacia el bus PCI. JOSE ANTONIO MOLINA CARRILLO . Así se ha evitado desde el primer momento este problema y defecto del bus VL. un bus PCI se adapta al empleado por el microprocesador y su circuitería.ARQUITECTURA DE COMPUTADORAS Como vemos el bus PCI no depende del reloj de la CPU. también hay que mencionar a SCSI. De esta manera pueden seguir siendo utilizadas las tarjetas ISA al amparo del bus PCI.

El controlador SCSI lo maneja. El bus de control (en ocasiones denominado bus de comando) transporta las órdenes y las señales de sincronización que provienen de la unidad de control y viajan hacia los distintos componentes de hardware. Dentro de la tecnología SCSI hay 2 generaciones y una tercera que está a la vuelta de la esquina. sólo 2 dispositivos SCSI pueden comunicarse sobre el bus al mismo tiempo. La primera generación permitía un ancho de banda de 8 bits y unos ratios de transferencia de hasta 5 MBps. uno para la 16 ING. Esta es una configuración fácil de implementar pero no aprovecha las capacidades del bus SCSI. etc. Otra posible modificación es el soporte para más de 8 dispositivos por cadena. El protocolo SCSI 3. El mayor problema de esta especificación fue que para que un producto se denominara SCSI solo debía cumplir 4 códigos de operación de los 64 disponibles por lo que proliferaron en el mercado gran cantidad de dispositivos SCSI no compatibles entre sí. Es un bus que a diferencia de otros buses como el ESDI puede tener hasta 8 dispositivos diferentes conectados al bus (incluido el controlador). Combinando estas dos metodologías se llega a conseguir una transferencia máxima de 40 Mbps con 32 bits de ancho (20 Mbps con un ancho de banda de 16 bits). por ejemplo. Múltiple iniciador/Múltiple objetivo: Es mucho menos común que las anteriores pero así es como se utilizan a fondo las capacidades del bus.0 ya que exigía un mínimo de 12 códigos. Por ejemplo un disco duro y un reproductor de CD-ROM. líneas de estado. destacan las líneas para escritura (write) y lectura (read) de datos. excepto para controlar varios discos duros.0 es el aumento del ancho de banda de 8 a 16 y 32 bits. el reloj del sistema. Esta configuración es muy parecida a la anterior excepto para diferentes tipos de dispositivos E/S que se puedan gestionar por el mismo adaptador. líneas de interrupción.0 no establecerá nuevas prestaciones de los protocolos. también especifica el uso de cables de fibra óptica.ARQUITECTURA DE COMPUTADORAS Elimina cualquier limitación que el PC-Biosimponga a las unidades de disco. Esto cambió con la especificación 2. Otro punto a favor de SCSI 2. Único iniciador/Múltiple objetivo: Menos común y raramente implementado. Además de incluir formalmente el uso del conector P de 68 pines wide SCSI. por lo que aumentaba la compatibilidad entre dispositivos. Aunque potencialmente varios dispositivos pueden compartir un mismo adaptador SCSI. El direccionamiento lógico elimina la sobrecarga que el host podría tener en manejar los aspectos físicos del dispositivo como la tabla de pistas dañadas. Esto se consigue gracias a las implementaciones wide (ancho) y fast (rápido). El uso de éstas líneas se comprenderá mejor conforme se avance en éste curso. El bus SCSI puede configurarse de tres maneras diferenciadas que le dan gran versatilidad a este bus: Único iniciador/Único objetivo: Es la configuración más común donde el iniciador es un adaptador a una ranura de un PC y el objetivo es el controlador del disco duro. Bus de control. pero si refinará el funcionamiento de SCSI. Se trata de un bus bidireccional en la medida en que también transmite señales de respuesta del hardware. Los procesadores de la familia 80x86 proveen dos espacios diferentes de direccionamiento. JOSE ANTONIO MOLINA CARRILLO . El bus de control es una colección de líneas que transportan un conjunto de señales cuyo propósito es la sincronía de todas las operaciones efectuadas por el CPU con los diferentes subsistemas de un equipo de cómputo.

Por ejemplo. El Bus de Control transporta señales de estado de las operaciones efectuadas por el CPU con las demás unidades. Nivel eléctrico El nivel eléctrico (u óptico. se definirá que los hilos 0-7 su nivel alto (5V) equivale a un 1 lógico y los hilos 8-15 su nivel activo es a nivel bajo (0V). Nivel lógico Este nivel define estáticamente todas las líneas del bus. debe quedar definida la forma en la que los distintos dispositivos deben conectarse eléctricamente. Algunas líneas de control son las encargadas de decidir qué direcciones son para memoria y cuáles son para E/S. Un bus debe cumplir las siguientes especificaciones: Nivel mecánico En el nivel mecánico deben definirse aspectos tales como el tipo de soporte. la altura de las placas. 2. En este nivel. tanto de los emisores como de los receptores. También debe especificar las tensiones y corrientes utilizadas para establecer el valor de las señales. Antes cada fabricante definía sus buses lo cual dificultaba mucho la comunicación entre distintos componentes. en los buses para la conexión de placas impresas. de un ciclo. estableciendo las equivalencias entre los valores eléctricos de las señales y sus valores lógicos. Organiza y redirige la información hacia el bus pertinente para la información que se tiene que transmitir.1. para garantizar la compatibilidad de las distintas placas. lo que permite direccionar 65. JOSE ANTONIO MOLINA CARRILLO . esto es. en el caso de emplear como soporte la fibra óptica). quién realiza toda la función de direccionar es el controlador. Es el bus encargado de hacer el direccionamiento. hay que definir. las líneas de E/S son siempre de 16 bits. diferente para cada tipo de dispositivo. mientras que el direccionamiento de memoria varía según el procesador. entre otras cosas. los conectores y las posiciones de éstos. En el caso de un bus de ciclo completo. el tipo de conector. el número de hilos del bus. Para facilitar la interacción entre componentes de distintos fabricantes los buses se han “normalizado”.536 localidades diferentes. este nivel coincide con el anterior puesto que la temporización básica 17 ING. Nivel de temporización básica En este nivel se establecen los cronogramas para la realización de la operación más elemental del bus. Por ejemplo.ARQUITECTURA DE COMPUTADORAS memoria y otro para la E/S. debe especificar el circuito equivalente de los dispositivos que se conectan a las líneas del bus. Nivel de transferencia elemental En este nivel se establece el procedimiento empleado para realizar una transferencia de un dato por el bus.5 Buses normalizados. Siguen un estándar acordado previamente. etc.

. 5 20/09/2010 EISA (“ExtendetIndustrySatandardArchitecture”). (“Micro-ChannelArchitecture”) fue introducido por IBM en 1987 en sus equipos PS/2.y sistema físico de conexión (conectores estandarizados). en el caso de un bus de ciclo partido. En la 18 ING. Nivel de transferencia de bloque En algunos buses. GPIB ( o IEEE 488). El GPIB (“General Purpose Interface Bus”) fue ideado por Hewlett Packard (1965 a 1975) usa 24 hilos. Admite hasta 7 dispositivos y fue ideado para entornos UNIX y Macintosh. como no. Se definirán aspectos tales como cabeceras. MCA.velocidades y temporización de las transferencias.anchuras de los sub-buses.ARQUITECTURA DE COMPUTADORAS establece todas las condiciones necesarias para transferir un dato. ISA AT Bus. con su antecesor de 16 bits. etc. CAMAC (o IEEE 583). . Multibus (o IEEE 796). es el bus introducido con el IBM-PC. como son: . Vicente Arnau LlombartPag. Bus de 16 bit de datos introducido por Intel. 80486 o superiores. Es un bus para arquitecturas de 32 bits y es 10 veces más rápido que el ISA AT. Es un bus ideado por 9 fabricantes de ordenadores. En total disponia de unos 100 hilos. Los Buses normalizados más conocidos son: S-100 Bus (IEEE 696). que tiene por objetivo el transferir un bloque de información con entidad propia. Ampliación de Estructura de Computadores. para arquitecturas de 32 bits.protocolos de transmisión de datos. la operación básica esta formada por una serie de transferencias elementales. Tiene 64 hilos de los cuales 8 son para datos. SCSI (“Small computerSystem Interface”) es un estándar universal para conexiones paralelas a periféricos. En este nivel. Es compatible con el bus ISA. identificación del receptor. Todos los buses poseen especificaciones normalizadas. deberá definirse el protocolo de comunicación empleado para realizar esta transferencia de bloque. y es autoconfigurable. Permite velocidades de transferencia de 5 Mbits/seg hasta 400 Mbits/seg. 8 de los cuales son para datos y el resto para señales de control. Sin embargo. Puede considerarse como el primer bus normalizado para microcomputadores. En la actualidad hay una versión mejorada llamada Multibus-II (IEEE 1296) para transferir datos de 32 bits. Fue introducido con los IBM-AT (80286). El bus ISA (“Industrial Standard Architecture”). llegando a transferir hasta 20 Mbits/seg. JOSE ANTONIO MOLINA CARRILLO . Posee velocidad de transferencia de 33Mbits/seg. ISA Bus. siendo introducido por Atari para su computador 8080 (sistema de 8 bits). codificación de los datos para detección de errores. Este bus puede solo ser controlado por microprocesadores 80386. Ideado para arquitecturas de 16 bits. . El bus CAMAC (“ComputerAutomatedMeasurement and Control”) Se introdujo para interconectar instrumentos de medida nucleares en 1969. Suele utilizarse para unidades de discos magnéticos y ópticos. procedimientos de recuperación para el caso de error. Curso 2010-11 3º de Ingeniería Informática. se especifican las ranuras que forman cada tipo de ciclo o transferencia. posee subdirecciones de 24 bits (direcciona hasta 16 Mbytes) y es compatible.

5 Mbps para conectar dispositivos lentos y de bajo coste (joyticks. cámaras digitales. El estándar incluye la transmisión de energía eléctrica al dispositivo conectado. el USB ha crecido tanto en popularidad que ha desplazado a un segundo plano a los puertos paralelos porque el USB hace mucho más sencillo el poder agregar más de una impresora a una computadora personal. reproductores multimedia. Soporta dos tipos de transferencias. Para dispositivos multimedia como escáneres y cámaras digitales. 19 ING. para hacerlo compatible con los estándares anteriores. Para impresoras. de acuerdo con información recabada de Internet. debido a la sustitución del enlace tradicional por uno de fibra óptica que trabaja con conectores tradicionales de cobre. El USB puede conectar los periféricos como ratones.0. tarjetas de sonido. es un estándar de 1995 que define un bus para conectar periféricos al ordenador.2 Direccionamiento. JOSE ANTONIO MOLINA CARRILLO . como Intel. Diseñado para arquitectura de 64 bits. Se espera que los productos fabricados con esta tecnología lleguen al consumidor en 2009 o 2010. teléfonos móviles. escáneres.2). discos duros externos. USB o Bus Serie Universal. Las especificaciones de este estándar has sido respaldadas por las empresas líderes en informática. La velocidad del bus será diez veces más rápida que la del USB 2.0): Actualmente en fase experimental y con tasa de transferencia de hasta 4. teclados. que puede considerarse como una evolución de las normas Multibus II y VME. una baja de 1. el USB se ha convertido en el método estándar de conexión.8Gbit/s (600MB/s). Y se espera pronto la Super velocidad (3.0 de Alta velocidad con una tasa de transferencia de hasta 480Mbit/s (60MB/s). NEC y Northem Telecom. Esta especificación será lanzada a mediados de 2008 por Intel. sistemas de adquisición de datos y componentes de red. Es una normalización proyectada para equipos de muy altas prestaciones. 2. Compac. que podrá admitir hasta 32 periféricos conectados a gran distancia por fibra óptica (comunicación serie). Futurebus+ (IEEE 896. Microsoft. de 32 bits. Permite la construcción de sistemas multiprocesador (de hasta 32 procesadores) compartiendo memoria. Ahora mismo tenemos la versión 2. impresoras.ARQUITECTURA DE COMPUTADORAS actualidad se está desarrollando el SCII-3. ratones) y otra alta de hasta 12 Mbps para la conexión de dispositivos que requieren un mayor ancho de banda (discos y CD-Roms). DEC. Este bus permite instalar nuevos dispositivos sin necesidad de resetear el computador.1 e IEEE 896. Puede llegar a conectar hasta 127 dispositivos con una conexión de tipo estrella.

Todos los CPUs x86 de las series del 80286 y posteriores 20 ING. cierto dispositivo quede activado y sea quien reciba-envíe los datos en el ciclo de bus así empezado. Las direcciones son generadas por la CPU. Este bus se utiliza para direccionar las zonas de memoria y los dispositivos (que recordemos son tratados como si de posiciones de memoria se tratasen). de forma que. y no tiene conceptos de protección de memoria o multitarea a nivel de hardware. que es quien decide a qué dato se debe acceder en cada momento. Las direcciones de memoria Las direcciones son números naturales (en hexadecimal) que indican la posición de los datos dentro de la memoria principal o del espacio de direcciones de la unidad de entrada/salida. puesto que la lectura del bus de direcciones no es de utilidad para el uP. al escribir una dirección en el bus. A31 hasta A0. lo que permite direccionar 2^32 posiciones de memoria: un total de 4Gigabytes. son necesarias al menos 8 líneas. lo que elimina la necesidad de la existencia de /UDS y /LDS. El modo real (también llamado modo de dirección real en los manuales de Intel) es un modo de operación del 80286 y posteriores CPUs compatibles de la arquitectura x86.La capacidad de la memoria que se puede direccionar depende de la cantidad de bits que conforman el bus de direcciones. JOSE ANTONIO MOLINA CARRILLO .1 Modo real. El modo real está caracterizado por 20 bits de espacio de direcciones segmentado (significando que solamente se puede direccionar 1 MB de memoria). acceso directo del software a las rutinas del BIOS y el hardware periférico. pero solo permite la escritura del bus. por lo que puede ponerse en alta impedancia e ignorar lo que ocurre en el exterior (al tiempo que no influir en el estado de las líneas). Es un bus triestado unidireccional. Por ejemplo. Esto depende del diseño del propio bus. Esto significa que un mismo conjunto de líneas eléctricas se comportan unas veces como bus de dirección y otras veces como bus de datos. para direccionar una memoria de 256 bytes.2. siendo 2n (dos elevado a la ene) el tamaño máximo en bytes del banco de memoria que se podrá direccionar con n líneas. Buses multiplexados Algunos diseños utilizan líneas eléctricas multiplexadas para el bus de dirección y el bus de datos. Contrariamente a los modelos anteriores. al ser él mismo quien gestiona el direccionamiento. pues 28 = 256. Esto último es razonable. El bus de dirección consiste en el conjunto de líneas eléctricas necesarias para establecer una dirección. Este bus se compone de 32 líneas. 2. Adicionalmente pueden ser necesarias líneas de control para señalar cuando la dirección está disponible en el bus. Una línea de control permite discernir cual de las dos funciones está activa. A0 es una línea plenamente utilizada.ARQUITECTURA DE COMPUTADORAS El bus de direcciones es un canal del microprocesador totalmente independiente del bus de datos donde se establece la dirección de memoria del dato en tránsito. pero nunca al mismo tiempo.

es decir. los CPUs 80186 y anteriores tenían solo un modo operacional. el registro de segmento contiene un SELECTOR que elige un descriptor de una tabla. De hecho. incluso los más recientes CPUs x86 se inician en modo real al encenderse. este tipo de multitarea no tiene ni punto de comparación con la que ofrece el modo protegido del 80386. siempre y cuando ese sistema operativo no deje ninguna puerta de entrada libre al usuario para controlar el sistema. como el temporizador. Cuando los datos y programa se direccionan la memoria extendida. y pueden correr el software escrito para cualquier chip anterior. la mayoría de los programas escritos para funcionar en modo real funcionarán sin cambios en el modo protegido. Cuando se produce una interrupción. pude manipular este área de memoria e interceptar diversos vectores de interrupción y apuntarlas a rutinas propias.ARQUITECTURA DE COMPUTADORAS empiezan en modo real al encenderse el computador. El direccionamiento de memoria en modo protegido (a partir del 80286 y posteriores) permite acceder a datos y programas localizados por encima y dentro del primer megabyte de memoria.En el modo real no se puede controlar que un programa. e insertamos una rutina de usuario bajo esa interrupción. de modo que pudieran correr sistemas operativos escritos para microprocesadores más viejos.La diferencia entre los dos modos es la 21 ING. la protección de la memoria a nivel de hardware. Una diferencia consiste en la dirección del segmento ya que no existe en modo protegido.2. las instrucciones del modo protegido son idénticas a las de modo real. Puesto que una especificación de diseño primaria de los microprocesadores x86 es que sean completamente compatibles hacia atrás con el software escrito para todos los chips x86 antes de ellos. aunque si se pueden tener varios programas cargados en memoria al mismo tiempo. con lo que cualquier programa puede controlar el sistema según desee. no pueda acceder a una zona específica de memoria. se sigue utilizando la dirección de desplazamiento para acceder a la información en el segmento de memoria. Bajo el modo real no existe ningún mecanismo para tener varias tareas ejecutándose concurrentemente. Tras conocer el modo protegido y haber trabajado con él. En lugar de una dirección de segmento. En el modo real se puede lograr un pequeño grado de multitarea si interceptamos algunos de los vectores de interrupción que se ejecutan periódicamente. permitiendo. pero inactivos. aparecen los temibles virus informáticos y otros programas malignos. en un modo que tenía apagadas las nuevas características de protección de memoria. que era equivalente al modo real en chips posteriores. Todas las interrupciones hardware y software son controladas por el procesador en el modo real leyendo de una tabla de interrupciones que se encuentran en las primeras posiciones de memoria física. por ejemplo. JOSE ANTONIO MOLINA CARRILLO . Dado que el registro de segmento y la dirección de desplazamiento aún acceden a la memoria. Un programa en modo real puede acceder a cualquier dirección de memoria direccionable por el procesador. el chip 286 fue hecho para iniciarse en ' modo real ' . Como puede verse. Al día de hoy. Sin embargo. usar estas nuevas características requirió instrucciones de software adicionales no necesarias previamente. Para direccionar esta sección extendida el sistema de memoria se requiere un cambio en el esquema de direccionamiento de segmento más desplazamiento usado en el modo real. La arquitectura 286 introdujo el modo protegido. con lo que un programa maligno puede modificar estructuras del sistema operativo o redireccionar vectores de interrupción y tener un control total sobre el sistema. me atrevo a afirmar que es imposible realizar un virus para un sistema operativo que trabaje en modo protegido. 2.Debido a esta escasa protección que se ofrece en el modo real.El descriptor especifica la ubicación del segmento en memoria. se lee de la tabla anterior la dirección donde encontrar su rutina de tratamiento. entre otras cosas. Como cualquier programa pude acceder a cualquier dirección de memoria. su longitud y sus derechos de acceso.2 Modo protegido.

x. aunque no directamente como en el modo real. en los 80386 y posteriores.384 descriptores. en el modo real.x y más adelante. tratándola como una dirección lineal. por lo tanto una aplicación podría disponer en cualquier momento de 16.3 Modo real virtual. Era usado para ejecutar programas DOS en MicrosoftWindows/386.384 segmentos de una aplicación. sino en modo usuario. Otra diferencia. Windows 95. también llamado modo real virtual o VM86.2. Cada tabla de descriptores contendrá 8192 entradas. este número de segmento puede direccionar cualquier localidad de memoria en todo el sistema para el segmento de código. elige uno de 8192 descriptores en una de las dos tablas de descriptores. no se ejecutan en el modo 8086 virtual. y en Linux por medio de dosemu. Puesto que un descriptor describe un segmento de memoria. El VM86 usaba la forma de segmentación del modo real. el modo 8086 virtual. Windows Me. En el microprocesador 80386 y posteriores. Así que los emuladores arriba mencionados hacen de hecho más que solo el soporte para el modo 8086 virtual. siempre y cuando fueran compatibles con DPMI. ubicado en el registro del segmento.Existen dos tablas de descriptores utilizadas con los registros de segmentos: una contiene descriptores globales y otra. Windows 3. la longitud y los derechos de acceso del segmento de memoria. En modo protegido. El SELECTOR. descriptores locales. 22 ING. a través de las máquinas DOS virtuales. mientras que los descriptores locales son generalmente exclusivos de una aplicación. Los programas de DOS de modo protegido. El DESCRIPTOR especifica la ubicación. es que en modo protegido la dirección de desplazamiento puede ser un número de 32 bits en vez de utilizar uno de 16 bits como en modo real. el segmento de código inicia en la localidad 00080H. y descriptor de aplicación a uno local. y OS/2 2. Es por esto que puede direccionar hasta 4 Gb de longitud. Los descriptores globales contienen las definiciones de los segmentos que se aplican a todos los programas. pero usaba la dirección resultante de 20 bits (realmente 21 bits). también en SCO UNIX a través de Merge.ARQUITECTURA DE COMPUTADORAS forma en que el microprocesador interpreta el registro de segmento para acceder al segmento de memoria. 2. Windows 98. si CS=0008H. tanto de 16 como de 32 bits. esto permite que puedan ser descriptos hasta 16. Por ejemplo. de tal manera que era sujeta a paginación. JOSE ANTONIO MOLINA CARRILLO . permite la ejecución de aplicaciones de modo real que violan las reglas bajo control de un sistema operativo de modo protegido. Podríamos llamar descriptor de sistema a un descriptor global.

Una de las ventajas de los microprocesadores es que permiten realizar diferentes funciones lógicas. Los circuitos lógicos se utilizan para adoptar decisiones específicas de “verdadero-falso” sobre la base de la presencia de múltiples señales “verdadero-falso” en las entradas. Una puerta INVERSORA (INVERTER) tiene una única entrada y una única salida. que son interruptores binarios). En general. Los circuitos de conmutación y temporización. incluyendo la hoy obsoleta lógica reóstato-transistor y la lógica de acoplamiento por emisor. Las señales se pueden generar por conmutadores mecánicos o por transductores de estado sólido. La desventaja de los microprocesadores es que normalmente funcionan de manera secuencial. que incluye a OR y a NOT). La señal de entrada.3 Temporización. sumadores. A partir de las puertas elementales se pueden construir circuitos lógicos más complicados. Verdadero puede estar representado por un 1. Las diversas familias de dispositivos lógicos digitales. entre los que cabe mencionar los circuitos biestables (también llamados flip-flops. La frecuencia del reloj se 23 ING. de manera constante. una vez aceptada y acondicionada (para eliminar las señales eléctricas indeseadas. La salida de una puerta Y es verdadera sólo si todas las entradas son verdaderas. Una puerta O (OR) tiene dos o más entradas y una sola salida. La salida de una puerta O es verdadera si cualquiera de las entradas es verdadera. forman la base de cualquier dispositivo en el que se tengan que seleccionar o combinar señales de manera controlada. Los bloques elementales de un dispositivo lógico se denominan puertas lógicas digitales. como las puertas OR. Para sincronizar las diversas operaciones que realizan los diferentes subcomponentes del sistema informático. contadores. El reloj físicamente es un circuito integrado que emite una cantidad de pulsos por segundo. 2. dependiendo de las instrucciones de programación almacenadas. Para saber la hora. Existen también muchas otras variedades de circuitos lógicos. para ejecutar una determinada función es necesario conectar grandes cantidades de elementos lógicos en circuitos complejos.2. efectuando de esta manera la función negación (NOT). La lógica digital es un proceso racional para adoptar sencillas decisiones de “verdadero” o “falso” basadas en las reglas del álgebra de Boole. Los procesadores están específicamente programados con instrucciones individuales para ejecutar una determinada tarea o tareas. que ejecuta funciones similares a niveles de potencia muy bajos pero a velocidades de funcionamiento ligeramente inferiores. El reloj de una computadora se utiliza para dos funciones principales:1. Entre los campos de aplicación de estos circuitos se pueden mencionar la conmutación telefónica. y es falsa si todas las entradas son falsas. y combinaciones más complejas. Una puerta Y (AND) tiene dos o más entradas y una única salida. AND y NOT y combinaciones de las mismas (como NOR. o circuitos lógicos. las transmisiones por satélite y el funcionamiento de las computadoras digitales. Otra familia lógica muy utilizada es la lógica transistor-transistor. comparadores. por lo general circuitos integrados. y en los circuitos lógicos estos numerales aparecen como señales de dos tensiones diferentes. ejecutan una variedad de funciones lógicas a través de las llamadas puertas lógicas.ARQUITECTURA DE COMPUTADORAS 2. También se emplea la lógica de semiconductor complementario de óxido metálico. utilizada para sistemas de muy altas velocidades. En algunos casos se utilizan microprocesadores para efectuar muchas de las funciones de conmutación y temporización de los elementos lógicos individuales. Al número de pulsos que emite el reloj cada segundo se llama Frecuencia del Reloj. y falso por un 0.3.1 Reloj de sistema. y puede convertir una señal verdadera en falsa. JOSE ANTONIO MOLINA CARRILLO . lo que podría resultar demasiado lento para algunas aplicaciones. o ruidos). es procesada por los circuitos lógicos digitales. En tales casos se emplean circuitos lógicos especialmente diseñados.

Que normalmente se hace en respuesta a una condición de error cuando es imposible o indeseable de una actividad de procesamiento y proceder a todos los mecanismos de recuperación de errores no. La frecuencia del reloj es simplemente el número de ciclos de reloj que ocurren en un segundo.77 megaherzios del primer PC diseñado por IBM y los 200 megaherzios de las actuales computadoras basadas en los chips Intel Pentium. 2. Un repentino y extraño error con un dispositivo que puede a veces ser fijada por la eliminación y restauración de energía. Observe que el periodo de reloj es el valor inverso de la frecuencia. que sirve para realzar la puesta en condiciones iníciales manualmente. existe un mecanismo normalmente un pulsador. para un sistema de 200 Mhz el periodo es igual a 5 nanosegundos. siendo cada ciclo un pulso del reloj. esto significa que la computadora ejecuta los comandos en un orden preestablecido. el reloj del sistema maneja toda la sincronización de un sistema de cómputo. habitualmente. electrónico o de otro tipo. Cuanto mayor sea la frecuencia del reloj mayor será la velocidad de proceso de la computadora y podrá realizar mayor cantidad de instrucciones elementales en un segundo. Un restablecimiento se realiza por reiniciar el software del sistema sin reiniciar 24 ING. Como la frecuencia del reloj es de varios millones de pulsos por segundo se expresa habitualmente en Megaherzios. haciendo que el dispositivo de restablecimiento. Para asegurarnos de que todas las operaciones ocurren justo en el tiempo adecuado. también llamados Hertzios. La falta de una adecuada capacidad de restablecimiento de otro modo. El timepo que toma para cambiar de cero a uno y luego volver a cero se le llama periodo de reloj. En su forma básica. posiblemente. En un ordenador o un sistema de transmisión de datos. Se conoce como reset a la puesta en condiciones iníciales de un sistema. el CPU inicia una operación ya sea en el flanco ascendente (cuando la señal cambia de cero a uno) ó en el descendente (cuando la señal cambia de uno a cero). éste valor excede los 200 ciclos por segundo. también llamado ciclo de reloj. Este puede ser mecánico. se usa para restablecer los medios para eliminar cualquier error o la espera de los acontecimientos y llevar un sistema al estado normal o estado inicial suele ser de una manera controlada. Un equipo de almacenamiento de programa que normalmente realizar un "reset" si un tiempo de espera y recuperación de errores de programas del tipo dereintentar o cancelar tampoco. En máquinas de arquitectura Von Neumann la mayoría de las operaciones son serializadas. El reloj del sistema es una señal eléctrica en el bus de control que alterna entre los valores de cero y uno a una tasa dada. El rango de frecuencia de los microprocesadores oscila entre los 4.ARQUITECTURA DE COMPUTADORAS mide en Ciclos por Segundo. en sistemas actuales. La capacidad de un dispositivo electrónico para poder restablecer en caso de error o pérdida anormal de energía es un aspecto importante de diseño de sistemas embebidos y programación. un equipo de audio o la electrónica de un coche.El reloj marca la velocidad de proceso de la computadora generando una señal periódica que es utilizada por todos los componentes del sistema informático para sincronizar y coordinar las actividades operativas. Esta capacidad se puede observar la vida cotidiana con la electrónica. JOSE ANTONIO MOLINA CARRILLO . La frecuencia en la cual el reloj del sistema alterna entre cero y uno es llamada frecuencia del reloj de sistema. Normalmente se realiza al conectar el mismo. Algunos dispositivos. por lo tanto.2 Reset del sistema. Para asegurar la sincronización. aunque. evitando el que un componente maneje unos datos incorrectamente o que la velocidad de transmisión de datos entre dos componentes sea distinta. (MegaHertz. un CPU no puede ejecutar operaciones más rápido que la velocidad del reloj. podría hacer que el dispositivo después de una inútil pérdida depotencia o mal funcionamiento. Como todas las operaciones de un CPU están sincronizadas en torno a su reloj. las máquinas 80x86 utilizan una señal alternante llamada el reloj del sistema. incluso después de haber perdido el poder de repente. siendo ya común frecuencias del orden de los 366 Mhz. como reproductores multimedia portátiles. que equivale a un millón de ciclos por segundo). como un televisor. que son capaces de funcionar como se pretende una vez más.3. a menudo tiene un botón de reinicio. ya que son propensos a la congelación o el bloqueo arriba.

Así. JOSE ANTONIO MOLINA CARRILLO . Durante la ejecución de un programa.Para las operaciones de lectura y escritura de E/S también se usa la señal READY. se inserta un estado de espera adicional. Como se mencionó anteriormente. En algunos ciclos el hardware de la PC. Es común que una tarjeta sea más lenta que el bus. La figura 22 ilustra las señales de tiempo necesarias para generar un estado de espera para un ciclo de lectura o escritura a memoria. excepto que la señal READY se muestrea en T3. los ciclos del bus del 8088 normalmente son de cuatro pulsos y se describen por T1 hasta T4. Debido a que los diferentes ciclos del bus requieren distintos tiempos. los puertos serie y paralelo. Cuando se conectan tarjetas al bus de la PC. El procesador dejará de hacer lo que está haciendo para atender al dispositivo para posteriormente regresar a la tarea que estaba ejecutando antes de ser interrumpido. es decir. y los tiempos son los mismos que para acceso a memoria. 2. una más eficiente. Si se requiere un estado de espera. Los dispositivos utilizan una de las líneas del procesador para interrumpirlo. Para atender a un dispositivo. Los circuitos de la tarjeta madre muestran la señal READY en el flanco de subida del tiempo T2. 2. interrumpiendo al procesador. el procesador ejecuta una rutina especial llamada Rutina de Servicio a Interrupciones. algunos dispositivos requieren la atención del procesador en forma asíncrona. La segunda forma. La señal READY del bus se puede usar para extender la longitud del ciclo del bus para igualar una tarjeta lenta o parar el bus del sistema hasta que se sincronice con el ciclo de la tarjeta. las unidades de disco. sino que esto lo hace la tarjeta usando la señal READY.4 Interrupciones de Hardware. un problema común es igualar la velocidad de los ciclos del bus con la de las tarjetas.ARQUITECTURA DE COMPUTADORAS el hardware.3. Esta señal debe ser valida (activo alto) 75 nanosegundos antes del flanco de subida de T2 para que no se genere un estado de espera. A fin de asegurarse de poder atender rápidamente a un dispositivo cuando se lo solicita. la frecuencia con el que procesador sondeaa los dispositivos debe ser muy alta. es hacer que sea el dispositivo el que le avise al procesador cuando esté listo o requiera atención. La señal READY se usa para insertar estados nuevos o adicionales de espera. ¿Cómo sabe el procesador que el dispositivo ya está listo para la nueva petición?. la velocidad de procesamiento de estos dispositivos es inferior a la del procesador. ¿Cómo sabe el procesador que el dispositivo requiere que se le atienda? Hay dos formas en que el procesador puede saber si el dispositivo está listo o si el dispositivo requiere atención: La primera forma es que el procesador esté periódicamente sondeando al dispositivo en cuestión. A este tipo de interrupción se le conoce como Interrupción por Hardware. También. etc. Lo anterior produce que el procesador ocupa mucho tiempo interrogando a los dispositivos y en la mayoría de las veces éstos no están listos o requieren de la atención del procesador. no en forma periódica. la tarjeta de red. por lo general. Generación de estados de espera en ciclos de bus de memoria El hardware de la PC no inserta estados de espera en los ciclos de lectura o escritura a memoria. Así que el procesador tendrá que esperar un tiempo para que el dispositivo se desocupe antes de hacerle una nueva solicitud. Las interrupciones de cada dispositivo están priorizadas de tal manera que si 25 ING. la señal READY se debe controlar de manera diferente. Si la señal READY se mantiene en bajo hasta el flanco de subida del siguiente pulso. el bus de la PC esta diseñado para resolver este problema. automáticamente inserta un pulso ocioso extra llamado TW.3 Estados de espera. el procesador debe interactuar con una serie de dispositivos de entrada/salida: El teclado. Las rutinas de servicio a interrupciones. se cargan a la memoria RAM como parte del proceso de iniciación de la computadora. Normalmente. la señal READY debe ser valida (activo bajo) 60 nanosegundos antes del flanco de subida de T2.

Un flanco de bajada en esta línea da lugar a una secuencia de interrupción en la que se efectúan las siguientes operaciones. 26 ING.La CPU analiza el contenido del bit I del registro de status.1 Enmascarable. Si por el contrario su valor es "0".2 No-enmascarable. 2. .Se termina de ejecutar la instrucción que se estaba ejecutando en el momento de la petición de interrupción. . . -La CPU no analiza el contenido del bit I del registro de status e independientemente del valor que tenga este bit prosigue la secuencia de atención a la interrupción . como por ejemplo el coprocesador matemático Intel 8087 en el IBM PC. Un nivel bajo en esta línea da lugar a una secuencia de interrupción en la que se efectúan las siguientes operaciones.ARQUITECTURA DE COMPUTADORAS dos dispositivos desean interrumpir al procesador al mismo tiempo.Guarda el contenido del contador de programa y el registro de status en la pila e impide otra interrupción poniendo el flagI a "1" . La interrupción es aceptada y continúa el proceso. tras la cual recoge los datos antes guardados en la pila y continúa la ejecución del programa principal donde se detuvo. Un nivel bajo en esta línea da lugar a una secuencia de interrupción en la que se efectúan las siguientes operaciones.Guarda el contenido del contador de programa y el registro de status en la pila e impide otra interrupción enmascarable poniendo el flagI a "1" .Recoge el vector de 0FFFAH y FFFBH y comienza la ejecución del programa situado en la dirección de memoria indicada por éste. Interrupción no enmascarable hardware. En algunos ordenadores Clónicos las interrupciones no enmascarables se usaban para manejar las diferencias entre su hardware y el original de IBM. Interrupción enmascarable hardware. el indicador de batería baja. Si el valor de este b t es "1". si se intentaba acceder a uno de estos dispositivos se lanzaba una NMI y el BIOS ejecutaba el código para el hardware presente en esa máquina.Recoge el vector de 0FFFEH y 0FFFFH y comienza la ejecución del programa situado en la dirección de memoria indicada por este. . Usos Al no poderse desactivar son empleadas por dispositivos para los que el tiempo de respuesta es crítico. Un flanco de bajada en esta línea da lugar a una secuencia de interrupción en la que se efectúan las siguientes operaciones. JOSE ANTONIO MOLINA CARRILLO . . : Interrupción enmascarable hardware.4.La ejecución finaliza cuando se encuentra una instrucción RTI. .La ejecución finaliza cuando se encuentra una instrucción RTI.4. . : Interrupción no enmascarable hardware. Así. o un error de paridad que ocurra en la memoria. 2. sólo la de mayor prioridad interrumpirá al procesador. se ignora la interrupción y continúa ejecutándose el programa principal. .Se termina de ejecutar la instrucción que se estaba ejecutando en el momento de la petición de interrupción. tras la cual recoge los datos antes guardados en la pila y continúa la ejecución del programa principal donde se detuvo.

El acceso directo a memoria es una característica de las computadoras y microprocesadores modernos que permite que ciertos subsistemas de hardware dentro de la computadora puedan acceder a la memoria del sistema para la lectura y/o escritura. JOSE ANTONIO MOLINA CARRILLO .5 Acceso Directo a memoria. por medio de una combinación de teclas o por medio de un programa. el CPU puede iniciar la transferencia. También es utilizado para la transferencia de datos dentro del chip en procesadores con múltiples núcleos. por lo tanto. haciendo que ésta no esté disponible para otras tareas. etc. Esto permite alta disponibilidad del bus del sistema para la CPU. El controlador DMA es generalmente un chipset de la placa madre En computadoras sin DMA. permitiendo interrumpir el programa actual para permitir la depuración. Esta estrategia utiliza uno o más ciclos de CPU para cada instrucción que se ejecuta. los registros. aunque la transferencia de datos se hará más lentamente. no está disponible para realizar otras tareas. * DMA por ráfagas: esta estrategia consiste en enviar el bloque de datos solicitado mediante una ráfaga 27 ING. DMA es útil en aplicaciones en tiempo real y en el procesamiento de flujos de datos. tarjetas de red. En juegos. ya que requiere poca utilización del CPU. Los subsistemas de hardware que utilizan DMA pueden ser: controladores de disco duro. De lo contrario. de esta manera se podían conseguir vidas extras por ejemplo modificando el área de memoria donde se guardaban las vidas restantes. la CPU tendría que copiar cada porción de dato desde el origen hacia el destino. tarjetas gráficas. luego realizar otras operaciones mientras la transferencia está en progreso y luego recibir una interrupción del controlador de DMA una vez que la transferencia termina. Características generales del DMA Aquellas computadoras que tienen canales DMA pueden transferir datos desde y hacia los dispositivos con menos utilización de CPU que aquellas computadoras sin canales DMA. el CPU generalmente se ocupa completo durante toda la operación de lectura o escritura de la memoria y. Esa transferencia se lleva a cabo por el controlador DMA. Tipos de transferencia DMA o Acceso directo a memoria * DMA por robo de ciclo: es uno de los métodos más usados. Sin DMA se utiliza el modo PIO para la comunicación de periféricos con la memoria y de instrucciones de load/store en el caso de chips con multinúcleos. En este caso al lanzarse una NMI se suspendía la ejecución del programa actual y el control se transfería a un depurador para que el programador pudiera inspeccionar el estado de la memoria. 2. independientemente de la unidad central de procesamiento (CPU). como pulsando un botón. en lugar del CPU. Estas NMI eran lanzadas de diferentes maneras. se producía una NMI y se interrumpía el juego. Con DMA.ARQUITECTURA DE COMPUTADORAS También se podían lanzar NMI por el usuario. DMA es esencial en los sistemas integrados. Básicamente una transferencia DMA consiste en copiar un bloque de memoria de un dispositivo a otro. tarjetas de sonido y tarjetas aceleradoras.

Velocidad de carga de las imágenes: número de imágenes por unidad de tiempo de vídeo. Las especificaciones abreviadas de la resolución de video a menudo incluyen una “i” para indicar entrelazado. (por ejemplo DVD) la televisión de definición estándar (SDTV) se especifica como 720/704/640 × 480i60 para NTSC y 768/720 × 576i50 para resolución PAL o SECAM.5. como el analógico. Esto permite que la transferencia no impida que la CPU utilice el bus del sistema. Un procedimiento conocido como desentrelazado puede ser utilizado para transformar el flujo entrelazado. Por ejemplo.97 fps. por lo que permanece inactiva. En los sistemas de barrido progresivo. Su objetivo es librar a la CPU la tarea de la copia de datos e interrupciones de entrada/salida múltiples. el número de líneas de barrido sigue siendo constante (486 NTSC/576 PAL). Permite una altísima velocidad. que consiste en las líneas de los números pares. Sin embargo. como el que se establece en los televisores TFT. en el dominio analógico. En el dominio digital. para ser procesado por los dispositivos de barrido progresivo. donde 576 indica la línea vertical de resolución. y el 50 indica 50 campos (la mitad de imágenes) por segundo. mientras que el número de líneas horizontal varía de acuerdo con la medición de la calidad de la señal: 28 ING. JOSE ANTONIO MOLINA CARRILLO . en cada período de refresco se actualizan todas las líneas de exploración. * DMA Scatter-gather: esta estrategia permite transmitir datos a varias áreas de memoria en una transacción DMA simple. Para lograr la ilusión de una imagen en movimiento. El entrelazado fue inventado como un método de lograr una buena calidad visual dentro de las limitaciones de un estrecho ancho de banda. pero la velocidad de transferencia es la más baja posible. la velocidad mínima de carga de las imágenes es de unas quince imágenes por segundo. los proyectores y los paneles de plasma. Equivale al encadenamiento de múltiples peticiones DMA simples. o satélite. producir una calidad de video equivalente al material de barrido progresivo real. para viejas cámaras mecánicas cargas de seis a ocho imágenes por segundo (fps) o 120 imágenes por segundo o más para las nuevas cámaras profesionales. Resolución de video El tamaño de una imagen de video se mide en píxeles para video digital. lo que complica un poco el proceso de transferir una película de cine a video. que consiste en las líneas de los números impares y el campo pares (casilla inferior). sin embargo. * DMA transparente: esta estrategia consiste en emplear el bus del sistema cuando la CPU no lo necesita. Los estándares PAL y SECAM especifican 25 fps. el formato de video PAL es a menudo especificado como 576i50. NTSC. el de DVD. pero la CPU no podrá utilizar el bus de sistema durante el tiempo de transferencia. Número de imágenes por segundo. i indica entrelazado. o en líneas de barrido horizontal y vertical para video analógico.ARQUITECTURA DE COMPUTADORAS empleando el bus del sistema hasta finalizar la transferencia. Las líneas entrelazadas de cada imagen están numeradas consecutivamente y divididas en dos campos: el campo impares (campo superior). El cine es más lento con una velocidad de 24fps. mientras que NTSC especifica 29. El desentrelazado no puede. 2. PAL y SECAM son formatos entrelazados.1 Sistema de video. El resultado es una mayor percepción de la resolución y la falta de varios artefactos que pueden formar parte de una imagen estacionaria aparentemente en movimiento o que parpadea. Entrelazado El video puede ser entrelazado o progresivo.

y 720 píxeles para DVD. En los casos de videostreaming en tiempo real y sin buffer. 4:2:0). La unidad en la que se mide es bits por segundo (bit/s obps) o también Megabits por segundo (Mbit/s o Mbps). posee menos calidad que un DVD que tiene una tasa de alrededor de 20Mbps. Son los modos PIO y los modos DMA. ya que lo máximo que podía traerse la CPU es de dos en dos bytes del disco por cada operación PIO. la tasa variable de bits usa másbits que los que usaría en escenas con movimiento lento pero de duración similar logrando una calidad visual consistente.ARQUITECTURA DE COMPUTADORAS aproximadamente 320 píxeles por línea para calidad VCR. Los datos de video contienen redundancia temporal y espacial. Estos tipos de acceso. esta tarea es conocida como compresión interframe e incluye la compensación de movimiento y otras técnicas. El número de colores distintos que pueden ser representados por un pixel depende del número de bits por pixel (bpp). La VBR (Variable Bit Rate – Tase de Bits Variable) es una estrategia para maximizar la calidad visual del video y minimizar la tasa debits.5. usado para el DVD y la televisión por satélite. Existen dos técnicas de acceso a estos discos. esta tarea es conocida como compresión intraframe y está estrechamente relacionada con la compresión de imágenes. JOSE ANTONIO MOLINA CARRILLO . el acceso a disco se hacía mediante técnicas PIO (Program Input/Output). Espacio de color y bits por píxel El nombre del modelo del color describe la representación de color de vídeo. Técnicas de acceso I/O Modos PIO: En los discos antiguos. y poca velocidad de transferencia. Se corresponde estrechamente con el sistema YUV utilizado en la televisión NTSC y PAL. 29 ING. implican mucho trabajo a la CPU (constantemente interrogando a los puertos de comunicaciones con el disco). Así mismo. Se conserva la relación de aspecto por falta de píxeles “cuadrados”. Una mayor tasa de bits permite mejor calidad de video.2 Sistema de discos. 400 píxeles para las emisiones de televisión. el Video CD ? . El sistema YIQ se utilizó en la televisión NTSC. cuando el ancho de banda es fijo (por ejemplo en videoconferencia emitida por canales de ancho de banda constante) se debe usar CBR (Constant Bit Rate – Tasa de Bits Constante). Por ejemplo. Método de compresión de video (sólo digital) Se usa una amplia variedad de métodos para comprimir secuencias de video. Los modos PIO son de PIO 1 a PIO 4. Son los orientados normalmente al consumo domestico. y con el sistema Y DbDr utilizado por la televisión SECAM. En términos generales. lo que hace que las secuencias de video sin comprimir sean extremadamente ineficientes. Discos IDE. Los estándares modernos más comunes son MPEG-2. 4:4:4. y MPEG-4 usado para los sistemas de video “caseros”. con una tasa de bits de cerca de 1Mbps. 4:2:2. 2. En las escenas con movimiento rápido. Tasa de bits (sólo digital) La tasa de bits es una medida de la tasa de información contenida en un flujo o secuencia de video. se reduce la redundancia espacial registrando diferencias entre las partes de una misma imagen (frame). siendo el más rápido este ultimo. la redundancia temporal puede ser reducida registrando diferencias entre imágenes (frames). Una forma de reducir el número de bits por píxel en vídeo digital se puede realizar por submuestreo de croma (por ejemplo.

el conjunto de chips estaba compuesto por un gran número de chips electrónicos (de allí su nombre). físicamente se encuentra entre el CPU y los módulos de memoria RAM. El tiempo de acceso a memoria es la cantidad de tiempo que transcurre desde que se solicita una operación (sea de lectura ó escritura) y el tiempo en que la memoria completa dicha operación. Originalmente. cuando tienen éxito las operaciones en memoria cache se le llama éxito cache (cache hit). de hecho. Por lo general. Conjunto de chips El conjunto de chips es el componente que envía datos entre los distintos buses del equipo para que todos los componentes que forman el equipo puedan a su vez comunicarse entre sí. JOSE ANTONIO MOLINA CARRILLO .5. Este rendimiento disminuye al aumentar la cantidad de memoria cache y por esta razón la memoria cache es relativamente pequeña. en muchos sistemas 80x86 el acceso a memoria toma varios ciclos de reloj. El acceso a memoria es probablemente la actividad más común de un CPU. Un estado de espera es una señal que se coloca en el bus de control por parte del dispositivo de memoria para detener temporalmente el trabajo realizado por el CPU.3 Otras aplicaciones. Por lo general el radio entre éxito y pérdida en memoria cache está entre 85 y 90%.ARQUITECTURA DE COMPUTADORAS 2. la lectura o escritura no puede ser más rápida que un ciclo de reloj. El tiempo de acceso a memoria en el procesador 80x486 es casi 40 veces más rápido que en el caso del procesador 80x86 porque éste último consume más ciclos de reloj para el acceso a memoria además del incremento en la velocidad de reloj. (nanosegundos). En procesadores de 5 Mhz (80x88. Una memoria de acceso aleatorio (RAM) típica tiene una capacidad de 16 ó más megabytes y un tiempo de acceso de 70 nanosegundos ó menos. esto es. en cambio. su función es evitar la generación de estados de espera por parte de los módulos de memoria RAM y así aprovechar al máximo el rendimiento esperado por el CPU. Los dispositivos de memoria presentan varias características pero las principales son su capacidad de almacenamiento y el tiempo de acceso. La respuesta son los estados de espera. este es un valor importante ya que a mayor número de ciclos menor desempeño. un procesador de 50 Mhz (80x486) el tiempo es de aproximadamente 20 ns. obviamente introducir estados de espera no es una opción deseable por la reducción en el desempeño del sistema. se trata en definitiva de una operación sincronizada al reloj del sistema. cuando ocurre éste fenómeno se le llama pérdida cache (cache miss). Una memoria cache es un dispositivo sin estados de espera que se encuentra construida como parte integral del CPU. Los diseñadores de hardware han encontrado un mecanismo que tiene un efecto similar a introducir estados de espera pero sin afectar notablemente el rendimiento de la computadora. con estos datos seguramente se estará preguntando cómo es posible que éstas memorias relativamente lentas trabajan en procesadores mucho más rápidos. presenta dos componentes: 30 ING. como consecuencia utilizar uno o más estados de espera tiene el mismo efecto que reducir proporcionalmente la velocidad de reloj. sus valores de almacenamiento oscilan entre 256 y 512 Kb. sin embargo la memoria cache no es un dispositivo perfecto pues hay ocasiones en que no es posible colocar en memoria cache los datos que requiere el programa para ejecutarse forzando al sistema a leer dichos datos directamente de los módulos de memoria RAM y por lo tanto generando estados de espera. El tiempo de acceso a memoria es el número de ciclos de reloj que el sistema necesita para acceder a una ubicación de memoria. 80x86) el tiempo de acceso a memoria es de aproximadamente 800 ns. a este mecanismo se le llama memoria cache ( se pronuncia "cash").

8 127.3 8. El Puente Sur (también denominado controlador de entrada/salida o controlador de expansión) administra las comunicaciones entre los distintos dispositivos periféricos de entrada-salida. los primeros chips Pentium que tenían buses de procesador de 64 bits. También se lo conoce como GMCH que significa Concentrador de controladores gráficos y de memoria. También se lo conoce como ICH (Concentrador controlador de E/S). Extended Industry Standard Architecture) Bus local VESA (VESA Local Bus) ING.ARQUITECTURA DE COMPUTADORAS El Puente Norte (que también se conoce como controlador de memoria. Se encuentra ubicado físicamente cerca del procesador. Es interesante tener en cuenta que para que dos buses se comuniquen entre si.9 31.3 8.3 33 Ancho de banda (MB/seg. A continuación encontrará una tabla con las especificaciones relativas a los buses más comunes: Norma ISA 8 bits ISA 16 bits Arquitectura estándar industrial extendida (EISA. JOSE ANTONIO MOLINA CARRILLO Ancho del bus (bits) 8 16 32 32 Velocidad del bus (MHz) 8.) 7. Esto explica por qué los módulos de memoria RAM a veces deben instalarse en pares (por ejemplo. necesitaban dos módulos de memoria con un ancho de 32 bits cada uno).2 31 . se utiliza el término puente para designar un componente de interconexión entre dos buses. se encarga de controlar las transferencias entre el procesador y la memoria RAM.9 15. Por lo general. deben poseer el mismo ancho.

New York (1988).2 508.Ultra 320 (Ultra 4) SCSI-3 . Canto.77 10 10 10 20 20 40 40 80 80 DDR 127.hardside. 32 ING. Delgado.Wide SCSI-2 .php3 http://www.Ultra SCSI-3 . J.ar/docs/buses%20y%20puertos.1 AGP AGP (Modo x2) AGP (Modo x4) AGP (Modo x8) ATA33 ATA100 ATA133 ATA serial (S-ATA.upv.com/curso-arquitectura-ordenadores/local-bus http://es. JOSE ANTONIO MOLINA CARRILLO .Fast SCSI-2 .net/contents/pc/bus. A.es/amiga/296.0 FireWire FireWire 2 SCSI-1 SCSI-2 .htm http://www.kioskea.Ultra 2 Wide SCSI-3 .6 254. Serial ATA) ATA serial II (S-ATA2. Dormido.org/wiki/Tasa_de_bits http://es. 1994 HAYES.Ultra Wide SCSI-3 – Ultra 2 SCSI-3 .com/trabajos/bus/bus.Fast Wide 32 bits SCSI-3 . J. Serial ATA II) USB USB 2. Mira y A.htm BIBLIOGRAFÍA "Estructura y tecnología de computadores II" S.monografias.mailxmail.5 60 100 200 5 10 20 40 20 40 40 80 160 320 http://www. M.Ultra 640 (Ultra 5) REFERENCIAS: 32 64 32 32 32 32 16 16 16 1 2 1 1 1 1 8 8 16 32 8 16 8 16 16 16 33 66 66 66x2 66x4 66x8 33 50 66 4. P.ARQUITECTURA DE COMPUTADORAS PCI 32 bits PCI 64 bits 2.wikipedia.Ultra 160 (Ultra 3) SCSI-3 .com. "Computer Architecture and Organization (Second Edition)" McGraw-Hill.shtml http://www.3 528 1056 2112 33 100 133 180 380 1. Editorial Sanz y Torres.