Está en la página 1de 19

INSTITUTO TECNOLÓGICO DE MINATITLÁN

SISTEMA ESCOLARIZADO

INGENIERÍA EN SISTEMAS COMPUTACIONALES

TEMA(S):

 ARQUITECTURA DE COMPUTOS

TIPO DE EVIDENCIA:

ANTOLOGÍA

MATERIA:

ARQUITECTURA DE COMPUTADORAS

PROFESOR(A):

MARTINEZ GUZMAN SONIA

ALUMNO:

LARA REYES GERARDO

GRUPO:

Fz51

AGOSTO-DICIEMBRE 2017

MINATITLAN, VER; OCTUBRE 2017

1
Tabla de contenido
Arquitectura de computo ............................................................................................................................................... 3
Introducción .................................................................................................................................................................... 3
1.1 Modelos de arquitectura de cómputo .............................................................................................................. 4
1.1.1 Clásicas ..................................................................................................................................................... 4
1.1.2 Segmentadas ........................................................................................................................................... 5
1.1.3 De multiprocesamiento........................................................................................................................... 6
1.2 Análisis de los componentes ................................................................................................................................ 7
1.2.1 CPU ............................................................................................................................................................ 7
1.2.1.1 Arquitecturas......................................................................................................................... 7
1.2.1.2 Tipos ....................................................................................................................................... 7
1.2.1.3 Características ...................................................................................................................... 8
1.2.1.4 Funcionamiento ..................................................................................................................... 8
1.2.2 Memoria ................................................................................................................................................... 9
1.2.2.1 Conceptos básicos del manejo de la memoria.............................................................. 9
1.2.2.2 Memoria principal semiconductora ................................................................................10
1.2.2.3 Memoria cache...................................................................................................................10
1.2.3 Manejo de la entrada/salida............................................................................................................11
1.2.3.1 Módulos de entrada/salida ............................................................................................11
1.2.3.2 Entrada/salida programada ..........................................................................................11
1.2.3.3 Entrada/salida mediante interrupciones ......................................................................12
1.2.3.4 Acceso directo a memoria ...............................................................................................13
1.2.3.5 Acceso directo a memoria ...............................................................................................13
1.2.4 Buses ........................................................................................................................................................14
1.2.2.1 Tipos de buses ....................................................................................................................15
1.2.2.2 Estructura de los buses ......................................................................................................16
1.2.2.3 Jerarquía de buses............................................................................................................16
1.2.5 Interrupciones.........................................................................................................................................17
Conclusión ...................................................................................................................................................................18
Bibliografía ................................................................................................................................................................19

2
ARQUITECTURAS DE
CÓMPUTO
Introducción
La computadora se encuentra conformada por software y hardware, el primero se define
como el conjunto de programas de cómputo que permiten su funcionamiento; el segundo
representa la colección de componentes físicos que conforman el equipo de cómputo, estos en
conjunto conforman a la computadora. Pero internamente aloja un elemento importante: la
unidad central de procesamiento (UCP), que a su vez para procesar la información emplea
la unidad de control, unidad de aritmético-lógica y como elemento de almacén de datos, la
memoria

Concepto de arquitectura en el entorno informático


Lo que se denomina hardware de computadores consiste en circuitos electrónicos, visualizadores, medios
de almacenamiento magnéticos y ópticos, equipos electromecánicos y dispositivos de comunicación. Por lo
que la arquitectura de computadoras abarca la especificación del repertorio de instrucciones y las
unidades de hardware que implementan las instrucciones.

Definición de computadora
Es una maquina calculadora electrónica rápida que acepta como entrada información digitalizada, la
procesa de acuerdo con una lista de instrucciones almacenada internamente y produce la información de
salida resultante. A la lista de instrucciones se le conoce como programa y el medio de almacenamiento
interno memoria del computador.

3
1.1 Modelos de arquitecturas de computo
1.1.1 Clásicas
Estas arquitecturas se desarrollaron en las primeras computadoras electromecánicas y de tubos de vacio.
Aun son usadas en procesadores empotrados de gama baja y son la base de la mayoría de las
arquitecturas modernas.

Arquitectura Von Newman

Esta arquitectura fue utilizada en la computadora ENIAC. Consiste en una unidad central de proceso que se
comunica a través de un solo bus con un banco de memoria en donde se almacenan tanto los códigos de
instrucción del programa, como los datos que serán procesados por este. Esta arquitectura es la mas empleada
en la actualidad ya, que es muy versátil.

Este modelo define la computadora como cuatro subsistemas: memoria, unidad lógica aritmética, unidad
de control y entrada/salida

Forouzan, Behrouz, Introducción a la ciencia de la computación, p. 5.

Behrouz Forouzan señala que en el modelo de Von Neumann la memoria es el área de almacenamiento,
donde los programas y los datos se almacenan durante el procesamiento. La Unidad Lógica Aritmética
(ALU: arithmetic logic unit) es donde el cálculo aritmético y las operaciones lógicas toman lugar. La Unidad
de Control determina las operaciones de la memoria, de la ALU y del subsistema de entrada/salida.

El subsistema de entrada acepta datos de entrada y el programa desde el exterior de la computadora;


el subsistema de salida envía el resultado del procesamiento al exterior.

4
Otro elemento importante del modelo de Von Neumann establece que el programa debe almacenarse en
la memoria, lo cual difiere de la arquitectura de las primeras computadoras en las cuales sólo se
almacenaban los datos en la memoria, señala Behrouz. En las computadoras actuales las memorias alojan
tanto un programa como sus datos correspondientes. Lo que implica que ambos, datos y programas, deban
tener el mismo formato porque se almacena en memoria.

1.1.2 Segmentadas
Estas buscan mejorar el desempeño realizado paralelamente en varias etapas del ciclo de instrucción del
mismo.

El procesador se divide en varias unidades funcionales independientes y se dividen entre ellas el


procesamiento de las instrucciones.

Otra aportación frecuente que aumenta el rendimiento del computador es el fomento del paralelismo
implícito, que consiste en la segmentación del procesador (pipe-line), descomponiéndolo en etapas para
poder procesar una instrucción diferente en cada una de ellas y trabajar con varias a la vez.

La arquitectura de pipeline consiste en ir transformando un flujo de datos en un proceso comprendido por


varias fases secuenciales, siendo la entrada de cada una la salida de la interior.

Es un procesador con segmentación del cause, cada una de las etapas se asigna a una unidad funcional
diferente, la búsqueda a la unidad de búsqueda y la ejecución a la unidad de ejecución.

Estas unidades se comunican por medio de una cola de instrucciones en la que la unidad de búsqueda
coloca los códigos de instrucción que leyó para que la unidad de ejecución los tome de la cola y los ejecute.
Esta cola se parece a un tubo donde las instrucciones entran por un extremo y salen por el otro. De esta
analogía proviene el nombre: Pipelining o entubamiento. En general se divide al procesador segmentado
en una unidad independiente por cada etapa del ciclo de instrucción.

Fuente:
https://www.google.com.mx/search?q=modelos+de+arquitecturas+de+c%C3%B3mputo&source=lnms&tb
m=isch&sa=X&ved=0ahUKEwjuldTlrNvWAhVGxYMKHRBBAi4Q_AUICigB&biw=1366&bih=672#imgrc=R
vblugPF7d5MVM

Completando el ejemplo anterior, en un procesador con segmentación, la unidad de búsqueda comenzaría


buscando el código de la primera instrucción en el primer ciclo de reloj. Durante el segundo ciclo del reloj,
la unidad de búsqueda obtendría el código de la instrucción 2, mientras que la unidad de ejecución ejecuta
la instrucción 1 y asi sucesivamente. La siguiente figura muestra este proceso.

5
Fuente: https://es.slideshare.net/CynthiaRamirez3/unidad-1-arquitectura

1.1.3 De multiprocesamiento
Se trata de un tipo de arquitectura de ordenadores en que dos o más procesadores comparten una única
memoria central. Diferentes operaciones son realizadas en diversos procesadores. N procesadores, cada
uno con su propia unidad de control comparten una memoria común.

Esquema MISD (Multiple Instrucion Single Data)

Fuente: http://arquitecturaico.blogspot.mx/2008/05/tipos-de-arquitectura.html

Aquí hay N secuencias de instrucciones (algoritmos/programa) y una secuencia de datos. El paralelismo es


alcanzado dejando que los procesadores realicen diferentes cosas al mismo tiempo en el mismo dato.

Las maquinas MISO son utiles en computos donde la misma entrada sujeta a diferentes operaciones

6
1.2 Análisis de los componentes
1.2.1 CPU
Controla el funcionamiento de los elementos de un computador. Desde que el sistema es alimentado por
una corriente, este no deja de procesar información hasta que se corta dicha alimentación. La CPU es la
parte más importante del procesador, debido a que es utilizado para realizar todas las operaciones y
cálculos del computador. La CPU tiene a su vez otra estructura interna

La unidad central de proceso es el corazón del computador. Controla el flujo de datos, los procesa, y
gobierna el secuenciamiento de las acciones en todo el sistema. Para ello necesita un oscilador externo o
reloj que sincroniza las operaciones y marca la velocidad de proceso, este va marcando la evolución del
CPU y mide su velocidad de funcionamiento; en forma no afortunada la frecuencia del reloj del CPU viene
limitada por la tecnología del CPU y del computador completo ya dependiendo de los periféricos, sus
tarjetas gráficas, memorias, etc. Por lo tanto, el uso excesivo de los recursos que tenga la computadora
puede resultar un sobrecalentamiento que deteriore parcial o totalmente la CPU.

1.2.1.1Arquitecturas
La CPU contiene un conjunto de localidades de almacenamiento temporal de datos de alta velocidad
llamada registro. Algunos de los registros están dedicados al control, y solo la unidad de control tiene
acceso a ellos. Los registros restantes son los registros de uso general y el programador es el usuario que
tiene acceso a ellos.

Dentro del conjunto básico de registros de control se deben incluir a los siguientes:

 Contador de programa (PC).


 Registro de direcciones de la memoria (MAR).
 Registro de datos (RD).
 Registro de instrucciones (ER).
 Palabra de estado de programa (PSW).
 (PC): La función del PC consiste en seguir la pista de la instrucción por buscar (capturar) en el
siguiente ciclo de máquina, por lo tanto, contiene la dirección de la siguiente instrucción por
ejecutar. El PC es modificado dentro del ciclo de búsqueda de la instrucción actual mediante la
suma de una constante. El número que se agrega al PC es la longitud de una instrucción en
palabras.

Por lo tanto, si una instrucción tiene una palabra de longitud se agrega 1 al PC, si una instrucción tiene dos
palabras de largo se agrega 2, y así sucesivamente.

1.2.1.2 Tipos
Los CPUs modernos pueden clasificarse de acuerdo a varias características, tales como: el tamaño del ALU
o del Bus de conexión al exterior (8, 16, 32, 64 bits), si tienen cauce segmentado o no segmentado, si con
tipo CISC o RISC, Von Newan o Harvard y si solo tienen instrucciones enteras o implementan también
instrucciones de punto flotante.

7
1.2.1.3 Características
Las características más importantes a considerar al escoger un CPU para usarlo en una aplicación, son:

 Modelo del programador (Conjunto de registros que el programador puede utilizar), forman el
modelo mental del CPU que el programador utiliza al programar en ensamblador.
 Conjunto de instrucciones que puede ejecutar el CPU
 Modos de direccionamiento que pueden usarse para obtener los operandos de las instrucciones.
 Ciclo de instrucción (el conjunto de pasos que realiza el CPU para procesar cada instrucción)
 Buses de interconexión, usados para que el CPU lea y escriba a la memoria y a los dispositivos
de entrada y salida.

1.2.1.4 Funcionamientos
Unidad de Control (UC): La unidad de control se encarga de leer de la memoria las instrucciones que
debe de ejecutar y de secuenciar el acceso a los datos y operaciones a realizar por la unidad de proceso.
La UC genera las señales de control que establecen el flujo de datos en todo el computador e interno en
la CPU. Una instrucción no es más que una combinación de unos y ceros. Consta de un código de operaciones
binarias para ejecutar la instrucción, la UC la almacena en un registro especial, interpreta su código de
operación y ejecuta la secuencia de acciones adecuada, en pocas palabras decodifica la instrucción.

Unidad Aritmética Lógica o ALU (por su acrónimo en ingles Arithmetic Logic Unit): Es la parte de la
CPU encargada de realizar las transformaciones de los datos. Gobernada por la UC, la ALU consta de
una serie de módulos que realizan operaciones aritméticas y lógicas. La UC se encarga de seleccionar la
operación a realizar habilitando los caminos de datos entre los diversos operadores de la ALU y entre los
registros internos.

Registros Internos: el almacenamiento de los resultados a la ejecución de las instrucciones en la memoria


principal podría ser lento y excesivamente tendría muchos datos en el sistema de interconexión con la
memoria, con lo que el rendimiento bajaría. De la misma manera también se almacenan en registros
internos la configuración interna del CPU o la información durante la última operación de la ALU. Los
principales registros de un CPU son:

 Contador de programa: se encarga de almacenar la dirección de la siguiente instrucción a


ejecutar.
 Registro de Instrucción: se almacena la instrucción capturado en memoria y la que se está
ejecutando.
 Registro de Estado: compuesto por una serie de bits que informan el resultado obtenido en la
última operación de la ALU.
 Registro Acumulador: algunos CPU’s realizan operaciones aritméticas en un registro llamado
acumulador, su función es la de almacenar los resultados de las operaciones aritméticas y
lógicas.

El ciclo para ejecutar cualquier instrucción se divide en ciclo de búsqueda y ciclo de instrucción. El primero
hace que el CPU genere señales adecuadas para acceder a la memoria y leer la instrucción; el segundo
es similar; la diferencia entre los dos es el código de operación de cada instrucción.

8
1.2.2 Memoria
Se denomina memoria a los circuitos que permiten almacenar y recuperar la información. En un sentido más
amplio, puede referirse también a sistemas externos de almacenamiento, como las unidades de disco o de
cinta.

1.2.2.1 Conceptos básicos del manejo de la memoria


Ubicación: Indica si la memoria es interna o externa al computador. La memoria interna suele identificarse
con la memoria principal.

Unidad de transferencia: La unidad de transferencia es igual al número de líneas de entrada/salida de


datos del módulo de memoria.

Palabra: Es la unidad natural de organización de la memoria. El tamaño de la palabra suele coincidir con
el número de bits utilizados para representar números y con la longitud de las instrucciones.

Unidades direccionables: En algunos sistemas la unidad direccionable es la palabra.

Unidad de transferencia: Para la memoria principal es el número de bits que se leen o escriben en memoria
a la vez. La unidad de transferencia no tiene por qué coincidir con una palabra o con una unidad
direccionable.

Acceso secuencial: La memoria se organiza en unidades de datos llamadas registros. El acceso debe
realizarse con una secuencia lineal especifica.

Acceso directo: Como en el caso de acceso secuencial, el directo tiene asociado un mecanismo de
lectura/escritura. Sin embargo, los bloques individuales o registros tienen una dirección única basada en
su dirección física.

Acceso aleatorio: El tiempo para acceder a una posición dad es constante e independiente de la secuencia
de acceso previos.

Asociativa: Es una memoria del tipo de acceso aleatorio que permite hacer una comparación de ciertas
posiciones de bits dentro de una palabra buscando que coincidan con unos valores dados.

Tiempo de acceso: Para memoria de acceso aleatorio es el tiempo que tarda en realizarse una operación
de escritura o de lectura.

Tiempo de ciclo de memoria: Este concepto se aplica principalmente a las memorias de acceso aleatorio
y consiste en el tiempo de acceso y algún tiempo más que requiere antes de que pueda iniciarse un segundo
acceso a memoria.

Velocidad de transferencia: Es la velocidad a la que se pueden transferir datos a, o desde, una unidad
de memoria.

9
1.2.2.2 Memoria principal semiconductora
En computadores antiguos, la forma más común de almacenamiento de acceso aleatorio para la memoria
principal consistía en una matriz de pequeños anillos ferro-magnéticos denominados núcleos.

Es por esto que la memoria principal recibía a menudo el nombre de núcleo. Pero la mejora de la
microelectrónica, y sus ventajas, acabó con las memorias de núcleos. Hoy es casi universal el uso de
memorias semiconductoras para la memoria principal. Una memoria semiconductora y la información se
guardan a través de algún sistema eléctrico (corrientes eléctricas). Básicamente hay dos tipos

RAM dinámica: Con siglas DRAM. Está hecha con celdas que almacenan los datos como cargas en
condensadores. La presencia o ausencia de carga en un condensador se interpretan como el 1 o el 0
binarios. Ya que los condensadores tienen una tendencia natural a descargarse, las RAM dinámicas
requieren refrescos periódicos para mantener memorizados los datos. Son más pequeñas físicamente y de
menor coste por bit, pero más lentas.

RAM estática: De siglas SRAM. Los valores binarios se almacenan utilizando configuraciones de puertas
formando biestables (flip-flop). Una RAM estática retendrá sus datos en tanto se mantenga alimentada,
no necesita refresco periódico. Son más rápidas que las dinámicas, pero más caras y de mayor consumo
eléctrico, por lo que necesitan refrigeración.

1.2.2.3 Memoria caché


En informática, la memoria caché es la memoria de acceso rápido de un microprocesador, que guarda
temporalmente los datos recientes de los procesados (información).

La memoria caché es un búfer especial de memoria que poseen las computadoras, que funciona de manera
semejante a la memoria principal, pero es de menor tamaño y de acceso más rápido. Es usada por el
microprocesador para reducir el tiempo de acceso a datos ubicados en la memoria principal que se utilizan
con más frecuencia.

La caché es una memoria que se sitúa entre la unidad central de procesamiento (CPU) y la memoria de
acceso aleatorio (RAM) para acelerar el intercambio de datos.

Cuando se accede por primera vez a un dato, se hace una copia en la caché; los accesos siguientes se
realizan a dicha copia, haciendo que sea menor el tiempo de acceso medio al dato. Cuando el
microprocesador necesita leer o escribir en una ubicación en memoria principal, primero verifica si una
copia de los datos está en la caché; si es así, el microprocesador de inmediato lee o escribe en la memoria
caché, que es mucho más rápido que de la lectura o la escritura a la memoria principal.

10
1.2.3 Manejo de entrada/salida
En computación, entrada/salida, también abreviado E/S o I/O (del original en inglés input/output), es la
colección de interfaces que usan las distintas unidades funcionales (subsistemas) de un sistema de
procesamiento de información para comunicarse unas con otras, o las señales (información) enviadas a
través de esas interfaces. Las entradas son las señales recibidas por la unidad, mientras que las salidas
son las señales enviadas por ésta.

El término puede ser usado para describir una acción; "realizar una entrada/salida" se refiere a ejecutar
una operación de entrada o de salida. Los dispositivos de E/S los usa una persona u otro sistema para
comunicarse con una computadora. De hecho, a los teclados y ratones se los considera dispositivos de
entrada de una computadora, mientras que los monitores e impresoras son vistos como dispositivos de
salida de una computadora. Los dispositivos típicos para la comunicación entre computadoras realizan las
dos operaciones, tanto entrada como salida, y entre otros se encuentran los módems y tarjetas de red.

1.2.3.1 Módulos de entrada/salida


En primer término hablaremos de los dispositivos de entrada, que como su nombre lo indica, sirven para
introducir datos (información) a la computadora para su proceso. Los datos se leen de los dispositivos de
entrada y se almacenan en la memoria central o interna.

Los dispositivos de entrada convierten la información en señales eléctricas que se almacenan en la memoria
central. Los dispositivos de entrada típicos son los teclados, otros son: lápices ópticos, palancas de mando
(joystick), CD-ROM, discos compactos (CD), etc. Hoy en día es muy frecuente que el usuario utilice un
dispositivo de entrada llamado ratón que mueve un puntero electrónico sobre una pantalla que facilita la
interacción usuario-máquina.

1.2.3.2 Entrada/salida programada


Cuando el procesador está ejecutando un programa y encuentra una instrucción relacionada con una E/S,
ejecuta dicha instrucción mandando una orden al módulo E/S apropiado. Con E/S programada, el módulo
de E/S realizara la acción solicitada y después activara los bits apropiados en el registro de E/S. El
módulo de E/S no realiza ninguna otra acción para avisar al procesador. En concreto, no interrumpe al
procesador. De esta forma, el procesador es responsable de comprobar periódicamente el estado del
módulo de E/S hasta que encuentra que la operación ha terminado.

Para la explicar la técnica de la E/S programada, la consideramos primero desde el punto de vista de
las ordenes de E/S que envía la CPU al módulo de E/S, y después desde el punto de vista de las
instrucciones de E/S que ejecuta el procesador.

11
1.2.3.3 Entrada/salida mediante interrupciones
El problema con E/S programada es que el CPU tiene que esperar un tiempo considerable a que el módulo
de E/S en cuestión esté preparado para recibir o transmitir los datos. El CPU debe estar comprobando
continuamente el estado del módulo de E/S. Se degrada el desempeño del sistema. Una alternativa es
que el CPU tras enviar una orden de E/S continue realizando algún trabajo útil.

El módulo de E/S interrumpirá al CPU para solicitar su servicio cuando esté preparado para intercambiar
datos. El CPU ejecuta la transferencia de datos y después continúa con el procesamiento previo. Se pueden
distinguir dos tipos: E/S síncrona y E/S asíncrona

E/S Síncrona: cuando la operación de E/S finaliza, el control es retornado al proceso que la generó. La
espera por E/S se lleva a cabo por medio de una instrucción wait que coloca al CPU en un estado ocioso
hasta que ocurre otra interrupción. Aquellas máquinas que no tienen esta instrucción utilizan un loop. Este
loop continua hasta que ocurre una insterrupción transfiriendo el control a otra parte del sistema de
operación. Sólo se atiende una solicitud de E/S por vez. El sistema de operación conoce exactamente que
dispositivo está interrumpiendo. Esta alternativa excluye procesamiento simultáneo de E/S.

E/S Asíncrona: retorna al programa usuario sin esperar que la operación de E/S finalice. Se necesita una
llamada al sistema que le permita al usuario esperar por la finalización de E/S (si es requerido). También
es necesario llevar un control de las distintas solicitudes de E/S. Para ello el sistema de operación utiliza
una tabla que contiene una entrada por cada dispositivo de E/S (Tabla de Estado de Dispositivos). La
ventaja de este tipo de E/S es el incremento de la eficiencia del sistema. Mientras se lleva a cabo E/S, el
CPU puede ser usado para procesar o para planificar otras E/S. Como la E/S puede ser bastante lenta
comparada con la velocidad del CPU, el sistema hace un mejor uso de las facilidades.

Fuente: W. Stallings. Organización y arquitectura de computadores

12
1.2.3.4 Acceso directo a memoria
El acceso directo a memoria (DMA, del inglés direct memory access) permite a cierto tipo de componentes
de una computadora acceder a la memoria del sistema para leer o escribir independientemente de la
unidad central de procesamiento (CPU) principal. Muchos sistemas hardware utilizan DMA, incluyendo
controladores de unidades de disco, tarjetas gráficas y tarjetas de sonido. DMA es una característica
esencial en todos los ordenadores modernos, ya que permite a dispositivos de diferentes velocidades
comunicarse sin someter a la CPU a una carga masiva de interrupciones.

Una transferencia DMA consiste principalmente en copiar un bloque de memoria de un dispositivo a otro.
En lugar de que la CPU inicie la transferencia, la transferencia se lleva a cabo por el controlador DMA.
Un ejemplo típico es mover un bloque de memoria desde una memoria externa a una interna más rápida.
Tal operación no ocupa al procesador y, por ende, éste puede efectuar otras tareas. Las transferencias
DMA son esenciales para aumentar el rendimiento de aplicaciones que requieran muchos recursos.

Cabe destacar que aunque no se necesite a la CPU para la transacción de datos, sí se necesita el bus del
sistema (tanto bus de datos como bus de direcciones), por lo que existen diferentes estrategias para regular
su uso, permitiendo así que no quede totalmente acaparado por el controlador DMA.

El acceso directo a memoria es simplemente eso, un acceso a memoria que se crea al particionar la memoria
en bloques del mismo tamaño.

1.2.3.5 Canales y procesadores de entrada/salida


El canal de E/S representa una ampliación del concepto de DMA. Un canal de E/S puede ejecutar
instrucciones de E/S, lo que confiere un control completo sobre las operaciones de E/S. En un computador
con tales dispositivos, la CPU no ejecuta instrucciones de E/S. Dichas instrucciones se almacenan en memoria
principal para ser ejecutadas por un procesador de uso especifico contenido en el propio canal de E/S.
De esta forma la CPU inicia una transferencia de E/S indicando al canal de E/S que debe ejecutar un
programa de la memoria. El programa especifica el dispositivo(s), el área de memorias para el
almacenamiento la prioridad, y las acciones a realizar en ciertas situaciones de error. El canal de E/S sigue
estas instrucciones y controla la trasferencia de datos.

13
W. Stallings. Organización y arquitectura de computadores

1.2.4 Buses
En un sistema de computadores, los diversos subsistemas deben tener ir iterfaces entre sí; por ejemplo, la
memoria y la CPU necesitan comunicarse, así como la CPU y los dispositivos de E/S. Esto, normalmente, se
realiza con un bus. El bus sirve como enlace de comunicación compartido entre los subsistemas. Las dos
principales ventajas de la organización bus son bajo coste y versatilidad. Al definir un sencillo esquema de
interconexión, se pueden añadir fácilmente nuevos dispositivos y los periféricos pueden incluso compartirse
entre sistemas de computadores que utilicen un bus común. El coste es bajo, ya que un simple conjunto de
cables es un camino múltiple compartido.

Consideremos una transacción típica de un bus. Una transacción del bus incluye dos partes: enviar la
dirección y recibir o enviar el dato. Las transacciones del bus, normalmente, se definen por lo que hacen
en memoria: una transacción de lectura transfiere datos desde memoria (a la CPU o a un dispositivo de
E/S), y una transacción de escritura escribe datos en memoria. En una transacción de lectura, se envía
primero la dirección desde el bus a memoria, junto con señales de control adecuadas que indican una
lectura. La memoria responde devolviendo el dato al bus con señales de control adecuadas. Una
transacción de escritura requiere que la CPU o dispositivo de E/S envíe dirección y dato y no requiere
vuelta de datos. Habitualmente, la CPU debe esperar entre el envío de la dirección y la recepción del
dato de una lectura, pero la CPU, con frecuencia, no espera las escrituras.

14
1.2.4.1 Tipos de buses
Existen dos tipos que están clasificados por el método de envío de la información: bus paralelo o bus serial.

Hay diferencias en el rendimiento y hasta hace unos años se consideraba que el uso apropiado dependía
de la longitud física de la conexión: para cortas distancias el bus paralelo, para largas el serial.

Bus paralelo

Es un bus en el cual los datos son enviados por bytes al mismo tiempo, con la ayuda de varias líneas que
tienen funciones fijas. La cantidad de datos enviada es bastante grande con una frecuencia moderada y
es igual al ancho de los datos por la frecuencia de funcionamiento. En los computadores ha sido usado de
manera intensiva, desde el bus del procesador, los buses de discos duros, tarjetas de expansión y de vídeo,
hasta las impresoras.

El front-side bus de los procesadores Intel es un bus de este tipo y como cualquier bus presenta unas
funciones en líneas dedicadas:

 Las líneas de dirección son las encargadas de indicar la posición de memoria o el dispositivo con
el que se desea establecer comunicación.
 Las líneas de control son las encargadas de enviar señales de arbitraje entre los dispositivos. Entre
las más importantes están las líneas de interrupción, DMA y los indicadores de estado.
 Las líneas de datos transmiten los bits de forma aleatoria de manera que por lo general un bus
tiene un ancho que es potencia de 2.

Un bus paralelo tiene conexiones físicas complejas, pero la lógica es sencilla, que lo hace útil en sistemas
con poco poder de cómputo. En los primeros microcomputadores, el bus era simplemente la extensión del
bus del procesador y los demás integrados "escuchan" las línea de direcciones, en espera de recibir
instrucciones. En el PC IBM original, el diseño del bus fue determinante a la hora de elegir un procesador
con I/O de 8 bits (Intel 8088), sobre uno de 16 (el 8086), porque era posible usar hardware diseñado
para otros procesadores, abaratando el producto.

Bus serial

En este los datos son enviados, bit a bit y se reconstruyen por medio de registros o rutinas. Está formado
por pocos conductores y su ancho de banda depende de la frecuencia. Aunque originalmente fueron usados
para conectar dispositivos lentos (como el teclado o un ratón), actualmente se están usando para conectar
dispositivos mucho más rápidos como discos duros, unidades de estado sólido, tarjetas de expansión e
incluso para el bus del procesador.

15
1.2.4.2 Estructura de los buses
 Líneas de datos:

- Llevan datos y también comandos para los dispositivos de entrada / salida.


- Su amplitud influye en el rendimiento del bus
- Relacionado con el tamaño de palabra del sistema

 Líneas de dirección:

- Llevan direcciones de memoria en acceso a memoria, o permiten seleccionar un dispositivo


conectado al bus.
- Su amplitud determina el espacio de direcciones tanto de memoria como entrada / salida

 Líneas de control

- Son señales de control de acceso y uso del bus.


- Arbitraje del bus
- Sincronización de las comunicaciones
- Reloj del sistema

1.2.4.3 Jerarquías de buses


Tendencia a utilizar múltiples buses debido a que:

 Degradación del rendimiento a medida que aumenta el número de dispositivos colgados al bus.
 "Cuello de botella" de las comunicaciones debido a los tiempos de espera para acceder al bus.

Por ellos se introducen múltiples buses basando la jerarquía en los requerimientos de comunicación de los
dispositivos:

 Bus local: Conecta al procesador con la cache y con algún dispositivo e/s muy rápido.
 Bus del sistema: Conecta al procesador (a través de la cache) con la memoria del sistema y con
un segundo nivel de dispositivos de velocidad media.
 Bus de expansión: Se conecta al bus del sistema y hace de interfaz entre este y los dispositivos
más lentos

16
1.2.5 Interrupciones
En el contexto de la informática, una interrupción (del inglés Interrupt Request, también conocida como
petición de interrupción) es una señal recibida por el procesador de un ordenador, indicando que debe
"interrumpir" el curso de ejecución actual y pasar a ejecutar código específico para tratar esta situación.
Una interrupción es una suspensión temporal de la ejecución de un proceso, para pasar a ejecutar una
subrutina de servicio de interrupción, la cual, por lo general, no forma parte del programa, sino que
pertenece al sistema operativo o al BIOS). Una vez finalizada dicha subrutina, se reanuda la ejecución del
programa.

Las interrupciones surgen de la necesidad que tienen los dispositivos periféricos de enviar información al
procesador principal de un sistema informático.

La primera técnica que se empleó para esto fue el polling, que consistía en que el propio procesador se
encargara de sondear los dispositivos periféricos cada cierto tiempo para averiguar si tenía pendiente
alguna comunicación para él. Este método presentaba el inconveniente de ser muy ineficiente, ya que el
procesador consumía constantemente tiempo y recursos en realizar estas instrucciones de sondeo.

El mecanismo de interrupciones fue la solución que permitió al procesador desentenderse de esta


problemática, y delegar en el dispositivo periférico la responsabilidad de comunicarse con él cuando lo
necesitara. El procesador, en este caso, no sondea a ningún dispositivo, sino que queda a la espera de que
estos le avisen (le "interrumpan") cuando tengan algo que comunicarle (ya sea un evento, una transferencia
de información, una condición de error, etc.).

17
Conclusión
Las computadoras son verdaderamente importantes porque introduce un cambio cualitativo,
tanto en la organización como en el desarrollo del trabajo y el ocio. Y no por lo que es, sino
por lo que hace. Si hoy en día las computadoras realizan muchas cosas se puede decir que
en un futuro realizara todo o casi todo. Esta totalidad no es absoluta porque las aplicaciones
informáticas no están necesariamente limitadas por la esencia material de la computadora,
sino por el propio hombre.

En definitiva, la computadora es una máquina de propósitos o uso general. Los conceptos de


estructura física y de programación constituyen el soporte material y lógico de esa realidad.
Es una dualidad solidaria que también recibe los nombres de Hardware o soporte fisco y
Software o soporte lógico.

18
Referencia bibliográfica
W. Stallings. Organización y arquitectura de computadores, Pentice Hall 2006. [Fecha de
consulta: jueves, 05 de octubre de 2017]

L. Hennessy, A. Patterson. Arquitectura de computadoras: Un enfoque cuantitativo, McGraw Hill


2002. [Fecha de consulta: jueves, 05 de octubre de 2017]

P, Quiroga. Arquitectura de computadoras, Alfaomega Grupo Editor, 2010. Disponible en:


http://grupomera.net/eBooks-PDF/UEES/Arquitectura%20de%20Computadoras%20-
%20Patricia%20Quiroga.pdf. [Fecha de consulta: jueves, 05 de octubre de 2017]

B. Vázquez. Arquitectura de computadoras I, Red Tercer Milenio, 2012. Disponible en:


http://www.aliat.org.mx/BibliotecasDigitales/sistemas/Arquitectura_computadoras_I.pdf.
[Fecha de consulta: jueves, 05 de octubre de 2017]

19

También podría gustarte