Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ARQUITECTURA DE COMPUTADORAS
Alumna:
Dulce Belem Mendoza Acuña
No. Control
18620115
Actividad:
Reporte de investigación: Modelo Von Neumann y Modelo Harvard.
Arquitecturas CISC y RISC
Docente:
Ing. Isaac Aquino Aquino
Carrera:
Ingeniera en Sistemas Computacionales
Grupo: 5US
Para ello, se ha realizado una breve investigación, la cual abarca las arquitecturas
Von Neumann y Harvard, así como también las arquitecturas CISC y RISC. Durante
el presente se describe el modelo computacional que sigue cada una de estas
arquitecturas y cuál es el proceso que siguen al momento de ser ejecutadas,
considerando sus características, ventajas, desventajas y algunas aplicaciones.
CONTENIDO
En 1945 John Von Neumann creó un modelo computacional que se caracteriza por
disponer de una única memoria principal en la que se almacenan los datos y las
instrucciones. La memoria estaba dividida en dos zonas, la primera para almacenar
el programa que se debía ejecutar y la segunda, para retener los datos. Esta
característica es la parte fundamental de las computadoras, porque un comando del
programa para ser ejecutado debe estar necesariamente en la unidad central de
procesamiento. De este modo, se gana velocidad de ejecución del conjunto de
instrucciones que componen los programas. (Ortega, 2015)
La solución fue poner las instrucciones en la misma memoria que los datos,
escribiéndolas de la misma forma, en código binario, “arquitectura de Von
Neumann”. La EDVAC fue el modelo de las computadoras de este tipo. (Ortega,
2015)
1
El modelo define una computadora como cuatro subsistemas:
• La memoria.
• La unidad aritmético-lógica o ALU.
• La unidad de control.
• Un dispositivo de entrada/salida
Se puede decir que una computadora está formada por tres partes fundamentales,
aunque una de ellas es subdividida en dos partes no menos importantes. En la figura
siguiente se muestran dichas partes, llamadas genéricamente unidades funcionales
debido a que, desde el punto de vista del funcionamiento, son independientes.
(Ortega, 2015)
2
Y por último se encuentra la unidad de control que es aquella que tiene como
objetivo buscar instrucciones en la memoria principal y ejecutarlas luego de
decodificarlas. (Castillo, 2016)
• ALU: Es donde el cálculo aritmético y las operaciones lógicas toman lugar.
Si una computadora es un procesador de datos, se debería poder realizar
operaciones aritméticas con los datos (por ejemplo, sumar una lista de
números). También debería poderse realizar operaciones lógicas con ellos
(por ejemplo, encontrar el menor de dos elementos de datos). (Ortega, 2015)
• UC: Determina las operaciones de la memoria, de la ALU y del subsistema
de Entrada/Salida. (Ortega, 2015)
• Memoria principal: Es un conjunto de celdas del mismo tamaño que están
asociadas con un número denominado dirección de memoria y sirve para
almacenar datos de manera temporal para ser utilizados posteriormente.
(Castillo, 2016)
• Unidad de Entradas y Salidas: Será la encargada de la comunicación con
el exterior a través de los periféricos. Estos periféricos pueden ser: de
entrada, como los teclados; de salida, como los tubos de rayos catódicos, y
de entrada y salida, como los discos magnéticos. (Ortega, 2015)
• Periférico de entrada: se le llamó de esta manera a todo dispositivo que
permitiera alimentar de información al sistema básico de cómputo.
(Amador, 2012)
• Periférico de salida: así se le llamo desde entonces a cualquier
dispositivo que permitiera dar a conocer la información procesada por el
equipo de cómputo a un usuario. (Amador, 2012)
3
El esquema original del modelo de Von Neuman era el siguiente:
• La memoria,
• La unidad Aritmética lógica,
• La unidad de control del programa y
• Los equipos de entrada y salida.
La memoria constaba de 4096 palabras, cada una con 40 bits. Cada palabra podía
contener 2 instrucciones de 20 bits o un número entero de 39 bits y su signo. Las
instrucciones tenían 8 bits dedicados a señalar el tiempo de la misma y 12 bits para
especificar alguna de las 4096 palabras de la memoria. (Ortega, 2015)
4
Una palabra está formada a su vez de unidades más elementales llamadas bits, del
mismo modo que en el lenguaje natural una palabra está formada por letras.
(Ortega, 2015)
El número de bits que forman una palabra se llama longitud de palabra. Por regla
general, las computadoras potentes tienen memorias con longitud de palabra
grande, mientras que las computadoras pequeñas tienen memorias con longitud de
palabra menor. (Ortega, 2015)
5
Ilustración 5 Periféricos de E/S
6
El bus de datos es la forma de interconectar la CPU, la memoria principal y E/S en
una computadora. El CPU y la memoria por lo general se conectan por medio de
tres grupos de líneas, cada una llamada bus:
• Bus de datos: Este está formado por varias líneas de control que
transportan 1 bit a la vez, el número de líneas va a depender del tamaño
de la palabra. Si la palabra mide 32 bits (4 bits), se necesita un bus de
datos con 32 líneas de modo que todos los 32 bits de una sola palabra
puedan transmitirse al mismo tiempo. (Ortega, 2015)
• Bus de Direcciones: Este permite el acceso a una palabra en particular
en la memoria. El número de líneas depende del espacio de
direccionamiento de la memoria. Ej. Si la memoria tiene 2n palabras, el bus
de direcciones necesita transporta n bits a la vez. (Ortega, 2015)
• Bus de Control: El bus de control lleva la comunicación entre el CPU y la
memoria. Es decir, debe haber un código enviado desde el CPU a la
memora para especificar una operación de lectura y escritura. El número
de líneas en este bus depende del número total de comandos que necesita
la computadora. Ej. Si una computadora tiene 2 n acciones de control,
necesita m líneas para el bus de control porque m bits pueden definir
2n operaciones diferente. (Ortega, 2015)
7
Un ordenador con esta arquitectura realiza o emula los siguientes pasos
secuencialmente:
8
CUELLO DE BOTELLA DE VON NEUMANN
MODELO HARVARD
Es decir, es el término utilizado para un sistema informático que contiene dos áreas
separadas: para los comandos o instrucciones y para los datos. Por tanto, la función
principal de esta arquitectura es almacenar los datos separados físicamente,
proporcionando diferentes rutas de señal para las instrucciones y los datos. (Corvo,
2016)
9
Ilustración 7 Modelo Harvard
En esta arquitectura pueden ser desiguales tanto el formato como los medios de
estos dos segmentos del sistema, ya que las dos partes están constituidas por dos
estructuras separadas. (Corvo, 2016)
Modelo
10
Ilustración 8 Estructuración del modelo Harvard
Por tanto, el modelo Harvard resulta tener mayor complejidad. Sin embargo, al tener
los buses de forma independiente se evita el cuello de botella producido por la
arquitectura Von Neumann. (Corvo, 2016)
Una computadora puede ser más veloz para un circuito de cierta complejidad,
porque buscar las instrucciones y acceder a los datos no tienen que luchar por un
solo bus de memoria. Para trabajar existen dos direcciones de memoria. Por tanto,
hay un registro de memoria para las instrucciones de máquina y otro registro de
memoria para los datos. A diferencia de la arquitectura Von Neumann, que utiliza
un bus para mover tanto las instrucciones como los datos de la memoria, la
arquitectura Harvard usa un área de memoria para los datos y otro para las
instrucciones.
11
Contraste con arquitecturas Von Neumann
Además, las características de las dos memorias son distintas, por lo que la
dirección del espacio cero de instrucciones no es lo mismo que la dirección del
espacio cero de datos: La dirección cero de la memoria de instrucciones podría
identificar un valor de veinticuatro bits, mientras que la dirección cero de la memoria
de datos cero podría indicar un valor de ocho bits que no forma parte de ese valor
de veinticuatro bits. (EcuRed, 2019)
12
Arquitectura Harvard modificada
13
Por ejemplo, en una versión simple de esta arquitectura, la unidad de recuperación
del programa podría estar ocupada recuperando la siguiente instrucción en la
secuencia del programa y en paralelo realizar una operación de transferencia de
datos que pudieron haber sido parte de la anterior instrucción del programa. En este
nivel la arquitectura Harvard tiene una limitación, ya que generalmente no es posible
colocar el código del programa en la memoria de datos y ejecutarlo desde allí.
(Corvo, 2016)
Adiciones en la arquitectura
Sistema de memoria
Como se tiene un área de memoria separado para las instrucciones y los datos,
separando tanto las señales como el almacenamiento en memoria del código y los
datos, esto hace posible acceder simultáneamente a cada uno de los sistemas de
memoria. (Corvo, 2016)
Ventajas
14
• Las dos memorias pueden usar diferentes tamaños de celda, con lo cual se
hace un uso efectivo de los recursos. (Corvo, 2016)
• Se tiene un mayor ancho de banda de memoria, que es más predecible por
tener memorias separadas para las instrucciones y datos. (Corvo, 2016)
Nivel de protección
Es por eso que es popular con los sistemas integrados pequeños, como el
microondas o un reloj.
Mayor velocidad
Una arquitectura Harvard generalmente ayudará a que una computadora con cierto
nivel de complejidad funcione más rápido que una arquitectura Von Neumann,
siempre que no sea necesario compartir recursos entre las memorias de datos y del
código. Si las limitaciones de pines u otros factores obligan al uso de un solo bus
para acceder a ambos espacios de memoria, es probable que tales ventajas se
anulen en gran medida. (Corvo, 2016)
15
Desventajas
16
El diseño arquitectónico de la unidad central de procesamiento (CPU) define su
capacidad de respuesta. La arquitectura es el conjunto de instrucciones necesarias
para realizar operaciones y direccionamiento dentro del computador. La actividad y
el funcionamiento dependerán de la
"Arquitectura del conjunto de
instrucciones" con la cual fue diseñada. El
diseño de la CPU define cuales y cuantas
acciones de bajo nivel se ejecutan por
cada instrucción. La estrategia de diseño
de la CPU pretende mejorar la eficiencia
Ilustración 10 Microprocesadores
del equipo. Está basada en el concepto
que el rendimiento aumenta cuando se combina un conjunto de instrucciones
y microprocesadores. (Mac, 2019)
Microprocesadores RISC
Una computadora RISC es una computadora que solo usa comandos simples que
se pueden dividir en varias instrucciones. De esta forma logran ejecutar una
operación de bajo nivel dentro de un solo ciclo, de allí su nombre. Estos conjuntos
simples de instrucciones se completan normalmente en un ciclo de reloj de la
computadora. También son medidos por el número de pulsos del oscilador por
segundo que el procesador de tu equipo puede manejar. (Mac, 2019)
17
Este microprocesador utiliza un conjunto pequeño o
reducido de instrucciones. Se espera que cada
instrucción ejecute tareas muy pequeñas. En este
equipo, los conjuntos de instrucciones son sencillos y
simples, lo que ayuda a construir comandos más
complejos. Cada instrucción tiene una longitud
similar; estos se unen para realizar tareas
Ilustración 11 Microprocesador RISC
compuestas en una sola operación. La mayoría de
los comandos se completan en un ciclo de máquina. Esta canalización es una
técnica crucial utilizada para acelerar las máquinas RISC. (Mac, 2019)
18
Microprocesadores CISC
19
Es posible obtener una serie de instrucciones innovadoras a partir de un conjunto
simple de éstas. Se diseñan instrucciones compuestas a partir de un conjunto
simple de las mismas. También es posible lograr la ejecución de procesos de bajo
nivel. Esto facilita mantener grandes nodos de direccionamiento y datos adicionales
en el hardware de una máquina. Sin embargo, CISC se considera menos eficiente
que RISC. Esto se debe a su incompetencia para eliminar códigos que conducen a
la pérdida de ciclos. (Mac, 2019)
Además, que los chips del microprocesador son difíciles de entender y programar
debido a la complejidad del hardware. Estos elementos permiten generar procesos
multitarea. (Mac, 2019)
20
• Memoria externa y Tiempo: RISC no requiere memoria externa para los
cálculos. CISC requiere memoria externa para los cálculos. El tiempo de
ejecución es menor en RISC. El tiempo de ejecución es muy alto en CISC.
(Mac, 2019)
• Estancamiento: El estancamiento RISC se reduce principalmente en los
procesadores. Los procesadores CISC a menudo se estancan. (Mac, 2019)
• Expansión de código y Espacio en disco: La expansión de código puede
ser un problema en RISC mientras que, en CISC, la expansión de código no
es un problema. El espacio se optimiza en RISC mientras que en CISC se
desperdicia espacio. (Mac, 2019)
Ejemplos de microprocesadores
Mientras que los mejores ejemplos de arquitectura RISC incluyen DEC Alpha, ARC,
AMD 29k, Atmel AVR, Intel i860. Igualmente, Blackfin, i960, Motorola 88000, MIPS,
PA-RISC, Power, SPARC, SuperH y ARM también. (Mac, 2019)
21
CONCLUSIONES
Puedo concluir diciendo, que es importante conocer los tipos de arquitecturas que
existen hoy en día, debido a que en base a sus características se pueden emplear
en distintos sistemas, todo acorde a la utilidad que se le desee dar.
Por otra parte, existen las arquitecturas CISC y RISC, las cuales son empleadas
generalmente en microprocesadores, y si bien, estos son el corazón de un equipo
informático, por ello, es algo esencial conocer el modelo que cada una de estar
arquitecturas sigue al momento de su ejecución, y así obtener un sistema funcional
libre de fallas por parte del hardware y de errores por parte del software.
22
BIBLIOGRAFÍA
23