Está en la página 1de 27

Instituto Tecnológico de Tlaxiaco

“2019, Año del Caudillo del Sur, Emiliano Zapata”

TECNOLÓGICO NACIONAL DE MÉXICO


INSTITUTO TECNOLÓGICO DE TLAXIACO

ARQUITECTURA DE COMPUTADORAS

Alumna:
Dulce Belem Mendoza Acuña

No. Control
18620115

Actividad:
Reporte de investigación: Modelo Von Neumann y Modelo Harvard.
Arquitecturas CISC y RISC

Docente:
Ing. Isaac Aquino Aquino

Carrera:
Ingeniera en Sistemas Computacionales
Grupo: 5US

Semestre: Agosto – Diciembre 2020

Tlaxiaco, Oaxaca., 01 de Octubre de 2020.


“Educación, Ciencia y Tecnología, Progresos día con día” ®
Boulevard Tecnológico Km. 2.5, Llano Yosovee C.P. 69800. Tlaxiaco. Oax. México.

Tels. Dir. (953) 55 20788, (953) 55 21322, (953) 55 20405 e-mail:

dir_tlaxiaco@tecnm.mx | www.tlaxiaco.tecnm.mx axiaco.tecnm.mx


ÍNDICE

LISTA DE ILUSTRACIONES ......................................................................................................... 3


INTRODUCCIÓN .............................................................................................................................. 4
CONTENIDO ..................................................................................................................................... 1
MODELO DE VON NEUMANN .................................................................................................. 1
CUELLO DE BOTELLA DE VON NEUMANN ..................................................................... 9
MODELO HARVARD ................................................................................................................... 9
ARQUITECTURAS CISC Y RISC............................................................................................ 16
CONCLUSIONES........................................................................................................................... 22
BIBLIOGRAFÍA .............................................................................................................................. 23
LISTA DE ILUSTRACIONES

Ilustración 1 Modelo Von Neumann ____________________________________ 1


Ilustración 2 Unidades funcionales del modelo Von Neumann________________ 2
Ilustración 3 Esquema original del modelo Von Neumann ___________________ 4
Ilustración 4 Organización de memoria principal __________________________ 5
Ilustración 5 Periféricos de E/S _______________________________________ 6
Ilustración 6 Cuello de botella de Von Neumann __________________________ 9
Ilustración 7 Modelo Harvard ________________________________________ 10
Ilustración 8 Estructuración del modelo Harvard _________________________ 11
Ilustración 9 Contraste con arquitecturas Von Neumann ___________________ 12
Ilustración 10 Microprocesadores_____________________________________ 17
Ilustración 11 Microprocesador RISC __________________________________ 18
Ilustración 12 Microprocesador CISC __________________________________ 19
INTRODUCCIÓN

En la actualidad, el mundo tecnológico avanza día tras día, lo hace mediante la


innovación de herramientas ya existentes o bien, crea nuevos recursos útiles y
funcionales para desarrollar determinadas actividades de la vida diaria. Para que
todo esto sea posible, es necesario indicar de manera adecuada los requerimientos
de cada sistema, comenzando desde el punto más insignificante y culminando hasta
en los detalles más complejos.

Un de los requerimientos esenciales que se debe de considerar antes de desarrollar


un sistema, es la arquitectura en la cual este se va a ejecutar, al igual, se debe de
contemplar la parte del hardware del equipo empleado, inicializando por el
procesador.

Para ello, se ha realizado una breve investigación, la cual abarca las arquitecturas
Von Neumann y Harvard, así como también las arquitecturas CISC y RISC. Durante
el presente se describe el modelo computacional que sigue cada una de estas
arquitecturas y cuál es el proceso que siguen al momento de ser ejecutadas,
considerando sus características, ventajas, desventajas y algunas aplicaciones.
CONTENIDO

MODELO DE VON NEUMANN

El modelo de Von Neumann también conocido como Arquitectura Von Neumann o


arquitectura Princeton es, como su nombre lo indica, una arquitectura de
computadoras, es decir un modelo
conceptual que muestra cómo
funciona una computadora
(Máquina electrónica digital
programable para el tratamiento
automático de la información,
capaz de recibirla, operar sobre
ella mediante procesos
determinados y suministrar los
Ilustración 1 Modelo Von Neumann
resultados de dichas operaciones)
y la forma en la que se interconectan los componentes de hardware. Este modelo
está basado en el explicado por el físico y matemático John Von Neumann en el
año 1945. (Castillo, 2016)

En 1945 John Von Neumann creó un modelo computacional que se caracteriza por
disponer de una única memoria principal en la que se almacenan los datos y las
instrucciones. La memoria estaba dividida en dos zonas, la primera para almacenar
el programa que se debía ejecutar y la segunda, para retener los datos. Esta
característica es la parte fundamental de las computadoras, porque un comando del
programa para ser ejecutado debe estar necesariamente en la unidad central de
procesamiento. De este modo, se gana velocidad de ejecución del conjunto de
instrucciones que componen los programas. (Ortega, 2015)

La solución fue poner las instrucciones en la misma memoria que los datos,
escribiéndolas de la misma forma, en código binario, “arquitectura de Von
Neumann”. La EDVAC fue el modelo de las computadoras de este tipo. (Ortega,
2015)

1
El modelo define una computadora como cuatro subsistemas:

• La memoria.
• La unidad aritmético-lógica o ALU.
• La unidad de control.
• Un dispositivo de entrada/salida

Se puede decir que una computadora está formada por tres partes fundamentales,
aunque una de ellas es subdividida en dos partes no menos importantes. En la figura
siguiente se muestran dichas partes, llamadas genéricamente unidades funcionales
debido a que, desde el punto de vista del funcionamiento, son independientes.
(Ortega, 2015)

Ilustración 2 Unidades funcionales del modelo Von Neumann

• Unidad Central de Procesamiento: Es la encargada de interpretar y procesar


las instrucciones recibidas de un programa a través de la realización de
operaciones básicas aritméticas (Suma, resta, multiplicación y división) y
lógicas (AND, OR y NOT) realizadas por la Unidad Aritmética Lógica. Para
esto utiliza los registros del procesador que son una pequeña memoria que
almacena datos binarios y tiene un tiempo de acceso cinco a diez veces
menor que la memoria principal, uno de los registros es denominado Program
Counter y es quien calcula automáticamente la cantidad de ciclos de
ejecución y apunta a la próxima instrucción en ser ejecutada. (Castillo, 2016)

2
Y por último se encuentra la unidad de control que es aquella que tiene como
objetivo buscar instrucciones en la memoria principal y ejecutarlas luego de
decodificarlas. (Castillo, 2016)
• ALU: Es donde el cálculo aritmético y las operaciones lógicas toman lugar.
Si una computadora es un procesador de datos, se debería poder realizar
operaciones aritméticas con los datos (por ejemplo, sumar una lista de
números). También debería poderse realizar operaciones lógicas con ellos
(por ejemplo, encontrar el menor de dos elementos de datos). (Ortega, 2015)
• UC: Determina las operaciones de la memoria, de la ALU y del subsistema
de Entrada/Salida. (Ortega, 2015)
• Memoria principal: Es un conjunto de celdas del mismo tamaño que están
asociadas con un número denominado dirección de memoria y sirve para
almacenar datos de manera temporal para ser utilizados posteriormente.
(Castillo, 2016)
• Unidad de Entradas y Salidas: Será la encargada de la comunicación con
el exterior a través de los periféricos. Estos periféricos pueden ser: de
entrada, como los teclados; de salida, como los tubos de rayos catódicos, y
de entrada y salida, como los discos magnéticos. (Ortega, 2015)
• Periférico de entrada: se le llamó de esta manera a todo dispositivo que
permitiera alimentar de información al sistema básico de cómputo.
(Amador, 2012)
• Periférico de salida: así se le llamo desde entonces a cualquier
dispositivo que permitiera dar a conocer la información procesada por el
equipo de cómputo a un usuario. (Amador, 2012)

3
El esquema original del modelo de Von Neuman era el siguiente:

Ilustración 3 Esquema original del modelo Von Neumann

La máquina de Von Neumann tenía 5 partes básicas:

• La memoria,
• La unidad Aritmética lógica,
• La unidad de control del programa y
• Los equipos de entrada y salida.

La memoria principal está formada por un conjunto de unidades llamadas palabras.


Dentro de cada una de estas palabras se guarda la información que constituye una
instrucción o parte de ella (puede darse el caso de que una sola instrucción necesite
varias palabras), o un dato o parte de un dato (también un dato puede ocupar varias
palabras). (Ortega, 2015)

La memoria constaba de 4096 palabras, cada una con 40 bits. Cada palabra podía
contener 2 instrucciones de 20 bits o un número entero de 39 bits y su signo. Las
instrucciones tenían 8 bits dedicados a señalar el tiempo de la misma y 12 bits para
especificar alguna de las 4096 palabras de la memoria. (Ortega, 2015)

A la cantidad de palabras que forman la MP se le denomina capacidad de memoria.


De este modo, cuanto mayor sea el número de palabras mayor será el número de
instrucciones y datos que podrá almacenar la computadora. (Ortega, 2015)

4
Una palabra está formada a su vez de unidades más elementales llamadas bits, del
mismo modo que en el lenguaje natural una palabra está formada por letras.
(Ortega, 2015)

El número de bits que forman una palabra se llama longitud de palabra. Por regla
general, las computadoras potentes tienen memorias con longitud de palabra
grande, mientras que las computadoras pequeñas tienen memorias con longitud de
palabra menor. (Ortega, 2015)

En la figura siguiente se muestra cómo se puede estar organizada una memoria


principal.

Ilustración 4 Organización de memoria principal

Dentro de la unidad aritmética-lógica, había un registro interno especial de 40 bits


llamado acumulador. Una instrucción típica era sumar una palabra de la memoria al
acumulador o almacenarlo en la memoria. (Ortega, 2015)

La comunicación es necesaria entre el interior de la computadora y su entorno o


periferia. Esta comunicación se consigue a través de dispositivos de muy diversos
tipos, como son: teclados, impresoras, pantallas, discos magnéticos, entre otros.
Estos dispositivos se les conoce con el nombre genérico de periféricos. (Ortega,
2015)

En la siguiente figura se muestran algunos periféricos conectados a la Unidad de


E/S, la cual hace de intermediaria entre los periféricos y la CPU. Las flechas indican
el sentido en que fluye la información.

5
Ilustración 5 Periféricos de E/S

La coordinación de la comunicación entre los periféricos y la CPU la realiza la


Unidad de E/S. Obsérvese que esta no es un periférico sino un dispositivo que
gestiona a los periféricos siguiendo las órdenes de la CPU; es decir, la Unidad de
E/S recibe de la Unidad de Control información sobre el tipo de transferencia de
datos que debe realizar (si es de entrada o de salida) y periférico que debe de
utilizar; si es de salida recibirá también el dato que debe enviar y el momento de la
operación. (Ortega, 2015)

Entonces, la Unidad de E/S seleccionara el periférico y ejecutara la operación


teniendo en cuanta las características propias de cada periférico. Una vez ejecutada
la orden avisara a la UC de la terminación de la transferencia. (Ortega, 2015)

Cada periférico o parte de un periférico tendrá asignado un numero o dirección que


servirá para identificarlo. Cuando la UC quiera seleccionarlo enviara dicho número
a la Unidad de E/S. (Ortega, 2015)

El cerebro de la PC y compatibles es un microprocesador basado en la familia


8086 de Intel, que realiza todo el procesamiento de datos e instrucciones. Los
procesadores varían en velocidad y capacidad de memoria, registros y bus de
datos. (Ortega, 2015)

6
El bus de datos es la forma de interconectar la CPU, la memoria principal y E/S en
una computadora. El CPU y la memoria por lo general se conectan por medio de
tres grupos de líneas, cada una llamada bus:

• Bus de datos: Este está formado por varias líneas de control que
transportan 1 bit a la vez, el número de líneas va a depender del tamaño
de la palabra. Si la palabra mide 32 bits (4 bits), se necesita un bus de
datos con 32 líneas de modo que todos los 32 bits de una sola palabra
puedan transmitirse al mismo tiempo. (Ortega, 2015)
• Bus de Direcciones: Este permite el acceso a una palabra en particular
en la memoria. El número de líneas depende del espacio de
direccionamiento de la memoria. Ej. Si la memoria tiene 2n palabras, el bus
de direcciones necesita transporta n bits a la vez. (Ortega, 2015)
• Bus de Control: El bus de control lleva la comunicación entre el CPU y la
memoria. Es decir, debe haber un código enviado desde el CPU a la
memora para especificar una operación de lectura y escritura. El número
de líneas en este bus depende del número total de comandos que necesita
la computadora. Ej. Si una computadora tiene 2 n acciones de control,
necesita m líneas para el bus de control porque m bits pueden definir
2n operaciones diferente. (Ortega, 2015)

Un programa en el modelo de Von Neumann se conforma de un número finito de


instrucciones. En este modelo, la unidad de control trae una instrucción de la
memoria, la interpreta y luego la ejecuta, es decir, las instrucciones se ejecutan una
después de otra, Desde luego, una instrucción puede requerir que la unidad de
control salte a algunas instrucciones previas o posteriores, no significa que las
instrucciones no se ejecutan de manera secuencial. (Ortega, 2015)

7
Un ordenador con esta arquitectura realiza o emula los siguientes pasos
secuencialmente:

1. Enciende el ordenador y obtiene la siguiente instrucción desde la


memoria en la dirección (Para poder acceder a una ubicación
específica de la memoria, la CPU genera señales en el bus de
dirección, que habitualmente tiene un tamaño de 32 bits en la
mayoría de máquinas actuales) indicada por el contador de programa
(registro del procesador) y la guarda en el registro de instrucción (se
almacena la instrucción que se está ejecutando). (Ortega, 2015)
2. Aumenta el contador de programa en la longitud de la instrucción
para apuntar a la siguiente. (Ortega, 2015)
3. Decodifica la instrucción mediante la unidad de control. Ésta se
encarga de coordinar el resto de componentes del ordenador para
realizar una función determinada. (Ortega, 2015)
4. Se ejecuta la instrucción. Ésta puede cambiar el valor del contador
del programa, permitiendo así operaciones repetitivas. El contador
puede cambiar también cuando se cumpla una cierta condición
aritmética, haciendo que el ordenador pueda ‘tomar decisiones’, que
pueden alcanzar cualquier grado de complejidad, mediante la
aritmética y lógica anteriores. (Ortega, 2015)
5. Vuelve al paso 1.

8
CUELLO DE BOTELLA DE VON NEUMANN

Debido a que la memoria principal está separada de la Unidad Central de


Procesamiento, se genera un cuello de botella o un rendimiento limitado entre estos
dos componentes ya que la
velocidad de transmisión de datos no
está acorde a la cantidad de la
misma. Para atenuar este
inconveniente existen diferentes
mecanismos. Unos de los más
populares es la inclusión de una
Ilustración 6 Cuello de botella de Von Neumann
llamada memoria caché entre la
CPU y la memoria o el denominado Pipeline que permite iniciar instrucciones antes
de terminar el ciclo de instrucción del anterior, es decir que de esta forma existiría
un trabajo en paralelo. (Castillo, 2016)

MODELO HARVARD

La arquitectura Harvard es una configuración de la computadora en la que los datos


y las instrucciones de un programa se encuentran en celdas separadas de memoria,
que se pueden abordar de forma independiente. (Corvo, 2016)

Es decir, es el término utilizado para un sistema informático que contiene dos áreas
separadas: para los comandos o instrucciones y para los datos. Por tanto, la función
principal de esta arquitectura es almacenar los datos separados físicamente,
proporcionando diferentes rutas de señal para las instrucciones y los datos. (Corvo,
2016)

9
Ilustración 7 Modelo Harvard

En esta arquitectura pueden ser desiguales tanto el formato como los medios de
estos dos segmentos del sistema, ya que las dos partes están constituidas por dos
estructuras separadas. (Corvo, 2016)

Algunos ejemplos de arquitecturas Harvard involucran los primeros sistemas


informáticos, donde las instrucciones del programa podían estar en un medio, por
ejemplo, en tarjetas perforadas, y los datos almacenados podían estar en otro
medio, por ejemplo, en cintas magnéticas. (Corvo, 2016)

Modelo

Este modelo se caracteriza en que los buses de información y el almacenamiento


se encuentran separados físicamente para los datos y el código del programa.
Como los buses funcionan de manera autónoma, los datos y las instrucciones del
programa se pueden obtener al mismo tiempo, mejorando así la velocidad sobre el
diseño de bus único. (Corvo, 2016)

10
Ilustración 8 Estructuración del modelo Harvard

Por tanto, el modelo Harvard resulta tener mayor complejidad. Sin embargo, al tener
los buses de forma independiente se evita el cuello de botella producido por la
arquitectura Von Neumann. (Corvo, 2016)

Una computadora puede ser más veloz para un circuito de cierta complejidad,
porque buscar las instrucciones y acceder a los datos no tienen que luchar por un
solo bus de memoria. Para trabajar existen dos direcciones de memoria. Por tanto,
hay un registro de memoria para las instrucciones de máquina y otro registro de
memoria para los datos. A diferencia de la arquitectura Von Neumann, que utiliza
un bus para mover tanto las instrucciones como los datos de la memoria, la
arquitectura Harvard usa un área de memoria para los datos y otro para las
instrucciones.

11
Contraste con arquitecturas Von Neumann

Bajo arquitectura de Von


Neumann pura, la CPU
puede estar bien leyendo
una instrucción o
leyendo/escribiendo
datos desde/hacia la
memoria, pero ambos
procesos no pueden
ocurrir al mismo tiempo,
ya que las instrucciones
y datos usan el mismo
Ilustración 9 Contraste con arquitecturas Von Neumann
sistema de buses. En
una computadora que utiliza la arquitectura Harvard, la CPU puede tanto leer una
instrucción como realizar un acceso a la memoria de datos al mismo tiempo, incluso
sin una memoria caché. En consecuencia, una arquitectura de computadores
Harvard puede ser más rápida para un circuito complejo, debido a que la instrucción
obtiene acceso a datos y no compite por una única vía de memoria. (EcuRed, 2019)

Además, las características de las dos memorias son distintas, por lo que la
dirección del espacio cero de instrucciones no es lo mismo que la dirección del
espacio cero de datos: La dirección cero de la memoria de instrucciones podría
identificar un valor de veinticuatro bits, mientras que la dirección cero de la memoria
de datos cero podría indicar un valor de ocho bits que no forma parte de ese valor
de veinticuatro bits. (EcuRed, 2019)

12
Arquitectura Harvard modificada

En las computadoras actuales no existe físicamente una disgregación de las áreas


de memoria utilizadas por los programas y los datos. Por tal motivo se podría decir
que tecnológicamente tienen una arquitectura Von Neumann. No obstante, la
arquitectura Harvard modificada sirve para representar de la mejor manera a las
computadoras de hoy en día. (Corvo, 2016)

Aunque las unidades de procesamiento actuales comparten la memoria, disponen


de ciertos elementos, tales como instrucciones exclusivas, que impiden que los
datos se enreden con las instrucciones. A esto se llama arquitectura Harvard
modificada. Así, la arquitectura Harvard modificada tiene dos buses separados, uno
para el código y otro para los datos, pero la memoria en sí es un elemento
compartido físicamente. (Corvo, 2016)

El controlador de memoria es donde se asienta el cambio, porque este dispositivo


es el que maneja la memoria y cómo se debe utilizar. Los diseños de las
computadoras modernas tienen como soporte la arquitectura Harvard modificada.
Se usan en los microcontroladores y en el procesamiento de señal digital. (Corvo,
2016)

¿Cómo funciona la arquitectura Harvard?

La arquitectura Harvard tiene áreas diferentes de direcciones de memoria para el


programa y para los datos. Esto trae como consecuencia la capacidad de diseñar
un circuito de tal manera que se pueda usar un bus y un circuito de control para
manejar el flujo de información desde la memoria del programa y otro separado para
manejar el flujo de información hacia la memoria de datos. El uso de buses
separados significa que es posible que la recuperación y ejecución de un programa
se realice sin que haya ninguna interrupción por alguna transferencia ocasional de
datos a la memoria de datos. (Corvo, 2016)

13
Por ejemplo, en una versión simple de esta arquitectura, la unidad de recuperación
del programa podría estar ocupada recuperando la siguiente instrucción en la
secuencia del programa y en paralelo realizar una operación de transferencia de
datos que pudieron haber sido parte de la anterior instrucción del programa. En este
nivel la arquitectura Harvard tiene una limitación, ya que generalmente no es posible
colocar el código del programa en la memoria de datos y ejecutarlo desde allí.
(Corvo, 2016)

Adiciones en la arquitectura

A la forma simple de la arquitectura Harvard se pueden agregar muchas variantes


existentes de mayor complicación. Una adición común es agregar un
almacenamiento caché de instrucciones al bus de datos del programa, que le
permita a la unidad de ejecución de instrucciones un acceso más rápido al siguiente
paso del programa, sin tener que ir a una memoria más lenta para obtener el paso
del programa cada vez que se requiera. (Corvo, 2016)

Sistema de memoria

Como se tiene un área de memoria separado para las instrucciones y los datos,
separando tanto las señales como el almacenamiento en memoria del código y los
datos, esto hace posible acceder simultáneamente a cada uno de los sistemas de
memoria. (Corvo, 2016)

Ventajas

• Hay menos posibilidades de corrupción en la transmisión, ya que los datos y


las instrucciones se transfieren a través de diferentes buses. (Corvo, 2016)
• Se accede a los datos y a las instrucciones de la misma manera. (Corvo,
2016)
• Permite diferentes medios de almacenamiento para las instrucciones y los
datos. Por ejemplo, se pueden poner las instrucciones en una ROM
económica y los datos en una RAM costosa. (Corvo, 2016)

14
• Las dos memorias pueden usar diferentes tamaños de celda, con lo cual se
hace un uso efectivo de los recursos. (Corvo, 2016)
• Se tiene un mayor ancho de banda de memoria, que es más predecible por
tener memorias separadas para las instrucciones y datos. (Corvo, 2016)

Nivel de protección

En sistemas que no tengan una unidad de administración de memoria ofrece un


nivel de protección adicional, ya que no se podrá comenzar a ejecutar datos como
si fuera código, lo que expondría al sistema a numerosos problemas, tal como el
desbordamiento de búfer. (Corvo, 2016)

Es por eso que es popular con los sistemas integrados pequeños, como el
microondas o un reloj.

Mayor velocidad

La arquitectura Harvard puede leer una instrucción y también realizar el acceso a la


memoria de datos simultáneamente a una velocidad rápida. Ofrece un mayor
rendimiento, ya que permite la obtención simultánea de datos e instrucciones por
guardarse en memorias separadas y viajar a través de buses diferentes. (Corvo,
2016)

Una arquitectura Harvard generalmente ayudará a que una computadora con cierto
nivel de complejidad funcione más rápido que una arquitectura Von Neumann,
siempre que no sea necesario compartir recursos entre las memorias de datos y del
código. Si las limitaciones de pines u otros factores obligan al uso de un solo bus
para acceder a ambos espacios de memoria, es probable que tales ventajas se
anulen en gran medida. (Corvo, 2016)

15
Desventajas

• Mayor complejidad y costo: El problema con la arquitectura Harvard es su


gran complejidad y costo debido a que, en lugar de un bus de datos, ahora
se necesitan dos. La producción de una computadora con dos buses es mucho
más costosa y lleva más tiempo fabricarla. Requiere una unidad de control para dos
buses, que es más complicada y cuyo desarrollo es costoso y necesita más tiempo.
Esto significa una implementación más compleja para los fabricantes. Requiere más
pines en la CPU, una tarjeta madre más compleja y tener que duplicar los chips de
la RAM, así como un diseño de caché más complejo. (Corvo, 2016)
• Poca utilización: La arquitectura Harvard no se usa mucho, por lo que es
más difícil de implementar. Es por eso que rara vez se usa fuera de la CPU.
Sin embargo, esta arquitectura a veces se utiliza dentro de la CPU para
manejar sus cachés. (Corvo, 2016)
• Mal uso del espacio de memoria: Cuando hay espacio libre en la memoria
de datos no se puede utilizar para almacenar instrucciones y viceversa. Por
tanto, las memorias particulares que se dedican a cada uno de ellos deben
hacerse cuidadosamente equilibradas en su fabricación. (Corvo, 2016)

ARQUITECTURAS CISC Y RISC

Un aspecto central de la arquitectura del CPU es aprovechar la velocidad del


microprocesador sincronizando los ciclos de microprocesador y las
instrucciones. La utilización de las computadoras de escritorio y las portátiles en los
negocios es una necesidad básica para cualquier empresa. Una de las primeras
consideraciones es la velocidad del microprocesador del equipo. (Mac, 2019)

16
El diseño arquitectónico de la unidad central de procesamiento (CPU) define su
capacidad de respuesta. La arquitectura es el conjunto de instrucciones necesarias
para realizar operaciones y direccionamiento dentro del computador. La actividad y
el funcionamiento dependerán de la
"Arquitectura del conjunto de
instrucciones" con la cual fue diseñada. El
diseño de la CPU define cuales y cuantas
acciones de bajo nivel se ejecutan por
cada instrucción. La estrategia de diseño
de la CPU pretende mejorar la eficiencia
Ilustración 10 Microprocesadores
del equipo. Está basada en el concepto
que el rendimiento aumenta cuando se combina un conjunto de instrucciones
y microprocesadores. (Mac, 2019)

Microprocesadores RISC

El término microprocesador RISC significa “Reduced Instruction Set Computer”.


Esto significa que los microprocesadores RISC utilizan un conjunto sencillo de
instrucciones para leer y procesar los datos. (Mac, 2019)

Una computadora RISC es una computadora que solo usa comandos simples que
se pueden dividir en varias instrucciones. De esta forma logran ejecutar una
operación de bajo nivel dentro de un solo ciclo, de allí su nombre. Estos conjuntos
simples de instrucciones se completan normalmente en un ciclo de reloj de la
computadora. También son medidos por el número de pulsos del oscilador por
segundo que el procesador de tu equipo puede manejar. (Mac, 2019)

17
Este microprocesador utiliza un conjunto pequeño o
reducido de instrucciones. Se espera que cada
instrucción ejecute tareas muy pequeñas. En este
equipo, los conjuntos de instrucciones son sencillos y
simples, lo que ayuda a construir comandos más
complejos. Cada instrucción tiene una longitud
similar; estos se unen para realizar tareas
Ilustración 11 Microprocesador RISC
compuestas en una sola operación. La mayoría de
los comandos se completan en un ciclo de máquina. Esta canalización es una
técnica crucial utilizada para acelerar las máquinas RISC. (Mac, 2019)

Ventajas del microprocesador RISC

Este microprocesador está diseñado para llevar a cabo pocas instrucciones al


mismo tiempo. Basado en comandos pequeños, estos chips necesitan menos
transistores. Esta arquitectura hace que los microprocesadores sean económicos
de diseñar y producir. (Mac, 2019)

Las características de RISC incluyen lo siguiente:

• Nodos de direccionamiento simples


• La necesidad de instrucciones de código es menor
• Pocos tipos de datos en hardware
• Registro de uso general Idéntico
• Conjunto de instrucciones uniformes

Además, al escribir un programa, RISC lo hace más fácil al permitir que el


programador elimine códigos innecesarios y reduce el desperdicio de ciclos. (Mac,
2019)

18
Microprocesadores CISC

El término microprocesador CISC significa “Complex Instruction Set Computer”.


Como sugiere su nombre el microprocesador CISC ejecuta los comandos
complejos usando menos líneas de código. Una computadora CISC es una
computadora donde las instrucciones individuales pueden realizar numerosas
operaciones de bajo nivel. Por ejemplo, una carga de memoria, una operación
aritmética y el almacenamiento en memoria. Es un plan de diseño de CPU basado
en comandos únicos, que son expertos en la ejecución de operaciones de varios
pasos. (Mac, 2019)

Estas acciones se logran mediante procesos de múltiples


pasos o modos de direccionamiento en instrucciones
individuales. Por eso reciben el nombre de “Conjunto de
instrucciones complejas”. Las computadoras CISC tienen
programas pequeños. Tiene una gran cantidad de
instrucciones compuestas que exigen mucho tiempo para
su realización. Un solo conjunto de instrucciones está
descrito en varios pasos; cada conjunto de instrucciones
Ilustración 12 Microprocesador tiene más de 300 instrucciones separadas. Las
CISC
instrucciones se ejecutan en un tiempo de dos a diez
ciclos de máquina. (Mac, 2019)

Microprocesadores CISC y canalización de instrucciones

En CISC, la canalización de instrucciones no se implementa fácilmente.


Las máquinas CISC según la descripción general de los compiladores de
programas son buenas. (Mac, 2019)

19
Es posible obtener una serie de instrucciones innovadoras a partir de un conjunto
simple de éstas. Se diseñan instrucciones compuestas a partir de un conjunto
simple de las mismas. También es posible lograr la ejecución de procesos de bajo
nivel. Esto facilita mantener grandes nodos de direccionamiento y datos adicionales
en el hardware de una máquina. Sin embargo, CISC se considera menos eficiente
que RISC. Esto se debe a su incompetencia para eliminar códigos que conducen a
la pérdida de ciclos. (Mac, 2019)

Además, que los chips del microprocesador son difíciles de entender y programar
debido a la complejidad del hardware. Estos elementos permiten generar procesos
multitarea. (Mac, 2019)

Principales diferencias entre RISC y CISC

Los procesadores RISC tienen un conjunto más pequeño de instrucciones con


pocos nodos de direccionamiento. Los procesadores CISC tienen un conjunto más
grande de instrucciones con muchos nodos de direccionamiento. (Mac, 2019)

Otras diferencias entre CISC y RISC.

• Unidad de memoria: RISC no tiene unidad de memoria y utiliza un hardware


separado para implementar las instrucciones. CISC tiene una unidad de
memoria para implementar instrucciones complejas. (Mac, 2019)
• Programación: RISC tiene una unidad de programación
cableada. CISC tiene una unidad de microprogramación. (Mac, 2019)
• Diseño y Cálculos: RISC es un diseño de compilador complejo. CISC es un
diseño de compilador fácil. Los cálculos RISC son más rápidos y más
precisos. Los cálculos CISC son lentos y precisos. (Mac, 2019)
• Descodificación: La decodificación RISC de instrucciones es simple. La
decodificación CISC de instrucciones es compleja. (Mac, 2019)

20
• Memoria externa y Tiempo: RISC no requiere memoria externa para los
cálculos. CISC requiere memoria externa para los cálculos. El tiempo de
ejecución es menor en RISC. El tiempo de ejecución es muy alto en CISC.
(Mac, 2019)
• Estancamiento: El estancamiento RISC se reduce principalmente en los
procesadores. Los procesadores CISC a menudo se estancan. (Mac, 2019)
• Expansión de código y Espacio en disco: La expansión de código puede
ser un problema en RISC mientras que, en CISC, la expansión de código no
es un problema. El espacio se optimiza en RISC mientras que en CISC se
desperdicia espacio. (Mac, 2019)

Ejemplos de microprocesadores

Algunos ejemplos de arquitectura CISC incluyen VAX, PDP-11, Motorola 68k, y PC


de escritorio en la arquitectura x86 de Intel. (Mac, 2019)

Mientras que los mejores ejemplos de arquitectura RISC incluyen DEC Alpha, ARC,
AMD 29k, Atmel AVR, Intel i860. Igualmente, Blackfin, i960, Motorola 88000, MIPS,
PA-RISC, Power, SPARC, SuperH y ARM también. (Mac, 2019)

Aplicaciones de RISC y CISC

RISC se utiliza en aplicaciones de alta gama como procesamiento de video,


telecomunicaciones y procesamiento de imágenes. CISC se utiliza en aplicaciones
de gama baja como sistemas de seguridad, domótica, etc. (Mac, 2019)

21
CONCLUSIONES

Puedo concluir diciendo, que es importante conocer los tipos de arquitecturas que
existen hoy en día, debido a que en base a sus características se pueden emplear
en distintos sistemas, todo acorde a la utilidad que se le desee dar.

Por otra parte, existen las arquitecturas CISC y RISC, las cuales son empleadas
generalmente en microprocesadores, y si bien, estos son el corazón de un equipo
informático, por ello, es algo esencial conocer el modelo que cada una de estar
arquitecturas sigue al momento de su ejecución, y así obtener un sistema funcional
libre de fallas por parte del hardware y de errores por parte del software.

22
BIBLIOGRAFÍA

Amador, H. M. (2012). Arquitectura de computadoras. Basado en competencias


para nivel medio superior . México: Grupo Editorial Éxodo.

Castillo, G. (23 de Octubre de 2016). Rincón de la Tecnología. Obtenido de Rincón


de la Tecnología: https://rincondelatecnologia.com/modelo-de-von-
neumann/#:~:text=El%20modelo%20de%20Von%20Neumann,el%20tratam
iento%20autom%C3%A1tico%20de%20la

Corvo, H. S. (21 de Enero de 2016). Lifeder.com. Obtenido de Lifeder.com:


https://www.lifeder.com/arquitectura-harvard/

EcuRed. (18 de Febrero de 2019). Obtenido de EcuRed:


https://www.ecured.cu/Arquitectura_Harvard_(computaci%C3%B3n)#:~:text
=Es%20una%20arquitectura%20de%20computadora,instrucciones%20y%2
0para%20los%20datos.&text=Mientras%20la%20memoria%20de%20progr
ama,puede%20ser%20le%C3%ADda%20y%20escrita.

Mac, E. (26 de Diciembre de 2019). Techlandia. Obtenido de Techlandia:


https://techlandia.com/diferencia-cisc-risc-info_291061/

Ortega, B. (15 de Noviembre de 2015). TecNoBlog. Obtenido de TecNoBlog:


https://bart2603.wordpress.com/2009/08/02/el-modelo-de-von-neumann-un-
nuevo-concepto-para-un-mejor-desempeno/

23

También podría gustarte