Está en la página 1de 16

INICIO

INTRODUCCION
Hoy en día gracias a la arquitectura su evolución y su desarrollo nos ha ayudado a realizar y
comprender un conjunto de circuitos complejos como lo pueden ser los cpu u procesadores
los cuales, están diseñados sobre una arquitectura, por ejemplo lo primero que se nos viene
a la mente es que hemos escuchado hablar a otras personas en canales de tecnología en
YouTube que por ejemplo un procesado se encuentra basado en una arquitectura de 11 NM
(nanómetros) y que en cuanto más pequeño sea respecto a sus nanómetros, pues más
eficiente será en el consumo de energía, y su desempeño será notablemente mayor, y que su
desempeño de manera general sea cada año más solvente, gastando la cantidad de energía
más mínima, además de que conceptualmente hablando .Es el diseño conceptual y la
estructura operacional fundamental de un sistema de computadora. Es decir, es un modelo y
una descripción funcional de los requerimientos y las implementaciones de diseño para
varias partes de una computadora, con especial interés en la forma en que la unidad central
de proceso (UCP) trabaja internamente y accede a las direcciones de memoria.
En la historia de las computadoras han surgido diversos modelos de arquitecturas de
computadoras.

MODELOS DE ARQUITECTURA DE COMPUTADORAS


La búsqueda de hacer cada día más rápido el procesamiento de datos es lo que ha originado
estos modelos.
Se clasifican en tres modelos de computadoras:

ARQUITECTURAS CLASICAS.

Palabras claves: Partes de una computadora, Buses, memoria, CPU, Von Newman,
Harvard,
memoria de programa, memoria de datos, entradas y salidas

MODELOS DE ARQUITECTURAS DE CÓMPUTO

CLÁSICAS:

Estas arquitecturas se desarrollaron en las primeras computadoras electromecánicas y de


tubos de vacío. Aun son usadas en procesadores empotrados de gama baja y son la base de
la mayoría de las arquitecturas modernas Arquitectura Mauchly-Eckert (Von Newman) La
principal desventaja de esta arquitectura, es que el bus de datos y direcciones único se
convierte en un cuello de botella por el cual debe pasar toda la información que se lee de o
se escribe a la memoria, obligando a que todos los accesos a esta sean secuenciales. Esto
limita el grado de paralelismo (acciones que se pueden realizar al mismo tiempo) y, por lo
tanto, el desempeño de la computadora. Este efecto se conoce como el cuello de botella de
Von Newman.
ARQUITECTURA DE JHON VON NEWMAN

Diagrama a bloques de la arquitectura Von Newman.

La principal desventaja de esta arquitectura, es que el bus de datos y direcciones único se


convierte en un cuello de botella por el cual debe pasar toda la información que se lee de o
se escribe a la memoria, obligando a que todos los accesos a esta sean secuenciales. Esto
limita el grado de paralelismo (acciones que se pueden realizar al mismo tiempo) y, por lo
tanto, el desempeño de la computadora. Este efecto se conoce como el cuello de botella de
Von Newman.
En esta arquitectura apareció por primera vez el concepto de programa almacenado.
Anteriormente la secuencia de las operaciones era dictada por el alambrado de la unidad de
control, y cambiarla implicaba un proceso de recableado laborioso, lento (hasta tres
semanas) y propenso a errores. En esta arquitectura se asigna un código numérico a cada
instrucción. Dichos códigos se almacenan en la misma unidad de memoria que los datos
que van a procesarse, para ser ejecutados en el orden en que se encuentran almacenados en
memoria. Esto permite cambiar rápidamente la aplicación de la computadora y dio origen a
las computadoras de propósito general.
Mas a detalle, el procesador se subdivide en una unidad de control (C.U.), una unidad
lógica aritmética (A.L.U.) y una serie de registros. Los registros sirven para almacenar
internamente datos y estado del procesador. La unidad aritmética lógica proporciona la
capacidad de realizar operaciones aritméticas y lógicas. La unidad de control genera las
señales de control para leer el código de las instrucciones, decodificarlas y hacer que la
ALU las ejecute.

ARQUITECTURA HARVARD

Esta arquitectura surgió en la universidad del mismo nombre, poco después de que la
arquitectura Von Newman apareciera en la universidad de Princeton. Al igual que en la
arquitectura Von Newman, el programa se almacena como un código numérico en la
memoria, pero no en el mismo espacio de memoria ni en el mismo formato que los datos.
Por ejemplo, se pueden almacenar las instrucciones en doce bits en la memoria de
programa, mientras los datos de almacenan en ocho bits en una memoria aparte.

Diagrama a bloques de la arquitectura Harvard


El hecho de tener un bus separado para el programa y otro para los datos permite que se lea
el código de operación de una instrucción, al mismo tiempo se lee de la memoria de datos
los operados de la instrucción previa. Así se evita el problema del cuello de botella de Von
Newman y se obtiene un mejor desempeño.
En la actualidad la mayoría de los procesadores modernos se conectan al exterior de manera
similar a a la arquitectura Von Newman, con un banco de memoria masivo único, pero
internamente incluyen varios niveles de memoria cache con bancos separados en cache de
programa y cache de datos, buscando un mejor desempeño sin perder la versatilidad.

Los ordenadores con esta arquitectura constan de cinco partes:

• La unidad aritmético-lógica o ALU


• La unidad de control
• La memoria
• Un dispositivo de entrada/salida
• El bus de datos
ARQUITECTURAS SEGMENTADAS

PALABRAS CLAVES: Ciclo de una instrucción, búsqueda, decodificación, ejecución,


Ciclo Fetch, Pipeline, Segmentadas, procesamiento en paralelo.

SEGMENTADAS:

Arquitecturas Segmentadas. Las arquitecturas segmentadas o con segmentación del cauce


buscan mejorar el desempeño realizando paralelamente varias etapas del ciclo de
instrucción al mismo tiempo. Un ciclo de instrucción (también llamado ciclo de fetch-and-
execute o ciclo de fetch-decode-execute en inglés) es el período que tarda la unidad central
de proceso (CPU) en ejecutar una instrucción de lenguaje máquina. Comprende una
secuencia de acciones determinada que debe llevar a cabo la CPU para ejecutar cada
instrucción en un programa. Cada instrucción del juego de instrucciones de una CPU puede
requerir diferente número de ciclos de instrucción para su ejecución. Un ciclo de
instrucción está formado por uno o más ciclos máquina.

También esta arquitectura es similar al uso de una cadena de montaje en una fábrica de
manufacturación. Una cadena de montaje saca partida del hecho de que el producto pasa
atreves de varias etapas de producción. Extendiendo el proceso de producción de una
cadena de montaje se puede trabajar sobre los productos en varias etapas como
segmentación porque como en una tubería o cause en un extremo nuevo entradas se aceptan
antes de que algunas entradas aceptadas con anterioridad aparezcan como salidas en el otro
extremo. Pipeline
Pipeline o tubería es un conjunto de elementos procesadores de datos conectados en serie
en donde la salida de un elemento es la entrada del siguiente. Los elementos de pipeline son
generalmente ejecutados en paralelos, en esos casos, debe haber un almacenamiento tipo
buffer insertado entre elementos.
UN CICLO MÁQUINA.

El funcionamiento básico de una computadora se basa en el ciclo máquina que realiza los
siguientes pasos:

1) Extrae de la memoria la siguiente instrucción y la lleva al registro de instrucción.


2) Cambia el Contador de Programa de modo que señale la siguiente instrucción.
3) Determina el tipo de instrucción que acaba de extraer.
4) Verifica si la instrucción requiere datos de la memoria y, si es así, determina donde
están situados.
5) Extrae los datos -si los hay- y los carga en los registros internos de la CPU.
6) Ejecuta la instrucción.
7) Almacena los resultados en el lugar apropiado. Vuelve al punto 1 para empezar: la
ejecución de la instrucción siguiente

Ciclo de instrucción.

Un ciclo de instrucción (también llamado Ciclo de fetch-and-execute o ciclo de


fetchdecode-execute en inglés).
Es el período que tarda la unidad central de proceso (CPU) en ejecutar una instrucción de
lenguaje máquina.
Comprende una secuencia de acciones determinada que debe llevar a cabo la CPU para
ejecutar cada instrucción en un programa. Cada instrucción del juego de instrucciones de
una CPU puede requerir diferente número de ciclos de instrucción para su ejecución. Un
ciclo de instrucción está formado por uno o más ciclos máquina.

Definición de PIPELINE

En informática, un pipeline o tubería es un conjunto de elementos procesadores de datos


conectados en serie, en donde la salida de un elemento es la entrada del siguiente. Los
elementos es la entrada del siguiente. Los elementos del pipeline son generalmente
ejecutados en paralelo, en esos casos debe haber un almacenamiento tipo buffer insertado
entre elementos.
En informática, pipeline es sinónimo de segmentación.

Como funciona un PIPELINE


Supongamos que un procesador tiene un ciclo de instrucción sencillo, consistente
solamente en una etapa de búsqueda del código de instrucción y en la otra etapa de
ejecución de la instrucción
Es un proceso sin segmentación del cauce, las dos etapas se realizarían de manera
secuencial para cada una de las instrucciones, como lo muestra en la siguiente figura
Mientras que, en un procesador con segmentación del cauce, cada una de estas etapas se
asigna a una unidad funcional diferente, la búsqueda a la unidad de búsqueda y la ejecución
a la unidad de ejecución.
¿Qué es el Procesamiento paralelo?
Un procesador en paralelo es el método mediante el cual una serie de tareas e instrucciones
se ejecutan de forma simultánea. Como cualquier trabajo en paralelo, se trata de dividir el
trabajo en trozos más simples, que actualmente solemos llamar hilos, threads o
subprocesos. Cada uno de estos subprocesos es ejecutado en uno de los núcleos del
procesador de forma simultánea para aminorar el tiempo de espera entre tarea y tarea. Más
adelante lo explicaremos con más detalle.
A nivel industrial y de alto rendimiento tenemos no solo procesadores multinúcleo, sino
clusters de ordenadores o multi-procesadores. Estos son capaces de ejecutar tareas de gran
volumen conectados a través de la red, y son los llamados superordenadores o
supercomputadoras de las que tanto escuchamos oír por su eso en los centros de datos
mundiales y para la investigación.
ARQUITECTURA DE MULTIPROCESAMIENTO

MULTIPROCESAMIENTOS:

PALABRAS CLAVES: Diferencia entre Multiprocesamiento y Multiprogramación, Simétrico,


Asimétrico

Arquitecturas de multiprocesamiento. Cuando se desea incrementar el desempeño más allá


de lo que permite la técnica de segmentación del cauce (limite teórico de una instrucción
por ciclo de reloj), se requiere utilizar más de un procesador para la ejecución del programa
de aplicación. Un reloj del sistema reside en la tarjeta madre. Éste envía una señal a todos
los componentes de la computadora en ritmo, como un metrónomo. Generalmente, este
ritmo se genera como una onda cuadrada, como la siguiente:

Cada onda en esta señal mide un ciclo de reloj. Si el reloj del sistema funciona a 100MHZ,
esto significa que hay 100 millones de ciclos del reloj en un segundo. Cada acción en la
computadora se marca con un tiempo mediante estos ciclos del reloj y para realizarse, cada
acción toma cierto número de ciclos del reloj. Cuando se procesa una solicitud de la
memoria, por ejemplo, el controlador de la memoria puede informar al procesador que los
datos requeridos llegarán en seis ciclos de reloj. Es posible que el CPU y otros dispositivos
funcionen más rápido o más lento que el reloj del sistema. Por ejemplo, cuando un reloj del
sistema de 100MHZ interactúa con un CPU de 400MHZ, cada dispositivo entiende que
cada ciclo de reloj del sistema es igual a cuatro ciclos de reloj del CPU; éstos utilizan un
factor de cuatro para sincronizar sus acciones. Tamaño de la palabra = Una palabra es la
cantidad de datos que la CPU puede procesar en un ciclo de reloj. Un procesador de 8 bits
puede manejar 8 bits cada vez. Los procesadores pueden ser, hasta ahora, de 8-, 16-, 32-, o
64- bits. Cuanto más grande sea el número = más rápida será el procesamiento.

Cuando se desea incrementar el desempeño más allá de lo que permite la técnica de


segmentación del cauce (limite teórico de una instrucción por ciclo de reloj), se requiere
utilizar más de un procesador para la ejecución del programa de aplicación.

LAS CPU DE MULTIPROCESAMIENTO:

SISO – (Single Instruction, Single Operand) computadoras independientes


SIMO – (Single Instruction, Multiple Operand) procesadores vectoriales
MISO – (Multiple Instruction, Single Operand) No implementado
MIMO – (Multiple Instruction, Multiple Operand) sistemas SMP, Clusters
Procesadores vectoriales – Son computadoras pensadas para aplicar un mismo algoritmo
numérico a una serie de datos matriciales, en especial en la simulación de sistemas físicos
complejos, tales como simuladores para predecir el clima, explosiones atómicas, reacciones
químicas complejas, etc., donde los datos son representados como grandes números de
datos en forma matricial sobre los que se deben se aplicar el mismo algoritmo numérico.

En los sistemas SMP (Simetric Multiprocesesors), varios procesadores comparten la misma


memoria principal y periféricos de I/O, Normalmente conectados por un bus común. Se
conocen como simétricos, ya que ningún procesador toma el papel de maestro y los demás
de esclavos, sino que todos tienen derechos similares en cuanto al acceso a la memoria y
periféricos y ambos son administrados por el sistema operativo.

Pueden formarse con varios núcleos en un solo circuito integrado o con varios circuitos
integrados en una misma tarjeta madre. La primera opción ha sido popularizada al hacerse
más económicos los procesadores multinúcleo de los principales fabricantes y con su uso
en sistemas de gama media y baja, e inclusive en teléfonos celulares y tabletas. La segunda
opción fue la que se usó en un principio y sigue siendo usada en estaciones de trabajo y en
servidores de alto rendimiento debido a que incrementa el poder computacional del sistema,
pero también incrementa considerablemente el costo del sistema.
Los Clusters son conjuntos de computadoras independientes conectadas en una red de área
local o por un bis de interconexión y que trabajan cooperativamente para resolver un
problema. Es clave en su funcionamiento contar con un sistema operativo y programas de
aplicación capaces de distribuir el trabajo entre las computadoras de la red. Este tipo de
computadora paralela se ha vuelto muy popular por que permite usar los avances en los
procesadores comerciales que tienen una muy buena relación costo rendimiento y se puede
incorporar rápidamente los avances que proporciona las nuevas tecnologías en cuanto es
económicamente viable.

Sin embargo, se debe tener cuidado al implementar la aplicación, ya que, si los datos que
hay que pasar de un procesador a otro son demasiados, el tiempo empleado en pasar
información de un nodo a otro puede sobrepasar a la ganancia que se tiene al dividir el
trabajo entre varios procesadores

Las unidades de procesamiento gráfico (Graphics Processing Unit GPU) – sistemas


diseñados originalmente para el procesamiento de Gráficos, con múltiples procesadores
vectoriales sencillos compartiendo la misma memoria, la cual también puede ser accedida
por el CPU. Por la gran cantidad de núcleos con los que cuenta, logran un excelente
desempeño al ejecutar algoritmos que se adaptan a ser paralelizados, a tal grado que
muchas de las supercomputadoras más rápidas de la actualidad utilizan estos procesadores,
y los fabricantes de tarjetas gráficas producen versiones de sus productos especializadas en
acelerar los cálculos de propósito general.
Existen dos modelos multiprocesadores:
Multiprocesador con memoria compartida (Simétrico).
Es en la cual los procesos tienen acceso a la misma memoria física. Los procesos pueden
correr en un solo procesador (tiempo compartido) Cada procesador tiene su propia memoria
Local.
Hay una memoria común global a la que pueden Accesa todos los CPU, por lo tanto, la
información. Se conocen como simétricos, ya que ningún procesador toma el papel de
maestro y los demás de esclavos, sino que todos tienen derechos similares en cuanto al
acceso a la memoria y periféricos y ambos son administrados por el sistema operativo, es
decir, compiten en igualdad de condiciones por dicho acceso, de ahí la denominación
“simétrico”.

Los sistemas multiproceso simétrico permiten que cualquier procesador trabaje en cualquier
tarea sin importar su localización en memoria; con un propicio soporte del sistema
operativo, estos sistemas pueden mover fácilmente tareas entre los procesadores para
garantizar eficientemente el trabajo.
Multiprocesador con Memoria Distribuida: (Asimétrico)
Cada procesador tiene su propia memoria local privada. Los procesadores se enlazan
mediante un esquema de conmutación diseñado para dirigir información de un procesador a
otro, a través de un esquema de paso de mensajes. Los sistemas de memoria distribuida son
más eficientes cuando la interacción entre las tareas.
Los sistemas operativos multiprocesador asimétricos (AMP) acaparan toda la potencia de
cálculo de una CPU única (maestra) y desde allí dividen el potencial del resto de CPU´s
(esclavas) entre los procesos de los usuarios.
A cada procesador se le asigna una tarea específica; el procesador maestro planifica y
asigna el trabajo a los procesadores esclavos.
· El más común en sistemas más grandes.
· El que manda es el de mayor jerarquía.
· Una desventaja es que se recarga todo el trabajo sobre el procesador que manda o
el de mayor jerarquía
Los sistemas informáticos con dos o más de dos CPU (procesador) se denominan sistemas
multiprocesamiento. Entonces, con la disponibilidad de múltiples procesadores, se pueden
ejecutar múltiples procesos al mismo tiempo.
¿Qué es la multiprogramación?
Multiprogramación. - Es la ejecución muchos programas al mismo tiempo. Cuando una
tarea no puede utilizar el procesador, el sistema puede suspender o interrumpir, la tarea,
liberando al procesador para trabajar en otra tarea.
Cuando el programa se interrumpe listo para comenzar a ejecutar uno nuevo, se puede
reanudar la ejecución justo donde lo dejó. Estos multiprocesadores funcionan compartiendo
memoria, reloj y dispositivos periféricos. Un sistema informático puede ser
multiprogramado y multiproceso al mismo tiempo.
Diferencia entre Multiprocesamiento y Multiprogramación.
La diferencia entre multiprocesamiento y multiprogramación es que, en multiprogramación,
el sistema mantiene los programas en la memoria principal y los ejecuta usando una sola
CPU, mientras que multiprocesamiento significa ejecutar múltiples procesos al mismo
tiempo en múltiples procesadores.

o Las técnicas de multiprogramación y multiprocesamiento son ideal para cargas de


trabajo de procesamiento que requieren muchas de entrada y salida (E / S) para las
operaciones.
o Típicas cargas de trabajo de mainframe incluyen aplicaciones de larga duración que
escriben actualizaciones de millones de registros en una base de datos y aplicaciones en
línea para miles de usuarios interactivos en un momento dado.
SEGUNDA PARTE DE LA ACTIVIDAD
Los registros de almacenamiento son un elemento del CPU que es de suma importancia
para que se hayan ido generando los diferentes modelos de computadoras. Investigue ¿Qué
es un registro?, ¿Qué tipos de registros hay?, ¿Qué diferencia hay en un registro serie y
registro paralelo?
¿Qué es un registro?
Un registro es una memoria que está ubicada en el procesador y se encuentra en el nivel
más alto en la jerarquía de memoria, por lo tanto, tiene una alta velocidad, pero con poca
capacidad para almacenar datos que va desde los 4 bits hasta los 64 bits dependiendo del
procesador que se utilice. Los datos que almacena son los que se usan frecuentemente
¿Qué tipos de registros hay?
Registros GPR:
Registros de propósito general (en inglés GPRs o General Purpose Registers), en
arquitectura de ordenadores, un registro es una memoria de alta velocidad y poca
capacidad, integrada en el microprocesador.
AX, AH, AL (Acumulador): a menudo conserva el resultado temporal
después de una operación aritmética o lógica.
BX, BH, BL (Base): Se utiliza para guardar la dirección base de listas de
datos en la memoria.
CX, CH, CL (Contador): Contiene el conteo para ciertas instrucciones de
corrimientos y rotaciones, de iteraciones en el ciclo loop y operaciones
repetidas de cadenas.
DX, DH, DL (Datos): Contiene la parte más significativa de un producto
después de una multiplicación; la parte más significativa del dividendo
antes de la división.

Registros Apuntadores Y De Índices:


SP (Apuntador de pila): Contiene el desplazamiento con respecto al segmento de pila del
tope de la pila del programa. El registro SP se emplea para direccionar datos en la pila
cuando se ejecutan las instrucciones push y pop y cuando se llama o se regresa de un
procedimiento mediante las instrucciones: call y ret, respectivamente.

BP (Apuntador de base): Contiene el desplazamiento con respecto al segmento de pila


de datos almacenados en la pila de un programa.
DI (Índice destino): Contiene el desplazamiento con respecto al segmento extra de un
elemento de una cadena o arreglo.
SI (Índice fuente): Contiene el desplazamiento con respecto al segmento de datos de un
elemento de un arreglo o cadena.
IP (Apuntador de instrucciones): Contiene siempre el desplazamiento con respecto al
segmento de código de la localidad de memoria que contiene la siguiente instrucción que va
a ejecutar el microprocesador.
Registros De Segmentos:
CS (Código): Tiene la dirección lógica del segmento en que se encuentra el código de un
programa. Si el código ocupa más de un segmento, contiene la dirección lógica de uno de
los segmentos.
DS (Datos): Tiene la dirección lógica del segmento en que se encuentran los datos
estáticos de un programa. Si los datos ocupan más de un segmento, contiene la dirección
lógica de uno de los segmentos.
ES (Extra): Este registro también tiene la dirección lógica de uno de los segmentos en que
se encuentran los datos estáticos de un programa. Este registro se utiliza en ciertas
operaciones del microprocesador para el manejo de cadenas.
SS (Pila): Tiene la dirección lógica del segmento en que se encuentran la pila del sistema.
La pila no puede ser mayor a un segmento.

Registros de Control:
Se utilizan para controlar las operaciones del procesador, la mayor parte de estos registros
no son visibles al usuario y algunos pueden ser accesibles a las instrucciones de maquina
ejecutadas en un modo de control. Los registros utilizados son los siguientes:
Registro de direcciones de memoria (MAR), el cual contiene la dirección en donde se
efectuará la próxima lectura o escritura de datos. El número de direcciones depende del
tamaño de la MAR.
Registro de datos de memoria (MBR), contiene los datos que van a ser escritos en la
memoria o los que fueron leídos en ella. Registro de direcciones de entrada y salida (I/O
AR), especifica al dispositivo ya sea de entrada o salida.
Registro de datos de entrada y salida (I/O BR), es un área temporal en donde se lleva a cabo
el intercambio de datos entre el procesador y el dispositivo de entrada y salida que está
especificado en IOAR. Registro de instrucciones (IR), contiene la dirección de la siguiente
instrucción que se va a ejecutar.
Palabras de estado del programa (PSW), contiene códigos de condición junto con otras
informaciones de estado como el signo, acarro, desbordamiento, entre otras.
¿Qué diferencia hay en un registro serie y registro paralelo?
Definición
El procesamiento en serie es un tipo de procesamiento en el que una tarea se completa a la
vez y todas las tareas son ejecutadas por el procesador en una secuencia. El procesamiento
paralelo es un tipo de procesamiento en el que diferentes procesadores completan varias
tareas a la vez. Por lo tanto, esta es la diferencia fundamental entre el procesamiento en
serie y paralelo.
DIFERENCIA EN NUMERO DE PROCESADORES
Una diferencia importante entre el procesamiento en serie y en paralelo es que hay un solo
procesador en el procesamiento en serie, pero hay varios procesadores en el procesamiento
en paralelo.
DIFERENCIA EN ACTUACION
Por lo tanto, el rendimiento del procesamiento paralelo es mayor que en el procesamiento
en serie.
DIFERENCIA EN CARGA DE TRABAJO
En el procesamiento en serie, la carga de trabajo del procesador es mayor. Sin embargo, en
el procesamiento paralelo, la carga de trabajo por procesador es menor. Por lo tanto, esta es
una diferencia importante entre el procesamiento en serie y en paralelo.
DIFERENCIA EN TRANSFERENCIA DE DATOS
Además, en el procesamiento en serie, las transferencias de datos están en formato bit por
bit. Sin embargo, en el procesamiento paralelo, las transferencias de datos se realizan en
bytes (8 bits).
DIFERENCIA EN TIEMPO REQUERIDO
El tiempo empleado también es una diferencia entre el procesamiento en serie y en
paralelo. Es decir; el procesamiento en serie requiere más tiempo que el procesamiento en
paralelo para completar una tarea.
DIFERRENCIA EN COSTO
Además, el procesamiento en paralelo es más costoso que el procesamiento en serie, ya que
utiliza varios procesadores.
Conclusión
Hay dos tipos de procesamiento como procesamiento en serie y paralelo en un sistema
informático. La principal diferencia entre el procesamiento en serie y paralelo en la
arquitectura de la computadora es que el procesamiento en serie realiza una sola tarea a la
vez, mientras que el procesamiento en paralelo realiza múltiples tareas a la vez. En
resumen, el rendimiento del procesamiento paralelo es mayor que el procesamiento en
serie.

También podría gustarte