Está en la página 1de 10

Trabajo Practico Nº1

Jerarquía de memoria
Mantenimiento y Reparación de Datos
Alumno: Milagros Herrera Curso: 5to 1ra
Escuela Técnica Provincial Nº1 “Aristóbulo Vargas Belmonte”
TRABAJO PRÁCTICO N º 1

Apellido y Nombre: Milagros Herrera DNI: 47.025.062 Fecha: 17/04/2023

Tema: Jerarquía de Memoria 

Resuelva el siguiente cuestionario. 

1. ¿Quién fue Von Neumann? ¿Qué es lo que investigó y cuáles fueron sus aportes 
científicos? 
John von Neumann fue un matemático, físico y científico de la computación húngaro-
americano que nació en 1903 y falleció en 1957. Fue uno de los principales pioneros de la
informática y realizó importantes contribuciones en los campos de la teoría de juegos, la
física cuántica, la estadística, la hidrodinámica y la economía, entre otros.

Uno de los mayores logros de von Neumann fue su papel en la invención y el desarrollo de
la arquitectura de las computadoras modernas. Propuso la idea de que la memoria de una
computadora podía ser utilizada para almacenar tanto datos como instrucciones, lo que se
conoce como el modelo de Von Neumann. También se le atribuye el diseño de la primera
computadora digital de alta velocidad, conocida como la Electronic Numerical Integrator
and Computer (ENIAC).
Además de sus contribuciones a la informática, von Neumann también es conocido por su
trabajo en la teoría de juegos, donde desarrolló la teoría de juegos de suma cero con su
colega Oskar Morgenstern. También realizó importantes investigaciones en la física
cuántica, donde trabajó en la teoría de operadores lineales y la mecánica cuántica.

2. Identifique cada uno de los elementos de la Arquitectura de Von Neumann. Luego  defina
cada uno de ellos. 
La arquitectura de Von Newmann define los siguientes elementos:
 Unidad Central de Proceso (CPU - Central Processing Unit)
 Memoria principal
 Controlador de entrada salida
 Buses del sistema
o Bus de datos
o Bus de direcciones
o Bus de control

Unidad Central de proceso (CPU)


La CPU es el componente encargado de procesar la información de acuerdo a las
instrucciones del programa. Se repite una serie de pasos en los que accede a memoria
para leer la próxima instrucción, la ejecuta y repite el proceso. Si la CPU está en un único
circuito integrado, se llama microprocesador. Las partes fundamentales de la CPU incluyen
la Unidad Aritmético Lógica (ALU), el Banco de Registros y la Unidad de Control. La ALU
realiza operaciones aritméticas y lógicas con los datos, mientras que el Banco de Registros
proporciona un espacio de almacenamiento para los datos. La Unidad de Control lee las
instrucciones almacenadas en memoria y coordina el trabajo de la CPU para ejecutar las
instrucciones. Los buses son los canales por los cuales se transporta la información entre
los diferentes componentes de la CPU. Existen dos tipos de unidades de control: cableadas
y microprogramadas. La primera está implementada mediante hardware, mientras que la
segunda es una pequeña CPU en miniatura que puede programarse para realizar
diferentes tareas.

Memoria Principal
La memoria principal almacena información que es accesible para la CPU. Se puede leer y
escribir datos en las diferentes posiciones de memoria. La memoria principal es más
rápida que la memoria secundaria pero tiene menor capacidad. La memoria RAM es de
acceso aleatorio, permite lectura y escritura, pero es volátil, perdiendo su contenido al
cesar la alimentación. La memoria ROM es de acceso aleatorio, solo permite la lectura de
datos y es persistente, no perdiendo su contenido cuando cesa la alimentación.

Controlador de entrada/salida
Los sistemas informáticos necesitan un controlador de flujo de información para
comunicarse con periféricos que actúan como entradas o salidas. Los periféricos se
clasifican en de entrada y de salida. Hay tres técnicas principales de gestión de I/O: polling,
interrupciones y DMA. El polling es simple pero ineficiente, mientras que las
interrupciones permiten que el periférico notifique a la CPU los cambios de estado. La
técnica DMA es la más eficiente ya que el controlador DMA se encarga de la transferencia
de información y la CPU queda libre para realizar otras tareas.

Buses del sistema


Los buses son las vías de comunicación que permiten el movimiento de información entre
los distintos elementos de la arquitectura Von Newmann. El bus de datos transporta los
datos y su ancho en bits define el tamaño de la palabra del sistema informático. El bus de
direcciones se utiliza para indicar el origen y/o el destino de los datos y su ancho en bits
determina el tamaño del espacio de memoria direccionable. El bus de control proporciona
señales para coordinar las diferentes tareas del sistema informático. Algunas de las
señales comunes son CLK, CS, READY y R/W. El número de líneas que tiene un bus
determina el número de bits que se pueden transportar en paralelo y los buses suelen ser
elementos síncronos que funcionan gobernados por un reloj. La capacidad de un bus se
puede calcular multiplicando el número de bits transportados por ciclo de reloj por el
número de ciclos de reloj por segundo.

3. ¿Qué tipo de computadoras utilizan la arquitectura de Von Neuman? Realice un listado  de


al menos 10 de ellas. Luego elija una y descríbala. 
 Máquina Experimental de Pequeña Escala de Mánchester (SSEM), apodada
"Baby" (Universidad de Mánchester, Inglaterra) hizo su primera ejecución exitosa
de un programa almacenado el 21 de junio de 1948.
 EDSAC (Universidad de Cambridge, Inglaterra) fue el primer computador
electrónico práctico de programa almacenado (mayo de 1956)
 Manchester Mark I (Universidad de Mánchester, Inglaterra) Desarrollado a partir
de la SSEM (junio de 1947)
 CSIRAC (Consejo de Investigación Científica e Industrial) Australia (noviembre de
1949)
 EDVAC (Laboratorio de Investigación Balística, Laboratorio de Informática de
Aberdeen Proving Ground, 1951)
 ORDVAC (U-Illinois) en Aberdeen Proving Ground, Maryland (completado en
noviembre de 1951)13
 IAS machine en Princeton University (enero 1952)
 MANIAC I en Laboratorio Científico Los Álamos (marzo de 1952)
 ILLIAC en la Universidad de Illinois, (septiembre de 1952)
 AVIDAC en Laboratorios Argonne National (1953)
 ORACLE en Laboratorio Nacional de Oak Ridge (junio de 1953)
 JOHNNIAC en RAND Corporation (enero de 1954)
 BESK en Estocolmo (1953)
 BESM-1 en Moscú (1952)
 DASK en Dinamarca (1955)
 PERM en Múnich (1956?)
 SILLIAC en Sídnei (1956)
 WEIZAC en Rehovoth (1955)

JOHNNIAC

JOHNNIAC fue uno de los primeros ordenadores construidos en los Estados Unidos en la década
de 1950. Fue diseñado por John von Neumann y su equipo en el Institute for Advanced Study de
Princeton. El nombre JOHNNIAC significa "John von Neumann Numerical Integrator and
Automatic Computer".

JOHNNIAC utilizaba un sistema binario para representar la información y contaba con una
memoria principal de núcleos magnéticos. Tenía una capacidad de almacenamiento de 1,000
palabras de 40 bits cada una. Además, utilizaba un conjunto de instrucciones que permitía
realizar operaciones aritméticas y lógicas básicas, así como operaciones de entrada y salida.Fue
utilizado en diversos campos de la investigación, incluyendo la física, la química, la biología y las
ciencias sociales. También fue utilizado en el desarrollo de la bomba de hidrógeno y en el diseño
de los primeros misiles balísticos intercontinentales.

JOHNNIAC fue desmantelado en 1966, pero su legado continúa en la forma de los principios de
la arquitectura Von Neumann, que fueron utilizados en la construcción de muchos de los
primeros ordenadores.

4. Según el esquema sobre la arquitectura de Von Neumann explique brevemente su 


funcionamiento. 
La unidad central de procesamiento (CPU) es responsable de leer y procesar las
instrucciones y datos almacenados en la memoria de la computadora, devolviéndolos a la
memoria o enviándolos a dispositivos de entrada/salida. Los dispositivos de entrada/salida
permiten que los usuarios interactúen con la computadora, mientras que los buses
conectan los componentes de la computadora para que puedan comunicarse entre sí. La
arquitectura de von Neumann utiliza un enfoque secuencial para acceder a los datos y las
instrucciones almacenados en la memoria y procesarlos en la CPU.

5. Confeccione una tabla mostrando las diferencias entre memoria principal y memoria 
secundaria. 

CARACTERISTICAS MEMORIA PRINCIPAL MEMORIA SECUNDARIA


Tipo de memoria Semiconductor Magnética/óptica
Conocida como Memoria principal Memoria de respaldo
Volatilidad Volátil No volátiles
Perdida de datos Al apagarse Permanente
Velocidad Mas rápido Más lenta
Función Memoria de trabajo Almacenamiento

6. Sobre los niveles de Jerarquía de memoria: 


a) Liste por cada nivel, los dispositivos de almacenamiento. 
 NIVEL 0: Registro del procesador
 NIVEL 1: memoria cache
 NIVEL 2: memoria ram
 NIVEL 3: disco duros almacenamiento secundario
 NIVEL 4:copias de seguridad

b) Defina frecuencia, velocidad, capacidad y coste/bit. ¿En que unidad se mide cada  uno? 
 Frecuencia de acceso: La frecuencia se refiere a la cantidad de ciclos de reloj que
la CPU puede realizar en un segundo y se mide en Hertz (Hz)
 Velocidad: La velocidad se refiere a la cantidad de datos que un dispositivo puede
procesar en un segundo y se mide en unidades de transferencia por segundo(por
ejemplo, KB,MB,GB,TB)
 Capacidad: La capacidad refiere a la cantidad de datos que un dispositivo puede
almacenar y se mide en unidades de almacenamiento (por ejemplo, KB,MB,GB,TB)
 Coste/bit: se refiere al costo de almacenar un solo bit de información y se mide en
unidades de costo por bit(por ejemplo, centavos por bit o dólares por gigabyte)

c) A medida que se sube un nivel de jerarquía que es lo que aumenta y que es lo que 
disminuye. (analice cada una de las variables). 

En resumen, cuando hablamos de la jerarquía de almacenamiento en computadoras,


existen varias variables que debemos considerar: coste/bits, capacidad, velocidad y
frecuencia de acceso. El coste/bits nos indica que mientras más arriba esté el
almacenamiento en la jerarquía, más caro será. La capacidad nos habla de cuántos datos
puede almacenar cada dispositivo, siendo los discos duros los que tienen más capacidad.
La velocidad nos indica la velocidad a la que trabaja cada componente, y la frecuencia de
acceso se refiere a la cantidad de veces que el CPU accede a los datos en un periodo de
tiempo. En general, mientras más arriba en la jerarquía nos encontremos, mejor será el
rendimiento del sistema.

7. ¿Qué otras arquitecturas de computadoras existen? Descríbalas brevemente.


Hay varios tipos de arquitectura de computadoras;
 El primero es la arquitectura de flujo de datos. La arquitectura de flujo de datos es una
arquitectura paralela en la que los datos pasan por las diferentes etapas del cálculo. En
esta arquitectura, el resultado de un cálculo se utiliza como entrada para otro cálculo.
 El segundo ejemplo es la arquitectura von Neumann. La arquitectura von Neumann es una
arquitectura secuencial en la que el cálculo se ejecuta secuencialmente. El cálculo se
realiza en un orden secuencial. Esta arquitectura tiene una unidad central de
procesamiento (CPU), una memoria y dispositivos de entrada-salida.
 El tercer ejemplo es la arquitectura Harvard. Esta arquitectura es una versión modificada
de la arquitectura von Neumann. Tiene dos memorias separadas: una para las
instrucciones del programa y otra para los datos.
 El cuarto ejemplo es la arquitectura Harvard modificada. Es una combinación de la
arquitectura de flujo de datos y la arquitectura Harvard. En esta arquitectura, hay una
memoria de programa y una memoria de datos.
 Arquitectura CISC: Una arquitectura de computadora que utiliza un conjunto complejo de
instrucciones, pero que permite realizar operaciones complejas en una sola instrucción.
 Arquitectura RISC: Una arquitectura de computadora que utiliza un conjunto reducido de
instrucciones, pero que las ejecuta de forma muy eficiente.
 Arquitectura VLIW: Utiliza instrucciones muy largas que contienen múltiples operaciones,
lo que permite realizar múltiples tareas en paralelo. Arquitectura EPIC: Una arquitectura
de computadora que utiliza un conjunto reducido de instrucciones y se enfoca en la
ejecución de tareas en paralelo. Arquitectura MIMD: Una arquitectura de computadora
que utiliza múltiples procesadores para ejecutar diferentes instrucciones en paralelo.
 Arquitectura SIMD: Utiliza un conjunto reducido de instrucciones para realizar la misma
operación en múltiples datos simultáneamente. Arquitectura SPMD: Una arquitectura de
computadora que utiliza múltiples procesadores para ejecutar el mismo programa en
diferentes conjuntos de datos.
 Arquitectura NUMA:Un tipo de arquitectura de computadora que utiliza múltiples
procesadores y memoria compartida no uniforme, lo que permite un acceso más rápido a
la memoria local
 Arquitectura SISD: Una arquitectura de computadora que utiliza un solo procesador para
ejecutar una sola instrucción en un solo conjunto de datos.
 Arquitectura MISD: Una arquitectura de computadora que utiliza múltiples procesadores
para ejecutar diferentes instrucciones en el mismo conjunto de datos.
 Arquitectura TTA: Un tipo de arquitectura de computadora que utiliza instrucciones de
transporte para mover datos entre unidades de procesamiento especializadas.
 Arquitectura Cell: Un tipo de arquitectura de computadora que utiliza múltiples
procesadores para realizar operaciones en paralelo, y se enfoca en el procesamiento de
gráficos y multimedia.
Sitios web consultados:

 https://es.wikipedia.org/wiki/John_von_Neumann
 https://www.britannica.com/biography/John-von-Neumann
 https://elpuig.xeill.net/Members/vcarceler/c1/didactica/apuntes/ud2/na1
 https://es.wikipedia.org/wiki/Arquitectura_de_Von_Neumann
 https://es.wikipedia.org/wiki/JOHNNIAC
 https://www.profesionalreview.com/2022/10/01/arquitectura-de-computadoras/
 https://www.profesionalreview.com/2022/04/26/tipos-de-arquitectura-de-un-
ordenador/

También podría gustarte