Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Gestión de memoria
2
2. Conceptos de Memoria (I)
3
2. Conceptos de Memoria (II)
• Sistemas tradicionales:
• 1 Proceso => memoria principal divida en:
• Sistema operativo (monitor residente, núcleo).
• Programa que se ejecuta.
• Sistemas multiproceso:
• Sistema operativo (monitor residente, núcleo).
• Parte de “usuario”: subdividida para varios procesos.
• Se necesita:
• Subdivisión dinámica (sistema operativo) => gestión de memoria.
• Reparto eficientemente la memoria. Máximo número de procesos.
• La memoria y la CPU han de compartirse. Máximo número de procesos, CPU al 100%.
4
3. Requisitos (I)
• Requisitos:
• Organización lógica.
• Organización física.
• Reubicación.
• Protección.
• Compartición.
5
3. Requisitos (II)
Organización Lógica.
• La memoria de un sistema informático se organiza como un espacio de direcciones
lineal o unidimensional (secuencia de bytes).
Módulos:
1. Cada módulo puede escribirse y compilarse independientemente. El sistema
resuelve durante la ejecución todas las referencias de un módulo a otro.
2. Distintos grados de protección (sólo lectura, sólo ejecución) a los distintos
módulos.
3. Mecanismos para compartir módulos. La ventaja de la compartición a nivel de
módulo.
4. Reubicación por módulos.
6
3. Requisitos (III)
Organización Física.
• La memoria del computador se organiza en dos niveles: memoria principal y memoria
secundaria. En otros se añade la cache.
• La memoria principal:
• Acceso rápido con un coste relativamente alto.
• Volátil, no almacenamiento permanente.
• La memoria secundaria:
• Lenta y barata.
• No es volátil. Almacenamiento a largo plazo de programas y datos.
7
3. Requisitos (IV)
Protección.
• El espacio de cada proceso ha de ser protegido de las acciones de otros procesos.
• Un proceso no puede hacer referencia a posiciones de memoria de otros procesos sin permiso.
• La reubicación dificulta la protección: Es imposible comprobar las direcciones absolutas para
asegurar la protección.
• Las referencias a memoria deben comprobarse durante la ejecución.
• Los mecanismos que respaldan la reubicación permiten la gestión de la protección.
Métodos:
– Registros límite y base:
• Se almacenan el PCB (Bloque de Control de Procesos) y marcan las zonas del proceso.
– Bits de protección:
• Cada bloque de MEM tiene asignados unos bits que marcan qué proceso puede acceder.
– Segmentación:
• Derechos específicos en la tabla de páginas o segmentos.
Segmentos:
– Las direcciones virtuales son válidas si están entre la base y el límite (comprobación vía
hardware).
– Descriptores del segmento: distintos derechos de acceso a cada bloque o segmento.
– Compartición de bloques o segmentos.
Páginas:
– Bits de acceso a cada página.
8
3. Requisitos (V)
Compartición.
9
3. Requisitos (VI)
Reubicación.
• El Sistema es compartido por varios procesos.
• Durante la programación no se conoce el número de programas que residirán en memoria
en el momento de la ejecución.
• Se realiza la multiprogramación entre los procesos con sitio en MEM.
• Se cargan y descargan de la memoria principal los procesos activos para maximizar el uso del
procesador.
• Se mantiene una reserva de procesos listos.
• El programa puede moverse en memoria por un swap.
• El programa no puede ser escrito en direcciones absolutas.
• Cambio en el direccionamiento.
• El Sistema ha de conocer la ubicación de la información:
• Control del proceso.
• Pila de ejecución.
• Punto de partida de la ejecución del programa.
10
3. Requisitos (VII)
Reubicación: conceptos.
•Dirección lógica:
Es una referencia a una posición de memoria independiente de la asignación actual de datos a
la memoria.
Se debe hacer una traducción a una dirección física.
•Dirección relativa:
La dirección se expresa como una posición relativa a algún punto conocido.
•Dirección física:
La dirección absoluta o la posición real en la memoria principal.
Reubicación: tipos.
Reubicación estática:
– Durante la carga del programa en MEM se calculan todas las direcciones relativas a direcciones absolutas en
MEM (según el punto de carga).
– El programa no puede ser trasladado. Partición fija.
– Una vez que un programa haya sido descargado al disco, se limitará a declarar que, cuando vuelva a ser
cargado, debe situarse en la misma región de memoria principal que antes.
Reubicación dinámica:
– Las direcciones se convierten dinámicamente para cada acceso.
– Las direcciones generadas son traducidas a físicas en tiempo real.
– Los procesos pueden cambiarse de sitio una vez comenzada su ejecución.
11
3. Requisitos (VIII)
12
4. Gestión de memoria (I)
Fragmentación.
13
4. Gestión de memoria (II)
Fragmentación.
14
4. Gestión de memoria (III)
Fragmentación.
S.O.
• Fragmentación Interna: Proceso
– Generada por la diferencia entre el tamaño
de una partición de MEM. y el módulo de
programa situado en ella.
Partición
– Provocada al no llenar la partición.
vacía
– Ej: MEM de 10k dividida en regiones de 2k.
Un módulo de 1.5 k desperdicia 0.5 k.
• Fragmentación Externa:
– Por la mala gestión del espacio libre entre
procesos: Espacios entre procesos.
S.O.
– Provocada por el espacio muerto entre
particiones. Proceso
– Ej.: Cuatro procesos dejando espacios entre si de
2, 5 y 7 k. La llegada de un proceso requiriendo
14k no atendida aun teniendo ese espacio libre
en MEM. Proceso
15
5. Particiones de memoria: tipos
Carga de programas: tipos.
• Contigua simple.
• Particiones estáticas.
• Particiones estáticas: varios tamaños.
• Particiones dinámicas.
• Segmentación.
• Paginación.
16
5. Particiones de memoria (I)
Carga de programas : Contigua simple.
• Un solo proceso en MEM.
• No se permite la multiprogramación.
• División en: S.O., área de programa y área sin uso.
• Protección: limitado el acceso a la zona del sistema operativo (posición fija).
S.O.
Proceso
Sin uso
17
5. Particiones de memoria (II)
Carga de programas: Particiones estáticas (IBM OS/360).
• Particiones de igual tamaño.
• Cada partición contiene el espacio de direcciones de un programa.
• Los procesos de tamaño menor o igual al de la partición pueden ser ejecutados.
• Útil si son conocidas las necesidades de MEM de los procesos.
Problemas
• Programas muy grandes:
• No partición suficiente.
• Diseño mediante overlays (superposición). Consiste en mantener en memoria solo aquellas
instrucciones y datos que se requieren en un momento determinado.
• Uso ineficiente de MEM:
• Programas muy pequeños ocuparán una partición completa.
• Problemas si el proceso crece.
18
5. Particiones de memoria (III)
Carga de programas: Particiones estáticas de varios tamaños.
19
5. Particiones de memoria (IV)
Carga de programas: Particiones estáticas .
20
5. Particiones de memoria (V)
Carga de programas: Particiones estáticas de varios tamaños.
• Colas independientes:
• Una cola para cada partición o tipo.
• Los trabajos se asignan a las colas en la ejecución.
• Se reduce la fragmentación interna.
• No óptimo en espacio.
• Cola única:
• Mayor fragmentación.
• Todas las particiones en uso.
• Necesario un algoritmo de asignación a la partición.
Asignaciones
Los procesos entran en la cola de entrada.
El sistema los asigna en función de la MEM disponible y necesitada.
La cola se ordena según el algoritmo de asignación.
21
5. Particiones de memoria (VI)
Carga de programas: Particiones Dinámicas.
22
5. Particiones de memoria (VII)
• Sistema con tres procesos de 8k, 32 k y 120k. 1
Nº Tamaño Direcc. Situación Nº Tamaño Direcc. Situación
P1
1 8k 312 Asign. 1 32k 352 Utilizable
2 32k 320 Asign. 2 520k 504 Utilizable.
P2
3 --- ---- Vacía. 3 ---- ---- Vacía.
4 120k 384 Asign. 4 ---- ---- Vacía.
P3 • Llegan P4 (24k), P5 (128k) y P6 (256k). 0 0
• Terminan los procesos P2 y P3. S.O. S.O.
312 312
P1 8K P1 8K
320 320
P2 32K P2 32K
352 352
N1 384
P4 24K
384
P3 120 K P3 120 K
504 504
P5 128K
632
N2 P6 256 K
888
1024
1024
23
5. Particiones de memoria (VIII)
Nº Tamaño Direcc. Situación Nº Tamaño Direcc. Situación
P1 1 8k 312 Asign. 2
1. 32k 320 Utilizable.
2 32k 320 Vacía. 2. 128k 376 Utilizable.
P4 3 24k 352 Asign.
3. 136k 888 Vacía.
4 8k 376 Vacía.
5 120k 384 Vacía.
P5 6 128k 504 Asign. 0 0
7 256k 632 Asign. S.O. S.O.
8 136k 888 Vacía.
P6
312 312
P1 8K P1 8K
320
N2 P2 32K
N1 32 K
320
352 352
P4 24K P4 24K
N4 384 384
N5
P3 120 K N2 = N4 + 128K
504
N5 504
P5 128K P5 128K
632 632
P6 256 K P6 256 K
888 888
N3
1024 1024
24
5. Particiones de memoria (IX)
Swapping
• Los procesos para ejecutarse han de estar en MEM.
• Multiprogramación: una planificación rápida necesita varios procesos en MEM.
• Los procesos figuran en una cola. El proceso planificado es cargado en MEM. Si es
necesario se descarga otro proceso (inactivo, sin I/O pendientes).
• Necesidades de MEMs mayores que las MEMs existentes.
• Los procesos que tardarán en ser usados se guardan en el HD.
• El espacio de memoria del proceso se vuelca al HD.
• Organización en particiones.
• La posición de regreso depende de la capacidad de reubicación del sistema.
• En algunos sistemas se asigna un área de swapping durante la creación del proceso.
• El tiempo de intercambio es prácticamente el de transferencia, que es proporcional a la MEM
intercambiada.
• El swapping es muy costoso.
• En sistemas UNIX se activa para un umbral de carga.
25
5. Particiones de memoria (X)
Carga de programas: Segmentación
• Generalización de la asignación de particiones variables.
• Los bloques de un proceso pueden estar en áreas distintas y no contiguas (segmentos).
• Se permite la reubicación dinámica.
• Fácil protección y uso compartido.
• Direccionamiento: segmento:desplazamiento.
Proceso crece:
1. Se usa memoria contigua.
2. Se desplaza a un hueco suficiente.
3. Swapping de procesos para liberar espacio.
4. En caso contrario: Espera o muerte.
27
5. Particiones de memoria (XII)
Carga de programas: Paginación.
• División de la MEM en particiones fijas.
• Cada proceso se distribuye en varias de estas particiones.
• Tamaño de las particiones es pequeño en relación con el tamaño de los procesos.
• Los trozos del proceso se denominan páginas y los trozos libres de memoria se denominan
marcos.
• El sistema operativo mantiene una tabla de páginas para cada proceso:Muestra la posición
del marco de cada página del proceso.
• La dirección de la memoria consta de un número de página y de un desplazamiento dentro de la
página.
Proceso1 Proceso2
Tabla páginas.
Proc1
Tabla páginas.
Proc2
28
5. Particiones de memoria (XIII)
Gestión de las Asignaciones: Métodos.
• Mapas de bits.
• Listas enlazadas.
• Tablas de particiones.
• Tablas de páginas.
29
5. Particiones de memoria (XIV)
Asignaciones: Métodos.
A B C D
1 1 1 1 1 0 0 0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
23
E
24 25 26 27 28 29
Lista enlazada.
Mapa de Bits P, 0, 5 ,0 P: proceso
11111000 H, 5, 3 ,0 H: hueco
11111111 P, 8, 6 , 0
11001111 P, 14, 4, 0 P/H Inic tamaño Puntero
H, 18, 2, 0
11111000 P, 20, 6, 0
P, 26,3,0
H, 29, 3, 0
30
5. Particiones de memoria (XV)
Asignaciones: Métodos.
• Mapas de bits.
• Cada zona de MEM está representada por un bit:
• 1 => ocupada.
• 0 => libre.
• Bloque memoria grande =>
• Consumo.
• Particiones pequeñas => poca fragmentación.
• Bloque memoria pequeño =>
• Poco consumo.
• Particiones grandes => gran fragmentación.
31
5. Particiones de memoria (XVI)
Asignaciones: Métodos.
• Listas enlazadas.
• La MEM se presenta como una lista enlazada de segmentos.
• Se indica si es hueco (h) o proceso (p), dirección de inicio, longitud, puntero al siguiente
elemento.
32
5. Particiones de memoria (XVII)
Asignaciones: Aceleración
33
5. Particiones de memoria (XVIII)
Asignaciones: Métodos
Sistema de colegas (Buddy system)
• El espacio entero disponible para la asignación se trata como un solo bloque de
tamaño 2U.
• Si se hace una solicitud de tamaño s tal que 2U-1 < s <= 2U, entonces el bloque
entero se asigna:
• En otro caso, el bloque se divide en dos colegas de igual tamaño.
• Este proceso continúa hasta que el bloque más pequeño sea mayor o igual que s
generándose.
• The buddy system
• Ventaja:
• Al liberar MEM solo se ha de buscar en la lista correspondiente para consolidaciones.
• Inconveniente:
• Fragmentación interna. Redondeo a 2 n.
34
5. Particiones de memoria (XIX)
Asignaciones: Métodos.
Sistema de colegas (Buddy system)
35
5. Particiones de memoria (XX)
Asignaciones: Métodos.
Sistema de colegas (Buddy system)
• The buddy system:
• Gestión de las zonas de MEM y huecos en potencias de 2.
2^20 = 1.048.576 + 2^0
• Listas separadas según tamaño: 1,2, 4, 8, 16, 32, 64 , etc. (1MB => 21 listas).
• Inicio: todas las listas vacías (excepto la total).
• Ej. Sistema con 1MB.
• Entrada de un proceso 70k => 27 = 128k
• Se ha de crear una partición del tamaño.
58k
P1-70k
36
5. Particiones de memoria (XXI)
Asignaciones: Métodos.
Sistema de colegas (Buddy system)
• The buddy system.
• Llega P2 de 35k => 26 = 64k.
128k 64k 256k 512k 1MB
58k 29k
P1-70k P2-35k
Llega P3 de 80k => 27 = 128k
37
5. Particiones de memoria (XXII)
Asignaciones: Métodos.
Sistema de colegas (Buddy system)
29k 4k 48k
P2-35k P3-80k
P4-60k
38
5. Particiones de memoria (XXIII)
Asignaciones: Métodos.
Sistema de colegas (Buddy system)
• The Buddy system.
• Se consolidan particiones potencia de 2.
• Sale P2.
256k
128k 64k 512k 1MB
128k
64k 4k 48k
P3-80k
39
5. Particiones de memoria (XXIV)
40
5. Particiones de memoria (XXV)
Análisis de la gestión. Memoria desperdiciada.
• Asimetría por fundir huecos adyacentes: dos procesos contiguos son dos
procesos, y dos huecos contiguos, son un hueco más grande. Por tanto, hay
doble número de procesos que de huecos:
• Nº procesos (n) = 2 * Nº huecos. A esto se le conoce como la regla del 50 por
100.
– F: % memoria desperdiciada en huecos.
– s : tamaño medio de los n procesos.
– k : tamaño huecos/tamaño procesos.
– k*s : tamaño medio del hueco para alguna k > 0.
• Con una memoria de m bytes, los n/2 huecos ocupan:
– Huecos = m – n*s o también Huecos = (n/2) k*s
– Haciendo cálculos: (n/2)*k*s = m – n*s; m = n*s + (n/2)*k*s;
m = n*s (1 + k/2)
• Por tanto, F será igual a:
42
6. Algoritmos de Asignaciones (II)
43
6. Algoritmos de Asignaciones (III)
Algoritmos de Asignaciones: Aceleración.
• Listas separadas:
• Los algoritmos pueden ser acelerados mediante listas separadas de huecos y
procesos.
• Los alg. Sólo buscan en la lista de huecos.
• Actualizaciones de las listas son complejas.
• Ordenación según el tamaño.
• Mejora en el Best fit.
• Quick fit:
• Listas separadas para los tamaños más usados.
• Las búsquedas son rápidas.
• Actualizaciones lentas.
44
7. Memoria Virtual: conceptos (I)
45
7. Memoria Virtual: conceptos (II)
• Fotheringham, 1961: “El programa (pila, datos, programa) puede ser mayor
que la memoria. El S.O. mantiene las partes en uso del programa en memoria y
el resto en el disco duro. Se tiene una memoria virtual.”
47
7. Memoria Virtual: Soporte
Soportes de la memoria virtual.
• Tiene que existir un soporte de hardware para la paginación y la
segmentación.
• El sistema operativo debe incluir un software para gestionar el movimiento
de páginas o segmentos entre memoria secundaria y memoria principal.
• Memoria virtual:
• Espacio de direcciones >> Memoria.
• El espacio virtual dividido en páginas (512 B< página < 8 KB).
• Cada página se corresponde con un marco de página.
• Tamaño marco = tamaño página.
• Transferencias memoria disco son del tamaño de la página.
48
8. Tablas de páginas (I)
49
8. Tablas de páginas (II)
Lista de
Tabla de
Tabla de Tabla de marcos
páginas del
páginas del proceso B páginas del Tabla de libres
proceso A proceso C páginas del
proceso D
50
8. Tablas de páginas: Traducción (I)
Sistema con VM de 64k
MEM Física de 32k.
Espacio del proceso
PÁGINAS
Espacio de memoria física 0 010 1
0, 4k 0
MARCOS
1 001 1
000 0, 4k
4, 8k 1
001 4, 8k
2 111 1
8, 12k 2
010 8, 12k 3 000 1
3
12, 16k 011 12, 16k 4 101 1
4
16, 20k 100 16, 20k
20, 24k
5
101
5 011 1
20, 24k
24, 28k
6
110 6 000 0
7 24, 28k
28, 32k 111
28, 32k 7 000 0
8
32, 36k
9 8 000 0
36, 40k
10 9 100 1
40, 44k •
11 La página no presente => bit de ausencia. 10 000 0
44, 48k 12
48, 52k 13
• Su acceso genera un fallo de página. 11 110 1
52, 56k 14
1. Detiene ejecución. 12 000 0
56, 60k 15 2. Salva el contenido de un marco en el HD. 13 000 0
60, 64k 3. Se carga la página llamada.
14 000 0
4. Retorna la ejecución del programa en la
dirección que generó el fallo. 15 000 0
51
8. Tablas de páginas: Traducción (II)
52
8. Tablas de páginas: Traducción (III)
Posición de memoria
dentro de la página.
Conversión en binario
Conversión en binario
Conversión en binario
53
8. Tablas de páginas: Traducción (IV)
• Ejemplo:
54
8. Tablas de páginas: Traducción (IV)
55
8. Tablas de páginas: Traducción (V)
56
8. Tablas de páginas: Implementación (I)
57
8. Tablas de páginas: Implementación (II)
58
8. Tablas de páginas: Implementación (III)
59
8. Tablas de páginas: Implementación (III)
TP1 4MB
1024
Dirección
PT2 1024
2^10
60
8. Tablas de páginas: Implementación (IV)
Esquema de dos niveles para direcciones de 32 bits
4 Kbytes para la
raíz de la tabla
de páginas
4 Mbytes para la
tabla de páginas
de usuario
4 Gbytes para el
espacio de direc-
ciones de usuario
61
8. Tablas de páginas: Implementación (V)
MEM asociativa.
– Por la lentitud en las traducciones.
– Tablas P grandes => en MEM, no en registros.
– Localidad en las referencias a memoria.
– Solución:
• Componente del MMU con 8-32 entradas.
• Cada entrada:
1. nº página virtual.
2. Bit de modificado.
3. Protección (rwx).
4. Marco de página (real).
5. Validez.
• El cambio de contexto borra la MEM asoc.
– Comienza limpia para cada proceso.
– Solución: un juego de MEM asoc. Por proceso.
62
8. Tablas de páginas: Implementación (VI)
63
8. Tablas de páginas: Implementación (VII)
Dirección virtual
64
8. Tablas de páginas: Implementación (VIII)
Buffer de traducción adelantada.
• Cada referencia a la memoria virtual puede generar dos accesos a la memoria:
• Uno para obtener la entrada de la tabla de páginas correspondiente.
• Otro para obtener el dato deseado.
• Para solucionar este problema, los esquemas de memoria virtual hacen uso de
un cache especial para las entradas de la tabla de páginas:
• Se trata de la buffer de traducción adelantada (TLB, Translation Lookaside Buffer).
• Contiene aquellas entradas de la tabla de páginas usadas hace menos tiempo.
• Funciona del mismo modo que una memoria cache.
65
8. Tablas de páginas: Implementación (IX)
66
8. Tablas de páginas: Implementación (X)
67
9. Algoritmos de reemplazo (I)
68
9. Algoritmos de reemplazo (II)
• FIFO:
– Primera página en entrar es la primera en salir.
– Trata los marcos asignados a un proceso como un buffer circular.
– Las páginas se suprimen de la memoria según la técnica de turno rotatorio (round-robin).
– Es una de las políticas de reemplazo más sencillas de implementar.
– Se reemplaza la página que ha estado más tiempo en la memoria.
– Problema: Estas páginas pueden necesitarse de nuevo y en un plazo de tiempo corto.
• Óptimo:
– Víctima será la página que más tardará en ser usada.
– Tiene la menor tasa de fallos.
– No es implementable: Conocer los accesos futuros.
– Se usa como patrón de evaluación.
69
9. Algoritmos de reemplazo (III)
• Menos recientemente usada (Least Recently Used).
• Se predice el futuro en función del pasado.
• Víctima: página menos usada en el pasado.
• Cada página asociada con el instante del acceso.
• Necesarias estructura de información para gestionar la historia:
• Contador de tiempo / página.
• Cola de accesos/página.
• Pila: con los accesos. Al principio siempre el último acceso.
70
9. Algoritmos de reemplazo (IV)
Aproximaciones a LRU:
• Bit de referencia: Bit en ON por cada acceso.
• Bits de ref. adicionales: Histórico de los accesos con cadenas de bits. Se ponderan los
accesos.
• Segunda oportunidad: FIFO + bit de referencia.
• Puntero que barre los marcos.
• Bit = 0 => reemplazo.
• Bit = 1 => bit = 0: avance de posición.
• Least frequetly used (LFU)
• Bits de ref. adicionales.
• Contador de accesos.
• Problema: Fijar el origen de tiempos no es bueno por la localidad.
• Reloj:
– Requiere asociar un bit adicional a cada marco, denominado bit de uso.
– Cuando se carga una página por primera vez en un marco de memoria, el bit de uso de dicho marco
se pone a cero.
– Cuando se hace referencia a la página posteriormente, el bit de uso se pone a 1.
– Cuando llega el momento de reemplazar una página, el primer marco encontrado con el bit de uso
a 0 es reemplazado.
– Durante la búsqueda para realizar reemplazos cada bit de uso a 1 se cambia a 0.
71
9. Algoritmos de reemplazo (V)
72
9. Algoritmos de reemplazo (VI)
73
9. Algoritmos de reemplazo (VII)
CACHÉ de páginas.
74
10. Tamaño de página (I)
• Cuanto menor sea el tamaño de página,
• Menor será la cantidad de fragmentación interna.
– Mayor será el número de páginas que se necesitan por proceso.
– Tabla de páginas grandes o mayor número de registros en la MMU.
• Un número mayor de páginas por proceso significa que las tablas de páginas serán mayores.
– Una gran parte de las tablas de páginas de los procesos activos deben estar en la memoria virtual.
• La memoria secundaria está diseñada para transferir eficazmente los bloques de datos de mayor
tamaño, de manera que es propicia para tamaños de página mayores.
75
10. Tamaño de página (II)
76
10. Tamaño de página: Hiperpaginación
Hiperpaginación.
• El número de páginas de cada programa (working set) es inferior al necesario para el
principio de proximidad.
• El sistema operativo expulsa un fragmento de un proceso justo antes de ser usado.
• El procesador consume más tiempo intercambiando fragmentos que ejecutando
instrucciones de usuario.
77
Ejemplos de tamaños de páginas
78
10. Tamaño de página: Working set
• Asignación fija:
• Otorga a cada proceso un número fijo de páginas en las que ejecutar.
• Cada vez que se produce un fallo de página en la ejecución de un proceso, se debe reemplazar una
de las páginas de dicho proceso.
• Asignación variable:
• Permite que el número de marcos asignados a un proceso cambie a lo largo de su vida.
• Sencilla de implementar.
• Usada por un buen número de sistemas operativos.
• Cuando se produce un fallo de página, se añade un marco libre al conjunto residente del proceso.
• Cuando no hay marcos libres, el sistema operativo debe elegir una página que esté en la memoria
para reemplazar. Cuando se carga un nuevo proceso en la memoria, se le asigna cierto número de
marcos en función del tipo de aplicación, las necesidades del programa u otros criterios.
• Cuando se produce un fallo de página, se selecciona la página a reemplazar de entre las del
conjunto residente del proceso que sufre el fallo.
• La asignación se evalua periodicamente.
79
• Resident set: Es la parte de un proceso que está realmente en
la memoria principal.
• Working set: Es la porción cargada en memoria necesaria
para que un proceso funcione. Forma parte del Resident set.
80
Working Set en WNT
Ej.: Working Set en WNT
• Dependencia del Working Set con la memoria.
• En situaciones de hiperpaginación se revisa el número de marcos disponibles.
81
11. Política de carga (I)
Políticas de lectura.
• Política de lectura:
• Está relacionada con la decisión de cuándo se debe cargar una página en la memoria
principal.
• Con la paginación por demanda, se trae una página a la memoria principal sólo cuando se
hace referencia a una posición en dicha página:
• Cuando un proceso se ejecute por primera vez, se producirán muchos fallos de página.
• Con la paginación previa, se cargan más páginas de las necesarias:
• Es más eficiente traer a la memoria un número de páginas contiguas.
82
11. Política de carga (II)
Control de carga.
• Determina el número de procesos que pueden estar en la memoria principal.
• Cuando hay pocos procesos residentes en la memoria, habrá muchas ocasiones en las que
todos los procesos estén bloqueados y se gastará mucho tiempo en el intercambio.
• Si hay demasiados procesos residentes, el resultado será la hiperpaginación.
83
12. Memoria Virtual: Segmentación
Segmentación.
• Los segmentos pueden ser de distintos tamaños, incluso variando de forma dinámica.
• Simplifica la gestión de estructuras de datos crecientes.
• Permite modificar y recopilar los programas independientemente.
• Mejoras en la compartición entre procesos.
• Mejoras en la protección.
84
Entradas de las tablas de segmentos
Dirección virtual
Número de segmento Desplazamiento
85
13. Paginación y segmentación combinadas (I)
86
13. Paginación y segmentación combinadas (II)
Dirección virtual
Nº. segmento Despla-
Número de segmento Número de página
zamiento
87