Está en la página 1de 4

1.

Definir los siguientes conceptos dentro de la evolución de la


monoprogramación: monoprogramación, multiprogramación.
Proceso en Serie. Proceso por Lotes.
Monoprogramación, también llamada monoejecución, es un sistema de explotación
en el que sólo se ejecuta un programa a la vez y no se ejecuta otro hasta que se
termina con el anterior. En otras palabras, se ejecuta un solo programa a la vez
dentro de un solo espacio de direcciones.
Este tipo de ejecución prácticamente no existe más pues ha sido reemplazado por la
multiprogramación.
La multiprogramación En un sistema multiprogramado la memoria principal alberga
a más de un programa de usuario. La CPU ejecuta instrucciones de un programa,
cuando el que se encuentra en ejecución realiza una operación de E/S; en lugar de
esperar a que termine la operación de E/S, se pasa a ejecutar otro programa. Si
éste realiza, a su vez, otra operación de E/S, se mandan las órdenes oportunas al
controlador, y pasa a ejecutarse otro. De esta forma es posible, teniendo
almacenado un conjunto adecuado de tareas en cada momento, utilizar de manera
óptima los recursos disponibles.
Procesamiento en serie : Se trata de un procesamiento secuencial de todos los
procesos. Es lento y poco práctico.
Procesamiento por lotes : Los trabajos se agrupan por lotes similares, se introduce
todo el lote en la máquina, y ésta ejecuta completamente el lote. Este proceso
conllevaba una pérdida de interactividad con el usuario.

2. Definir los siguientes conceptos dentro de la evolución de la


multiprogramación: Proceso por Lotes con Multiprogramación .
Sistema de Tiempo Compartido. Multiproceso Simétrico .SO
Distribuidor o de Red.
Proceso por Lotes con Multiprogramación: Aun con la secuenciación de trabajo
automático proporcionado por un sistema operativo por lotes simples, con
frecuencia el procesador está desocupado.Su desventaja es que los dispositivos de
E/S son lentos comparados con el procesador.
Sistema de Tiempo Compartido: En estos sistemas los programas de los distintos
usuarios residen en memoria. Al realizar una operación de E/S los programas ceden
la CPU a otro programa, al igual que en la multiprogramación. Pero, a diferencia de
ésta, cuando un programa lleva cierto tiempo ejecutándose el sistema operativo lo
detiene para que se ejecute otra aplicación. Con esto se consigue repartir la CPU
por igual entre los programas de los distintos usuarios, y los programas de los
usuarios no se sienten demasiado lentos por el hecho de que los recursos sean
compartidos y aparentemente se ejecutan de manera concurrente.
Multiproceso Simétrico: SMP (del inglés Symmetric Multi-Processing, en español
"multiproceso simétrico") es un tipo de arquitectura de computadores en la que dos
o más unidades de procesamiento comparten una única memoria central.
Una de las soluciones posibles para aumentar el rendimiento de los servidores, y en
general de cualquier PC, es dotar a la máquina de más de un procesador. Descubra
en el presente artículo cómo funciona el multiproceso simétrico.
SO Distribuidor:Un sistema operativo distribuido se configura como un grupo de
servidores que comparten memoria y tareas. Estos servidores actúan al unísono y
proporcionan más potencia que un solo servidor de computadora grande.
Normalmente, esto genera un mejor rendimiento porque la carga se distribuye entre
varios servidores.

SO de Red:El sistema operativo de red es conocido por sus siglas en inglés N.O.S,
es decir, Network Operating System. Este software posee la capacidad de la
interconexión de varios equipos, accediendo al hardware y software, creando una
red de equipos. Este Software sirve para coordinar y manejar las actividades desde
un ordenador a una red de computadoras, también incluye herramientas propias de
sistema operativo; por ejemplo, las herramientas para el uso de ficheros y
directorios, así como el mantenimiento y administración de la red. Incluso las
herramientas de correo electrónico, envío de mensaje, la acción de aplicaciones
incluidas en otro equipo, copia de nodus y distribución de recursos de hardware.

3. Definir qué es la “Gestión de la Memoria” por parte del sistema


operativo. Definir los requisitos debe cumplir el sistema operativo
al momento de gestionar la memoria: Reubicación, Compartición y
Protección.
Se denomina gestión de memoria al acto de gestionar la memoria de un dispositivo
informático. De forma simplificada se trata de proveer mecanismos para asignar
secciones de memoria a los programas que las soliciten, y a la vez, liberar las
secciones de memoria que ya no se utilizan para que estén disponibles para otros
programas.
Reubicación/Reasignación: En los sistemas con memoria virtual, los programas
durante su ejecución pueden salir por un tiempo de la memoria y luego regresar, de
modo que no pueden colocarse en el lugar que ocupaban previamente. Por ello
debe ser posible que residan en diferentes partes de la memoria en diferentes
momentos. Así, la gestión de memoria en el sistema operativo debe ser capaz de
trasladar los programas en memoria y manejar referencias a la memoria y las
direcciones en el código del programa para que siempre apunten a la ubicación
correcta. La unidad de gestión de memoria virtual también debe hacer frente a la
concurrencia.
Compartición:la memoria utilizada por diferentes procesos suele estar protegida,
algunos procesos puede que sí tengan que compartir información y, para ello, han
de acceder la misma sección de memoria. La memoria compartida es una de las
técnicas más rápidas para posibilitar la comunicación entre procesos.
Protección: Los procesos no deberían poder referenciar la memoria de otros
procesos sin permiso, para evitarlo existe la protección de memoria, que evita que
código malicioso o erróneo de un programa interfiera con la operación de otros
programas en ejecución.
4. Definir y explicar brevemente las Formas de Carga de un
Programa en Memoria por parte del sistema operativo. Las
siguientes están descriptas en orden evolutivo:

● Partición Fija.
Este esquema introdujo un factor esencial, la protección del espacio de memoria
para la tarea. Una vez asignada una partición a una tarea, no se permitía que
ninguna otra tarea entrara en sus fronteras. Este esquema de partición es más
flexible que la de usuario único, por que permite que varios programas estén en
memoria al mismo tiempo.

● Partición Dinámica.
Las particiones dinámicas son variables en número y longitud, esto quiere decir que
cuando se carga un proceso a memoria principal se le asigna el espacio que
necesita en memoria y no más. Esta partición comienza siendo muy buena pero en
el transcurso de uso deja un gran número de huecos pequeños en la memoria lo
cual se le denomina fragmentación externa. Se debe usar la compactación para
evitar esta fragmentación, el sistema operativo desplaza los procesos para que
estén contiguos de forma que todos los espacios de memoria libre se agrupen en un
bloque.

● Paginación.
La paginación consiste en dividir la memoria en un conjunto de marcos de igual
tamaño, cada proceso se divide en una serie de páginas el tamaño de los marcos,
incluso el espacio para el sistema operativo también está paginado, un proceso se
carga en los marcos que requiera (todas las páginas), no necesariamente contiguas
es decir seguidas.
● Segmentación.
Divide la memoria en segmentos, cada uno de los cuales tiene una longitud variable,
que está definida intrínsecamente por el tamaño de ese segmento del programa.
Los elementos dentro de un segmento se identifican por su desplazamiento, esto
con respecto al inicio del segmento.
● Segmentación Paginada.
La segmentación paginada ayuda al proceso de gestión de memoria, puede hacerse
una combinación de segmentación y paginación para obtener las ventajas de
ambas.
● Intercambio.
El espacio de intercambio (también conocido como archivo de paginación o
memoria virtual) es una zona del disco (un fichero o partición) que se usa para
guardar las imágenes de los procesos que no han de mantenerse en memoria física.
A este espacio se le suele llamar swap, del inglés intercam

● Asignación Contigua

La asignación de memoria contigua es uno de los métodos de asignación de


memoria más antiguos. Así es como funciona: cuando un proceso necesita
ejecutarse, el proceso solicita memoria. El tamaño del proceso se compara con la
cantidad de memoria principal contigua disponible para ejecutar el proceso.

También podría gustarte