Está en la página 1de 11

UNIDAD 1 Introducción a los sistemas operativos.

Definición y concepto.
1.1 Sistema Operativo.- Colección de mecanismos de software destinados a servir de interface entre un
sistema informático y sus usuarios, el cual ofrece herramientas y facilidades para simplificar las tareas de
diseño, codificación, depuración, actualización, etc.
Administra los recursos hardware y software que constituyen el sistema informático a explotar.
Nació con la necesidad de llevar el control de quién utiliza los recursos software (usuario(s)).
Componentes principales: manejo de procesos, entrada/salida, manejo de memoria y del sistema de archivos.
Un sistema de computación consta de hardware, programas del sistema y programas de aplicación.
1.2 Funciones y características.
Las funciones básicas de un so son:
soporte para la ejecución de sw(software) de aplicación
elemento de diagnóstico de hw(hardware)
elemento de una red de computadoras
elemento que optimiza el aprovechamiento de los recursos lógicos y físicos de un sistema de cómputo
1.3 Evolución histórica.
Los primeros sistemas.
En un principio sólo existía el hardware de la computadora. Las primeras computadoras eran (físicamente)
grandes máquinas que se operaban desde una consola. Una sola persona programaba y operaba el equipo.
Accesos por operador
En 1955 se separaron las funciones informáticas: Programación, operación y mantenimiento. El operador se
encarga del manejo de la máquina (cargar programas, obtener resultados, hacer respaldos, etc.) y el
programador dejó de tener acceso a la computadora.
Los programadores daban al operador los trabajos, éste los reunía y los ejecutaba uno tras otro y recogía los
resultados entregándolos a los programadores.
Otra solución: El operador agrupaba los trabajos similares en requerimientos y los ejecutaba como si fueran
un bloque (todos los de cobol, todos los de fortran), así se cargaba sólo una vez el compilador.
Secuencia automática de trabajos
El trabajo del operador era muy rutinario y podía automatizarse. Se diseñó un programa que transfería
automáticamente el control de un trabajo a otro, el monitor residente (1er sistema operativo). Al encender el
equipo el control se daba al programa monitor, este lo pasaba al 1er trabajo, el cual al terminar regresaba el
control al monitor, y así sucesivamente. El monitor constaba de:
Secuenciador de trabajos,
Memoria
intérprete de tarjetas de control
($) y drivers de entrada/salida
drivers
secuenciador

Intérprete de tarjetas de control

Programa de usuario

Mejora del rendimiento


Aun quedaba mucho tiempo del cpu ocioso debido a la diferencia de velocidad entre este y los dispositivos
entrada/salida que eran mecánicos.
Off-Line
Aparecieron las cintas magnéticas, más rápidas que las tarjetas perforadas, pero secuenciales. Entonces se
perforaban los programas en tarjetas y de ahí se pasaban a una cinta, esta cinta en bloque se pasaba a
ejecución y los resultados en una nueva cinta y de ahí a la impresora. Las operaciones se hacían en
dispositivos distintos lo que aumentaba la velocidad
On line
Lector de tarjetas->CPU->Impresora
Off Line
Lector de tarjetas->Unidad de Cinta->CPU->unidad de cinta->Impresora
Se podían tener varias lectoras de tarjetas y unidades de cinta y mantener ocupado al CPU, la desventaja era
que el usuario debía esperar a que se llenara la cinta para ser atendido.
Buffering
Trata de mantener ocupados tanto el CPU como los dispositivos de E/S. Los datos se leen y se almacenan en
un buffer (memoria intermedia), una vez que los datos se han leído y el CPU va a iniciar la operación, el
dispositivo de entrada es instruido para iniciar inmediatamente la siguiente lectura. El CPU y el dispositivo de
entrada permanecen ocupados. Cuando el CPU esté libre para el siguiente grupo de datos, el dispositivo de
entrada habrá terminado de leerlos. El CPU podrá empezar el siguiente proceso y el dispositivo de entrada
iniciará la lectura de los datos siguientes.
Para la salida, los resultados se descargan en otro buffer hasta que el dispositivo de salida pueda procesarlos.
Todo depende del tamaño del buffer y de la velocidad de procesamiento CPU y los E/S.
Spooling (SPOOL Simultaneous Peripheral Operation On Line)
El problema con los sistemas de cintas es que una lectora de tarjetas no podía escribir sobre un extremo de la
cinta mientras el CPU leía el otro. Los sistemas de disco eliminaron esa dificultad, por su acceso directo. Las
tarjetas se cargan directamente desde la lectora sobre el disco. Cuando se ejecuta un trabajo sus peticiones de
entrada se satisfacen leyendo el disco. Cuando el trabajo solicita la salida, ésta se escribe en el disco. Cuando
la tarea se ha completado se escribe en la salida realmente.
Se usa el disco como un buffer muy grande para leer por anticipado como sea posible de los dispositivos de
entrada y para almacenar los archivos hasta que los dispositivos de salida sean capaces de aceptarlos.
La ventaja sobre el buffering es que el spooling traslapa la E/S de un trabajo con el procesamiento de otro.
Además mantiene una estructura de datos llama job spooling, que hace que los trabajos ya cargados
permanezcan en el disco y el sistema operativo puede seleccionar cual ejecutar, por lo tanto se hace posible la
planificación de trabajos mediante una cola por turno, tamaño o prioridad.
MULTIPROGRAMACIÓN

entrada/salida

Driver
entrada/salida w1 w2 libre w3 libre

S.O.

Planificador

CPU

Tipos de trabajo:
Limitados por proceso: La mayor parte de su tiempo ocupan CPU
Limitados por operaciones entrada/salida: La mayor parte de su tiempo ocupan e/s

Proceso limitado por E/S Espera e/s

El segundo tipo dio origen a la Multiprogramación.- Modo de trabajo en el que se pueden ejecutar varios
programas simultáneamente aprovechando la inactividad del CPU en una operación e/s para optimizar el uso
de los recursos. Surge de la imposibilidad de que con un solo trabajo se puedan tener ocupados el cpu y los
entrada/salida todo el tiempo
Da la impresión que todos los procesos están siendo atendidos a la vez pero son conmutados

Programa 1 Programa 2

Mono
Inactividad del
CPU
Programa 1
Mult
i Programa 2
Problemas:
1 El cpu debe tener reglas para ejecutar todos los trabajos
2 Se necesita administración de memoria porque será compartida por varios trabajos
3 Varios trabajos pueden necesitar el mismo recurso a la vez (concurrencia)
Surge el núcleo del sistema (Kernel): rutinas para gestión de memoria, cpu y demás recursos
Proceso por lotes (batch)
El que no necesita la intervención del usuario en la ejecución de los trabajos. Generalmente son trabajos
grandes que son solicitados y colocados en una cola FIFO, y el CPU va tomando un grupo y los ejecuta en
paralelo

Trabajos en
Lista de
ejecución
trabajos

Tiempo Compartido
El proceso por lotes no permite el diálogo entre usuario y proceso, surge la multiprogramación interactiva,
junto con las terminales interactivas (teclado-pantalla), donde el usuario ya Comp
no tiene que dar todos los datos al inicio, sino darlos conforme se
necesiten, e ir obteniendo respuesta inmediata. Central
La organización no es por trabajos sino por sesiones.
Sesión.- Conjunto de trabajos que se realizan desde que un usuario se
conecta a la computadora hasta que se despide. Existe un programa
llamado intérprete de comandos, que mantiene el diálogo entre usuario y
sistema operativo.
Características:
*Interactivos *Varios usuarios * Tiempos de respuesta cortos
*Gestión de archivos y memoria * Usa buffering y spooling
Con estos sistemas operativos surgen utilerías para facilitar el trabajo a los usuarios, como el editor de textos.
Tiempo real
Sistema multiprogramado con
tiempos de respuesta cortos.
Se usa en aplicaciones
Control Sistema
dedicadas a sistemas de
Compu.
control con sensores como Controlado
central
elementos de entrada. Un
sistema trabaja en tiempo real
si el tiempo de respuesta
permite controlar el medio Sensor
sobre el que opera.
Tiene su uso en el control de procesos industriales
Características:
*Tiempo de respuesta en ms *Información actualizada constantemente
*El sistema está dedicado a responder a eventos de entrada
Proceso distribuido
Interconexión de computadoras compartiendo un Compu1
mismo almacenamiento para el intercambio de
información.
Cada computadora cuenta con interfaz, memoria y
cpu.
Comp3
Multiproceso
Han surgido aplicaciones muy demandantes donde
un solo cpu no es capaz de procesar la información Compu2
en tiempo. Se hizo necesaria la descomposición de
los algoritmos en subalgoritmos más sencillos y que
puedan tratarse con cierta independencia. Al final se conjuntan los datos obteniendo el resultado final. Los
subalgoritmos pueden trabajar en paralelo. Una sola computadora puede tener varios cpu’s, ahorrando tiempo.
Su sistema operativo es complejo ya que debe administrar más de un cpu y repartir los trabajos
equilibradamente optimizando el proceso global.
cpu1 cpu2

cpu3 cpu4
e/s

Memoria

Sistema operativo
Trabajos de
Planificador
Usuario
Coordinador

De cpu’s

Cpu Cpu Cpu Cpu


1 2 3 4
Comparación entre monoprocesador y multiprocesador
a

d
mono 1 cpu multi
d d
c c c c
b b b b b b
a a a

t1 t2

4 cpu’s
d
c
b
a

t3 t3<t1
t3<t2
1.4 Clasificación.
Sistemas Operativos por Servicios
Esta clasificación es la más comúnmente usada y conocida desde el punto de vista del usuario final.

Monousuarios: un usuario a la vez, no importa el número de cpu’s, número de procesos que pueda ejecutar
en un mismo instante de tiempo. PC’s.
Multiusuarios: más de un usuario a la vez, por varias terminales conectadas a la computadora o por sesiones
remotas en una red de comunicaciones. No importa el número de cpu’s ni el número de procesos que cada
usuario puede ejecutar simultáneamente.
Monotareas: sólo una tarea a la vez por usuario. Puede darse el caso de un sistema multiusuario y monotarea,
varios usuarios al mismo tiempo pero cada uno de ellos puede estar haciendo solo una tarea a la vez.
Multitareas: realiza varias labores al mismo tiempo. interfases gráficas orientadas al uso lo cual permite un
rápido intercambio entre las tareas para el usuario,
Monoprocesador: solamente un CPU, de manera que si la computadora tuviese más de uno le sería inútil.
MS-DOS y MacOS.
Multiprocesador: más de un cpu y es capaz de usarlos todos para distribuir su carga de trabajo.
Trabajan de dos formas: simétrica o asimétricamente.
Asimétrica, el sistema operativo selecciona a uno de los procesadores el cual jugará el papel de
procesador maestro y servirá como pivote para distribuir la carga a los demás procesadores, que reciben
el nombre de esclavos.
Simétrica, los procesos o partes de ellos son enviados indistintamente a cualquiera de los procesadores
disponibles, teniendo, teóricamente, una mejor distribución y equilibrio en la carga de trabajo bajo este
esquema.
Considerar la forma de crear aplicaciones para aprovechar los varios procesadores. Existen aplicaciones que
fueron hechas para correr en sistemas monoprocesador que no toman ninguna ventaja a menos que el sistema
operativo o el compilador detecte secciones de código paralelizable, los cuales son ejecutados al mismo
tiempo en procesadores diferentes. El programador puede modificar sus algoritmos y aprovechar por sí mismo
esta facilidad, es costoso en horas hombre y muy tediosa, obligando al programador a ocupar tanto o más
tiempo a la paralelización que a elaborar el algoritmo inicial.
1.5 Estructura (niveles o estratos de diseño).
Estructura monolítica.
Primeros sistemas operativos constituidos
fundamentalmente por un sólo programa compuesto de un
conjunto de rutinas entrelazadas de tal forma que cada una
puede llamar a cualquier otra (Ver Fig. 2).
Características:
1 Construcción del programa final a base de módulos
compilados separadamente que se unen a través del
encadenador (linker)
2 Buena definición de parámetros de enlace entre las
distintas rutinas existentes
3 Carecen de protecciones y privilegios al entrar a rutinas
que manejan diferentes aspectos de los recursos de la computadora
4 Generalmente hechos a la medida, eficientes y rápidos en ejecución y gestión
5 Poco flexibles para soportar diferentes ambientes de trabajo o aplicaciones.

Estructura jerárquica.
Mayores necesidades de los usuarios, mayor organización del software. Se dividió el sistema operativo en
pequeñas partes, cada una bien definida y con una clara interfase con el resto de elementos.
Se constituyó una estructura jerárquica, el primero de los cuales fue denominado THE (Technische
Hogeschool, Eindhoven)
Capa 5 – Control de programas de usuario
Capa 4 – Gestión de Archivos
Capa 3 – Control de operaciones entrada/salida
Capa 2 – Control de la Consola de operación
Capa 1 – Gestión de memoria
Capa 0 – Planificación de CPU
Capa -1 – Hardware
En esta estructura se basan la mayoría de los sistemas operativos actuales.
Otra forma es la de anillos.
Cada uno tiene una apertura por donde pueden entrar
las llamadas de las capas inferiores. Las zonas más
internas del sistema operativo o núcleo estarán más
protegidas de accesos indeseados desde las capas más
externas. Las internas serán más privilegiadas que las
externas.
Cliente-servidor
El más reciente, puede ser ejecutado en la mayoría de
las computadoras, para toda clase de aplicaciones, es
de propósito general.
El núcleo establece la comunicación entre los clientes
y los servidores. Los procesos pueden ser tanto
servidores como clientes. Por ejemplo, un programa
de aplicación normal es un cliente que llama al
servidor correspondiente para acceder a un archivo o realizar una operación de entrada/salida sobre un
dispositivo concreto. A su vez, un proceso cliente puede actuar como servidor para otro.

Proceso Servidor de Servidor de

Cliente Archivos
… Impresión

Núcleo

1.6 Núcleo.
El Núcleo.- Componente que interactúa directamente con el hardware. Contiene un conjunto de rutinas que
hacen posible la ejecución de los programas y la comunicación entre ellos y el Hardware, es el que gestiona
la entrada y salida del sistema, adaptándolas al hardware del sistema.
Núcleo (Kernel) y Niveles de un Sistema Operativo
Definición.

Es el software que constituye el núcleo del sistema


operativo, dónde se realizan las funcionalidades básicas
como la gestión de procesos, la gestión de memoria y de
entrada salida.
El “kernel” del sistema operativo controla todas las
operaciones que implican procesos y representa sólo una
pequeña porción del código de todo el Sistema
Operativo pero es de amplio uso.

Niveles del Sistema Operativo


Concepto de Kernel
Para que una computadora pueda arrancar y funcionar, no es necesario que tenga un núcleo para poder usarse.
Los programas pueden cargarse y ejecutarse directamente en una computadora «vacía», siempre que sus
autores quieran desarrollarlos sin usar ninguna abstracción del hardware ni ninguna ayuda del sistema
operativo. Ésta era la forma normal de usar muchas de las primeras computadoras: para usar distintos
programas se tenía que reiniciar y reconfigurar la computadora cada vez. Con el tiempo, se empezó a dejar en
memoria (aún entre distintas ejecuciones) pequeños programas auxiliares, como el cargador y el depurador, o
se cargaban desde memoria de sólo lectura. A medida que se fueron desarrollando, se convirtieron en los
fundamentos de lo que llegarían a ser los primeros núcleos de sistema operativo.
El kernel presenta al usuario o los programas de aplicación una interfaz de programación de alto nivel,
implementando la mayoría de las facilidades requeridas por éstos. Reúne el manejo de una serie de siguientes
conceptos ligados al hardware de nivel más bajo:
Procesos (tiempo compartido, espacios de direccionamiento protegidos);
Señales y Semáforos;
Memoria Virtual ("swapping", paginado);
Sistema de Archivos;
Tubos ("pipes") y Conexiones de red.
(Una tubería (pipe) se puede considerar como un canal de comunicación entre dos procesos.
Los mecanismos que se utilizan para manipular tuberías son los mismos que para archivos, con la
única diferencia de que la información de la tubería no se almacena en el disco duro, sino en la
memoria principal del sistema. Este mecanismo de comunicación consiste en la introducción de
información en una tubería por parte de un proceso (similar a la escritura en un archivo de disco).
Posteriormente otro proceso extrae la información de la tubería (similar a la lectura de información
almacenada en un archivo de disco) de forma que los primeros datos que se introdujeron en ella
son los primeros en salir. Este modo de funcionamiento se conoce como FIFO (First In, First Out; el
primero en entrar es el primero en salir). La comunicación mediante tuberías es de tipo half-duplex,
es decir, en un instante dado, la comunicación solamente puede tener lugar en un sentido. Si se
quiere que un proceso A pueda simultáneamente enviar y recibir información de otro B, en general
se debe recurrir a crear dos tuberías, una para enviar información desde A hacia B y otra para
enviar desde B hacia A.)

Una parte del kernel es independiente de los dispositivos presentes en el sistema, pero otra contiene los
controladores necesarios para manejar partes específicas del hardware. El kernel interpreta los pedidos de los
programas y los traduce en secuencias de bits que, presentadas a los registros de los controladores, operan
sobre los dispositivos físicos. Por ejemplo el código de un kernel de Linux está escrito casi todo en C, salvo
una pequeña parte en lenguaje ensamblador para los procesos de bajo nivel. El tamaño puede ir desde unos
400 KB hasta más de 50 MB de código fuente.
Funcionamiento del Kernel
Tipos de Núcleos.
En función del tamaño y de las funcionalidades que posea el kernel podemos clasificarlo. Realmente, y pese a
seguidores incondicionales en un modelo u otro, existe una tendencia básica a reducir el tamaño del núcleo
proporcionando menos funcionalidades, que son desplazadas a módulos que se cargan en tiempo de
ejecución. En función a esta idea tenemos tres tipos fundamentales de kernel:
Kernel monolítico
Todas las funcionalidades posibles están integradas en el sistema. Se trata de un programa de tamaño
considerable que deberemos recompilar al completo cada vez que se quiera añadir una nueva posibilidad. Esta
es la estructura original de Linux. Por tratarse de una técnica clásica y desfasada el creador de Linux fue muy
criticado. Ejemplos: los primeros kernels de Linux, UNIX y DOS
Kernel modular
Se trata de la tendencia actual de desarrollo. En el kernel se centran las funcionalidades esenciales como la
administración de memoria, la planificación de procesos, etc. Sin embargo no tiene sentido que el núcleo de
un sistema operativo englobe toda la parafernalia para comunicarse con todas las posibles de tarjetas de vídeo
o de sonido. En otros sistemas operativos esto se soluciona con unos archivos proporcionados por el
fabricante llamados drivers. En Linux se creó una interfaz adecuada para posibilitar el desarrollo de módulos
que cumplieran esas funcionalidades. Esos módulos pueden ser compilados por separado y añadidos al kernel
en tiempo de ejecución. Ejemplo: Actualmente el kernel de linux.
Estructura de Microkernel
Esta técnica pretende reducir a su mínima expresión el kernel, dejando a los niveles superiores el resto de las
funcionalidades. Existen algunos kernels que lo utilizan, si bien el que centra nuestra atención es Hurd. Se
trata del último kernel GNU llamado a sustituir a Linux como núcleo del sistema operativo. Aunque esta
estrategia de diseño es tan antigua como la modular, no ha sido tenida en cuenta hasta ahora debido a las
limitaciones de rendimiento que tenía. Ejemplos: AIX, La familia de micronúcleos L4, El micronúcleo Mach
(usado en GNU Hurd y en Mac OS X), Minix, MorphOS, QNX, RadiOS, VSTa
1.6.1 Interrupciones (FLIH).
La interrupción es el mecanismo mediante el cual otros módulos pueden interrumpir una secuencia normal de
procesamiento. Ejemplos:
Programa: división por cero
Temporizador: cuando se cumple un tiempo específico
E/S: cuando hay algo que comunicar
Hardware: cuando ocurre una falla.
La gestión de interrupciones la realiza el manipulador (controlador) de interrupciones (FLIH, First Level
Interrupt Handler) que es la parte del sistema operativo responsable de proporcionar la respuesta adecuada a
las señales procedentes tanto del exterior como del interior del sistema (interrupciones externas e internas).
1.6.2 Despachador(Scheduler).
Se encarga de asignar los procesadores a los diferentes procesos, por lo tanto debe actuar cuando se debe
comprobar si es necesario cambiar el proceso que está activo.
Esto involucra:
cambio de contexto
cambio a modo usuario
salto a la dirección de memoria que corresponda al programa de usuario para continuar su ejecución.
Criterios de Despachador
Utilización de CPU: mantener la CPU ocupada la mayor cantidad del tiempo posible
Productividad (Throughput): # de procesos por unidad de tiempo
Tiempo de servicio (Turnaround time): tiempo necesario para la ejecución de un proceso particular
Tiempo de espera (Waiting time): tiempo total que el proceso se encuentra en la fila ready
Tiempo de respuesta (Response time): tiempo que transcurre desde el requerimiento hasta que se produce
la primera respuesta (en ambientes de tiempo compartido)
Criterios de Optimización
Máxima utilización de CPU
Máxima productividad
Mínimo tiempo de servicio
Mínimo tiempo de espera
Mínimo tiempo de respuesta
1.6.3 Primitivas de comunicación (IPC).
Es una función básica de los Sistemas operativos. Los procesos pueden comunicarse entre sí a través de
compartir espacios de memoria, ya sean variables compartidas o buffers, o a través de las herramientas
provistas por las rutinas de IPC (Interprocess Communication).
La IPC provee un mecanismo que permite a los procesos comunicarse y sincronizarse entre sí. Normalmente a
través de un sistema de bajo nivel de paso de mensajes que ofrece la red subyacente. La comunicación se
establece siguiendo una serie de reglas (protocolos de comunicación).