Está en la página 1de 10

ENSAYOS

PRESENTADO A:
AMBROSIO ORTEGA DAVILA

PRESENTADO POR:
LAURA TATIANA GARCIA RODRIGUEZ
JHON ERICK BONILLA BAUTISTA

UNIVERSIDAD COOPERATIVA DE COLOMBIA


SISTEMAS OPERATIVOS
IBAGUE
2018
LOS SISTEMAS OPERATIVOS EN RED
Un sistema operativo de red es aquel que mantiene a dos o más ordenadores unidos a
través de algún medio de comunicación, con el objetivo primordial de poder compartir
los diferentes recursos y la información del sistema. Los sistemas operativos de red se
dividen en dos grupos:

Sistemas que utilizan el modelo cliente/servidor y sistemas que utilizan el modelo entre
iguales, en ellos no existe un servidor principal, sino que todas las estaciones comparten
sus recursos de igual a igual.

LA ARQUITECTURA CLIENTE/SERVIDOR
Al principio de la utilización de las redes, se conectaban los ordenadores entre sí para
compartir los recursos de todos los ordenadores que estaban conectados.

SERVIDOR: Un servidor es un ordenador que permite compartir sus recursos con otros
ordenadores que están conectados a él.
Servidores: servidor de archivos, servidor de impresión, servidor de comunicaciones,
servidor de correo electrónico, servidor Web, servidor FTP, servidor proxy.

Así mismo, los servidores de archivos pueden establecerse como dedicados o no


dedicados, según se dediquen sólo a la gestión de la red o, además, se puedan utilizar
como estación de trabajo. No es recomendable utilizar un servidor no dedicado como
estación de trabajo, ya que, en caso de que ese ordenador tenga algún problema, la
totalidad del sistema puede dejar de funcionar, con los consiguientes inconvenientes y
pérdidas irreparables que se pueden producir. El resto de los ordenadores de la red se
denominan estaciones de trabajo o clientes, y desde ellos se facilita a los usuarios el
acceso a los servidores y periféricos de la red. Cada estación de trabajo es, por lo
general, un ordenador que funciona con su propio sistema operativo.

A diferencia de un ordenador aislado, la estación de trabajo tiene una tarjeta de red y está
físicamente conectada por medio de cables con el servidor.

CARACTERISTICAS DE LOS SISTEMAS OPERATIVOS DE RED


LA GESTION DE LOS USUARIOS
Los sistemas operativos de red permiten al administrador de la red determinar las personas
o grupos de personas que tendrán la posibilidad de acceder a los recursos de la misma.
Crear, borrar o modificar usuarios y grupos de usuarios.
Otorgar o quitar permisos de usuario a los recursos de la red controlados por el sistema
operativo de red.
Asignar o denegar derechos de usuario en la red.
LA GESTION DE LA RED
La mayoría de los sistemas operativos de red incluyen herramientas de gestión que ayudan
a los administradores a controlar el comportamiento de la red. De esta manera, el
administrador de la red podrá tomar la decisión correcta antes de que el problema suponga
riesgos graves o una caída de la red.
EL BLOQUEO DE ARCHIVOS Y REGISTROS

La diferencia entre un bloqueo de archivo o de registro reside en que: En el bloqueo de


registros se impide que mientras un usuario está utilizando una ficha determinada de un
archivo, ésta pueda ser modificada por otro usuario, pero sí pueda modificar, borrar o
insertar nuevas fichas dentro de ese archivo.
LA DISTRIBUCIÓN DE ESPACIO EN LOS DISCOS DUROS

En una utilización privada, los archivos que se encuentran en ellos son personales y
únicamente tiene acceso su propietario para operaciones de lectura, escritura, borrado y
creación de nuevos archivos.
LA COMPARTICIÓN DE LOS RECURSOS

Dentro de las ventajas de una red se encuentra la posibilidad de compartir los recursos
que se encuentran en ella y, en especial, las impresoras. Este programa crea una zona de
almacenamiento temporal de datos en el disco donde se guardan todos los trabajos
pendientes de imprimir hasta que la impresora queda libre y son dirigidos a ella para ser
impresos. Se puede especificar el orden en que se van a imprimir, el número de copias, la
impresora a usar, el formato de impresión que se va a utilizar, si se coloca una primera
página identificativa del trabajo, etc...

SISTEMAS OPERATIVOS DE RED ACTUALES


WINDOWS SERVER

Es un sistema operativo de red que trabaja sobre un modelo denominado dominio que es
un conjunto de equipos que comparten una política de seguridad y una base de datos
común. Cada dominio debe tener un nombre único. Los servidores dentro de un dominio
pueden tomar papeles como: Controladores de dominio y servidores miembro.

Los servicios más habituales que proporciona este tipo de sistema operativo para la
gestión de la red son los siguientes: Seguridad, servicios de compartición de recursos,
servicios de impresión, servicios de red, interoperabilidad con otros sistemas operativos.
LINUX
Es un sistema operativo multiusuario con todas las características que necesita tener un
sistema operativo moderno. Se pueden destacar tres fundamentos en los que se apoya el
desarrollo y la evolución de Linux:
Está basado en el sistema operativo Unix.
A Linux se le ha considerado un clónico de Unix para arquitecturas Intel, y en cierta forma
es así. Unix es un sistema operativo multitarea y multiproceso desarrollado a principios
de los años 70 y utilizado principalmente en sistemas servidores. Linux ha heredado de
Unix algunas de esas características que han convertido a Unix en un sistema tan
eficiente.

Es un sistema operativo multiplataforma: Inicialmente, Linux se desarrolló para


arquitecturas Intel, pero con el tiempo se han implementado versiones para otras
plataformas hardware más minoritarias.

Es un sistema operativo de libre distribución: Esto significa que Linux se distribuye bajo
los términos de licencia GPL, lo que implica que cualquiera puede libremente
copiarlo, cambiarlo y distribuirlo, pero sin posibilidad de aplicar restricciones en futuras
distribuciones. Además, el código fuente de Linux es también público y de libre
distribución.

En los primeros tiempos se podían encontrar en multitud de servidores conectados a


Internet todos los ficheros y programas necesarios para su funcionamiento. Sin
embargo, y debido a que la tarea de reunir todos los ficheros necesarios e instalarlos
correctamente podía ser bastante compleja, aparecieron empresas que se dedicaron a
hacer este trabajo, y aquí surgió el término de distribución. Estas distribuciones se pueden
obtener a través de Internet o comprando los CD de las mismas. La mayoría del software
que incluyen las distribuciones suele tener licencia GPL.

Y si se obtiene la distribución mediante los CD, suele tener un coste en general bastante
aceptable teniendo en cuenta la gran cantidad de software que incluyen, así como
manuales e incluso soporte durante un período de tiempo.

Actualmente, sería difícil precisar el número de distribuciones existente de Linux.


SEGURIDAD Y PROTECCION EN LOS
SISTEMAS OPERATIVOS
Seguridad y Protección de los Sistemas Operativos

La función principal de un Sistema Operativo es la de tomar todos los recursos físicos de


un sistema de cómputo y brindarlos de manera virtual, esto es logrado por medio de una
abstracción del hardware. En la actualidad no es suficiente con permitir el manejo y uso
del HW si no se maneja seguridad y protección

DIFERENCIA: La seguridad: es la ausencia de un riesgo. La protección: son los


diferentes mecanismos utilizados por el SO para cuidar la información, los procesos, los
usuarios, etc.

Después de tener claro que quiere decir cada tema surgen numerosas ideas en nuestras
mentes, ya que la seguridad es algo que manejamos en todos los aspectos de nuestras
vidas, y por experiencia se sabe que no depende de un solo actor si no que está
fuertemente ligada con todo lo que lo rodea, por esto la seguridad no solo es manejada
por el sistema operativo si no que es necesario un refuerzo como otro software que
comúnmente denominamos «antivirus».

Un sistema de seguridad debe cumplir con unos requisitos: Confidencialidad, integridad


y disponibilidad. La seguridad se clasifica en: Externa y Operacional

Una de las obligaciones de un sistema seguro es permanecer en constante vigilancia,


verificando y validando las posibles amenazas.

Se plantea que es más fácil hacer un sistema seguro si esto se ha incorporado desde los
inicios del diseño, porque no se puede hablar de un SO seguro si su núcleo no lo es.

Con respecto a los SO más seguros es difícil listarlos ya que todos tienen sus seguidores
y contractares

Para poder garantizar la seguridad es fundamental proteger nuestro sistema, por eso
básicamente los mecanismos articulados para la protección son los que nos llevan a un
sistema seguro.

Como objetivos de la protección esta: Controlar el acceso a los recursos y Utilizabiliad


por diferentes usuarios.

Un sistema de protección deberá tener la flexibilidad suficiente para poder imponer una
diversidad de políticas y mecanismos. La protección se refiere a los mecanismos para
controlar el acceso de programas, procesos, o usuarios a los recursos definidos por un
sistema de computación.
Pero contra que nos debemos proteger: Adware, Backdoor, Badware alcalinos,
Bomba fork, Bots, Bug, Toryano, Cookies, Crackers y Cryptovirus.

La protección es algo que inicia desde el SO y que termina con las practicas que nosotros
como usuarios realizamos, por ejemplo los correos que se revisan el antivirus que se
instala

La violación más famosa de todos los tiempos ocurrió en 1988 cuando un estudiante lanzó
un gusano por la Internet que botó miles de máquinas en cosa de horas. Uno de ellos era
un bugo en el programa finge Una vez obtenido el control, trataba de descubrir las claves
de los usuarios de esa máquina intentando palabras comunes. El gusano no hacía ninguna
acción dañina en sí, pero usaba tantos recursos de las máquinas infectadas que las botaba.
GESTIÓN DEL SISTEMA DE
ENTRADA/SALIDA
El sistema de Entrada/Salida es la parte del sistema operativo encargada de la gestión de
los dispositivos de E/S (periféricos). Los dispositivos se pueden clasificar en: Adaptados
al usuario, adaptados a la máquina y de comunicación.

Se tienen en cuenta diferencias entre los dispositivos, como: Velocidad de transferencia,


aplicaciones, unidad de transferencia (orientados a bloques y orientados a caracteres),
complejidad del controlador del dispositivo y condiciones de error.

Un controlador de E/S es el módulo del computador responsable del control de uno o más
dispositivos externos y del intercambio de datos entre dichos periféricos con la memoria
principal o con los registros de la CPU.

El controlador de E/S debe poseer una interfaz interna y una interfaz externa al
computador; Sus principales funciones son: Control y temporización, comunicación con
la UCP, comunicación con el dispositivo externo, almacenamiento temporal de dato y
detección de errores.

Los tipos de registros o puertos del controlador son: Registros de datos, registros de
control y registros de estado.

También, hay diferentes aspectos a tener en cuenta como que: los datos se intercambian
entre la UCP y le controlador de E/S. La UCP ejecuta un programa que tiene: El control
directo de la operación de E/S, incluye comprobación del estado del dispositivo, el envío
de una orden de lectura o escritura y la transferencia del dato.
Cuando la UCP emite una orden al controlador de E/S debe esperar hasta que finalice la
operación de E/S. Cuando la UCP, la memoria principal y la unidad de E/S comparten un
bus común, el direccionamiento es: E/S localizada en memoria y E/S aislada.

Algunos de los inconvenientes que presenta, son: Pérdida de tiempo en el bucle de espera,
si existen programas que tienen que ejecutarse de forma periódica no se puede estar de
forma indefinida en el bucle de espera, problemas cuando se quiere atender a varios
periféricos y entre otros.
PROCESAMIENTO DE INTERRUPCIONES: El procesador inicializa la entrada,
emitiendo una orden al puerto de E/S, el puerto de E/S pone su bit de estado de entrada a
ocupado e inicia la acción de entrada específica de dispositivo, cuando el dato de entrada
está preparado en el buffer de entrada del puerto de E/S, el puerto pone su bit de estado
de entrada a preparado y activa su línea de petición de interrupción, cuando el procesador
está en modo interrumpible, se inicia la secuencia de reconocimiento hardware a cuenta
del dispositivo.

Dentro de la rutina de servicio de interrupción: (Se habilitan los niveles de interrupción


de prioridad superiores, se salva la parte software del contexto, se obtiene un dato del
buffer de entrada del puerto de E/S, se reconoce la interrupción, y el puerto responde
retirando la petición, se completan otros procesamientos y contabilidades de interrupción,
se restaura la parte software de contexto salvado y se ejecuta la instrucción de retorno de
interrupción.

Por medio de la instrucción RTI o de algunas otras adicionales de restaura la parte


hardware del contexto y se habilitan los niveles de prioridad de interrupción, hasta el del
programa interrumpido; La UCP continúa la ejecución del programa interrumpido en el
punto en el que lo dejó.

ACCESO DIRECTO A MEMORIA (DMA): Los métodos vistos tienen el inconveniente


de que requieren la intervención activa de la UCP para transferir datos entre la memoria
y el periférico

La técnica de Acceso Directo a Memoria (DMA) requiere un módulo adicional conectado


al bus del sistema. El controlador de DMA contiene: Registro de datos, registro de
direcciones, registro contador de palabras y unidad de control del DMA.
Cuando la UCP desea leer o escribir un bloque de datos emite una orden al controlador
de DMA enviándole la siguiente información: Si la operación es de lectura o escritura, la
dirección del periférico, la posición de comienzo de memoria de donde hay que leer o
donde hay que escribir, el número de palabras que se tienen que leer o escribir.

El controlador de DMA necesita tener el control del bus para poder transferir datos hacia
(o desde) la memoria: Por ráfagas, por robo de ciclos, DMA transparente, por demanda y
dato a dato.
Cuando el controlador de DMA está preparado para transmitir o recibir datos, activa la
línea de petición de DMA a la UCP, la UCP espera en el siguiente punto de ruptura del
DMA, renuncia al control de los buses de datos y direcciones y activa la línea de
reconocimiento de DMA.

PROCESADOR DE E/S (PE/S): Representa una extensión del concepto DMA, el PE/S
es el controlador de E/S convertido en procesador con un conjunto de instrucciones
especializadas en operaciones de E/S. En los computadores que incluyen PE/S, la UCP
no ejecuta las instrucciones de E/S, éstas se almacenan en memoria principal para ser
ejecutadas por un PE/S.

El programa especifica entre otras cosas las siguientes: El periférico o periféricos que
intervienen en la operación de E/S, la zona de memoria utilizada en la transferencia, las
prioridades y que acciones hay que efectuar si se producen ciertas condiciones de error
durante la transferencia.

Los dos tipos de PE/S más comunes que se suelen emplear son: canal selector y canal
multiplexor.

GESTION DEL SISTEMA E/S: Los sistemas de E/S son aquellos sistemas que incluyen
una abstracción del sistema de E/S en la que todos los dispositivos aparecen ante los
usuarios como un conjunto de archivos.
Estructuración por capas de forma que: Cada nivel realiza un subconjunto de las funciones
de E/S necesitadas por el S.O, cada nivel descansa sobre el siguiente nivel inferior para
efectuar operaciones más básicas, cada nivel esconde los detalles a los niveles superiores
a los que proporciona servicios, los niveles se definen de forma que los cambios que se
realicen en un determinado nivel no requieran modificación alguna en los otros niveles.

BUFFERS DE E/S: se le denomina al espacio de memoria principal que se reserva para


el almacenamiento intermedio de datos procedentes o con destino a los periféricos: Buffer
simple y Buffer doble.

ORGANIZACIO DE DISCOS MAGNETICOS: Cabezas de lectura/escritura, superficie,


pista, cilindro y sector.

DISCO MAGNETICO, CONTROLADOR DEL DISCO: Debido a que los discos sólo
son capaces de obedecer órdenes bastante primitivas, se necesita del controlador, cuyas
funciones básicas son: convertir ordenes de nivel superior, en una secuencia de ordenes
específicas de unidad, proporcionar conversión serie - paralelo y acondicionamiento de
señales necesarias para pasar de formato byte o y efectuar verificación y control de errores
(CRC)

Cuando un proceso requiere una operación de E/S del disco, envía la correspondiente
llamada al S.O., no obstante, si la unidad o el controlador del disco se encuentran
sirviendo una solicitud anterior, será preciso poner en una cola todas las peticiones que
vayan llegando.

Se dispone de distintas planificaciones para elegir la petición siguiente a ser servida:


FCFS, SSTF, SCAN, C-SCAN, LOOK y C-LOOK.
REFERENCIAS

- Gestión del Sistema de Entrada/Salida – Dra. Carolina Mañoso. Dpto. Informática


y automática. UNED. 2002
- Sistemas operativos en red.
- Seguridad y protección en los sistemas operativos -
http://blog.utp.edu.co/seguridadso/