Está en la página 1de 43

Sistemas Operativos en Red

1 ARQUITECTURA CLIENTE-SERVIDOR ............................................................ 2


1.1.1 ELEMENTOS DE LA ARQUITECTURA CLIENTE/SERVIDOR 3
1.1.2 EL FUNCIONAMIENTO BÁSICO 5
2 CONCEPTO DE SISTEMA OPERATIVO EN RED ............................................. 6
3 CARACTERÍSTICAS DE LOS SISTEMAS OPERATIVOS EN RED................... 8
4 TIPOS DE ARQUITECTURAS CLIENTE-SERVIDOR ........................................ 9
5 VENTAJAS E INCONVENIENTES DE LA ARQUITECTURA CLIENTE-
SERVIDOR ............................................................................................................... 10
6 GRUPOS DE TRABAJO COMO ALTERNATIVA AL MODELO CLIENTE-
SERVIDOR ............................................................................................................... 11
7 FACTORES A TENER EN CUENTA PARA ELEGIR UN SISTEMA OPERATIVO
EN RED 12
8 SISTEMAS OPERATIVOS EN RED ACTUALES ............................................. 15
9 SISTEMAS OPERATIVOS EN RED LOCAL VS SISTEMAS OPERATIVOS EN
RED EN LA NUBE .................................................................................................... 16
10 VIRTUALIZACIÓN ............................................................................................ 18
10.1.1 TIPOS DE HIPERVISORES 19
10.1.2 CONDICIONANTES HARDWARE PARA LA VIRTUALIZACIÓN 20
10.1.3 VENTAJAS E INCONVENIENTES DE LA VIRTUALIZACIÓN 20
11 MÁQUINAS VIRTUALES VS CONTENEDORES ............................................. 21
12 SOFTWARE DE VIRTUALIZACIÓN ................................................................. 22
12.1.1 CITRIX XENSERVER 22
12.1.2 MICROSOFT HYPER-V SERVER 23
12.1.3 VMWARE VSPHERE 23
12.1.4 KVM 24
13 ORACLE VM VIRTUALBOX. ............................................................................ 24
13.1.1 CARACTERÍSTICAS 25
13.1.2 INSTALACIÓN DE VIRTUALBOX EN WINDOWS Y EN UBUNTU 27
13.1.3 EL ADMINISTRADOR DE VIRTUALBOX 27
13.1.4 PRIMERAS CONFIGURACIONES 28
13.1.5 CREAR UNA MÁQUINA VIRTUAL. 30
13.1.6 CONFIGURACIÓN DE LA TARJETA DE RED. 30
13.1.7 OPERACIONES CON MÁQUINAS VIRTUALES. 35
14 TIPOS DE INSTALACIÓN DE UN SISTEMA .................................................... 38

Página 1
Sistemas Operativos en Red

UT 1: INTRODUCCIÓN A LOS SISTEMAS OPERATIVOS

EN RED

1 ARQUITECTURA CLIENTE-SERVIDOR

La arquitectura cliente/servidor tiene como objetivo principal procesar la


información de manera distribuida, ofreciendo transparencia e independencia
del hardware y software utilizado. De esta forma, los usuarios finales pueden estar
dispersos en un área geográfica más o menos extensa (un edificio, una localidad, un
país, …) y acceder a un conjunto común de recursos compartidos.
Además, el acceso debe ser transparente (el cliente puede desconocer la ubicación
física del recurso que pretende utilizar) y, preferiblemente, multiplataforma, es decir,
independiente del sistema operativo, del software de aplicación e incluso
del hardware.
En definitiva, cuando hablamos de la implantación de una arquitectura
cliente/servidor, nos referimos a un sistema de información distribuido.

Página 2
Sistemas Operativos en Red

Una implantación cliente/servidor debe tener las siguientes características:

• Uso de protocolos asimétricos: se utilizan protocolos en los que el servidor está


a la espera de que un cliente inicie una solicitud. El servidor actúa como proveedor
de recursos, tanto lógicos como físicos, para una variedad de clientes, como
espacio de almacenamiento, bases de datos, impresoras, entre otros. Por
ejemplo, SSL/TLS, SSH, FTPS y HTTPS.
• Ofrecimiento de recursos: tanto lógicos como físicos a una cantidad variable y
diversa de clientes (por ejemplo, espacio de almacenamiento, bases de datos,
impresoras, etc.).
• Ofrecimiento de servicios encapsulados: el servidor ofrece una serie de
servicios que son utilizados por los clientes. Estos servicios están encapsulados
para ocultar los detalles de su implementación al cliente. Por ejemplo, el servidor
puede aceptar solicitudes de un cliente sobre una base de datos y formatear los
datos antes de transmitirlos al cliente.
• Mantenimiento centralizado de datos y programas: el servidor centraliza tanto
los datos como los programas, lo que facilita la integridad y el mantenimiento de
los mismos. Esto asegura que todos los clientes accedan a la versión actualizada
y correcta de los datos y programas.
• Escalabilidad: la arquitectura cliente/servidor facilita la escalabilidad, lo que
significa que es fácil agregar nuevos clientes a la infraestructura (escalabilidad

horizontal) o aumentar la capacidad del servidor o servidores, mediante la adición


de servidores o incrementando su potencia de cálculo (escalabilidad vertical).

1.1.1ELEMENTOS DE LA ARQUITECTURA
CLIENTE/SERVIDOR

De lo dicho hasta ahora, podemos deducir que los principales elementos que
conforman la arquitectura cliente/servidor son los siguientes:

• El servidor: Cuando hablamos de una forma genérica, al mencionar a un servidor,


nos referimos a un ordenador, normalmente con prestaciones elevadas, que
ejecuta servicios para atender las demandas de diferentes clientes.

Sin embargo, bajo el punto de vista de la arquitectura cliente/servidor, un


servidor es un proceso que ofrece el recurso (o recursos) a los clientes que
lo solicitan (consultar la definición de cliente más abajo). En ocasiones, los

Página 3
Sistemas Operativos en Red

servicios también reciben el nombre de demonios (daemons en inglés). Se trata


de una terminología que proviene del mundo Unix/Linux.
Es muy frecuente que, para referirse a un proceso servidor, se utilice el término
back-end. Según el tipo de servidor implantado, tendremos un tipo de
arquitectura cliente/servidor diferente (ver apartado 1.3, más abajo). Por
último, mencionar que, en algunas ocasiones, un servidor puede actuar, a su vez,
como cliente de otro servidor.

• El cliente: Igual que antes, al hablar de forma genérica sobre un cliente, nos
referimos a un ordenador, normalmente con prestaciones ajustadas, que requiere
los servicios de un equipo servidor.

Sin embargo, bajo el punto de vista de la arquitectura cliente/servidor, un cliente


es un proceso que solicita los servicios de otro, normalmente a petición de
un usuario.
En entornos cliente/servidor, suele utilizarse el término front-end para referirse a
un proceso cliente.
Normalmente, un proceso cliente se encarga de interactuar con el usuario, por lo
que estará construido con alguna herramienta que permita implementar interfaces
gráficas (o GUI, del inglés graphical user interface). Además, se encargará de
formular las solicitudes al servidor y recibir su respuesta, por lo que deberá
encargarse de una parte de la lógica de la aplicación y de realizar algunas
validaciones de forma local.

• El Middleware: abarca todo el software distribuido necesario para el soporte de


interacciones entre clientes y servidores. Permitiendo la comunicación y el
intercambio entre ambos. Es el enlace que permite que un cliente obtenga un
servicio del servidor. El middleware permite desarrollar aplicaciones en una
arquitectura cliente/servidor independizando los servidores y los clientes, y
facilitando la interrelación entre ellos, evitando las dependencias de tecnologías
propietarias.

El middleware abstrae la complejidad y heterogeneidad de las redes de


comunicaciones, así como la de los sistemas operativos y lenguajes de
programación, proporcionando una API para la programación y el manejo de
aplicaciones distribuidas. Empieza en el módulo de API de la parte del cliente que
se emplea para invocar un servicio y comprende la transmisión de la solicitud por
la red y la respuesta resultante. No incluye al software que presta el servicio real

Página 4
Sistemas Operativos en Red

ni a la interfaz de usuario. Dependiendo del problema a resolver y de las funciones


necesarias, serán útiles diferentes tipos de servicios de middleware. El
middleware puede clasificarse como:
o De bajo nivel: brinda primitivas y servicios usuales de bajo nivel. Como por
ejemplo TCP/UDP + IP.
o De alto nivel: se emplea para cumplir un tipo particular de servicio, y está
usualmente implementado sobre middleware de bajo nivel. Por ejemplo:
▪ Para base de datos: ODBC y JDBC.
▪ Para objetos: CORBA, DCOM y RMI.
▪ Para Internet/Intranet: HTTP.

1.1.2EL FUNCIONAMIENTO BÁSICO

El funcionamiento básico de la arquitectura cliente/servidor implica que el servidor esté


en espera de las solicitudes de los clientes, procese las solicitudes recibidas y envíe los
resultados correspondientes al cliente. El cliente, a su vez, recibe los resultados, realiza
las comprobaciones necesarias y los presenta al usuario final según sea necesario.
Los pasos generales para este funcionamiento son:

• Inicio del servidor: el servidor se inicia durante el arranque del sistema operativo
o mediante la intervención del administrador del sistema. Una vez iniciado, se
encuentra en espera pasiva de las solicitudes de los clientes.
• Solicitud del cliente: en algún momento, uno de los clientes conectados al
sistema realiza una solicitud al servidor. Puede ser una petición de datos, una
acción específica o cualquier otro tipo de requerimiento.
• Recepción y verificación de la solicitud: el servidor recibe la solicitud del cliente
y realiza las verificaciones necesarias para garantizar la validez y seguridad de la
solicitud. Esto puede incluir la autenticación del cliente y la verificación de los
permisos de acceso.
• Procesamiento de la solicitud: una vez que el servidor ha verificado la solicitud
del cliente, procede a procesarla. Esto implica realizar las acciones o consultas
necesarias para obtener los resultados solicitados por el cliente.
• Envío de los resultados al cliente: una vez que el servidor ha completado el
procesamiento de la solicitud, envía los resultados al cliente. Puede ser en forma
de datos, respuestas a acciones o cualquier otra información requerida por el

Página 5
Sistemas Operativos en Red

cliente.
• Recepción y comprobación de los resultados: el cliente recibe los resultados
proporcionados por el servidor y realiza las comprobaciones pertinentes, si es
necesario. Esto puede incluir la validación de los datos recibidos o la realización
de acciones adicionales basadas en los resultados obtenidos. Además, si el
objetivo final de la solicitud era presentar los resultados al usuario, el cliente los
muestra de manera adecuada.

Si descomponemos este modo de funcionamiento en elementos estructurales, será más


fácil comprender los conceptos implicados. De esta forma, podemos obtener una
definición de la arquitectura por niveles que sigue la siguiente estructura:

• Un nivel de presentación, que aglutina los elementos relativos al cliente.


• Un nivel de aplicación, compuesto por elementos relacionados con el servidor.
• Un nivel de comunicación, que está formado por los elementos que hacen
posible la comunicación entre el cliente y el servidor.
• Un nivel de base de datos, formado por los elementos relacionados con el
acceso a los datos.

2 CONCEPTO DE SISTEMA OPERATIVO EN RED

Un sistema operativo es un programa o conjunto de programas que actúa como


intermediario entre el usuario o las aplicaciones que se ejecutan en el sistema y el
hardware del computador, gestionando los recursos del sistema de forma óptima y
segura. Entre dichos recursos destacan:

• La gestión de la CPU a través de la gestión de procesos, con el planificador de


procesos y los distintos algoritmos de planificación.
Página 6
Sistemas Operativos en Red

• La gestión de la Memoria con técnicas como la memoria virtual y la paginación.


• La gestión de los dispositivos de E/S.
• La gestión de los sistemas de ficheros.

Un Sistema Operativo de Red es una especialización del concepto genérico de


sistema operativo que se centra en ofrecer un comportamiento de “sistema único” a una
implementación cliente/servidor. Los sistemas operativos en red ofrecen servicios en
la red. En este sentido, el cliente realizará llamadas a determinados servicios como si
fuesen locales (por ejemplo, un procesador de textos que necesita imprimir, no diferencia
si la impresora a la que se dirige es local o remota). El Sistema Operativo de

Red detecta la necesidad de acceder a un recurso de red y envía la solicitud al servidor


adecuado. Por último, cuando recibe la respuesta, la hace llegar al proceso cliente.
Un Sistema Operativo en Red es un Sistema Operativo que mantiene conectados
varios equipos a través de medios de comunicación para facilitar el intercambio
de recursos y datos del sistema con otros equipos, conocidos como clientes. El
Sistema Operativo en Red se encarga de gestionar los servicios y recursos a los
que se tiene acceso a través de conexiones de red de forma transparente al
usuario.
Lógicamente, un Sistema Operativo de Red debe ofrecer transparencia tanto a los
procesos que actúan como clientes como a los que actúan como servidores, y
debe hacerlo en los siguientes aspectos:

• La autenticación: el mismo nombre de usuario y la misma contraseña deben


servir para acceder a recursos en todo el sistema.
• La confidencialidad en la transmisión de los datos: utilizando algún
mecanismo de cifrado para el intercambio de información entre el cliente y el
servidor.
• El espacio de nombres: los convenios sobre los nombres de los recursos deben
ser independientes de los sistemas operativos que los alojan.
• La ubicación: cada recurso debe conocerse sólo por su nombre, sin importar el
sistema donde se ejecutan.
• La administración: se debe facilitar un mismo mecanismo de gestión para todos
los recursos.
• Los protocolos: deben tener una API (Application Programming Interface)
idéntica en todos los sistemas.
• El acceso a los recursos: debe producirse como si estuviese ubicado en el
Página 7
Sistemas Operativos en Red

mismo sistema donde se encuentra el cliente.


• La replicación: se debe conseguir que no existan diferencias entre dos copias del
mismo recurso ubicadas en dos sistemas diferentes.
• El tratamiento de los fallos: se deben ofrecer mecanismos de detección de los
fallos, redundancia de los recursos en función de su importancia y reconexión
cuando el fallo ha sido solventado.
• El tiempo: Los relojes de todos los dispositivos de la infraestructura deben estar
sincronizados.

3 CARACTERÍSTICAS DE LOS SISTEMAS OPERATIVOS EN


RED

Las características más relevantes que poseen los sistemas operativos en red son
las siguientes:

• Conexión de equipos y recursos: se encarga de establecer y mantener la


conexión entre todos los equipos y recursos presentes en la red. Esto permite la
comunicación y el intercambio de información de manera fluida.
• Gestión centralizada de usuarios: proporciona un sistema centralizado para
administrar y controlar los usuarios de la red. Esto incluye la creación de cuentas
de usuario, asignación de permisos y la aplicación de políticas de seguridad.
• Seguridad: desempeña un papel crucial en la seguridad de la red al controlar el
acceso a los datos y recursos. Esto implica la autenticación de usuarios a través
de claves, certificados, sistemas biométricos, entre otros, y la implementación de
políticas de seguridad para prevenir accesos no autorizados.
• Coordinación de periféricos y recursos: coordina las funciones de todos los
periféricos y recursos de la red. Esto garantiza un uso eficiente de los recursos
disponibles y optimiza la comunicación entre los diferentes componentes de la
red.
• Compartición de recursos: facilita la compartición de recursos entre los equipos
de la red. Esto implica la coordinación y gestión de privilegios para acceder a los
recursos compartidos, mejorando así la utilización global de los recursos y
promoviendo la colaboración entre los usuarios.
• Monitorización y gestión centralizada: permite supervisar y gestionar la red y
sus componentes de forma centralizada. Proporciona herramientas y
funcionalidades para monitorear el rendimiento de la red, solucionar problemas y

Página 8
Sistemas Operativos en Red

aplicar actualizaciones o mejoras de manera eficiente.

4 TIPOS DE ARQUITECTURAS CLIENTE-SERVIDOR

SEGÚN EL TAMAÑO DEL LADO CLIENTE Y DEL LADO SERVIDOR FAT CLIENT
(THIN SERVER), FAT SERVER (THIN CLIENT): esta clasificación se basa en la
posibilidad que brinda el modelo Cliente/Servidor para balancear la carga de proceso
hacia el lado servidor o hacia el lado cliente, según convenga.

• Cliente Pesado, Servidor ligero: tanto el nivel de presentación como el nivel de


aplicación se ejecutan en el lado cliente. Incluso podrían procesarse contenidos
multimedia con un alto consumo de recursos. El servidor se utiliza para tareas
como el hospedaje del SGBD (Sistema Gestor de Bases de Datos) o incluso para
otras tareas menores, como administrar las tareas de impresión. En este tipo de
esquemas, podría llegar a interrumpirse de forma momentánea el servicio de red
sin perjudicar de forma significativa a los clientes.
• Servidor pesado, Cliente Ligero: el lado cliente se emplea sólo para el nivel de
presentación (muchas veces utilizando simplemente un navegador web) y el lado
servidor se encarga de ejecutar la aplicación. En este tipo de esquemas
podríamos disponer, incluso, de clientes sin disco duro. Otra de las ventajas de
esta opción es que ofrecen una mayor seguridad frente a intentos de acceso
indebido. Esta alternativa presenta una mayor flexibilidad y un menor coste.

SEGÚN LOS TIPOS DE SERVICIOS QUE OFRECE: son muchos los servicios que se
pueden ofrecer en una arquitectura cliente/servidor, como enrutamiento, DHCP, DNS,
servicio de directorio, acceso remoto, impresión, entre otros. A continuación, se
presentan los tipos de servicios más habituales ofrecidos por los sistemas operativos en
red:

• Gestión de usuarios y autenticación: el sistema operativo en red proporciona la


capacidad de crear y administrar cuentas de usuario, asignar permisos y
autenticar a los usuarios para acceder a los recursos de la red. Esto garantiza la
seguridad y control de acceso adecuado.
• Compartición de archivos y carpetas: el sistema operativo en red permite
compartir archivos y carpetas entre diferentes usuarios y equipos de la red. Esto
facilita la colaboración y el intercambio de información de manera eficiente.
• Impresión en red: los sistemas operativos en red ofrecen servicios de impresión
compartida, lo que permite a los usuarios enviar trabajos de impresión a
Página 9
Sistemas Operativos en Red

impresoras compartidas en la red. Esto elimina la necesidad de que cada usuario


tenga una impresora física y optimiza el uso de los recursos de impresión.
• Servicios de directorio: los sistemas operativos en red proporcionan servicios de
directorio, como LDAP (Lightweight Directory Access Protocol), que permiten
organizar y administrar información sobre usuarios, equipos y recursos de la red
de manera centralizada. Esto simplifica la gestión y búsqueda de información en
la red.
• Servicios de correo electrónico: los sistemas operativos en red pueden ofrecer
servicios de correo electrónico, permitiendo a los usuarios enviar, recibir y
gestionar correos electrónicos dentro de la red. Estos servicios pueden incluir
funcionalidades como la gestión de buzones de correo, filtros de spam y
capacidades de sincronización con dispositivos móviles.
• Servicios de seguridad: los sistemas operativos en red proporcionan funciones
de seguridad, como firewalls, encriptación de datos, autenticación de red y
auditoría de eventos. Estos servicios protegen la red y los datos de posibles
amenazas externas e internas.
• Servicios de backup y recuperación: los sistemas operativos en red ofrecen
capacidades de backup y recuperación de datos. Estos servicios permiten realizar
copias de seguridad periódicas de los datos almacenados en la red y facilitan la
restauración de los datos en caso de pérdida o daño.
• Servicios de acceso remoto: los sistemas operativos en red pueden
proporcionar servicios de acceso remoto, permitiendo a los usuarios acceder a la
red y a los recursos desde ubicaciones externas a través de conexiones seguras.
Esto brinda flexibilidad y movilidad a los usuarios que necesitan acceder a la red
desde fuera de la organización.

Estos son solo algunos ejemplos de los servicios que un sistema operativo en red
puede proporcionar. La elección de los servicios depende de las necesidades y
requisitos específicos de la red y las aplicaciones que se ejecuten en ella.

5 VENTAJAS E INCONVENIENTES DE LA ARQUITECTURA


CLIENTE-SERVIDOR

El modelo cliente/servidor está especialmente indicado en redes medias o grandes


que necesiten un alto nivel de fiabilidad. Las principales ventajas que ofrece son:

Página 10
Sistemas Operativos en Red

• Centralización de recursos: la arquitectura cliente/servidor permite la


centralización de recursos en el servidor. Esto facilita la administración y el
mantenimiento de los datos y aplicaciones, ya que se encuentran en un lugar
central y son accesibles para múltiples clientes.
• Escalabilidad: la arquitectura cliente/servidor es altamente escalable. Puede
soportar fácilmente la adición de nuevos clientes o la expansión del servidor para
manejar un mayor volumen de carga. Esto permite adaptarse a las necesidades
cambiantes de la organización sin interrupciones significativas.
• Seguridad: al centralizar los recursos y la gestión de usuarios en el servidor, se
puede implementar una estrategia de seguridad más sólida. El servidor puede
controlar y autenticar el acceso de los clientes, así como aplicar políticas de
seguridad consistentes para proteger los datos y mantener la integridad del
sistema.
• Mantenimiento y actualizaciones: al tener los datos y programas en el servidor,
las actualizaciones y mantenimientos pueden realizarse de manera más eficiente.
Solo se requiere actualizar el servidor en lugar de cada cliente individualmente, lo
que simplifica el proceso y minimiza el tiempo de inactividad.

La infraestructura cliente/servidor también tiene sus inconvenientes:

• Coste elevado. Tanto la instalación como el mantenimiento son más elevados


debido al perfil muy técnico del lado servidor.
• Dependencia del servidor: la arquitectura cliente/servidor depende en gran
medida del servidor. Si el servidor experimenta un fallo o una caída, todos los
clientes que dependen de él se verán afectados. Esto puede resultar en una
interrupción significativa de los servicios y la productividad.
• Cuellos de botella de rendimiento: dependiendo de la carga de trabajo y la
capacidad del servidor, puede haber cuellos de botella de rendimiento. Si el
servidor no puede manejar eficientemente las solicitudes de todos los clientes,
puede resultar en una degradación del rendimiento y tiempos de respuesta más
lentos.

6 GRUPOS DE TRABAJO COMO ALTERNATIVA AL MODELO


CLIENTE-SERVIDOR

Página 11
Sistemas Operativos en Red

Un grupo de trabajo es la forma más simple de compartir recursos entre diferentes


ordenadores de una red de dimensiones reducidas. En él, todos los equipos se
encuentran al mismo nivel de importancia y ninguno de ellos tiene control sobre los otros.
En este tipo de estructuras cada ordenador dispone de sus propias cuentas de usuario,
administradas de forma local.
Un grupo de trabajo puede ser la solución más acertada cuando hablamos de un
conjunto pequeño de ordenadores, que se encuentra en la misma red, donde cada uno
de ellos ofrece recursos en función de sus propias características y donde la seguridad
no es relevante.
Sin embargo, los grupos de trabajo tienen importantes limitaciones:

• La seguridad no se encuentra centralizada.


• Es complicado realizar cambios en la configuración (hay que aplicarlos en cada
ordenador implicado).
• Las cuentas de usuario son locales y sólo podemos utilizarlas en el ordenador
donde se han creado.
• El administrador local de un equipo puede hacer cambios en la configuración que
afecten al resto de los usuarios.

Normalmente, en una red configurada como grupo de trabajo no participan más de veinte
ordenadores. Debido a todo esto, los grupos de trabajo deben ser una alternativa que
debemos valorar en determinadas situaciones, pero la mayoría de las veces deberemos
inclinarnos por un modelo cliente/servidor.

7 FACTORES A TENER EN CUENTA PARA ELEGIR UN


SISTEMA OPERATIVO EN RED

El primer paso para la implantación de una infraestructura cliente/servidor será la


comprobación de que se cumplen tanto requisitos hardware como software.

En lo relativo al hardware, uno de los aspectos más importantes será la comunicación.


Deberemos establecer si se utilizará una red de área local (LAN, Local Area Network) o
una red de área extensa (WAN, Wide Area Network), si todos los dispositivos de
comunicaciones (cableados o inalámbricos) se encuentran activos y debidamente
configurados y, finalmente, si existe conectividad entre los diferentes puntos de la red.

Página 12
Sistemas Operativos en Red

También deberá prestarse atención a los ordenadores que estarán implicados. Para
comenzar diferenciaremos entre los que van a asumir el rol de servidores y los que
actuarán como clientes. En ambos casos deberemos estudiar tanto la potencia
necesaria como la compatibilidad a nivel de hardware y software con el resto de los
elementos implicados: Sistemas gestores de bases de datos, impresoras, faxes,
dispositivos de copias de seguridad, etc.
En ocasiones, dispondremos de un equipamiento previo sobre el que, en el mejor de los
casos, podremos realizar ciertas modificaciones y/o actualizaciones. En estos casos,
deberemos ajustar las características de nuestra implantación a los recursos existentes.
En otras situaciones, tendremos libertad para diseñar todos los aspectos de nuestra
instalación, adquiriendo el material necesario para ponerla en práctica. Sea cual sea la
situación que se produzca, determinará en gran medida el resto de las decisiones que
tomemos.
Uno de los aspectos más importantes que debemos atender cuando estudiamos
los requisitos de una infraestructura cliente/servidor es la interoperabilidad. Es
decir, debemos conseguir que todos los elementos que participan interactúen de forma
adecuada para obtener los resultados que esperamos de ellos.
El IEEE define la interoperabilidad como la habilidad de dos o más sistemas o
componentes para intercambiar información y utilizarla posteriormente.
Por lo tanto, algunas de las preguntas que deberemos hacernos son las siguientes:

• ¿Qué sistema operativo me ofrecerá mejor rendimiento en el lado servidor?.


Por ejemplo, dado un determinado ordenador, deberemos averiguar si un sistema
operativo tendrá un mejor comportamiento que otro. Para ello, debemos analizar
los requisitos en cuanto a hardware mínimos necesarios y recomendados para
realizar de manera eficiente y rápida todas las funciones del servidor.
• ¿El sistema operativo es compatible con el hardware del servidor? ¿dispone
de los drivers adecuados? Previo a la instalación del sistema operativo se
debería realizar un inventario del hardware del que dispone. Hay que comprobar
si dicho hardware es compatible con el sistema operativo. Existen las Hardware
Component List (HCL), que suelen hallarse en páginas de Internet del fabricante
del sistema operativo. Estas listas permiten comprobar si el hardware que
tenemos es compatible con el sistema operativo. Si el hardware no se encuentra
en las listas, habrá que recurrir a la web del fabricante.
Es muy frecuente que algunos sistemas operativos, sobre todo en el lado servidor,
no dispongan de todos los drivers necesarios para todos los modelos de

Página 13
Sistemas Operativos en Red

impresoras, escáneres, u otros dispositivos que podamos necesitar en el presente


o en el futuro. Por esto, la elección del sistema operativo puede verse
condicionada por los dispositivos que ya tenemos o, al contrario, la adquisición
de nuevos dispositivos estará supeditada al sistema operativo por el que nos
hayamos decantado.
• ¿La interoperabilidad entre el sistema operativo del lado servidor y las
aplicaciones y los servicios que debe ofrecer es adecuada?. Hay que realizar
una lista del software y de los servicios que se desea tener instalados. Habrá que
averiguar para cada uno de los servicios si es posible su instalación en el sistema
operativo del lado del servidor. Puede ser que haya que recurrir a proveedores
externos de ese servicio o cambiar la edición del sistema operativo por otra con
más prestaciones. Además, se consultará la web del fabricante para conocer si
cada programa o servicio es soportado por la versión del sistema operativo que
se va a instalar. Por ejemplo, si estamos planificando la instalación de un servidor
de datos, deberemos averiguar si el sistema operativo que pensamos elegir
funciona correctamente con el sistema gestor de bases de datos que hemos
pensado utilizar.
• ¿Qué sistema operativo me ofrecerá mejor rendimiento en el lado cliente?.
La mayoría de las veces, los ordenadores del lado cliente serán los que tengan
una capacidad de cálculo más ajustada y, además, son los que más tardan en
actualizarse o sustituirse dentro de la estructura de una empresa.
• ¿La interoperabilidad entre el lado cliente y el lado servidor es adecuada?
Es lógico que deba existir un buen entendimiento entre el lado cliente y el lado
servidor para que la instalación sea verdaderamente productiva.
Afortunadamente, en los últimos tiempos esto ha mejorado considerablemente,
resultando sencillo hacer que redes heterogéneas funcionen con toda naturalidad.
Merecen una mención especial las situaciones donde lo que se implanta es
un servidor de aplicaciones. Los programas diseñados para funcionar en un
entorno cliente/servidor que utilizan una interfaz web para interactuar con el
usuario. En estos casos prácticamente será responsabilidad del navegador
ofrecer el grado correcto de interoperabilidad con el servidor.
• ¿Los costes arrojados por el diseño son asumibles para la empresa? Un
error común es sobredimensionar todo el diseño para asegurarnos de que cumple
con todas las necesidades presentes y futuras, pero esto nos puede llevar a
plantear un coste excesivo. Por este motivo, debemos hacer el estudio con el

Página 14
Sistemas Operativos en Red

máximo rigor y ofrecer un resultado ajustado a las necesidades reales.

8 SISTEMAS OPERATIVOS EN RED ACTUALES

En el modelo cliente/servidor existen dos roles diferentes: el del lado servidor y el

del lado cliente. Por este motivo, en el momento de realizar


una clasificación de los sistemas operativos más frecuentes,
estamos obligados a diferenciar el rol que ocuparán dentro
de la infraestructura.
En el lado servidor, los sistemas más habituales son:

• Microsoft Windows Server (principalmente las


versiones 2016, 2019 y 2022)

• GNU/Linux Server (son frecuentes las distribuciones Red Hat Enterprise


Linux –RHEL-, Ubuntu Server, SuSE Linux Enterprise Server, Fedora
CoreOS, …)
• UNIX (IBM AIX, HP-UX)
• Solaris/OpenSolaris
• macOS Server

Antes de relacionar los sistemas operativos que se despliegan en la parte cliente,


debemos decir que todos los sistemas anteriores pueden actuar, si fuese necesario,
como clientes en una infraestructura cliente/servidor, aunque no estén
específicamente diseñados para ello. Incluso pueden actuar como servidores para un
grupo de clientes y, para llevar a cabo su cometido, actuar al mismo tiempo como clientes
de otro, u otros servidores.
No obstante, los sistemas que solemos llamar “de escritorio” son los que están
diseñados para constituir la parte cliente en este tipo de entornos. Los más frecuentes
son estos:

• Microsoft Windows (XP, Vista, 7, 8, 10, 11 …)


• GNU/Linux Desktop (Ubuntu
Desktop, Fedora, Debian, SuSE Linux)
• MacOS

Página 15
Sistemas Operativos en Red

9 SISTEMAS OPERATIVOS EN RED LOCAL VS SISTEMAS


OPERATIVOS EN RED EN LA NUBE

La forma tradicional de implementar sistemas operativos en red solía ser a través de


redes locales. Un sistema operativo en red local brinda control total, mayor velocidad y
rendimiento, pero puede tener costos iniciales más altos, menor flexibilidad y
escalabilidad limitada.
En la actualidad, cada vez más empresas están optando por implementar sus sistemas
operativos en la nube, ya que esto les aporta una serie de ventajas como la flexibilidad
(las empresas pueden reducir los costos de infraestructura), escalabilidad, accesibilidad
remota, a costa de problemas relacionados con la necesidad de acceso a Internet y la
seguridad.
La elección entre implementar una solución local o en la nube para sistemas operativos
en red depende de las necesidades y requisitos específicos de la organización.
Por ejemplo:

• Una empresa con recursos limitados y un número reducido de usuarios podría


optar por una solución local.
• Sin embargo, esa misma empresa, si tuviera varias sedes geográficamente
separadas o esperara un posible gran crecimiento y quisiera llegado el momento,
flexibilizar costes, quizás podría optar por una solución en la nube.

A continuación, se presentan las ventajas e inconvenientes de cada modelo:


Sistema operativo en red alojado localmente:
Ventajas:

• Control total: un sistema operativo en red local brinda a la empresa un control


completo sobre su infraestructura y recursos. Pueden implementar y personalizar
medidas de seguridad y políticas de acceso según sus necesidades específicas.
• Velocidad y rendimiento: al tener los recursos localmente, un sistema operativo
en red local generalmente ofrece un rendimiento más rápido y una latencia
reducida en comparación con la conexión a través de internet.

Desventajas:

• Costes iniciales más altos: la implementación de un sistema operativo en red


local puede requerir una inversión inicial significativa en infraestructura, como
servidores, equipos de red y licencias de software. Además, los costes de
mantenimiento y actualización también son responsabilidad de la empresa.
Página 16
Sistemas Operativos en Red

• Menor flexibilidad y movilidad: los sistemas operativos en red locales están


limitados a un lugar físico específico. Esto puede restringir la flexibilidad y la
movilidad de los usuarios, ya que no pueden acceder a los recursos de forma
remota desde cualquier ubicación.
• Menor escalabilidad: la escalabilidad de un sistema operativo en red local puede
ser más limitada en comparación con la opción en la nube. La adición de nuevos
recursos o la expansión de la infraestructura puede requerir inversiones
adicionales y tiempo para su implementación.

Sistema operativo en red alojado en la nube:


Ventajas:

• Acceso desde cualquier lugar: los sistemas operativos en red en la nube


permiten acceder a los recursos y aplicaciones desde cualquier ubicación con
conexión a internet. Esto brinda flexibilidad y movilidad a los usuarios.
• Escalabilidad: los sistemas operativos en red en la nube son altamente
escalables. Pueden adaptarse fácilmente al crecimiento de la empresa, puesto
que los recursos se pueden ampliar o reducir según las necesidades cambiantes
sin requerir una inversión en infraestructura adicional.
• Mantenimiento simplificado: el proveedor de servicios en la nube se encarga
del mantenimiento y la actualización del hardware, y a veces incluso del sistema
operativo. Esto libera a las empresas de la carga de tareas de mantenimiento.

Desventajas:

• Dependencia de la conexión a internet: la disponibilidad y el rendimiento de un


sistema operativo en red en la nube dependen en gran medida de una conexión a
internet confiable. Si la conexión se interrumpe o es lenta, afecta al servicio.
• Problemas de seguridad: al utilizar un sistema operativo en red en la nube, los
datos y la información de la empresa se almacenan en servidores externos. Esto
puede plantear preocupaciones en términos de seguridad y privacidad de los
datos, ya que la empresa debe confiar en las medidas de seguridad
implementadas por el proveedor de servicios en la nube.
• Costes iniciales: cuando el servidor está alojado en la nube, puede no tener que
hacer estas inversiones iniciales en infraestructura, pero a la larga puede ser más
caro.
• Además de las medidas de seguridad, debe de tenerse en cuenta en que país se
aloja el servicio. Por ejemplo, en España los datos no privados no pueden alojarse

Página 17
Sistemas Operativos en Red

en servidores en países de fuera de la Unión Europea.

10 VIRTUALIZACIÓN

El término virtualización en un contexto informático se utiliza para referirnos a la


creación mediante software de una versión virtual de algún recurso tecnológico, como
puede ser una plataforma de hardware, un sistema operativo, un dispositivo de
almacenamiento u otros recursos de red.
La virtualización es un conjunto de técnicas hardware/software que permiten abstraer el
hardware y software real y simular recursos físicos, sistemas operativos, etc.
La virtualización se suele implementar en instituciones, empresas, escuelas, etc. porque
es fácil de implementar y tiene muchas ventajas.
Un ejemplo de virtualización son las máquinas virtuales. Además, existen otros ejemplos
de virtualización, como la emulación de videojuegos o los contenedores. En ocasiones,
necesitamos probar un nuevo sistema operativo, una configuración o un programa en un
entorno limpio y aislado. ¿Cómo podemos hacerlo fácilmente? Usando máquinas
virtuales.
Una máquina virtual permite simular una computadora (con su propio sistema
operativo) y ejecutar programas, configuraciones, etc. Las máquinas virtuales se crean
utilizando un programa de virtualización que se ejecuta sobre el sistema operativo de
una máquina real. Hay muchos ejemplos de máquinas virtuales, cada una con sus
propias características: VirtualBox, VMware, VirtualPC, Parallels, JavaVM, etc.
Según su funcionalidad, podemos clasificar las máquinas virtuales en dos tipos:

• Máquinas virtuales de sistema (System Virtual Machines): permiten replicar la


máquina real en varias máquinas virtuales, cada una con su propio SO. El software
que realiza la virtualización se llama "hypervisor".
● Máquinas virtuales de proceso (Process Virtual Machines): se ejecutan como
una aplicación normal dentro de un sistema operativo host y admite un único
proceso. Se crea cuando se inicia ese proceso y se destruye cuando sale. Su
propósito es proporcionar una programación independiente de la plataforma.
Algunos ejemplos:
○ Máquina virtual de Java: el “compilador de Java” genera “códigos de
bytes de Java” y una “máquina virtual de Java” ejecuta esos “códigos de
bytes de Java” en cada sistema operativo donde existe una “máquina
virtual de Java”.
○ .NET: ejecuta aplicaciones .NET donde esté implementado .NET (Mono
Página 18
Sistemas Operativos en Red

para Linux, diferentes versiones de Windows, etc.).

10.1.1 TIPOS DE HIPERVISORES

• Hipervisor de Tipo 1: se denomina también virtualización en modo nativo y se


caracteriza poque este software se ejecuta directamente en el hardware, y se
instala directamente sobre el equipo haciendo las funciones tanto de sistema
operativo (SO) como de virtualización. Este método de virtualización lo utilizan
sobre todo las empresas que pueden disponer de uno o varios servidores
dedicados en exclusiva a la virtualización de sistemas. Algunos de los hipervisores

de tipo 1 más conocidos son los siguientes: VMware ESXi (free), VMware ESX,
Xen(libre), Citrix XenServer (free), Microsoft Hyper-V Server (free).

• Hipervisor de Tipo 2: se denomina también alojado (hosted), se caracteriza


porque debe ser instalado en un equipo que cuente con un SO previo (como
Debian GNU/Linux, Fedora, Microsoft Windows, Mac OS X, etc.). El hipervisor se
ejecuta como una aplicación en un sistema operativo host. El hipervisor se ejecuta

Página 19
Sistemas Operativos en Red

en un sistema operativo "host" y crea máquinas virtuales con un sistema operativo


"invitado". Normalmente, el sistema operativo de la máquina real se denomina
"host" o “anfitrión” y el sistema operativo de la máquina virtual se denomina
"invitado" o “huésped”.

Para un usuario doméstico es el método de virtualización apropiado e ideal para


probar software (sistemas operativos y aplicaciones) sin riesgo de afectar a nada de
lo que haya en la máquina anfitriona. Obviamente, esta forma de virtualización es
menos eficiente que la anterior, pero se puede seguir utilizando el equipo físico con
otras aplicaciones: editor de texto, hoja de cálculo, navegador, u otros servicios.
Como desventaja: el sistema operativo anfitrión comparte recursos con el sistema
operativo invitado. Ejemplos de hipervisor de tipo 2: Oracle VM VirtualBox (gratis),
VMware Workstation, VMware Player (gratis), QEMU (gratis), etc.

10.1.2 CONDICIONANTES HARDWARE PARA LA


VIRTUALIZACIÓN

La memoria RAM del equipo desde donde vamos a virtualizar, tiene que ser capaz
de contener al sistema anfitrión (para VMM tipo 2) y a las MMVV. También
deberíamos disponer de bastante espacio en disco y, además que el procesador se
haya construido pensando en la virtualización. Actualmente, cualquier ordenador
puede virtualizar, pero es importante pensar en el microprocesador, la RAM y la
capacidad de disco de la que se dispone.
Hoy en día, todos los nuevos microprocesadores traen instrucciones para ayudar
a la virtualización. Esta característica puede que tenga que activarse en la BIOS del
ordenador, concretamente es necesario para realizar virtualización de tipo I o de tipo
II de MMVV con SSOO de 64 bits sobre arquitecturas x86. En los microprocesadores
de Intel se denomina Intel VT-x y en los de AMD su nombre es AMD-V.

10.1.3 VENTAJAS E INCONVENIENTES DE LA


VIRTUALIZACIÓN

Ventajas

• Utilizar varios sistemas operativos al mismo tiempo.


• Probar un sistema operativo antes de instalarlo en una máquina real.
• Utilizar aplicaciones que no estén disponibles en su sistema operativo host.
Página 20
Sistemas Operativos en Red

• Emular un tipo diferente de computadora (con otro conjunto de instrucciones).


• Crear entornos de prueba.
• Guardar el estado actual y restaurarlo más tarde (consume espacio en disco).
• Facilidad para clonar o realizar copias de seguridad.
• Ahorrar energía, recursos, espacio, etc. emulando ordenadores antiguos, lo cual
es respetuoso con el medio ambiente (evita construir ordenadores, componentes,
etc.).

Desventajas

• Compartir recursos con otras máquinas virtuales y con el sistema operativo host.
• El rendimiento es inferior al de las máquinas reales.

11 MÁQUINAS VIRTUALES VS CONTENEDORES

Las máquinas virtuales consisten en un hipervisor que funciona sobre un hardware físico,
simulando uno o varios “hardware virtuales” que permiten emular máquinas virtuales
(cada una con su propio sistema operativo).
La virtualización ha tenido mucho éxito en los últimos años en el despliegue de
aplicaciones y aprovisionamiento de infraestructuras, pero ahora el paradigma que
triunfa son los “contenedores ligeros” o simplemente “contenedores”.
Los “contenedores” son una tecnología similar a las máquinas virtuales, pero con la gran
diferencia de que en lugar de utilizar un hipervisor simulando un sistema operativo
completo, los contendores usan el propio sistema operativo del anfitrión, sin simular
hardware ni otro sistema operativo. Dicho de otra forma, realmente cada contenedor es
en realidad un "entorno privado" del sistema operativo anfitrión, con sus propios
procesos, su propia memoria y su propio disco.
Gracias a que los contenedores no simulan un sistema operativo, el sistema es más
rápido (no pasa por la capa de virtualización) y el tamaño de los contenedores es mucho
menor (ya que no necesitan guardar el sistema operativo completo), haciéndolos
eficientes, más fáciles de migrar, iniciar, recuperar, pasar a la nube, etc.
Como conclusión, es útil ejecutar un contenedor si queremos:

• Obtener mejor rendimiento que con una máquina virtual clásica.


• Desarrollar una aplicación que pueda distribuirse sin problemas de configuración
ni dependencia en el mismo sistema operativo que nuestro host.
• Desarrollar una aplicación fácil de migrar a la nube con casi cualquier cambio.

Página 21
Sistemas Operativos en Red

• Ejecutar múltiples copias de la misma aplicación (conjunto de aplicaciones que


funcionan juntas).

Por el contrario, si queremos flexibilidad (por ejemplo, usar un sistema operativo


diferente al sistema operativo host) o ejecutar múltiples aplicaciones diferentes en
diferentes sistemas operativos, debemos usar máquinas virtuales.

12 SOFTWARE DE VIRTUALIZACIÓN
12.1.1 CITRIX XENSERVER

XenServer es una plataforma de virtualización de servidor que ofrece rendimiento de


virtualización para servidores virtualizados y sistemas operativos de cliente que casi
coinciden con el rendimiento de los servidores nativos.
XenServer utiliza el hipervisor Xen para virtualizar cada servidor, en el que se instala,
permitiendo que cada uno pueda alojar varias máquinas virtuales simultáneamente con
un gran rendimiento. También puede utilizar XenServer para combinar varios servidores
habilitados para Xen en una potente agrupación de recursos, mediante el uso de
arquitecturas de almacenamiento compartido estándares del sector y utilizando la
agrupación de recursos en clúster. Al hacerlo, XenServer permite una virtualización sin
fisuras de varios servidores como una agrupación de recursos. Estos recursos se
controlan dinámicamente para ofrecer un rendimiento óptimo, una mayor resiliencia y
disponibilidad y un uso máximo de los recursos del centro de datos.
Los gestores de TI pueden utilizar XenServer para crear varios clústeres de
agrupaciones de recursos y gestionar los clústeres y sus recursos desde un único punto
de control. Con XenServer, un bastidor de servidores puede convertirse en un clúster de

Página 22
Sistemas Operativos en Red

cálculo de alta disponibilidad que proteja las cargas de trabajo de aplicaciones clave
utilizando arquitecturas de almacenamiento estándares del sector. XenServer ofrece
también un mantenimiento sin tiempo de inactividad al mover las máquinas virtuales
mientras están en ejecución entre máquinas del clúster. XenServer amplía la abstracción
más potente: la virtualización entre servidores, almacenamiento y redes, para permitir
que los usuarios puedan alcanzar el máximo potencial de un entorno de centro de datos
dinámico, ágil y eficiente para cargas de trabajo de Windows y Linux.

12.1.2 MICROSOFT HYPER-V SERVER

Hyper-V es un sistema de virtualización para Windows que permite a un único servidor


físico alojar varias máquinas virtuales que ejecutan su propio sistema operativo. Hyper-
V tiene que estar instalado en una versión soportada de Windows Server Datacenter.
Todo el hardware de IBM Cloud® cumple los requisitos del sistema de Hyper-V.
Microsoft recomienda al menos 2 GB de RAM en el servidor. Hyper-V ejecuta cada
máquina virtual en su propio espacio aislado, lo que significa que puede ejecutar más de
una máquina virtual en el mismo hardware al mismo tiempo.

12.1.3 VMWARE VSPHERE

VMware vSphere es la plataforma de virtualización de VMware, la cual transforma los


centros de datos en infraestructuras de computación agregadas que incluyen recursos
de redes, CPU y almacenamiento. vSphere administra estas infraestructuras como un

Página 23
Sistemas Operativos en Red

entorno operativo unificado y le proporciona las herramientas para administrar los


centros de datos que participan en dicho entorno.

Los dos componentes principales de vSphere son ESXi y vCenter Server. ESXi es la
plataforma de virtualización en la que se crean y se ejecutan las máquinas virtuales y los
dispositivos virtuales. VMWare ESXi es un hipervisor de tipo 1 que se instala
directamente en un servidor físico. vCenter Server es el servicio mediante el cual se
administran varios hosts conectados en una red y se agrupan recursos del host.

12.1.4 KVM

Es una tecnología de virtualización open source que convierte el kernel de Linux en un


hipervisor de tipo 1 que se puede usar para la virtualización. Cada máquina virtual se
implementa como un proceso habitual de Linux, el cual se programa con la herramienta
estándar de Linux para este fin, e incluye sistemas virtuales de hardware exclusivos,
como la tarjeta de red, el adaptador gráfico, las CPU, la memoria y los discos.

KVM utiliza una combinación de Security-Enhanced Linux (SELinux) y


Secure Virtualization (sVirt) para mejorar la seguridad y el aislamiento de las máquinas
virtuales. Puede usar todos los tipos de almacenamiento compatibles con Linux, lo cual
incluye algunos discos locales y el almacenamiento conectado en red (NAS). Puede usar
varias plataformas de hardware certificadas y compatibles con Linux. KVM son
compatibles con la migración activa, es decir, la capacidad para trasladar una máquina
virtual en ejecución entre hosts físicos sin interrumpir el servicio. Es una alternativa a las
tecnologías de virtualización propietarias, como las que ofrece VMware.

13 ORACLE VM VIRTUALBOX.

Oracle VM VirtualBox es un "hipervisor tipo 2" donde es posible cargar múltiples SSOO
invitados en un solo SO anfitrión. Es gratuito y está disponible para los sistemas
operativos más populares en https://www.virtualbox.org/.
Inicialmente fue creado por la empresa Innotek bajo licencia propietaria. También
hicieron una versión gratuita para uso personal o de evaluación con menos
funcionalidades, la cual se encontraba regida por la licencia PUEL. En enero de 2007, la
versión gratuita fue promocionada a libre, se la denominó VirtualBox OSE asignándosele
la licencia libre GPLv2 y la versión completa de VirtualBox se ofreció gratuitamente bajo
licencia PUEL. En febrero de 2008 la empresa Innotek fue comprada por Sun
Página 24
Sistemas Operativos en Red

Microsystems y esta, a su vez, en enero de 2010 fue adquirida por Oracle, que cambió el
nombre de VirtualBox a Oracle VM VirtualBox y también modificó la forma de distribuirlo,
pues crearon una versión de VirtualBox bajo licencia libre GPLv2 a la que le faltaban
algunos componentes propietarios (USB 2.0, VRDP, PXE y PCI passthrough) que se
podían añadir mediante la instalación del paquete denominado Oracle VM VirtualBox
Extension Pack bajo licencia PUEL. Este formato es el actual hoy en día, por lo que si
queremos instalar un VirtualBox completo hay que instalar el paquete principal y a
continuación el Extension Pack.
Para mejorar su rendimiento, Oracle VM VirtualBox permite instalar en su sistema
operativo invitado una aplicación llamada "Guest additions".
Instalar "Guest additions" en Ubuntu: https://youtu.be/Q84boOmiPW8
Instalar "Guest additions" en Windows 10: https://youtu.be/Bb_kJd3lSxQ

13.1.1 CARACTERÍSTICAS

Algunas de las características más importantes de Oracle VM VirtualBox son las


siguientes:

• Multiplataforma: Puede ser instalado en diversos SSOO de 32 y 64 bits, como


Windows, GNU/Linux, Mac OS X y Solaris.
• Multihuéspedes: Puede virtualizar múltiples SSOO de 32 y 64 bits, como
Windows 11, Windows 10, Windows 8, ..., Debian, Ubuntu, OpenSuSe, ..., OS/2,
Mac OS X, DOS, Solaris, etc.
• Es software libre, usa la licencia GPLv2, aunque algunos componentes son
gratuitos con licencia PUEL.
• Portabilidad: Oracle VM VirtualBox es funcionalmente muy parecido en todas las
plataformas donde se puede ejecutar, por este motivo se pueden portar MMVV
entre ellas, es decir, se puede crear una MV en Windows y luego ejecutarla en
GNU/Linux. Además, las MMVV pueden ser fácilmente importadas y exportadas
utilizando el Open Virtualization Format (OVF), un estándar creado para este fin.
Se puede incluso importar en este formato MMVV que fueron creadas con un
software de virtualización diferente.
• No siempre es necesaria la virtualización asistida por hardware: En muchos
escenarios, Oracle VM VirtualBox no precisa de la virtualización asistida por
hardware, que requiere de las funciones añadidas al hardware moderno,
denominadas Intel VT-x para los microprocesadores de Intel y AMD-V para los

Página 25
Sistemas Operativos en Red

micros de AMD. Este hecho, permite que Oracle VM VirtualBox pueda utilizarse
incluso en hardware antiguo, donde estas características no están presentes. A
veces, las MMVV intentan hacer operaciones que pueden interferir en el buen
funcionamiento de la máquina anfitriona, y evitar esto es una de las funciones
principales de los hipervisores. Oracle VM VirtualBox como tal, en la mayoría de
los casos solo precisa de virtualización basada en software, pero en ocasiones,
como por ejemplo en la virtualización de SSOO de 64 bits sobre plataformas
hardware x86 (no fueron diseñadas pensando en la virtualización), para ejecutar
las operaciones que pueden afectar al anfitrión, necesita la ayuda de Intel VT-x o
AMD-V. No se debe olvidar que además de seleccionar estas características en
la configuración de la MV, es probable que para que se puedan utilizar, también
deban ser activadas en la BIOS de la máquina anfitriona. (Advertencia: Se permite
instalar en la misma máquina anfitriona más de un software de virtualización, pero
no es recomendable ejecutar más de uno a la vez, sobre todo cuando se utiliza
virtualización asistida por hardware, ya que los hipervisores no pueden seguir lo
que otros hipervisores están tratando de hacer sobre el anfitrión, consiguiéndose,
muy posiblemente, el bloqueo del ordenador).
• Guest additions: son paquetes de software que se pueden instalar en el interior
de los sistemas invitados compatibles, para mejorar su rendimiento y proporcionar
una mejor comunicación con el sistema anfitrión. Después de instalar las Guest
Additions en una MV, esta mejorará en los siguientes aspectos:
• Integración del puntero del ratón, evitando que se tenga que hacer click sobre
la ventana de la MV para que el ratón se le asigne a esta. Simplemente con poner
el ratón sobre la ventana de la MV ya lo tendrá.
• Carpetas compartidas entre el anfitrión y el invitado para intercambiar ficheros.
• Mejora de las características gráficas de la MV, permitiendo el redimensionado
automático de la interfaz gráfica del SO invitado cuando se modifica el tamaño de
la ventana de la MV.
• Modo fluido de las ventanas. Con este modo, las ventanas individuales abiertas
sobre el escritorio del invitado se integran con las ventanas abiertas del anfitrión,
dando la sensación de que las aplicaciones del invitado se están ejecutando en el
anfitrión.
• Sincronización de forma automática de la hora de la MV con el equipo anfitrión.
• Compartir el portapapeles entre el anfitrión y el invitado.
• Instantáneas (snapshots): Se pueden guardar instantáneas arbitrarias del

Página 26
Sistemas Operativos en Red

estado actual de la MV, permitiendo volver atrás en el tiempo, restaurando la MV


al estado congelado por la instantánea y comenzando así una configuración
alternativa de la MV a partir de ahí.
• Grupos de MMVV: Oracle VM VirtualBox permite al usuario organizar las MMVV
colectivamente, así como individualmente. En general, las operaciones que se
pueden realizar con los grupos son las mismas que con las MMVV
independientemente, es decir: iniciar, pausar, reiniciar, parar, etc. También es
posible crear dentro de un grupo otros grupos.
• Permite montar imágenes ISO sobre las unidades de CD o DVD evitando el uso
de los CDs y DVDs físicos.
• Licencia: licencia de software libre GPL.

13.1.2 INSTALACIÓN DE VIRTUALBOX EN WINDOWS Y EN


UBUNTU

Oracle VM VirtualBox puede instalarse en los siguientes sistemas operativos:

• GNU/Linux
• Windows
• Mac OS X
• Solaris

Para conseguir una virtualización fluida, sobre todo si vamos a trabajar con múltiples
MMVV ejecutándose simultáneamente. Sería aconsejable un micro de 64 bits, al menos
4 GB de RAM y 500 GB de disco duro. Hay varios tutoriales disponibles en Internet que
explican cómo hacerlo:

• Cómo instalar VirtualBox en Ubuntu:


https://www.youtube.com/watch?v=QkJmahizwO4
• Cómo instalar VirtualBox en Windows 10: https://youtu.be/8mns5yqMfZk

13.1.3 EL ADMINISTRADOR DE VIRTUALBOX

Cuando se ejecuta ORACLE VM VIRTUALBOX nos aparece la ventana del


Administrador:

Página 27
Sistemas Operativos en Red

A la izquierda, se puede ver un panel que muestra una lista con todas las MMVV
creadas. La fila de botones de la parte superior permite crear nuevas MMVV y trabajar
con MMVV existentes. El panel de la derecha muestra por secciones las propiedades de
la MV que estuviera seleccionada y su árbol de instantáneas. Oracle VM VirtualBox
también puede administrarse desde la consola a través del comando VBoxManage.

13.1.4 PRIMERAS CONFIGURACIONES

En este punto se muestran diversos parámetros de configuración de Oracle VM


VirtualBox que se pueden cambiar a través de la ventana del administrador. Para acceder
a ellos se pulsa sobre el menú Archivo -> Preferencias.

Página 28
Sistemas Operativos en Red

• Cambiar el idioma.

• Cambiar la carpeta donde se guardan las MMVV.

• Crear o cambiar combinaciones de teclas para que sirvan de acceso rápido


a determinadas acciones.

Página 29
Sistemas Operativos en Red

• Actualizaciones automáticas.

13.1.5 CREAR UNA MÁQUINA VIRTUAL.

Como configurar una máquina en VirtualBox: https://youtu.be/H_ustCy4Ks8

13.1.6 CONFIGURACIÓN DE LA TARJETA DE RED.

Una MV en ORACLE VM VIRTUALBOX puede tener hasta 8 tarjetas de red PCI


Ethernet, y a cada una de ellas, de forma independiente, se les puede especificar el tipo
de hardware a virtualizar y el modo de configuración. Desde el Administrador de
ORACLE VM VIRTUALBOX se pueden configurar 4 de las 8 tarjetas de red, si
necesitamos más, debemos configurarlas desde la línea de comandos
con VBoxManage.
El hardware AMD PCNet FAST III es el valor por defecto, ya que es compatible con casi
todos los SSOO. Como excepción, se eligen los adaptadores de la familia Intel
PRO/1000 para algunos tipos de SSOO invitados que no suministran controladores para
las tarjetas de la familia PCNet.
El hardware de la tarjeta de red se elige en la sección de Red de la MV, en el apartado
de Avanzadas denominado Tipo de adaptador.

Página 30
Sistemas Operativos en Red

Modo: No conectado
En este modo, ORACLE VM VIRTUALBOX informa al cliente de que una tarjeta de red
está presente, pero que no hay ninguna conexión, como si el cable de red no estuviera
conectado a la tarjeta.
Establecer el modo No conectado y luego cambiar a otro modo de red, fuerza al SO a
reconfigurar la tarjeta de red. Otra forma de lograr lo mismo es utilizando la opción Cable
conectado que se encuentra en la parte de opciones avanzadas en la sección de red de
la MV (también en el menú contextual del icono de red que se encuentra en la parte
inferior derecha de la ventana de la MV, eligiendo Connect Network Adapter, o a través
del menú de la MV Dispositivos -> Red).

Modo: NAT
Este modo sería el adecuado si lo que quieremos es navegar por Internet, descargar
archivos, leer el correo electrónico, etc., es decir, hacer cosas básicas de red desde el
interior del SO invitado.
El modo NAT es la forma más sencilla que tiene una MV para acceder a una red
externa. Por lo general, no se requiere ninguna configuración en la red, ni en el anfitrión
ni en el invitado. Por esta razón, es el modo de red por defecto en ORACLE VM
VIRTUALBOX.

Página 31
Sistemas Operativos en Red

En modo NAT, ORACLE VM VIRTUALBOX coloca un router entre el exterior (hacia


donde hace NAT) y el invitado. Dicho router posee un servidor DHCP que sirve hacia el
interior. Este router mapea el tráfico desde y hacia la MV de forma transparente. Cada
MV en modo NAT tendrá su propio router, por lo que estarán en redes aisladas, lo que
implica, que por defecto, las MMVV que tienen su tarjeta de red en modo NAT no pueden
verse entre sí.

La dirección que el router sirve va a depender del número del adaptador de red que esté
configurado en modo NAT. Las 8 tarjetas de red que ORACLE VM VIRTUALBOX permite
a cada MV se enumeran del 0 al 7, y las direcciones de red de los routers son por defecto
del tipo 10.0.x+2.0/24, donde x es el número del adaptador de red (10.0.2.0/24,
10.0.3.0/24, ..., 10.0.9.0/24). La dirección IP para la tarjeta de red es la 10.0.x+2.15 (y
sucesivas para interfaces virtuales en GNU/Linux) y para el router la 10.0.x+2.2.

Modo: Red NAT


A partir de la versión 4.3 de ORACLE VM VIRTUALBOX, se ha añadido el modo Red
NAT, el cual funciona como el router de nuestra casa, es decir, los equipos que estén
dentro de la misma red NAT podrán comunicarse entre sí, y es aquí donde radica la
diferencia con el modo NAT el cual siempre constituye una red con un único equipo y no
de varios como ahora es el caso.

Modo: Adaptador puente


El modo Adaptador puente simula que la tarjeta virtual está conectada al mismo switch
que la tarjeta física del anfitrión, por lo tanto, la MV se va a comportar como si fuese un
equipo más dentro de la misma red física en la que está el equipo anfitrión. El esquema
de red sería el siguiente

Página 32
Sistemas Operativos en Red

Cuando se elige el modo adaptador puente y tenemos más de una tarjeta de red
instalada en nuestro ordenador, por ejemplo, en un portátil tendríamos la tarjeta Ethernet
y la Wifi; en estos casos, debajo del modo de red, está la lista de tarjetas de red del
equipo anfitrión y debemos elegir una, para indicar por dónde se dirigirá el tráfico de la
tarjeta en modo puente de la máquina virtual.

Modo: Red interna


Con la configuración de tarjetas de red en modo Red interna, podemos construir redes
aisladas, en las cuales solo habrá comunicación entre las MMVV que pertenezcan a la
misma red interna.

Para conectar estas redes internas al exterior, habrá que crear MMVV que funcionen
como routers y dispongan de dos o más tarjetas de red, de esta forma, podremos
construir un camino hacia Internet. Evidentemente, al menos uno de esos routers deberá
tener una tarjeta configurada en modo NAT o adaptador puente, lo que permitirá una
salida física al exterior.

Página 33
Sistemas Operativos en Red

Las redes internas de ORACLE VM VIRTUALBOX se identifican a través de un nombre,


y todas las MMVV que tengan una tarjeta en modo Red interna y con el mismo nombre,
formarán una única red. El nombre de la red interna se especifica después de elegir el
modo, y si no se especifica, la MV pertenecerá a la red interna por defecto,
denominada intnet.

Modo: Sólo-anfitrión
El modo Solo-anfitrión se utiliza para crear una red interna a la que pertenecerá también
el equipo anfitrión, algo que no sucede en el modo Red interna.
La conexión directa en una misma red, del anfitrión con una o más MMVV, tiene que
hacerse usando el modo Adaptador puente, el cual exige para funcionar, que el cable
físico de red esté conectado a la tarjeta de red del anfitrión, pues en caso contrario, es
como si estuviera apagado el switch que conecta al anfitrión con las MMVV, y por lo tanto
no hay conexión entre ellas, ni con el anfitrión. Si estuviéramos en una situación en la
que no tuviéramos conexión de red, no podríamos trabajar con la configuración anterior,
pues el cable no lo podríamos conectar a ninguna roseta; este problema lo resuelve el
modo Solo-anfitrión, pues no utiliza la tarjeta física de red del anfitrión, sino que se crea

Página 34
Sistemas Operativos en Red

una virtual que estará conectada al mismo switch virtual al que estarán conectadas las
tarjetas de red de las MMVV con el mismo modo de red.

13.1.7 OPERACIONES CON MÁQUINAS VIRTUALES.

Combinación de teclas Ctrl+Alt+Supr


La combinación de teclas Ctrl+Alt+Supr sobre una MV se consigue pulsando la tecla
anfitrión + Supr. Esto puede cambiarse desde Archivo -> Preferencias -> Entrada ->
Máquina virtual.
La tecla host (anfitrión) junto con cualquier otra tecla equivale a la pulsación de Ctrl+Alt
y esa tecla, así, por ejemplo, la combinación de tecla host + F1, equivale a Ctrl+Alt+F1,
que en GNU/Linux nos lleva a la primera de las consolas de texto (en F7 está la consola
gráfica).

Apagar y pausar la máquina virtual


Existen varias formas de apagar una MV:

• Apagamos el SO. Es lo más adecuado.


• Menú Máquina -> Apagado ACPI. Esto equivale a pulsar brevemente el botón
de encendido/apagado del equipo. Los SSOO normalmente están configurados
para canalizar esto hacia un cierre ordenado.
• Menú Máquina -> Cerrar o pulsando sobre el icono de cerrar la ventana de la MV
o tecla host + Q. Esta opción nos muestra una ventana con varias posibilidades:
• Guardar el estado de la máquina: Cierra la MV guardando el estado en el que
se encuentra en ese momento, y al volver a iniciarla, continuamos justo en el punto
donde se cerró. No se pierde ningún tipo de información.
• Enviar señal de apagado: Es el apagado ACPI.
• Apagar la máquina: Equivale a tirar del cable de alimentación del ordenador, por
lo que el SO no se cerraría correctamente, y al iniciar la MV posteriormente, el SO
haría los chequeos previstos cuando este no se cierra correctamente. Es posible
que se pierdan datos, por lo que debe usarse como último recurso cuando la MV
se ha bloqueado.

También las MMVV pueden pausarse, estado en el que la MV está bloqueada y no


consume CPU. Esto puede hacerse de varias maneras:

• Desde la MV pulsamos la tecla host + P.

Página 35
Sistemas Operativos en Red

• Desde la MV pulsamos el menú Máquina -> Pausar.


• Desde el administrador de ORACLE VM VIRTUALBOX con la MV seleccionada
pulsamos la tecla Ctrl+P.
• Desde el administrador de ORACLE VM VIRTUALBOX con la MV seleccionada
pulsamos el menú Máquina -> Pausar.
• Desde el administrador de ORACLE VM VIRTUALBOX sacamos el menú
contextual de la MV y seleccionamos Pausar.

Para restaurar la MV se hace lo mismo que para pausarla.


Eliminar una máquina virtual
Para eliminar una MV, esta debe estar apagada y podemos proceder de distintas formas:

• Menú contextual de la MV -> Eliminar


• Con la MV seleccionada pulsamos Ctrl+R
• Con la MV seleccionada pulsamos el menú Máquina -> Eliminar
• Solo borrar: Elimina la MV del administrador de ORACLE VM VIRTUALBOX pero
permanece en el directorio donde esté almacenada y haciendo doble click sobre
el fichero MV.vbox volvería a cargarse en el administrador. Esto último también
puede hacerse desde Máquina -> Agregar.
• Eliminar todos los archivos: No deja ningún rastro de la MV.

Clonar una máquina virtual


La clonación de una MV consiste en hacer una nueva MV exactamente igual a la primera
pero con identidad diferente, ya que los discos virtuales van a tener números de
identificación (uuid) diferentes, de esta forma la MV original y la clonada se podrían
ejecutar en el mismo ordenador. Puede hacerse una MV a partir de la copia del fichero
del disco virtual de otra, pero en este caso no podrán ejecutarse las dos MMVV en el
mismo ordenador al haber dos discos con el mismo uuid (con el comando de consola
VBoxManage puede cambiarse el uuid de un disco).
La clonación tiene un uso muy común, el de hacer una copia de seguridad de una MV
recién creada, así, después de la instalación de las Guest Additions, es habitual clonar
la MV para disponer de una copia exacta en el momento de su creación, por si se
produce algún desastre con la original.
La clonación debe hacerse con la MV apagada y podemos actuar de distintas formas:

• Desde el menú contextual de la MV -> Clonar.


• Con la MV seleccionada pulsamos en el menú Máquina -> Clonar.

Página 36
Sistemas Operativos en Red

• Con la MV seleccionada pulsamos Ctrl+O.


• Con la MV seleccionada abrimos el área de instantáneas pulsando el botón
superior derecho titulado Instantáneas, y luego pulsamos sobre el icono de clonar
(la ovejita Dolly. ¡Ay!, ¿qué habrá sido de ella?).

Instantáneas (snapshot)
Las instantáneas (snapshots) consiguen congelar el estado actual de una MV para poder
regresar a él en cualquier otro momento y a partir de ahí crear otra línea de tiempo de la
MV. Un caso típico de uso de instantáneas, es cuando pretendemos probar un nuevo
software, para lo que antes de modificar nada, hacemos una instantánea de la MV y
luego ya instalamos el software, lo configuramos, lo probamos y si hay problemas o no
nos gusta, usamos la instantánea para regresar al estado en el que estábamos antes de
empezar la instalación de dicho software.
Para gestionar las instantáneas, cada MV tiene su propia sección. Se accede pulsando
el botón superior derecho titulado Instantánea, junto al botón Detalles.
Las instantáneas pueden crearse con la MV apagada, pulsando sobre el icono de la
máquina fotográfica en el administrador de ORACLE VM VIRTUALBOX, o encendida,
de la misma forma o pulsando sobre el menú Máquina -> Tomar instantánea (tecla host
+ T).
Las instantáneas son siempre del estado actual de la MV, y para cada una de ellas se
crea un nuevo disco donde se irán guardando todos los cambios producidos a partir de
ese momento. En la carpeta de la MV pueden verse dichos discos.

Exportar una máquina virtual


ORACLE VM VIRTUALBOX tiene un mecanismo directo para exportar MMVV a otros
equipos e incluso a otro software de virtualización distinto. Se basa en el
denominado Open Virtualization Format (OVF), un formato abierto para la exportación
de MMVV.
Para ponerlo en marcha pulsamos desde el administrador de ORACLE VM
VIRTUALBOX el menú Archivo -> Exportar servicio virtualizado.

Importar una máquina virtual


La importación de una MV, normalmente contenida en un único fichero con extensión
.ova, comienza pulsando, en el administrador de ORACLE VM VIRTUALBOX, el
menú Archivo -> Importar servicio virtualizado

Página 37
Sistemas Operativos en Red

Grupos de máquinas virtuales


ORACLE VM VIRTUALBOX permite que las MMVV se organicen en grupos, y a estos
se les pueden aplicar las operaciones típicas que se encuentran en el menú Máquina y
afectarían a todas las MMVV del grupo: Iniciar, Pausar, Reiniciar, Cerrar, Guardar
estado, Apagado ACPI, Apagar, Mostrar en explorador y Crear un acceso directo en el
escritorio. Algunas de estas operaciones no se han comentado aún:

• Reiniciar: Es una operación conjunta de las operaciones Apagar e Iniciar, es


decir, desenchufar el cable de alimentación del ordenador y volverlo a enchufar,
con las posibles pérdidas de datos y el posible arranque posterior más lento,
motivado por las tareas de chequeo que seguramente el SO realice. Debe usarse
solo en una situación de emergencia, cuando el SO esté bloqueado.
• Mostrar en explorador: Abre en un explorador de ficheros la carpeta donde está
guardada la MV, o varios exploradores si se aplica a un grupo, uno por cada MV
que posea.
• Crear un acceso directo en el escritorio.

Si queremos meter una MV en un grupo nuevo, simplemente tenemos que elegir la


opción Agrupar de su menú contextual.

14 TIPOS DE INSTALACIÓN DE UN SISTEMA

Parámetros a tener en cuenta antes de realizar la instalación


Una vez decidido el sistema operativo a instalar, es necesario tener en cuenta una serie
de parámetros como son:

1. Lugar
• Local: la instalación del sistema operativo se realiza de manera local en un
servidor.
• Remota: la instalación se realiza desde una ubicación remota utilizando la red,
este punto engloba desde la instalación utilizando un recurso en red, por ejemplo,
una carpeta compartida, hasta la instalación de un ordenador desde otro
ordenador de la red. El requisito es que se utilice la red.
2. Tipo:
• Instalación normal: durante el proceso de instalación se copian los archivos
necesarios para ejecutar el sistema operativo y se responde a una serie de

Página 38
Sistemas Operativos en Red

preguntas relacionadas con los usuarios y con la configuración del ordenador. Es


el tipo de instalación que se realiza cuando no hay instalado ningún otro sistema
operativo en el ordenador.
• Actualización: proceso mediante el cual pasamos de una versión de un sistema
operativo a otra más actual, añadiendo características nuevas, manteniendo los
datos y los programas que estaban instalados en el ordenador (puede ser que
algunos programas no funcionen correctamente con el nuevo sistema operativo,
entonces habrá que reinstalarlos).
• Downgrade: consiste en instalar una versión anterior de un sistema operativo,
esta operación se hace, por ejemplo, para que se puedan ejecutar determinadas
aplicaciones que en versiones más actuales de un sistema operativo no funcionan
correctamente.
• Migración: proceso mediante el que pasamos de un sistema operativo a otro sin
conservar los datos y programas que estaban instalados (pueden ser sistemas
operativos de la misma familia o no). La única forma de conservar los datos es
hacer una copia de seguridad en algún dispositivo de almacenaje como un CD,
DVD, dispositivo USB, etc.

3. Entorno:
• Virtual: el sistema operativo se instala en un entorno virtual. Una de las ventajas
de virtualizar es que se pueden utilizar dos o más sistemas operativos de forma
simultánea sin necesidad de reiniciar el equipo. En el caso de los sistemas
operativos para servidores, la virtualización se utiliza con bastante frecuencia.
• No virtual: el sistema operativo se instala en un entorno real.

4. Atención:
• Atendida: el usuario realiza todos los pasos de la instalación interactuando con
la aplicación de instalación del sistema operativo.
• Desatendida: la instalación del sistema operativo utiliza un archivo de
respuestas, con una configuración previa y, a partir de ella, el sistema operativo
se instala automáticamente sin necesidad de interacción por parte del usuario. El
archivo de respuestas se puede pasar a través de un dispositivo USB. Microsoft
proporciona la herramienta Windows ADK (Windows Assessment and
Deployment Kit), que permite personalizar, evaluar e implementar sistemas
operativos Windows.

Página 39
Sistemas Operativos en Red

5. Medios de instalación:
• Mediante ficheros: de un modo u otro el sistema operativo necesita ficheros para
funcionar, al instalar el sistema se copian esos ficheros en el disco duro del
ordenador.
• Mediante imágenes: una imagen es un fichero donde se almacena una copia o
imagen exacta de un sistema de archivos. Contiene toda la información de un
disco duro, de una partición, de un dispositivo USB, de un CD/DVD, etc. y los
datos sobre la estructura que esta información sigue en el dispositivo. Las
imágenes de los discos duros contienen toda la estructura completa del disco.
También existen imágenes que contienen ficheros de arranque y de instalación.
Las imágenes tienen distintas utilidades, por ejemplo: enviar a través de la red
una imagen con los ficheros necesarios para realizar la instalación de un sistema
operativo, crear una imagen del sistema que sirva de plantilla para implementarla
en otros equipos, etc.
Existen en el mercado varias herramientas que sirven para crear y manejar
imágenes. Algunas de ellas son:
o Herramientas para crear y enviar imágenes de discos duros
completos a través de la red:
▪ Acronis Snap Deploy: crea una imagen exacta de los discos de la
configuración estándar, incluyendo el sistema operativo, los
archivos de configuración y todas las aplicaciones. A continuación,
despliega dicha imagen en varios sistemas de manera simultánea.
▪ Clonezilla: es una distribución liveCD muy utilizada para la
realización de imágenes/clonaciones de particiones y discos y
distribución de sistemas. Similar a Acronis Cyber Protect o Norton
ghost. Tiene licencia GPL. Permite realizar la implementación del
sistema, la copia de seguridad completa y la recuperación. Hay tres
tipos de Clonezilla disponibles, Clonezilla live, Clonezilla lite
server y Clonezilla SE (edición de servidor). Clonezilla live es
adecuado para realizar la copia de seguridad y restauración de una
sola máquina. Mientras que el servidor Clonezilla lite o SE permite
una implementación masiva y puede clonar muchas computadoras
simultáneamente. Clonezilla guarda y restaura solo los bloques

Página 40
Sistemas Operativos en Red

usados en el disco duro. Esto aumenta la eficiencia del clon. Tiene


licencia GNU General Public License GPL.
▪ Norton Ghost: permite hacer copias de discos y particiones y
almacenarlas para luego distribuirlas de forma local o en red. Es una
herramienta utilizada para realizar clonaciones. Se puede utilizar
mediante la línea de comandos o mediante un entrono gráfico.
Norton es un producto de Symantec.
o Herramientas para enviar imágenes con ficheros de arranque y de
instalación a través de la red:
▪ WDS (Windows Deployment Services): Sistema de
implementación de sistemas operativos Windows. En versiones
anteriores de Windows se utilizaba RIS (Remote Installation
Services) (Servicios de instalación remota). Para utilizar WDS es
necesario tener instalados los roles de AD, DNS y DHCP. El sistema
de archivos de los volúmenes donde almacenemos las imágenes
debe ser NTFS. Además, es necesario contar con permisos de
administrador. WDS permite realizar las siguientes tareas:
o Instalar de forma remota sistemas operativos Windows.
o Personalizar la imagen a crear, configurando programas
instalados y controladores actualizados.
o Instalar el sistema operativo en diversos equipos de forma
simultánea.
WDS usa básicamente 4 tipos de imágenes:
• Imagen de instalación: es la imagen del sistema operativo
que ha de ser implementado y su ubicación es en el medio
físico en la ruta \sources\install.wim
• Imagen de arranque: proporciona un entorno de arranque
mínimo que permite realizar diversas funciones como la
instalación de Windows en nuevos equipos, la recuperación
de sistemas operativos dañados o la realización de tareas
de mantenimiento en equipos existentes. La imagen se
encuentra en la ruta \sources\boot.wim, también conocida
como imagen WinPE.
• Imagen de descubrimiento: imagen a utilizar cuando se va
a utilizar WDS, pero no está soportada ni la tecnología PXE

Página 41
Sistemas Operativos en Red

(Preboot eXecution Environment), ni el arranque desde red.


Se puede crear la imagen usando el archivo boot.wim del
medio físico.
• Imagen de captura: esta imagen es la que utiliza la utilidad
Sysprep. Permite configurar la imagen que se va a desplegar
con la configuración deseada, con los programas instalados,
actualización de controladores de red, unidades de red
establecidas, etc.

6. Origen de los medios de instalación:


• Mediante dispositivos: USB, CD/DVD, disco duro, etc. Estos dispositivos en las
instalaciones de red sólo se comportan como elementos de comunicación con
otros servicios. Por ejemplo, un CD puede contener los ficheros para cargar PXE.
• Carpetas compartidas: son un recurso para compartir información a través de la
red. Esta forma de instalación es típica de una red, un ordenador que ya tiene un
sistema operativo previamente cargado, comparte un recurso en red. Algunas
formas de compartir recursos son:
▪ Compartir una unidad de CD/DVD. En otro ordenador de la red se
comparte la unidad CD/DVD.
▪ Copiar el contenido del CD/DVD de instalación en una carpeta. El
contenido de la instalación está en una carpeta que se comparte.
Algunos servicios para compartir recursos son:
• Samba: es el método que se utiliza para compartir recursos
entre ordenadores con linux y Windows.
• NFS: es el servicio propio de linux que permite compartir
carpetas a través de la red.
También hay varios protocolos que permiten montar unidades y
carpetas, uno de los más importantes es SSH.
• SSH es un protocolo que permite conectarse a través de la red
de forma segura (utilizando certificados ofrece una
comunicación cifrada entre un cliente y un servidor). Además,
ofrece más servicios como la posibilidad de transferir archivos.
Para montar una carpeta a través de SSH se utiliza el sistema
SSHFS (Secure Shell FileSystem), que monta un sistema de
archivos remoto en un ordenador local.

Página 42
Sistemas Operativos en Red

• Arranque por red mediante PXE (Preboot eXecution Environment - Entorno


de ejecución de pre-arranque): Es un entorno para arrancar e instalar el sistema
operativo en dispositivos a través de la red, de manera independiente de los
dispositivos de almacenamiento de datos disponibles (como discos duros) o de
los sistemas operativos instalados.
Este entorno se basa en la comunicación entre cliente y servidor. El ordenador
que soporta PXE se comporta como un cliente que envía una petición al servidor
solicitando la asignación de una IP. El servidor que tiene DHCP asigna una
dirección IP al cliente y después envía un programa para arrancar la instalación
utilizando el protocolo de transferencia TFTP (Trivial File Transfer Protocol). El
programa de arranque contiene la ubicación de los archivos necesarios para la
instalación, entonces el cliente puede ya descargar esos archivos.

En el caso de las instalaciones en red, y a diferencia de las instalaciones locales, se


pueden presentar distintas variantes en relación con el origen de los medios de
instalación, incluso pueden darse varios orígenes distintos. Por ejemplo, se puede
utilizar un CD para cargar PXE, y éste a su vez se conecta a una carpeta compartida
de donde recibe el arranque y los ficheros de instalación. Esto no era posible en las
instalaciones locales donde el único origen de los medios de instalación posible era
mediante un CD, DVD, USB u otros dispositivos similares.
La instalación se podría realizar combinando todos estos parámetros, como,
por ejemplo:
Lugar Tipo Entorno Atención Modo Origen de los
medios de
instalación
Local Instalación Virtual Atendida Ficheros CD/DVD
normal
Local Actualización No virtual Atendida Imagen de USB
disco duro
completo
Local Instalación Virtual Desatendi Imagen ISO USB
normal da
Remota Instalación No virtual Atendida Imagen ISO Carpeta compartida
normal

Página 43

También podría gustarte