Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Sistemas Operativos - Investigación.
Sistemas Operativos - Investigación.
Sistemas operativos
INVESTIGACIÓN
Alumno:
DOCENTE:
Linux tiene su origen en Unix. Este apareció en los años sesenta, desarrollado por los
investigadores Dennis Ritchie y Ken Thompson, de los Laboratorios Telefónicos Bell.
Andrew Tanenbaum desarrolló un sistema operativo parecido a Unix (llamado Minix) para
enseñar a sus alumnos el diseño de un sistema operativo. Debido al enfoque docente de
Minix, Tanenbaum nunca permitió que éste fuera modificado, ya que podrían introducirse
complicaciones en el sistema para sus alumnos.
LINUX hace su aparición a principios de la década de los noventa, era el año 1991 y por
aquel entonces un estudiante de informática de la Universidad de Helsinki, llamado Linus
Torvalds, empezó como una afición y sin poderse imaginar a lo que llegaría este proyecto, a
programar las primeras líneas de código de este sistema operativo llamado LINUX.
Este comienzo estuvo inspirado en MINIX, un pequeño sistema Unix desarrollado por Andy
Tanenbaum. Las primeras discusiones sobre Linux fueron en el grupo de noticias comp.os.
minix, en estas discusiones se hablaba sobre todo del desarrollo de un pequeño sistema
Unix para usuarios de Minix que querían más.
Linus nunca anunció la versión 0.01 de Linux (agosto 1991), esta versión no era ni siquiera
ejecutable, solamente incluía los principios del núcleo del sistema, estaba escrita en
lenguaje ensamblador y asumía que uno tenía acceso a un sistema Minix para su
compilación.
El 5 de octubre de 1991, Linus anunció la primera versión "Oficial" de Linux versión 0.02.
Con esta versión Linus pudo ejecutar Bash (GNU Bourne Again Shell) y gcc (El compilador
GNU de C) pero no funcionaba mucho más. En este estado de desarrollo ni se pensaba en
los términos soporte, documentación, distribución. Después de la versión 0.03, Linus saltó
en la numeración hasta la 0.10, más y más programadores a lo largo y ancho de internet
empezaron a trabajar en el proyecto y después de sucesivas revisiones, Linus incremento el
número de versión hasta la 0.95 (marzo 1992). Más de un año después (diciembre 1993) el
núcleo del sistema estaba en la versión 0.99 y la versión 1.0 no llegó hasta el 14 de marzo
de 1994. Desde entonces no se ha parado de desarrollar, la versión actual del núcleo es la
2.2 y sigue avanzando día a día con la meta de perfeccionar y mejorar el sistema.
DISTRIBUCIONES DE LINUX
Las distribuciones de Linux son sistemas operativos instalables diseñados a partir del kernel
de Linux, que admiten programas de usuarios, repositorios y bibliotecas. La versión de cada
comunidad o proveedor es una distribución.
Dado que Linux es un sistema operativo open source que se lanza en virtud de una Licencia
Pública General de GNU (GPL), cualquier persona puede ejecutar, estudiar, modificar y
redistribuir el código fuente, o incluso vender copias del código modificado. Esto difiere
mucho de los sistemas operativos tradicionales que son propietarios y no pueden
modificarse tanto, como Unix, Microsoft Windows y MacOS.
Fáciles de usar: Linux ideales para principiantes
Estas distribuciones destacan por facilitar al máximo el proceso de instalación del sistema
en cualquier PC y, además, por primar el entorno gráfico sobre todo lo demás. Son sistemas
ideales para los usuarios que dan los primeros pasos dentro de este nuevo mundo, aunque
es verdad que pueden quedarse algo cortas para los usuarios más avanzados que buscan ir
un paso más allá. Escritorios sencillos e intuitivos, y una buena variedad de programas
suelen ser sus pilares base.
Ubuntu
Ubuntu es, sin lugar a duda, la distro Linux más popular y conocida que nos podemos
encontrar en la red. Esta distro, desarrollada por Canonical, utiliza un escritorio GNOME y
trae de serie una serie de programas, herramientas y configuraciones para que podamos
empezar a usarla desde el primer momento. Canonical ha trabajado mucho en hacer que
este sistema sea lo más sencillo y accesible para todos, pero sin cerrar la puerta a que los
usuarios más avanzados tengan control total sobre él. Un equilibrio perfecto y la mejor
puerta de entrada para aquellos que nunca han usado Linux y quieren dar sus primeros
pasos en este sistema. Su problema: que cada versión normal tiene tan solo 9 meses de
soporte, por lo que si no usamos una LTS (que tienen 5 años) tendremos que estar
actualizando casi dos veces al año.
Las principales características que podemos encontrar cuando vamos a instalar y usar
Ubuntu son:
Kubuntu es uno de los sabores más conocidos y extendidos de Ubuntu. A grandes rasgos,
no es más que una versión de la distro principal de Canonical que, en lugar de usar el
escritorio GNOME, utiliza KDE. KDE es un escritorio mucho más completo, centrado en
brindar a los usuarios una facilidad inmensa a la par que una gran cantidad de opciones de
personalización y rapidez.
Esta distro viene con una gran cantidad de software preinstalado, configurado y listo para
funcionar de manera que, salvo que tengamos necesidades concretas, podamos empezar a
trabajar con el sistema desde el primer momento.
Igual que su hermano Ubuntu, este sistema cuenta con versiones cada 6 meses, cada una
de las cuales tiene un soporte de 9 meses, y una versión LTS cada 2 años que nos ofrece
soporte durante 5 años. La versión recomendada, como siempre, es la LTS.
Linux Mint
Con el paso del tiempo, Canonical se ha ganado una buena cantidad de enemigos. Y es
que la compañía ha llevado a cabo ciertas decisiones sin tener en cuenta a su comunidad
de usuarios. Por ello, hay muchos usuarios que han empezado a buscarse la vida fuera de
esta distro. Y así es como Linux Mint ha ganado una gran popularidad. Esta distro se basa
en Ubuntu, pero deshace todas las decisiones de Canonical para ser el sistema que la
comunidad quiere y necesita. Cuenta con un escritorio por defecto, Cinnamon, muy sencillo
de utilizar y APT como gestor de paquetes. Una excelente puerta de entrada, muy sencilla,
a Linux que no podemos pasar por alto.
Debian
Es una de las distribuciones de Linux más antigua y popular al mismo tiempo. Para la gran
mayoría se trata de la distro más estable, aunque hay otros aspectos a destacar como son
los repositorios, gestores de paquetes y la comunidad detrás de Debian. Debian es un
sistema operativo libre que ha sido creado por todo tipo de usuarios, es un sistema
operativo colaborativo en el que trabajan todo tipo de personas para actualizarlo, añadir
funciones y mantenerlo siempre al día para que sea práctico.
Desde su página web podemos encontrar toda la información sobre él, pero algunas de las
razones que sus creadores dan para apostar por él es que es la semilla y base de otras
discos de Linux como Ubuntu, por ejemplo. Desde 1993 funciona y tiene un soporte de
hardware extenso además de actualizaciones frecuentes y sin complicaciones.
¿QUÉ COMPRENDE UNA INFRAESTRUCTURA TI?
Elementos de la infraestructura de TI
Hardware
El hardware incluye los servidores, los centros de datos, las computadoras personales, los
enrutadores, los conmutadores y otros equipos.
Las instalaciones que alojan y refrigeran los centros de datos, así como aquellas que se
encargan de proporcionarles energía, también podrían considerarse parte de la
infraestructura.
Software
El software hace referencia a las aplicaciones que utiliza la empresa, como los servidores
web, los sistemas de gestión de contenido y el sistema operativo (por ejemplo, Linux®). El
sistema operativo se encarga de gestionar el hardware y los recursos del sistema y
establece las conexiones entre el software y los recursos físicos que ejecutan las tareas.
Redes
Los elementos de red interconectados permiten la comunicación, la gestión y las
operaciones de red entre los sistemas internos y externos. La red consta de conexión a
Internet, habilitación de la red, firewalls y seguridad, al igual que de elementos de hardware,
como enrutadores, conmutadores y cables.
Tipos de infraestructuras de TI
Infraestructura tradicional
En la infraestructura tradicional, las empresas son las propietarias de todos los elementos
(como los centros de datos, los sistemas de almacenamiento de datos, entre otros), a los
cuales gestionan en sus propias instalaciones. El funcionamiento de esta infraestructura
suele considerarse costoso y requiere grandes cantidades de sistemas de hardware (por
ejemplo, servidores), así como energía eléctrica y espacio físico.
Infraestructura de nube
La infraestructura de nube hace referencia a los elementos y los recursos que se necesitan
para el cloud computing. Puede diseñar una nube privada usted mismo utilizando los
recursos que se le destinan de forma exclusiva. O bien, puede usar una nube pública a
través del alquiler de una infraestructura de nube de un proveedor de nube, como Alibaba,
Amazon, Google, IBM o Microsoft. También puede diseñar una nube híbrida mediante la
incorporación de un cierto grado de gestión, organización y portabilidad de las cargas de
trabajo en varias nubes.
Infraestructura hiperconvergente
ROUTER FIREWALL
Los Router Firewall son dispositivos electrónicos que funcionan exactamente como hacen
los sistemas de Firewall basados en hardware: mantienen a extraños y aplicaciones de
software no autorizadas, fuera de una red protegida. Siendo más específicos, los Router
Firewall, solo te permitirán comunicar con ciertos ordenadores y equipos ubicados en otras
redes diferentes a la tuya. Cualquier otro tipo de comunicación será automáticamente
bloqueado y registrado en unos archivos llamados “logs”, para poder ser leídos y analizados
posteriormente.
Estos dispositivos tienen como misión ser una solución simple para tener protegidos
recursos compartidos y dar un nivel de seguridad en nuestra red.
Una amenaza típica y muy común que un Router Firewall bloqueará es un escaneo de
puertos en tu sistema. Si un usuario externo intenta descubrir que puertos tienes abiertos en
tu ordenador, estos intentos de descubrimiento serán parados y podrás tener alguna
información de quién lo realizó. Hablamos de un usuario externo a alguien que no pertenece
a tu red, o a un usuario que no está validado como autorizado.
Esto bien podría ser un usuario de Internet, o si estás en una oficina, alguien de otro
departamento. Al cortar este intento de conocer tus puertos accesibles, prevendrá que se
descubran vulnerabilidades en potencia que puedan ser aprovechadas para entrar en tu
sistema o infectarlo con virus.
Los Router que utilizan el protocolo NAT (Network Address Translation), también son
conocidos como Firewalls NAT. El protocolo NAT permite a múltiples ordenadores, acceder
a Internet con solo una conexión, o dicho de otra manera, con una dirección IP. Para
entender esto, debemos saber que existen dos tipos de direcciones IP. Las públicas y las
privadas. Las IPs públicas son las que se utilizan en el Internet que todos conocemos para
que todo el mundo pueda acceder a ellas.
Las IPs privadas son las que normalmente utilizamos en redes corporativas o Intranets, o
dicho de otra manera, redes de empresas, Universidades, etc. Para poder acceder de una
red a otra, las IPs deben ser traducidas de privada a pública y viceversa. Uno de los
equipos existentes que hacer esta tarea es el elemento de nuestro artículo. Uno de los
sistemas más sencillos para ahorrar direccionamiento IP, es traducir todas las direcciones IP
privadas (una para cada ordenador), en una pública para que pueda acceder a Internet.
Muchos dirán, ¿y no se duplican las direcciones? En este caso no, ya que cada ordenador
sale con una sola dirección pública, pero con distinto número de puerto. Este número de
puerto identifica a cada ordenador sin margen de fallos.
Como se ha podido ver, estos Router Firewall, nos ayudan a varias tareas. Nos dan la
posibilidad de comunicarnos fuera de nuestra red privada o corporativa, nos traduce nuestro
direccionamiento IP en un rango válido para acceder a equipos públicos, y además nos
ofrece protección. Por supuesto, todas estas funciones dependen en el tipo de Router que
tengas o que elijas. Hay un amplio repertorio para elegir, donde la calidad y el precio varían
ampliamente.
SERVIDORES
Tipos de servidores
Dentro del mundo de los servidores hay una gran variedad. Los más usados y/o conocidos
son los siguientes:
El año 1975 fue el inicio del fenómeno pronto responsable de la expansión del ordenador
para uso personal a nivel mundial. En esa fecha, dos chicos llamados Bill Gates y Paul Allen
fundaron la compañía Microsoft, unidos por el interés de crear un lenguaje Basic para el
primer ordenador personal, el Altair 8800.
Windows 1 (1985)
Aunque fue anunciado en 1983 por Bill Gates, su lanzamiento no se produjo hasta dos años
más tarde, concretamente el 20 de noviembre de 1985. Se popularizó gracias a su interfaz
gráfica basada en ventanas que le da su nombre.
Dos años más tarde (9/12/1987) Microsoft lanza Windows 2.0 con iconos de escritorio,
memoria ampliada, mejores gráficos y la posibilidad de superponer ventanas, controlar el
diseño de la pantalla y usar atajos con el teclado para acelerar el trabajo.
Constituyó la primera plataforma de Windows para aplicaciones hoy en día tan comunes
como Word o Excel.
Windows 3 (1990)
El 22 de mayo de 1990 aparece Windows 3.0, la primera versión que alcanzó éxito
comercial, con varios millones de ventas en el primer año. Se introdujeron cambios en la
interfaz de usuario importantes, además de mejorar la explotación de la capacidad de
gestión de la memoria de los procesadores.
Windows NT (1993)
Para llevar a cabo este desarrollo desde cero, se asociaron IBM con Microsoft.
Construyeron un SO de 32bytes multitarea, multihilo, multiprocesamiento, multiusuario con
un núcleo híbrido y una capa de hardware de abstracción para facilitar la portabilidad entre
plataformas.
Windows 95 (1994)
Windows Me (2000)
El 14 de septiembre de 2000 sale a la venta el último de la línea de Windows 9x basado en
DOS, Windows Millennium Edition, considerado como una de las peores versiones de
Windows que ha existido.
Windows XP (2001)
Tan solo un año después, el 25 de octubre de 2001, el primer sistema operativo de consumo
basado en arquitectura NT, cuyo nombre en clave era Whistler, se puso a la venta con el
nombre de XP de eXPeriencie. Resultó ser uno de los más exitosos, en diciembre de 2013
su cuota de mercado alcanzó los 500 millones de ordenadores. Tras 12 años en el mercado
¡12 años!, en abril de 2014 Microsoft dejó de dar soporte.
Windows XP introdujo nuevas características como el uso de una nueva interfaz de manejo
más sencillo, la posibilidad de utilizar varias cuentas de usuario a la vez, la capacidad de
agrupar aplicaciones similares en la barra de tareas, por solo nombrar unas cuantas.
Nunca se había esperado tanto tiempo por un cambio de SO, ¡más de 5 años! A Microsoft le
hubiese gustado tenerlo listo para poder hacer caja en la Navidad de 2006, pero tuvo que
esperar hasta el 30 de enero de 2007 para lanzarlo mundialmente. Se recuerda como un
sistema que llegó tarde, mal y arrastro. Las principales quejas se centraron en las funciones
de seguridad, administración de derechos digitales, los requisitos de hardware y el
rendimiento y la compatibilidad del software.
A su favor hay que recordar las características por las cuales todo el mundo lo identifica, a
saber: la nueva interfaz gráfica que permitía la transparencia en las ventanas, la aplicación
Flip-3D que se activaba con la combinación de teclas Win + Tab, y mostrando con un efecto
3D las ventanas que estaban abiertas podías cambiar de una a otra. Además, permitía tener
una vista preliminar de las ventanas abiertas, con solo pasar el ratón sobre los botones en
la barra de tareas.
Windows 7 (2009)
Muchos consideran a Windows 7 como el SO que a Windows Vista le gustaría haber sido.
De hechos, en sus orígenes fue concebido como una especie de actualización de Windows
Vista, lo que permitió mantener cierto grado de compatibilidad con aplicaciones y hardware.
En cuanto salió al mercado el 22 de octubre de 2009 comenzó a comerse la cuota de
mercado de sus predecesores.
Windows 7 destaca por ofrecer una interfaz rediseñada, una nueva barra de tareas, mejoras
importantes en el rendimiento del SO y sobre todo porque W7 marcó el debut de Windows
Touch, que permite explorar la web desde pantallas táctiles.
Windows 8 (2012)
Windows 10 (2015)
Windows 11 se lanzó el 5 de Octubre de 2021 y se creó con la misma base de Windows 10,
el mejor sistema operativo de Windows hasta la fecha, al cual le han dado un cambio visual
para modernizarlo, con muchas mejoras y novedades.
Windows 11 es gratuito para los equipos que tengan Windows 10 y que cumplan los
requisitos mínimos.
OPENSOURCE
Hay muchas razones por las que las personas eligen el software open source en lugar del
software propietario, pero estas son las más habituales:
La conexión hot plug de cualquier disco duro del disco RAID 0 provocará daños o pérdidas
de datos.
Un chasis de "hot-swap" le permite quitar un disco duro sin tener que apagar el ordenador.
Tipos de RAID
Raid 0
Se necesitan mínimo 2 discos. Cuenta la Suma de tamaños de todos los HDD.
Un RAID 0, conocido como striping, utiliza como mínimo 2 discos y reparte los datos entre
ambos.
Se necesitan mínimo 2 discos. En el caso de más unidades, solo cuenta el disco de menor
tamaño.
Es conocido como “espejo” o “mirroring“. El raid 1 utiliza 2 discos y duplica todos los datos
de la primera unidad de forma sincronizada a una segunda unidad de almacenamiento. De
esta forma, si el primer disco se estropea, el sistema seguirá funcionando y trabajando con
el segundo disco sin problemas y sin perder datos.
Ofrece una rápida recuperación tras un fallo de la unidad, por tanto es una de las mejores
configuraciones en cuanto a redundancia y tolerancia a fallos.
Recomendado para servidores de nivel básico en los que sólo contamos con 2 discos
duros. Se recomienda para bases de datos pequeñas u otras aplicaciones que requieren
poca capacidad, pero una redundancia de datos completa.
Raid 5
Se necesitan como mínimo 3 discos (se puede romper un disco sin perder los datos) El
espacio disponible en el RAID 5 será de n-1, siendo n el número de discos del raid. Si
utilizamos 5 discos de 1TB tendremos: 5 discos – 1 = 4 discos -> 4TB disponibles.
Suele ser el RAID más usado en servidores, ya que aporta la velocidad y rendimiento del
RAID 0 (uso eficiente de la unidad, alto rendimiento en escritura y lectura) y la seguridad del
RAID 1 ante las pérdida de datos.
El RAID 5 utiliza la paridad para recuperar los datos. Se dividen los datos en bloques en los
diferentes discos, de forma que si hay un fallo en uno de ellos, esa parte de los datos se
subsana con los datos almacenados en el resto de los discos, permitiendo al usuario
continuar (aunque funciona más lenta) con su trabajo.
Raid6
Se necesitan como mínimo 4 discos. Puede tolerar dos fallos de discos duros (N-2)
El rendimiento en tareas de escritura es menor que el de Raid 5 debido a los dos cálculos
de paridad. Requiere hacer un gasto adicional ya que dedicamos dos discos a la paridad, (si
tenemos 4 discos de 1TB disponemos sólo de 2TB de espacio ya que los otros 2 TB se
dedican a paridad).
El Raid 6 resulta aconsejable cuando queramos soportar varios fallos de unidades y ofrece
una mayor redundancia para la protección de datos.
Se necesitan un mínimo de cuatro o más unidades, por lo que el coste es más elevado que
en otras configuraciones.
a cambio obtenemos un alto rendimiento de lectura (gracias al Raid 0), a la vez que se
proporciona tolerancia a los fallos (gracias al Raid1). P.e. si usamos 4 discos, se pueden
romper hasta dos sin perder información (N-2), siempre que nos sean del mismo subgrupo.
Aunque su precio es más elevado, el RAID 10 es ideal para aplicaciones tipo servidores de
bases de datos. Proporciona un elevado rendimiento, redundancia de datos completa y una
rápida recuperación ante fallos de los discos
CONECTIVIDAD INTEROCEÁNICA DE INTERNET
Un cable submarino o Interoceánico es aquel cable de cobre o fibra óptica instalado sobre el
lecho marino y destinado fundamentalmente a servicios de telecomunicación.
Actualmente los cables submarinos de fibra óptica son la base de la red mundial de
telecomunicaciones.
El cable submarino se muestra como una solución robusta y eficaz, por la resistencia ante
inclemencias meteorológicas, menor latencia, y mayor ancho de banda que la comunicación
por satélite, todo lo cual lo posiciona como una infraestructura más fiable y de mayor
capacidad, una vez instalada y probada.
SSH significa Secure Shell y es un protocolo cuya finalidad es permitir el acceso remoto a
un servidor. Podemos acceder de forma remota a un servidor asegurándonos que la
información esté totalmente cifrada. SSH nos permite seguridad gracias a que cifra las
conexiones de punto a punto. Nos permite conectarnos a un PC de forma remota y
controlarlo, transferir archivos de forma segura, ejecutar aplicaciones o gestionar claves, por
ejemplo.
La mayoría de las distribuciones de Linux llevan por defecto un cliente SSH instalado al que
se accede desde un terminal por lo que para darle un uso normal sin excesivos requisitos y
sin necesitar funciones avanzadas adicionales podremos conectarnos a un servidor SSH sin
necesitar ningún programa adicional.
En este tutorial vamos a mostrar cómo conectarnos a un servidor SSH desde un terminal de
Ubuntu 14.04.
Lo primero que debemos hacer es abrir un terminal o un TTY en nuestro sistema. Para ello
pulsaremos Alt+F1 para el TTY o abriremos el menú de aplicaciones y buscaremos el
terminal si queremos seguir disponiendo de las aplicaciones de escritorio.
Para conectarnos al servidor SSH debemos escribir en nuestro terminal el siguiente
comando:
ssh usuario@[IP]:[puerto]
Por ejemplo:
ssh ruvelro@192.168.1.6:22
Pulsamos enter y se establecerá la conexión. Al ser un servidor seguro debemos crear la
clave de seguridad y almacenarla en nuestro ordenador para futuras conexiones al mismo
servidor. El mismo cliente nos preguntará si queremos crearla y continuar en caso de que
no exista dicha clave.
A continuación, debemos introducir la contraseña del usuario con el que vamos a iniciar
sesión.
Una vez introducida la contraseña el cliente SSH se conectará al servidor y nos cambiará
tanto el usuario como el dominio de nuestro terminal. En nuestro caso aparecemos
conectados como usuario pi a un servidor llamado raspberry.
De esta forma podremos controlar el sistema remoto como si estuviéramos delante de él en
un terminal. Podremos realizar prácticamente cualquier tarea, especialmente si se trata de
un servidor remoto Linux que es compatible con el 100% de los comandos de SSH y es
mucho más manejable que un sistema Windows a través de un terminal CMD.
Para cerrar la conexión debemos teclear la palabra «exit» que finalizará la misma y evitar
así que otros usuarios puedan tomar el control de nuestra conexión SSH remota.