Está en la página 1de 25

UNIVERSIDAD NACIONAL POLITÉCNICA

Ingeniería en sistemas de información

Sistemas operativos
INVESTIGACIÓN

Alumno:

● Ary Latrell Lacayo Ortega.

DOCENTE:

● Licdo. Ezequiel Torrez.

14 de Marzo del 2023


HISTORIA DE LINUX

Linux tiene su origen en Unix. Este apareció en los años sesenta, desarrollado por los
investigadores Dennis Ritchie y Ken Thompson, de los Laboratorios Telefónicos Bell.

Andrew Tanenbaum desarrolló un sistema operativo parecido a Unix (llamado Minix) para
enseñar a sus alumnos el diseño de un sistema operativo. Debido al enfoque docente de
Minix, Tanenbaum nunca permitió que éste fuera modificado, ya que podrían introducirse
complicaciones en el sistema para sus alumnos.

LINUX hace su aparición a principios de la década de los noventa, era el año 1991 y por
aquel entonces un estudiante de informática de la Universidad de Helsinki, llamado Linus
Torvalds, empezó como una afición y sin poderse imaginar a lo que llegaría este proyecto, a
programar las primeras líneas de código de este sistema operativo llamado LINUX.

Este comienzo estuvo inspirado en MINIX, un pequeño sistema Unix desarrollado por Andy
Tanenbaum. Las primeras discusiones sobre Linux fueron en el grupo de noticias comp.os.
minix, en estas discusiones se hablaba sobre todo del desarrollo de un pequeño sistema
Unix para usuarios de Minix que querían más.

Linus nunca anunció la versión 0.01 de Linux (agosto 1991), esta versión no era ni siquiera
ejecutable, solamente incluía los principios del núcleo del sistema, estaba escrita en
lenguaje ensamblador y asumía que uno tenía acceso a un sistema Minix para su
compilación.

El 5 de octubre de 1991, Linus anunció la primera versión "Oficial" de Linux versión 0.02.
Con esta versión Linus pudo ejecutar Bash (GNU Bourne Again Shell) y gcc (El compilador
GNU de C) pero no funcionaba mucho más. En este estado de desarrollo ni se pensaba en
los términos soporte, documentación, distribución. Después de la versión 0.03, Linus saltó
en la numeración hasta la 0.10, más y más programadores a lo largo y ancho de internet
empezaron a trabajar en el proyecto y después de sucesivas revisiones, Linus incremento el
número de versión hasta la 0.95 (marzo 1992). Más de un año después (diciembre 1993) el
núcleo del sistema estaba en la versión 0.99 y la versión 1.0 no llegó hasta el 14 de marzo
de 1994. Desde entonces no se ha parado de desarrollar, la versión actual del núcleo es la
2.2 y sigue avanzando día a día con la meta de perfeccionar y mejorar el sistema.

DISTRIBUCIONES DE LINUX

Las distribuciones de Linux son sistemas operativos instalables diseñados a partir del kernel
de Linux, que admiten programas de usuarios, repositorios y bibliotecas. La versión de cada
comunidad o proveedor es una distribución.

Dado que Linux es un sistema operativo open source que se lanza en virtud de una Licencia
Pública General de GNU (GPL), cualquier persona puede ejecutar, estudiar, modificar y
redistribuir el código fuente, o incluso vender copias del código modificado. Esto difiere
mucho de los sistemas operativos tradicionales que son propietarios y no pueden
modificarse tanto, como Unix, Microsoft Windows y MacOS.
Fáciles de usar: Linux ideales para principiantes

Estas distribuciones destacan por facilitar al máximo el proceso de instalación del sistema
en cualquier PC y, además, por primar el entorno gráfico sobre todo lo demás. Son sistemas
ideales para los usuarios que dan los primeros pasos dentro de este nuevo mundo, aunque
es verdad que pueden quedarse algo cortas para los usuarios más avanzados que buscan ir
un paso más allá. Escritorios sencillos e intuitivos, y una buena variedad de programas
suelen ser sus pilares base.

Ubuntu

Ubuntu es, sin lugar a duda, la distro Linux más popular y conocida que nos podemos
encontrar en la red. Esta distro, desarrollada por Canonical, utiliza un escritorio GNOME y
trae de serie una serie de programas, herramientas y configuraciones para que podamos
empezar a usarla desde el primer momento. Canonical ha trabajado mucho en hacer que
este sistema sea lo más sencillo y accesible para todos, pero sin cerrar la puerta a que los
usuarios más avanzados tengan control total sobre él. Un equilibrio perfecto y la mejor
puerta de entrada para aquellos que nunca han usado Linux y quieren dar sus primeros
pasos en este sistema. Su problema: que cada versión normal tiene tan solo 9 meses de
soporte, por lo que si no usamos una LTS (que tienen 5 años) tendremos que estar
actualizando casi dos veces al año.

Las principales características que podemos encontrar cuando vamos a instalar y usar
Ubuntu son:

● Facilidad de manejo. Aunque nunca antes hayamos usado Linux, podremos


manejarnos con ella sin problemas.
● Actualizaciones frecuentes. Dos grandes actualizaciones al año con soporte de 9
meses. Cada 24 meses, una actualización LTS con 5 años de soporte.
● Facilidad de instalación. El asistente nos guía paso a paso.
● Búsqueda e instalación de programas robusta y sencilla. Podemos usar APT,
paquetes SNAP o ejecutar binarios .DEB.
● Totalmente gratis, sin restricciones y con libertad de distribución.
Kubuntu

Kubuntu es uno de los sabores más conocidos y extendidos de Ubuntu. A grandes rasgos,
no es más que una versión de la distro principal de Canonical que, en lugar de usar el
escritorio GNOME, utiliza KDE. KDE es un escritorio mucho más completo, centrado en
brindar a los usuarios una facilidad inmensa a la par que una gran cantidad de opciones de
personalización y rapidez.

Esta distro viene con una gran cantidad de software preinstalado, configurado y listo para
funcionar de manera que, salvo que tengamos necesidades concretas, podamos empezar a
trabajar con el sistema desde el primer momento.

Igual que su hermano Ubuntu, este sistema cuenta con versiones cada 6 meses, cada una
de las cuales tiene un soporte de 9 meses, y una versión LTS cada 2 años que nos ofrece
soporte durante 5 años. La versión recomendada, como siempre, es la LTS.

Linux Mint
Con el paso del tiempo, Canonical se ha ganado una buena cantidad de enemigos. Y es
que la compañía ha llevado a cabo ciertas decisiones sin tener en cuenta a su comunidad
de usuarios. Por ello, hay muchos usuarios que han empezado a buscarse la vida fuera de
esta distro. Y así es como Linux Mint ha ganado una gran popularidad. Esta distro se basa
en Ubuntu, pero deshace todas las decisiones de Canonical para ser el sistema que la
comunidad quiere y necesita. Cuenta con un escritorio por defecto, Cinnamon, muy sencillo
de utilizar y APT como gestor de paquetes. Una excelente puerta de entrada, muy sencilla,
a Linux que no podemos pasar por alto.

Debian

Es una de las distribuciones de Linux más antigua y popular al mismo tiempo. Para la gran
mayoría se trata de la distro más estable, aunque hay otros aspectos a destacar como son
los repositorios, gestores de paquetes y la comunidad detrás de Debian. Debian es un
sistema operativo libre que ha sido creado por todo tipo de usuarios, es un sistema
operativo colaborativo en el que trabajan todo tipo de personas para actualizarlo, añadir
funciones y mantenerlo siempre al día para que sea práctico.

Desde su página web podemos encontrar toda la información sobre él, pero algunas de las
razones que sus creadores dan para apostar por él es que es la semilla y base de otras
discos de Linux como Ubuntu, por ejemplo. Desde 1993 funciona y tiene un soporte de
hardware extenso además de actualizaciones frecuentes y sin complicaciones.
¿QUÉ COMPRENDE UNA INFRAESTRUCTURA TI?

La infraestructura de la tecnología de la información (TI) hace referencia a los elementos


necesarios para operar y gestionar entornos de TI empresariales. La infraestructura de TI
puede implementarse en un sistema de cloud computing o en las instalaciones de la
empresa.

Estos elementos incluyen el hardware, el software, los elementos de red, un sistema


operativo (SO) y el almacenamiento de datos. Todos ellos se utilizan para ofrecer servicios y
soluciones de TI. Los productos de infraestructura de TI se pueden descargar como
aplicaciones de software que se ejecutan en los recursos de TI actuales (por ejemplo, el
almacenamiento definido por software) o como soluciones en línea que ofrecen los
proveedores de servicios (por ejemplo, la infraestructura como servicio o IaaS).

Elementos de la infraestructura de TI

Hardware

El hardware incluye los servidores, los centros de datos, las computadoras personales, los
enrutadores, los conmutadores y otros equipos.

Las instalaciones que alojan y refrigeran los centros de datos, así como aquellas que se
encargan de proporcionarles energía, también podrían considerarse parte de la
infraestructura.

Software

El software hace referencia a las aplicaciones que utiliza la empresa, como los servidores
web, los sistemas de gestión de contenido y el sistema operativo (por ejemplo, Linux®). El
sistema operativo se encarga de gestionar el hardware y los recursos del sistema y
establece las conexiones entre el software y los recursos físicos que ejecutan las tareas.

Redes
Los elementos de red interconectados permiten la comunicación, la gestión y las
operaciones de red entre los sistemas internos y externos. La red consta de conexión a
Internet, habilitación de la red, firewalls y seguridad, al igual que de elementos de hardware,
como enrutadores, conmutadores y cables.

Tipos de infraestructuras de TI

Infraestructura tradicional
En la infraestructura tradicional, las empresas son las propietarias de todos los elementos
(como los centros de datos, los sistemas de almacenamiento de datos, entre otros), a los
cuales gestionan en sus propias instalaciones. El funcionamiento de esta infraestructura
suele considerarse costoso y requiere grandes cantidades de sistemas de hardware (por
ejemplo, servidores), así como energía eléctrica y espacio físico.
Infraestructura de nube

La infraestructura de nube hace referencia a los elementos y los recursos que se necesitan
para el cloud computing. Puede diseñar una nube privada usted mismo utilizando los
recursos que se le destinan de forma exclusiva. O bien, puede usar una nube pública a
través del alquiler de una infraestructura de nube de un proveedor de nube, como Alibaba,
Amazon, Google, IBM o Microsoft. También puede diseñar una nube híbrida mediante la
incorporación de un cierto grado de gestión, organización y portabilidad de las cargas de
trabajo en varias nubes.

Infraestructura hiperconvergente

La infraestructura hiperconvergente le permite gestionar los recursos informáticos, de red y


de almacenamiento de datos desde una sola interfaz. Así podrá admitir cargas de trabajo
más modernas con arquitecturas escalables en el hardware estándar del sector a través de
la combinación del almacenamiento de datos y la informática definidos por software.

ROUTER FIREWALL

Los Router Firewall son dispositivos electrónicos que funcionan exactamente como hacen
los sistemas de Firewall basados en hardware: mantienen a extraños y aplicaciones de
software no autorizadas, fuera de una red protegida. Siendo más específicos, los Router
Firewall, solo te permitirán comunicar con ciertos ordenadores y equipos ubicados en otras
redes diferentes a la tuya. Cualquier otro tipo de comunicación será automáticamente
bloqueado y registrado en unos archivos llamados “logs”, para poder ser leídos y analizados
posteriormente.

Estos dispositivos tienen como misión ser una solución simple para tener protegidos
recursos compartidos y dar un nivel de seguridad en nuestra red.

Una amenaza típica y muy común que un Router Firewall bloqueará es un escaneo de
puertos en tu sistema. Si un usuario externo intenta descubrir que puertos tienes abiertos en
tu ordenador, estos intentos de descubrimiento serán parados y podrás tener alguna
información de quién lo realizó. Hablamos de un usuario externo a alguien que no pertenece
a tu red, o a un usuario que no está validado como autorizado.
Esto bien podría ser un usuario de Internet, o si estás en una oficina, alguien de otro
departamento. Al cortar este intento de conocer tus puertos accesibles, prevendrá que se
descubran vulnerabilidades en potencia que puedan ser aprovechadas para entrar en tu
sistema o infectarlo con virus.

Los Router que utilizan el protocolo NAT (Network Address Translation), también son
conocidos como Firewalls NAT. El protocolo NAT permite a múltiples ordenadores, acceder
a Internet con solo una conexión, o dicho de otra manera, con una dirección IP. Para
entender esto, debemos saber que existen dos tipos de direcciones IP. Las públicas y las
privadas. Las IPs públicas son las que se utilizan en el Internet que todos conocemos para
que todo el mundo pueda acceder a ellas.

Las IPs privadas son las que normalmente utilizamos en redes corporativas o Intranets, o
dicho de otra manera, redes de empresas, Universidades, etc. Para poder acceder de una
red a otra, las IPs deben ser traducidas de privada a pública y viceversa. Uno de los
equipos existentes que hacer esta tarea es el elemento de nuestro artículo. Uno de los
sistemas más sencillos para ahorrar direccionamiento IP, es traducir todas las direcciones IP
privadas (una para cada ordenador), en una pública para que pueda acceder a Internet.

Muchos dirán, ¿y no se duplican las direcciones? En este caso no, ya que cada ordenador
sale con una sola dirección pública, pero con distinto número de puerto. Este número de
puerto identifica a cada ordenador sin margen de fallos.

Como se ha podido ver, estos Router Firewall, nos ayudan a varias tareas. Nos dan la
posibilidad de comunicarnos fuera de nuestra red privada o corporativa, nos traduce nuestro
direccionamiento IP en un rango válido para acceder a equipos públicos, y además nos
ofrece protección. Por supuesto, todas estas funciones dependen en el tipo de Router que
tengas o que elijas. Hay un amplio repertorio para elegir, donde la calidad y el precio varían
ampliamente.

SERVIDORES

¿Qué es un servidor y para qué sirve?


Es un aparato informático que almacena, distribuye y suministra información. Los servidores
funcionan basándose en el modelo “cliente-servidor”. El cliente puede ser tanto un
ordenador como una aplicación que requiere información del servidor para funcionar. Por
tanto, un servidor ofrecerá la información demandada por el cliente siempre y cuando el
cliente esté autorizado. Los servidores pueden ser físicos o virtuales.

Tipos de servidores
Dentro del mundo de los servidores hay una gran variedad. Los más usados y/o conocidos
son los siguientes:

● Servidor Web: almacena y organiza el contenido de las páginas web y se lo


proporciona al usuario a través del navegador web del usuario. La transmisión de los
datos se suele realizar con http (HyperText Transfer Protocol). El http se encarga de
transmitir la información de la WWW (World Wide Web), estableciendo unos criterios
semánticos y sintácticos para que el ordenador solicitante y el que contiene la
información tengan un idioma común en el que comunicarse. Los servidores web
más conocidos son: Apache web server; Nginx; y Microsoft.
● DNS: son las siglas anglosajonas de Domain Name Server, aunque la “S” también
puede referirse a service o space sin que cambie el significado ni la función del
servidor. El dominio es el nombre que recibe una página web. El servidor DNS se
encarga de relacionar una dirección de dominio (www.ejemplodominio.es) con su
dirección IP correspondiente (00.000.000.00). El proceso de enlace con la página
web funciona de la siguiente forma. Primero un usuario inserta la dirección de
dominio en su motor de búsqueda, esta petición llega a un servidor DNS el cual
transforma dicho dominio en su dirección IP, esta dirección IP es reconocida por el
servidor web y este último proporciona el contenido de la web al usuario. Además, el
dominio web es importante para la imagen de la empresa. El dominio se marca con
el final de la dirección web (.com, .es, nl, .net, .org, …). Si una empresa quiere evitar
que en otra parte del mundo haya otra empresa con el mismo nombre y tenga la
misma dirección web pero con otro final. Por ejemplo, www.empresa.com y
www.empresa.es. Entonces, para que todo dominio con ese nombre redirija a una
empresa, dicha empresa debe adquirir y conservar todos los dominios.
● Proxy Server: es un servidor de puerta de entrada. Se encarga de conectar una red
cliente (navegador web o aplicación) con un sistema externo para que se puede
llevar a cabo la solicitud de conexión, mejor rendimiento y accesibilidad. Es decir, la
conexión se beneficia del caché que almacena, haciendo que una página ya visitada
por el usuario se cargue más rápido y reduciendo el ancho de banda de la red. Por
ejemplo, cuando se suele mandar un tipo de factura a ciertos destinatarios, el
sistema propone autocompletar uno o varios campos con los datos de aquellos
destinatarios recurrentes.
● Servidor de correo electrónico: se encarga del flujo de correo electrónico de los
usuarios, permitiendo que se almacene, envíe, reciba y reenvíe los e-mails.
● Servidor FTP: el nombre procede de File Transfer Protocol, también conocido como
protocolo de transferencia de archivos en español. Sirve para transferir archivos
entre un cliente y un servidor. De esta forma, el servidor puede recibir archivos del
cliente y le posibilita la descarga de los archivos a los clientes. Para mejorar la
velocidad, se usa SFTP el cual también ofrece un servicio de seguridad encriptada.
HISTORIA DE WINDOWS

Windows es un sistema operativo creado por Microsoft. Consiste en un conjunto de


programas que permiten la ejecución de los recursos que tiene un ordenador. El significado
del término (windows, ventanas) hace alusión a su interfaz gráfica, que presenta un modelo
basado en tareas y compartimentos independientes, con sus propios menús y controles.

El año 1975 fue el inicio del fenómeno pronto responsable de la expansión del ordenador
para uso personal a nivel mundial. En esa fecha, dos chicos llamados Bill Gates y Paul Allen
fundaron la compañía Microsoft, unidos por el interés de crear un lenguaje Basic para el
primer ordenador personal, el Altair 8800.

Windows 1 (1985)

Aunque fue anunciado en 1983 por Bill Gates, su lanzamiento no se produjo hasta dos años
más tarde, concretamente el 20 de noviembre de 1985. Se popularizó gracias a su interfaz
gráfica basada en ventanas que le da su nombre.

Entre sus características de escritorio destacaban el manejo de archivos MS-DOS,


calendario, bloc de notas, calculadora y reloj.
Windows 2 (1987)

Dos años más tarde (9/12/1987) Microsoft lanza Windows 2.0 con iconos de escritorio,
memoria ampliada, mejores gráficos y la posibilidad de superponer ventanas, controlar el
diseño de la pantalla y usar atajos con el teclado para acelerar el trabajo.

Constituyó la primera plataforma de Windows para aplicaciones hoy en día tan comunes
como Word o Excel.

Windows 3 (1990)
El 22 de mayo de 1990 aparece Windows 3.0, la primera versión que alcanzó éxito
comercial, con varios millones de ventas en el primer año. Se introdujeron cambios en la
interfaz de usuario importantes, además de mejorar la explotación de la capacidad de
gestión de la memoria de los procesadores.
Windows NT (1993)

Aunque la gente de marketing de Microsoft intenta convencer al mundo de que NT significa


New Technology, lo cierto es que las siglas NT provienen del nombre en clave que tenía el
proyecto cuando estaba en fase de desarrollo N-Ten. El proyecto final vio la luz el 27 de julio
de 1993.

Para llevar a cabo este desarrollo desde cero, se asociaron IBM con Microsoft.
Construyeron un SO de 32bytes multitarea, multihilo, multiprocesamiento, multiusuario con
un núcleo híbrido y una capa de hardware de abstracción para facilitar la portabilidad entre
plataformas.

Windows 95 (1994)

Windows 95 estaba más orientado al consumidor, poseía una interfaz de usuario


completamente nueva y características que hoy nos resultan muy familiares, pero que
entonces constituyeron algo revolucionario, como por ejemplo el botón de Inicio, la Barra de
Tareas, el Área de Notificaciones (recordemos que era la época del módem, fax,...), etc.
Windows 98 (1998)

El 25 de junio de 1998 ve la luz la primera versión diseñada específicamente para el


consumidor. Se introducen una serie de mejoras en la interfaz de usuario a través del
paquete de actualizaciones de escritorio de Windows de Internet Explorer 4. Por ejemplo, la
posibilidad de minimizar una ventana con un simple clic en el icono de la barra de
herramientas, los botones de navegación hacia "Adelante" y "Regresar", etc..

Con Windows 98 se mejoró el reconocimiento de escáneres, ratones, teclados y palancas.

Windows Me (2000)
El 14 de septiembre de 2000 sale a la venta el último de la línea de Windows 9x basado en
DOS, Windows Millennium Edition, considerado como una de las peores versiones de
Windows que ha existido.
Windows XP (2001)

Tan solo un año después, el 25 de octubre de 2001, el primer sistema operativo de consumo
basado en arquitectura NT, cuyo nombre en clave era Whistler, se puso a la venta con el
nombre de XP de eXPeriencie. Resultó ser uno de los más exitosos, en diciembre de 2013
su cuota de mercado alcanzó los 500 millones de ordenadores. Tras 12 años en el mercado
¡12 años!, en abril de 2014 Microsoft dejó de dar soporte.

Windows XP introdujo nuevas características como el uso de una nueva interfaz de manejo
más sencillo, la posibilidad de utilizar varias cuentas de usuario a la vez, la capacidad de
agrupar aplicaciones similares en la barra de tareas, por solo nombrar unas cuantas.

Windows Vista (2007)

Nunca se había esperado tanto tiempo por un cambio de SO, ¡más de 5 años! A Microsoft le
hubiese gustado tenerlo listo para poder hacer caja en la Navidad de 2006, pero tuvo que
esperar hasta el 30 de enero de 2007 para lanzarlo mundialmente. Se recuerda como un
sistema que llegó tarde, mal y arrastro. Las principales quejas se centraron en las funciones
de seguridad, administración de derechos digitales, los requisitos de hardware y el
rendimiento y la compatibilidad del software.
A su favor hay que recordar las características por las cuales todo el mundo lo identifica, a
saber: la nueva interfaz gráfica que permitía la transparencia en las ventanas, la aplicación
Flip-3D que se activaba con la combinación de teclas Win + Tab, y mostrando con un efecto
3D las ventanas que estaban abiertas podías cambiar de una a otra. Además, permitía tener
una vista preliminar de las ventanas abiertas, con solo pasar el ratón sobre los botones en
la barra de tareas.

Windows 7 (2009)

Muchos consideran a Windows 7 como el SO que a Windows Vista le gustaría haber sido.
De hechos, en sus orígenes fue concebido como una especie de actualización de Windows
Vista, lo que permitió mantener cierto grado de compatibilidad con aplicaciones y hardware.
En cuanto salió al mercado el 22 de octubre de 2009 comenzó a comerse la cuota de
mercado de sus predecesores.

Windows 7 destaca por ofrecer una interfaz rediseñada, una nueva barra de tareas, mejoras
importantes en el rendimiento del SO y sobre todo porque W7 marcó el debut de Windows
Touch, que permite explorar la web desde pantallas táctiles.
Windows 8 (2012)

El 25 de octubre de 2012 hizo su puesta de larga el polémico Windows 8. Su interfaz de


usuario fue modificada para hacerla más amigable y fácil de usar con la pantallas táctiles,
además de poder seguir usando obviamente el teclado y ratón. Es el momento de las Apps
cuyos iconos de diferentes tamaños ocupan la pantalla, se pueden agrupar, mostrar
notificaciones. El explorador de archivos ahora deja a solo un clic de ratón, funciones que
antes estaban escondidas.

Windows 10 (2015)

Windows 10 se lanzo el 29 de Julio de 2015, es la unificación de todos los sistemas


operativos de Microsoft en una única plataforma, puede usarse en los PC, smartphones,
tablets y Xbox, siendo el primer sistema operativo que se ofrece de manera gratuita a los
usuarios que ya contaran con Windows 7, Windows 8.1 o Windows Phone 8.1.
Windows 11 (2021)

Windows 11 se lanzó el 5 de Octubre de 2021 y se creó con la misma base de Windows 10,
el mejor sistema operativo de Windows hasta la fecha, al cual le han dado un cambio visual
para modernizarlo, con muchas mejoras y novedades.

Ofrece innovaciones centradas en la mejora de la productividad del usuario final, y está


diseñado para soportar el entorno de trabajo híbrido actual.

Windows 11 es gratuito para los equipos que tengan Windows 10 y que cumplan los
requisitos mínimos.

OPENSOURCE

¿Qué es el open source o código abierto?

Originalmente, la expresión open source (o código abierto) hacía referencia al software


open source (OSS). El software open source es un código diseñado de manera que sea
accesible al público: todos pueden ver, modificar y distribuir el código de la forma que
consideren conveniente.

El software open source se desarrolla de manera descentralizada y colaborativa, así que


depende de la revisión entre compañeros y la producción de la comunidad. Además, suele
ser más económico, flexible y duradero que sus alternativas propietarias, ya que las
encargadas de su desarrollo son las comunidades y no un solo autor o una sola empresa.

El open source se convirtió en un movimiento y una forma de trabajo que trasciende la


producción del software. Adopta los valores y el modelo de producción descentralizada del
software open source para hallar nuevas maneras de solucionar los problemas en las
comunidades y los sectores.
Ventajas del open source

Hay muchas razones por las que las personas eligen el software open source en lugar del
software propietario, pero estas son las más habituales:

● Revisión entre compañeros: dado que se puede acceder al código fuente


libremente y que la comunidad open source es muy activa, los colegas
programadores verifican y mejoran el open source. Considérelo un código vivo, en
lugar de un código privado y estancado.
● Transparencia: ¿necesita saber exactamente qué tipos de datos se trasladan y a
dónde, o qué clase de cambios se aplicaron en el código? Con el open source, usted
mismo puede verificar esta información y realizar un seguimiento, sin tener que
depender de las promesas de los proveedores.
● Confiabilidad: el código propietario depende de un solo autor o una sola empresa
que lo controlan para mantenerlo actualizado, con parches y en funcionamiento. El
open source sobrevive a sus autores originales porque las comunidades open
source activas lo actualizan constantemente. Los estándares abiertos y la revisión
entre compañeros garantizan que el open source se evalúa de manera regular y
adecuada.
● Flexibilidad: dado el énfasis del open source en la modificación, puede utilizarlo
para abordar los problemas específicos de su empresa o comunidad. No está
obligado a usar el código de una manera específica, y puede contar con la ayuda de
la comunidad y la revisión entre compañeros al momento de implementar soluciones
nuevas.
● Menor costo: con el open source, el código en sí es gratuito. Cuando utiliza una
empresa como Red Hat, paga por el soporte, el refuerzo de la seguridad y la ayuda
para gestionar la interoperabilidad.
● Sin dependencia de un solo proveedor: la libertad para el usuario significa que
puede trasladar el open source a cualquier parte y usarlo para lo que sea en
cualquier momento.
● Colaboración abierta: las comunidades open source activas brindan la posibilidad de
buscar ayuda, recursos y puntos de vista que trascienden el interés de un grupo o
una empresa.
CONTROLADOR A RAID

Una controladora RAID es un dispositivo de hardware en servidores de gama alta o un


programa de software en servidores de gama baja que se utilizan para administrar discos
duros (HDD) o unidades de estado sólido (SSD) en un servidor o arreglo de
almacenamiento. Esta controladora ofrece un nivel de abstracción entre un sistema
operativo y las unidades físicas. Una controladora RAID puede evitar grupos de discos
físicos en el sistema operativo para los que se pueden definir esquemas de protección de
datos, como RAID 5 o RAID 10, para proteger y garantizar la integridad de los datos

La conexión hot plug de cualquier disco duro del disco RAID 0 provocará daños o pérdidas
de datos.
Un chasis de "hot-swap" le permite quitar un disco duro sin tener que apagar el ordenador.

Tipos de RAID

Raid 0
Se necesitan mínimo 2 discos. Cuenta la Suma de tamaños de todos los HDD.

Un RAID 0, conocido como striping, utiliza como mínimo 2 discos y reparte los datos entre
ambos.

Ofrece un mayor rendimiento.


No debe utilizarse con datos críticos.
El inconveniente es que no hay redundancia y tolerancia a fallos, por lo que cualquier fallo o
avería en uno de los discos conlleva una pérdida total de los datos.

Recomendado. Si priorizamos el rendimiento del sistema y el acceso a la información


(diseño gráfico, en 3D y edición de video), y contamos con un presupuesto muy ajustado.
Ofrece un alto rendimiento, especialmente para archivos grandes.
Raid1

Se necesitan mínimo 2 discos. En el caso de más unidades, solo cuenta el disco de menor
tamaño.

Es conocido como “espejo” o “mirroring“. El raid 1 utiliza 2 discos y duplica todos los datos
de la primera unidad de forma sincronizada a una segunda unidad de almacenamiento. De
esta forma, si el primer disco se estropea, el sistema seguirá funcionando y trabajando con
el segundo disco sin problemas y sin perder datos.

Ofrece una rápida recuperación tras un fallo de la unidad, por tanto es una de las mejores
configuraciones en cuanto a redundancia y tolerancia a fallos.

Además, disponemos de un mayor rendimiento de lectura/escritura, puesto que es posible


escribir y leer de los dos discos al mismo tiempo.
La desventaja es que tendremos que comprar 2 discos para tener la misma capacidad de
almacenamiento efectivo (p.e. 2x1TB. que es realmente 1 TB en total), además se puede
producir una gran sobrecarga del disco.

Recomendado para servidores de nivel básico en los que sólo contamos con 2 discos
duros. Se recomienda para bases de datos pequeñas u otras aplicaciones que requieren
poca capacidad, pero una redundancia de datos completa.
Raid 5
Se necesitan como mínimo 3 discos (se puede romper un disco sin perder los datos) El
espacio disponible en el RAID 5 será de n-1, siendo n el número de discos del raid. Si
utilizamos 5 discos de 1TB tendremos: 5 discos – 1 = 4 discos -> 4TB disponibles.

Suele ser el RAID más usado en servidores, ya que aporta la velocidad y rendimiento del
RAID 0 (uso eficiente de la unidad, alto rendimiento en escritura y lectura) y la seguridad del
RAID 1 ante las pérdida de datos.

El RAID 5 utiliza la paridad para recuperar los datos. Se dividen los datos en bloques en los
diferentes discos, de forma que si hay un fallo en uno de ellos, esa parte de los datos se
subsana con los datos almacenados en el resto de los discos, permitiendo al usuario
continuar (aunque funciona más lenta) con su trabajo.

Raid6
Se necesitan como mínimo 4 discos. Puede tolerar dos fallos de discos duros (N-2)

El Raid6 es similar a la Raid 5 e incluye un disco de reserva que entra en funcionamiento


una vez que uno de los discos se estropea (en este caso hasta que sustituimos el disco
averiado, a todos los efectos tenemos un Raid 5).

Proporciona por tanto una elevada redundancia de datos y rendimiento de lectura.

El rendimiento en tareas de escritura es menor que el de Raid 5 debido a los dos cálculos
de paridad. Requiere hacer un gasto adicional ya que dedicamos dos discos a la paridad, (si
tenemos 4 discos de 1TB disponemos sólo de 2TB de espacio ya que los otros 2 TB se
dedican a paridad).

El Raid 6 resulta aconsejable cuando queramos soportar varios fallos de unidades y ofrece
una mayor redundancia para la protección de datos.

Raid10 (Raid 1+0)

Se necesitan un mínimo de cuatro discos

En el RAID 1+0—> Se hace un Raid 1 y sobre ellos un RAID 0

Se necesitan un mínimo de cuatro o más unidades, por lo que el coste es más elevado que
en otras configuraciones.

a cambio obtenemos un alto rendimiento de lectura (gracias al Raid 0), a la vez que se
proporciona tolerancia a los fallos (gracias al Raid1). P.e. si usamos 4 discos, se pueden
romper hasta dos sin perder información (N-2), siempre que nos sean del mismo subgrupo.

Aunque su precio es más elevado, el RAID 10 es ideal para aplicaciones tipo servidores de
bases de datos. Proporciona un elevado rendimiento, redundancia de datos completa y una
rápida recuperación ante fallos de los discos
CONECTIVIDAD INTEROCEÁNICA DE INTERNET

Un cable submarino o Interoceánico es aquel cable de cobre o fibra óptica instalado sobre el
lecho marino y destinado fundamentalmente a servicios de telecomunicación.

No obstante, también existen cables submarinos destinados al transporte de energía


eléctrica, aunque en este caso las distancias cubiertas suelen ser relativamente pequeñas y
además van insertados dentro de una tubería especial para evitar riesgos al contacto con el
agua ya que maneja altas potencias.

Actualmente los cables submarinos de fibra óptica son la base de la red mundial de
telecomunicaciones.

El cable submarino se muestra como una solución robusta y eficaz, por la resistencia ante
inclemencias meteorológicas, menor latencia, y mayor ancho de banda que la comunicación
por satélite, todo lo cual lo posiciona como una infraestructura más fiable y de mayor
capacidad, una vez instalada y probada.

La comunicación vía satélite quedó relegada desde la década de 1990 a la transmisión de


eventos deportivos y/o culturales específicos, la comunicación de sitios extremadamente
remotos, y la navegación marítima/ aeronáutica. Se aprovecha la flexibilidad de poder “subir
al satélite” en forma instantánea allí donde la “pisada” del satélite lo permita, e incluso
moverse sin perder la conectividad, algo que el cable no puede dar.
En esta época en donde el teletrabajo por causas del Covid -19 o coronavirus, está a furor
la red de cables submarinos a nivel mundial garantizan la conectividad del transporte de
datos. El problema de conexión ocurre cuando la latencia de la conectividad desde el
proveedor de la red no es garantizada. Todos tenemos conexión de internet de bajada de
datos a nivel digámoslo… adecuado, pero no tenemos conectividad de subida de datos
eficiente debido a que nuestra conexión no está distribuida de manera redundante.

La velocidad de transferencia de datos es de 3.840 gigabits por segundo, es decir 102


discos DVD en esos segundos, esto es posible por ser los cables elaborados por fibra
óptica. Un cable consta de 16 hilos de fibra, por lo tanto se llenan 1.700 discos DVD por
segundo, por encima de los 60 terabits por segundo.
CONEXIÓN REMOTA EN LINUX

SSH significa Secure Shell y es un protocolo cuya finalidad es permitir el acceso remoto a
un servidor. Podemos acceder de forma remota a un servidor asegurándonos que la
información esté totalmente cifrada. SSH nos permite seguridad gracias a que cifra las
conexiones de punto a punto. Nos permite conectarnos a un PC de forma remota y
controlarlo, transferir archivos de forma segura, ejecutar aplicaciones o gestionar claves, por
ejemplo.

¿Para qué se usa?


Nos permite hacer que dos ordenadores tengan una conexión segura, directa y cifrada por
Internet. Nos evita problemas de ataques gracias a que los datos van completamente
cifrados cuando accedemos al ordenador remoto. Podemos hacer copias de seguridad,
transferir archivos, gestionar servidores.

Cómo establecer una conexión SSH en Linux

La mayoría de las distribuciones de Linux llevan por defecto un cliente SSH instalado al que
se accede desde un terminal por lo que para darle un uso normal sin excesivos requisitos y
sin necesitar funciones avanzadas adicionales podremos conectarnos a un servidor SSH sin
necesitar ningún programa adicional.
En este tutorial vamos a mostrar cómo conectarnos a un servidor SSH desde un terminal de
Ubuntu 14.04.

Lo primero que debemos hacer es abrir un terminal o un TTY en nuestro sistema. Para ello
pulsaremos Alt+F1 para el TTY o abriremos el menú de aplicaciones y buscaremos el
terminal si queremos seguir disponiendo de las aplicaciones de escritorio.
Para conectarnos al servidor SSH debemos escribir en nuestro terminal el siguiente
comando:

ssh usuario@[IP]:[puerto]
Por ejemplo:

ssh ruvelro@192.168.1.6:22
Pulsamos enter y se establecerá la conexión. Al ser un servidor seguro debemos crear la
clave de seguridad y almacenarla en nuestro ordenador para futuras conexiones al mismo
servidor. El mismo cliente nos preguntará si queremos crearla y continuar en caso de que
no exista dicha clave.

A continuación, debemos introducir la contraseña del usuario con el que vamos a iniciar
sesión.

Una vez introducida la contraseña el cliente SSH se conectará al servidor y nos cambiará
tanto el usuario como el dominio de nuestro terminal. En nuestro caso aparecemos
conectados como usuario pi a un servidor llamado raspberry.
De esta forma podremos controlar el sistema remoto como si estuviéramos delante de él en
un terminal. Podremos realizar prácticamente cualquier tarea, especialmente si se trata de
un servidor remoto Linux que es compatible con el 100% de los comandos de SSH y es
mucho más manejable que un sistema Windows a través de un terminal CMD.

Para cerrar la conexión debemos teclear la palabra «exit» que finalizará la misma y evitar
así que otros usuarios puedan tomar el control de nuestra conexión SSH remota.

También podría gustarte