Está en la página 1de 8

¿Qué es cloud computing?

El cloud computing es la ejecución de las cargas de trabajo en las nubes, las cuales son entornos de
TI que extraen, agrupan y comparten recursos flexibles en una red. El cloud computing y las nubes
no son tecnologías en sí mismas.

 El cloud computing es una acción: es la función que se encarga de ejecutar cierta carga de
trabajo en un espacio virtual en Internet.
 Las nubes son entornos: se trata de los sitios donde se ejecutan las aplicaciones.
 Las tecnologías son elementos: son los sistemas de software y hardware que se utilizan
para diseñar y usar las nubes.

Nubes públicas, privadas, híbridas y multiclouds

La nube se subdivide en:

Nubes públicas. - Servicios informáticos que ofrecen proveedores externos a través de la Internet
pública y que están disponibles para todo aquel que desee utilizarlos o comprarlos. Pueden ser
gratuitos o venderse a petición, lo que permite a los clientes pagar solo por el uso que hacen de
ciclos de CPU, el almacenamiento o el ancho de banda que consumen.

Ejemplos:

Google AppEngine, AmazonWebServices, Windows Azure Service Platform

Nubes privadas. – Entornos diseñados exclusivamente para el usuario final, que por lo general se
encuentran dentro del firewall de ese usuario.

Ejemplos:

Los servicios de almacenamiento gubernamental, soluciones Citrix, Cisco, VMware, etc.

Nubes híbridas/multiclouds. - La nube híbrida es una arquitectura de TI que incorpora cierto


grado de gestión, organización y portabilidad de las cargas de trabajo en dos o más entornos. Es
posible que esos entornos deban incluir algunos de los siguientes elementos en función de sus
necesidades específicas:

 Al menos una nube privada y una pública


 Dos o más nubes privadas
 Dos o más nubes públicas
 Un entorno virtual o un servidor dedicado (bare metal) conectado a al menos una nube, ya
sea pública o privada
Servicios de nube

Las diferencias en los servicios radica en la cantidad y tipos de software que son capaces de
gestionar.

lasS

Se denomina infraestructura como servicio, donde se ofrece a los usuarios la infraestructura del
servidor a través del Internet.

Esto quiere decir que la empresa contrata almacenamiento con terceros para enfocarse en
aspectos más importantes, como la generación de código o las relaciones con los clientes.

PaaS

La Plataforma como servicio (PaaS) es una modalidad del cloud computing en la cual un tercero
brinda el sistema de hardware y una plataforma de software de aplicaciones.

Se enfoca en que un tercero provea toda la infraestructura de hardware y el soporte de software


necesario para que los desarrolladores se enfoquen sólo en codificar.
SaaS

El software como servicio (SaaS) es una forma de cloud computing que ofrece a los usuarios una
aplicación en la nube junto con toda su infraestructura de TI y plataformas subyacentes. Puede ser
la solución ideal para las empresas, ya sean grandes o pequeñas, o las personas con las siguientes
características:

 No quieren encargarse de las tareas de mantenimiento de la infraestructura, las


plataformas y el software.
 Tienen desafíos que pueden resolverse con una personalización mínima.
 Prefieren los modelos de suscripción de software.

Beneficios de la computación en la nube

Escalabilidad, Flexibilidad y Fácil Administración

Por ejemplo: si una empresa de e-commerce tiene un flujo de atención al cliente mayor en un
determinado período, es posible aumentar el número de servidores para cubrir esta demanda.
Cuando esto no sea más necesario, sólo hay que regresar a la cantidad normal de servidores de
manera rápida y sin problemas de adaptación.

Accesibilidad global

Esto es muy importante para empresas que tienen profesionales dispersos geográficamente o que
permanecen mucho tiempo fuera de la oficina.

Agilidad y abaratamiento

Es posible contratar la infraestructura necesaria sin preocuparse por la compra de hardware,


software, adecuaciones o espacios nuevos e incluso mantenimiento.

Mayor productividad y menos mantenimiento

Se requiere de menos equipo de soporte técnico, debido a que software y hardware pueden
gestionarse remotamente, incluso el proveedor del servicio puede dedicarse a dar soporte,
actualizar o proveer mantenimientos correctivos según se requiera.
Compatibilidad de software

Al no ser necesario instalar software en varios equipos, sino que las apps pueden correr desde los
servidores del proveedor, se evitan problemas de compatibilidad.

2003. Se desarrollo el Google File System (GFS), que es un sistema de archivos distribuido, capaz
de soportar toda su infraestructura informática por primera vez “en la nube”.

Fue diseñado para proveer eficiencia, fiabilidad de acceso y utiliza sistemas masivos tipo “cluster”
(en grupo) de procesamiento en paralelo (de forma simultánea).

2004. Google presentó Map and Reduce, el cual es un marco de trabajo (modelo de programación)
que permite dar soporte a la computación paralela de grandes colecciones de datos.
Su funcionamiento general es simple, en lugar de realizar el procesamiento desde una única
máquina, distribuye las enormes cantidades de datos entre varios servidores que los procesan al
unísono.

Para ello, por cada cluster existente, MapReduce cuenta con:

 Un servidor principal, el maestro, el que distribuye los datos que recibe.


 Varios servidores secundarios, los esclavos, los que procesan esos datos a la vez, siguiendo
las órdenes del servidor maestro.

Este sistema reduce exponencialmente el tiempo en el que se desarrolla el procesamiento de


datos. Es el equivalente a tener a una sola persona desempeñando una labor o tener un equipo de
trabajo, con un jefe que recibe las tareas y las distribuye entre sus subordinados.

2006. Valiéndose del esquema de programación Map and Reduce se desarrolla el Apache Hadoop,
el cual funciona como el presentado por Google en 2004, con la diferencia que es de código
abierto.

Hadoop se considera la semilla que dio origen al “Big Data”.

El MIT (Massachusetts Institute of Technology) le define como procesamiento y estudio de


grandes volúmenes de información que pueden ser estructurados o no estructurados.

En otras palabras, el Big Data se forma por conjuntos de datos enormes y muy complejos que
proceden de diversas fuentes y (2.5 exabytes por día o el equivalente a 530 millones de
canciones), que año con año se multiplica decenas de veces.

A su vez el Big Data ha permitido el resurgimiento del Machine Learning, no porque no se haya
concebido antes, porque desde que el hombre tuvo la necesidad de emplear máquinas para
optimizar el trabajo ha requerido formas más naturales de “comunicarse” con ellas, para pedirles
que realicen las tareas que son difíciles de hacer; sin embargo, hasta ahora es posible nutrirlas con
información suficiente como para que sepan bien que queremos que hagan sin decirles cómo
hacer cada cosa.

las tres V’s del Big data

Volumen
Con Big data, se procesan grandes volúmenes de datos que no están
estructurados y son de baja densidad. Podrían ser datos de valor desconocido,
ejemplo: feeds de datos de Twitter, flujos de clics de una página web, aplicación
para móviles, equipo con sensores, etc. Para algunas compañías, esto puede
traducirse en decenas de terabytes de datos. Para otras, incluso petabytes.

La velocidad
Se refiere al ritmo al que se reciben los datos. Estos son transmitidos a
una gran velocidad y deben ser distribuidos de manera oportuna. Las
etiquetas FID, sensores y la medición inteligente crean la necesidad de
distribuir corrientes de datos casi en tiempo real.

La variedad
Esta se refiere a los diversos tipos de datos que están disponibles.
Anteriormente, los datos convencionales eran estructurados y se podían
organizar en una base de datos relacional. Gracias al auge del Big Data, los
datos se presentan en nuevos tipos de datos no estructurados. Los datos no
estructurados y semiestructurados, como por ejemplo el texto, audio o vídeo,
requieren de un preprocesamiento para poder obtener significado y habilitar
los metadatos.
Los principales usos del Big data

 Desarrollo de productos: las empresas hacen uso del Big data para
predecir la demanda de los clientes, construyen modelos predictivos
a través el análisis y clasificación de atributos clave de productos
anteriores y actuales, posteriormente realizan la modelación de la
relación entre estas características y el éxito comercial de las ofertas.
 Mantenimiento predictivo: por medio del análisis de indicadores de
problemas que pueden presentarse antes de que estos se ocurran,
las compañías tendrán la capacidad de realizar el mantenimiento de una
forma más rentable, además de optimizar el tiempo de servicio de sus
activos.
 Experiencia del cliente: la disponibilidad de datos que permitan tener
una vista clara de cómo ha sido la experiencia del cliente permite
mejorar los servicios que se prestan, así como mejorar la interacción y la
fidelización del cliente.
 Eficiencia operativa: al poder evaluar los procesos de producción
dentro de las empresas, anticipar la demanda, la opinión de los clientes y
la demanda futura, el Big data permite la mejora de los procesos
productivos y la toma de decisiones en tiempo real.
 Impulso de la innovación: gracias a la disponibilidad de información
que ofrece el Big data, los procesos de innovación serán más
constantes y efectivos ya que este se basaría en información real y
confiable, mediante el estudio de las dependencias entre seres
humanos y las diferentes instituciones.

En la actualidad.

Big data posee numerosos usos y aporta importantes beneficios a aquel que haga uso de grandes
cantidades de datos.

Sin embargo…

Estos grandes volúmenes de información solo pueden ser procesados a través del aprendizaje
automático (MLearning), por lo que ambas disciplinas dependen una de la otra.

También es fundamental saber que los datos que alimentan los sistemas MLearning son eficientes
en la medida que la calidad de los datos de entrada es superior, por lo que el monitoreo de
entradas es crucial, evitando deliberadamente datos repetidos o atípicos (outlayers).

También podría gustarte