Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Historia Del Machine Learning 2
Historia Del Machine Learning 2
El cloud computing es la ejecución de las cargas de trabajo en las nubes, las cuales son entornos de
TI que extraen, agrupan y comparten recursos flexibles en una red. El cloud computing y las nubes
no son tecnologías en sí mismas.
El cloud computing es una acción: es la función que se encarga de ejecutar cierta carga de
trabajo en un espacio virtual en Internet.
Las nubes son entornos: se trata de los sitios donde se ejecutan las aplicaciones.
Las tecnologías son elementos: son los sistemas de software y hardware que se utilizan
para diseñar y usar las nubes.
Nubes públicas. - Servicios informáticos que ofrecen proveedores externos a través de la Internet
pública y que están disponibles para todo aquel que desee utilizarlos o comprarlos. Pueden ser
gratuitos o venderse a petición, lo que permite a los clientes pagar solo por el uso que hacen de
ciclos de CPU, el almacenamiento o el ancho de banda que consumen.
Ejemplos:
Nubes privadas. – Entornos diseñados exclusivamente para el usuario final, que por lo general se
encuentran dentro del firewall de ese usuario.
Ejemplos:
Las diferencias en los servicios radica en la cantidad y tipos de software que son capaces de
gestionar.
lasS
Se denomina infraestructura como servicio, donde se ofrece a los usuarios la infraestructura del
servidor a través del Internet.
Esto quiere decir que la empresa contrata almacenamiento con terceros para enfocarse en
aspectos más importantes, como la generación de código o las relaciones con los clientes.
PaaS
La Plataforma como servicio (PaaS) es una modalidad del cloud computing en la cual un tercero
brinda el sistema de hardware y una plataforma de software de aplicaciones.
El software como servicio (SaaS) es una forma de cloud computing que ofrece a los usuarios una
aplicación en la nube junto con toda su infraestructura de TI y plataformas subyacentes. Puede ser
la solución ideal para las empresas, ya sean grandes o pequeñas, o las personas con las siguientes
características:
Por ejemplo: si una empresa de e-commerce tiene un flujo de atención al cliente mayor en un
determinado período, es posible aumentar el número de servidores para cubrir esta demanda.
Cuando esto no sea más necesario, sólo hay que regresar a la cantidad normal de servidores de
manera rápida y sin problemas de adaptación.
Accesibilidad global
Esto es muy importante para empresas que tienen profesionales dispersos geográficamente o que
permanecen mucho tiempo fuera de la oficina.
Agilidad y abaratamiento
Se requiere de menos equipo de soporte técnico, debido a que software y hardware pueden
gestionarse remotamente, incluso el proveedor del servicio puede dedicarse a dar soporte,
actualizar o proveer mantenimientos correctivos según se requiera.
Compatibilidad de software
Al no ser necesario instalar software en varios equipos, sino que las apps pueden correr desde los
servidores del proveedor, se evitan problemas de compatibilidad.
2003. Se desarrollo el Google File System (GFS), que es un sistema de archivos distribuido, capaz
de soportar toda su infraestructura informática por primera vez “en la nube”.
Fue diseñado para proveer eficiencia, fiabilidad de acceso y utiliza sistemas masivos tipo “cluster”
(en grupo) de procesamiento en paralelo (de forma simultánea).
2004. Google presentó Map and Reduce, el cual es un marco de trabajo (modelo de programación)
que permite dar soporte a la computación paralela de grandes colecciones de datos.
Su funcionamiento general es simple, en lugar de realizar el procesamiento desde una única
máquina, distribuye las enormes cantidades de datos entre varios servidores que los procesan al
unísono.
2006. Valiéndose del esquema de programación Map and Reduce se desarrolla el Apache Hadoop,
el cual funciona como el presentado por Google en 2004, con la diferencia que es de código
abierto.
En otras palabras, el Big Data se forma por conjuntos de datos enormes y muy complejos que
proceden de diversas fuentes y (2.5 exabytes por día o el equivalente a 530 millones de
canciones), que año con año se multiplica decenas de veces.
A su vez el Big Data ha permitido el resurgimiento del Machine Learning, no porque no se haya
concebido antes, porque desde que el hombre tuvo la necesidad de emplear máquinas para
optimizar el trabajo ha requerido formas más naturales de “comunicarse” con ellas, para pedirles
que realicen las tareas que son difíciles de hacer; sin embargo, hasta ahora es posible nutrirlas con
información suficiente como para que sepan bien que queremos que hagan sin decirles cómo
hacer cada cosa.
Volumen
Con Big data, se procesan grandes volúmenes de datos que no están
estructurados y son de baja densidad. Podrían ser datos de valor desconocido,
ejemplo: feeds de datos de Twitter, flujos de clics de una página web, aplicación
para móviles, equipo con sensores, etc. Para algunas compañías, esto puede
traducirse en decenas de terabytes de datos. Para otras, incluso petabytes.
La velocidad
Se refiere al ritmo al que se reciben los datos. Estos son transmitidos a
una gran velocidad y deben ser distribuidos de manera oportuna. Las
etiquetas FID, sensores y la medición inteligente crean la necesidad de
distribuir corrientes de datos casi en tiempo real.
La variedad
Esta se refiere a los diversos tipos de datos que están disponibles.
Anteriormente, los datos convencionales eran estructurados y se podían
organizar en una base de datos relacional. Gracias al auge del Big Data, los
datos se presentan en nuevos tipos de datos no estructurados. Los datos no
estructurados y semiestructurados, como por ejemplo el texto, audio o vídeo,
requieren de un preprocesamiento para poder obtener significado y habilitar
los metadatos.
Los principales usos del Big data
Desarrollo de productos: las empresas hacen uso del Big data para
predecir la demanda de los clientes, construyen modelos predictivos
a través el análisis y clasificación de atributos clave de productos
anteriores y actuales, posteriormente realizan la modelación de la
relación entre estas características y el éxito comercial de las ofertas.
Mantenimiento predictivo: por medio del análisis de indicadores de
problemas que pueden presentarse antes de que estos se ocurran,
las compañías tendrán la capacidad de realizar el mantenimiento de una
forma más rentable, además de optimizar el tiempo de servicio de sus
activos.
Experiencia del cliente: la disponibilidad de datos que permitan tener
una vista clara de cómo ha sido la experiencia del cliente permite
mejorar los servicios que se prestan, así como mejorar la interacción y la
fidelización del cliente.
Eficiencia operativa: al poder evaluar los procesos de producción
dentro de las empresas, anticipar la demanda, la opinión de los clientes y
la demanda futura, el Big data permite la mejora de los procesos
productivos y la toma de decisiones en tiempo real.
Impulso de la innovación: gracias a la disponibilidad de información
que ofrece el Big data, los procesos de innovación serán más
constantes y efectivos ya que este se basaría en información real y
confiable, mediante el estudio de las dependencias entre seres
humanos y las diferentes instituciones.
En la actualidad.
Big data posee numerosos usos y aporta importantes beneficios a aquel que haga uso de grandes
cantidades de datos.
Sin embargo…
Estos grandes volúmenes de información solo pueden ser procesados a través del aprendizaje
automático (MLearning), por lo que ambas disciplinas dependen una de la otra.
También es fundamental saber que los datos que alimentan los sistemas MLearning son eficientes
en la medida que la calidad de los datos de entrada es superior, por lo que el monitoreo de
entradas es crucial, evitando deliberadamente datos repetidos o atípicos (outlayers).