Está en la página 1de 7

<<

Análisis
Análisis
de datos

¿Qué es el análisis de El análisis de datos


es el estudio
datos? exhaustivo de un
conjunto de
Nos referimos a la examinación e interpretación de
información cuyo
una base de datos, con el fin de llegar a la
objetivo es obtener
resolución de un problema o cuestionamiento, los
conclusiones que
datos pueden ser objeto de operaciones, por
ejemplo, para obtener indicadores estadísticos. permitan a una
empresa o entidad
Es un proceso de la ciencia de datos que se da luego de la recolección de la
información, este análisis incluye todas las herramientas a las que podemos
recurrir para el estudio de una base de datos, incluso las visuales como el
histograma, el diagrama de barras, el gráfico circular, entre otros.
El análisis de datos puede tener distintas
aplicaciones, tanto para empresas como
Herramientas del análisis para organizaciones estatales o aquellas que
de datos: tienen objetivos no lucrativos. Por ejemplo,
Para el análisis de datos una entidad que busca reducir la
existen diferentes desnutrición infantil en un país, estará
herramientas que constantemente evaluando los índices de
anemia de los niños en un determinado
provienen de campos de
rango de edad.
estudios como la

Tipos de análisis de datos


El análisis de datos puede ser de dos tipos:
Cuantitativo: Cualitativo:
La información es numérica a partir Se trata de información obtenida de
de la cual se pueden elaborar una base de datos presentada
estadísticas exactas. Por ejemplo, las usualmente en forma textual. Por
calificaciones obtenidas por los ejemplo, un grupo objetivo donde se
alumnos de una clase en el último ha consultado a los participantes su
semestre. opinión sobre un nuevo producto.

componentes

Entrada de datos
Captura de datos
Tipos de datos
La depuración de los datos
Integridad de los datos
Codificación (cifrado) de datos
Transformación de datos
Traducción de datos
Resúmenes de datos
Agregación de datos
Validación de datos
Modelado de datos
El análisis de datos
El análisis de datos estadístico
Visualización de datos
Almacenamiento de datos
Minería de datos
Interpretación de datos

programas que se utilizan


La importancia del análisis de datos ha seguido aumentando en los últimos
años, lo que ha dado lugar a una importante apertura del mercado mundial.
Así, las herramientas de análisis de datos también han tomado un lugar central
y ahora hay un número tan elevado de ellas que se hace difícil escoger la más
adecuada.
El análisis de datos ya no se puede entender como un proceso único y debe
estar relacionado con la integración de datos, el data consolidation y el data
quality. A continuación, se presentan algunas herramientas de análisis de datos
que puede utilizarse para una gestión de datos perfect

1. Microsoft Power BI
Power BI es la herramienta analítica de Microsoft y una de las más populares,
ya que ofrece visualizaciones interactivas de datos, así como una integración
sencilla con otras herramientas de la corporación. Además, Power BI puede
integrarse en aplicaciones de terceros mediante Power BI Embedded y permite
compartir reports y análisis de datos de forma muy segura. Puede conectarse
con más de 60 fuentes de datos, como Spark, Hadoop o SAP y es fácil de
utilizar incluso para usuarios sin conocimientos técnicos.
Bismart es partner Power BI de Microsoft y llevamos años trabajando con esta
herramienta para conseguir aportar las mejores soluciones a nuestros clientes.

2. Programación en R
Esta es una de las mejores herramientas analíticas disponibles en la industria
hoy en día. Se utiliza principalmente para el modelado de datos y estadísticas.
Esta herramienta es muy fácil de usar y hace posible y fácil manipular y
presentar los datos de muchas maneras. Supera a muchas otras herramientas
en términos de rendimiento, capacidad de datos y resultados. Funciona en
múltiples plataformas, incluyendo MacOS, Windows, UNIX, etc.
Dependiendo de los requerimientos, tiene más de 11.000 paquetes y se
clasifican por categoría y se instalan automáticamente.

3. SAS
Esta herramienta fue desarrollada inicialmente en 1966 en el Instituto SAS, y
luego mejorada en los años 80 y 90, y es también una de las herramientas
líderes en análisis de datos. Es un lenguaje de programación que permite
manipular los datos fácilmente. Es muy manejable, accesible y tiene la
capacidad de analizar un dato independientemente de la fuente de datos. En
2011, SAS lanzó un conjunto de productos, para sus múltiples módulos SAS
que incluyen redes sociales, web, análisis de marketing, etc. Ahora se usa
ampliamente para hacer perfiles tanto de clientes como de prospectos y para
predecir sus comportamientos y optimizar la comunicación con ellos.
4. Rapid Miner
Esta es una potente herramienta para el data science integrado. Fue
desarrollada por una compañía que también realiza análisis predictivos y
algunos análisis más avanzados como machine learning, análisis de texto,
análisis visual y minería de datos sin necesidad de programación. Esta
herramienta puede incorporarse a cualquier tipo de fuente de datos,
incluyendo Excel, Oracle, IBM SPSS, Teradata, Access, Microsoft SQL,
Dbase, Sybase, etc. Esta herramienta es capaz de generar análisis tomando
como base los ajustes de transformación de los datos de la vida real, lo que
significa que puede controlar los conjuntos de datos y los formatos para el
análisis predictivo.

5. Excel
Excel es una herramienta analítica muy popular y casi fundamental. Es una
herramienta bastante básica, aunque muy versátil y se utiliza en prácticamente
todas las industrias. No importa si eres experto en SAS, Tableau o
programación en R, o incluso si solo te dedicas a escribir ensayos
personalizados, necesitas aprender a usar Excel también. Esta herramienta
juega un gran papel cuando deben analizarse los datos internos de un cliente.
Aunque que es una herramienta básica, también tiene una opción avanzada de
business analytics para las capacidades de modelado con opciones
preconstruidas como la agrupación de tiempo, funciones DAX y relación
automática.

6. Tableau Public
Tableau Public es un software gratuito que conecta diferentes fuentes de datos,
como Microsoft Excel, Data Warehouse, datos basados en la web, etc. y crea
dashboards, mapas y visualizaciones que tienen actualizaciones en tiempo real
desde la web. También puedes compartirlos con un cliente o a través de los
medios sociales. Una vez que tienes acceso, puedes descargar diferentes
formatos para un archivo. Para disfrutar típicamente de esta herramienta y ver
su poder, tu fuente de datos debe ser muy buena. La capacidad de Big Data de
esta herramienta la hace importante y el hecho de que puedas analizar y
visualizar los datos mucho mejor que otros programas de visualización de
datos les da una ventaja.
7. Apache Spark
Apache fue desarrollado en 2009 en el laboratorio de AMP de Berkeley en la
Universidad de California. Esta herramienta es un motor de procesamiento de
datos que funciona a gran escala y puede ejecutar aplicaciones que ya están en
clusters Hadoop más rápido (hasta 10 veces) en disco y hasta 100 veces más
rápido si está en memoria. El concepto de esta herramienta hace que la ciencia
de los datos (en la que se basa) sea muy fácil. Es una herramienta muy popular
para el desarrollo de modelos de aprendizaje de máquinas y pipelinesde datos.
También tiene una biblioteca llamada MLib, de donde se pueden obtener
técnicas para data sciencerepetitivo como el filtrado de colaboración,
regresión, clasificación, etc. a partir de un conjunto avanzado de algoritmos.

8. Python
Se trata de una herramienta de open source y un lenguaje de scripts orientado
a los objetos y muy fácil de mantener, leer y escribir. Python fue desarrollado
a finales de los 80 por Guido van Rossum para soportar tanto métodos de
programación estructurados como funcionales. Aprender a usar esta
herramienta es muy fácil y tiene muchas similitudes con otros lenguajes como
Ruby, JavaScript y PHP. Tiene bibliotecas para el aprendizaje automático y
puede usarse en plataformas como JSON, base de datos MongoDB, servidor
SQL.

9. Qlik View
Esta herramienta tiene una serie de características únicas, algunas de las cuales
son el procesamiento de datos en memoria y la tecnología patentada para
ayudarle a ejecutar su resultado rápidamente y almacenar todos los datos que
están presentes en el informe. Esta herramienta mantiene automáticamente la
asociación de datos y puede comprimirlos a sólo el 10% del tamaño inicial.
Visualiza la relación de los datos con los colores, con un color dado a los
datos relacionados y otro a los datos no relacionados.
Todas estas herramientas facilitan enormemente el análisis de datos y
cualquiera de ellas optimizará la gestión de los datos. Todas funcionan de
manera diferente, con diferentes capacidades y ofrecen diferentes
características. Solo debemos conocer bien nuestras necesidades para poder
elegir la que mejor se adapte a ellas.
aplicaciones

Cuantificación y optimización de rendimiento personal


El big data no sólo es para empresas y para instituciones públicas o grandes
organizaciones. Todos podemos beneficiarnos de los datos generados de
dispositivos wearables como smart watches o pulseras. Estos dispositivos
registran automáticamente datos de consumos de calorías (Fitbit), niveles de
actividad y condición física (Google Fit, Apple Watch), o patrones de sueño.
Aunque a nivel particular ya nos desvelan información interesante, el
verdadero valor reside en analizar el conjunto de datos de todo el colectivo.
Una de estas empresas, Jawbone, recoge en torno a 60 años de datos de sueño
cada noche. Analizando estos volúmenes de datos desvelarán insights que
beneficiarán a todos los usuarios.
Otro ejemplo donde la gente se beneficia del análisis del big data es para
buscar a cupido. A la hora de encontrar a la mejor pareja compatible hacerlo
sin la ayuda de algoritmos y técnicas de big data sería prácticamente
imposible.

Mejorando la Salud Pública


Una área de uso de datos masivos colectivos es el de la codificación de
material genético. Cuantos más usuarios participan más beneficios se
obtienen, bien para saber más sobre nuestros ancestros, qué dieta o alimentos
son más adecuados para nuestro genotipo, o para descubrir cómo o porqué se
activan determinados genes que pueden derivar en enfermedades crónicas.
La capacidad de procesamiento de plataformas de análisis de big data nos
permite ya descodificar cadenas enteras de ADN en cuestión de minutos y
permitirá encontrar nuevos tratamientos y comprender mejor las
enfermedades, sus desencadenantes y los patrones de propagación. Piense qué
sucederá cuando todos los dispositivos y sensores que llevamos encima (y
cada vez llevaremos más) con marcadores de nuestro cuerpo se apliquen a
millones de otras personas. Los ensayos clínicos del futuro no tendrán que
estar limitados a muestras pequeñas sino que todo el mundo podrá formar
parte.

Ejempl
o de Toronto, utilizan IBM InfoSphere, una plataforma de Big Data
El Instituto de Tecnología de la Universidad de Ontario (UOIT) junto con el
Hospital
El análisis de datos masivos también se utiliza a la hora de controlar y predecir
la evolución de las epidemias y brotes de enfermedades. Integrando datos de
historiales clínicos con análisis de datos de redes sociales pueden detectar
brotes de gripe en tiempo real simplemente escuchando lo que la gente publica
en sus perfiles públicos.
Otras aplicaciones científicas prácticas llevan más tiempo: reconocimiento del
habla, procesamiento imágenes en el cerebro para ciegos,… pero es con el big
data cuando los resultados están consiguiendo avances significativos.

También podría gustarte