Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Análisis
Análisis
de datos
componentes
Entrada de datos
Captura de datos
Tipos de datos
La depuración de los datos
Integridad de los datos
Codificación (cifrado) de datos
Transformación de datos
Traducción de datos
Resúmenes de datos
Agregación de datos
Validación de datos
Modelado de datos
El análisis de datos
El análisis de datos estadístico
Visualización de datos
Almacenamiento de datos
Minería de datos
Interpretación de datos
1. Microsoft Power BI
Power BI es la herramienta analítica de Microsoft y una de las más populares,
ya que ofrece visualizaciones interactivas de datos, así como una integración
sencilla con otras herramientas de la corporación. Además, Power BI puede
integrarse en aplicaciones de terceros mediante Power BI Embedded y permite
compartir reports y análisis de datos de forma muy segura. Puede conectarse
con más de 60 fuentes de datos, como Spark, Hadoop o SAP y es fácil de
utilizar incluso para usuarios sin conocimientos técnicos.
Bismart es partner Power BI de Microsoft y llevamos años trabajando con esta
herramienta para conseguir aportar las mejores soluciones a nuestros clientes.
2. Programación en R
Esta es una de las mejores herramientas analíticas disponibles en la industria
hoy en día. Se utiliza principalmente para el modelado de datos y estadísticas.
Esta herramienta es muy fácil de usar y hace posible y fácil manipular y
presentar los datos de muchas maneras. Supera a muchas otras herramientas
en términos de rendimiento, capacidad de datos y resultados. Funciona en
múltiples plataformas, incluyendo MacOS, Windows, UNIX, etc.
Dependiendo de los requerimientos, tiene más de 11.000 paquetes y se
clasifican por categoría y se instalan automáticamente.
3. SAS
Esta herramienta fue desarrollada inicialmente en 1966 en el Instituto SAS, y
luego mejorada en los años 80 y 90, y es también una de las herramientas
líderes en análisis de datos. Es un lenguaje de programación que permite
manipular los datos fácilmente. Es muy manejable, accesible y tiene la
capacidad de analizar un dato independientemente de la fuente de datos. En
2011, SAS lanzó un conjunto de productos, para sus múltiples módulos SAS
que incluyen redes sociales, web, análisis de marketing, etc. Ahora se usa
ampliamente para hacer perfiles tanto de clientes como de prospectos y para
predecir sus comportamientos y optimizar la comunicación con ellos.
4. Rapid Miner
Esta es una potente herramienta para el data science integrado. Fue
desarrollada por una compañía que también realiza análisis predictivos y
algunos análisis más avanzados como machine learning, análisis de texto,
análisis visual y minería de datos sin necesidad de programación. Esta
herramienta puede incorporarse a cualquier tipo de fuente de datos,
incluyendo Excel, Oracle, IBM SPSS, Teradata, Access, Microsoft SQL,
Dbase, Sybase, etc. Esta herramienta es capaz de generar análisis tomando
como base los ajustes de transformación de los datos de la vida real, lo que
significa que puede controlar los conjuntos de datos y los formatos para el
análisis predictivo.
5. Excel
Excel es una herramienta analítica muy popular y casi fundamental. Es una
herramienta bastante básica, aunque muy versátil y se utiliza en prácticamente
todas las industrias. No importa si eres experto en SAS, Tableau o
programación en R, o incluso si solo te dedicas a escribir ensayos
personalizados, necesitas aprender a usar Excel también. Esta herramienta
juega un gran papel cuando deben analizarse los datos internos de un cliente.
Aunque que es una herramienta básica, también tiene una opción avanzada de
business analytics para las capacidades de modelado con opciones
preconstruidas como la agrupación de tiempo, funciones DAX y relación
automática.
6. Tableau Public
Tableau Public es un software gratuito que conecta diferentes fuentes de datos,
como Microsoft Excel, Data Warehouse, datos basados en la web, etc. y crea
dashboards, mapas y visualizaciones que tienen actualizaciones en tiempo real
desde la web. También puedes compartirlos con un cliente o a través de los
medios sociales. Una vez que tienes acceso, puedes descargar diferentes
formatos para un archivo. Para disfrutar típicamente de esta herramienta y ver
su poder, tu fuente de datos debe ser muy buena. La capacidad de Big Data de
esta herramienta la hace importante y el hecho de que puedas analizar y
visualizar los datos mucho mejor que otros programas de visualización de
datos les da una ventaja.
7. Apache Spark
Apache fue desarrollado en 2009 en el laboratorio de AMP de Berkeley en la
Universidad de California. Esta herramienta es un motor de procesamiento de
datos que funciona a gran escala y puede ejecutar aplicaciones que ya están en
clusters Hadoop más rápido (hasta 10 veces) en disco y hasta 100 veces más
rápido si está en memoria. El concepto de esta herramienta hace que la ciencia
de los datos (en la que se basa) sea muy fácil. Es una herramienta muy popular
para el desarrollo de modelos de aprendizaje de máquinas y pipelinesde datos.
También tiene una biblioteca llamada MLib, de donde se pueden obtener
técnicas para data sciencerepetitivo como el filtrado de colaboración,
regresión, clasificación, etc. a partir de un conjunto avanzado de algoritmos.
8. Python
Se trata de una herramienta de open source y un lenguaje de scripts orientado
a los objetos y muy fácil de mantener, leer y escribir. Python fue desarrollado
a finales de los 80 por Guido van Rossum para soportar tanto métodos de
programación estructurados como funcionales. Aprender a usar esta
herramienta es muy fácil y tiene muchas similitudes con otros lenguajes como
Ruby, JavaScript y PHP. Tiene bibliotecas para el aprendizaje automático y
puede usarse en plataformas como JSON, base de datos MongoDB, servidor
SQL.
9. Qlik View
Esta herramienta tiene una serie de características únicas, algunas de las cuales
son el procesamiento de datos en memoria y la tecnología patentada para
ayudarle a ejecutar su resultado rápidamente y almacenar todos los datos que
están presentes en el informe. Esta herramienta mantiene automáticamente la
asociación de datos y puede comprimirlos a sólo el 10% del tamaño inicial.
Visualiza la relación de los datos con los colores, con un color dado a los
datos relacionados y otro a los datos no relacionados.
Todas estas herramientas facilitan enormemente el análisis de datos y
cualquiera de ellas optimizará la gestión de los datos. Todas funcionan de
manera diferente, con diferentes capacidades y ofrecen diferentes
características. Solo debemos conocer bien nuestras necesidades para poder
elegir la que mejor se adapte a ellas.
aplicaciones
Ejempl
o de Toronto, utilizan IBM InfoSphere, una plataforma de Big Data
El Instituto de Tecnología de la Universidad de Ontario (UOIT) junto con el
Hospital
El análisis de datos masivos también se utiliza a la hora de controlar y predecir
la evolución de las epidemias y brotes de enfermedades. Integrando datos de
historiales clínicos con análisis de datos de redes sociales pueden detectar
brotes de gripe en tiempo real simplemente escuchando lo que la gente publica
en sus perfiles públicos.
Otras aplicaciones científicas prácticas llevan más tiempo: reconocimiento del
habla, procesamiento imágenes en el cerebro para ciegos,… pero es con el big
data cuando los resultados están consiguiendo avances significativos.