Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ANALYTICS Y
DATA SCIENCE
2022
AGENDA
▪ BIG DATA
▪ BUSINESS INTELLIGENCE
▪ DATA SCIENCE
▪ ANALITICA AVANZADA
– ANALITICA PREDICTIVA
– ANALITICA PRESCRIPTIVA
– ANALITICA COGNITIVA
“La información es la gasolina del siglo XXI,
y la analítica de datos el motor de combustión”
Peter Sondergaard
POBLACION MUNDIAL VS DISPOSITIVOS CONECTADOS
CADA MINUTO DEL DIA – DATOS 2021
TENDENCIAS TECNOLOGICAS DE TRANSFORMACION DIGITAL
REDES SOCIALES Cloud computing ciberseguridad
Todas estas tecnologías generan datos e información que puede ser procesada, correlacionada, analizada y transformada para
generar valor, pero es un verdadero reto porque son volúmenes gigantes de información que deben ser procesados en el menor
tiempo posible o en tiempo real para generar conclusiones y tomar decisiones.
APLICACIONES
• El desafío fue hacer la experiencia de usuario, que ese levantamiento de datos sea
posible, donde quiera que fuera generado y que la interpretación de esos datos con
algoritmos analíticos, sea posible.
DEFINICIONES
Los términos utilizados en el análisis de datos a menudo suele crear confusión, por eso es importante revisar las siguientes definiciones.
REFERENCIA LIBRO: Ciencia de Datos. Técnicas analíticas y aprendizaje estadístico , Jesús García´- José Molina – Antonio
Berlanga – Miguel A. Patricio – Alvaro L Bustamante – Washington R Padilla, Bogotá, 2018
BIG DATA
Estas dimensiones son las “3V” con las que
Gartner describió al Biga Data:
Se trata de los flujos de datos, la • Big data debe ser capaz de almacenar y trabajar en tiempo
creación de registros estructurados y la real con las fuentes generadoras de información como
disponibilidad para el acceso y la sensores, redes sociales, blogs, páginas webs, etc. que
VELOCIDAD entrega. Es decir, qué tan rápido se generan millones de datos.
están produciendo los datos, así como • Biga data debe tener la capacidad de analizar dichos datos
la rapidez en la que se trata de con la suficiente rapidez reduciendo los largos tiempos de
satisfacer la demanda de estos. procesamientos que presentaban las herramientas
tradicionales de análisis.
BIG DATA
DIMENSION CONCEPTO EJEMPLO
Esta variedad de datos incluye:
• Datos estructurados (bases de datos)
• Datos no estructurados
Es la capacidad de combinar una gran • Datos jerárquicos
VARIEDAD variedad de información digital en los • Documentos
diferentes formatos en los que se puede • Correo electrónico
presentar. Ya que ahora existen más tipos de • Datos de medición
información para analizar provenientes • Video
principalmente de los medios sociales, la • Imágenes fijas
complejidad aumenta. • Audio
• Datos de cotizaciones
• Transacciones financieras
• Etc.
BIG DATA
DIMENSION CONCEPTO
Es la capacidad de tratar y analizar inteligentemente este gran volumen de
VERACIDAD datos con la finalidad de obtener una información verídica y útil que permita
mejorar la toma de decisiones basada en los datos más exactos.
VALOR Hace referencia a los beneficios que se desprenden del uso de big data
(reducción de costes, eficiencia operativa, mejoras de negocio).
• Procesamiento
• Almacenaje distribuido
• Uso de algoritmos más eficientes
HERRAMIENTAS DE BIG DATA
Dentro del entorno de Big Data se suelen integrar herramientas de análisis de datos que permiten extraer
nuevo conocimiento a partir de la ingente cantidad de datos almacenada.
HERRAMIENTA DESCRIPCION
COMERCIAL
• Es una aplicación de código abierto, disponible de forma gratuita bajo Licencia Pública General de GNU.
• Soporta prácticamente todas las tareas estándar de data mining.
• Los algoritmos pueden ser aplicados directamente sobre un conjunto de datos o llamados desde código
Java.
• Proporciona acceso a bases de datos SQL gracias a que tiene conexión JDBC (Java database connectivity)
WEKA y puede procesar el resultado devuelto por una consulta hecha a la base de datos.
• No permite realizar minería de datos multirrelacional, pero existen aplicaciones que pueden convertir una
colección de tablas relacionadas de una base de datos en una única tabla que ya puede ser procesada con
Weka.
• Tiene una interfaz gráfica que facilita a los usuarios inexpertos identificar información oculta en bases de
datos y sistemas de archivos, utilizando simplemente las opciones de sus interfaces visuales.
HERRAMIENTAS DE BIG DATA
HERRAMIENTA DESCRIPCION
COMERCIAL
• Es una suite de software para aprendizaje automático y minería de datos basada en componentes,
desarrollada en el Laboratorio de Bioinformática de la Facultad de Ciencias de la Computación e
Informática de la Universidad de Liubliana, Eslovenia, junto con la comunidad de código abierto.
• Es un software libre que puede ser redistribuido o modificado bajo los términos de la Licencia Pública
General de la GNU y es distribuido pro Orange , Data Mining FruitFul & Fun, http://orange.biolab.si sin
ORANGE ninguna garantía.
• Incluye un amplio rango de técnicas de preproceso, modelado y exploración de datos.
• Está basada en componentes C++ a las que se puede acceder directamente a través de scripts Phyton o a
través de objetos GUI llamados Orange Widgets.
RAPIDMINER • Antes llamda YALE (Yet another learning environment) es un entorno que contiene procedimientos de
data mining y aprendizaje automático.
• El proceso de data mining puede hacerse mediante operadores arbitrariamente anidados, descritos en
ficheros XML y creados con la interfaz gráfica de usuario de RapidMiner.
• Está escrito en lenguaje de programación JAVA.
• Integra esquemas de aprendizaje y evaluadores de atributos del entorno Weka y esquemas de
modelización estadística de R-Project.
• Puede ser utilizado para minería de texto, minería multimedia, minería de flujo de datos, desarrollo de
métodos de conjunto y minería de datos distribuida.
HERRAMIENTAS DE BIG DATA
HERRAMIENTA DESCRIPCION
COMERCIAL
• Es un software gratuito de data mining para propósitos académicos y de investigación.
• Propone varios métodos de data mining, desde análisis exploratorio de datos, aprendizaje estadístico,
TANAGRA aprendizaje automático y del área de bases de datos.
• Contiene algo de aprendizaje supervisado, pero también otros paradigmas de clustering, análisis factorial,
estadística paramétrica y no paramétrica, reglas de asociación, selección de características y algoritmos de
construcción.
• Es una plataforma de código abierto para la integración de datos, procesamiento, análisis y exploración
KNIME (Konstanz desarrollada por la cátedra de Bioinformática y Minería de Información de la Universidad de Konstanz,
Information Alemania.
• Usa prácticas de ingeniería de software y actualmente está siendo utilizada por más de 6.000
Miner)
profesionales en todo el mundo, tanto en la industria como a nivel académico.
• Integra todos los módulos de análisis del entorno Weka y plugins adicionales permiten que se ejecuten R-
scripts, ofreciendo acceso a una vasta librería de rutinas estadísticas.
HERRAMIENTAS DE BIG DATA
HERRAMIENTA DESCRIPCION
COMERCIAL
• Es una opción de sistema de gestión de bases de datos relacional (RDBMS) de Oracle Database Enterprise
ORACLE DATA Edition (EE).
MINING (ODM) • Contiene varios algoritmos de minería de datos y análisis de datos para clasificación, predicción, regresión,
asociaciones, selección de características, detección de anomalías, extracción de características y análisis
especializado.
• Estas implementaciones se integran en el núcleo de la base de datos Oracle, y operan de forma nativa
sobre los datos almacenados en las tablas de bases de datos relacionales.
• El sistema está organizado en torno a unas pocas operaciones genéricas que proporcionan una interfaz
unificada general de las funciones de minería de datos.
• Originalmente llamda SPSS Clementine de SPSS Inc., después fue nombrada PASW Modeler, pero cuando
IBM SPSS en 2009 IBM adquirió SPSS Inc. Fue denominada IBM SPSS Modeler.
MODELER • Es una aplicación de software de data mining de IBM.
• Es una herramienta de data mining y de análisis de texto, utilizada para construir modelos predictivos.
• Tiene una interfaz visual que permite a los usuarios utilizar algoritmos estadísticos y de data mining sin
programar.
HERRAMIENTAS DE BIG DATA
HERRAMIENTA DESCRIPCION
COMERCIAL
• Es una potente herramienta de apoyo en el proceso de minería de datos con un diseño abierto y
extensible con un amplio conjunto de capacidades.
• Dispone de una interfaz de usuario fácil de usar, que permite a los usuarios empresariales construir y
valorar los mejores y más avanzados modelos predictivos y descriptivos de manera rápida y fácil,
SAS ENTERPRISE
mejorando la precisión de las predicciones y compartiendo información fiable para que los analistas de
MINER negocio puedan mejorar la calidad de sus decisiones disponiendo de conclusiones e ideas de forma
rápida, autosuficiente y automatizada.
CUADRANTE MAGICO DE GARTNER 2021
ETAPAS EN LOS PROCESOS DE BIG DATA
Las etapas del trabajo en Big Data incluyen muchas decisiones que deben ser tomadas por el usuario y
estructuradas de la siguiente manera:
➢ Comprensión del dominio de la aplicación, del conocimiento relevante y de los objetivos del usuario final.
➢ Creación del conjunto de datos.- Consiste en la selección del conjunto de datos, o del subconjunto de
variables o muestra de datos, sobre los cuales se va a realizar el descubrimiento.
➢ Reducción de los datos de proyección.- Encontrar las características más significativas para representar los
datos, dependiendo del objetivo del proceso. En este paso se pueden utilizar métodos de transformación
para reducir el número efectivo de variables a ser consideradas o para encontrar otras representaciones de
los datos.
ETAPAS EN LOS PROCESOS DE BIG DATA
➢ Elegir la tarea de minería de datos.- Decidir si el objetivo del proceso es: regresión, clasificación,
agrupamiento, etc.
➢ Elección del algoritmo(s) de minería de datos.- Selección del método(s) a ser utilizado para buscar los
patrones en los datos. Incluye además la decisión sobre qué modelos y parámetros pueden ser los más
apropiados.
➢ Minería de datos.- Consiste en la búsqueda de los patrones de interés en una determinada forma de
representación o sobre un conjunto de representaciones, utilizando para ello métodos de clasificación, reglas o
árboles, regresión, agrupación, etc.
➢ Interpretación de los patrones encontrados.- Dependiendo de los resultados, a veces es necesario regresar a
uno de los pasos anteriores.
ETAPAS EN LOS PROCESOS DE BIG DATA
➢ Consolidación del conocimiento descubierto.- Consiste en la incorporación de este conocimiento al
funcionamiento del sistema, o simplemente documentación e información a las partes interesadas.
Gran parte del esfuerzo del proceso de extraer conocimiento recae sobre la fase de
preparación de los datos que es crucial para tener éxito. La mayoría de los trabajos se
centran en la etapa de minería en la búsqueda de algoritmos que extraigan relaciones y
conocimiento de grandes cantidades de datos.
APLICACIONES DE BIG DATA
AREA DETALLE
• IDENTIFICAR PATRONES DE COMPRA DE LOS CLIENTES.- determinar cómo compran a partir de sus
principales características, conocer el grado de interés sobre tipos de productos, si compran determinados
productos en determinados momentos, etc.
• SEGMENTACION DE CLIENTES.- Consiste en la agrupación de los clientes con características similares, por
ejemplo demográficas. Es una importante herramienta en la estrategia de marketing que permite realizar
ofertas acordes a diferentes tipos de comportamiento de los consumidores.
MARKETING • PREDECIR RESPUESTAS A CAMPAÑAS DE MAILING.- Estas campañas son caras y pueden llegar a ser
molestas para los clientes a los que nos les interesa el tipo de producto promocionado, de modo que es
importante limitarlas a los individuos con una alta probabilidad de interesarse por el producto. Se
relaciona mucho con la segmentación de clientes.
INDUSTRIA • Bases de datos de dominio público conteniendo información sobre estructuras y propiedades de
FARMACEUTICA componentes químicos
• Resultados de universidades y laboratorios publicados en revistas técnicas
• Datos generados en la realización de experimentos
• Datos propios de la empresa
APLICACIONES DE BIG DATA
AREA DETALLE
BIOLOGIA • Con la finalización en lso próximos años del Proyecto Genoma Humano y el almacenamiento de
toda la información que está generando en base de datos accesibles por internet, el siguiente
reto consiste en descubrir cómo funcionan nuestros genes y su influencia en la salud. Existen
nuevas tecnologías (chips de ADN, proteómica, genómica funcional, variabilidad genética
individual) que están posibilitando el desarrollo de una “nueva biología” que permite extraer
conocimiento biomédico a partir de bases de datos experimentales en el entorno de un
ordenador, básicamente mediante técnicas de minería de datos y visualización. (BioInformática)
MINERIA DE TEXTOS • La minería de textos (text mining) surge ante el problema de extraer información
automáticamente a partir de masas de textos que son datos no estructurados, es decir, texto
plano.
• Existen varias aproximaciones a la representación de la información no estructurada:
• Bag of words.- cada palabra constituye una posición de un vector y el valor corresponde
con el número de veces que ha aparecido.
• N-gramas.- permite tener en cuenta el orden de las palabras. Trata mejor frases negativas
“..excepto..” , “..pero no..” que tomarían en otro caso las palabras que le siguen como
relevantes.
• Representación relacional (primer orden).- Permiten detectar patrones más complejos (si
la palabra X esta la izquierda de la palabra Y en la misma frase..)
• Categorías de conceptos
APLICACIONES DE BIG DATA
AREA DETALLE
• Es una tecnología usada para descubrir conocimiento interesante en todos los aspectos relacionados con
la web.
• El enorme volumen de datos en la web generado por la explosión se usuarios y el desarrollo de librerías
digitales hace que la extracción de la información útil sea un gran problema.
• La integración de herramientas de minería de datos puede ayudar a la extracción de información útil.
• Se puede clasificar en 3 grupos:
• Minería del contenido de la web (web content mining) que es extraer información del contenido
de los documentos en la web y se dividen en:
MINERIA DE • Text mining.- si los documentos son textuales (planos)
DATOS WEB • Hypertext mining.- si los documentos contienen enlaces a sí mismos o a otros documentos.
• Markup mining.- Si los documentos son semiestructurados
• Multimedia mining para imágenes, audio, videos, etc.
• Minería de la estructura de la web (web structure mining) que intenta descubrir un modelo a partir
de la tipología de enlaces de la red. Este modelo puede ser útil para clasificar o agrupar
documentos.
• Minería del uso de la web (web usage mining).- que intenta extraer información (los hábitos,
preferencias de los usuarios o contenidos y relevancia de documentos) a partir de las sesiones y
comportamiento de los usuarios navegantes.
APLICACIONES DE BIG DATA
AREA DETALLE
• En el cas de Twitter, la información (los tweets) es generada de forma masiva a una velocidad
vertiginosa propiciando la necesidad de un almacenamiento y procesamiento óptimos y
eficientes que gestionen este aumento exponencial de información al analizar en formato de
texto.
• Existen numerosas herramientas de análisis de datos y específicamente para twitter.
Generalmente estas herramientas organizan, clasifican o filtran la información de manera que los
REDES SOCIALES usuarios puedan monitorizarla y extraer conocimiento que de otro modo sería muy difícil.
• Tweet Binder.- organiza usuarios en listas, por ejemplo los más activos, los que generan
más impacto.
• Tweet Category.- saca estadísticas como por ejemplo el índice de actividad en una
conferencia que se mide por el porcentaje de usuarios que publican tweets sobre el total de
los asistentes.
• HashTracking.- que permite extraer un gráfico de la evolución del número de tweets
publicados en relación con un hashtag ( por ejemplo durante una conferencia)
BIG DATA LANDSCAPE
EL FUTURO DEL BIG DATA
➢LA TENDENCIA SON SERVICIOS basados en la nube son analitycs as a service
➢Permiten ver sus datos, permitan procesar sus datos y les vamos a entregar insights, por
eso es como un servicio.
➢Para esto estamos apalancando con todo el poder de cloud computing, tanto de
almacenamiento y poder de procesamiento, porque esos modelos muchas veces con un
volumen de datos necesitan de un poder de procesamiento muy elástico.
CASO DE ESTUDIO - BIG DATA
TIPO: Caso de estudio
TITULO: ¿Acaso Big Data trae consigo
grandes recompensas?
TAREA: Lectura del caso de estudio
(Libro Sistemas de Información gerencial, Kenneth C. Laudon, Jane P. Laudon,
décimocuarta edición, PEARSON Educación, México, 2016)
• MEJORAR EL MUNDO.- Dar poder a las personas para mejorar el mundo, por
ejemplo en la policía en USA e Inglaterra, BI les ayuda a los oficiales a responder
mejor las llamadas y reducir el índice de crímenes. O en los sistemas escolares
ayuda a entender efectos y tendencias en las calificaciones de los estudiantes
basándose en género, porcentaje de asistencia y métodos de enseñanza..
VENTAJAS DEL USO DE BUSINESS INTELLIGENCE EN LAS
ORGANIZACIONES
• Ahorro en costos y tiempos
• Incremento en la eficiencia
• Aumento de la productividad
5. Alinear la estrategia de BI con las metas del negocio al asegurar que TI y las metas
del negocio trabajen más como compañeros y no como adversarios.
MEJORES PRACTICAS PARA UNA INTELIGENCIA DE
NEGOCIOS EXITOSA
6. Descubrir la relevancia de BI para cada trabajador en la compañía al igual que clientes y
proveedores.
7. Utilizar procesos de desarrollo ágiles para llevar las capacidades y mejoras BI al ritmo
del cambio, en proporción con el ritmo del negocio.
8. Organizar equipos BI y expertos del éxito, para construir una solución centrada en la
empresa.
9. Elegir herramientas BI apropiadas que satisfagan las necesidades del usuario y del
negocio, en funcionamiento dentro de los estándares tecnológicos que TI puede apoyar
eficazmente.
Problema: Los procesos manuales de generación de informes restringían el acceso a los datos de
ventas y operaciones en tiempo real.
SOLUCION: Chipotle Mexican Grill es una cadena de restaurantes estadounidense que cuenta
con más de 2.400 locales en todo el mundo. Chipotle cambió su solución de BI tradicional por
una plataforma de BI de autoservicio moderna. Esto le permitió crear una vista centralizada de las
operaciones y hacer un seguimiento de la eficiencia operativa de los restaurantes a nivel nacional.
El personal ahora tiene un mayor acceso a los datos. Esto significa que la velocidad de entrega de
informes para proyectos estratégicos se triplicó y la entrega pasó de trimestral a mensual, lo que
permitió ahorrar miles de horas. “Este fue el paso que teníamos que dar para llevar las métricas y
la comprensión al siguiente nivel”, explicó Zach Sippl, director de inteligencia de negocios.
HELLOFRESH
AUMENTO DE LA CONVERSIÓN
EMPRESA: HelloFresh, empresa alemana, y el mayor proveedor de kits de comida en Estados
Unidos y con operaciones en Canadá, Europa occidental, Nueva Zelanda y Australia. Con más de
4.000 empleados.
PROBLEMA: La generación de informes de marketing digital era manual e ineficaz y demandaba
mucho tiempo.
SOLUCION: El equipo de análisis de marketing de HelloFresh, una empresa de entrega de comida
a domicilio, puso en práctica una solución de inteligencia de negocios centralizada, que le
permitió ahorrar entre 10 y 20 horas de trabajo por día mediante la automatización de procesos
de generación de informes. Además, el equipo de marketing principal pudo diseñar campañas
de marketing digital regionales e individualizadas.
Sobre la base de análisis agregados del comportamiento de clientes, HelloFresh creó 3 perfiles
de consumidor como ayuda para guiar sus esfuerzos. Al poder ver y hacer un seguimiento de
datos en tiempo real, el equipo puede reaccionar ante el comportamiento de los clientes y
optimizar las campañas de marketing. Como resultado, la empresa logró aumentar las tasas de
conversión y mejorar la retención de clientes
Por qué es necesario conocer esta Arquitectura?
Un almacén de datos es una base de datos que almacena la información actual e histórica de interés potencial
para los encargados de tomar decisiones en las compañías. Y pone a disposición los datos y herramientas de
consultas adhoc y estandarizadas, herramientas analíticas y facilidades de informes gráficos.
4. AGREGAMIENTO
ANALISIS DE DATOS MULTIDIMENSIONAL
SELECCIÓN DE EXTRACCION DE
SELECCION PREPROCESADO
CARACTERISTICAS CONOCIMIENTO
DATOS
EVALUACION
La minería de datos está mas orientada al descubrimiento, ya que provee perspectivas hacia los datos
corporativos que no se pueden obtener mediante OLAP, al encontrar patrones y relaciones ocultas en las
bases de datos grandes e inferir reglas a partir de estos patrones y relaciones, para predecir el
comportamiento a futuro.
Los patrones y reglas se usan para guiar la toma de decisiones y pronosticar el efecto de esas decisiones. MODELO
Los tipos de información que se pueden obtener de la minería de datos son: asociaciones, secuencias, CLASIFICADOR
clasificaciones, agrupamientos y pronósticos.
CONOCIMIENTO
5. VISUALIZACION
HERRAMIENTAS
Los resultados a visualizar para usuarios normales incluyen: informes, tableros de control y consultas
Y para usuarios avanzados incluyen: consultas, informes, OLAP y Minería de datos.
EVOLUCIÓN DE LAS HERRAMIENTAS DE BI
VISUALIZACION - CUADRANTE MAGICO DE GARTNER
ANALYTICS
DESCRIPTIVOS PREDICTIVOS
• Su objetivo es hallar patrones o resumir los datos. • Tienen como principal objetivo aproximar posibles
• No pretenden predecir nuevos datos a partir de la valores del futuro o desconocidos a través de los
información recabada. datos de los que ya se dispone.
• Los datos se presentan como un conjunto, sin estar • Los datos van acompañados de una salida (clase,
ordenados ni etiquetados. categoría o valor numérico).
• Las técnicas que se utilizan para estos modelos son: • Las técnicas que se utilizan para estos modelos son:
el agrupamiento, las reglas de asociación y el análisis la regresión y la clasificación
correlacional
ANALITICA DESCRIPTIVA
APLICACION
Un ejemplo para este tipo de tareas es la categorización de
documentos asignando categorías según el tipo de cada uno
de ellos.
TAREAS PREDICTIVAS - PREFERENCIAS O PRIORIZACION
➢ Teniendo 2 o más ejemplos del conjunto de datos, el
objetivo es elaborar un orden de preferencia según las
características que se busca.
➢Cada ejemplo de la base de datos forma una secuencia de
atributos < 𝑒1 , 𝑒2 ,…., 𝑒𝑘 > : 𝑒1 Ꞓ E , k ≥ 2
➢El orden que lleve esta secuencia representará la
preferencia.
➢El modelo está representado por un conjunto de datos
que se comparan por las preferencias en orden δ: {< 𝑒1 ,
𝑒2 ,…., 𝑒𝑘 > : 𝑒1 Ꞓ E }
➢A pesar de que la tarea es útil para ordenar un conjunto
grande de ejemplos, a menudo se emplea para calcular la
prioridad entre dos elementos únicos, en otras palabras,
para compararlos solo a ellos dos.
TAREAS PREDICTIVAS - PREFERENCIAS O PRIORIZACION
APLICACION
• Para esto se crea un modelo de optimización combinatoria que es llamado búsqueda operativa
que son modelos matemáticos demostrados por teoremas que consiguen la mejor asignación de
recursos para la situación que se está analizando y el objetivo planteado
MODELO DE MADUREZ ANALITICA DE BERSIN
• Informes y herramientas
• Comprender y
standard
recolectar los datos • Paciencia e interés en
• Implementar un
que se tienen una base de datos
ambiente de informes • Facilidad y capacidad
REACTIVO escalable, preciso y para responder a
• Desarrollar un • Buena relación con IT
sencillo cualquier pedido de
diccionario de datos
INFORMES informes
• Habilidad para
• Comprender todos
OPERACIONALES • Trabajar con IT para escribir, documentar
los datos y sistemas • Herramientas para
implementar y administrar
con los que se trabaja ayudar a los gerentes
herramientas de proyectos
que accedan y hagan
informes standard
uso de sus propios datos
MODELO DE MADUREZ ANALITICA DE BERSIN
Nivel Proactivo
Este nivel incluye la realización de informes operacionalizados para hacer comparaciones (benchmarking) y tomar
decisiones. Se cuenta con análisis multidimensional y tableros, haciendo cortes, viendo y comparando segmentos. Se
podría decir que están en business intelligence. Según Bersin el 20% de empresas están en este nivel.
• Un modelo de
• Expandir las habilidades y el
planificación que describa
expertise analítico • Habilidades de modelado
• Utilizar/Desarrollar como mejorar el
y estadística más compleja
modelos que desempeño
• Vincular la planificación del
puedan predecir
negocio, financias y demás • Planificación de negocios y
escenarios futuros • Modelos reproducibles
ANALISIS áreas de la organización financiera
que puedan ser
PREDICTIVO • Integrar este extendidos a nuevos
• Expandir las relaciones con • Profundizar el
trabajo con la dominios
datos de terceros y conocimiento en los
planificación de las • Credibilidad con finanzas
empresas de consultoría procesos del área y
áreas y del negocio
• Aumentar el compromiso negocio
• Funciones analíticas
con la función de Analytics
integradas y estratégicas
DATA SCIENCE
Disciplina comprendida como la extracción de conocimiento de un conjunto de datos.
Incluye la utilización de conocimientos, habilidades y métodos propios de la estadística, ciencias
de la computación, matemática, gestión de bases de datos, visualización, inteligencia artificial,
entre otras.
• El desafío de los profesionales de esta disciplina es poder analizar e
interpretar datos de múltiples fuentes y formatos para poder
comprender fenómenos, teniendo eventualmente como objetivo
generar productos y soluciones basadas en sus análisis.
Este es un proceso iterativo, porque según lo que se encuentre se puede requerir volver a etapas anteriores. Esto no
es negativo significa que se tiene una mejor comprensión de lo que ocurre en los datos.
Es frecuente que se redefina el abordaje del problema y cada sucesiva modificación implica cierto aprendizaje que
facilitará llegar al objetivo.
BIBLIOGRAFIA
1. Ciencia de Datos. Técnicas analíticas y aprendizaje estadístico , Jesús García´- José Molina – Antonio Berlanga –
Miguel A. Patricio – Alvaro L Bustamante – Washington R Padilla, Bogotá, 2018
2. HR Analytics. Gestión de Personas, Datos y Decisiones, Juan M. Bodenheimer, Afaomega, Argentina 2018
3. Sistemas de Información gerencial, Kenneth C. Laudon, Jane P. Laudon, décimocuarta edición, PEARSON
Educación, México, 2016
4. Clegg Dai, Big Data: The Data Velocity Discussion, Artículo Web http://thinking.netezza.com/blog/
big-data-data-velocity-discussion
4. http://www.gartner.com/technology/research/methodologies/research_mq.jspç
5. https://www.accenture.com/us-en/insight-big-data-research