Está en la página 1de 53

El análisis de datos como base para la toma de decisiones en el sector Salud

El análisis de datos como base


para la toma de deciciones
en el sector Salud

1
© Universidad EAN
Carrera 11 No. 78-47
Bogotá D.C., Colombia

Prohibida la reproducción
parcial o total de este texto sin autorización de la
Universidad EAN

Gerencia de
Proyección y Crecimiento

Diana Carolina Gutiérrez Acosta


Coordinadora Gestión de Extensión y Consultoría

María Del Carmen Sanabria Carmona


Coordinadora Académica

Julián Grijalba
Autora

María Eugenia Mila E.


Diseño y diagramación

2
El análisis de datos como base para la toma de decisiones en el sector Salud

Contenido
1. Fundamentos de la Analítica de Datos................. 4
1.1 ¿Qué es la inteligencia artificial?.................... 4
1.2 Herramientas de estadística descriptiva
para análisis de datos...................................... 7
1.3 Power BI en Analytics, Machine
Learning y Data Science.................................. 19

2. Construyendo modelos analíticos en Power BI..... 22
2.1 Análisis de la relevancia del
modelo para el negocio ................................. 25
2.2 Preparación de los datos de fuentes
estructuradas con Power BI ........................... 28
2.3 Analizar la calidad de los datos con Power Query 37
2.4 Power BI Dataflows.......................................... 40
2.5 Análisis Multidimensional............................... 41
2.6 Analítica descriptiva en Power BI.................... 46

3. Taller práctico ....................................................... 51


Bibliografía.................................................................. 52

3
1. Fundamentos de la Analítica de Datos


Hace solo unos años, la analítica de grandes volúmenes de
datos era considerada como una de las tendencias con mayor
propensión de influenciar el desarrollo de los negocios. Hoy, es una
realidad que las empresas deben enfrentar para poder competir
de forma más eficiente. Con este fin se ha preparado una guía,
en donde se dan a conocer al estudiante, los conceptos claves
relacionadas con la analítica de datos, tales como: la inteligencia
artificial y sus estadísticas. Así mismo, se le brindarán las bases
para crear herramientas que permitan transforman los datos en
conocimiento para su organización.

1.1 ¿Qué es la inteligencia artificial?

La inteligencia artificial (AI), es un campo interdisciplinario


que integra esfuerzos de varias áreas del conocimiento como es
la lógica, las matemáticas, ingeniería, informática, psicología y,
más recientemente, la ética. El continuo desarrollo en este campo
y su rápida expansión tecnología, genera mucho interés; y por
otro lado también genera temores y controversias sobre todo
entre los inversores que están interesados en empresas con un
alto potencial de desarrollo, pero que tienen miedo de invertir
en proyectos que simplemente no entienden. En este capítulo
se presentan los conceptos y métodos básicos de la inteligencia
artificial. En la introducción se describen, la relación que tiene esta
con los algoritmos de aprendizaje automático (Machine Learning)
y se finaliza con servicios de AI al alcance de nuestras manos.

4
El análisis de datos como base para la toma de decisiones en el sector Salud

Los esfuerzos que ha realizado la humanidad por crear


estructuras inteligentes datan de siglos atrás, siempre enfocados
en diseñar soluciones que reflejen con mayor exactitud la forma
de pensar y trabajar. De hecho, podemos resumir que toda esta
área del conocimiento se ha generado por la tentación natural
que ha tenido el ser humano de “re-crearse”.

Este punto comienza a formalizarse en los años 1950 cuando


Alan Turing plantea por primera vez en la historia la siguiente
pregunta “¿Pueden pensar las máquinas?” (Turing, A. M., 1950). Y
para poder dar respuesta a esto, él creó una prueba llamada Test
de Turing la cual consiste en términos sencillos, de un escenario
de prueba en el que hay dos participantes, un hombre y una
máquina.

Figura 1. Prueba de Turing

Fuente. Banfi, V. (2020, 14 diciembre).

5
El evaluador debe interactuar con ambos utilizando la pantalla
del computador y las interfaces del teclado, para asegurarse de
que la máquina no está limitada en la prueba por su incapacidad
de hablar. Si el evaluador no puede distinguir entre la máquina y el
hombre, la prueba es satisfactoria, Así pues, la pregunta “¿Pueden
pensar las máquinas?” fue planteada mucho antes de que se
iniciara la inteligencia artificial como disciplina.

Gracias a las redes sociales y los métodos masivos de comu-


nicación, usualmente cuando se habla de datos, se mencionan
definiciones como el aprendizaje automático (Machine Learning)
y es necesario aclarar si esta disciplina tiene o no relación con la
inteligencia artificial (AI).

Para ello es necesario señalar que la inteligencia artificial (AI)


se centra más en la creación de máquinas inteligentes, mientras
que el aprendizaje automático (ML) se concentra en añadir
capacidades de aprendizaje a sus soluciones. Así, el ML habla de
máquinas inteligentes que pueden aprender mientras la IA se
enfoca en cualquier sistema que evalúa situaciones y responde de
una forma que puede ser interpretada como inteligente.

Por lo tanto, se puede decir que, los sistemas ML son aquellas


herramientas de IA que tienen capacidad de aprendizaje. Por
ejemplo, un sistema de este tipo podría observar una parte de
una imagen que, muestre un espejo de un carro e interprete que
se trata de un automóvil.

6
El análisis de datos como base para la toma de decisiones en el sector Salud

Figura 2. Inteligencia artificial y sus subgrupos de trabajo

Fuente. Raza, M. (2021, 8 mayo).

Así, en términos sencillos, la IA y el ML se centran en


completar tareas o actividades específicas con funciones limitadas,
utilizando escenarios preprogramados (IA) o con capacidades de
aprendizaje mediante patrones (ML). Pero no pueden pensar
como los humanos u otras entidades pensantes (por ejemplo, una
herramienta de imagen médica de IA podría reconocer y clasificar
los datos introducidos como imágenes en diferentes categorías de
cáncer). Por el contrario, un sistema de imágenes médicas basado
en ML también aprenderá con el tiempo a aumentar su alcance
identificando más tipos de canceres con las nuevas imágenes
que estén llegando. Esto suena muy interesante, sin embargo,
ninguna de estas máquinas podría transferir su aprendizaje a otro
campo nuevo como nosotros los seres humanos lo hacemos. En
pocas palabras, el modelo está diseñado para un solo objetivo,
detección y tratamiento del cáncer; no podría ayudar en otras
áreas temáticas.

7
Si nos centramos en todo lo descrito anteriormente, ML y
AI se centran en un mismo objetivo, es decir, en encontrar una
solución que se adapte mediante el aprendizaje preprogramado o
ampliando el aprendizaje con nuevas experiencias, para mejorar la
resolución de problemas. Es aquí donde la computación cognitiva
amplia generosamente el campo de acción y va un paso más allá
en el sentido de que, simula un comportamiento similar al de la
cognición humana. Su funcionamiento se engrana de una manera
que pueda articularse para asemejarse a la mente humana, por
ejemplo, puede “pensar” aplicando ML para responder de forma
inteligente a través del procesamiento natural de lenguaje (IA), con
ello podemos identificar nuevas áreas de problemas y proponer/
construir soluciones nuevas en torno a ellas.

Por supuesto, todo lo anterior está limitada a las fuentes


de conocimiento a las que se conecte, aunque en realidad, las
capacidades cognitivas humanas también están limitadas de la
misma manera.

Para seguir ahondado en este punto se recomiendan las


siguientes lecturas:

• La guía ejecutiva de la inteligencia artificial. https://www.


getabstract.com/es/resumen/la-guia-ejecutiva-de-la-
inteligencia-artificial/34769?dfs=bqnehepdbpshprxtdkjwijcdtq
kkib&rf=AJTFTTVWFB

• Ampliar el impacto de la IA con el aprendizaje organizativo


https://www.getabstract.com/es/resumen/ampliar-el-
impacto-de-la-ia-con-el-aprendizaje-organizativo/41410?dfs=l
oloabudcnfudclnaosadvwbcmtzpt&rf=AJTFTTVWFB

8
El análisis de datos como base para la toma de decisiones en el sector Salud

• Las diferentes nubes (cloud) disponen de una serie de servicios


cognitivos al alcance de nosotros, pueden investigar un poco
más en Azure https://azure.microsoft.com/es-es/services/
cognitive-services/ o en AWS https://aws.amazon.com/es/
machine-learning/ai-services/

1.2 Herramientas de estadística descriptiva para análisis


de datos

La estadística es una de las herramientas más poderosas que


tenemos a nuestro alcance para poder aplicar ciencia de los datos,
más allá de las herramientas tecnológicas que tenemos a nuestro
alcance. Desde una perspectiva de alto nivel, la estadística es el uso
de las matemáticas para realizar análisis técnicos de datos. Una
visualización básica, como un gráfico de barras, puede brindarle
información de alto nivel, pero con las estadísticas podemos
operar con los datos de una manera mucho más orientada y
basada en la información. Las matemáticas involucradas nos
ayudan a formar conclusiones concretas sobre nuestros datos en
lugar de simplemente estimarlos.

Gracias a la estadística, podemos obtener conocimientos


más profundos y precisos sobre cómo se estructuran y comportan
nuestros datos y, basándonos en esto, cómo podemos aplicar de
forma óptima otras técnicas de ciencia de datos para obtener aún
más conocimiento sobre el asunto objeto de estudio.

A continuación, se describirán cinco conceptos claves en


estadística que se deben conocer y cómo se pueden aplicar de
forma más eficaz a cualquier conjunto de datos.

9
a) Características estadísticas

Estas características son probablemente el concepto de


estadística más utilizado en la ciencia de datos. A menudo, es
la primera técnica de estadística que se aplicaría al explorar un
conjunto de datos e incluye conceptos como sesgo, varianza,
media, mediana, percentiles y muchos otros. Vamos a ver la
siguiente ilustración y a visualizar como se utilizan:

Figura 3. Diagrama de caja

Fuente. Plasencia, E. (s. f.).

La línea del medio es el valor de la mediana de los datos, esta


se usa comúnmente para evitar los inconvenientes que generan
los promedios con los valores atípicos o extremos. El primer
cuartil (Q1) es esencialmente el percentil 25; es decir, el 25% de
los puntos de los datos que caen por debajo de ese valor. El tercer
cuartil (Q3) es el percentil 75; es decir, el 75% de los puntos de
los datos que caen por debajo de ese valor. Los valores mínimo y
máximo representan los extremos superior e inferior de nuestro
rango de datos.

10
El análisis de datos como base para la toma de decisiones en el sector Salud

Un diagrama de caja ilustra lo que podemos hacer con las


características estadísticas básicas:

• Cuando el diagrama de caja es corto, implica que muchos de


sus puntos de datos son similares, ya que hay muchos valores
en un rango pequeño.

• Cuando el diagrama de caja es amplio, implica que muchos de


sus puntos de datos son bastante diferentes, ya que los valores
se distribuyen en un extenso rango.

• Si el valor de la mediana está más cerca de la parte inferior,


entonces sabemos que la mayoría de los datos tienen valores
más bajos. Si el valor de la mediana está más cerca de la parte
superior, entonces sabemos que la mayoría de los datos tienen
valores más altos. Básicamente, si la línea mediana no está en
el medio del cuadro, es una indicación de datos sesgados.

Toda esa información de unas pocas características estadís-


ticas simples que son fáciles de calcular. De hecho, podemos incluir
también en este análisis un diagrama de cajas y bigotes, para poder
profundizar esto se aconseja acceder al siguiente video: Construir &
interpretar un diagrama de caja y bigotes. (2019, 7 mayo). YouTube.
https://www.youtube.com/watch?v=GBNpyyApgdA .Este diagrama
nos permite entender desviación estándar y varianza de los datos,
es decir, si los valores están dispersos y varían mucho. Pruébenlo,
siempre que necesite una vista rápida para entender sus datos.

11
b) Distribuciones de probabilidad

Podemos definir la probabilidad, como la posibilidad de que


ocurra un evento. En estadística esto se cuantifica comúnmente
en el rango de 0 a 1, donde 0 significa que estamos seguros de
que esto no ocurrirá y 1 significa que estamos seguros de que, si
ocurrirá, o en el lenguaje común 0% de posibilidad vs un 100%
de certeza. Entonces, una distribución de probabilidad es una
función que representa las probabilidades de todos los valores
posibles en cualquier experimento. A continuación, mostraremos
tres que podemos encontrar usualmente:

• Distribución uniforme

Figura 4. Distribuciones uniforme

Fuente. KDnuggets. (s.f.)

Tiene un valor único que solo ocurre en un cierto rango, mientras


que cualquier cosa fuera de este será 0. Es una distribución
“activada o desactivada”. También podemos pensar en ello como
una indicación de una variable categórica, o es un valor o es cero.
Claro es necesario destacar que la variable categórica puede tener
varios valores distintos de 0.

12
El análisis de datos como base para la toma de decisiones en el sector Salud

• Distribución normal
Figura 5. Distribuciones normal

Fuente. Rodó, P. (2021, 26 enero).

La distribución normal también la podemos encontrar como


distribución gaussiana, se define específicamente por su desviación
estándar y media. El valor medio desplaza la distribución espa-
cialmente y, la desviación estándar controla la dispersión. La dife-
rencia importante de otras distribuciones (por ejemplo, poisson) es
que la desviación estándar es la misma en todas las direcciones.
Por lo tanto, con una distribución gaussiana, conocemos el valor
promedio de nuestro conjunto de datos, así como la distribución de
los datos, es decir, si se distribuye en un rango amplio o está muy
concentrado en unos pocos valores.

13
• Distribución de Poisson

Figura 6. Distribución de Poisson

Fuente. KDnuggets. (s.f.)

Es similar a la distribución normal, pero con un factor adicional


su asimetría. Con un valor bajo para la asimetría, una distribución
de Poisson tendrá una dispersión relativamente uniforme en
todas las direcciones al igual que la normal. Pero cuando el valor
de asimetría es de gran magnitud, la difusión de nuestros datos
será diferente, en diferentes direcciones; en un sentido estará
muy extendido y en el otro estará muy concentrado.

Hay muchas más distribuciones como la de Bernoulli, la


Binomial, la Chi-cuadrado entre otras que se pueden profundizar,
sin embargo, estas tres nos dan permiten interpretar rápidamente
nuestras variables.

14
El análisis de datos como base para la toma de decisiones en el sector Salud

c) Estadística Bayesiana

Para comprender plenamente por qué utilizamos la Estadística


Bayesiana es necesario entender primero en qué falla la Estadística
Frecuencial. La estadística frecuencial es el tipo de estadística
en el que la mayoría de la gente piensa cuando oye la palabra
“probabilidad”. Consiste en aplicar las matemáticas para analizar la
probabilidad de que ocurra algún evento, donde específicamente,
los únicos datos que calculamos son los datos previos. Veamos un
ejemplo, “Conociendo la probabilidad de tener un dolor de cabeza
dado que se tiene gripe, se podría saber (si se tiene algún dato
más), la probabilidad de tener gripe si se tiene un dolor de cabeza”
(Wikipedia. 2021a, marzo 1). Dado que el análisis de frecuencias
sólo tiene en cuenta los datos previos, no se tiene en cuenta la
evidencia que se le dio sobre tener gripe. La estadística bayesiana sí
tiene en cuenta esta evidencia. Podemos ilustrar esto describiendo
el teorema de Bayes.

Figura 7. Teorema de Bayes

Fuente. KDnuggets. (s.f.)

La probabilidad P(A) en nuestra ecuación es básicamente


nuestro análisis de frecuencias; dados nuestros datos previos,
cuál es la probabilidad de que ocurra nuestro evento. La P(B|A)
es esencialmente la probabilidad de que nuestra evidencia sea
correcta, dada la información de nuestro análisis de frecuencia. La

15
P(B) es la probabilidad de que la prueba real sea cierta. Utilízala
siempre que creas que tus datos a priori no serán una buena
representación de tus datos y resultados futuros.

d) Tendencia Central

Una vez que hablamos de medir la tendencia central de una


variable, entran en escena las 3 poderosas M que podríamos usar
siempre y son: Moda, Media y Mediana.

• Moda
Si su variable de interés se mide en nivel nominal u ordinal
(categórico), la moda es la técnica más utilizada para medir
la tendencia central de sus datos. Encontrar la moda es fácil,
básicamente, es el valor que ocurre con mayor frecuencia en otras
palabras el valor que se repite más veces. Un ejemplo de esto
pueden ser los siguientes números 3, 25, 2, 8, 2, 9, 36, 2, 1, 78, 2,
9 y 7. De estos podemos concluir que la moda de este conjunto es
el número 2 ya que fue el que tuvo mayor frecuencia.

• Mediana
La segunda medida de tendencia central es la mediana. La
mediana no es más que el valor medio de sus observaciones
cuando están ordenadas de menor a mayor. Para ellos la “receta
de cocina” es sencilla, primero ordene sus casos de menor a mayor
y posterior encuentro la mediana.

Si la cantidad de valores es impar, sencillo, el que quede


literalmente en el centro, sin embargo, si su cantidad es par,
¿Cuál es mi valor medio único?, fácil no lo hay, Entonces, ¿cómo
calculamos? bueno, solo tomamos el promedio de los dos valores
medios y listo.
16
El análisis de datos como base para la toma de decisiones en el sector Salud

Un ejemplo de esto, volvemos a tomar nuestro conjunto de


datos anterior 3, 25, 2, 8, 2, 9, 36, 2, 1, 78, 2, 9 y 7. El primer paso
es ordenarlos de mayor a menor y su resultado es el siguiente, 1,
2, 2, 2, 2, 3, 7, 8, 9, 9, 25, 36, 78, como se cuenta con un total de
13 números la mitad exacta será el valor ubicado en la posición
(13-1) /2 + 1 = 7, el cual es 7. En el caso que no tuviéramos el
último valor serían 12 números y su mitad sería el promedio de 6
y 7, por lo cual (3+7) /2 = 5 sería la mediana.

• Media

La tercera medida de tendencia central es la más utilizada, y


también la que probablemente ya conoces bastante bien: la media.
La media es la suma de todos los valores dividida por el número
de observaciones. No es más que el valor medio o promedio.
Continuando con el ejemplo que teníamos 3, 25, 2, 8, 2, 9, 36, 2,
1, 78, 2, 9 y 7, se identifican 13 observaciones. La suma de estos
valores da 184 y lo dividimos por el número de observaciones, su
resultado será 184/13= 14.15.

Ahora la pregunta es ¿Cuándo usarla? ¿y cuál usar?

• Si los datos son categóricos (nominales u ordinales), es imposible


calcular la media o la mediana. Entonces, ve por la moda.

• Si sus datos son cuantitativos, busque la media o la mediana.


Básicamente, si sus datos tienen valores atípicos influyentes o
los datos están muy sesgados, la mediana es la mejor medida
para encontrar la tendencia central. De lo contrario, opta por la
media.

17
e) Relación entre variables

Muchos estudios y encuestas consideran datos sobre más


de una variable. Por ejemplo, suponga que un estudio encuentra
que, a lo largo de los años, los precios de las hamburguesas y las
papas fritas han aumentado. ¿Significa esto que un aumento en el
precio de las hamburguesas provoca un aumento en el precio de
las papas fritas? Para responder a preguntas como esta, debemos
comprender la diferencia entre correlación y causación.

• Correlación

Significa que existe una relación o patrón entre los valores


de dos variables. Un diagrama de dispersión muestra datos sobre
dos variables como un conjunto de puntos en el eje “x” y en
el eje “y” es una herramienta útil para determinar si existe una
correlación entre las variables. Si hay una correlación entre dos
variables, se puede ver un patrón cuando las variables se trazan
en un diagrama de dispersión. Si este patrón puede aproximarse
mediante una línea, la correlación es lineal. De lo contrario, la
correlación no es lineal.

• Causación

Significa que un evento hace que ocurra otro evento. La


causalidad solo se puede determinar a partir de un experimento
diseñado adecuadamente. En tales experimentos, grupos similares
reciben diferentes tratamientos y se estudian los resultados de
cada grupo. Solo podemos concluir que un tratamiento causa un
efecto si los grupos tienen resultados notablemente diferentes.

18
El análisis de datos como base para la toma de decisiones en el sector Salud

Hay muchas más medidas como la covarianza que nos


permite dar una perspectiva adicional a los datos arrojados por
la correlación, para ello se aconseja que puedan completar su
lectura con el libro Cómo el análisis del desempeño produce
resultados de ventas extraordinarios https://www.getabstract.
com/es/resumen/la-importancia-de-los-datos/33334?dfs=
cyhmejzosbvrvnlbubgsnchksdktgr&rf=AJTFTTVWFB&utm_
campaign=share&utm_source=getAbstract&utm_medium=link

1.3 Power BI en Analytics, Machine Learning y


Data Science

Power BI es una tecnología basada en la nube de Microsoft


para la elaboración de informes y análisis de datos. Esta
tecnología está construida de manera que no sólo es útil para
los desarrolladores en la creación de reportes, sino también para
los usuarios avanzados y, los analistas de negocios debido a que
ha creado un entorno sencillo, fácil de usar y amigable para la
creación de informes. Y ¿por qué estamos hablando de él?

Esta herramienta permite integrar todas las cualidades que


hemos descritos con anterioridad en un solo lugar de una forma
clara y sencilla a diferencia de otras herramientas, brindando una
ventaja adicional, todo su procesamiento final se realiza en la nube
y no en nuestros computadores. Esto nos brinda la posibilidad
de aplicar ciencia de datos en nuestros análisis de información,
la cual involucra varios campos subyacentes como estadística,
matemáticas y programación para la aplicación de algoritmos
de aprendizaje automático, servicios cognitivos e integración de
diferentes fuentes de información, sean estructuradas (bases de

19
datos, exceles, CSV, etc.) o no-estructuradas (tweets, páginas
web, imágenes, audios, etc.) en un único lugar.

a) Servicios cognitivos

Power BI proporciona acceso a un conjunto de funciones


de Azure Cognitive Services para enriquecer y transformar. Los
servicios cognitivos presentes son Análisis de sentimientos,
Extracción de frases clave, Detección de idioma y Etiquetado de
imágenes. Para profundizar más sobre esto pueden acceder a este
tutorial que permite detección frases claves en la información
analizada: https://docs.microsoft.com/en-us/azure/cognitive-
services/text-analytics/tutorials/tutorial-power-bi-key-phrases

b) Lenguajes de programación para Machine Learning

Al entrar al mundo de la ciencia de datos, probablemente


comience a encontrar muchos puntos sobre dos lenguajes
Python y R. Estos lenguajes están dando vida al futuro, a
través de la inteligencia artificial, el aprendizaje automático
y la innovación basada en datos, y los podemos utilizar
directamente en Power BI.

- ¿Qué es Python?

Python es un lenguaje de programación orientado a objetos


de propósito general que enfatiza la legibilidad del código a
través de su generoso uso de espacios en blanco. Lanzado en
1989, Python es fácil de aprender y, es uno de los lenguajes de
programación más populares del mundo, solo detrás de Java y C.

20
El análisis de datos como base para la toma de decisiones en el sector Salud

- ¿Qué es R?

R es un lenguaje de programación de código abierto que


está optimizado para el análisis estadístico y la visualización de
datos. Desarrollado en 1992, R tiene un ecosistema rico con
modelos de datos complejos y herramientas elegantes para la
presentación de informes de datos.

Cada uno tiene sus ventajas y contras, lo bueno es que


ambos están enfocados en llevarnos al siguiente nivel de la
analítica en datos, cualquier camino que use, será un camino
exitoso.

21
2. Construyendo modelos analíticos
en Power BI

Big data se ha convertido en una de las palabras de moda


que definen nuestra época. Su hermano menor, la inteligencia
de negocios, ha alcanzado el estatus de santo grial para las
organizaciones, en donde los directivos quieren que su personal
proporcione información en segundos, y los usuarios de negocio
sólo quieren hacer su trabajo rápidamente y producir análisis claros,
reveladores y precisos con herramientas que sean intuitivas y fáciles
de usar.

Figura 8. 8-Power BI

Fuente. Microsoft. (s. f.-d).

Microsoft reconoció estas tendencias y necesidades hace


poco tiempo, cuando produjo la primera versión de Power BI
Desktop. Desde su lanzamiento, el producto ha avanzado de

22
El análisis de datos como base para la toma de decisiones en el sector Salud

una forma en que permite a cualquier usuario tomar datos


prácticamente de cualquier fuente y, utilizarlos para producir
impresionantes cuadros de mando e informes convincentes
que captarán la atención de su público objetivo. Gracias a esta
herramienta en rápida evolución, se puede acceder a datos con
notable facilidad y luego añadir métricas, análisis instantáneos y
KPI para proyectar los conocimientos que crean una verdadera
ventaja competitiva en las organizaciones, centralizándose en los
datos como un activo real de las empresas.

El objetivo de esta guía es enseñarles a convertir sus datos en


información clara, precisa e interactiva; en pocas palabras, a darles
las herramientas necesarias para llegar a una Analítica avanzada.
Este producto ha integrado varios componentes en la gestión de
datos, en donde cada uno de estos, es responsable de una parte
específica de la tecnología. Hay herramientas para crear informes
y compartirlos, conectarse a fuentes de datos, realizar cálculos
analíticos, etc. A continuación, se explican cada uno de estos:

• Power BI Desktop: Esta herramienta es el editor de desarrollo


de informes o de creación de informes para los reportes de
Power BI. Esta herramienta es gratuita para descargar desde
este enlace: https://powerbi.microsoft. com/en-us/desktop
Es posible que se le pida que inicie sesión después de instalarlo,
sin embargo, esto no es obligatorio y lo puede omitir por ahora.
El inicio de sesión es necesario principalmente cuando se
interactúa con el servicio web de Power BI.

• Power Query: Como uno de los componentes clave de toda


herramienta de reporting es la conexión a las fuentes de
datos y la preparación de los mismos (o, en otras palabras. la
transformación de datos), existe un componente específico

23
para ello y es este. Power Query es el componente que se
conecta a diferentes tipos de fuentes de datos, obtiene los
datos de éstas, le da la posibilidad de aplicar transformaciones
y, finalmente, carga los datos en su conjunto de datos de
Power BI. Este componente es parte de Power BI Desktop, esto
significa que cuando se instala Power BI Desktop, de inmediato
puede empezar a trabajar con él.

• Power BI Service: Este componente es un servicio en


línea alojado en el sitio web de Power BI para alojar los
informes creados en Power BI Desktop y, da la posibilidad de
compartirlos con otros usuarios de negocio. Para trabajar con
este componente es necesario tener una cuenta de Power BI,
la cual la puede obtener gratis inicialmente en http://powerbi.
microsoft.com. Para utilizar algunas opciones de Power BI, será
necesario usar una licencia, se informará cuando se requiere.

• Power BI Mobile App: Además de utilizar los navegadores para


conectarse al servicio de Power BI y navegar por los informes,
hay otra manera de acceder a los informes de forma interactiva.
Hay una aplicación móvil de Power BI disponible, a la cual se
podrá acceder desdelos diferentes sistemas operativos de los
celulares como son IOs y Android. Para utilizarla se requiere
tener un usuario e iniciar su sesión en la aplicación, una vez
realice esto, usted será capaz de navegar por los informes de
Power BI desde sus dispositivos móviles. Los informes móviles
pueden diseñarse de forma diferente a los informes normales.

• Gateway: Es un componente específico para crear una conexión


entre el servicio de Power BI (que es una tecnología basada
en la nube), y la fuente de datos que se tenga, puede ser una
base de datos o un archivo de Excel en su computador. Este

24
El análisis de datos como base para la toma de decisiones en el sector Salud

componente es una aplicación que se instala en un servidor o


un computador personal y tiene como objetivo actualizar de
forma automática los datos para ser reflejados en los reportes.

• Power BI Dataflow: Esta herramienta nos permite construir


procesos de transformación de datos directamente en la nube,
los cuales podemos reutilizar para tener disponible la información
en diferentes reportes sin necesidad de hacer una conexión
directa con las fuentes de información. Es como si dejáramos los
datos en la nube y cualquier informe lo pueda usar.

2.1 Análisis de la relevancia del modelo para el negocio

Con esta herramienta podemos generar diferentes modelos


de información que permitan una mejor toma de decisiones, en
donde se presentan las siguientes características:

Figura 9. Pasos en Power BI

Fuente. Queue Associates. (2021, 22 marzo).

25
Crear
- Conexión a cientos de fuentes de datos: Entre estas, desde
las más estándar como bases de datos, páginas web, hasta
especializadas como Sap hana.
- Procesamiento de datos: Puedes transformar los datos
directamente en la herramienta sin necesidad de un ETL.
- Visualización: Tiene cientos de elementos desarrollados por el
fabricante y por equipos especializados, de hecho, usted mismo
puede crear estos elementos.

Colaborar y compartir
- Colabore con los funcionarios de su organización.
- Publique contenido en tiempo real para que puedan revisarlo
en la oficina o mientras viaja.
- Administre centralmente la inteligencia de negocios de su
organización.
- Controle el acceso de los usuarios con información específica
de cada rol y seguridad en el nivel de fila.
- Cumpla con las normativas locales sobre prestación de servicios,
residencia de datos, acceso y control con las nubes nacionales.
- Proteja sus datos de manera que cumpla con los estrictos
estándares y certificaciones del sector.

Accione sus datos


- Power BI mobile: Acceda a Power BI desde cualquier dispositivo
con la aplicación nativa Power BI Mobile para anotar los
informes fácilmente y mantener a su equipo informado en todo
momento.
- Integración con terceros: Distribuya los paneles e informes
predefinidos de su organización o de proveedores de servicios
populares como Salesforce.com.

26
El análisis de datos como base para la toma de decisiones en el sector Salud

- Utilice AI: Haga preguntas en lenguaje natural y las


visualizaciones predictivas se mostrarán a medida que escriba.

¿Cómo llegamos desde datos sin procesar a ver información en mi


celular?
Antes de entrar en profundidad en Power BI y sus componentes,
es necesario que se pueda interpretar el flujo normal de trabajo
en esta herramienta, desde la extracción de datos, hasta su uso,
ya sea en informes o en modelo de auto-servicio de datos. Este
básicamente se conforma de tres pasos:

- Power BI Desktop: Es el lugar donde todo inicia, en este paso


se definen que datos se usarán, como se manejarán y se define
la representación visual de los datos.
- Power BI Service: Es el lugar donde la información reside con
una capa de seguridad, que permite compartir los datos y
adicionalmente, aplicar funcionalidades AI que solo están en
este lugar.
- Power BI Mobile: El acceso a los datos desde cualquier lugar
es un principio fundamental para la toma de decisiones de
forma eficiente, y este es el último en donde los usuarios de
información pueden conectarse a través de sus dispositivos
móviles a la información disponible en el Power BI Service.

27
2.2 Preparación de los datos de fuentes estructuradas
con Power BI

Power BI permite la integración a cientos de fuentes de


datos, siendo este, el primer paso para un proceso de Extracción
y Transformación de datos. Para consultar en detalle cuales hay,
por favor accedan a https://docs.microsoft.com/es-es/power-bi/
connect-data/desktop-data-sources .

Una vez que los datos han sido cargados, es necesario


saber cómo adaptarlos para que se ajusten a las necesidades de
información de múltiples maneras. Esto se debe a que no todos
los datos están listos para ser utilizados de forma inmediata y
usualmente es necesario hacerle una serie de modificaciones, a
esto le llamaremos transformación de datos.

La gama de transformaciones que ofrece Power BI Desktop


es amplia y variada. Aprender a aplicar las técnicas que Power
BI Desktop pone a su disposición, le permite tomar los datos tal
y como los encuentra, luego limpiarlos y devolverlos al modelo
de datos de Power BI Desktop como una serie de tablas de datos
coherentes y estructuradas. Sólo entonces, estarán listos para ser
utilizados, para crear cuadros de mando e informes atractivos.
Como es demasiado fácil sentirse abrumado, al menos al principio,
por la amplitud de las opciones de transformación de datos que
ofrece Power Bi Desktop, se han agrupado en las más usadas y son
simplemente, una sugerencia para facilitar la comprensión:

- Transformación de datos: Esto incluye la adición y eliminación


de columnas y filas, el cambio de nombre de las columnas,
así como el filtrado de sus datos.

28
El análisis de datos como base para la toma de decisiones en el sector Salud

- Modificación de datos: Se trata de alterar los datos reales de


las filas y columnas de un conjunto de datos.
- Ampliación de conjuntos de datos: Se trata de añadir más
columnas, ampliar las columnas existentes en más columnas
o filas y añadir cálculos.
- Unir conjuntos de datos: Se trata de combinar varios
conjuntos de datos separados (diferentes datasets y
posiblemente diferentes fuentes de datos) en un único
conjunto de datos.

Todas estas acciones en los datos tendrán lugar en el editor


de consultas de Power BI Desktop también conocido como Power
Query.

Figura 10. Power Query

Fuente. ?????????

Se trata de una ventana distinta a la de creación de los


cuadros de mando y tiene un diseño ligeramente diferente. El
Editor de consultas de Power BI Desktop, consta de seis elementos
principales:

29
1. Los cuatro menús más utilizados para trabajar los datos:
Inicio, Transformar, Añadir columna y Ver.
2. El panel de la lista de consultas (a la izquierda, en este ejemplo
solo tiene una y se llama clases analizando_covid) que son las
conexiones a las fuentes de datos.
3. La ventana Datos (central), donde se puede ver una muestra
de los datos de una consulta seleccionada.
4. El panel Configuración de la consulta (a la derecha “Query
Settings”) que contiene la lista de pasos utilizados para
transformar los datos.
5. La barra de fórmulas sobre los datos que muestra el código
(escrito en el lenguaje “M” de Power BI) que realiza el paso de
transformación seleccionado. Si no la encuentra tendrá que
ir al menú Ver (view) y activar la opción barra de fórmulas.
6. La Barra de estado (en la parte inferior de la ventana) que
indica información útil, como el número de filas y columnas
en una tabla de consulta, y la fecha en que se descargó el
conjunto de datos.

El punto 4, es uno de los temas más importante en las


transformaciones de datos en Power Query y son la lista de pasos
aplicados. Como se ha descrito, la transformación de datos es, por
su propia naturaleza, un proceso secuencial. Por lo tanto, en la
lista de pasos se almacena cada modificación que se realiza a los
datos de origen.

Este editor no numera los pasos de un proceso de


transformación de datos, pero sí recuerda cada uno de ellos.
Comienzan en la parte superior de la lista de Pasos aplicados (casi
siempre con el paso Origen) y pueden extenderse a docenas de
pasos individuales que trazan la evolución de sus datos hasta que
los carga en el modelo de datos en Power BI.

30
El análisis de datos como base para la toma de decisiones en el sector Salud

Lo interesante aquí, adicional a esa memoria de nuestros


cambios, es que al hacer clic en cada paso de la lista “Pasos
aplicados”, los resultados de cada transformación son reflejados,
lo que le ofrece un rastro completo y visible de todas las
modificaciones que ha aplicado al conjunto de datos.

Menús

Se estarán describiendo las opciones más relevantes de cada


uno de los menús (cintas) para que identifique fácilmente las
transformaciones que puedan aplicar:

a) Inicio

Esa es una de las más utilizadas en la transformación de


datos, a continuación, describiremos sus acciones:

Funcionalidad Descripción
Finaliza los pasos de procesamiento; guarda y
Cerrar y aplicar
cierra la consulta.
Permite integrar nuevos datos al modelo de
Nuevo Origen
información
Enumera todas las fuentes de datos recientes que
Orígenes recientes
ha utilizado.
Le permite añadir sus propios datos específicos en
Especificar datos
una tabla personalizada.
Configuración del Le permite gestionar la configuración de las
origen de datos fuentes de datos a las que ya se ha conectado.
Actualiza la vista previa de los datos. Usualmente,
Actualizar vista previa
lo hace con los primeros mil registros.
Muestra las transformaciones aplicadas con el
Editor avanzado
lenguaje M

31
Divide una columna en una o varias columnas
Dividir columna en un delimitador especificado o después de un
número de caracteres especificado.
Agrupa la tabla utilizando un conjunto especificado
Agrupar por de columnas y agrega cualquier cantidad de
columnas numéricas para esta agrupación.
Tipo de datos Aplica el tipo de datos elegido a la columna.
Usar la primera fila
Utiliza la primera fila como títulos de las columnas.
como encabezado
Realiza una operación de búsqueda y reemplazo
Reemplazar valores en los datos de una columna o columnas. Esto sólo
afecta a los datos completos de una columna.
Combinar consultas: Une una segunda tabla de
consulta a los resultados de la consulta actual y/o
agrega los datos de la segunda, a la primera.
Anexar consultas: Añade los datos de otra consulta,
Combinar
a la consulta actual en el mismo archivo de Power
BI Desktop.
Combinar archivos: Añade los datos de una serie
de archivos de estructura similar en una sola tabla.

a) Transformar

Como su nombre indica, contiene una gran cantidad de funciones


que pueden ayudarle a transformar sus datos. Las más relevantes
se describen a continuación:

32
El análisis de datos como base para la toma de decisiones en el sector Salud

Funcionalidad Descripción
Agrupa la tabla utilizando un conjunto especificado de
Agrupar por columnas y agrega cualquier columna numérica a esta
agrupación.
Usar la primera fila
Utiliza la primera fila como títulos de las columnas.
como encabezado
Transponer Transforma las columnas en filas y las filas en columnas.
Tipo de datos Aplica el tipo de datos elegido a la columna.
Cambiar nombre Cambia el nombre de una columna.
Realiza una operación de búsqueda y reemplazo dentro
Reemplazar valores de una columna, sustituyendo un valor especificado por
otro valor.
Copia los datos de las celdas superiores o inferiores, en
Rellenar
las celdas vacías de la columna.
Crea un nuevo conjunto de columnas, utilizando los
Columna dinámica datos de la columna seleccionada, como los títulos de
las columnas.
Toma los valores de un conjunto de columnas y eliminar
Anular dinamización de la tabla pivote, creando dos nuevas columnas, utilizando
columna las cabeceras de las columnas como elementos
descriptivos.
Divide una columna en una o varias columnas, en un
Dividir columna delimitador especificado o después de un número de
caracteres especificado.
Modifica el formato de texto de los datos de una
Formato columna (mayúsculas, minúsculas, mayúsculas) o
elimina los espacios finales.
Reemplaza los datos de una columna utilizando un
subconjunto definido de los datos actuales.
Puede especificar un número de caracteres para
Extraer mantener desde el inicio o el final de la columna,
establecer un rango de caracteres que comience en un
carácter especificado, incluso enumerar la cantidad de
caracteres de la columna.
Devuelve la suma, la media, el máximo, el mínimo, la
Estadísticas
mediana, la desviación.
Aísla un elemento (día, mes, año, etc.) de un valor de
Fecha
fecha, en una columna.
Ejecutar script de
Ejecuta scripts de lenguajes como “R” y “Python”.
Python o R

33
b) Agregar Columna

Permite mucho más que añadir columnas, debido a que contiene


funciones para dividirlas en varias columnas, y para añadir otras
que contengan fechas y cálculos basados en columnas existentes.
Las opciones más utilizadas se explican a continuación:

Funcionalidad Descripción
Es una función muy interesante, ya que permite
utilizar una o más columnas como ejemplos. A
Columna a partir de
partir de esto, se generan diferentes escenarios de
ejemplos
transformación sin necesidad de utilizar M en ellos y
así crear una nueva columna.
Añade una nueva columna utilizando una fórmula
Columna personalizada
en M para crear el contenido de la columna.
Añade una nueva columna que se genera con
base en una condición definida. Por ejemplo, si la
Columna condicional
columna género es Hombre entonces será 1 de lo
contrario 0.
Añade un número secuencial en una nueva columna
Columna de índice
para identificar de forma exclusiva cada fila.
Duplicar columna Crea una copia de la columna seleccionada.
Modifica el formato de texto de los datos de una
Formato columna (mayúsculas y minúsculas) o elimina los
espacios finales.
Toma los datos de varias columnas y los coloca en
Fusionar columnas
una sola, añadiendo un carácter separador opcional.
Genera una nueva columna a partir de otra columna
Extraer
por ejemplo usando las tres primeras letras.
Devuelve la suma, la media, el máximo, el mínimo,
Estadísticas
la mediana, la desviación.
Aísla un elemento (día, mes, año, etc.) de un valor
de fecha en una columna.
Fecha Hora: Aísla un elemento (hora, minuto, segundo,
etc.) de un valor de fecha/hora u hora en una
columna.

34
El análisis de datos como base para la toma de decisiones en el sector Salud

c) Transformar datos

Es hora de revisar algunas de las técnicas básicas que se


pueden aplicar para dar forma al conjunto de datos inicial. Entre
ellas se encuentran las siguientes:

▪ Cambiar el nombre de las columnas


▪ Reordenar las columnas
▪ Eliminar columnas
▪ Fusionar columnas
▪ Eliminar registros
▪ Eliminar registros duplicados
▪ Filtrar el conjunto de datos

Se han agrupado estas técnicas porque afectan el tamaño y


la forma iniciales de los datos. Además, por lo general, no sólo es
una buena práctica, sino que también, es más fácil para modelar
los datos si se empieza por excluir filas y columnas que no se
necesitan. Resulta más fácil entender los datos si las columnas
están dispuestas de forma lógica y reciben nombres comprensibles
desde el principio.

Una vez que se ha dado forma a un conjunto de datos y se


han filtrado, es probable que aún necesite un buen número de
modificaciones para que esté listo para su consumo. Muchas de
estas modificaciones son, en el fondo, una selección de técnicas
bastante sencillas pero necesarias que se aplican para que los
datos sean más limpios y estandarizados.

El tipo de cosas que se pueden hacer antes de cargar


finalmente los datos de origen en el modelo de datos suele abarcar

35
una serie de procesos que limpian los datos. Pueden incluir lo
siguiente:

▪ Cambiar el tipo de datos de una columna.


▪ Asegurarse de que la primera fila se utiliza como cabecera (si es
necesario).
▪ Eliminar parte del contenido de una columna.
▪ Reemplazar los valores de una celda por otros valores.
▪ Transformar el contenido de la columna haciendo que,
por ejemplo, el texto esté en mayúsculas, o eliminando los
decimales de los números.
▪ Rellenar los datos hacia abajo o hacia arriba sobre las celdas
vacías, para garantizar que los registros estén completos,
▪ Aplicar funciones matemáticas o estadísticas (o incluso
trigonométricas) a las columnas de números.
▪ Convertir los datos de fecha u hora en elementos de fecha
como días, meses, trimestres, años, horas o minutos.

Transformar los datos no sólo consiste en reducirlos. A veces


hay que ampliar los datos para hacerlos utilizables. Esto significa
normalmente añadir más columnas a una tabla de datos. Las
técnicas para hacerlo incluyen:

▪ Duplicar la columna y posiblemente alterar el formato de los


datos en la columna copiada.
▪ Extraer parte de los datos de una columna en una nueva
columna.
▪ Separar todos los datos de una columna para que cada
elemento de los datos aparezca en una columna separada.
▪ Fusionar columnas en una nueva columna.

36
El análisis de datos como base para la toma de decisiones en el sector Salud

▪ Añadir columnas personalizadas que posiblemente contengan


cálculos o extraigan parte de los datos de una columna en una
nueva columna, o incluso concatenar columnas.
▪ Añadir columnas “índice” para garantizar la unicidad o
memorizar un orden de clasificación.

Muchas más trasformaciones se pueden lograr usando el


lenguaje M, el cual es la forma en que nos comunicamos con Power
Query para el desarrollo de sus actividades. De hecho, si ustedes
miran las listas de los pasos o, consultan el editor avanzado,
notaran que implícitamente ustedes ya lo están haciendo. Para
profundizar más sobre este lenguaje pueden acceder a su página
https://docs.microsoft.com/en-us/powerquery-m/

2.3 Analizar la calidad de los datos con Power Query

La calidad de los datos se refiere generalmente al estado en


que se reciben, es decir, si los datos recibidos están listos para
su uso y análisis previstos. Hay que destacar que gran parte del
trabajo en la gestión de los datos, consiste en comprobar si los
registros de datos se corresponden con los valores previstos, aún
más cuando los errores humanos registrando información y los
datos incoherentes o sesgados pueden crear discrepancias con
respecto a lo que el receptor de los datos esperaba en un principio.

Power Query nos facilita en su menú de vista tres


funcionalidades que contribuyen en la revisión de la calidad de
los datos que estamos trabajando, estas son Calidad de columnas,
Distribución de columnas y Perfil de columnas, como se visualiza
en el menú:

37
Figura 11. Menú Vista

Fuente. ?????????

a) Calidad de columnas

La característica de calidad de la columna, Power Query la


clasifica en tres resultados como son: válido, error y vacío. Estos
indicadores se muestran directamente debajo del nombre de la
columna como parte de un pequeño gráfico de barras, conforme
se muestra en la siguiente imagen.

Figura 12. Función calidad de columnas

Fuente. ?????????

b) Distribución de columnas

Esta característica proporciona un resumen estadístico que,


muestra la frecuencia y distribución de los valores en cada una de
las columnas, como se observa en la siguiente ilustración:

38
El análisis de datos como base para la toma de decisiones en el sector Salud

Figura 13. Función distribución de columnas

Fuente. ?????????

c) Perfil de columnas

Esta función proporciona una mirada más profunda a los


datos en una columna, debido a que cuenta con el gráfico de
distribución de columnas y un análisis estadístico completo de las
columnas, como se ilustra a continuación:

Figura 14. Función Perfil de columnas

Fuente. ?????????

39
2.4 Power BI Dataflows

Power BI dataflow ha sido una de las últimas funciones de


vanguardia integradas en el servicio de Power BI y, en pocas
palabras es un Power Query, que se ejecuta en la nube con el mismo
conjunto de funcionalidades de preparación de datos, conectores
de origen de datos, puertas de enlace y las transformaciones que
hemos visto en el capítulo 2.2. Los flujos de datos se crean y
administran en el servicio Power BI en línea y existen junto a los
conjuntos de datos, paneles e informes de Power BI, en las áreas
de trabajo de Power BI que nosotros trabajamos.

Ahora nos podemos preguntar, ¿Por qué debería usar Power


BI dataflows si tengo Power BI?

a) Reutilización: La mayor ventaja que ofrece es esta, los


flujos de datos de Power BI se pueden compartir con otras
personas como si tuviéramos una biblioteca de datos, por lo
tanto, tenemos la posibilidad de buscar lo que necesitamos y
olvidarnos de todas las transformaciones que hay que hacer,
debido a que alguien ya las hizo.

b) Uso Sencillo: Es una solución de código bajo o inclusive


sin código, puesto que, no es necesario realizar grandes
cantidades de transformaciones, debido a que los datos están
listos.

c) Fácil aprendizaje: Power Query es una herramienta familiar


para millones de usuarios de Excel y Power BI.

40
El análisis de datos como base para la toma de decisiones en el sector Salud

d) Programación de actualización de los datos: Los procesos


de datos que requieren diferentes tiempos de actualización,
se pueden programar de forma individual, por ejemplo, los
datos de transacciones de siniestros los leemos cada 4 horas,
mientras la información de nuestras sucursales, una vez a la
semana.

En resumen, tenemos una herramienta muy poderosa que


nos permitirá como buena práctica, unificar nuestras consultas y
aplicar un gobierno de datos sobre esto. Para mayor información
pueden acceder a: https://docs.microsoft.com/en-us/power-bi/
transform-model/dataflows/dataflows-introduction-self-service

2.5 Análisis Multidimensional

La forma en que se interpreta la información está directamente


relacionada en la forma en que nosotros diseñamos los reportes,
es por ello que, es necesario aplicar una serie de buenas prácticas,
desde donde localizamos la información hasta los objetos visuales
que seleccionamos como parte de nuestros informes.

Crear un informe de Power BI y hacer que parezca visualmente


atractivo puede ser un desafío para la mayoría de nosotros. Por lo
tanto, poner muchos detalles y obtener múltiples visualizaciones,
usualmente no es una buena práctica.

a) Pensar en cuadrículas

Esta técnica es muy útil para el diseño de la página. Puede que


no sea obvio dónde está la cuadrícula en esta página de informe,
pero, la podrá ver una vez que la dibuje.

41
b) Resaltar información importante

La segunda clave para un excelente diseño de informes


de Power BI es hacer que siempre se destaque la información
más importante. En este ejemplo, se muestran algunos datos
relacionados con el Covid, tales como, el total de casos registrados,
pruebas realizadas, vacunas aplicadas y los fallecimientos aso-
ciados a esta patología.

Figura 15. Valores claves

Fuente. ?????????

Como parte de esto, defina también claramente cuáles son


los filtros y, deje los que afectan a todo el tablero agrupados en
una sola posición, como se describe en el siguiente ejemplo:

42
El análisis de datos como base para la toma de decisiones en el sector Salud

Figura 16. Agrupación de filtros

Fuente. ?????????

Cuando coloquen filtros adicionales en el informe, como este


período de tiempo, esta información clave se actualizará. También
pueden profundizar en los datos haciendo clic en estas regiones.

c) Considerando los colores

Un aspecto clave en el diseño de su informe, es la combinación


de los colores. Estos pueden hacer que un informe promedio se
vea atractivo. Sin embargo, hay algunas cosas que debes tener en
cuenta a la hora de elegirlos. Demasiados colores diferentes son
innecesarios, pues su uso excesivo puede restarle importancia a
lo que se desea destacar. El consejo es usar una rueda de colores
o las paletas para garantizar uniformidad en la interpretación. Se
puede profundizar en este aspecto revisando el siguiente enlace:
logogenio.es. (s. f.). Rueda de color: cómo utilizar una rueda de
color para encontrar. Rueda de color. Recuperado 17 de junio
de 2021, de https://www.logogenio.es/blog/circulo-cromatico-
usando-la-rueda-de-colores-para-encontrar-la-combinacion-de-
colores-perfecta

43
d) Enfoque Visual

El análisis visual brinda una gran capacidad de identificar patrones


fácilmente, por ello tenemos que potenciar esa gran ventana en el
diseño de los reportes. Entre los puntos que apoyan la visión son:

• Primero lo importante: Nosotros leemos de izquierda a


derecha y de arriba hacia abajo, entonces ese mismo esquema
también lo aplicamos para interpretar un reporte, dejando lo
más importante para el lector en la parte superior y lo menos
relevante en la esquina inferior derecha.

• Análisis top – Down: Mismo enfoque que el punto anterior


pero ahora desde la perspectiva de navegación de los datos.
Intente siempre comenzar con una macro idea y permita que
el usuario pueda profundizar a través de las jerarquías de las
dimensiones hasta donde requiera avanzar. Lo usual es llegar
de grandes KPIs a tablas detalladas de datos.

d) Objeto visual correcto

En ocasiones nos abrumamos por tratar de conseguir que


resalten los reportes que generamos y, siempre queremos ser
muy creativos en ellos, sin embargo, esto no significa que sea
la forma más eficiente de entregar la información. Es por ello
que a continuación se describen unas pautas de objetos visuales
adecuados al tipo de análisis que vamos a aplicar:

• Datos Univariados: Es la secuencia de un dato numérico en


una dimensión. Para estos podemos usar histogramas, tarjetas
y tablas.

44
El análisis de datos como base para la toma de decisiones en el sector Salud

• Datos Bivariados: Es la secuencia de un dato numérico en


dos dimensiones, con un objetivo de encontrar relación entre
los dos valores. Para esto, podemos usar Gráficos de líneas,
Graficas de área, grafica de barras y graficas de dispersión
aplicando o no las opciones estadísticas que proporciona el
objeto.

• Datos Trivariados: Es la secuencia de un dato numérico en


tres dimensiones, con un objetivo de encontrar relación entre
los dos valores. Para esto podemos usar Gráficos de dispersión
utilizando el tamaño de la burbuja como tercera variable,
mapas de calor y matrices.

• Datos Multivariados: Cuando las soluciones anteriores se


quedan cortas, necesitamos realizar exploraciones en una
situación general para luego focalizar el estudio. Para esto
podemos usar Gráficos de dispersión, utilizando el tamaño de
la burbuja como tercera variable y eje de reproducción como
cuarta variable.

De igual forma se sugiere que revisen la siguiente página


web, donde no solo recomiendan varias prácticas en el diseño de
los reportes, sino que también destacan los errores más comunes
a la hora de elaborar nuestros diseños de los informes. Milek,
Z. (2021b, marzo 25). Power BI Dashboard Design: Avoid These
7 Common Mistakes. Zebra BI Financial Reporting in Power BI
and Excel. https://zebrabi.com/power-bi-dashboard-design/ ,
como también también Enterprise Dashboards en https://www.
getabstract.com/en/summary/enterprise-dashboards/5924?dfs=
qoglyqpakbehiszvqphcimxsjbbhko&rf=AJTFTTVWFB

45
2.6 Analítica descriptiva en Power BI

Power BI no solo cuenta con un gran poder de procesamiento


de datos, sino que también tiene un lenguaje que permite facilitar
el análisis descriptivo de los datos una vez que han sido procesados
por Power Query, a través de una función denominada “DAX”.

DAX es un lenguaje de fórmulas utilizado para crear columnas


y medidas calculadas. Es un lenguaje desarrollado específicamente
para el modelo de datos tabulares y, si está familiarizado con la
sintaxis de las fórmulas de Excel, encontrará que la sintaxis DAX es
muy similar. La gran diferencia entre estas herramientas es que las
fórmulas de Excel se enfocan en celdas y DAX en columnas.

DAX ofrece muchas ventajas, como la consolidación de


información por dimensión, poder agrupar y entender los datos a
través de métricas relacionadas al tiempo con una simple línea de
código y, de esta forma facilitar una inteligencia en la gestión de
periodo como puede ser el acumulado del año actual, año actual
vs año anterior, mes actual vs mes anterior y demás usos típicos
en la revisión de indicadores.

a) Métodos de agregación de información

Habrás notado que las funciones de agregación como SUM,


AVG, MIN y MAX tienen sus correspondientes funciones SUMX,
AVEX, MINX y MAXX. Las funciones X se utilizan cuando se evalúa
una expresión para cada fila de la tabla y no para una sola columna.
Por ejemplo, la función SUMX se define de la siguiente manera
SUMX(<tabla>, <expresión>) donde la tabla es la que contiene
las filas a evaluar, y la expresión es lo que se evaluará para cada

46
El análisis de datos como base para la toma de decisiones en el sector Salud

fila. Como ejemplo, pensemos que tenemos una tabla que tiene
importes de Ventas e importe de Costo. Para calcular el importe
de las ventas netas, puede tomar el importe de ventas, menos
el costo y, sumar el resultado de cada fila, como en la siguiente
fórmula:

Venta neta=SUMX(tabla_ventas,[ventas]-[costo])

b) Realizar cálculos en períodos de tiempo

A menudo, para realizar un análisis de datos, se revisan los


valores del período hasta la fecha. Por ejemplo, puede querer
ver las ventas del año hasta la fecha o, la cantidad de personas
vacunas este mes. Para este tipo de análisis, DAX proporciona las
funciones TOTALMTD, TOTALQTD y TOTALYTD que ejecutan esta
tarea de forma sencilla. Por ejemplo, el total del año hasta la fecha
se define usualmente como sigue:

TOTALYTD(métrica o su cálculo,[campo fecha])

Tiene opciones adicionales que permite utilizarlas para


ver, no la acumulación del año normal, sino fiscal, sin embargo,
la anterior es la más usada. Vamos a proponer un ejemplo, y es
realizar el consolidado del año en curso (Year to Date) de las ventas
realizadas en la organización:

• Paso 1 – creo métrica:


ventas=SUM(Ventas[Importe de las ventas])
• Paso 2 – aplico formula de acumulación:
ventas YTD=TOTALYTD([ventas],’Fecha’[campo_fecha])

47
c) Analizar resultados en periodos de tiempo

Si desea comparar el rendimiento de un período con el mismo


período pasado, por ejemplo, las ventas del mes actual con las
ventas del mismo mes del año pasado, DAX tiene varias funciones
que hacen esto. Una de las funciones más versátiles para cambiar
el contexto de la fecha es, la función PARALLELPERIOD y, funciona
de forma muy similar a las descritas anteriormente, en donde se
requiere la información de la fecha y el intervalo a comparar.

PARALLELPERIOD(<fechas>,<número_de_intervalos>,<intervalo>)

Por ejemplo, para realizar una comparación del mes actual vs


mismo mes año anterior:

• Paso 1 – creo métrica:


ventas año anterior =
CALCULATE([ventas],PARALLELPERIOD(‘Fecha’[campo_fecha]),-
12,MONTH))

• Paso 2 – aplico formula de crecimiento mensual:


YOY=([ventas]-[ventas año anterior]) / [ventas año anterior]

Ahora que puede calcular las ventas del mes del año anterior,
puede combinarlas con las ventas actuales para calcular el
crecimiento de las ventas mensuales de un año a otro.

Adicionalmente, es importante tener cuidado con lo que


pasaría si no hay ventas en el año anterior, por lo tanto, la respuesta
que se obtendrá es un error, porque no podemos dividir por algo
que no existe. La buena noticia es que, podemos controlar esto

48
El análisis de datos como base para la toma de decisiones en el sector Salud

fácilmente con DAX, usando la lógica de si las ventas del año


pasado están en blanco, el resultado, también será en blanco:
Crecimiento Mensual YOY=
IF(ISBLANK[ventas año anterior]), BLANK(),([ventas]-[ventas
año anterior]) / [ventas año anterior]

Otra función comúnmente utilizada para modificar las fechas


es, la función DATEADD. Esta se utiliza para añadir o restar un
intervalo de fechas al actual. Se pueden añadir intervalos de años,
trimestres, meses o días:
DATEADD(<fechas>,<número_de_intervalos>,<intervalo>)

El siguiente cálculo se utiliza para encontrar la suma de las


ventas del día anterior aplicando la función DATEADD como filtro:
ventas día
anterior=CALCULATE([ventas],DATEADD(‘Fecha’[campo_
fecha],-1,DAY))

d) Uso de funciones de fecha única

DAX contiene un conjunto de funciones que devuelven una


sola fecha. Éstas se utilizan normalmente, cuando se filtra la fecha.
Por ejemplo, la función FIRSTDATE, devuelve la primera fecha de
la columna de fechas que se le ha pasado.

También, podemos utilizar esto en combinación con la


función DATESBETWEEN para obtener el rango de fechas desde el
primer día hasta el día 15 del conjunto de datos, así:
DATESBETWEEN(‘Fecha’[campo_fecha],
FIRSTDATE(‘Fecha’[campo_fecha]),
DATEADD(FIRSTDATE(‘Date’[campo_fecha]), 14, DAY))

49
Esto puede utilizarse como filtro en la función CALCULAR
para obtener las ventas durante los primeros 15 días del mes.
Si sólo se trata de periodos mensuales, se pueden utilizar las
funciones STARTOFMONTH y ENDOFMONTH (también las hay
para el año y el trimestre).

Se puede continuar explorando el potencial que tiene DAX en


el siguiente enlace https://docs.microsoft.com/en-us/dax/

50
El análisis de datos como base para la toma de decisiones en el sector Salud

3. Taller práctico

El objetivo del taller es la aplicación, tanto de los conceptos


descritos en esta guía, como también los presentados por el
docente en clase.

El detalle del taller se encuentra publicado en esta dirección


https://github.com/here4data/visualizacion/wiki/Taller-
aplicaci%C3%B3n-COVID

51
Bibliografía
Banfi, V. (2020, 14 diciembre). What is The Turing Test? A Guide to
Running One With Slack. Botsociety Blog. https://botsociety.
io/blog/2018/03/the-turing-test/

KDnuggets. (s. f.). The 8 Basic Statistics Concepts for Data Science.
Recuperado 16 de junio de 2021, de https://www.kdnuggets.
com/2020/06/8-basic-statistics-concepts.html

Microsoft. (s. f.-d). Visualización de datos | Microsoft Power BI.


Visualización de datos. Recuperado 16 de junio de 2021, de https://
powerbi.microsoft.com/es-es/

Plasencia, E. (s. f.). LIMITES ESTADÍSTICOS [Figura]. LIMITES


ESTADÍSTICOS. https://probaesr.blogspot.com/2019/

Queue Associates. (2021, 22 marzo). Microsoft PowerBI. https://


queueassoc.com/home/microsoft-powerbi/
Raza, M. (2021, 8 mayo). Deep Learning: The Latest Trend In AI And
ML. Qubole. https://www.qubole.com/blog/deep-learning-
the-latest-trend-in-ai-and-ml/

Rodó, P. (2021, 26 enero). Distribución normal. Economipedia. https://


economipedia.com/definiciones/distribucion-normal.html

The 8 Basic Statistics Concepts for Data Science. (s. f.). KDnuggets.
Recuperado 16 de junio de 2021, de https://www.kdnuggets.
com/2020/06/8-basic-statistics-concepts.html

Wikipedia. (2021a, marzo 1). Teorema de Bayes. Wikipedia, la enciclopedia


libre. https://es.wikipedia.org/wiki/Teorema_de_Bayes

Turing, A. M. (1950). Computing machinery and intelligence. Mind,


59, 433–460

52
El análisis de datos como base para la toma de decisiones en el sector Salud

@Redesconviniente

53

También podría gustarte