Está en la página 1de 288

Machine Translated by Google

582 M. Gupta

Fig. 17.5 Ejemplo de agrupación

rectángulos y, para cada subregión, genera el máximo. La intuición es que la ubicación exacta de una
característica es menos importante que su ubicación aproximada en relación con otras características. La
capa de agrupación sirve para reducir progresivamente el tamaño espacial de la representación, para
reducir el número de parámetros y la cantidad de cómputo en la red y, por lo tanto, también para controlar
el sobreajuste. La Figura 17.5 muestra un ejemplo de agrupación máxima con un tamaño de agrupación
de 2 × 2.
Finalmente, después de varias capas convolucionales y de agrupación máxima, el razonamiento de
alto nivel en la red neuronal se realiza a través de capas totalmente conectadas. Las neuronas en una
capa completamente conectada tienen conexiones con todas las activaciones en la capa anterior, como
se ve en las MLP regulares.

3.4 Resumen

En resumen, hemos discutido una interesante arquitectura de aprendizaje profundo, CNN, para imágenes
en esta sección. Las CNN son muy populares en estos días en una gran variedad de tareas de
procesamiento de imágenes. Las redes de convolución están inspiradas en la estructura jerárquica de la
corteza visual. Las cosas que diferencian a las CNN de las DNN son la escasa conectividad, los pesos
compartidos, los mapas de funciones y la agrupación.

3.5 Un ejemplo: datos MNIST (similar al enfoque MLP)

Las principales etapas del código son las siguientes:

1. Descargue y realice la limpieza de datos.


2. Visualice algunos dígitos de muestra.
3. Especifique el modelo:

(a) Primera capa de convolución y especificación del kernel


(b) Tipo de función de activación (c) Capa de agrupación y
especificación del tipo de agrupación (máxima o media) (d) Segunda capa de convolución,
función de activación y capa de agrupación (e) Primera completamente conectada y
especificando el número de capas ocultas (neuronas) (f) Segundo completamente conectado (g)
Aplicando softmax para normalizar la salida
Machine Translated by Google

17 Aprendizaje profundo 583

4. Defina los parámetros y ejecute el modelo:

(a) lenet: puntero al último nodo de cálculo en la definición de red (b) X: datos de píxeles
(valores X) (c) Y: variable dependiente (valores Y) (d) ctx: dispositivo de procesamiento a
utilizar (e) num.round: número máximo de iteraciones sobre el conjunto de datos (f)
array.batch.size: tamaño de lote para descenso de gradiente por lotes (g) Tasa de
aprendizaje (h) Momentum: para actualizaciones de descenso de gradiente basadas en
impulso (i) WD: peso decadencia

5. Prediga la salida del modelo en datos de prueba.


6. Producir matriz de confusión y calcular la precisión.

El código de muestra ayuda a comprender cómo crear una CNN con el paquete R "mxnet". El código
“Mxnet-MNIST_CNN.R” y los conjuntos de datos “MNIST_train_sample.csv” y “MNIST_test_sample.csv”
están disponibles en el sitio web.

4 Redes Neuronales Recurrentes (RNN)

En esta sección, analizaremos una arquitectura de aprendizaje profundo para manejar datos de secuencia,
RNN. Primero motivaremos por qué se necesitan modelos de aprendizaje secuencial. Luego hablaremos
sobre los detalles técnicos de las RNN (redes neuronales recurrentes) y finalmente discutiremos sobre su
aplicación para el subtitulado de imágenes y la traducción automática.

4.1 Motivación para los modelos de aprendizaje secuencial

Las secuencias están en todas partes. El texto es una secuencia de caracteres. El habla es una secuencia
de fonemas. Los videos son secuencias de imágenes. Hay muchas aplicaciones importantes impulsadas
por análisis además de datos de secuencia. Por ejemplo, la traducción automática se trata de transformar
una secuencia escrita en un idioma a otro. Necesitamos una forma de modelar tales datos de secuencia
utilizando redes neuronales. Los humanos no comienzan su pensamiento desde cero cada segundo. A
medida que lea esta sección, comprenderá cada palabra en función de su comprensión de las palabras
anteriores. No tiras todo y empiezas a pensar desde cero otra vez. Tus pensamientos tienen persistencia.
Por lo tanto, necesitamos redes neuronales con cierta persistencia durante el aprendizaje. En este capítulo,
discutiremos sobre RNN como una arquitectura para soportar tareas de aprendizaje de secuencias.

Los RNN tienen bucles que permiten que la información persista.


Los modelos de lenguaje son el primer ejemplo de aprendizaje secuencial para secuencias de texto.
Un modelo de lenguaje calcula una probabilidad para una secuencia de palabras:
Machine Translated by Google

584 M. Gupta

P(w1, ... ,wm). Los modelos de lenguaje son muy útiles para muchas tareas como las siguientes: (1)
predicción de la siguiente palabra: por ejemplo, predecir la siguiente palabra después de que el usuario haya
escrito esta parte de la oración. “Las acciones se desplomaron esta mañana, a pesar de un recorte en las
tasas de interés por parte de la Reserva Federal, como Wall…”; (2) correctores ortográficos: por ejemplo,
detectar automáticamente que los minutos se han escrito incorrectamente en la siguiente oración. “Se van
en unos quince minutos para ir a su casa”; (3) autocorrección móvil: por ejemplo, sugerir automáticamente
que el usuario debe usar "buscar" en lugar de "bien" en la siguiente oración. “Él está tratando de multar”; (4)
reconocimiento de voz: por ejemplo, descubrir automáticamente que "palomitas de maíz" tiene más sentido
que "unicornio" en la siguiente oración. “Los propietarios de teatros dicen que las ventas de unicornios se
han duplicado...”; (5) calificación automática de ensayos; y (6) traducción automática: por ejemplo, identificar
el orden correcto de las palabras como en p(el gato es pequeño) > p(pequeño es el gato), o identificar la
elección correcta de palabras como en p(caminar a casa después de la escuela) > p (casa de paseo después
de la escuela).

Los modelos de lenguaje tradicional se aprenden calculando la probabilidad de expresión de una


secuencia completa utilizando la regla de la cadena. Para secuencias más largas, ayuda calcular la
probabilidad condicionando una ventana de n palabras anteriores. Así, P (w1,...,wm) = i=1P (wi|w1,...wiÿ1) ÿ
metro metro

i=1P wi|wiÿ(nÿ1),...,wiÿ1 .
Aquí, condicionamos los n valores anteriores en lugar de todos los valores anteriores. Esta aproximación se
llama el supuesto de Markov. Para estimar las probabilidades, se pueden calcular unigramas, bigramas,
trigramas, etc., de la siguiente manera, usando un corpus de texto grande con tokens T.

contar (w1)
Modelo de unigrama: p (w1) =
T cuenta(w1,w2)
Modelos de bigramas: p (w2|w1) = cuenta(w1)
cuenta(w1,w2,w3)
Modelos de trigramas: p (w3|w1, w2) = cuenta(w1,w2)

El rendimiento de los modelos de lenguaje de n-gramas mejora a medida que aumenta n para n-gramas.
El suavizado, el retroceso y la interpolación son técnicas populares para manejar n-gramas de baja
frecuencia. Pero el problema es que hay muchos n-gramas, especialmente cuando n aumenta. Esto conduce
a requisitos de RAM gigantescos. En algunos casos, la ventana de n palabras pasadas consecutivas puede
no ser suficiente para capturar el contexto. Por ejemplo, considere un caso en el que un artículo analiza la
historia de España y Francia y, más adelante en el texto, dice: "Los dos países se enfrentaron en una
batalla"; Claramente, la información presentada en esta oración por sí sola no es suficiente para identificar
el nombre de los dos países.

¿Podemos usar MLP para modelar el problema de predicción de la siguiente palabra? La Figura 17.6
muestra un MLP típico para la tarea de predicción de la siguiente palabra propuesta por Bengio et al. (2003).
El MLP está entrenado para predecir la t-ésima palabra en función de un contexto de tamaño fijo de n ÿ 1
palabras anteriores. Esta red asume que tenemos un mapeo C de cualquier palabra i en el vocabulario a un
vector de características distribuidas como word2vec.6 Por lo tanto, si m es el

6Word2vec es un algoritmo para aprender una palabra incrustada a partir de un corpus de texto. Para más
detalles, lea Mikolov et al. (2013).
Machine Translated by Google

17 Aprendizaje profundo 585

Fig. 17.6 MLP para la tarea de predicción de la siguiente palabra (Fuente: Bengio et al. 2003)

dimensión para la representación del vector de características, y |V| es el tamaño del vocabulario, C es una |
V| matriz de tamaño × m . C(wt ÿ i) es la representación vectorial de la palabra que vino hace i palabras. C
también podría aprenderse junto con los otros pesos en la red.
Además, el modelo contiene una capa oculta con una no linealidad. Finalmente, en la capa de salida, se
realiza un softmax para devolver la distribución de probabilidad de tamaño |V| que se espera que esté lo más
cerca posible de la representación codificada en caliente de la siguiente palabra real.

En todos los modelos de lenguaje convencionales, los requisitos de memoria del sistema crecen
exponencialmente con el tamaño de la ventana n , lo que hace casi imposible modelar ventanas de palabras
grandes sin quedarse sin memoria. Pero en este modelo, los requisitos de RAM crecen linealmente con n. Por
lo tanto, este modelo admite una ventana fija de contexto (es decir, n). Hay dos inconvenientes de este
modelo: (1) el número de parámetros aumenta linealmente con el tamaño del contexto y (2) no puede manejar
contextos de diferentes longitudes. Los RNN ayudan a abordar estos inconvenientes.

4.2 Detalles técnicos de las RNN

RNNs es una arquitectura neuronal de aprendizaje profundo que puede admitir la predicción de la siguiente
palabra con la variable n. Los RNN atan los pesos en cada paso de tiempo. Esto ayuda en el acondicionamiento
Machine Translated by Google

586 M. Gupta

Fig. 17.7 Arquitectura RNN básica

la red neuronal en todas las palabras anteriores. Por lo tanto, el requisito de RAM solo aumenta con la
cantidad de palabras en el vocabulario. La Figura 17.7 muestra la arquitectura de un modelo RNN
básico con tres unidades. U, V y W son las matrices de ponderación compartidas que se repiten en
múltiples unidades de tiempo. En general, los parámetros que se aprenderán son U, V y W.

Los RNN se denominan recurrentes porque realizan la misma tarea para cada elemento de una
secuencia. Lo único que difiere es la entrada en cada paso de tiempo. La salida depende de cálculos
previos. Los RNN pueden verse como redes neuronales que tienen "memoria" sobre lo que se ha
calculado hasta ahora. La información (o el estado) ht en cualquier instancia de tiempo t es esta
memoria. En cierto sentido, capta un pensamiento que resume las palabras vistas hasta ahora. Las
RNN procesan una secuencia de vectores x aplicando una fórmula de recurrencia en cada paso de
tiempo: ht = fU,W (ht ÿ 1, xt), donde ht es el nuevo estado, fU,W es alguna función con parámetros U y
W, ht ÿ 1 es el estado anterior y xt es el vector de entrada en el paso de tiempo actual. Observe que
se utiliza la misma función y el mismo conjunto de parámetros en cada paso de tiempo.

Los pesos para un RNN se aprenden usando el mismo algoritmo de retropropagación, también
llamado backpropagation through time (BPTT) en el contexto de los RNN.
Los datos de entrenamiento para BPTT deben ser una secuencia ordenada de pares de entrada-salida.
x0, y0 , x1, y1 , ... , xn - 1, en - 1 . Se debe especificar un valor inicial para la salida de la
capa oculta h0 en el tiempo t0 . Por lo general, se utiliza un vector de todos los ceros para este propósito.
BPTT comienza desplegando una red neuronal recurrente a través del tiempo. Cuando la red se
despliega a través del tiempo, la red desplegada contiene k instancias de una unidad, cada una de las
cuales contiene una entrada, una capa oculta y una salida. Luego, el entrenamiento procede de manera
similar al entrenamiento de una red neuronal de alimentación hacia adelante con retropropagación,
Machine Translated by Google

17 Aprendizaje profundo 587

excepto que cada época debe pasar por las observaciones, yt, en orden secuencial.
Cada patrón de entrenamiento consta de ht, xt, xt+1, xt+2, ... , xt+k ÿ 1, yt+k . Por lo general, la
retropropagación se aplica en línea para actualizar los pesos a medida que se presenta cada patrón de
entrenamiento. Después de que se presenta cada patrón y se actualizan los pesos, se promedian los
pesos en cada instancia de U, V y W para que todos tengan los mismos pesos, respectivamente. Además,
ht+1 se calcula como ht+1 = fU,W (ht, xt+1), lo que proporciona la información necesaria para que el
algoritmo pueda pasar al siguiente paso de tiempo, t + 1. La salida yt se calcula como sigue: yt =
softmax(V ht). Por lo general, la función de pérdida de entropía cruzada se usa para la optimización: Dada
una distribución de salida real yt y una distribución de salida predicha yt , la pérdida de entropía cruzada
se define como ÿ j=1yt,j log y(t,j ). Tenga en cuenta que yt es el vector verdadero; podría ser una
|en |
codificación one-hotinstante
de la palabra esperada
de tiempo o una representación word2vec de la palabra esperada en el
t-ésimo.

4.3 Ejemplo: predicción de la siguiente palabra

El siguiente pseudocódigo muestra cómo construir un RNN usando el paquete R "mxnet" para la siguiente
tarea de predicción de palabras. A continuación se muestran las principales etapas del código:

1. Descargue los datos y realice la limpieza.


2. Cree Word 2 Vector, diccionario y diccionario de búsqueda.
3. Cree varios cubos para datos de entrenamiento.
4. Cree iteradores para datos de múltiples depósitos.
5. Entrene el modelo para datos de varios cubos con los siguientes parámetros:

(a) Cell_type = “lstm” #Uso de la celda lstm que puede contener los resultados (b)
num_rnn_layer = 1 (c) num_embed = 2 (d) num_hidden = 4 #Número de capas
ocultas (e) loss_output = “softmax” (f ) núm.ronda = 6

6. Prediga la salida del modelo en los datos de "Prueba".


7. Calcular la precisión del modelo.

El código de muestra ayuda a entender cómo construir un RNN usando el paquete R "mxnet". El
código “Next_word_RNN.R” y los conjuntos de datos “cor pus_bucketed_train.rds” y
“corpus_bucketed_test.rds” están disponibles en el sitio web.

La arquitectura básica de RNN se puede ampliar de muchas formas. Los RNN bidireccionales son
RNN con dos vectores ocultos por unidad. El primer vector oculto mantiene el estado de la información
vista hasta ahora en la secuencia en dirección hacia adelante, mientras que el otro vector oculto mantiene
el estado que representa la información vista hasta ahora en la secuencia en dirección hacia atrás. El
número de parámetros en los RNN bidireccionales es, por lo tanto, el doble del número de parámetros en
el RNN básico.
Machine Translated by Google

588 M. Gupta

Los RNN también podrían ser profundos. Por lo tanto, un RNN profundo tiene unidades ocultas
apiladas y las neuronas de salida están conectadas a la capa más abstracta.

4.4 Aplicaciones de las RNN: subtítulos de imágenes y


traducción automática

Las redes recurrentes ofrecen mucha flexibilidad. Por lo tanto, se pueden utilizar para una gran variedad
de tareas de aprendizaje de secuencias. Dichas tareas podrían clasificarse como de uno a muchos, de
muchos a uno o de muchos a muchos, según el número de entradas y el número de salidas. Un ejemplo
de una aplicación de uno a muchos es el subtítulo de imagen (imagen ÿ secuencia de palabras). Un
ejemplo de aplicación de muchos a uno es la clasificación de sentimientos (secuencia de palabras ÿ
sentimiento). Un ejemplo de aplicación "retrasada" de muchos a muchos es la traducción automática
(secuencia de palabras ÿ secuencia de palabras).
Finalmente, un ejemplo del caso de muchos a muchos "sincronizados" es la clasificación de video a nivel
de cuadro.
A continuación, analizaremos dos aplicaciones de RNN: subtítulos de imágenes y traducción
automática. La figura 17.8 muestra la arquitectura neuronal CNN-RNN para la tarea de subtítulos de
imágenes. Primero se utiliza una CNN para obtener una representación profunda de la imagen. Luego, la
representación se pasa a la RNN para aprender los subtítulos. Tenga en cuenta que los subtítulos
comienzan con una palabra especial INICIO y terminan con una palabra especial FIN.
A diferencia de la tarea de clasificación de imágenes donde la cantidad de subtítulos es limitada, en la
subtitulación de imágenes, la cantidad de subtítulos que se pueden generar es mucho más, ya que en
lugar de seleccionar uno de, digamos, 1,000 subtítulos, aquí la tarea es generar subtítulos.

Fig. 17.8 CNN-RNN para tareas de subtítulos de imágenes


Machine Translated by Google

17 Aprendizaje profundo 589

Fig. 17.9 RNN para traducción automática

Como se muestra en la Figura 17.8, primero se usa una CNN entrenada con los datos de ImageNet.
Tal CNN se discutió en la Secc. 3. La última capa completamente conectada de la CNN se descarta y el resultado de la
penúltima capa de la CNN se alimenta a la primera unidad de la RNN. La codificación one-hot de la palabra especial
START se alimenta como entrada a la primera unidad de la RNN. En el momento del entrenamiento, dado que se
conocen los títulos de imagen reales, las representaciones de palabras correspondientes se alimentan realmente como
entrada para cada unidad recurrente. Sin embargo, en el momento de la prueba, se desconoce el verdadero título. Por lo
tanto, en el momento de la prueba, la salida de la k-ésima unidad se alimenta como entrada a la (k + 1)-ésima unidad.
Esto se hace para un mejor aprendizaje del orden de las palabras en el pie de foto. La pérdida de entropía cruzada se
usa para calcular el error en cada una de las neuronas de salida. Microsoft COCO7 es un conjunto de datos popular que
se puede usar para entrenar un modelo de este tipo para subtítulos de imágenes. El conjunto de datos tiene alrededor
de 120 000 imágenes, cada una con cinco oraciones de subtítulos (Lin et al. 2014).

Por último, analicemos la aplicación de RNN a la traducción automática. La Figura 17.9 muestra una arquitectura
básica de codificador-decodificador para la tarea de traducción automática usando RNN. El codificador RNN intenta

codificar toda la información del idioma de origen en un solo vector oculto al final. Llamemos a este último vector oculto
del codificador como el vector "pensamiento". El decodificador RNN usa información de este vector de pensamiento para
generar palabras en el idioma de destino. La arquitectura intenta minimizar el error de entropía cruzada para todas las
palabras de destino condicionadas a las palabras de origen.

Hay muchas variantes de esta arquitectura de la siguiente manera. (1) El codificador y el decodificador pueden usar
pesos compartidos o pesos diferentes. (2) El estado oculto en el decodificador siempre depende del estado oculto de la
unidad anterior, pero también podría depender opcionalmente del vector de pensamiento y la salida prevista de la unidad
anterior.
(3) Los RNN bidireccionales profundos podrían usarse tanto para el codificador como para el decodificador.
Más allá de estas aplicaciones, los RNN se han utilizado para muchas tareas de aprendizaje de secuencias. Sin
embargo, los RNN sufren el problema de los gradientes que desaparecen. En teoría, RNN

7Conjunto de datos COCO de Microsoft http://www.mscoco.org/ (consultado el 1 de agosto de 2018) o http://


cocodataset.org/ (consultado el 1 de agosto de 2018).
Machine Translated by Google

590 M. Gupta

puede memorizar en estado oculto, es decir, ht, toda la información sobre entradas pasadas.
Pero, en la práctica, el RNN estándar no puede capturar la dependencia a muy larga distancia.
Problema de gradiente evanescente/explosivo en retropropagación: la señal de gradiente puede
terminar siendo multiplicada un gran número de veces (tantas como el número de pasos de tiempo)
por la matriz de peso asociada a las conexiones entre las neuronas de la capa oculta recurrente. Si
los pesos en la matriz de pesos de transición son pequeños (o, más formalmente, si el valor propio
principal de la matriz de pesos es menor que 1.0), puede conducir a gradientes que desaparecen
donde la señal del gradiente se vuelve tan pequeña que el aprendizaje se vuelve muy lento o se
detiene. trabajando en conjunto. También puede dificultar la tarea de aprender las dependencias a
largo plazo en los datos. Por el contrario, si los pesos en esta matriz son grandes (o, de nuevo, de
manera más formal, si el valor propio principal de la matriz de peso es mayor que 1.0), puede
conducir a una situación en la que la señal de gradiente es tan grande que puede causar
aprendizaje. divergir Esto a menudo se denomina gradientes explosivos. Una solución a este
problema es la memoria a largo plazo (LSTM), que son arquitecturas de aprendizaje profundo
similares a las RNN pero con celdas de memoria explícita. La idea principal es mantener las
memorias para capturar dependencias de largo alcance y permitir que los mensajes de error fluyan
con diferentes intensidades según las entradas. La intuición es que las celdas de memoria pueden
mantener la información intacta, a menos que las entradas les hagan olvidarla o sobrescribirla con
una nueva entrada. La celda de memoria puede decidir emitir esta información o simplemente
almacenarla.
El lector puede consultar Hochreiter y Schmidhuber (1997) para obtener más detalles sobre los
LSTM.

4.5 Resumen

En resumen, las redes neuronales recurrentes son poderosas para modelar datos de secuencias.
Pero tienen el problema del gradiente de fuga/explosión. Los LSTM son mejores porque evitan el
problema del gradiente de desaparición/explosión al introducir celdas de memoria.
En general, los RNN y los LSTM son realmente útiles en muchas aplicaciones del mundo real, como
subtítulos de imágenes, minería de opiniones y traducción automática.

5 Lectura adicional

Los avances que se realizan en este campo son de naturaleza continua debido a la práctica de
compartir información y cooperar con investigadores que trabajan en laboratorios y en el campo.
Por lo tanto, la información más reciente está disponible en la Web ya través de conferencias y
talleres. El libro8 de Goodfellow et al. (2016), el

8https://www.deeplearningbook.org/ (consultado el 1 de agosto de 2018).


Machine Translated by Google

17 Aprendizaje profundo 591

los tutoriales de aprendizaje profundo9 y la especialización en aprendizaje profundo10 que ofrece Andrew Ng
son buenos puntos de partida para aprender más.
Material de referencia adicional (consultado el 1 de agosto de 2018):

• Buen tutorial introductorio: http://web.iitd.ac.in/ÿ sumeet/Jain.pdf • Una breve introducción a


las redes neuronales: http://www.dkriesel.com/en/science/
Redes neuronales
Visualización de características de CNN:

• http://people.csail.mit.edu/torralba/research/drawCNN/drawNet.html?path=image
netCNN

• http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part-1-introduction-to-rnns/ _

• http://karpathy.github.io/2015/05/21/rnn-efectividad/ • http://colah.github.io/
posts/2015-08-Understanding-LSTMs/ • Hochreiter, S. y Schmidhuber, J. (1997).
Memoria a corto plazo. Computación neuronal, 9(8), 1735–1780. http://www.bioinf.jku.at/publications/older/
2604.pdf • http://jeffdonahue.com/lrcn/ • https://github.com/kjw0612/awesome-rnn#theory

Material complementario electrónico

Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están
disponibles en www.allaboutanalytics.net.

• Datos 17.1: MNIST_train_sample.csv • Datos 17.2:


MNIST_test_sample.csv • Datos 17.3:
corpus_bucketed_test.rds • Datos 17.4:
corpus_bucketed_train.rds • Código 17.1: MLP_MNIST.R
• Código 17.2: MXNET_MNIST_CNN.R • Código 17.3:
Next_word_RNN.R

Ejercicios

Ex. 17.1 ¿Cuál de estos es falso?

(a) El aprendizaje profundo necesita grandes cantidades de datos para el aprendizaje.

9http://deeplearning.net/reading-list/tutorials/ (consultado el 1 de agosto de 2018). 10https://


www.coursera.org/specializations/deep-learning (consultado el 1 de agosto de 2018).
Machine Translated by Google

592 M. Gupta

(b) Los clasificadores de aprendizaje profundo son todos de


naturaleza lineal. (c) El aprendizaje profundo necesita mucha
potencia informática. (d) El aprendizaje profundo consta de múltiples arquitecturas modelo.

Ex. 17.2 ¿Cuál es el algoritmo que se usa para entrenar una sola neurona?

(a) Propagación hacia atrás


(b) Propagación hacia adelante
(c) Perceptrón (d) Ninguna de las
anteriores

Ex. 17.3 ¿Cómo se puede hacer que una neurona artificial aprenda patrones no lineales?

(a) Cambiar la función de integración para que sea no lineal (b)


Usar perceptrones multicapa (c) Ambas de las anteriores (d)
Ninguna de las anteriores

Ex. 17.4 ¿Cuál es la ecuación de actualización de peso en perceptrón?

(a) Nuevo w = antiguo w + (tasa de aprendizaje) × (error) × (vector de instancia) (b)


Nuevo w = antiguo w - (tasa de aprendizaje) × (error) × (vector de instancia) (c) Nuevo w
= (tasa de aprendizaje) × (error) × (vector de instancia) (d) Nuevo w = (tasa de
aprendizaje) × (error) × (vector de instancia)

Ex. 17.5 Si un MLP tiene una capa de entrada con 10 funciones, una capa oculta con 20 neuronas y una capa
de salida con 1 salida, ¿cuántos parámetros hay?

(a) 10 × 20 + 20 × 1 (b) (10 +


1) × 20 + (20 + 1) × 1 (c) (10 ÿ 1) × 20 + (20 ÿ
1) × 1 (d) 10 × 20

Ex. 17.6 ¿Por qué el algoritmo perceptrón no puede funcionar para MLP?

(a) ¡Nunca discutimos esto en la clase! (b) Los MLP


tienen demasiados parámetros y el perceptrón no es muy eficiente cuando hay demasiados parámetros. (c) La
supervisión no está disponible para las neuronas en las capas ocultas de un MLP. (d) Los perceptrones
están destinados a aprender solo clasificadores lineales, mientras que los MLP pueden aprender

límites más complejos.

Ex. 17.7 Discutimos tres funciones de activación diferentes. Cuál de los siguientes
no es una función de activación?

(a) Función de paso


(b) Función esférica (c)
Función de rampa (d) Función
sigmoidea

Ex. 17.8 ¿Qué es falso entre los siguientes?


Machine Translated by Google

17 Aprendizaje profundo 593

(a) Los MLP tienen capas completamente conectadas, mientras que las CNN tienen escasa
conectividad. (b) Los MLP son supervisados, mientras que las CNN se usan generalmente para algo no supervisado.
ritmos

(c) Los MLP tienen más pesos, mientras que los CNN tienen menos pesos para ser
aprendió.

(d) MLP es una arquitectura de modelado general, mientras que las CNN se especializan en imágenes.

Ex. 17.9 Dada una imagen de 32 × 32 × 3, ¿cuántos pesos tendrá que aprender una sola neurona
completamente conectada?

(a) 32 × 32 × 3 + 1 (b) 32
(c) 3 (d) 32 × 32

Ex. 17.10 ¿Cuál es la operación de convolución más cercana?

(a) Similitud de Jaccard (b)


Similitud de coseno (c)
Producto escalar (d)
Distancia del motor de tierra

Ex. 17.11 ¿Cuántos pesos se necesitan si la capa de entrada tiene 32 × 32 entradas y la capa oculta tiene 20
× 20 neuronas?

(a) (32 × 32 + 1) × 20 × 20 (b) (20 + 1)


× 20 (c) (32 + 1) × 20 (d) (32 + 1) × 32

Ex. 17.12 Considere un volumen de tamaño 32 × 32 × 3. Si se le aplica la agrupación máxima con un tamaño
de agrupación de 4 y un paso de 4, ¿cuál es el número de pesas en la capa de agrupación?

(a) (32 × 32 × 3 + 1) × (4 × 4) (b) 4 × 4 + 1


(c) 0 (d) 32 × 32 × 3

Ex. 17.13 ¿Cuál de los siguientes es falso acerca de las diferencias entre MLP y RNN?

(a) Los MLP se pueden usar con secuencias de tamaño fijo, mientras que los RNN pueden manejar
secuencias de tamaño variable. (b) Los MLP tienen más pesos, mientras que los RNN tienen menos
pesos para ser
aprendió.

(c) MLP es una arquitectura de modelado general, mientras que las RNN se especializan en secuencias. (d)
Los MLP están supervisados, mientras que los RNN generalmente se usan para algoritmos no supervisados.
ritmos
Machine Translated by Google

594 M. Gupta

Ex. 17.14 Observamos dos modelos neuronales para la predicción de la siguiente palabra: un MLP y un RNN. Dado
un vocabulario de 1000 palabras y una capa oculta de tamaño 100, un contexto de tamaño 6 palabras, ¿cuál es el
número de pesos en un MLP?

(a) (6 × 1000 + 1) × 100 + (100 + 1) × 1000 (b) (1000 + 1) × 100 +


(100 + 1) × 100 + (100 + 1) × 1000 (c) ( 6 × 6 + 1) × 100 + (6 × 6 + 1) × 1000 (d) (1000 +
1) × (100 + 1) × 6

Ex. 17.15 ¿En qué se diferencia la retropropagación a través del tiempo de la retropropagación típica en las MLP?

(a) Los pesos en los bordes que se supone que tienen pesos compartidos deben promediarse y establecerse en el
promedio después de cada iteración. (b) La retropropagación en MLP utiliza descenso de gradiente, mientras
que la retropropagación
a través del tiempo utiliza modelos de series de tiempo.
(c) La retropropagación en MLP tiene dos iteraciones por cada iteración correspondiente en la retropropagación a
lo largo del tiempo. (re. Ninguna de las anteriores.

Respuesta en longitud

Ex. 17.16 Defina el aprendizaje profundo resaltando sus cinco aspectos importantes.

Ex. 17.17 Describa el algoritmo de retropropagación.

Ex. 17.18 Los RNN necesitan entrada en cada paso de tiempo. Para los subtítulos de imágenes, observamos una
arquitectura CNN-RNN.

(a) ¿Cuál es la entrada a la primera capa oculta de la RNN? (b) ¿De dónde
vienen los otros insumos? (c) ¿Cómo se decide la longitud del título? (d) ¿Genera
nuevos subtítulos por sí mismo o solo selecciona de los que había visto en los
datos de entrenamiento? (e) Si el tamaño del vocabulario es V, el tamaño de la capa oculta es h y el tamaño
promedio de la secuencia es "s", ¿cómo

¿Cuántos pesos están involucrados en un RNN?

Ejercicios prácticos

Ex. 17.19 Cree un clasificador simple basado en regresión logística para el popular conjunto de datos de iris en
mxnet.

Ex. 17.20 Cree un clasificador MLP usando tres capas ocultas de tamaños 5, 10, 5 para la tarea de reconocimiento
de dígitos MNIST usando mxnet. (Sugerencia: modifique el código de la Sección 2.5 según corresponda).
Machine Translated by Google

17 Aprendizaje profundo 595

Ex. 17.21 Cree un clasificador CNN usando dos capas CONV, cada una con veinte filtros de 5 × 5
con relleno como 2 y zancada como 1. También use capas de agrupación con filtros 2 × 2 con
zancada como 2. Haga esto para la tarea de reconocimiento de dígitos MNIST usando mxnet.
(Sugerencia: modifique el código de la Sección 3.5 según corresponda).

Ex. 17.22 Entrene un modelo RNN en mxnet para la tarea de predicción de la siguiente palabra.
Utilice un corpus de texto adecuado de https://en.wikipedia.org/wiki/List_of_text_corpora. (Sugerencia:
modifique el código de la Sección 4.2 según corresponda).

Referencias

Bengio, Y., Ducharme, R., Vincent, P. y Jauvin, C. (2003). Un modelo de lenguaje probabilístico neural.
Revista de investigación de aprendizaje automático, 3, 1137–1155.
Duchi, J., Hazan, E. y Singer, Y. (2011). Métodos adaptativos de subgradiente para aprendizaje en línea y optimización
estocástica. Revista de investigación de aprendizaje automático, 12, 2121–2159.
Fukushima, K. y Miyake, S. (1982). Neocognitron: un modelo de red neuronal autoorganizada para un mecanismo de
reconocimiento de patrones visuales. En S. Amari & A. Michael (Eds.), Competencia y cooperación en redes
neuronales (págs. 267–285). Berlín: Springer.
Goodfellow, I., Bengio, Y. y Courville, A. (2016). Aprendizaje profundo (Vol. 1). Cambridge: MIT Press.
Hinton, G., Srivastava, N. y Swersky, K. (2012). Clase 6d: una tasa de aprendizaje adaptativa separada para cada
conexión. Diapositivas de conferencias sobre redes neuronales para el aprendizaje automático. Recuperado el 6 de
marzo de 2019 de https://www.cs.toronto.edu/~tijmen/csc321/slides/lecture_slides_lec6.pdf Hochreiter, S. y
Schmidhuber, J. (1997). Memoria a corto plazo. Computación neuronal, 9(8),
1735-1780.
Hubel, DH y Wiesel, TN (1962). Campos receptivos, interacción binocular y arquitectura funcional en la corteza visual del
gato. El Diario de Fisiología, 160(1), 106–154.
Kingma, DP y Ba, J. (2014). Adam: Un método para la optimización estocástica. arXiv:1412.6980.
Lin, TY, Maire, M., Belongie, S., Hays, J., Perona, P., Ramanan, D., et al. (2014). Microsoft coco: objetos comunes en
contexto. En D. Fleet, T. Pajdla, B. Schiele y T. Tuytelaars (Eds.), Conferencia europea sobre visión artificial (págs.
740–755). Cham: Springer.
Mikolov, T., Chen, K., Corrado, G. y Dean, J. (2013). Estimación eficiente de representaciones de palabras
en espacio vectorial. arXiv:1301.3781
Miller, GA (1995). WordNet: Una base de datos léxica para inglés. Comunicaciones de la ACM,
38(11), 39–41.
Minsky, ML y Papert, S. (1969). Perceptrones. Prensa del MIT, Cambridge, MA.
Rosenblatt, F. (1962). Principios de la neurodinámica. Wuhan: publicación de investigación científica.
Rumelhart, DE, Hinton, GE y Williams, RJ (1986). Aprendiendo representaciones internas por propagación de errores. En
D. Rumelhart & J. McClelland (Eds.), Procesamiento distribuido en paralelo.
Exploraciones en la microestructura de la cognición (Vol. 1, págs. 318–362). Cambridge, MA: Libros de Bradford.

Zeiler, MD (2012). ADADELTA: Un método de tasa de aprendizaje adaptativo. arXiv:1212.5701.


Machine Translated by Google

Parte III
Aplicaciones
Machine Translated by Google

capitulo 18
Análisis minorista

Ramandeep S. Randhawa

1. Introducción

1.1 Antecedentes

El comercio minorista es uno de los sectores más importantes de la economía actual. Se estima
que el sector minorista global tendrá ingresos de USD 28 billones en 2019 (con aproximadamente
USD 5,5 billones de ventas solo en los EE. UU.). Este sector representa el 31 % del PIB mundial
y emplea a miles de millones de personas en todo el mundo.1 Un componente grande y creciente
de esto es el comercio electrónico o e-tail, que incluye productos y servicios solicitados a través
de Internet, con ventas estimadas en aproximadamente USD 840 mil millones en 2014, y se
espera que crezca a una tasa de alrededor del 20 % en los años siguientes.2 La analítica está
ganando cada vez más importancia en este sector con un tamaño del mercado de análisis
minorista estimado en más de USD 3520 millones en 2017 y se espera que aumente. crecer a
una tasa compuesta anual de más del 19,7 % en los próximos años.3

Material complementario electrónico La versión en línea de este capítulo (https://doi.org/10.1007/


978-3-319-68837-4_18) contiene material complementario, que está disponible para usuarios autorizados.

1https://www.businesswire.com/news/home/20160630005551/en/Global-Retail-Industry-Valor USD-28-
Trillion (consultado el 31 de julio de 2018). 2https://www.atkearney.com/consumer-goods/article?/a/
global-retail-e-commerce-sigue haciendo clic (consultado el 1 de marzo de 2019). 3https://
www.marketsandmarkets.com/Market-Reports/retail-analytics-market-123460609.html (consultado el
31 de julio de 2018).

RS Randhawa ( )
Marshall School of Business, University of Southern California, Los Ángeles, CA, EE. UU. Correo
electrónico: Ramandeep.Randhawa@marshall.usc.edu

© Springer Nature Switzerland AG 2019 B. 599


Pochiraju, S. Seshadri (eds.), Essentials of Business Analytics, International Series
in Operations Research & Management Science 264, https://doi.org/
10.1007/978-3-319-68837 -4_18
Machine Translated by Google

600 RS Randhawa

El comercio minorista actúa como la última parada en la cadena de suministro al vender productos
directamente a los clientes. Dado que los minoristas se centran en este aspecto, recopilar datos sobre el
comportamiento y las preferencias de los clientes e incorporarlos en las decisiones comerciales es
bastante natural. Y así, el comercio minorista ha sido uno de los primeros en adoptar metodologías de
análisis y se centra en gran medida en el avance del conocimiento en este dominio.

1.2 ¿Qué es el análisis minorista?

El análisis minorista es un término general que comprende varios elementos que ayudan en la toma de
decisiones en el negocio minorista. Por lo general, esto incluye la recopilación y el almacenamiento de
datos (almacenamiento de datos), el análisis de datos que involucra algunos modelos estadísticos o
predictivos y la toma de decisiones. Tradicionalmente, el análisis de datos se limitaba a monitorear y
visualizar retrospectivamente algunos indicadores clave de desempeño (KPI).

Se puede utilizar el término inteligencia empresarial para referirse a la gama de actividades que
subyacen a la toma de decisiones empresariales inteligentes. Sin embargo, normalmente este término
se usa para referirse a la recopilación y presentación de información histórica de una manera fácil de
entender, a través de informes, tableros, cuadros de mando , etc. métodos estadísticos o aprendizaje
automático. Nuestro enfoque en este capítulo estará en el análisis avanzado posterior, metodologías que
pueden ayudar significativamente en el proceso de toma de decisiones en el comercio minorista.

Para comprender el papel que juega el análisis en el comercio minorista, es útil dividir las decisiones
comerciales que se toman en el comercio minorista en las siguientes categorías: consumidor, producto,
fuerza laboral y publicidad.

1. Consumidor: la personalización es una decisión clave a nivel del consumidor que toman las empresas
minoristas. La fijación de precios personalizados al ofrecer descuentos a través de cupones para
clientes selectos es una de esas decisiones. Este enfoque utiliza la recopilación de datos a través de
tarjetas de fidelización para comprender mejor los patrones de compra y la disposición a pagar de un
cliente y lo utiliza para ofrecer precios personalizados. Dicha personalización también se puede
utilizar como estrategia de retención de clientes. Otro ejemplo es ofrecer a los clientes una experiencia
de venta personalizada: en la configuración de e-tail, esto implica ofrecer a los clientes una experiencia
de navegación única mediante la modificación de los productos mostrados y las sugerencias
realizadas en función de la información histórica del cliente.
2. Producto: Las decisiones de productos minoristas se pueden dividir en un solo producto y en un grupo
de decisiones de productos. Las decisiones de productos únicos o individuales son en su mayoría
decisiones de inventario: cuánto stock del producto ordenar y cuándo realizar el pedido. A nivel de
grupo, las decisiones suelen estar relacionadas con la fijación de precios y la planificación del surtido.
Es decir, qué precio fijar para cada producto del grupo y cómo colocar los productos en los estantes
de las tiendas, teniendo en cuenta la variedad de productos, la cantidad de cada tipo de producto y
la ubicación. Para tomar estas decisiones, se requiere un modelo predictivo para pronosticar el
producto.
Machine Translated by Google

18 Análisis minorista 601

la demanda y la función precio-respuesta, y esencialmente el tomador de decisiones necesita entender


cómo reacciona el cliente a los cambios de precio. También se necesita una buena comprensión de la
elección del consumidor para comprender cómo un cliente elige comprar un determinado producto de un
grupo de productos.
3. Recursos humanos: las decisiones clave aquí están relacionadas con la cantidad de empleados necesarios
en la tienda en varios momentos del día y cómo programarlos. Para tomar estas decisiones, se debe
estimar el trabajo general que deben completar los empleados. Parte de esto es una función de otras
decisiones, como el esfuerzo involucrado en llenar los estantes, recibir entregas, cambiar precios, etc.
Hay trabajo adicional que viene en función del volumen de clientes en la tienda.

Esto incluye responder a las preguntas de los clientes y manejar los mostradores de pago.
4. Publicidad: En el ámbito publicitario, las empresas se enfrentan a las típicas decisiones de encontrar el
mejor medio para anunciarse (medios en línea como Google Adwords, Facebook, Twitter y/o medios
tradicionales como impresos e insertos en periódicos) y el mejor productos a publicitar. Esto puede
implicar cultivar algunos "líderes de pérdida" que tienen un precio bajo para atraer a los clientes a la
tienda, de modo que también puedan comprar otros artículos que tengan un margen mayor.

Remitimos al lector al artículo de la encuesta de Bradlow et al. (2017). Revisa las prácticas de big data y
análisis predictivo en el comercio minorista. Discuten varios problemas y métodos estadísticos, incluido el
análisis bayesiano, que son importantes para recopilar, procesar, modelar y analizar datos. Además, hacen
hincapié en cuestiones éticas y de privacidad.

1.3 Ejemplos de Retail Analytics en acción

• Analytics ha revelado que un gran número de visitas de clientes a tiendas online no se convierten en el
último minuto, cuando el cliente tiene el artículo en su cesta de la compra pero no confirma la compra.
Con la teoría de que esto se debe a que los clientes a menudo no pueden encontrar sus tarjetas de
crédito o débito para confirmar los detalles, la plataforma sueca de comercio electrónico Klarna trasladó

a sus clientes (como Vistaprint, Spotify y 45 000 tiendas en línea) a un modelo de facturación, donde los
clientes pueden pagar después de se entrega el producto. Se utilizan análisis sofisticados de prevención
de fraude para asegurarse de que el sistema no pueda ser manipulado por personas con malas
intenciones.

• Los algoritmos de pronóstico de tendencias combinan las publicaciones de las redes sociales y los hábitos
de navegación web para descubrir qué productos pueden estar causando revuelo, y los datos de compra
de anuncios se analizan para ver qué departamentos de marketing impulsarán. Las marcas y los
especialistas en marketing se involucran en el "análisis de sentimientos", utilizando sofisticados algoritmos
basados en aprendizaje automático para determinar el contexto cuando se habla de un producto. Estos
datos se pueden usar para predecir con precisión cuáles serán los productos más vendidos en una categoría.
Machine Translated by Google

602 RS Randhawa

• Los minoristas rusos han descubierto que la demanda de libros aumenta exponencialmente a
medida que el clima se vuelve más frío. Por lo tanto, los minoristas como Ozon.ru aumentan la
cantidad de recomendaciones de libros que aparecen en los feeds de sus clientes a medida que
baja la temperatura en sus áreas locales.4
• El gigante de los grandes almacenes de EE. UU., Macy's, se dio cuenta recientemente de que era
esencial atraer al tipo correcto de clientes a sus tiendas físicas. Debido a que sus análisis
mostraron una escasez del grupo demográfico vital de la generación del milenio, recientemente
abrió su sótano5 "Uno debajo" en su tienda insignia de Nueva York, que ofrece "paredes para
selfies" y fundas personalizadas para teléfonos inteligentes impresas en 3D mientras espera. La
idea es atraer a clientes jóvenes a la tienda que, con suerte, tendrán un valor duradero de por vida
para el negocio.
• Amazon ha propuesto usar análisis predictivos de envío6 para enviar productos a los clientes incluso
antes de que hagan clic en "agregar al carrito". Según un informe de tendencias reciente de DHL,
durante los próximos 5 años, esta llamada cadena de suministro psíquica tendrá efectos de gran
alcance en casi todas las industrias, desde la automotriz hasta la de bienes de consumo. Utiliza
big data y algoritmos predictivos avanzados para mejorar la planificación y la toma de decisiones.

1.4 Complicaciones en Retail Analytics

Hay varias complicaciones que surgen en los escenarios minoristas que deben superarse para el uso
exitoso de la analítica minorista. Estas complicaciones se pueden clasificar en (a) las que afectan al
modelado predictivo y (b) las que afectan a la toma de decisiones.

Algunos de los problemas más comunes que afectan el modelado predictivo son la censura de la
demanda y las imprecisiones de inventario (DeHoratius y Raman 2008). Por lo general, las empresas
minoristas solo tienen acceso a la información de ventas, no a la información de demanda y, por lo
tanto, deben tener en cuenta el hecho de que cuando se agota el inventario, no se observa la
demanda real. Ignorar esta censura de información puede resultar en una subestimación de la
demanda. También existe un problema no trivial de imprecisiones en los registros de inventario que
existen en las tiendas minoristas: la cantidad real de productos en un inventario difiere de la cantidad
esperada según los sistemas de TI de la empresa (DeHoratius 2011). Tal inexactitud puede ser
causada por robo, fallas de software, etc. Esta inexactitud debe incorporarse en la estimación de la
demanda porque confunde si la demanda es baja o parece baja debido a la escasez del producto. La
inexactitud también afecta la decisión

4https://www.forbes.com/sites/bernardmarr/2015/11/10/big-data-a-game-changer-in-the-retail sector/
#651838599f37 (consultado el 31 de julio de 2018). 5https://www.bloomberg.com/news/articles/
2015-09-25/this-is-macy-s-idea-of-a-millennial wonderland (consultado el 31 de julio de 2018).
6https://www.forbes.com/sites/onmarketing/2014/01/28/why-amazons-anticipatory-shipping-is pure-
genius/#178cd4114605 (consultado el 31 de julio de 2018).
Machine Translated by Google

18 Análisis minorista 603

haciendo impactando el tiempo de colocación de la orden. Algunos de los otros factores que afectan la
toma de decisiones son las restricciones sobre los precios cambiantes, las restricciones físicas sobre los
surtidos, los plazos de entrega de los proveedores, los contratos con los proveedores y las restricciones
sobre la programación de la fuerza laboral. En particular, las empresas minoristas se enfrentan a muchas
restricciones en los precios cambiantes. Algunos de estos son restricciones de mano de obra: cambiar los
surtidos requiere una reconfiguración de los estantes de las tiendas, y cambiar los precios puede implicar
el etiquetado físico de los productos con el nuevo precio (un proceso que requiere mucha mano de obra).
Para facilitar el cambio de precios, muchas tiendas como Kohl's están recurriendo a etiquetas electrónicas
en los estantes como un medio para hacer que el proceso de cambio de precios sea eficiente.7 Hay
restricciones no físicas adicionales con las que una empresa puede tener que lidiar. Por ejemplo, en la
moda, los precios normalmente solo se marcan a la baja y, una vez que se baja un precio, no se aumenta.
También hay límites a la frecuencia con la que se pueden cambiar los precios, por ejemplo, dos veces por
semana. Hay muchas restricciones basadas en el proveedor que también deben tenerse en cuenta, por
ejemplo, los plazos de entrega de cualquier pedido nuevo realizado y los términos acordados en los contratos con los provee
En este capítulo, nuestro enfoque estará en el uso de análisis minoristas para la toma de decisiones
basada en productos. Continuamos en la Sec. 2, explorando los diversos medios de recopilación de datos
que utilizan los minoristas y los que están ganando protagonismo en los últimos tiempos. Insecto. 3,
discutiremos algunas metodologías clave que se utilizan para dicha toma de decisiones. En particular,
discutiremos varias estadísticas y metodologías de aprendizaje automático para la estimación de la
demanda, y cómo se pueden usar para la fijación de precios, y técnicas para modelar la elección del
consumidor para la optimización del surtido.
Insecto. 4, nos centraremos en los muchos desafíos y oportunidades comerciales en el comercio minorista, centrándonos tanto

en la configuración del comercio electrónico como en el crecimiento de las nuevas empresas analíticas minoristas.

2 Recopilación de datos

Los datos minoristas se pueden considerar tanto estructurados (hoja de cálculo con filas y columnas) como
no estructurados (imágenes, videos y otros datos basados en la ubicación). Los datos minoristas
tradicionales se han estructurado y derivado principalmente de dispositivos de punto de venta (POS) y
datos suministrados por terceros. Los datos de POS generalmente capturan información de ventas,
cantidad de artículos vendidos, precios y marcas de tiempo de las transacciones. Combinados con el
mantenimiento de registros de inventario, estos datos brindan una gran cantidad de información sobre los
productos vendidos y, en particular, las canastas de productos (recopilación de artículos en el carrito)
vendidos. Los minoristas tienden a utilizar programas de fidelización para adjuntar información del cliente
a esta información, de modo que se puedan analizar los datos de ventas a nivel del cliente. Los datos de
terceros generalmente consisten en información de la competencia, como precios y surtidos de productos.
También consta de información general sobre los clientes de la empresa, como su demografía y ubicación.

7https://www.wsj.com/articles/now-prices-can-change-from-minute-to-minute-1450057990
(consultado el 31 de julio de 2018).
Machine Translated by Google

604 RS Randhawa

La tendencia reciente es capturar cada vez más datos no estructurados. Ahora existe tecnología
que puede ayudar a los minoristas a recopilar información no solo sobre las ventas directas a los
clientes, sino también sobre las comparaciones de productos, es decir, qué productos comparó el
cliente al tomar decisiones. Las cámaras de video junto con la tecnología de detección de imágenes
pueden ayudar a recopilar datos sobre las rutas de los clientes a través de una tienda. Estos datos
de video también se pueden usar para recopilar datos de los empleados (por ejemplo, qué tareas
están haciendo los empleados, cómo se involucran los clientes y cuánto tiempo tiene que esperar un
cliente que necesita asistencia para que se brinde la asistencia). Recientemente, muchas empresas
también han empleado tecnología de seguimiento ocular en entornos controlados para recopilar datos
sobre cómo aparece la tienda desde la perspectiva del cliente; una desventaja importante de esta
tecnología es que requiere que el cliente use anteojos especializados.
Con la llegada de Internet de las cosas (IoT), ha aumentado el potencial para recopilar datos en
la tienda. Walmart comenzó a utilizar la tecnología de identificación por radiofrecuencia (RFID) hace
aproximadamente una década. Inicialmente, el objetivo principal de usar esta tecnología era rastrear
el inventario en la cadena de suministro. Sin embargo, cada vez más, a los minoristas les resulta
beneficioso realizar un seguimiento del inventario en la tienda. Las etiquetas RFID son mucho más
fáciles de leer que los códigos de barras porque no requieren un escaneo de línea de visión directa.
Esta facilidad de seguimiento permite que las etiquetas se utilicen para recopilar datos sobre el
movimiento de productos a través de la tienda. Por ejemplo, en el comercio minorista de moda, el
minorista puede rastrear los artículos que llegan a los probadores; también se puede rastrear la
combinación de elementos probados y, finalmente, se puede detectar fácilmente si los elementos
fueron elegidos o no. Todo esto proporciona un rico conjunto de datos para alimentar el sistema para análisis.
Los minoristas también están utilizando chips de comunicación de campo cercano (NFC) para
simplificar la experiencia de compra. La mayor parte del uso actual de NFC está dirigido a pagos. Sin
embargo, varios minoristas también están utilizando el escaneo NFC como un medio para brindarles
a los clientes información adicional sobre el producto. Esto ayuda a recopilar información sobre los
productos que un cliente está considerando. Debido a que los lectores NFC no están presentes en
todos los teléfonos inteligentes, algunos minoristas también usan códigos de respuesta rápida (QR)
para sus productos que los clientes normalmente pueden escanear usando una aplicación para una
funcionalidad similar.
Otro nuevo método de recopilación de datos de los clientes es a través de balizas Bluetooth.
Las balizas utilizan Bluetooth Low Energy, una tecnología integrada en los teléfonos inteligentes
recientes. Las balizas se colocan en toda la tienda y pueden detectar la señal de Bluetooth del
teléfono inteligente de un cliente que se encuentra en las inmediaciones. Estos dispositivos pueden
enviar información al teléfono inteligente a través de aplicaciones especializadas. En este sentido, las
balizas brindan mucha flexibilidad para que el minorista se comprometa e interactúe con el cliente
(suponiendo que el cliente tenga la aplicación especializada). Esto se puede usar para enviar
notificaciones sobre productos, cupones, etc. en tiempo real al cliente. Además, debido a que el
cliente interactúa con la aplicación para utilizar esta información, el efecto de enviar la información al
cliente también se puede rastrear de inmediato. Esta tecnología parece tener mucho potencial para
personalizar la experiencia minorista de los clientes,
Machine Translated by Google

18 Análisis minorista 605

así como para recabar información del cliente. Según Kline,8 casi una cuarta parte de los minoristas
estadounidenses han implementado este tipo de balizas. Macy's y Rite Aid son algunos de los
minoristas destacados que completaron la implementación de balizas en la mayoría de sus tiendas
en 2015.
Algunos de los potenciales más emocionantes para la recopilación de datos se pueden ver en la
tienda minorista Amazon Go lanzada recientemente. La tienda permite a los clientes simplemente
agarrar artículos e irse, sin necesidad de pagar formalmente en un mostrador. El cliente solo necesita
escanear una aplicación al ingresar a la tienda. El uso de una gran cantidad de cámaras de video
junto con algoritmos basados en aprendizaje profundo hacen que esto sea bastante plausible. El
aprendizaje profundo es un área del aprendizaje automático que ha ganado una atención considerable
recientemente debido a su capacidad de vanguardia para descifrar datos no estructurados,
especialmente para el reconocimiento de imágenes; ver cap. 17 sobre el aprendizaje profundo. En el
contexto minorista, las cámaras de video capturan a los clientes y sus acciones, y los algoritmos de
aprendizaje profundo descifran lo que significan las acciones: qué artículos están agarrando de los
estantes y si están devolviendo algún artículo de su bolsa. Tal enfoque revolucionaría la experiencia
minorista de los clientes. Sin embargo, al mismo tiempo, proporciona a la empresa grandes
cantidades de datos más allá de las rutas de los clientes. Le permite a la empresa captar en
momentos de indecisión, productos que fueron comparados, especialmente cuando un producto es
reemplazado por un producto similar.

3 Metodologías

Nos centraremos en el análisis basado en productos para respaldar las decisiones de inventario,
surtido y fijación de precios. Los elementos clave de tales análisis son estimar la demanda de
productos por parte del consumidor, incluir el caso de grupos de productos y luego tomar decisiones
optimizando las variables relevantes.
Algunas de las decisiones fundamentales que toma un minorista es decidir el nivel de inventario
y establecer el precio para cada SKU. Por lo general, esto implica pronosticar la distribución de la
demanda y luego optimizar la variable de decisión en función del objetivo del minorista. La previsión
de la demanda es un tema que ha recibido mucha atención y tiene una larga historia de metodologías.

3.1 Modelado de demanda basado en productos

Los métodos de pronóstico típicos consideran la serie temporal univariada de los datos de ventas y
utilizan métodos basados en series temporales, como el suavizado exponencial y los modelos
ARIMA; ver cap. 12 sobre el análisis de pronósticos. Estos métodos generalmente se enfocan en pronosticar

8https://www.huffingtonpost.com/kenny-kline/how-bluetooth-beacons-wil_b_8982720.html
(consultado el 10 de mayo de 2018).
Machine Translated by Google

606 RS Randhawa

ventas y puede requerir la censura para ser utilizado para la toma de decisiones. Recientemente, ha
habido avances que utilizan enfoques estadísticos y de aprendizaje automático para manejar mayores
cantidades de datos.
A medida que crece el número de predictores, estimar la demanda se vuelve estadísticamente
complicado porque aumenta el potencial de sobreajuste. Por lo general, uno se enfrenta a una situación
de este tipo introduciendo alguna "regularización". La regularización L1 penalizada es una metodología
común, extremadamente exitosa, desarrollada para lidiar con la alta dimensionalidad, ya que realiza una
selección de variables. La regresión L1 penalizada llamada LASSO (operador de selección y contracción
mínima absoluta) se introdujo en Tib shirani (1996) y en el contexto de la regresión lineal típica de
mínimos cuadrados se puede entender de la siguiente manera: supongamos que el objetivo es predecir
una variable de respuesta y ÿ Rn usando covariables X ÿ Rn
×
p, entonces el objetivo de LASSO es resolver

min ||y–Xÿ||2 + ÿ||ÿ||1 p ÿÿR (18.1)

donde ||·||x representa la norma Lx de la expresión entre paréntesis. Tal formulación hace que el
estimador típico de mínimos cuadrados esté sesgado debido al término de regularización; sin embargo,
al seleccionar adecuadamente el regularizador, la varianza se puede reducir, de modo que, en general,
el estimador funciona mejor para la predicción. El uso de la norma L1 facilita la escasez y conduce a una
"mejor" selección de variables. Esto es especialmente útil en el caso de configuraciones de alta dimensión
en las que el número de parámetros p puede incluso exceder los puntos de datos n. Antes de la
introducción de LASSO, la regularización basada en L2, también llamada regresión de cresta, era una
forma común de aliviar el sobreajuste. Más recientemente, se ha propuesto la red elástica que utiliza las
normas L1 y L2 como regularizador. Dirigimos al lector al libro de código abierto9 de James et al. (2013)
para una discusión detallada de estas metodologías. Una descripción también está contenida en el Cap.
7 sobre análisis de regresión.

Recientemente, Ma et al. (2016) utilizó un enfoque basado en LASSO (junto con una selección de
características adicionales) para estimar las ventas basadas en SKU en un entorno de alta dimensión,
en el que las covariables incluían información promocional de categorías cruzadas, lo que involucraba
una cantidad extremadamente grande de parámetros. Descubrieron que incluir información de categorías
cruzadas mejora la precisión del pronóstico en un 12,6 %.
Ferreira et al. (2015) utilizó recientemente un enfoque alternativo basado en el aprendizaje automático
para pronosticar la demanda en un entorno minorista de moda en línea utilizando árboles de regresión.
Los árboles de regresión son un método no paramétrico que implica la predicción de manera jerárquica
mediante la creación de una serie de "divisiones" en los datos. Por ejemplo, la figura 18.1 (reproducida
de Ferreira et al. 2015) muestra un árbol de regresión con dos divisiones de este tipo.
Luego se pronostica la demanda respondiendo las preguntas correspondientes a cada una de las
divisiones: primero, si el precio del producto es inferior a $100. Si no, entonces la demanda se pronostica
como 30. De lo contrario, se hace la siguiente pregunta: si el precio relativo de los estilos de la
competencia es inferior a 0,8 (es decir, el precio de este estilo es

9http://www-bcf.usc.edu/~gareth/ISL/ (consultado el 31 de julio de 2018).


Machine Translated by Google

18 Análisis minorista 607

Fig. 18.1 Ejemplo de árbol


de regresión (Reproducido
de Ferreira et al. 2015)

menos del 80% del precio promedio de los estilos de la competencia); si la respuesta es no,
entonces la demanda se pronostica como 40. De lo contrario, se pronostica como 50. El documento
utiliza además el método de reducción de varianza de agregación o embolsado de arranque, en el
que se "cultiva" un conjunto de árboles, con cada árbol entrenado en un muestreo aleatorio del
conjunto de datos, es decir, si los datos tienen N registros, entonces cada árbol se entrena en m <
N registros muestreados aleatoriamente del conjunto de datos con reemplazo. Esto reduce la
interpretabilidad del modelo pero mejora el rendimiento. Remitimos al lector al libro citado
anteriormente sobre aprendizaje estadístico y al Cap. dieciséis, Aprendizaje automático
(supervisado), para obtener detalles sobre esta metodología. Un método estrechamente relacionado
es el de los bosques aleatorios, que es similar a los árboles empaquetados, excepto que a cada
árbol solo se le permite dividirse en un subconjunto de los parámetros; esto reduce la correlación
entre los árboles y reduce aún más la varianza. Los bosques aleatorios son extremadamente
buenos predictores listos para usar; sin embargo, debido a que cada árbol solo usa un subconjunto
de parámetros para el entrenamiento, su interpretabilidad general es bastante limitada.
Recientemente, las redes neuronales (artificiales) (NN) también se han empleado para la
previsión de la demanda (Au et al. 2008). Una red neuronal es un gran grupo de nodos que están
dispuestos en capas, y los arcos en la red están asociados con pesos (Sección 2.1 en el Capítulo
17 ). sobre el aprendizaje profundo). La entrada a la red se transforma secuencialmente capa por
capa: la entrada a una capa se usa para calcular la salida de cada nodo en la capa en función de
las entradas al nodo, y esto sirve como entrada a la siguiente capa. De esta manera, la red
neuronal produce una salida para cualquier entrada dada. Los pesos de la red neuronal se
"entrenan" generalmente mediante métodos de descenso de gradiente para minimizar una función
de pérdida que se relaciona con el error entre la salida y la entrada. Las redes neuronales pueden
modelar dependencias altamente no lineales y, como tales, funcionan muy bien para detectar
patrones y tendencias en escenarios complejos. Las redes neuronales existen desde hace mucho
tiempo; ver caps. dieciséis y 17 La conocida función de regresión logística se puede representar
mediante una red neuronal de una sola capa. Sin embargo, se obtienen redes más interesantes
creando una gran cantidad de capas; Las redes neuronales de cien capas no son infrecuentes.
Las redes neuronales profundas son notoriamente difíciles de entrenar, ya que requieren una gran
cantidad de datos y potencia computacional. Con los avances recientes en la recopilación de datos
y la computación, se ha hecho posible aprovechar el potencial de estas redes. La investigación
inicial demuestra que NN se puede usar de manera efectiva en el contexto de la predicción de la
demanda de moda, y esto ilustra el potencial para usar tales métodos para la previsión de la
demanda en el futuro. El rendimiento de las NN (y su sofisticación) aumenta a medida que aumenta
la cantidad de datos de entrenamiento. Con el auge de la recopilación de datos, especialmente de
datos no estructurados, las NN brindan un potencial interesante para la previsión de la demanda.
Machine Translated by Google

608 RS Randhawa

Volviendo a la toma de decisiones, la aplicación de estas estadísticas y máquinas


metodologías de aprendizaje genera nuevos retos y el potencial para generar
mejores decisiones. Por ejemplo, el trabajo de Ferreira et al. (2015) estudia el problema
de optimizar los precios de los productos (a niveles fijos de inventario). En este caso,
el enfoque de predicción de demanda basada en división implica que el programa de optimización
se convierte en un programa entero, donde, para un conjunto fijo de precios, la variable de decisión
es una variable binaria relacionada con si se ofrece un par de <producto, precio> en particular
O no. El artículo propone una solución de aproximación eficiente mediante el uso de un
relajación de programación. La solución se prueba en un experimento de campo y se encuentra que
generar un aumento de ingresos de alrededor del 10%.
Ejemplo: Inventario de planes y precios para un revendedor de herramientas manuales:
El conjunto de datos de muestra proporcionado en "handtools_reseller.csv" contiene información sobre
la demanda de productos ofrecidos por un revendedor de herramientas manuales reacondicionadas. los
data contiene información sobre el departamento, la categoría, el precio promedio
de productos de la competencia en la categoría, el MSRP (venta minorista sugerida por el fabricante)
precio), el número de estilos de la competencia, el total de eventos de ventas (para todos los productos), y
el número de eventos de venta del producto. Los datos proporcionan la "demanda" de
todos los productos a diferencia del artículo que estima la demanda de productos que se quedan sin
Valores. Las primeras cinco líneas de datos se muestran en la Tabla 18.1.

El árbol de regresión utilizado para entrenar y predecir la demanda incluía todas estas variables.
Basó el ajuste en una división de 70-30 entre las muestras del tren y de prueba. Creció un árbol completo
y lo podó para que coincidiera con el error más bajo en el conjunto de prueba. Los detalles del enfoque
utilizados se dan en el Cap. dieciséis sobre el aprendizaje supervisado. El árbol final se parece a
el que se da a continuación (su árbol puede ser ligeramente diferente dependiendo de la prueba y
muestras de trenes).
En este árbol, moverse hacia la izquierda significa responder "Sí". Un método ingenuo para establecer
el precio y el pedido de inventario se pueden basar en este árbol. Por ejemplo, uno puede
enfóquese en introducir un nuevo producto en una categoría y pregunte qué precio cobrar y
cuánto inventario pedir. Suponga que la tienda está considerando introducir un nuevo
producto dentro de una categoría que ya tiene cinco estilos en competencia. La media
precio (promedio) es 125, y el número de eventos de venta (venta total) es 4. El MSRP
para el producto también es 125. Observe que el árbol no necesita otra información para

Tabla 18.1 Demanda de herramientas manuales reacondicionadas (muestra de handtools_reseller.csv)


Número Pasado

Promedio de com Total 12 meses


precio sí Ventas Ventas

Producto Departamento Categoría MSRP Precio compitiendo estilos eventos eventos Pedir
9728 3 3 417 261 215.4 4 4 3 9
9131 3 2 290 124 133 7 5 1 18
2102 3 1 122 21 50,2 3 1 1 40
1879 1 2 258 84 135,6 3 6 1 38
1515 3 1 133 128 98.6 8 3 2 6
Machine Translated by Google

18 Análisis minorista 609

Fig. 18.2 Salida del árbol de regresión

Tabla 18.2 Modelo de predicción de la demanda (Tree_Regression_Example.xlsx)


Número de
Total Precio Precio compitiendo
Precio MSRP Promedio rebaja <70 >70 Pedir estilos Ingresos

$157.97 125 125 4 0 23 23 5 $3634.00

Dado un precio y otras variables calcula los ingresos


No ajusta el promedio si el precio cambia ni calcula el impacto en otros productos

predecir la demanda excepto el precio del producto. Entonces podemos crear un Excel
modelo que se muestra en la Tabla 18.2.

En este modelo simple, uno puede establecer un precio para el producto y bajarlo en la
árbol para predecir la demanda utilizando una serie de declaraciones "SI". La demanda si el precio
<70 y el precio >70 se calculan por separado para minimizar el número de bloques "IF".
La demanda es el total de los dos. Con Solver, un complemento de Microsoft Excel, uno
puede maximizar los ingresos variando el precio. El precio “óptimo” es $158 y el
el ingreso óptimo es $3634. Se le pide al lector que haga varias mejoras al
modelo que se muestra arriba en los ejercicios del capítulo.
El trabajo de Ferreira et al. (2015) adopta el enfoque típico de primera estimación
la demanda y luego optimizando las decisiones. Desde la perspectiva de la toma de decisiones.
en base a los datos disponibles, la naturaleza secuencial de este enfoque es innecesaria, y
uno puede concebir optimizar directamente la decisión de interés basada en todos los disponibles
datos. De hecho, Liyanage y Shanthikumar (2005) prueban que formular la decisión
como una función de los datos y luego optimizarlos directamente puede conducir a una mejora
rendimiento en comparación con el enfoque secuencial.
El trabajo de Ban y Rudin (2018) estudia tal enfoque en el contexto de
elección de inventario óptima para un solo producto (a precios fijos). Este es el escenario de
el clásico problema del vendedor de periódicos en el que el objetivo es seleccionar el nivel de stock para
minimizar el déficit y los costos de mantenimiento (esto se remonta a Edgeworth 1888 y es un
bloque de construcción para modelos más sofisticados de optimización de inventario estocástico;
ver Porteus 2002, para más antecedentes). La obra de Ban y Rudin (2018)
Machine Translated by Google

610 RS Randhawa

considera un enfoque basado en características en el que se supone que la demanda es una función
de muchas características que son observables antes de realizar el pedido, como la estación y el clima.
Por lo tanto, el objetivo del vendedor de periódicos es optimizar la cantidad del pedido en función de
las características observadas, cuando la demanda es incierta y depende de estas características
observables. El documento establece el problema de optimización como un problema de aprendizaje
automático, incluida la regularización como se discutió anteriormente cuando se trata de una gran
cantidad de funciones, y demuestra que el problema se puede resolver utilizando programas LP, MIP
o QCQP. La metodología se aplica al caso de la dotación de personal de enfermería en la sala de
emergencias de un hospital y se muestra que reduce los costos en aproximadamente un 24 % en
relación con los puntos de referencia existentes.

3.2 Incorporación de la elección del consumidor en el modelado de la demanda

La discusión anterior se centra en los modelos de demanda exógena sin entrar en detalles sobre cómo
surge la demanda. En situaciones de venta al por menor, la sustitución de productos es abundante en
la que cuando el artículo preferido de un cliente está agotado, lo sustituyen seleccionando un producto
diferente. (El trabajo informado en Gruen et al. 2002 sugiere que tales tasas de sustitución pueden ser
significativas).
Esto motiva directamente a modelar las preferencias de los clientes sobre todos los productos que
ofrece el minorista. Uno de los modelos de caballo de batalla para tales modelos de elección del
consumidor es el logit multinomial (MNL); véase también el cap. 8 sobre análisis de regresión avanzada
y Cap. 23 sobre análisis de precios para otras aplicaciones. El modelo MNL considera que cada
consumidor selecciona un producto que maximiza su utilidad. En particular, el modelo describe cada
producto-j de un conjunto de productos numerados 1,...,N a través de una utilidad promedio vj , de
modo que la utilidad de un consumidor i, al elegir el producto-j, viene dada por ui,j = vj + ÿij, donde ÿij
es un término de ruido idiosincrásico de media cero. En el MNL, el ruido se modela como una
distribución de Gumbel,10 y para esta distribución podemos definir la probabilidad de que el cliente i
elija el producto-j cuando se le da un subconjunto de productos A de la siguiente manera:

exp vj
P (El cliente elige el producto j) = 1 + (18.2)
kÿA exp (vk)

Mixed MNL es una extensión natural de este modelo, en el que se incorpora la heterogeneidad
del cliente. Además, la utilidad puede ser una función de los atributos del producto. En particular, el
coeficiente ÿ aplicado a los atributos no es fijo sino que se supone que difiere entre los clientes. Los
coeficientes normalmente se modelan como derivados de una determinada distribución con un
parámetro desconocido que se utiliza como parte del proceso de estimación.

10 Se ha propuesto una alternativa en Alptekinoglu y Semple (2016) que considera el ruido


distribuido exponencialmente, y el modelo se denomina modelo de elección exponencial (EC).
Machine Translated by Google

18 Análisis minorista 611

Este modelo MNL ha incorporado una "independencia de alternativas irrelevantes", y el modelo se


vuelve inválido en situaciones en las que este efecto no se cumple (para obtener más detalles, consulte
el libro sobre modelos de elección: Train 2009). Para paliar esto, se ha propuesto el modelo Nested Logit
en el que los productos se organizan en categorías en una estructura de árbol y el cliente selecciona un
producto seleccionando iterativamente una de las muchas categorías que el cliente necesita en cada
paso (es decir, el cliente selecciona la rama del árbol). Esto continúa hasta que el cliente selecciona un
producto (es decir, llega a un nodo hoja del árbol).

El modelo MNL ha demostrado ser extremadamente valioso en la estimación de la demanda cuando


se trata de situaciones de sustitución de productos. Se ha utilizado ampliamente en la literatura de
marketing, que utiliza datos de panel que incluyen datos a nivel de hogar y de tienda agregados a lo
largo del tiempo. Tal enfoque se remonta a Guadagni y Little (1983), Chandukala et al. (2008) y Wierenga
et al. (2008), quienes presentan una descripción detallada del modelo de elección utilizando datos de
panel.
Un pequeño ejemplo de planificación de inventario bajo sustitución estática, planificación de surtido
en AbD (inspirada en las notas de clase de Dorothee Honhon en UT Dallas): AbD es un mayorista de
bloques de granito que ofrece una gran variedad de losas.
Sin embargo, por suerte, las losas se agrupan en tipos de piedras, e incluso dentro de las piedras, se
clasifican en función del color y la calidad. Por ejemplo, dentro de las losas de granito, ofrecen cuatro
grados que tienen precios diferentes. Estos grados vienen en tonos claros a oscuros.
Hay dos modos de suministro y dos supuestos posibles acerca de la demanda. En el primer modo de
suministro, AbD realiza pedidos desde Brasil después de que el cliente realiza un pedido. Este método
se usa solo para losas de la más alta calidad porque la entrega exige un precio superior. Este método
está etiquetado como Fabricación bajo pedido o MTO. Para MTO, la demanda depende del surtido
ofrecido y es estática. No hay costo de transporte.
Sin embargo, es posible que algunos clientes no opten por esperar tanto.
Para el resto del mercado, AbD utiliza un enfoque MTS (make to stock). En este modelo, la piedra se
encarga anticipándose a la demanda. Para las ventas en línea, AbD ha visto que la demanda es algo
predecible dentro de cada grupo. Sin embargo, debido a que las losas se piden por adelantado, AbD
tiene que llevar un inventario. Además, el cliente rara vez ve el "stock disponible" y simplemente tiene
que aceptar lo que se ofrece en el sitio web. AbD ha visto que hay poca superposición entre la variedad
preferida en el canal de Internet y los colores preferidos por los clientes sin cita previa. Las ventas
también se llevan a cabo para caminar en los clientes. Tales ventas en la tienda son muy aleatorias. Por
lo general, AbD ha visto que la variación de las ventas en una categoría está cerca de la demanda media
y, por lo tanto, asume una distribución de Poisson para la demanda. AbD enfrenta el riesgo de llevar
inventario sin vender, así como el de quedarse sin existencias. En este caso, el cliente también ve el
inventario. Por lo tanto, el cliente (que suele ser impaciente) puede cambiar a otro producto dentro de la
categoría o salir de la tienda.

Con fines ilustrativos, consideramos una muestra (Tabla 18.3) dentro de la categoría oscura de losas.
Se enumeran el nombre de la losa, el precio de venta y el costo de mantenimiento. Un estudio de
mercado ha identificado el “valor bruto” del cliente asociado a cada uno de los productos. También se
proporciona el "valor" de ninguna compra. Todas las cifras están en dólares.
Machine Translated by Google

612 RS Randhawa

Tabla 18.3 Muestra de la categoría oscura de losas

Nombre de la losa Precio por losa Valor adjunto por el cliente 1750 Costo de mantenimiento por período

azul romano 1440 14.4

Niágara 2323 2500 20


Siempre negro 1717 1987 19.87
violeta negro 1744 1800 18

Cuadro 18.4 AbD vende MTO

Demanda, D 5 Costo de almacenamiento 175

Factor de escala, s 100


Precio Valor Mantener Exp problema Menos

(pags) (en) costo v ÿ p (v-p) ganancia de compra costo de acciones

Azul romano 1440 1750 14.4 310 22.19795128 0.4857 $ 664.49 $ 489.49

Niágara 2323 2500 20 177 5.870853361 0.1285 $ 285.58 $ 110.58


Siempre negro 1717 1987 19.87 270 14.87973172 0.3256 $ 526.71 $ 351.71
Violeta Negro 1744 1800 18 56 1.7506725 0.0383 $ 63.36 $
(111.64)
0.9781

El factor de escala se elige en función de la no compra


probabilidad (aquí = 0.0219)
Ganancia esperada $ 840.15

Beneficio = D * Prob. compra (Precio ÿ Costo ÿ costo de mantener)


Tenga en cuenta que el costo = 80% precio

Para simplificar, suponga que el valor de ninguna compra se normaliza a cero. los
el valor neto para un cliente por la compra de una losa es igual a (Valor – Precio). También,
suponga que cada cliente comprará exactamente una losa. El costo de una losa es
80% del precio. Hay un costo de tenencia por unidad debido a intereses, almacenamiento,
rotura, etc. Hay un costo fijo de 175 por losa almacenada. El número promedio de
clientes por periodo en todos los ejemplos es 5.
Considere el caso cuando el producto se vende como MTO. Usamos la opción MNL
modelo en este ejemplo: En la versión más simple del modelo, la probabilidad de que un
el cliente elige un producto i viene dado por ÿi = e((viÿpi)/s)/(1 + e((vlÿpj )/s));
j donde pi representa el precio y vi el valor asociado al producto-i, s es una escala
factor, y la suma se toma de todos los productos que se comparan con el producto-i.
capitulo 23, Pricing Analytics, tiene más detalles sobre este modelo de consumidor
elección. Sea D la demanda media. Suponga que el factor de escala es 100. El valor esperado
entonces el beneficio viene dado por

D × j(0.2 ÿjpj – Costo de mantenimiento) – número de productos almacenados × costo de almacenamiento

La rentabilidad esperada de ofrecer los cuatro productos en el surtido es


calcula como se muestra (la ganancia se calcula después de restar el costo de almacenamiento) en
Tabla 18.4.
Se pide al lector que verifique estos cálculos, así como que evalúe si este
es el surtido óptimo de MTO para ofrecer en los ejercicios.
Machine Translated by Google

18 Análisis minorista 613

Continuando con la discusión del modelo de demanda basado en la elección del consumidor,
el trabajo de Vulcano et al. (2012) analiza un modelo de demanda que combina un modelo de
elección MNL con un modelo de llegadas de Poisson no homogéneo. El documento estima
conjuntamente las preferencias de los clientes y los parámetros del proceso de llegada (de la
demanda) utilizando datos de ventas, que incluyen información sobre la disponibilidad del
producto. El documento utiliza un algoritmo de maximización de expectativas (EM) y demuestra la
eficacia de su método utilizando conjuntos de datos de la industria, incluido el de una cadena minorista real.
Si bien el MNL es una gran clase de modelos paramétricos, tiene una deficiencia adicional en
el modelado de sustitución de productos. Algunos ejemplos de artículos que consideran modelos
alternativos de sustitución de productos son Anupindi et al. (1998), Chong et al. (2001), Bell et al.
(2005), Kök y Fisher (2007) y Fisher y Vaidyanathan (2014).

Recientemente, se ha propuesto un modelo de elección basado en cadenas de Markov que


generaliza el MNL en Blanchet et al. (2016). El documento utiliza transiciones de estado de la
cadena de Markov para modelar sustituciones de productos y aproximar modelos generales,
incluida una combinación de MNL y logit anidado.
Una alternativa a estos modelos es la clase de modelos de elección no paramétricos que se
han estudiado recientemente en Haensel y Koole (2011), Farias et al. (2013) y Van Ryzin y
Vulcano (2017). En estos documentos, los tipos de clientes se definen a través de una clasificación
directa de los tipos de productos, y cuando se enfrentan a elegir entre un conjunto de productos
ofrecidos, los clientes bajan en su lista de clasificación y eligen el producto disponible mejor
clasificado (la lista incluye el no -opción de compra, por lo que los clientes pueden irse sin
comprar). Farías et al. (2013) adoptan un enfoque de optimización sólido al resolver la distribución
del tipo de cliente que conduce a los ingresos en el peor de los casos, al tiempo que imponen los
datos de elección observados como una restricción. Un resultado clave es que el modelo de
demanda obtenido es aproximadamente el modelo de elección más escasa. Muestran una mejora
del 20 % en la precisión con respecto a los modelos de referencia para un conjunto de datos de
ventas de automóviles. Haensel y Koole (2011) y Van Ryzin y Vulcano (2017) utilizan métodos
EM para estimar los parámetros desconocidos. Un artículo reciente (Jagabathula y Vulcano 2017)
también propone un enfoque no paramétrico que se centra en las interacciones repetidas del
consumidor en las que las preferencias del cliente pueden verse alteradas por el precio o mostrar
promociones, y los clientes exhiben una racionalidad limitada al considerar solo un subconjunto
no observado de los productos ofrecidos, denominados como conjuntos de consideración. Usando
un conjunto de datos de comestibles, muestran una mejora del 40 % en la precisión de la
predicción sobre los puntos de referencia de última generación basados en variantes del MNL
comúnmente utilizadas en la práctica actual de la industria. Recientemente, Jagabathula y
Rusmevichientong (2016) se suman a esta literatura al incorporar precios al asociar a los clientes
con un umbral de precio además de los conjuntos de consideración.
Volviendo a la toma de decisiones, hay una gran colección de documentos que han analizado
la optimización del surtido utilizando tales modelos de elección. En general, hay tres decisiones
aquí: surtido para ofrecer; los niveles de inventario de cada producto en surtido; y el precio de
cada artículo en el surtido. La optimización del surtido introduce una complejidad porque
representa un problema combinatorio que puede requerir la enumeración de los diferentes
productos. Uno de los artículos pioneros de Ryzin y Mahajan (1999) optimiza el inventario y el
surtido utilizando un modelo basado en MNL.
Machine Translated by Google

614 RS Randhawa

marco de la demanda. En el artículo, se observa una función de anidamiento, de modo que los
productos pueden clasificarse por su valor y el surtido óptimo solo requiere considerar subconjuntos
anidados de los productos clasificados. Empíricamente, se ha visto que dicha optimización mejora
significativamente las finanzas de una empresa, por ejemplo, Kök y Fisher (2007) estiman un
aumento del 50 % en las ganancias de un minorista, Fisher y Vaidyanathan (2014) informan un
aumento de ventas del 3,6 % y 5,8 % . para dos categorías de productos diferentes, y Farias et al.
(2013) y Jagabathula y Rusmevichientong (2016) estiman alrededor de un 10% de aumento en los
ingresos. Dirigimos al lector a Rusmevichientong et al. (2006), Smith et al.
(2009), Honhon et al. (2010) y Honhon et al. (2012) para optimizar la toma de decisiones bajo
variantes de modelos de elección basados en rangos. Más recientemente, ha habido un interés
creciente en optimizar los surtidos utilizando métodos no paramétricos. Por ejemplo, Bertsimas y
Mišic (2015) utilizan un modelo de elección no paramétrico relacionado con Farias et al. (2013) ,
pero renuncia al enfoque robusto para estimar directamente el modelo de elección resolviendo de
manera eficiente un problema de optimización lineal a gran escala mediante la generación de
columnas y luego resuelve la pieza de optimización de surtido basada en la solución de un problema
de optimización de enteros mixtos prácticamente tratable. El Jagabathula y Rusmevichientong
(2016) al que se hizo referencia anteriormente resuelve un problema conjunto de precios y surtido
(que se sabe que es NP-difícil) utilizando un algoritmo de aproximación con una garantía de
desempeño demostrable basada en una formulación de DP.
Curiosamente, a medida que avanzamos hacia surtidos dinámicos, que se vuelven más
relevantes en el contexto del comercio electrónico, Bernstein et al. (2015) y Golrezaei et al. (2014)
resuelven este problema en un entorno de inventario limitado. Estos últimos, de hecho, consideran
un modelo de elección del consumidor muy general y proponen un algoritmo que no requiere el
conocimiento de la información de llegada del cliente.
Ejemplo: Surtido a través de Internet
Considere el ejemplo anterior y el caso cuando el surtido se ofrece a través de Internet. En este
caso, el surtido se cambia cada temporada de venta. Modelamos esto como un problema MTS sin
sustitución. Una vez que se agota el producto, el cliente que lo solicita recibe un mensaje de que
está agotado y se va sin comprar. También se nos dice que deshacerse del producto no vendido al
final de un período (o temporada de venta) recupera el 85% del costo del producto. Este costo se
estima como el costo del artículo menos el costo de envío a una tienda de descuento y el costo de
mantenimiento para vender el producto al final de la temporada. Se supone que la demanda tiene
una distribución de Poisson con media igual a 5. Aunque podemos calcular la ganancia esperada
analíticamente, para ilustrar un método alternativo, ¡usaremos simulaciones! Por hacer esto,
generamos demanda 1000 veces. En cada simulación, dibujamos el número de clientes según la
distribución de Poisson. Luego determine qué losa prefiere cada uno de los clientes. Dada una
cantidad de existencias, es sencillo pero un poco tedioso calcular la ganancia esperada. La hoja
“Surtido_Ejemplos.xlsx” contiene la simulación. Los resultados del resumen de la muestra cuando
se almacena una losa de cada tipo se muestran a continuación (datos y ganancias promedio arriba
y las primeras filas de simulación a continuación en las Tablas 18.5 y 18.6).

Por ejemplo, en la primera simulación llegaron tres clientes. Todos querían Roman Blue. La
venta real fue de una losa de Roman Blue y una losa de Niagara,
Machine Translated by Google

18 Análisis minorista 615

Cuadro 18.5 AbD vende MTS

Demanda, D 5 Costo de almacenamiento 175

Factor de escala, s 100


Precio Valor Valores problema Menos

(pags) (en) costo vp Exp (vp) Ganancia de compra costo de acciones

azul romano 1440 1750 14.4 310 22.19795128 0.4857 $ 685.07 $ 510.07

Niágara 2323 2500 20 177 5.870853361 0.1285 $ 284.03 $ 109.03


Siempre negro 1717 1987 19.87 270 14.87973172 0.3256 $ 544.66 $ 369.66
Violeta Negro 1744 1800 18 56 1.7506725 0.0383 $ 52.41 $ (122.59)
0.9781
El factor de escala se elige en función del número
probabilidad de compra (aquí = 0.0219)
Ganancia esperada $ 866.16

Tabla 18.6 Beneficio MTS usando simulación

Inventario 1 1 1 1 Total
romano Siempre Violeta Nº de
Simulación aleatoria Lucro Azul Niágara Negro Negro clientes
1 0.17144837 $ (1106.08) 3 0.73233508 0 0 0 3
2 $ 195.36 0.98212926 $ 744.80 1 3 0 2 6
3 0.48677441 $ 1.44 0.13994017 $ 6 1 2 1 10
4 (556.64) 2 3 0 1 1 5
5 0 1 0 3

Forever Black y Violet Black tuvieron que ser rescatados con pérdidas. Se pide al lector que
verifique la configuración de la simulación en el ejercicio y luego tome las decisiones óptimas.
AbD vende a clientes sin cita previa o vende MTS con sustitución. ya podemos
¡Mira cómo este problema se vuelve mucho más complicado cuando hay sustitución!
Además de crear llegadas, tenemos que hacer un seguimiento de la secuencia en la que las
llegan los clientes y luego ver si hay stock. Si hay desabastecimiento, necesitamos modelar
si hay sustitución de los productos restantes o el cliente abandona el
almacenar con las manos vacías. El ejercicio 18.4 da un ejemplo simple para ilustrar estas ideas.
En muchos entornos, las preferencias de los clientes no se conocen y es posible que sea necesario aprender
éstos mientras optimizan simultáneamente el surtido. Caro y Gallien (2007)
y Rusmevichientong et al. (2010) fueron de los primeros en estudiar este problema.
Caro y Gallien (2007) emprendieron un enfoque de aprendizaje bayesiano en el que el
primitivos subyacentes tienen una cierta distribución, y el enfoque bayesiano es
para aprender estos parámetros. Por otro lado, Rusmevichientong et al. (2010)
utilizó un enfoque de aprendizaje adaptativo en el que tales antecedentes no se asumen, y un
Se utiliza el paradigma explorar-explotar: en este enfoque, el tomador de decisiones equilibra
"exploración" para recopilar puntos de datos relevantes, con "explotación" para generar ingresos
en base a los datos observados hasta el momento. Más recientemente, la noción de personalización
surtidos se está volviendo frecuente, especialmente en entornos de venta electrónica, en los que un cliente
se le podría mostrar una variedad de artículos en función de la información específica del cliente, como
Machine Translated by Google

616 RS Randhawa

como datos históricos sobre preferencias, demografía, etc. En tal situación, estimar la elección
del cliente se convierte en un problema de estimación de alta dimensión (la dimensionalidad es
igual al número de clientes multiplicado por el número de productos). Un artículo reciente (Kallus
y Udell 2016) considera este problema y propone un modelo de elección logit multinomial mixto
de bajo rango en el que se supone que la matriz de elección del cliente tiene una representación
latente de bajo rango. El documento propone un estimador de máxima verosimilitud regularizado
de norma nuclear para aprender este modelo y muestra que puede aprender el modelo con
pocas interacciones con los clientes. En términos generales, con las crecientes capacidades de
recopilación de datos, esperamos una mayor proliferación de tales modelos que estiman las
opciones individuales a nivel de cliente y las utilizan para tomar decisiones personalizadas.

4 Desafíos y Oportunidades de Negocios

4.1 Comercio minorista omnicanal

El tremendo éxito del comercio electrónico ha llevado a muchos minoristas a aumentar sus
tiendas físicas con una presencia en línea, lo que ha llevado al advenimiento del comercio
minorista multicanal. En este enfoque, el minorista tiene acceso a múltiples canales para
interactuar con el cliente y venderle. Normalmente, cada uno de estos canales se gestiona por
separado. Este enfoque multicanal se ha visto eclipsado por lo que comúnmente se conoce
como comercio minorista omnicanal , en el que la empresa integra todos los canales para
brindar una experiencia perfecta a los clientes. Un buen ejemplo de este enfoque es el enfoque
de "compre en línea, recoja en la tienda" (BOPS) que se ha vuelto bastante común.
Indiscutiblemente, este enfoque perfecto mejora la experiencia del cliente y las ventas en
general; sin embargo, puede conducir a resultados no deseados. Por ejemplo, Bell et al. (2014)
muestran que dicha estrategia puede reducir las ventas en línea y, en cambio, generar un
aumento en las ventas y el tráfico en la tienda. En ese contexto, los autores encuentran que se
generan ventas adicionales mediante la venta cruzada en la que los clientes que utilizan la
funcionalidad BOPS compran productos adicionales en las tiendas y, además, también existe
un efecto de canal en el que los clientes en línea pueden convertirse en ladrillo. -y-mortero clientes.
Los beneficios del enfoque omnicanal incluso están impulsando a los minoristas en línea a
incursionar en las tiendas físicas. Por ejemplo, estudios recientes muestran cómo, al introducir
un canal fuera de línea a través de salas de exhibición, WarbyParker.com pudo aumentar tanto
la demanda general como la del canal en línea (ver Bell et al. 2014).
Por lo tanto, existe un valor significativo para que un minorista incursione en la omnicanalidad.
Sin embargo, al hacerlo, es crucial que el análisis minorista de la empresa trascienda al análisis
omnicanal para una estimación correcta y una toma de decisiones óptima.
Machine Translated by Google

18 Análisis minorista 617

4.2 Startups minoristas

Ha habido un aumento repentino en las nuevas empresas de análisis minorista recientemente. La mayoría
de estas empresas se pueden clasificar como aquellas que usan tecnología para ayudar en la recopilación
de datos y aquellas que usan medios sofisticados para analizar los datos en sí.
En términos de recopilación de datos, hay muchas nuevas empresas que atienden a la gama de
minoristas, tanto pequeños como grandes. Algunos ejemplos ilustrativos aquí son Euclid Analytics, que
utiliza Wi-Fi en la tienda para recopilar información sobre los clientes a través de sus teléfonos inteligentes.
La empresa puede recopilar el comportamiento de los clientes en la tienda y también datos sobre visitas
repetidas. La recopilación de información basada en Wi-Fi también permite al minorista realizar un
seguimiento de lo que hacen los clientes en línea mientras están en la tienda. Esto le permite al minorista

comprender mejor su base de clientes, incluidos los productos que están investigando en sus teléfonos
inteligentes (showrooming). Otra puesta en marcha reciente es Dor, que está dirigida a minoristas más
pequeños y vende un dispositivo que cuenta el tráfico peatonal en la tienda. Luego proporciona una vista

de tablero del tráfico y proporciona información para optimizar la dotación de personal. Startups como
Brickstream y Footmarks producen sensores que monitorean el tráfico peatonal, para que los asociados
puedan reaccionar ante los compradores en tiempo real. Swirl trabaja con marcas como Urban Outfitters,
Lord & Taylor y Timberland para monitorear el comportamiento de los compradores con balizas. Point Inside
proporciona balizas a Target. Las empresas emergentes como Estimote, Shelfbucks y Bfonics aprovechan
las balizas para el marketing de proximidad en la tienda, como enviar notificaciones móviles a los
compradores sobre los productos que están buscando actualmente.

El análisis de video es otra área emocionante en la que se están involucrando las nuevas empresas.
Por ejemplo, Brickstream utiliza análisis de video para capturar inteligencia de comportamiento en profundidad.
RetailNext es una de las nuevas empresas más grandes en este dominio y cubre una amplia gama de
recopilación de datos, desde la recopilación de datos basada en Wi-Fi hasta métodos más sofisticados que
utilizan transmisiones de cámaras de video. RetailNext también profundiza en una variedad de soluciones
de análisis que incluyen horarios de personal y algunas pruebas A/B. El análisis de video ayuda en el mapa
de calor de las rutas de los clientes y también se puede usar para la prevención de pérdidas.
Oak Labs construye espejos interactivos con pantalla táctil que pretenden revolucionar el probador. El

espejo permite a los clientes explorar recomendaciones de productos y buscar asistencia digital de los
asociados de la tienda. El uso de la tecnología aquí mejora la experiencia del cliente y recopila datos
valiosos al mismo tiempo.
PERCH produce pantallas digitales interactivas utilizadas por marcas como Kate Spade y Cole Haan.
Blippar se enfoca en integrar dominios digitales y físicos mediante el uso de una aplicación que desbloquea
contenido al escanear productos. Aila administra tabletas interactivas en el pasillo para tiendas que brindan
a los clientes información detallada del producto al escanear un código de barras del producto. Estas nuevas
empresas se enfocan en mejorar la experiencia del cliente al proporcionar más información y al mismo
tiempo recopilar información sobre cómo los clientes eligen productos que pueden ayudar al minorista a
tomar decisiones más inteligentes.
En cuanto a la analítica, algunas empresas emergentes como Sku IQ y Orchestro se centran en brindar
una vista unificada a las empresas multicanal. Sku IQ proporciona una vista unificada del inventario, las
ventas y los clientes de todos los canales. Orchestro se centra en la estimación de la demanda mediante la
combinación de datos de sistemas POS, ERP interno y datos de terceros
Machine Translated by Google

618 RS Randhawa

en una visión común de la demanda. Orchestro fue adquirida recientemente por E2open, un proveedor
de sistemas de gestión de red de cadena de suministro basado en la nube.
En cuanto a las nuevas empresas centradas en el análisis avanzado, Blue Yonder se centra en el
análisis para optimizar el precio y la reposición de inventario, mientras que Celect se centra en el uso
del aprendizaje automático para optimizar los surtidos de productos. Finalmente, Stitch Fix brinda una
perspectiva interesante sobre cómo la personalización para los clientes puede tener un enorme potencial
comercial. Stitch Fix selecciona ropa de moda y da recomendaciones a sus miembros. Para ello, utiliza
algoritmos de aprendizaje automático que hacen sugerencias a estilistas humanos que luego usan su
experiencia y conocimiento para hacer recomendaciones a los clientes finales.

5 Conclusión y lecturas adicionales

Este capítulo ha establecido varios modelos y enfoques utilizados en la industria minorista.


La encuesta no es exhaustiva, simplemente por los cambios que ocurren todos los días en el diseño, la
fabricación y la entrega de productos y servicios. El comercio minorista y las cadenas de suministro
están unidos, y cualquier progreso en uno conducirá a cambios en el otro. Los cambios no ocurren
sincrónicamente, debido a la experimentación constante, la apertura de nuevos mercados, nuevos
canales y la proliferación de fuentes de suministro, el enfoque ha sido oportunista. Las referencias y las
revistas que publicaron los artículos citados en este capítulo son un buen punto de partida para aprender
más sobre el tema y mantenerse al tanto de los desarrollos.

Material complementario electrónico

Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están
disponibles en https://www.allaboutanalytics.net.

• Datos 18.1: handtools_reseller.csv • Datos


18.2: Assortment_Examples.xlsx • Datos 18.3:
Tree_Regression_Example.xlsx

Ejercicios

Ex. 18.1 Revendedor de herramientas manuales:

(a) Replique el árbol de regresión que se muestra en la figura 18.2. Los detalles del procedimiento se
encuentran en el Cap. dieciséis sobre el aprendizaje supervisado. (b) Mejorar el modelo para
considerar el impacto del precio del producto en el precio promedio de los productos de la competencia.
Machine Translated by Google

18 Análisis minorista 619

(c) Mejorar el modelo para no solo considerar los ingresos por nuevos productos, sino también
los ingresos por productos de la competencia. Para hacerlo, suponga que los otros productos
tienen precios de 75, 100, 125, 150 y 175, y sus MSRP son iguales a sus precios. (d) A la
gerencia de la tienda le gustaría asegurarse de que las ventas totales del nuevo producto sean
de al menos 25 unidades. ¿Cómo afecta este cambio a su solución? (e) La tienda desea
ordenar inventario con base en la demanda pronosticada. ¡El gerente de la tienda argumenta
que la predicción de la demanda es solo un número! Él dice: "Necesitamos un pronóstico
de intervalo". ¿Cómo modificaría el modelo para predecir un intervalo (como (20,26))? ¿Qué
inventario pedirías? (Sugerencia: mire el error asociado con la predicción en un nodo del
árbol de regresión. ¿Puede usar esto?)

Ex. 18.2 AbD vende MTO:

(a) Calcule la utilidad esperada (que se muestra en la tabla 18.4) usando las fórmulas provistas
en el capítulo. Puede consultar la hoja MTO de AssortmentExamples.xlsx. (b) ¿Es este el
surtido óptimo para ofrecer? (c) ¿Qué cambiaría si el costo de almacenamiento aumentara a
$230 por producto?
abastecido?

(d) ¿Cómo evaluaría AbD si agregar un nuevo producto a esta categoría? Crear
su propio ejemplo y mostrar el análisis.

Ex. 18.3 AbD vende MTS:

(a) Calcule la utilidad esperada (que se muestra en la tabla 18.5) usando las fórmulas provistas
en el capítulo. Verifique la simulación. (b) ¿Es este el surtido óptimo para ofrecer? ¿Se
puede optimizar el beneficio esperado? (c) ¿Qué cambiaría si el costo de almacenamiento
aumentara a $230 por producto?
abastecido?

(d) ¿Cómo evaluaría AbD el impacto de un aumento del 5% en el precio de todos los productos?

Ex. 18.4 AbD vende a Walk-Ins:

AbD decide ofrecer solo dos tipos de losas a los clientes sin cita previa, Roman Blue y
Forever Black. Suponga que las probabilidades de elección son 0,4857 y 0,3256, respectivamente.
Si un cliente no encuentra el producto deseado, cambiará al otro producto con la mitad de la
probabilidad original (0.2428 y 0.1628). AbD mantiene solo una losa de cada uno como inventario.
Utilice los mismos costes y precios que en el ejercicio anterior. Calcule la ganancia esperada
cuando llega exactamente un cliente y también cuando llegan exactamente dos clientes.
(Sugerencia: enumere todas las secuencias posibles en las que se demanda un producto).

Referencias
ÿ

Alptekinoglu, A. y Semple, JH (2016). El modelo de elección exponencial: una nueva alternativa para la optimización
de surtido y precio. Investigación de operaciones, 64(1), 79–93.
Anupindi, R., Dada, M. y Gupta, S. (1998). Estimación de la demanda del consumidor con sustitución basada en
desabastecimiento: una aplicación a productos de máquinas expendedoras. Ciencias del marketing, 17(4), 406–423.
Machine Translated by Google

620 RS Randhawa

Au, KF, Choi, TM y Yu, Y. (2008). Pronóstico minorista de moda por redes neuronales evolutivas.
Revista Internacional de Economía de la Producción, 114(2), 615–630.
Ban, G.-Y., & Rudin, C. (2018). El vendedor de noticias de big data: conocimientos prácticos del aprendizaje automático.
La investigación de operaciones. Disponible en SSRN: https://ssrn.com/abstract=2559116. doi.org/ 10.2139/
ssrn.2559116
Bell, DR, Bonfrer, A. y Chintagunta, PK (2005). Recuperación de preferencias a nivel de unidad de almacenamiento y
sensibilidades de respuesta a partir de modelos de participación de mercado estimados en agregados de artículos.
Revista de Investigación de Mercados, 42(2), 169–182.
Bell, DR, Gallino, S. y Moreno, A. (2014). Salas de exposición fuera de línea y migración de clientes en el comercio
minorista omnicanal. Recuperado el 1 de agosto de 2018 de https://courses.helsinki.fi/sites/default/files/course-
material/4482621/17.3_MIT2014%20Bell.pdf Bernstein, F., Kök , AG y Xie, L. ( 2015). Personalización dinámica del
surtido con inventarios limitados. Gestión de operaciones de fabricación y servicios, 17(4), 538–553.

Bertsimas, D. y Misic, VV (2015). Optimización de surtido basada en datos. La investigación de operaciones


Centro, MIT.
Blanchet, J., Gallego, G. y Goyal, V. (2016). Una aproximación de la cadena de Markov al modelo de elección.
Investigación de operaciones, 64(4), 886–905.
Bradlow, ET, Gangwar, M., Kopalle, P. y Voleti, S. (2017). El papel del big data y predictivo
análisis en el comercio minorista. Revista de venta minorista, 93 (1), 79–95.
Caro, F. y Gallien, J. (2007). Surtido dinámico con aprendizaje de demanda para bienes de consumo estacionales.
Ciencias de la administración, 53(2), 276–292.
Chandukala, SR, Kim, J., Otter, T., Rossi, PE y Allenby, GM (2008). Modelos de elección en marketing: supuestos
económicos, desafíos y tendencias. Fundamentos y tendencias® en marketing, 2(2), 97–184.

Chong, JK, Ho, TH y Tang, CS (2001). Un marco de modelado para el surtido de categorías
planificación. Gestión de operaciones de fabricación y servicios, 3(3), 191–210.
De Horatius, N. (2011). Inexactitud del registro de inventario en las cadenas de suministro minorista. Enciclopedia Wiley de
investigación de operaciones y ciencias de la gestión (págs. 1–14).
DeHoratius, N. y Raman, A. (2008). Inexactitud del registro de inventario: un análisis empírico.
Ciencias de la gestión, 54(4), 627–641.
Edgeworth, año fiscal (1888). La teoría matemática de la banca. Diario de la Estadística Real
Sociedad, 51(1), 113–127.
Farias, VF, Jagabathula, S. y Shah, D. (2013). Un enfoque no paramétrico para modelar la elección
con datos limitados. Ciencias de la administración, 59(2), 305–322.
Ferreira, KJ, Lee, BHA y Simchi-Levi, D. (2015). Análisis para un minorista en línea: previsión de demanda y optimización
de precios. Gestión de operaciones de fabricación y servicios, 18(1), 69–88.

Fisher, M. y Vaidyanathan, R. (2014). Un procedimiento de estimación de la demanda para la optimización del surtido
minorista con resultados de implementaciones. Ciencias de la administración, 60(10), 2401–2415.
Golrezaei, N., Nazerzadeh, H. y Rusmevichientong, P. (2014). Optimización en tiempo real de
surtidos personalizados. Ciencias de la gestión, 60(6), 1532–1551.
Gruen, TW, Corsten, DS y Bharadwaj, S. (2002). Venta minorista agotada: un examen mundial del alcance, las causas y
las respuestas de los consumidores. Washington, DC: Fabricantes de comestibles de América.

Guadagni, PM y Little, JD (1983). Un modelo logit de elección de marca calibrado en datos de escáner.
Ciencias del marketing, 2(3), 203–238.
Haensel, A. y Koole, G. (2011). Estimación de funciones de tasa de demanda sin restricciones utilizando el cliente
conjuntos de elección. Journal of Revenue and Pricing Management, 10(5), 438–454.
Honhon, D., Gaur, V. y Seshadri, S. (2010). Planificación de surtido y decisiones de inventario bajo sustitución basada en
desabastecimiento. Investigación de operaciones, 58(5), 1364–1379.
Honhon, D., Jonnalagedda, S. y Pan, XA (2012). Algoritmos óptimos para la selección de surtido bajo modelos de elección
del consumidor basados en clasificación. Gestión de operaciones de fabricación y servicios, 14(2), 279–289.
Machine Translated by Google

18 Análisis minorista 621

Jagabathula, S. y Rusmevichientong, P. (2016). Un surtido conjunto no paramétrico y elección de precios.


modelo. Ciencias de la administración, 63(9), 3128–3145.
Jagabathula, S. y Vulcano, G. (2017). Un modelo basado en orden parcial para estimar las preferencias individuales
utilizando datos de panel. Ciencias de la gestión, 64(4), 1609–1628.
James, G., Witten, D., Hastie, T. y Tibshirani, R. (2013). Una introducción al aprendizaje estadístico.
(Vol. 112). Nueva York: Springer.
Kallus, N. y Udell, M. (2016). Personalización dinámica de surtido en grandes dimensiones. arXiv preimpresión arXiv,
1610, 05604.
Kök, AG y Fisher, ML (2007). Estimación de demanda y optimización de surtido en sustitución: Metodología y aplicación.
Investigación de operaciones, 55(6), 1001–1021.
Liyanage, LH y Shanthikumar, JG (2005). Una política práctica de control de inventario utilizando
estadísticas operativas. Cartas de investigación operativa, 33(4), 341–348.
Ma, S., Fildes, R. y Huang, T. (2016). Previsión de la demanda con datos de alta dimensión: el caso de la previsión de
ventas minoristas de SKU con información promocional intra e intercategoría.
Revista europea de investigación operativa, 249(1), 245–257.
Porteus, EL (2002). Fundamentos de la teoría del inventario estocástico. Stanford, California: Stanford
Prensa Universitaria.
Rusmevichientong, P., Shen, ZJM y Shmoys, DB (2010). Optimización de surtido dinámico con un modelo de elección
logit multinomial y restricción de capacidad. Investigación de operaciones, 58(6), 1666–1680.

Rusmevichientong, P., Van Roy, B. y Glynn, PW (2006). Un enfoque no paramétrico para


fijación de precios multiproducto. Investigación de operaciones, 54(1), 82–98.
Ryzin, GV y Mahajan, S. (1999). Sobre la relación entre los costos de inventario y la variedad
beneficios en surtidos minoristas. Ciencias de la administración, 45 (11), 1496–1509.
Smith, JC, Lim, C. y Alptekinoglu, A. (2009). Programación óptima de enteros mixtos y métodos heurísticos para un
juego de introducción de productos Bilevel Stackelberg. Logística de investigación naval, 56(8), 714–729.

Tibshirani, R. (1996). Encogimiento de regresión y selección a través del lazo. Diario de la Real
Sociedad de Estadística. Serie B (Metodológica), 267–288.
Tren, KE (2009). Métodos de elección discreta con simulación. Cambridge: Universidad de Cambridge
Prensa. https://eml.berkeley.edu/~train/distant.html.
van Ryzin, G. y Vulcano, G. (2017). Un método de maximización de expectativas para estimar un modelo de elección
de demanda basado en rangos. Investigación de operaciones, 65(2), 396–407.
Vulcano, G., Van Ryzin, G. y Ratliff, R. (2012). Estimación de la demanda primaria de sustituibles
productos a partir de datos de transacciones de ventas. Investigación de operaciones, 60(2), 313–334.
Wierenga, B., van Bruggen, GH y Althuizen, NA (2008). Avances en los sistemas de apoyo a la gestión de marketing.
En B. Wierenga (Ed.), Manual de modelos de decisión de marketing (págs. 561–592).
Boston, MA: Springer.
Machine Translated by Google

capitulo 19
Análisis de marketing

S. Arunachalam y Amalesh Sharma

1. Introducción

Es muy difícil ignorar el potencial de la analítica para brindar información sólida a la sala de juntas a
fin de tomar decisiones efectivas a nivel de empresa, cliente y producto/marca. Las herramientas de
análisis avanzado, los datos disponibles y los conceptos relacionados tienen un enorme potencial
para ayudar a diseñar estrategias comerciales y de marketing efectivas. En tal contexto, comprender
las herramientas y sus diversas implicaciones en varios contextos diferentes es esencial para
cualquier gerente. De hecho, el uso sólido de las herramientas de análisis ha ayudado a las empresas
a aumentar el rendimiento en términos de ventas, ingresos, ganancias, satisfacción del cliente y
competencia. Para obtener detalles sobre cómo el análisis de marketing puede ayudar a las empresas
a aumentar su rendimiento, consulte Kumar y Sharma (2017).
El análisis de marketing puede ayudar a las empresas a darse cuenta del verdadero potencial de
los datos y explorar información significativa. El análisis de marketing se puede definir como un
"enfoque respaldado por un modelo de ciencia de marketing y habilitado por alta tecnología para
aprovechar los valores reales de los datos a nivel de cliente, mercado y empresa para mejorar el
efecto de las estrategias de marketing" (Kumar y Sharma 2017; Lilien 2011) .
Básicamente, el análisis de marketing es la creación y el uso de datos para medir y optimizar las
decisiones de marketing. El análisis de marketing comprende herramientas y procesos.

Material complementario electrónico La versión en línea de este capítulo (https://doi.org/10.1007/


978-3-319-68837-4_19) contiene material complementario, que está disponible para usuarios autorizados.

S. Arunachalam ( )
Escuela de Negocios de la India, Hyderabad, Telangana, India
Correo electrónico: S_Arunachalam@isb.edu

Universidad
A. Sharma Texas A&M, College Station, TX, EE. UU.

© Springer Nature Switzerland AG 2019 B. 623


Pochiraju, S. Seshadri (eds.), Essentials of Business Analytics, International Series
in Operations Research & Management Science 264, https://doi.org/
10.1007/978-3-319-68837 -4_19
Machine Translated by Google

624 S. Arunachalam y A. Sharma

que pueden informar y evaluar las decisiones de marketing desde el desarrollo del producto/servicio hasta
las ventas (Farris et al. 2010; Venkatesan et al. 2014). Según la encuesta de CMO, el gasto en análisis
aumentará del 4,6 % al 22 % en los próximos 3 años.1 Esto muestra la creciente importancia de los análisis
en el campo del marketing. Los mejores especialistas en marketing ya no confían solo en la intuición o la
experiencia pasada para tomar decisiones. Quieren tomar decisiones basadas en datos. Pero en la misma
encuesta, la "falta de procesos o herramientas para medir el éxito a través del análisis" y la "falta de personas
que puedan vincularse con la práctica de marketing" se han citado como los dos factores principales que
impiden que los especialistas en marketing utilicen herramientas analíticas de marketing avanzadas en el
mundo real. mundo.
Este capítulo es un paso hacia el cierre de estas dos brechas. Presentamos herramientas que informan
y miden el éxito de las actividades y estrategias de marketing. También esperamos que esto ayude a los
especialistas en marketing actuales y potenciales a comprender bien el análisis de marketing y cómo se
puede utilizar en la práctica (Lilien et al. 2013; Kumar et al. 2015).
Dado que las herramientas de análisis son muy numerosas y que no es factible explicar la A–Z de cada
herramienta aquí, seleccionamos algunas herramientas de uso común e intentamos brindar una comprensión
integral de estas herramientas. Los lectores interesados pueden consultar las referencias de este capítulo
para obtener una comprensión más avanzada y profunda de las herramientas discutidas.

Los procesos y herramientas discutidos en este capítulo ayudarán en varios aspectos del marketing,
como el marketing objetivo y la segmentación, el precio y la promoción, la valoración del cliente, la asignación
de recursos, el análisis de respuesta, la evaluación de la demanda y el desarrollo de nuevos productos.
Estos se pueden aplicar en los siguientes niveles:

• Empresa: En este nivel, las herramientas se aplican a la empresa como un todo. En lugar de centrarse en
un producto o marca en particular, estos pueden usarse para decidir y evaluar las estrategias de la
empresa. Por ejemplo, el análisis envolvente de datos (DEA) se puede utilizar para todas las unidades
(es decir, finanzas, marketing, recursos humanos, operaciones, etc.) dentro de una empresa para
encontrar las unidades más eficientes y asignar los recursos en consecuencia.
• Marca/ producto: A nivel de marca/producto, se aplican herramientas para decidir y evaluar estrategias
para una marca/producto en particular. Por ejemplo, se puede realizar un análisis conjunto para encontrar
las características del producto preferidas por los clientes o se puede realizar un análisis de respuesta
para encontrar cómo el mercado recibirá un anuncio de marca en particular. • Cliente: las herramientas
aplicadas a nivel del cliente brindan información que ayuda a segmentar y orientar a los clientes. Por
ejemplo, el valor de por vida del cliente es una métrica del cliente con visión de futuro que ayuda a evaluar
el valor proporcionado por los clientes a la empresa (Fig. 19.1).

Antes de continuar, veamos qué constituye el análisis de marketing.


Aunque es un campo en constante expansión, para nuestro propósito, podemos segmentar el análisis de
marketing en los siguientes procesos y herramientas:

1https://cmosurvey.org/2017/02/cmo-survey-marketers-to-spend-on-analytics-use-sigue siendo
esquivo/ (consultado el 6 de julio de 2018).
Machine Translated by Google

19 Análisis de marketing 625

Fig. 19.1 Niveles de


aplicación de análisis
de marketing
Firma

Marketing
Analítica
Marca Cliente

1. Análisis estadístico multivariado: Se trata del análisis de más de una variable de resultado. El análisis de
conglomerados, el análisis factorial, los mapas de percepción, el análisis conjunto, el análisis discriminante
y MANOVA forman parte del análisis estadístico multivariado. Estos pueden ayudar en el marketing y la
segmentación de objetivos, la optimización de las características del producto, etc., entre otras aplicaciones.

2. Análisis de elección: el modelo de elección proporciona información sobre cómo los clientes toman
decisiones. Comprender el proceso de toma de decisiones del cliente es fundamental, ya que puede
ayudar a diseñar y optimizar varias estrategias de mezcla de marketing, como la fijación de precios y la
publicidad. En gran parte, los modelos logísticos, probit y tobit se tratan en esta sección.

3. Modelos de regresión: Los modelos de regresión establecen relaciones entre variables dependientes y
variables independientes. Se puede utilizar para comprender resultados como las ventas y la rentabilidad,
sobre la base de diferentes factores como el precio y la promoción. En esta sección se tratan el análisis
univariante, el análisis multivariante, el análisis no lineal y el análisis de moderación y mediación.

4. Análisis de series temporales: los modelos establecidos hasta ahora se ocupan principalmente de datos
transversales (sin embargo, los modelos de elección y regresión también se pueden usar para datos de panel).
Esta sección consta de modelos autorregresivos y modelos vectoriales autorregresivos para el análisis de
series de tiempo. Estos se pueden utilizar para pronosticar ventas, cuota de mercado, etc.

5. Herramientas no paramétricas: Las herramientas no paramétricas se utilizan cuando los datos no pertenecen
a ninguna distribución en particular. El análisis envolvente de datos (DEA) y el análisis de frontera
estocástica (SFA) se analizan en esta sección y se pueden utilizar para la evaluación comparativa, la
asignación de recursos y la evaluación de la eficiencia.
6. Análisis de supervivencia: el análisis de supervivencia se utiliza para determinar la duración del tiempo hasta
que ocurre un evento como la compra, el desgaste y la conversión. En esta sección se tratan el modelo de
riesgo de referencia, el modelo de riesgo proporcional y el análisis con covariables variables en el tiempo.
Machine Translated by Google

626 S. Arunachalam y A. Sharma

7. Análisis de Salesforce/ventas: esta sección cubre el análisis de ventas, que incluye la previsión de
ventas potenciales, la previsión de cuota de mercado y el análisis causal. Comprende varios
métodos, como el método de relación de cadena, el método Delphi y el análisis del ciclo de vida del
producto.
8. Análisis de innovación: el análisis de innovación se ocupa específicamente de nuevos productos.
El análisis de nuevos productos difiere del análisis de productos existentes, ya que es posible que
tenga pocos o ningún dato histórico para el diseño del producto o la previsión de ventas.
El modelo Bass, el modelo ASSESSOR y el análisis conjunto se pueden utilizar para el análisis de
la innovación.
9. Análisis conjunto: esta sección cubre uno de los métodos cuantitativos más utilizados en la
investigación de mercados. El análisis conjunto (trade-off) es una técnica estadística para medir las
preferencias del cliente por varios atributos de un producto o servicio. Esto se utiliza en varias etapas
del diseño de un nuevo producto, segmentación de clientes y fijación de precios.

10. Análisis de clientes: en esta sección, investigamos las métricas de los clientes, como el valor de por
vida del cliente, el valor de referencia del cliente y el análisis RFM (reciente, frecuencia y valor
monetario). Estos se pueden utilizar para segmentar a los clientes y determinar el valor proporcionado
por los clientes.

Este capítulo proporciona una comprensión integral del campo de análisis de marketing. Explicamos
una parte a través de regresión básica y avanzada, análisis envolvente de datos, análisis de frontera
estocástica, análisis de innovación y análisis de clientes.

Cada sección de este capítulo tiene problemas y soluciones relacionados con el marketing para
reforzar los conceptos y mejorar la comprensión. Describimos cómo se pueden implementar varias
herramientas para un objetivo particular. También discutimos las limitaciones de las herramientas bajo
consideración. Debe familiarizarse con todos los procesos y herramientas para que pueda elegir los
apropiados para su análisis.

2 métodos de análisis de marketing

2.1 Regresión

Efecto de interacción
Esta sección cubre los pasos para realizar interacciones entre variables continuas en regresión
múltiple (MR). Brindamos una comprensión intuitiva de este concepto y compartimos un método paso a
paso para realizar y probar estadísticamente un efecto de interacción. El capítulo 7 sobre el análisis de
regresión lineal contiene una explicación detallada de la teoría subyacente a la RM.

Los efectos de interacción, también llamados efectos moderadores, son los efectos combinados de
múltiples variables independientes sobre la variable dependiente. Representan situaciones en las que el
efecto de una variable sobre una variable dependiente depende de otra variable (Baron y Kenny 1986).
Consideremos un ejemplo hipotético donde
Machine Translated by Google

19 Análisis de marketing 627

un gerente está tratando de comprender el efecto de la publicidad y el precio en las ventas de un


producto. Se puede argumentar que el precio y la publicidad pueden tener un efecto de interacción
en las ventas, es decir, cuando tanto la publicidad como el precio cambian, pueden tener un efecto
diferente en las ventas del producto en comparación con cuando la publicidad o el precio cambian
de forma independiente. Para capturar tales efectos, requerimos la siguiente ecuación MR (se omite
el error para facilitar la presentación en todas las ecuaciones):

Y = i0 + a X + b Z + c XZ + Error (19.1)

dónde
Y = variable dependiente continua (ventas en el ejemplo anterior)
X, Z = variables independientes continuas (publicidad y precio en el ejemplo anterior)

XZ = nueva variable calculada como el producto de X y Z (producto de publicidad


y el precio en el ejemplo anterior) i0 =
intersección a, b y c = pendientes Un
aspecto importante que se debe recordar
al especificar una ecuación con términos de interacción es que los términos de orden inferior
siempre deben estar presentes en esa ecuación. Es decir, es incorrecto probar la interacción
omitiendo X y Z y teniendo solo el término XZ. Aquí suponemos que las variables independientes,
X y Z, están centradas en la media. Para centrar una variable, el valor de una variable se resta de
la media de la variable en la muestra (variable centrada en la media = variable – media [variable]).
El término del producto XZ se calcula después de centrar tanto X como Z.

La variable dependiente, Y, generalmente no está centrada en la media. El centrado medio ayuda


a facilitar la interpretación de los efectos y también elimina la multicolinealidad no esencial.
Se pueden encontrar más detalles sobre los beneficios del centrado en la media (es muy útil
saberlo) en el libro de Aiken y West (1991) y en otras fuentes mencionadas en la sección de
referencias (Cohen et al. 2003).
¿Cómo ayuda la presencia del término de interacción, XZ, a abordar la pregunta gerencial
anterior? ¿Por qué es necesario y por qué no se pueden descubrir los efectos de interacción
usando la ecuación MR simple: Y = i0 + a X + b Z que no contiene el término de interacción, XZ?
Para entender esto, comencemos con la ecuación MR simple que no tiene el término XZ. Aquí las
pendientes "a" y "b" son el efecto de X y Z en Y, respectivamente. La regresión de Y sobre X (es
decir, la pendiente "a") es constante en los valores legítimos (explicados a continuación) de Z y
viceversa para la regresión de Y sobre Z (es decir, la pendiente "b"). Esto significa que la regresión
de Y sobre X es independiente de Z porque para cualquier valor de Z, el valor de la pendiente sería
"a". Por lo tanto, esto no responde a la pregunta gerencial formulada anteriormente, ya que no
captura la variación en el efecto de X según Z y viceversa. Sin embargo, este no es el caso si
consideramos la Ec. (19.1) que tiene el término de interacción XZ. Para entender por qué y cómo
reescribamos la Ec. (19.1) de esta manera:

Y = (a + c Z) X + (i0 + b Z) (19.2)
Machine Translated by Google

628 S. Arunachalam y A. Sharma

Esta vista ampliada de la ecuación. (19.1) ayuda a responder las dos preguntas que
planteamos anteriormente. Se ve de la Ec. (19.2) que la pendiente de la regresión de Y sobre
X ahora es el término (a + c Z), a diferencia de solo "a" de la ecuación simple. Este término (a
+ c Z) se denomina pendiente simple en la literatura sobre moderación, ya que el efecto de Y
sobre X ahora está condicionado por el valor de Z. Por lo tanto, el efecto ahora depende de Z
en lugar de ser independiente como se indicó anteriormente. Volviendo a nuestro ejemplo de
gestión, esto significaría que el efecto de la publicidad (X) sobre las ventas (Y) depende del precio (Z).
Esto es precisamente lo que nos gustaría lograr o probar. Esto también significa que para
cada valor de Z, la regresión de Y sobre X tendría una línea diferente, que se llama línea de
regresión simple. La ecuación (19.2) también podría reescribirse extrayendo Z y teniendo una
pendiente simple que es (b + c X), lo que ayudaría a comprender cómo el efecto del precio (Z)
en las ventas (Y) depende de la publicidad (X) .
Estimación: Estimación de la ecuación. (19.2) utilizando cualquier software estadístico
como STATA (o R), es sencillo. El comando de regresión (lm) se puede utilizar para estimar la
ecuación después de centrar la media de las variables independientes y crear el término XZ.
La interpretación y el sondeo de los efectos de interacción necesitan más comprensión
(Preacher et al. 2006). Supongamos que la pendiente “c” del término XZ es estadísticamente
significativa (en p < 0,05). ¿Qué significa esto? ¿Cómo interpretar este efecto significativo?
Hay dos conclusiones muy importantes cuando la pendiente "c" es significativa. Primero,
significa que las pendientes simples para cualquier par de líneas de regresión simples
obtenidas usando dos valores legítimos diferentes de Z son estadísticamente diferentes.
Segundo, para cualquier valor específico de Z, el investigador tiene que probar si la línea de
regresión simple es significativamente (es decir, significación estadística) diferente de cero.
Estos dos puntos se entienden y observan mejor trazando gráficos de la interacción.
Recomendamos que el investigador siempre debe trazar gráficos para comprender a fondo
los efectos de interacción. Antes de probar estos efectos a través de gráficos, comprendamos
el significado de "valores legítimos" de Z. Recordemos que hemos centrado la media de las
variables X y Z y, por lo tanto, la media de estas dos variables sería cero y el rango sería de
negativo a valores positivos alrededor de cero. Siempre es una buena práctica elegir dos
valores de Z: un valor bajo y otro valor alto como una desviación estándar por debajo y por
encima de la media (que ahora es cero) respectivamente, para trazar las líneas de regresión
simples. La razón es que estos dos valores estarían dentro del rango de valores de Z en
nuestra muestra. Esto es importante porque no debemos elegir un valor que no esté dentro
del rango de la muestra. El investigador es libre de elegir dos valores cualesquiera que estén
dentro del rango de Z. Si elegimos un valor arbitrario y si ese valor está fuera del rango de Z,
entonces estamos probando los efectos para datos fuera de la muestra, que Es incorrecto.
Por lo tanto, los investigadores deben prestar atención al elegir valores legítimos de Z.

Supongamos que elegimos dos valores legítimos de Z, a saber, Z-bajo (ZL) y Z-alto (ZH).
Así que las pendientes simples de la Ec. (19.2) que determinan las líneas de regresión simple
son (a + c ZL) y (a + c ZH). Por lo tanto, podemos trazar dos líneas de regresión sustituyendo
los dos valores de Z en la ecuación. (19.2). Estas dos líneas representarían entonces el efecto
de la publicidad (X) sobre las ventas (Y) cuando el precio es bajo (ZL) y cuando el precio es
alto (ZH). Derivando de la Ec. (19.2) las ecuaciones de regresión simple son:
Machine Translated by Google

19 Análisis de marketing 629

Ventas por precio más bajo: YL = (a + cZL) X + ( i0 + bZL)


(19.3)
Ventas por mayor precio: YH = (a + cZH) X + ( i0 + bZH)

Supongamos que hemos estimado la Ec. (19.2) de un conjunto de datos de muestra que contenía
valores para Y, X y Z y que tenemos esta ecuación de predicción (el intercepto i0 se omite por razones
pedagógicas; X y Z están centrados en la media):

Y = 0,12X + 0,09Z + 0,46XZ (19.4)

Los parámetros “a”, “b” y “c” son estadísticamente significativos (p < 0,05). Tenga en cuenta que no es
necesario que "a" y "b" sean significativos para probar el efecto de interacción. Sin embargo, es importante
que "c", la estimación del término de interacción XZ, sea estadísticamente significativo para probar el
efecto de la interacción (consulte más arriba las dos conclusiones importantes). Supongamos también que
las desviaciones estándar de X y Z son 0,5 y 0,5. Los siguientes pasos ayudan a trazar los gráficos.

Calculamos el valor previsto de Y (ventas) para los dos valores legítimos de X y Z.


Así que tomamos valores bajos y altos de X y Z y los reemplazamos en la ecuación. (19.4). Como una
desviación estándar de X y Z centradas en la media son 0,5 y 0,5, los valores legítimos bajos y altos
serían ÿ0,5 y 0,5, respectivamente. Cuando estos valores se usan para calcular las ventas pronosticadas
(Y) para publicidad baja (XL) y precio bajo (ZL), la ecuación. (19.4) se convierte en:

Y = 0.12 ÿ (ÿ0.5) + 0.09 ÿ (ÿ0.5) + 0.46 ÿ (ÿ0.5 ÿ ÿ 0.5)

Esto conduce a unas ventas previstas de 0,01 con poca publicidad y bajo precio.
De manera similar, se pueden obtener los valores pronosticados para todas las demás combinaciones de X y Z.
Recomendamos usar una hoja de Excel para calcular esta tabla 2 * 2 como se muestra a continuación
(Tabla 19.1).
Una vez que tenemos la tabla anterior, es fácil trazar las dos líneas de regresión correspondientes a
los valores alto y bajo del precio (Z). Las dos filas de la tabla son las dos líneas de regresión. El gráfico se
puede trazar como un gráfico de líneas en Excel (Fig. 19.2).
(Enfoque de Excel: para trazar, haga clic en la opción "Insertar" y seleccione el gráfico de líneas y elija
los dos puntos de datos para bajo y alto para obtener las dos líneas de regresión como se muestra a
continuación).
Interpretación del gráfico: La línea titulada “Precio alto” muestra el efecto de la publicidad en las
ventas cuando el precio también aumenta a un valor alto. La línea muestra que la pendiente es positiva;
es decir, cuando aumenta el precio, a medida que aumenta la publicidad, el efecto sobre las ventas es
positivo. La línea titulada Precio bajo muestra el efecto

Tabla 19.1 Valores de ventas


Valor de venta previsto en cada celda
previstos
X (Anuncio)
Bajo Alto Z
(Precio) Bajo 0.01 ÿ0.1 Alto ÿ0.13
0.22
Machine Translated by Google

630 S. Arunachalam y A. Sharma

0.25
Precio alto ZH
0.2

0.15

0.1

0.05

0
1 2
-0.05

-0.1
Precio bajo MXN
-0.15
Publicidad (X)

Fig. 19.2 Líneas de regresión correspondientes al precio (Z)

de publicidad en las ventas cuando el precio se reduce a un valor bajo. Curiosamente, la


pendiente de la línea es negativa; es decir, cuando el precio se reduce a un valor bajo, a
medida que aumenta la publicidad, el efecto sobre las ventas es negativo. Estos dos gráficos
son conclusiones importantes para un gerente, ya que muestran que el precio y la publicidad
se complementan entre sí (no hace falta decir que este efecto es para el conjunto de datos de
muestra que tenemos). Por lo tanto, un gerente no debe aumentar la publicidad y disminuir el
precio, ya que esto provoca menores ventas (la línea de regresión para ZL es negativa).
De esta manera podemos probar y comprender los efectos de interacción a fondo. Los
efectos en los estudios de marketing rara vez son solo efectos principales. Muy a menudo, las
variables interactúan para mostrar efectos complejos en la variable de resultado de interés.
Hemos mostrado una forma de interpretar este efecto para la interacción de dos variables
continuas. Se pueden realizar pasos similares para la interacción entre una variable categórica
y una variable continua. Esta estrategia también se puede extender a efectos de interacción de
tres vías, es decir, efectos en los que interactúan tres variables para producir un efecto
diferencial en el resultado. Estos son conceptos avanzados, pero se pueden ampliar
directamente siguiendo los pasos narrados anteriormente. Recomendamos a los lectores
interesados que aprendan más sobre estos conceptos avanzados siguiendo los materiales de las referencias.

Relaciones curvilíneas

Muchas veces, en los estudios de marketing, las relaciones entre las variables independientes
(X) y las variables dependientes (Y) son complejas en lugar de lineales. En la mayoría de los
casos, representan una relación curvilínea y los estudios tienden a plantear la hipótesis de un
efecto en forma de U o en forma de U invertida. En lugar de pensar en las relaciones curvilíneas
simplemente en forma de U (o U invertida), ayudaría a apreciar las relaciones curvilíneas de
acuerdo con el efecto de X en Y. El efecto de X en Y podría ser (1) aumentando a un ritmo
creciente, (2) aumentando a una tasa decreciente, o (3) disminuyendo a una tasa decreciente,
alterando así la pendiente alejándola de una tendencia lineal simple.
Machine Translated by Google

19 Análisis de marketing 631

1. a Posi y, b Posi y 2. a Posi y b Nega y

Y
Y

X X

3. a Nega va, b Nega va

Fig. 19.3 Relación curvilínea entre variables

Las tres relaciones mencionadas anteriormente pueden entenderse mejor como una ecuación de
regresión. Para probar cualquier relación curvilínea hipotética entre X e Y, la siguiente ecuación ayuda:

Y = i0 + a X + b X2 (19.5)

(Nota: X está centrada en la media)


Como se señaló en la sección sobre el efecto de interacción, el término de orden inferior (es decir, X)
debe estar presente cuando está presente un término de orden superior, formado como producto de X*X. La
magnitud y el signo de las pendientes "a" y "b" de la ecuación. (19.5) contienen una gran cantidad de
información que ayuda al investigador a comprender cuál podría ser la forma de esta especificación. Consulte
la Fig. 19.1 para comprender las formas esperadas según el signo (Fig. 19.3).

Volviendo al ejemplo del efecto de la publicidad y el precio sobre las ventas (Y); Consideremos ahora
(por razones pedagógicas) sólo el efecto de la publicidad (X) sobre las ventas (Y). Un gerente podría
argumentar que a medida que aumenta la publicidad, las ventas de productos tienden a aumentar. Además,
más allá de cierto punto, el efecto de la publicidad en las ventas podría
Machine Translated by Google

632 S. Arunachalam y A. Sharma

no aumenta al mismo ritmo. El gerente en realidad está hablando de una relación curvilínea entre X e
Y, en la que el efecto de X sobre Y aumenta, pero más allá de un punto aumenta a un ritmo decreciente.
Esto conduce a una línea de predicción como se muestra en el Gráfico (19.3, 2) anterior, donde la
pendiente "a" es positiva y "b" es negativa.
Como aprendimos en la sección de interacción, podríamos tratar de calcular la pendiente simple de
la ecuación. (19.5) reestructurándolo. Sin embargo, este método es incorrecto y no se puede usar para
ecuaciones que tienen efectos curvilíneos. Tenemos que usar cálculo simple para derivar la pendiente
simple. Como todos sabemos, la primera derivada parcial con respecto a (wrt) X es la pendiente simple
de regresión de Y sobre X. Esta técnica también se puede aplicar a la ecuación de interacción que
tratamos anteriormente. Entonces, volviendo a la Ec. (19.5), la primera derivada parcial es:

ÿ Y/ÿ X = un + 2 segundo X (19.6)

Como se ve en la Ec. (19.6), la pendiente simple depende o está condicionada al valor de X mismo.
Esto, junto con el signo de "a" y "b", es precisamente la razón por la cual el efecto de X sobre Y es
curvilíneo y no solo lineal. Nuevamente, volviendo a nuestros pasos para elegir valores legítimos de X,
podemos tomar una desviación estándar por debajo y por encima de la media (que es cero) y calcular
los valores de la pendiente simple.
Si un gerente quisiera investigar cómo interactúa el precio con la relación curvilínea de la publicidad
sobre las ventas, podemos seguir los mismos pasos que hicimos en la interacción. Sin embargo, para
derivar la pendiente simple, tenemos que usar cálculo y no solo una reestructuración simple de la
ecuación por las razones expuestas anteriormente. Los efectos de interacción en la relación curvilínea
son conceptos complejos y avanzados. Por lo tanto, instamos a los lectores interesados a leer
detenidamente los recursos en la sección de referencia para una comprensión completa. Proporcionamos
algunas ideas para ayudar a comprender algunos conceptos básicos de los efectos de interacción en
las relaciones curvilíneas a continuación.
La ecuación completa después de incluir el precio (Z) sería:

Y = i0 + a X + b X2 + c Z (19.7)

Ahora, a diferencia de los efectos de interacción simples, los investigadores deben pensar
profundamente si el precio (Z) interactúa solo con la publicidad (X) o si Z interactúa también con el
término de orden superior (X2) . Conceptualmente, estos dos efectos son diferentes, por lo que el
investigador debe especificar la ecuación correcta en función de la hipótesis que se está probando.
También debemos recordar incluir siempre los términos de orden inferior al intentar introducir términos
de orden superior que tengan efectos de interacción. Consideremos un ejemplo, donde introducimos el
término XZ. Entonces la ecuación. (19.7) cambiará a lo siguiente:

Y = i0 + a X + b X2 + c Z + d XZ (19.8a)

Para derivar la pendiente simple, que muestra el efecto de X sobre Y, tomamos la primera
derivada parcial con X:
Machine Translated by Google

19 Análisis de marketing 633

ÿ Y/ÿ X = un + 2 segundo X + re Z (19.8b)

De la ecuación anterior se puede ver que el efecto no solo depende de X (debido a la presencia
del término 2 b X) sino que también depende de Z (debido al término d Z). Esto significa que el efecto
curvilíneo también está condicionado a Z.
Además, si un gerente plantea la hipótesis de que Z altera tanto el nivel como la forma del efecto
curvilíneo, se puede probar introduciendo el término X2Z . Este término es el producto de X2 y Z.
Entonces las Ecs. (19.8a y 19.8b) cambiará a lo siguiente:

Y = i0 + a X + b X2 + c Z + d XZ + e X2Z (19.9a)

Tenga en cuenta la presencia de todos los términos de orden inferior (que son X, X2, Z y XZ) del
término de orden superior (X2Z). Despreciar cualquiera de los términos de orden inferior conduce a
una interpretación incorrecta de la ecuación (19.9a y 19.9b). De nuevo, para calcular la pendiente
simple hacemos lo siguiente:

ÿ Y/ÿ X = a + 2 b X + d Z + 2 e XZ (19.9b)

Esto muestra que Z afecta no solo el nivel sino también la forma de la curva.

Mediación

La mediación se utiliza para estudiar las relaciones entre un conjunto de variables mediante la
estimación de un sistema de ecuaciones. El objetivo de un análisis de mediación es extraer el
mecanismo detrás del efecto de X sobre Y. El análisis de mediación es útil para comprender el
mecanismo intermedio que en realidad causa el efecto de X sobre Y (MacKinnon 2008; Preacher y
Hayes 2004). Para encontrar este mecanismo interviniente, se introduce una variable interviniente
llamada mediador (M). Podemos imaginar esta mediación como un camino: XÿMÿY. Por lo tanto, el
efecto total de X sobre Y ahora se divide en un efecto indirecto a través de M y un efecto directo de X
sobre Y.
En el análisis de mediación, hay una serie de regresiones o un conjunto de ecuaciones que deben
estimarse. Primero está el efecto de X sobre el mediador M (XÿM, pendiente a), luego está el efecto
del mediador sobre la variable dependiente Y (MÿY, pendiente b), y finalmente el efecto directo de X
sobre Y (X ÿ Y. pendiente c ). El investigador debe tener en cuenta que ahora hay dos variables
dependientes, a saber, Y y el mediador interviniente recientemente introducido M. Se puede entender
fácilmente a través del diagrama que se muestra a continuación (Fig. 19.4).

El diagrama (Fig. 19.4) se puede representar mediante el siguiente conjunto de ecuaciones de


regresión:

Y = i0 + b M + c X (19.10)

M = j0 + una X (19.11)

donde i0 y j0 son intersecciones y se ignoran de aquí en adelante con fines pedagógicos.


Machine Translated by Google

634 S. Arunachalam y A. Sharma

metro

a b

X y
c`

Fig. 19.4 Efecto de mediación a través de “M”

Ahora el efecto mediador, también llamado efecto indirecto de X sobre Y a través de M, puede
obtenerse insertando la ecuación. (19.11) en la ecuación. (19.10):

Y = ab X + c X (19.12)

Esto muestra que el efecto indirecto de X sobre Y es el producto de dos pendientes capturadas
como "a * b" y el efecto directo de X sobre Y es "c".
Las pendientes "a", "b" y "c" se pueden estimar usando cualquier software estadístico y el producto
de las pendientes "a * b" se puede calcular para encontrar la fuerza de la mediación. Sin embargo,
recomendamos usar software que admita técnicas de análisis de ruta o de modelado de ecuaciones
estructurales (SEM) (STATA, Mplus o R) para estimar ambas ecuaciones simultáneamente sin tener
que ejecutar regresiones múltiples. Esta práctica puede ayudar al investigador a progresar fácilmente
del modelo simple narrado aquí a modelos de mediación más complejos que a menudo son el caso en
la investigación. Aún queda una pregunta importante: ¿cómo probar la significación estadística del
término del producto "a * b"? La prueba estadística de las pendientes simples "a", "b" y "c" utilizando
errores estándar es sencilla. Sin embargo, para el producto de las pendientes, investigaciones recientes
en análisis de mediación sugieren que derivar el error estándar (usando una técnica llamada método
delta) para un término de producto de orden superior es inexacto y que la significación estadística debe
probarse usando técnicas no paramétricas como bootstrapping. La intuición detrás de esto es que,
aunque se supone que las pendientes individuales "a" y "b" tienen una distribución normal, el producto
de estas pendientes no puede serlo. Por lo tanto, como la derivación de errores estándar a través de
métodos paramétricos (como OLS o máxima verosimilitud) asume normalidad, se recomienda a los
investigadores que utilicen procedimientos de muestreo no paramétrico como bootstrapping para derivar
los errores estándar. La lógica detrás del procedimiento de arranque es sencilla. Las estimaciones del
efecto indirecto “a * b” se obtienen repetidamente a partir de muestras extraídas de la muestra original
con reposición. La desviación estándar de esas estimaciones es el error estándar, que luego se usa
para construir un intervalo de confianza del 95 % no simétrico para probar la importancia del efecto
indirecto. Si el intervalo de confianza del 95% de la
Machine Translated by Google

19 Análisis de marketing 635

efecto indirecto no contiene cero el efecto es estadísticamente significativo. En este caso, podemos
concluir que existe un efecto de mediación significativo.
Volvamos al ejemplo de la publicidad (X) que tiene un efecto sobre las ventas del producto (Y). Ahora,
un gerente podría estar interesado en saber la razón detrás del “aumento en la publicidad que tiene un
efecto positivo en las ventas”. Se podría argumentar que, a medida que aumenta la publicidad (X), también
aumenta la conciencia de los clientes (M) sobre el producto, lo que los alienta a comprar más, lo que lleva
a un aumento en las ventas del producto (Y). Por lo tanto, aquí el mediador es la conciencia del consumidor
(M). Si de alguna manera el gerente puede medir o capturar esta variable, puede usarse, junto con las
variables X e Y, para probar este efecto de mediación hipotético. Pero, ¿cuál es la implicación gerencial?
¿Cuál es realmente la percepción “adicional” derivada de hacer este análisis de mediación? Una idea
importante es que el gerente ahora puede identificar un mecanismo relevante que realmente causa el
efecto de X en Y. El gerente puede aumentar la asignación de recursos a las estrategias de marketing que
ayudan a mejorar los niveles de conciencia del consumidor. Además, este gerente podría sentirse intrigado
por investigar si existen otros mediadores o mecanismos de intervención como la conciencia. Comprender
y encontrar las razones detrás de los efectos es fundamental para la toma de decisiones. Armados con el
conocimiento del mecanismo detrás de la relación de causa y efecto, los ejecutivos pueden tomar
decisiones informadas que conducen a un mayor éxito.

En esta sección, hemos cubierto el análisis de mediación simple. Se recomienda encarecidamente a


los lectores interesados que consulten los recursos proporcionados en la sección de referencia para
temas de mediación avanzados como el análisis de mediación con múltiples mediadores y múltiples
variables dependientes. Un avance interesante e importante en el análisis de la mediación en los últimos
tiempos ha sido la capacidad de integrar la moderación con el análisis de la mediación. Esto se denomina
análisis de mediación moderado (Preacher et al. 2007). Este es un avance importante porque resuena
bien con el propósito de probar la teoría en marketing o, en general, en cualquier dominio de las ciencias
sociales. La teoría es importante principalmente por dos razones: proporcionar argumentos para explicar
por qué y cómo una variable afecta a otra y descubrir la condición límite bajo la cual este efecto podría
cambiar. Este es esencialmente el espíritu de cualquier prueba de mediación moderada, ya que ayuda a
comprender simultáneamente el mecanismo (mediación) y el efecto condicional (moderación) de esa vía
de mediación. Es decir, investigar si el efecto indirecto de 'XÿMÿY' como unidad está condicionado al nivel
de una variable moderadora, digamos Z. Esto implicaría cómo el término producto "ab" está condicionado
a los valores legítimos de Z (digamos niveles bajos y altos de Z). Por ejemplo, considerando el ejemplo de
cómo la “conciencia del consumidor” (M) canaliza el efecto de la publicidad (X) en las ventas de productos
(Y), un gerente también puede comprender cómo varía la fuerza de esta vía dependiendo de si el precio
del producto (Z ) es bajo o alto. Como la vía de mediación está condicionada por otra variable, o el efecto
de la mediación está moderado por otra variable, esta prueba se denomina prueba de mediación moderada.

La teoría y los datos empíricos detrás de la mediación moderada se han disparado en los últimos tiempos.
Se solicita a los lectores que consulten las referencias para una comprensión más profunda de esta
técnica.
Machine Translated by Google

636 S. Arunachalam y A. Sharma

2.2 Análisis envolvente de datos (DEA)

Suponga que es gerente de una gran empresa multinacional y desea identificar las unidades eficientes
(finanzas, marketing, operaciones, recursos humanos, negocios internacionales, etc.) dentro de su
organización. Es posible que desee decidir sobre la asignación de recursos, la contratación, el aumento
de los beneficios para los empleados de una unidad específica, en función de la eficiencia de la unidad.
¿Cómo vas a decidir sobre la eficiencia? Puede utilizar datos de observación para tales decisiones.
Sin embargo, tal enfoque puede no ser excelente al diseñar estrategias críticas como la asignación de
recursos o la contratación.
Una herramienta analítica muy destacada que se puede utilizar en dicha toma de decisiones es el
“análisis envolvente de datos” (Cook y Seiford 2009; Cooper et al. 2004). DEA está diseñado para
ayudar a los gerentes a medir y mejorar el desempeño de sus organizaciones. Como la búsqueda de
la eficiencia es una meta interminable, DEA puede ayudar a capturar la eficiencia de cada unidad y
sugerir los factores potenciales que pueden ser responsables de hacer que las unidades sean eficientes.

DEA permite a los gerentes tomar en cuenta todos los factores importantes que afectan el
desempeño de una unidad para proporcionar una evaluación completa y completa de la eficiencia
(Charnes et al. 1978). DEA hace esto convirtiendo múltiples entradas y salidas en una sola medida de
eficiencia. Al hacerlo, identifica aquellas unidades que están operando eficientemente y aquellas que
no. Las unidades eficientes, es decir, las unidades que hacen el mejor uso de los recursos de entrada
para producir productos, se califican como 100% eficientes, mientras que las ineficientes obtienen
puntajes más bajos.
Entendamos los aspectos técnicos de DEA de una manera simple. Supongamos que un gerente
del banco ICICI quiere medir la eficiencia de los departamentos de recursos humanos, finanzas,
marketing, operaciones, relaciones públicas y contabilidad para asignar recursos para el año siguiente
(Sherman y Franklin 1985). Los gerentes generalmente tienen información sobre el número de
empleados, el total de problemas manejados, los aumentos otorgados y la contribución de estas
unidades a las ganancias operativas de la empresa. Los gerentes pueden usar DEA con el número de
empleados, el total de problemas manejados y los aumentos dados como entradas y la contribución
de estas unidades a las ganancias operativas como salida.
El análisis DEA proporcionará una puntuación de 1 o menos de 1 para cada unidad. Una puntuación
de 1 significa que la unidad es perfectamente eficiente y cualquier valor inferior a 1 significa que la
unidad tiene espacio para crecer y ser más eficiente. Con base en la importancia relativa de las
entradas, se puede pedir a las unidades que trabajen en entradas específicas para que las unidades
se vuelvan eficientes. Además, los gerentes ahora pueden asignar los recursos que deseen a las
unidades eficientes.
DEA también brinda orientación a los gerentes sobre la reducción/incremento requerido en los
insumos de las unidades para volverse eficientes, ayudando a los gerentes a responder preguntas
como "¿Qué tan bien están funcionando las unidades?" y "¿Cuánto podrían mejorar?" Sugiere
objetivos de rendimiento, como que la unidad de marketing debería poder producir un 15 % más de
producción con su nivel de inversión actual o la unidad de recursos humanos debería poder reducir la
rotación en un 25 % y seguir produciendo el mismo nivel de producción. También identifica las
unidades con mejor rendimiento. Una de las ideas más interesantes de la DEA es que uno puede
probar las prácticas operativas de dichas unidades y establecer una guía de "mejores prácticas" para
que otros las emulen.
Machine Translated by Google

19 Análisis de marketing 637

Entendamos con un ejemplo práctico. Supongamos que un banco como ICICI quiere medir la
eficiencia de sus sucursales en India. El objetivo de la gerencia es asegurar que cada una de estas
sucursales logre el mejor desempeño posible; Sin embargo, el problema es decidir qué significa
eso y cuál es la mejor manera de medirlo. Los resultados de las sucursales, como las ventas, el
crecimiento de las ventas, las cuentas y la participación de mercado, se pueden estudiar y
comparar. De manera similar, se pueden medir los insumos de una sucursal, como el personal, el
espacio de oficina y los costos de materiales. Luego, los gerentes pueden desarrollar índices de
rendimiento, como las ventas por miembro del personal o las ganancias por unidad de espacio de
oficina utilizado.
Sin embargo, es posible que todos estos intentos de medir el desempeño no produzcan una
imagen clara, ya que las sucursales pueden exhibir una variación considerable según el indicador
de desempeño elegido. Aquí es donde DEA ayuda, ya que proporciona una medida más completa
de la eficiencia al tener en cuenta todos los factores importantes que afectan el rendimiento de una
sucursal.
Aunque la elección de entradas y salidas depende en gran medida de la disponibilidad de los
datos, la belleza de DEA radica en su capacidad para manejar múltiples entradas y múltiples salidas
para dar una puntuación completa sobre la eficiencia de las unidades. DEA se puede utilizar dentro
de una organización específica (por ejemplo, medir la eficiencia de varias divisiones del banco
ICICI); a través de organizaciones en una industria (por ejemplo, comparando la eficiencia de todos
los bancos del sector privado en la India); ya través de industrias (por ejemplo, medición de la
eficiencia de los bancos, empresas de bienes de consumo masivo). Sin embargo, dicho análisis
requerirá la disponibilidad de insumos y productos similares para todas las organizaciones.

Detalles técnicos de DEA

El DEA puede analizarse como retorno constante a escala (CRS) o retorno variable a escala (VRS)
(Banker y Thrall 1992; Banker et al. 2004; Seiford y Zhu 1999).
Consideremos primero el modelo CRS. Supongamos que hay N unidades de toma de decisiones
(DMU) (las DMU son varios bancos en nuestro ejemplo) con K entradas y 2 salidas (beneficios y
satisfacción del cliente). Estos están representados por xi y yi para i-ésima DMU.
El propósito de DEA es construir una frontera envolvente no paramétrica sobre los puntos de datos
de modo que todos los puntos observados se encuentren en o por debajo de la frontera de
producción (Charnes et al. 1985; Boussofiane et al. 1991; Chen y Soo 2010). Podemos expresar el
problema como un programa lineal de la siguiente manera:

maxÿ,ÿÿ
tales que ÿ ÿyi + Yÿ ÿ 0, ÿ ÿ 0 xi ÿ Xÿ ÿ 0,
ÿÿ0

X es la matriz de entrada K x N e Y es la matriz de salida 2 x N; ÿ es un escalar y ÿ es un vector


N x 1 de constantes. El puntaje de eficiencia para la i-ésima DMU será el valor de (1/ÿ). La DMU
con puntuación de eficiencia = 1 se denominará DMU eficiente.
Para obtener el puntaje de eficiencia para cada DMU (es decir, varias divisiones del banco ICICI)
en la muestra, necesitaremos resolver la programación lineal para la DMU específica que se está
considerando. Tenga en cuenta que podemos usar CRS DEA cuando la suposición subyacente es
que las DMU están operando a una escala óptima. Sin embargo, esta suposición podría
Machine Translated by Google

638 S. Arunachalam y A. Sharma

no se cumple en la realidad, es posible que la mayoría de las DMU de una muestra no


funcionen a la escala óptima. En tal contexto, CRS puede no ser una herramienta ideal. Para
evitar posibles efectos de escala, se puede utilizar VRS. Se puede calcular la eficiencia técnica
con VRS que excluye los efectos de escala. El problema de programación lineal CRS se puede
modificar para tener en cuenta VRS agregando la restricción de convexidad eÿ = 1 (donde eÿ
es NX 1 vector de unos). Las restricciones adicionales dan a la frontera características lineales
y cóncavas por partes.

maxÿ,ÿÿ
tales que ÿ ÿyi + Yÿ ÿ 0, el = 1, ÿ ÿ 0 xi ÿ Xÿ ÿ 0,
el = 1, ÿ ÿ 0

El CRS y VRS proporcionan diferentes valores para el puntaje de eficiencia de una DMU;
indica la presencia de ineficiencia de escala en la DMU. Se puede calcular la ineficiencia de
escala tomando la relación entre el puntaje de eficiencia obtenido de CRS y el puntaje de
eficiencia obtenido de VRS (Caudill et al. 1995; Gagnepain e Ivaldi 2002; Greene 2010).

Ejemplo

Supongamos que nos interesa evaluar la eficiencia de las unidades hospitalarias (Ouellette y
Valérie 2004) de una cadena en función de una serie de características: el número total de
empleados, el tamaño de las unidades en metros cuadrados, el número de pacientes que
atiende cada unidad , número total de especialistas, ingresos totales y satisfacción. Se vuelve
obvio que encontrar las unidades más eficientes requiere que comparemos registros con
múltiples características.
Para aplicar DEA, debemos definir nuestras entradas (X) y salidas (Y). En el caso de una
cadena hospitalaria, X puede ser el número total de empleados, el tamaño de las unidades en
metros cuadrados, el número de pacientes que atiende cada unidad, el número total de
especialistas; e Y puede ser el ingreso total y la satisfacción. Si ejecutamos DEA, estimaremos
la relación de salida a entrada para cada hospital bajo los pesos ideales (los pesos ideales
son pesos que consideran los valores que cada unidad asigna a las entradas y salidas). Una
vez que tengamos sus ratios, los clasificaremos según su eficiencia (Banker y Morey 1986).

Código STATA/R

DEA se puede analizar utilizando múltiples software de programación estadística. Aquí


proporcionamos la sintaxis necesaria para realizar el análisis en STATA2 o R3. Aunque STATA
no tiene una función integrada, se puede usar un comando escrito por el usuario (dea) para
realizar el análisis. En caso de que le resulte difícil, escriba "help dea" en la ventana de
comandos de STATA y obtendrá una explicación paso a paso para el análisis.

2https://www.cgdev.org/sites/default/files/archive/doc/stata/MO/DEA/dea_in_stata.pdf (consultado el 30
de enero de 2019). 3https://www.rdocumentation.org/packages/TFDEA/versions/0.9.8.3/topics/DEA
(consultado el 30 de enero de 2019).
Machine Translated by Google

19 Análisis de marketing 639

Para hacer el análisis en STATA, necesita descargar un comando escrito por el usuario (escriba
instalación neta st0193).

“dea ivars=ovars [si] [en] [, opciones]”

Opciones:

• rts(crs|vrs|drs|nirs) especifica los rendimientos a escala. El valor predeterminado es rts (crs)


• ort(in|out) especifica la orientación. El valor predeterminado es ort (en)
• etapa(1|2) especifica la forma de identificar todas las pérdidas de eficiencia. El valor predeterminado es etapa
(2)

Para hacer el análisis en R, debe usar el paquete "Benchmarking" .

> install.packages(“Benchmarking”) # para instalar el paquete para el


primera vez
> biblioteca (Benchmarking) # para cargar el paquete
# código DEA
> eff <- dea(x,y, RTS=“crs”) # donde x es el vector de entrada y y
es vector de salida
> eff # donde “eff” dará la eficiencia de cada unidad
# Las opciones de RTS nos permiten especificar qué retorno de escala queremos
• “crs” - retorno constante a escala
• “vrs” - rendimiento variable a escala
• “drs” - rendimiento decreciente a escala
• “irs” - rendimiento creciente a escala

DEA en la práctica

Hay ocho unidades de una cadena de restaurantes (principalmente en el norte de la India) y la


gerente quiere medir la unidad eficiente para el premio al mejor restaurante. los
gerente tiene información solo sobre el número total de empleados y los ingresos (en
100,000) de cada unidad de la siguiente manera:

Unidades 1234567 8
Empleado 5 6 11 15 20 9 12 10
Ingresos 4 4,8 8 14 18 5 11 9

Para encontrar la eficiencia de cada unidad, primero calculamos la eficiencia por


dividiendo los ingresos por empleado de la siguiente manera:

Unidades 1 23 4 56 7 8
Empleado 56 11 15 20 9 12 10
Ingresos 4 4.8 8 14 18 5 11 9
Ingresos/empleado 0,8 0,8 0,727 0,93 0,9 0,55 0,91 0,9

En cuanto a la medición de la eficiencia, encontramos que la Unidad 4 es la eficiente y


La unidad 6 es la menos eficiente.
Machine Translated by Google

640 S. Arunachalam y A. Sharma

Ahora, para calcular la eficiencia relativa, necesitamos dividir la eficiencia de la


unidades por la eficiencia de las unidades más eficientes, es decir, la eficiencia relativa de
unidades se mide tomando la relación entre la eficiencia de cada unidad y la eficiencia de
unidad más eficiente como se muestra a continuación.

0 ÿ ingresos por empleado para cada unidad/ingresos por empleado para la mayoría
unidad eficiente ÿ1.

Unidades 1 2 3 4 5 6 7 8

empleado 5 6 11 15 20 9 12 10
Ingresos 4 4.8 8 14 18 5 11 9
Ingresos/ 0.8 0.8 0,727 0,93 0,9 0,55 0.91 0.9
empleado
Pariente 0.860215 0.860215 0.78172 1 0.967742 0.591398 0.978495 0.967742
effi
ciencia

El análisis envolvente de datos muestra que la Unidad 4 es la relativa más eficiente


a todas las demás unidades; y la Unidad 6 es la menos eficiente. Eso significa que la Unidad 4 será
en la frontera y el resto será dentro de la frontera. También se puede mostrar la frontera.
gráficamente.

2.3 Análisis de frontera estocástica (SFA)

El análisis de frontera estocástica es un enfoque paramétrico, ampliamente utilizado para estimar


la producción o los costos en economía (Baccouche y Kouki 2003; Fenn et al.
2008). El análisis envolvente de datos y SFA son enfoques competitivos (Jacobs 2001;
Cullinane et al. 2006); sin embargo, no existe un enfoque único que unifique ambos. si un
gerente quiere encontrar qué causa la ineficiencia en una empresa en su operación, la
el gerente puede querer adoptar SFA. SFA se basa en la suposición de que la toma de decisiones
unidades (como bancos y hospitales) se comportan de manera subóptima y pueden maximizar o
minimizar sus respectivas funciones objetivo (costos, utilidades, eficiencia operativa,
etc.) para mejorar (Parsons 2002).
Analicemos ahora los componentes de una SFA (Kumbhakar y Lovell 2003;
Bera y Sharma 1999). La frontera de producción estocástica se propuso por primera vez
de forma independiente por Aigner y otros (1977) y Meeusen y Van den Broeck (1977). En
su especificación (que es muy diferente de la función de producción estándar),
hay dos términos de error distintos en el modelo y se pueden mostrar de la siguiente manera:

yi = ÿxi ÿ ui + vi

donde xi son entradas, yi es la salida; ui captura la ineficiencia, el déficit de


la producción máxima se rige por la función de producción ÿxi; y vi es el término de error o
Machine Translated by Google

19 Análisis de marketing 641

las influencias externas más allá del control del productor. En resumen, el SFA tiene dos componentes:
una frontera de producción estocástica que sirve como punto de referencia contra el cual se mide la
eficiencia de la empresa, y un término de error unilateral con distribución independiente e idéntica
entre las observaciones y captura la ineficiencia técnica entre las unidades de producción.

Si un gerente permite que las ineficiencias dependan de los factores a nivel de la empresa
(empleados, expertos, tamaño, alianzas, adquisiciones, etc.), el gerente puede examinar los
determinantes de las ineficiencias. Tal comprensión ayuda a implementar diferentes intervenciones
políticas para mejorar la eficiencia. Los gerentes también pueden modificar los insumos e incorporarlos
en la función de producción para reducir las ineficiencias.
Ahora la pregunta es si uno debería usar SFA sobre DEA. (Wadud y White 2000; Koetter y
Poghosyan 2009). Imagine que hay variaciones aleatorias en las entradas. Estas variaciones pueden
hacer que el análisis DEA sea inestable. Una ventaja potencial de SFA sobre DEA es que se pueden
acomodar variaciones aleatorias en las entradas.4 Aunque hay algunos beneficios, SFA también tiene
múltiples desventajas, incluidas sus complicaciones en el manejo de múltiples salidas. Además,
también requiere funciones estocásticas de distancia de salida múltiple y plantea problemas para las
salidas que toman valores cero.

Detalles técnicos de SFA

La relación tecnológica entre unas pocas variables de entrada y las correspondientes variables de
salida viene dada por una “función de producción” (Aigner et al. 1997). Econométricamente, si usamos
datos sobre insumos y productos observados, la función de producción indicará el nivel promedio de
productos que se puede producir a partir de un nivel dado de insumos (Schmidt 1985). Se pueden
estimar las funciones de producción a nivel individual o agregado.

La literatura sobre la función de producción sugiere que el supuesto implícito de las funciones de
producción es que todas las empresas producen de manera técnicamente eficiente y, por lo tanto, la
empresa representativa (promedio) define la frontera (Førsund et al.
1980; Farrell y Fieldhouse 1962). La estimación de la frontera de producción supone que el límite de
la función de producción está definido por unidades de "mejores prácticas". Por lo tanto, indica la
salida potencial máxima para un conjunto dado de entradas a lo largo de una línea recta desde el
punto de origen. El término de error en el modelo SFA representa cualquier otra razón por la cual las
empresas estarían fuera (dentro) del límite.
Las observaciones dentro de la frontera se consideran “ineficientes (Hjalmarsson et al. 1996; Reinhard
et al. 2000)”.

El modelo SFA y el código STATA/R

Replanteando el modelo de frontera estocástica:

yi = ÿxi ÿ ui + vi, ui = |U|

donde |U| es la (in)eficiencia agregada.

4http://www.fao.org/docrep/006/Y5027E/y5027e0d.htm (consultado el 6 de julio de 2018).


Machine Translated by Google

642 S. Arunachalam y A. Sharma

En esta área de estudio, la estimación de los parámetros del modelo no suele ser el objetivo principal.
La estimación y el análisis de la ineficiencia de los individuos de la muestra y de la muestra agregada suelen
ser de mayor interés.
STATA tiene un comando incorporado para estimar SFA.5 Este es esencialmente un análisis de
regresión donde el término de error consiste en un error aleatorio y un término de ineficiencia, y nuevamente
se puede estimar para las funciones de producción y costo. La sintaxis del comando frontier es:

frontier depvar [indepvars] [si] [en] [peso] [, opciones]

Las opciones más importantes son:


Distribución (distname) especifica la distribución del término de ineficiencia como seminormal (hnormal),
exponencial o normal truncada (tnormal). El valor predeterminado es hnormal.

cm (varlist) se ajusta al modelo medio condicional; solo se puede utilizar con distribución (tnormal).
uhet(varlist) variables explicativas para la función de varianza de la ineficiencia técnica

vhet(varlist) variables explicativas para la función de varianza del error idiosincrático modelo de frontera
de costos de ajuste de costos; el valor predeterminado es el modelo de frontera de producción vce(vcetype)

vcetype puede ser oim, opg, bootstrap o jackknife.

Para hacer el análisis en R, puede usar el paquete "Benchmarking" y la función sfa como se muestra a
continuación.

> sfa(x,y) para # donde x es una matriz xk de k entradas


n unidades, y y es un vector x 1 de salidas para n unidades > summary(sfa(x,y)) > e <-
sfa(x,y) > eff(e)
# Eficiencia estimada para cada unidad

SFA en la práctica

Un gerente puede encontrar el efecto de la ineficiencia y los impulsores de la ineficiencia al adoptar un


enfoque SFA. Por ejemplo, dada la disponibilidad de los datos sobre la implementación incorrecta de los
elementos de la mezcla de marketing y la corrupción dentro de la unidad, un gerente puede modelar la
ineficiencia como una función de la implementación incorrecta y la corrupción y ver su efecto en la
productividad general (p. ej. , contribución a los ingresos) de cada unidad. En marketing, ha habido varias
aplicaciones de SFA; véase, por ejemplo, Feng y Fay (2016) que lo aplican para evaluar la capacidad del
vendedor, Parsons (2002) que comenta sobre su aplicación al personal de ventas y puntos de venta al por
menor y observa que, a diferencia de explicar solo el rendimiento medio, SFA proporciona una explicación
de la brecha entre la unidad y el ejecutante del nido, y Vyt (2008) que utiliza SFA para comparar el
geomarketing de los minoristas.

5https://www.stata.com/manuals13/rfrontier.pdf (consultado el 30 de enero de 2019).


Machine Translated by Google

19 Análisis de marketing 643

2.4 Análisis conjunto

El análisis conjunto es una técnica de investigación de mercados para determinar las preferencias de
los consumidores y los clientes potenciales. Conocer las preferencias de los clientes proporciona
información invaluable sobre cómo piensan y toman sus decisiones antes de comprar productos. Por lo
tanto, ayuda a las empresas a diseñar sus estrategias de marketing, incluidas las actividades de
publicidad, promoción y ventas (Ofek y Toubia 2014).
El análisis conjunto se puede definir como una técnica para analizar y determinar cómo los
consumidores valoran varios atributos de un producto y la compensación que están dispuestos a hacer
entre las características que componen un producto. Estos Atributos son características/características
inherentes de un producto. Por ejemplo, el precio, el color, la memoria RAM, la cámara, el tamaño de la
pantalla y la energía de la batería pueden ser atributos de un teléfono inteligente. Los diferentes valores
que puede tomar un atributo de producto representan los distintos niveles de ese atributo. El negro, el
dorado y el blanco pueden ser niveles del atributo color. Del mismo modo, la memoria RAM de atributos
puede tener los niveles de 4 GB, 8 GB y 16 GB. La importancia de cada atributo se puede inferir
manipulando experimentalmente las características de un producto en varios paquetes de productos y
observando las calificaciones de los consumidores para ese producto o las opciones entre los productos
de la competencia en el mercado. Los conocimientos proporcionados por el análisis conjunto ayudan a
desarrollar productos claramente definidos al identificar aquellas características que son más atractivas
para los consumidores. El análisis conjunto se puede emplear productivamente en las siguientes áreas:

• Diseñar productos que maximicen las utilidades medidas para los clientes en un objetivo
segmento
• Modificación de productos existentes y desarrollo de nuevos productos •
Selección de segmentos de mercado para los que un producto determinado ofrece una gran
utilidad • Planificación de una estrategia competitiva • Análisis de políticas de precios

Esta técnica es extremadamente útil en el proceso de desarrollo de nuevos productos. Cuando las
empresas definen claramente los productos en las primeras etapas, tienen 3,3 veces más probabilidades
de éxito. A menudo se utiliza para varios tipos de productos, como bienes de consumo, productos
eléctricos y electrónicos, viviendas para jubilados y viajes aéreos.

Tipos de análisis conjunto

El principio básico detrás de cualquier tipo de análisis conjunto es el mismo: los productos se dividen en
atributos del producto y los clientes se enfrentan a compensaciones al decidir qué combinación de
atributos y sus niveles correspondientes comprar. Existen diferentes tipos de análisis conjuntos según el
tipo de respuesta, el enfoque de las preguntas, el tipo de diseño y si todos los atributos están incluidos
en cada pregunta del cuestionario de la encuesta. Los cuatro tipos de análisis conjunto basados en el
tipo de respuesta son: (1) conjunto basado en calificaciones, (2) conjunto mejor-peor, (3) conjunto basado
en rango y (4) conjunto basado en elección. El conjunto estándar y el conjunto adaptativo basado en la
elección se basan en el enfoque de preguntas. El conjunto genérico y el conjunto específico de la marca
se basan en el tipo de diseño. Conjunto de perfil completo y
Machine Translated by Google

644 S. Arunachalam y A. Sharma

Los conjuntos de perfil parcial se clasifican en función de la inclusión de todos los atributos en cada
pregunta de la encuesta.
El análisis conjunto basado en la elección es el tipo más común de análisis conjunto. En conjunto
basado en la elección, a los encuestados se les presentan varias preguntas y cada pregunta
comprende de 2 a 5 productos y se les pide que elijan su opción preferida.
Luego, los resultados se utilizan para calcular un valor numérico (conocido como "puntuación de
utilidad", "utilidad" o "valor parcial") que mide cuánto influyó cada atributo y nivel en la decisión del
cliente de hacer esa elección.

Realización de un análisis conjunto

Un análisis conjunto comprende tres etapas: Diseño


Experimental: Esta etapa es la parte más crucial del estudio ya que asegura que el estudio
incluya todos los atributos y los valores de los atributos (niveles) que serán probados. Los tres pasos
en el diseño son:

• Selección de atributos relevantes para el producto o servicio: los atributos se seleccionan en


función de la información requerida. Sólo deben incluirse los atributos que pueden ser controlados
por la empresa. Debe evitarse seleccionar demasiados atributos, ya que conduce a cuestionarios
más largos, que requieren mucho tiempo y son difíciles de responder.
Deben evitarse los atributos ambiguos. Por ejemplo, seleccionar ambiente como un atributo para
un teléfono inteligente puede dar lugar a una mala interpretación por parte de los encuestados.
• Selección de niveles para los atributos: los niveles para los atributos deben estar bajo
estable y claro para los encuestados. Debe evitarse la ambigüedad al especificar los niveles.
Por ejemplo, debe evitarse especificar 4,5 –5,5 como nivel de tamaño de pantalla de un teléfono
inteligente porque deja espacio para la interpretación. Para las variables cuantitativas, la distancia
entre dos niveles no debe ser tan grande que la evaluación de los diferentes niveles se vuelva
demasiado fácil. • Desarrollo de paquetes de productos a evaluar: en este paso, la cantidad de
paquetes de productos que evaluaría el encuestado se decide en función de diseños factoriales
fraccionados que se utilizan para reducir la cantidad de productos.

Recopilación de datos: el tipo de análisis conjunto utilizado dicta la naturaleza de los datos que
se recopilarán. El objetivo es obtener las preferencias de los encuestados por un conjunto
cuidadosamente seleccionado de paquetes de productos (Perfiles). Por lo general, estos datos se
recopilan mediante una encuesta en línea o en papel. El tamaño de los datos depende del número
de niveles de atributo que se probarán. Cuanto mayor sea el número de niveles de atributos, más
datos se recopilarán para una mayor precisión. El primer paso en este proceso es diseñar un
procedimiento de recopilación de datos utilizando una de las siguientes metodologías:

• Evaluaciones por pares de paquetes de productos: el encuestado considera dos o más productos
al mismo tiempo y asigna 100 puntos entre las opciones. • Paquetes de productos ordenados
por rango: el encuestado clasifica los productos presentados y asigna el rango 1 a la opción más
preferida y un rango igual al número de productos presentados a la opción menos preferida.
Machine Translated by Google

19 Análisis de marketing 645

• Evaluación del producto en una escala de calificación: el encuestado evalúa cada producto en una
escala (p. ej., 1 a 100), otorgando una calificación de 100 al producto más preferido. • Método
de elección: el encuestado considera múltiples productos que están definidos en todos los atributos
del estudio y elige el mejor en el mejor método de escala y elige el mejor y el peor producto en
el mejor-peor método de escala.

Exploración de decisiones: la última etapa para realizar un análisis conjunto es la exploración


de decisiones, es decir, evaluar las opciones de diseño de productos segmentando a los clientes en
función de sus funciones de valor parcial, probando el éxito probable de un nuevo producto
simulando las condiciones del mercado y transformando los valores parciales en opciones de
productos. que los consumidores tienen más probabilidades de comprar.

Interpretación de resultados conjuntos

La salida conjunta da utilidades estimadas o valores parciales correspondientes a las preferencias


promedio del consumidor por el nivel de cualquier atributo dado.
Ilustremos la estimación de partworths para determinar la preferencia de un consumidor por la
pizza. Definimos cuatro atributos: tipo de queso, aderezos, bebida y precio con 3, 3, 2 y 3 niveles,
respectivamente, para cada atributo.

queso cheddar
Queso Mozzarella

parmesano

Cebolla
Hongo

Pepperoni
Beber Coca

pepsi
Precio $5
$7
$10

Las preferencias de los consumidores se cuantifican mediante regresión lineal para varios
atributos de la pizza. En la encuesta, el encuestado indica sus preferencias por varias pizzas
definidas por diferentes combinaciones de los atributos dados y sus niveles.
queso de
respuestas
de
un
solo
consumidor
para
múltiples
perfiles
de
pizza
Cheddar Ejemplos
10 0 10 10 0 10 0 0
0 110 0 0 0 10 0 10 Queso
Mozzarella
0 0 0 0 10 10 0 10 1 parmesano
10 0 10 0 0 10 0 0 1 Cebolla
0 10 0 10 0 0 110 0 Champiñones
0 0 10 0 110 0 0 10 Pepperoni
0 10 111110 0 0 0 Coca
10 10 0 0 0 0 1111 Pepsi
0 0 1110 0 0 0 10 0 cinco$
10 0 0 0 0 1110 0 0 siete$
0 10 0 0 10 0 0 0 11 diez$
2 3 12 7 6 6 3 16 14 Clasificación
S. Arunachalam y A. Sharma 646
Machine Translated by Google
Machine Translated by Google

19 Análisis de marketing 647

Ahora, el enfoque es hacer una regresión de las preferencias del consumidor por la pizza con base en
sus calificaciones de los distintos niveles de atributos.
Ejecutamos la regresión en variables ficticias categóricas. Establecemos un nivel de atributo
como línea de base y eliminar el nivel correspondiente de la regresión. Nuestra línea de base
en este ejemplo es una pizza con queso Cheddar, aderezos de cebolla, coca cola y un precio
de 5$.
La utilidad de esta pizza de referencia se captura en la intersección de la regresión
producción. Los otros coeficientes dan los valores parciales para varios niveles de atributos.
Dependiendo del tipo de información necesaria, se pueden obtener más conocimientos de
los valores parciales calculados anteriormente.

Aplicaciones de análisis conjunto

Hay muchas aplicaciones posibles del análisis conjunto. Sin embargo, los cuatro
aplicaciones comunes son el análisis de compensaciones, la previsión de cuotas de mercado, la determinación
importancia relativa de los atributos y comparación de alternativas de productos. Todas las demás aplicaciones
son generalmente variantes de estas cuatro aplicaciones.
Análisis de compensación: las utilidades del análisis conjunto se utilizan para analizar si
los consumidores promedio estarían dispuestos a renunciar a un atributo en particular para ganar
mejoras en otro.
Para el ejemplo dado, los valores parciales se estiman de la siguiente manera:

Partworths

Interceptar 3.28 Mejor paquete


queso cheddar 0 parmesano
Mozzarella ÿ1.11
Parmesano 2.78

Cebolla 0 Pepperoni
Hongo 0.78

Peperoni 0.89
Beber coca cola 0 Coca

Pepsi ÿ2
Precio dólar5 0 10$
dólar7 ÿ0,11
dólar10 0.44

Al analizar un grupo de consumidores, los valores parciales pueden interpretarse como la


Preferencias promedio en el grupo. Por ejemplo, las utilidades se pueden utilizar para justificar
cambios en un atributo particular a expensas de otro.
Pronóstico de participación de mercado: Esto se basa en el uso de un logit multinomial
modelo. Para utilizar la salida conjunta para la predicción de cuota de mercado, lo siguiente
condiciones deben ser satisfechas: La empresa debe saber que no necesitamos
otros productos competidores en el mercado además de su propia oferta que un
es probable que el cliente considere antes de seleccionar un producto en la categoría. Cada
Las características importantes de estos productos competitivos deben incluirse en el
diseño experimental. Las utilidades del producto competidor también deben ser
Machine Translated by Google

648 S. Arunachalam y A. Sharma

evaluado. Con base en las utilidades del producto, la cuota de mercado del producto i puede ser
calculado como:

yo yo
Sharei = norte

eUj
j=1

Ui es la utilidad estimada del producto i,


Uj es la utilidad estimada del producto j,
n es el número total de productos en el conjunto competitivo, incluido el producto i.
Determinación de la importancia del atributo: el rango de valores parciales estimados dentro
un atributo dado indica qué tan importante es el atributo en el proceso de decisión de
un consumidor. Para calcular la importancia de cualquier atributo, la diferencia entre
el nivel de utilidad más alto y más bajo de ese atributo se divide por la suma de los
diferencias entre el nivel de utilidad más alto y más bajo de todos los atributos, incluidos
aquel para el que se calcula la importancia. el numero resultante es
generalmente interpretado como el % del peso de decisión de un atributo en la elección general
proceso. La importancia del atributo se mide utilizando la siguiente métrica:

interfaz de usuario - interfaz de usuario

Yo = norte

yo=1 interfaz de usuario - interfaz de usuario

Ii = importancia de cualquier atributo dado i


Ui = utilidad más alta dentro de un atributo dado
Ui = nivel de utilidad más bajo dentro de un atributo dado
n = número total de atributos
En el ejemplo discutido anteriormente, la importancia del atributo para el queso se puede calcular
como sigue:

Rango = Max (niveles) ÿ Min (niveles) = 2,78 ÿ (ÿ1,11) = 3,89

Importancias de los atributos

Atributo Rango Importancia


Queso 3.89 0,53

Coberturas 0.89 0.12


Beber 2 0.27
Precio 0,55 0.08

Importancia del Queso = Rango/ (Suma de rangos de todos los atributos)


= 3,89/ (3,89 + 0,89 + 2 + 0,55) = 0,53

De manera similar, la importancia relativa de otros atributos se puede calcular como se muestra
en la tabla de arriba.
Comparación de alternativas de productos: el análisis conjunto también se puede utilizar
para determinar la elección del consumidor entre dos productos alternativos. Basado en la utilidad
derivado de cada oferta de producto, podemos predecir cómo elegiría un consumidor
entre los perfiles hipotéticos.
Machine Translated by Google

19 Análisis de marketing 649

Consideremos dos calificaciones de perfil de producto de un solo encuestado y predigamos su


elección entre estos dos perfiles.

Producto Cheddar Mozzarella Parmesano Cebolla Champiñones Pepperoni Coca Cola Pepsi Five$ Seven$ Ten$ Valoración
A 0 0 1 1 0 0 0 1 0 0 1 4
B 0 1 0 0 0 1 0 1 0 0 1 1

La utilidad de un perfil de producto se calcula utilizando los valores parciales estimados. los
los elementos del perfil se multiplican cada uno por los valores parciales correspondientes y se suman
hasta obtener la utilidad. Luego se comparan las utilidades calculadas y la que tiene el
mayor valor sería la elección del consumidor.
Coeficientes de los niveles de atributo:

Cheddar Mozzarella Parmesano Cebolla Champiñones Pepperoni Coca Cola Pepsi Cinco$ Siete$ Diez$
0 ÿ1,11 2.78 0 0.78 0.89 0 ÿ2 0 ÿ0,11 0,44

Utilidad del Producto A = 3,28 + 0,00ÿ0 + (ÿ1,11) ÿ0 + (2,78)

ÿ1 + (0) ÿ1 + (0,78) ÿ0 + (0,89) ÿ0 + (0) ÿ0 + (ÿ2,00)

ÿ1 + 0ÿ0 + (ÿ0.11) ÿ0 + 0.44ÿ1 = 4.5

Utilidad del Producto B = 3.28 + 0.00ÿ0 + (ÿ1.11) ÿ1 + (2.78) ÿ0 + (0)

ÿ0 + (0,78) ÿ0 + (0,89) ÿ1 + (0) ÿ0 + (ÿ2)

ÿ1 + 0ÿ0 + (ÿ0,11) ÿ0 + (0,44) ÿ1 = 1,5

Utilidad del Producto A > Utilidad del Producto B

Por lo tanto, la elección predicha de este consumidor en particular es el Producto A.

Producto Cheddar Mozzarella Parmesano Cebolla Champiñones Pepperoni Coca Cola Pepsi Five$ Seven$ Ten$ Utility Choice
A 0 0 1 1 0 0 0 1 0 0 1 4,5A

B 0 1 0 0 0 1 0 1 0 0 1 1.5

El análisis conjunto tiene varias ventajas, como descubrir controladores ocultos que
puede no ser evidente para los propios encuestados y evaluar la elección en un
nivel individual. Se puede utilizar para obtener valor de marca determinando la popularidad
de una marca Sin embargo, tiene ciertas desventajas, como la complejidad añadida en
el diseño experimental debido a la inclusión de un gran número de atributos.
Esto aumenta la fatiga del encuestado al realizar la encuesta y, por lo tanto, compromete
la exactitud del resultado. Además, la validez del análisis conjunto depende de la
Machine Translated by Google

650 S. Arunachalam y A. Sharma

plenitud de los atributos. El análisis conjunto iguala la utilidad general de un cliente para un
producto con la suma de sus utilidades para los componentes. Por lo tanto, una opción muy
valorada en un atributo puede compensar opciones poco atractivas en otro atributo y, por lo tanto,
dar resultados engañosos.

2.5 Análisis de clientes

Valor de por vida del cliente (CLV)

Los clientes son la base de la existencia de una empresa. Una empresa crea y proporciona valor
(producto o servicio) a los clientes y, a cambio, los clientes proporcionan valor (ingresos/beneficios)
a las empresas. Esta sección se centrará en una de esas medidas para analizar el valor
proporcionado por los clientes a las empresas: el valor de por vida del cliente (CLV).
Antes de entender CLV, echemos un vistazo a algunas otras métricas de clientes que se
usaban (todavía se usan) ampliamente antes de allanar el camino para la CLV, que es mucho
más superior. Una forma de determinar el valor del cliente es observar métricas como el ingreso
promedio del cliente o la ganancia promedio del cliente. A menos que se utilicen para un segmento
específico, estas métricas colocan a todos los clientes en el mismo nivel, lo cual es incorrecto y
ciertamente no es de interés para los especialistas en marketing que celebran la heterogeneidad
de los clientes. Algunos clientes proporcionan más ganancias que otros y algunos clientes en
realidad conducen a pérdidas. Otra forma interesante de analizar el valor proporcionado por un
cliente es observar su comportamiento de compra a través del análisis RFM (actualidad,
frecuencia, valor monetario). En el análisis RFM, se observan los siguientes parámetros:

• Actividad reciente: ¿hace cuánto tiempo se realizó la última


compra? • Frecuencia: ¿Con qué frecuencia compran? • Valor
monetario—¿Cuánto gastan?

Los clientes pueden calificarse en cada parámetro y clasificarse desde los más valiosos
(recientemente, frecuencia y valor monetario más altos) hasta los menos valiosos (recientemente,
frecuencia y valor monetario más bajos). Este es un modelo simple que puede ayudar a segmentar
a los clientes y predecir su comportamiento futuro. Pero todas estas son métricas retrospectivas,
es decir, estas métricas no tienen en cuenta el potencial futuro de un cliente. Estos métodos
fueron lo suficientemente buenos cuando no teníamos acceso a grandes datos y software
estadístico avanzado para analizar datos. Ahora tenemos la capacidad de recopilar y analizar
datos al nivel más bajo, lo que permite un análisis más sofisticado. CLV es una de esas métricas
que representa directamente el valor futuro. CLV se puede definir como la contribución financiera
total del período actual hacia el futuro, es decir, los ingresos menos los costos, de un cliente
durante su vida futura con la empresa y, por lo tanto, refleja la rentabilidad futura del cliente
(Kumar 2010). Es una métrica del cliente con visión de futuro que no solo tiene en cuenta el valor
actual sino también el valor futuro proporcionado por los clientes. Proporciona un valor en dólares
para la relación con el cliente. Ayuda a distinguir a los clientes de acuerdo con el valor
proporcionado por ellos durante la vida de su negocio con la empresa. Las futuras estrategias de
marketing se pueden planificar en consecuencia para los clientes actuales y futuros.
Machine Translated by Google

19 Análisis de marketing 651

Ahora que hemos establecido que CLV es una métrica importante, intentaremos calcularlo. CLV
se calcula descontando todas las ganancias actuales y futuras esperadas del lado del cliente. Se
trata de los márgenes de beneficio de cada cliente en lugar de los ingresos. También tiene en
cuenta el porcentaje de clientes retenidos por la empresa. CLV se puede calcular como:

mtrt
CLV = (19.13)
(1 + yo) t
t

donde mt es el margen de utilidad durante el año/duración t


rt es la tasa de retención durante el año/duración ti es la
tasa de descuento constante t es el año/duración Cuando
el costo único de adquisición de un cliente se resta de la
ecuación. (19.13) obtenemos el CLV de ese cliente en particular. Si asumimos un horizonte
infinito, un margen de beneficio constante, una tasa de retención constante y una tasa de descuento
constante Eq. (19.13) se puede simplificar a:

r
CLV = m (19.14)
1 + yo - r

Aquí r
es el múltiplo del margen y depende de la tasa de retención y la tasa de
1+iÿr
descuento. Cuanto mayor sea la tasa de retención y menor la tasa de descuento, más valioso es
un cliente. La Tabla 19.2 proporciona el múltiplo de margen basado en las tasas típicas de retención
y descuento. ¡ La tabla 19.2 es un cálculo de CLV muy útil al “dorso del sobre”!

CLV es el valor máximo proporcionado por los clientes a la empresa. Por lo tanto, puede usarse
como el límite superior de cualquier actividad centrada en el cliente. Por ejemplo, si el CLV de un
cliente potencial es de $5, la empresa no debería gastar más de $5 en la adquisición de este
cliente. Esto también se aplica a las actividades de retención y desarrollo de clientes. Como se
mencionó anteriormente, el valor en dólares proporcionado por CLV puede ayudar a distinguir
cohortes de clientes. Por lo tanto, también ayuda a distinguir las perspectivas futuras que son
similares a los clientes actualmente rentables.
Como con cualquier métrica, CLV también tiene algunas limitaciones. En primer lugar, es muy
difícil calcular los márgenes de beneficio a nivel individual. A veces, los ingresos y/o costos no se
pueden atribuir a un solo cliente, lo que dificulta el cálculo de los márgenes de beneficio.
De manera similar, es difícil calcular con precisión las tasas de retención porque el cálculo de la
tasa requiere un análisis sofisticado. Un pequeño aumento en la tasa de retención puede

Cuadro 19.2 Múltiplo de margen Tasa de descuento (i)

Tasa de retención (r) 10% 12% 14% 16%


60% 1,20 1,15 1,11 1,07
70% 1,75 1,67 1,59 1,52
80% 2,67 2,50 2,35 2,22
90% 4,50 4,09 3,75 3,46
Machine Translated by Google

652 S. Arunachalam y A. Sharma

aumentar sustancialmente el múltiplo del margen, lo que a su vez aumenta el CLV. Por lo tanto, la
precisión de la tasa de retención es extremadamente importante para calcular CLV.
A pesar de las limitaciones mencionadas anteriormente, CLV ayuda a tomar importantes
decisiones de marketing. Es una métrica de cliente que tiene en cuenta tanto la rentabilidad actual
como la futura de un cliente. Pero CLV no debe ser el único criterio de toma de decisiones. Las
empresas deben tener en cuenta factores como la referencia/influencia del cliente y la reputación de
la marca, junto con el CLV para tomar decisiones de marketing.

Valor de referencia del cliente (CRV)

Hay muchas maneras intensivas en recursos para adquirir nuevos negocios.


Si bien la mayoría de las empresas se dedican a las formas tradicionales de atraer clientes y, por lo
tanto, obtener ganancias, existen formas efectivas de llevar el negocio a un costo bajo o nulo. Una
de esas formas es la recomendación de clientes. Piense en sus amigos que son clientes fieles de
Tata Motors. Tata Motors puede usar a sus amigos para recomendarle un nuevo modelo de automóvil,
o simplemente a la propia empresa. En tales situaciones, ¿Tata Motors incurrirá en costos de
... intangibles
adquisición? Probablemente no o puede ser un poco.
deCondicionado
referencia, puede
a losterminar
aspectoscomprando
tangibles eun auto
nuevo de Tata Motors.
Y ahí es donde radica el poder de métricas como el valor de referencia del cliente (CRV).
Pensemos en algunas empresas que participan en los programas de recomendación: el programa
de recomendación de Dropbox aseguró 4 millones de usuarios en solo 15 meses. Inspirado por
PayPal, que literalmente daba dinero gratis por referencias, Dropbox agregó programas de referencia
de doble cara, en los que se recompensa tanto a quien recomienda como a quien recomienda.
Amazon Prime, PayPal, Airbnb y Uber han visto recientemente un gran éxito de los programas de
referencia en sus estrategias comerciales.6 Ya sea un negocio B2B o B2C, la referencia de clientes
ha tenido un éxito significativo en los últimos tiempos. Según Linkedln, el 84% de las decisiones de
compra B2B comienzan con una referencia. Además, la referencia de clientes tiene una buena tasa de conversión.
La probabilidad de conversión de un cliente referido es un 30% mayor que la de un lead generado a
través de los canales tradicionales.7 Ahora la pregunta es cómo capitalizar las referencias y diseñar
estrategias comerciales. La literatura sobre gestión de clientes sugiere que las empresas deben
medir los valores de cada referencia y luego decidir las estrategias de seguimiento (p. ej., Kumar
2010; Kumar et al. 2007). En consecuencia, el valor de referencia del cliente se define como una
estimación de los valores de por vida de cualquier referencia de tipo uno: personas que no habrían
comprado o se habrían convertido en clientes sin referencias (p. ej., Kumar et al. 2007). Las empresas
también deberían incluir el valor de las referencias de tipo dos: personas que se habrían convertido
en clientes de todos modos. Esto tiene implicaciones para gestionar los esfuerzos de marketing para
adquirir nuevos clientes.

CRV es más complicado que calcular el valor de por vida del cliente (CLV).
El cálculo de CRV requiere la estimación del número promedio de referencias exitosas que hace un
cliente después de proporcionar algún incentivo por parte de la empresa. Para

6https://www.referralcandy.com/blog/47-referral-programs/ (consultado el 19 de mayo de 2018).


7https://influitive.com/blog/9-stellar-referral-program-examples/ (consultado el 19 de mayo de 2018).
Machine Translated by Google

19 Análisis de marketing 653

eso, necesitamos mirar el comportamiento pasado, que debe incluir suficiente variación en el número de
referencias para un modelo empírico y precisión adecuados. El cálculo del CRV requiere comprender el
tiempo que puede pasar y aún así estar seguro de que las referencias de un cliente son realmente
provocadas por los incentivos de referencia de una empresa. Además, es fundamental comprender la tasa
de conversión de referencias a clientes reales. Finalmente, el valor de referencia de un cliente es el valor
presente de sus referencias de tipo uno más el valor presente de sus referencias de tipo dos (Kumar et al.
2007). El valor de referencia del cliente de un cliente es el valor monetario asociado con las ganancias
futuras otorgadas por cada prospecto referido, descontado al valor presente.

El CRV se puede calcular sumando el valor de los clientes que se unieron debido a la referencia y el
valor de los clientes que se habrían unido de todos modos descontados al valor actual. Podemos calcular
el CRV de customer8 i como

T n1 T n2
Aty ÿ aty + Mty + ACQ1ty (1 + r) ACQty
gusanos = +
t (1 + r) t
t=1 y=1 t=1 y=1

dónde

Aty = margen de contribución del cliente y que de otro modo no compraría el producto aty = costo de
la referencia para el cliente y

ACQ1ty = ahorros en el costo de adquisición de clientes que no se unirían sin la referencia

ACQ2ty = ahorros en el costo de adquisición de los clientes que se habrían unido


de todos modos

T = número de períodos que se pronosticarán en el futuro (p. ej., años) n1 = número de


clientes que no se unirían sin la referencia n2 = número de clientes que se habrían unido de
todos modos Mty = costos de marketing necesarios para retener a los clientes A La empresa
puede calcular primero el CRV de sus clientes y luego categorizarlos según el valor del
CRV. Una empresa puede encontrar que un grupo particular de clientes tiene un CRV significativamente
más alto que el de los demás. La empresa puede comercializar o proporcionar incentivos a este conjunto
de clientes para aumentar las referencias y, por lo tanto, la adquisición de nuevos clientes. Además, una
empresa puede buscar perfiles, similares a los del grupo de alto CRV, que aún no se han recomendado e
inducirlos a recomendar brindándoles algunos incentivos. Dados los datos disponibles, CRV se puede
calcular con cualquier software estadístico estándar.

Valor de influencia del cliente (CIV)

Imagínese buscando el mejor automóvil que sea asequible dentro de su presupuesto.


Además, imagina que no tienes mucho conocimiento sobre los aspectos técnicos de un automóvil.
Probablemente le preguntará a sus amigos y colegas o buscará consejos en línea.

8La fórmula para calcular CRV se adoptó de Kumar et al. (2007).


Machine Translated by Google

654 S. Arunachalam y A. Sharma

¿Qué más puedes hacer para llegar a tu decisión? Con el poder creciente de las plataformas
sociales (en línea o fuera de línea), es posible que desee publicar una pregunta en Facebook o
hacerle una pregunta a un blogger experto en automóviles, o seguir a alguien en Instagram cuyas
ideas, comentarios y comentarios sobre la industria automotriz lo influencien. . Casi todo, desde las
grandes empresas hasta los niños, tiene algún tipo de estrategias, consejos, experiencias y
atribuciones que impulsan la decisión, las ventas, la impresión, etc. de otros. Dicho esto, la mayoría
de las empresas no pueden comprender completamente el valor de las estrategias y tácticas de
conexiones sociales, que va más allá de las estratagemas y tácticas de marketing tradicionales.9 Es
fundamental calcular esta influencia al determinar el valor de sus clientes. La influencia social puede
desempeñar un papel significativamente más importante en su decisión de comprar un automóvil
nuevo o colocar a sus hijos en una escuela en particular, o decidir qué aplicación de citas elegir. Por
lo tanto, el valor de un cliente puede ir más allá de su valor de compra o valores de referencia.
Además de CLV y CRV, el valor de un cliente puede provenir de su influencia sobre otros clientes.
El valor de la influencia de un cliente se refiere al valor monetario de las ganancias asociadas con
las compras generadas por la influencia de las redes sociales de un cliente en otros clientes
adquiridos y prospectos, descontados al valor presente (Kumar 2013).
Comprender CIV puede ser de gran valor para la mayoría de las empresas. Para un minorista
de helados, Kumar y Mirchandani (2012) muestran que una empresa puede aprovechar el verdadero
valor de la influencia del cliente. Diseñan un proceso de siete pasos para identificar a las personas
influyentes en las redes sociales en línea, observar sus influencias a lo largo del tiempo y mejorar
sustancialmente el desempeño de la empresa. De hecho, la influencia de los clientes tiene un valor
significativo para las empresas y las empresas deben medir e implementar CIV en sus estrategias
comerciales. Para obtener una comprensión detallada del cálculo de CIV, consulte Kumar et al.
(2013), Kumar y Mirchandani (2012).

3 Aplicaciones

Marketing Analytics ha evolucionado durante el último siglo de aplicaciones, investigación y


recopilación de datos. ¡Algunos incluso podrían decir que el marketing fue el primer consumidor de
grandes datos de "negocios"! Wedel y Kannan (2016) brindan un resumen legible de la evolución
del análisis de marketing y plantean varias preguntas para los investigadores. Clasifican las
aplicaciones en gestión de relaciones con los clientes (CRM), análisis de marketing mix,
personalización y privacidad y seguridad de datos. En este libro, también, hay muchas aplicaciones
de las herramientas: el capítulo sobre análisis de redes sociales tiene aplicaciones para publicidad
en línea, experimentos A/B y atribución digital; los capítulos sobre análisis de pronóstico, análisis
minorista, análisis de precios y análisis de la cadena de suministro contienen aplicaciones para sus
configuraciones especializadas, como pronóstico de demanda, planificación de surtido y planificación
de distribución; y el estudio de caso “InfoMedia Solutions” contiene una aplicación para la planificación
de mezcla de medios. Otro

9CLV: http://www.customerlifetimevalue.co/ y CIV: https://www.mavrck.co/resources/ (consultado


el 15 de septiembre de 2018).
Machine Translated by Google

19 Análisis de marketing 655

Las aplicaciones que se tratan en este libro son los motores de recomendación, las geovallas, la
segmentación del mercado y la orientación de la búsqueda. Los rápidos cambios en la disponibilidad de
datos y herramientas seguirán impulsando el desarrollo de nuevas aplicaciones en marketing. Para
mantenerse al tanto de los nuevos desarrollos, los investigadores pueden seguir los temas del “Marketing
Science Institute10” y sus prioridades de investigación.

Material complementario electrónico

Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están
disponibles en www.allaboutanalytics.net.

• Datos 19.1: exercise_inter.csv • Datos


19.2: exercise_curvilinear.csv • Datos 19.3:
exercise_mediation.csv • Datos 19.4:
ABC_hospital_group.csv • Datos 19.5:
restaurant_chain_data.csv (sección “DEA en la práctica”) • Datos 19.6: pizza.csv
(sección “Interpretación del análisis conjunto”) • Datos 19.7: product_profile_ratings.csv
(sección “Comparación de alternativas de productos” en el análisis conjunto)

Ejercicios

Ex. 19.1 Utilice el archivo de datos titulado “exercise_inter.csv” y responda las siguientes preguntas:

a) ¿Por qué las variables independientes están centradas en la media? Publicidad de centro medio, dis
conteo y variables de promoción.
b) ¿El efecto de la publicidad sobre las ventas depende del nivel de descuento? Trace un gráfico para
interpretar el efecto de interacción. c) ¿El efecto de la publicidad sobre las ventas depende del nivel
de promoción? Trace un gráfico para interpretar el efecto de interacción.

Ex. 19.2 Use el archivo de datos titulado "ejercicio_curvilíneo.csv" y responda las siguientes preguntas:

a) ¿El efecto de la publicidad sobre las ganancias es curvilíneo o lineal? Trace una gráfica si el
la relación es curvilínea.
b) ¿El efecto de la promoción de ventas sobre las ganancias es curvilíneo o lineal? Trace una gráfica si el
la relación es curvilínea.
c) ¿El efecto de las rebajas y los descuentos sobre las ganancias es curvilíneo o lineal? Trazar un gráfico
si la relación es curvilínea.

10www.msi.org (consultado el 6 de julio de 2018).


Machine Translated by Google

656 S. Arunachalam y A. Sharma

Ex. 19.3 Utilice los datos de "exercise_mediation.csv" y responda las siguientes preguntas:

a) ¿El recuerdo media el efecto de la publicidad en la cuota de mercado?


b) ¿Por qué se usa bootstrapping en el análisis de mediación?

Ex. 19.4 Encuentre la unidad hospitalaria más eficiente del grupo hospitalario ABC dada la
siguiente información:

Unidad 1 2 3 4 5 6 7 8

Beneficio (crore) 120 160 430 856 200 320 189 253
Número de 150 100 120 180 220 90 140 160
Especialistas
Área (pies cuadrados) 21.000 32.650 40.000 18.780 19.870 50.000 33.000 19.878

Referencias

Aigner, DJ, Lovell, CAK y Schmidt, P. (1977). Formulación y estimación de estocástica


funciones de producción de frontera. Revista de Econometría, 6(1), 21–37.
Aiken, LS y West, SG, 1991. Regresión múltiple: prueba e interpretación de interacciones.
Baccouche, R. y Kouki, M. (2003). Frontera de producción estocástica e ineficiencia técnica: A
análisis de sensibilidad. Econometric Reviews, 22(1), 79–91.
Banker, RD, Cooper, WW, Seiford, LM, Thrall, RM y Zhu, J. (2004). Retornos a escala en
diferentes modelos DEA. Revista europea de investigación operativa, 154, 345–362.
Banquero, RD y Morey, R. (1986). Análisis de eficiencia para entradas y salidas fijadas exógenamente.
Investigación operativa, 34, 513–521.
Banquero, RD y Thrall, RM (1992). Estimación de rendimientos a escala utilizando datos envolventes
análisis. Revista europea de investigación operativa, 62(1), 74–84.
Barón, RM y Kenny, DA (1986). La distinción variable moderador-mediador en la investigación psicológica social:
Consideraciones conceptuales, estratégicas y estadísticas. Diario de la personalidad
y Psicología Social, 51(6), 1173.
Bera, AK y Sharma, SC (1999). Estimación de la incertidumbre de producción en la frontera estocástica
modelos de funciones de producción. Revista de Análisis de Productividad, 12(2), 187–210.
Boussofiane, A., Dyson, RG y Thanassoulis, E. (1991). Análisis envolvente de datos aplicado.
Revista europea de investigación operativa, 52(1), 1–15.
Caudill, SB, Ford, JM y Gropper, DM (1995). Estimación de frontera y empresa específica 1076
medida de ineficiencia en presencia de heteroscedasticidad. Revista de Negocios y Economía
Estadísticas, 13(1), 105–111.
Charnes, A., Cooper, WW y Rhodes, E. (1978). Medir la eficiencia de la toma de decisiones
unidades. Revista europea de investigación operativa, 2, 429–444.
Charnes, A., Clark, T., Cooper, WW y Golany, B. (1985). Un estudio de desarrollo de datos
análisis envolvente en la medición de la eficiencia de las unidades de mantenimiento en las fuerzas aéreas de EE. UU.,
en: R. Thompson y RM Thrall (eds.). Annals of Operational Research, 2, 95–112.
Chen, CF-F. y Soo, KT (2010). Algunos universitarios son más iguales que otros: eficiencia
pruebas de Inglaterra. Boletín de Economía, 30(4), 2697–2708.
Cohen, J., Cohen, P., West, SG y Aiken, LS (2003). Correlación/ regresión múltiple aplicada
análisis para las ciencias del comportamiento. Hillsdale, Nueva Jersey: Lawrence Erlbaum Associates.
Machine Translated by Google

19 Análisis de marketing 657

Cook, WD y Seiford, LM (2009). Análisis envolvente de datos (DEA): treinta años después.
Revista europea de investigación operativa, 192(1), 1–17.
Cooper, WW, Seiford, LM y Zhu, J. (2004). Análisis Envolvente de Datos. manual sobre datos
análisis envolvente (págs. 1–39). Boston, MA: Springer.
Cullinane, K., Wang, TF, Song, DW y Ji, P. (2006). La eficiencia técnica de los puertos de contenedores: comparando el
análisis envolvente de datos y el análisis de frontera estocástica. Investigación de Transporte Parte A: Política y
Práctica, 40(4), 354–374.
Farrell, MJ y Fieldhouse, M. (1962). Estimación de funciones de producción eficientes bajo rendimientos crecientes a
escala. Revista de la Real Sociedad Estadística. Serie A (General), 125, 252–267.
Farris, PW, Bendle, NT, Pfeifer, PE y Reibstein, DJ (2010). Métricas de marketing: la guía definitiva para medir el
desempeño de marketing, Introducción (págs. 1–25). Londres:
Pearson.
Feng, C. y Fay, SA (2016). Inferir la capacidad del vendedor mediante el análisis de frontera estocástica.
Journal of Personal Selling and Sales Management, 36, 294–306.
Fenn, P., Vencappa, D., Diacon, S., Klumpes, P. y O'Brien, C. (2008). Estructura del mercado y la eficiencia de las
compañías de seguros europeas: un análisis de frontera estocástica. Revista de Banca y Finanzas, 32(1), 86–100.

Førsund, FR, Lovell, CK y Schmidt, P. (1980). Un estudio de las funciones de producción de frontera y de su relación con
la medición de la eficiencia. Revista de Econometría, 13(1), 5–25.
Gagnepain, P. e Ivaldi, M. (2002). Fronteras estocásticas y modelos de información asimétrica.
Revista de Análisis de Productividad, 18(2), 145–159.
Greene, WH (2010). Un modelo de frontera estocástica con corrección por selección de muestra. Diario de
Análisis de productividad, 34(1), 15–24.
Hjalmarsson, L., Kumbhakar, SC y Heshmati, A. (1996). DEA, DFA y SFA: una comparación.
Revista de Análisis de Productividad, 7(2-3), 303–327.
Jacobs, R. (2001). Métodos alternativos para examinar la eficiencia hospitalaria: análisis envolvente de datos y análisis
de frontera estocástica. Ciencias de la gestión de la atención médica, 4(2), 103–115.
Koetter, M. y Poghosyan, T. (2009). La identificación de regímenes tecnológicos en la banca: Implicaciones para el nexo
entre poder de mercado y fragilidad. Revista de Banca y Finanzas, 33, 1413–1422.

Kumar, V. (2010). Gestión de la relación con el cliente. Hoboken, Nueva Jersey: Biblioteca en línea de Wiley.
Kumar, V. (2013). Compromiso rentable del cliente: Concepto, métricas y estrategias. Mil
Oaks, CA: Publicaciones SAGE India.
Kumar, V., Andrew Petersen, J. y Leone, RP (2007). ¿Qué valor tiene el boca a boca? Harvard Business Review, 85(10),
139.
Kumar, V., Bhaskaran, V., Mirchandani, R. y Shah, M. (2013). Ganador del premio de práctica: creación de una estrategia
de marketing en redes sociales medible: aumento del valor y el retorno de la inversión de intangibles y tangibles para
Hokey Pokey. Ciencias del marketing, 32(2), 194–212.
Kumar, V. y Mirchandani, R. (2012). Aumentar el ROI del marketing en redes sociales. Sloan del MIT
Revisión de la gestión, 54(1), 55.
Kumar, V. y Sharma, A. (2017). Aprovechar el análisis de marketing para mejorar el rendimiento de la empresa:
conocimientos de la implementación. Análisis de marketing aplicado, 3(1), 58–69.
Kumar, V., Sharma, A., Donthu, N. y Rountree, C. (2015). Practique el modelo de ciencia de marketing integrado de
implementación de papel premiado en una organización sin fines de lucro: Equilibrar múltiples objetivos comerciales
en el Acuario de Georgia. Ciencias del marketing, 34(6), 804–814.
Kumbhakar, SC y Lovell, CK (2003). Análisis de frontera estocástica. Cambridge: Cambridge
prensa universitaria.
Lilien, GL, Rangaswamy, A. y De Bruyn, A. (2013). Principios de ingeniería de marketing. State College, Pensilvania:
DecisionPro.
Lilien, GL (2011). Cerrar la brecha entre académicos y profesionales en los modelos de decisión de marketing.
Revista de Marketing, 75(4), 196–210.
MacKinnon, DP (2008). Introducción al análisis de mediación estadística. Abingdon: Routledge.
Meeusen, W. y van den Broeck, J. (1977). Estimación de eficiencia a partir de funciones de producción Cobb-Douglas
con error compuesto. Revista Económica Internacional, 18(2), 435–444.
Machine Translated by Google

658 S. Arunachalam y A. Sharma

Ofek, E. y Toubia, O. (2014). Análisis conjunto: una guía para hacerlo usted mismo. Escuela de Negocios de Harvard,
nota, 515024.
Ouellette, P. y Vierstraete, V. (2004). Cambio tecnológico y eficiencia en presencia de insumos cuasi-fijos: Una aplicación de
DEA al sector hospitalario. Revista europea de investigación operativa, 154(3), 755–763.

Parsons, JL (2002). Uso del análisis de frontera estocástica para la medición del rendimiento y
evaluación comparativa Avances en Econometría, 16, 317–350.
Predicador, KJ, Curran, PJ y Bauer, DJ (2006). Herramientas computacionales para sondear interacciones en regresión lineal
múltiple, modelado multinivel y análisis de curvas latentes. Revista de Estadísticas Educativas y de Comportamiento,
31(4), 437–448.
Predicador, KJ y Hayes, AF (2004). Procedimientos SPSS y SAS para la estimación de efectos indirectos en modelos de
mediación simple. Métodos de investigación del comportamiento, 36(4), 717–731.
Predicador, KJ, Rucker, DD y Hayes, AF (2007). Abordaje de hipótesis de mediación moderada: teoría, métodos y
prescripciones. Investigación conductual multivariante, 42(1), 185–227.
Reinhard, S., Lovell, C. y Thijssen, G. (2000). Eficiencia ambiental con múltiples variables ambientalmente perjudiciales;
estimado con SFA y DEA. Revista europea de investigación operativa, 121(3), 287–303.

Schmidt, P. (1985). Funciones de producción de frontera. Econometric Reviews, 4(2), 289–328.


Seiford, LM y Zhu, J. (1999). Una investigación de rendimientos a escala bajo análisis envolvente de datos. Omega, 27, 1–11.

Sherman, HD y Gold, F. (1985). Eficiencia operativa de sucursales bancarias: Evaluación con análisis envolvente de datos.
Revista de Banca y Finanzas, 9(2), 297–315.
Venkatesan, R., Farris, P. y Wilcox, RT (2014). Análisis de marketing de vanguardia: Casos del mundo real y conjuntos de
datos para el aprendizaje práctico. Londres: Educación de Pearson.
Vyt, D. (2008). Evaluación del rendimiento de la red minorista: un enfoque DEA que considera el geomarketing de los
minoristas. The International Review of Retail, Distribution and Consumer Research, 235–253.

Wadud, A. y White, B. (2000). Eficiencia de los hogares agrícolas en Bangladesh: una comparación de la frontera estocástica
y los métodos DEA. Economía Aplicada, 32(13), 1665–1673.
Wedel, M. y Kannan, PK (2016). Análisis de marketing para entornos ricos en datos. Diario de
Comercialización, 80, 97–121.

Otros recursos

Kristopher, J. Predicador (2018). Sitio web del predicador. Recuperado el 19 de mayo de 2018, de http://
quantpsy.org/medn.htm.
Recuperado el 19 de mayo de 2018, de www.conjoint.online.
Software: STATA, Mplus. Recuperado el 19 de mayo de 2018, de www.statmodel.com.
Machine Translated by Google

capitulo 20
Análisis financiero

Krishnamurthy Vaidyanathan

1 Parte A: Metodología

1.1 Introducción

El análisis de datos en finanzas es una parte de las finanzas cuantitativas. Las finanzas
cuantitativas consisten principalmente en tres sectores financieros: gestión de activos, banca
y seguros. En estos tres sectores, hay cuatro funciones estrechamente conectadas en las que
se utilizan las finanzas cuantitativas: valoración, gestión de riesgos, gestión de carteras y
análisis de rendimiento. El análisis de datos en finanzas respalda estos cuatro componentes
básicos secuenciales de las finanzas cuantitativas, especialmente los tres primeros: valoración,
gestión de riesgos y gestión de carteras.
Las finanzas cuantitativas se pueden dicotomizar en dos ramas o subconjuntos que tienen
ligeras superposiciones. El primero es el mundo neutral al riesgo o el mundo Q, y el segundo,
en el que el análisis de datos se usa ampliamente, es el mundo adverso al riesgo o el mundo P.
Los profesionales cuantitativos del mundo Q se denominan Q-quants, y los del mundo P se
denominan P-quants. Antes de profundizar en la metodología del análisis de datos en finanzas
que estructuramos como un proceso de tres etapas en este capítulo, destacamos brevemente
los procesos, metodologías, desafíos y objetivos de estos dos mundos cuantitativos y también
analizamos la historia y los orígenes de estos dos mundos dicotomizados de las finanzas
cuantitativas.

Material complementario electrónico La versión en línea de este capítulo (https://doi.org/10.1007/


978-3-319-68837-4_20) contiene material complementario, que está disponible para los usuarios autorizados.

K. Vaidyanathan ( )
Escuela de Negocios de la India, Hyderabad, Telangana, India
Correo electrónico: vaidya_nathan@isb.edu

© Springer Nature Switzerland AG 2019 B. 659


Pochiraju, S. Seshadri (eds.), Essentials of Business Analytics, International Series
in Operations Research & Management Science 264, https://doi.org/
10.1007/978-3-319-68837 -4_20
Machine Translated by Google

660 K. Vaidyanathan

1.2 El mundo dicotomizado de las finanzas cuantitativas

Uno puede parafrasear el poema de Rudyard Kipling The Ballad of East and West y decir: "Oh, el
mundo Q es el mundo Q, el mundo P es el mundo P, y los dos nunca se encontrarán". A decir verdad,
la elevada perogrullada de Kipling no es del todo cierta en el mundo cuántico.
El mundo Q y el mundo P se encuentran, pero apenas se hablan. En esta sección, presentamos los
mundos P y Q y sus respectivos edificios teóricos.

1.2.1 Q-Cuántos

En el mundo Q, el objetivo es principalmente determinar un precio justo para un instrumento


financiero, especialmente un valor derivado, en términos de sus valores subyacentes.
El precio de estos valores subyacentes está determinado por las fuerzas del mercado de la oferta y la
demanda. Las fuerzas de la oferta y la demanda provienen de una variedad de fuentes en los
mercados financieros, pero principalmente se originan en instituciones financieras del lado de la
compra y del lado de la venta. Las instituciones compradoras son empresas de administración de
activos: grandes fondos mutuos, fondos de pensiones y administradores de inversiones como PIMCO
que administran el dinero de otras personas, tanto el dinero de entidades corporativas como
minoristas. Las instituciones del lado de la venta son creadores de mercado que ganan dinero con el
margen que ganan al emprender la creación de mercado. Es decir, están disponibles para comprar
(ofertar) un instrumento financiero para otro participante del mercado que quiera vender y poner a
disposición para vender (ofertar) un instrumento financiero para alguien que quiera comprar.
Proporcionan este servicio a cambio de una comisión denominada diferencial de oferta y demanda, y
así es como obtienen su dinero principalmente de la creación de mercado. Las mesas de negociación
de los grandes bancos de inversión como Goldman Sachs, JPMorgan, Citibank y Morgan Stanley
comprenden el lado vendedor. Los Q-quants trabajan principalmente en el lado de la venta y son
creadores de precios, a diferencia de los P-quants que trabajan en el lado de la compra y suelen ser tomadores de pre
Los Q-quants toman prestados gran parte de sus modelos de la física, comenzando con el
legendario movimiento browniano. El movimiento browniano es uno de los aportes más icónicos e
influyentes de la física a las finanzas matemáticas y se utiliza ampliamente para la fijación de precios
y la gestión de riesgos. Los orígenes del mundo Q se remontan al influyente trabajo publicado por
Merton en 1969 (Merton 1969), quien utilizó el proceso de movimiento browniano como punto de
partida para modelar los precios de los activos. Más tarde, en 1973, Black y Scholes utilizaron el
movimiento browniano geométrico (GBM) para fijar el precio de las opciones en otro trabajo
significativo por el que finalmente ganaron el Premio Nobel en 1997 (Black y Scholes 1973). Este
trabajo de Black y Scholes dio un impulso a la fijación de precios de los derivados, ya que estos
instrumentos financieros podían modelarse independientemente de la expectativa de rendimiento del
activo subyacente. En términos simples, lo que eso significaba era que incluso si yo creo que el precio
de un valor bajaría mientras que usted puede pensar que el precio de ese valor aumentaría, es decir,
las expectativas de retorno son diferentes, pero podemos estar de acuerdo en el precio. de un
instrumento derivado sobre ese valor. Otro edificio importante en el espacio Q es el teorema
fundamental de fijación de precios de activos de Harrison y Pliska (1981).
Este teorema postula que el precio actual de un valor es justo solo si existe un proceso estocástico
como un GBM con un valor esperado constante para todos los puntos futuros.
Machine Translated by Google

20 análisis financiero 661

a tiempo. Cualquier proceso que satisfaga esta propiedad se denomina martingala. Debido a que el
rendimiento esperado es el mismo para todos los instrumentos financieros, implica que no hay una
recompensa adicional por asumir riesgos. Es como si todos los precios se hicieran en un mundo ficticio
llamado mundo neutral al riesgo, donde, independientemente del riesgo de un valor, no hay una
compensación adicional por el riesgo. Todos los instrumentos financieros en este mundo ficticio
obtienen el mismo rendimiento independientemente de su riesgo. Los instrumentos libres de riesgo
ganan la tasa libre de riesgo al igual que todos los instrumentos riesgosos. Por el contrario, en el mundo
P, los agentes económicos o inversores son, para todos los efectos, reacios al riesgo, como la mayoría
de las personas en el mundo real.
Los Q-quants suelen tener un conocimiento profundo sobre un producto específico. Entonces, un
Q quant que, por ejemplo, comercia con derivados crediticios para ganarse la vida tendría un
conocimiento abundante sobre productos derivados crediticios, pero su conocimiento puede no ser muy
útil en, digamos, un dominio como el cambio de divisas. De manera similar, un Q-quant que modela
instrumentos de divisas puede no encontrar su conjunto de habilidades muy útil si intentara modelar
tasas de interés para instrumentos de renta fija. La mayor parte de las finanzas que se realizan en el
mundo Q se realizan en tiempo continuo porque, como se discutió anteriormente, la expectativa del
precio en cualquier momento futuro es igual a su precio actual. Dado que esto es válido para todos los
tiempos, los procesos utilizados en Q-world se establecen naturalmente en tiempo continuo. Por el
contrario, en el mundo P, las probabilidades son para un inversor adverso al riesgo. Esto se debe a
que, en el mundo real, las personas como tú y como yo necesitamos un rendimiento adicional por
asumir riesgos. Además, medimos los rendimientos en intervalos de tiempo discretos, como un día,
una semana, un mes o un año. Así que la mayoría de los procesos se modelan en tiempo discreto. La
dimensionalidad del problema en el mundo P es evidentemente grande porque el P-quant no está
mirando un instrumento específico o solo una clase de activos en particular, sino múltiples clases de
activos simultáneamente. Las herramientas que se utilizan para modelar en el mundo P son
principalmente estadísticas multivariadas, que es lo que preocupa a los analistas de datos.

1.2.2 P-Cuántos

Ahora discutimos el mundo P y sus orígenes, herramientas y técnicas y los contrastamos con el mundo
Q. El mundo P comenzó con el marco de media-varianza de Markowitz en 1952 (Markowitz 1952).
Harry Markowitz mostró que los criterios de evaluación de inversiones convencionales del valor presente
neto (NPV) deben segregarse explícitamente en términos de riesgo y rendimiento. Definió el riesgo
como la desviación estándar de la distribución de retorno. Argumentó que la correlación imperfecta de
la distribución de rendimiento de las acciones se puede utilizar para reducir el riesgo de una cartera de
acciones. Introdujo el concepto de diversificación, que es el equivalente financiero de la consigna: no
ponga todos los huevos en la misma canasta. Sobre la base del modelo de Markowitz, el siguiente
edificio importante del mundo P fue el modelo de fijación de precios de activos de capital (CAPM) de
William Sharpe en 1964 (Sharpe 1964). William Sharpe convirtió el marco de la “escuela de negocios”
de Markowitz en un modelo de “departamento de economía”.

Sharpe comenzó con un mundo ficticio en el que todos los inversores operan en el marco de Markowitz.
Además, todos los inversores en el mundo CAPM tienen la misma expectativa de rendimiento y
varianza-covarianza. Dado que todos los activos de riesgo en el
Machine Translated by Google

662 K. Vaidyanathan

mercado financiero debe estar en manos de alguien, resulta que en el modelo del “departamento de
economía” de Sharpe, todos los inversores acaban teniendo la cartera del mercado, una cartera en
la que cada título de riesgo tiene el peso proporcional a cuántos de ellos están disponibles. En el
momento en que William Sharpe postuló el modelo, la noción de cartera de mercado era nueva.
Poco tiempo después, la industria financiera creó fondos mutuos que mantienen una cartera
diversificada de acciones, principalmente en la proporción de acciones disponibles. Era como si la
naturaleza hubiera imitado al arte, aunque todos sabemos que casi siempre es al revés. En 1990,
Markowitz y Sharpe ganaron el Premio Noble de Economía por desarrollar la base teórica para la
diversificación y CAPM.
El siguiente edificio significativo llegó en 1970 por Eugene Fama llamado la hipótesis del mercado
eficiente (EMH). La EMH plantea la hipótesis de que ninguna estrategia comercial basada en
información ya disponible puede generar rendimientos superiores a los normales (Fama 1970).
La EMH ofreció importantes conocimientos teóricos sobre la naturaleza de los mercados financieros.
Más importante aún, se prestó a la investigación empírica que era imperativa y esencial para las
finanzas, entonces un campo relativamente incipiente. Como resultado, la hipótesis del mercado
eficiente es probablemente la hipótesis probada más amplia y extensamente en todas las ciencias
sociales. Eugene Fama ganó el Premio Nobel en 2013 por sus poderosas ideas sobre los mercados
financieros.
Otra contribución importante a mediados de la década de 1970 fue el modelo de teoría de precios
de arbitraje (APT) de Stephen Ross (1976). La APT es un modelo multifactorial utilizado para
calcular la rentabilidad esperada de un activo financiero. Aunque tanto CAPM como APT
proporcionaron un marco fundamental para la fijación de precios de activos, no utilizaron análisis de
datos porque su marco asumió que se conoce la distribución de probabilidad en el mundo P. Por
ejemplo, si los rendimientos de los activos financieros siguen una distribución elíptica, cada inversor
optaría por mantener una cartera con la varianza más baja posible para el nivel elegido de
rendimientos esperados. Tal cartera se denomina cartera de varianza mínima, y el marco de análisis
de cartera se denomina marco de varianza media. Desde el punto de vista de la teoría financiera,
esta es una suposición conveniente, especialmente la suposición de que los rendimientos de los
activos son conjuntamente normales, que es un caso especial de una distribución elíptica. Una vez
que se asume que la distribución de probabilidad ya se conoce, se pueden derivar implicaciones
teóricas sobre cómo deberían funcionar los mercados de activos. Tobin propuso el teorema de
separación que postula que la elección óptima de inversión para un inversor es independiente de su
riqueza (Tobin 1958). El teorema de separación de Tobin es válido si los rendimientos de los activos
financieros son multinormales. Ampliando el trabajo de Tobin, Stephen Ross postuló el teorema de
los dos fondos que establece que si los inversores pueden pedir prestado y prestar a la tasa libre de
riesgo, poseerán la cartera libre de riesgo o la cartera de mercado (Ross 1978). Ross luego lo
generalizó a un teorema de separación de fondos k más completo . El teorema de separación de
Ross es válido si los rendimientos de los activos financieros siguen una distribución elíptica. La clase
de distribución elíptica incluye la normal multivariante, la exponencial multivariante, la distribución t
de Student multivariante y la distribución de Cauchy multivariante, entre otras (Owen y Rabinovitch
1983).

Sin embargo, en realidad, la distribución de probabilidad debe estimarse a partir de la información


financiera disponible. Así que un componente muy grande de este llamado
Machine Translated by Google

20 análisis financiero 663

El conjunto de información, es decir, los precios y otras variables financieras, se observa en


intervalos de tiempo discretos, formando una serie de tiempo. Analizar este conjunto de información
requiere estadísticas multivariadas manifiestamente sofisticadas de un cierto giro utilizado en
economía llamado econometría, donde entran en juego la mayoría de las herramientas de análisis de datos.
A diferencia de esto, en el mundo Q, los cuantitativos analizan principalmente el precio de un
instrumento derivado específico y obtienen el precio libre de arbitraje del instrumento derivado en
función del instrumento fundamental subyacente y otros conjuntos de instrumentos.
Sin embargo, en el mundo P, tratamos de estimar la distribución conjunta de todos los valores que
hay en una cartera, a diferencia del mundo Q, en el que normalmente nos preocupamos por un
solo valor. La dimensionalidad en el mundo Q es pequeña, pero en el mundo P suele ser mucho
mayor. Por lo tanto, una serie de técnicas de reducción de dimensiones, en su mayoría modelos
de factores lineales como el análisis de componentes principales (PCA) y el análisis de factores,
tienen un papel central que desempeñar en el mundo P. Tales técnicas logran parsimonia al reducir
la dimensionalidad de los datos, que es un objetivo recurrente en la mayoría de las aplicaciones
de análisis de datos en finanzas. Dado que algunas de estas técnicas de análisis de datos pueden
ser cuantitativamente tan intensas o quizás más intensas que las técnicas de ingeniería financiera
utilizadas en el mundo Q, ahora existe una nueva generación de quants llamados quants P que
están capacitados en las metodologías de análisis de datos. Antes de la crisis financiera de 2008,
el mundo Q atrajo a muchos expertos en finanzas. Muchos con doctorados en física y matemáticas
trabajaron en precios derivados. Hasta la primera década del siglo XXI que culminó con la crisis
financiera, desde la década de 1980 cuando el mercado de derivados comenzó a explotar, las
finanzas cuantitativas se identificaron con los Q-quants. Pero en los últimos años, especialmente
después de la crisis, la industria financiera ha sido testigo de un aumento del interés y la atención
en el mundo P, y hay una disminución del interés en el mundo Q. Esto se debe principalmente a
que los mercados de derivados se han reducido. Los tipos de derivados exóticos de segunda y
tercera generación que se vendían antes de la crisis casi han desaparecido. En la última década,
ha habido una severa reducción tanto en el volumen como en la complejidad de los derivados
negociados. Otra razón por la que los P-quants tienen un papel dominante en las finanzas es que
sus habilidades son extremadamente valiosas en la gestión de riesgos, la gestión de carteras y las
valoraciones actuariales, mientras que los Q-quants trabajan principalmente en la valoración.
Además, un nuevo interés en el análisis de datos, en general y en la extracción de big data en
particular, ha sido un factor importante para el aumento del interés en el mundo P.

1.3 Metodología de análisis de datos en finanzas: tres etapas


Proceso

La metodología de análisis de datos en el espacio P de este capítulo está estructurada como un


proceso de tres partes: estimación de precios de activos, gestión de riesgos y análisis de cartera.
La primera parte, la estimación del precio de los activos, se divide en cinco pasos secuenciales; la
segunda parte, gestión de riesgos, en tres pasos; y la tercera parte, análisis de cartera, en dos
pasos. La metodología del marco de tres etapas para el análisis de datos en finanzas se muestra
en la figura 20.1. El primero de los pasos de estimación es el proceso de
Machine Translated by Google

664 K. Vaidyanathan

Metodología del marco de tres etapas para el análisis de datos en finanzas

Etapa: I Es ma ción del Precio de los Activos


• Paso 1: Iden ficación
• Paso 2: IID • Paso 3:
¿Estás en mi lugar?
Inferencia • Paso 4:
Proyección • Paso 5:
Precio
administración
Etapa: II Gestión de Riesgos
• Paso 1: Agregación
• Paso 2: Evaluación •
Paso 3: Aribución Análisis

Etapa: III Análisis de Cartera


• Paso 1: Asignación
• Paso 2: Ejecución

Fig. 20.1 Metodología del marco de tres etapas para el análisis de datos en finanzas

identificación de variables. La identificación de variables es un primer paso importante porque la


variable que se modela es diferente para diferentes clases de activos, como se muestra en la figura 20.1.
El segundo paso es transformar la variable identificada en un proceso independiente e idénticamente
distribuido (iid). El tercer paso es inferir la distribución conjunta de estos procesos iid de múltiples
variables financieras. El cuarto paso es pronosticar la variable usando información pasada, y el
quinto paso final en la estimación del precio de un activo es derivar el precio pronosticado de la
distribución conjunta de las variables iid.
Las siguientes dos etapas en el proceso de modelado constituyen el análisis para la gestión de
riesgos y carteras. Los primeros tres pasos dentro de la segunda parte del análisis pertenecen a la
gestión de riesgos, y los dos pasos restantes se aplican a la gestión de cartera.
Dentro de la gestión de riesgos, agregamos toda la cartera (Etapa II, Paso 1, Sec. 1.3.8) y luego
evaluamos la cartera (Etapa II, Paso 2, Sec. 1.3.9) en términos de varias métricas de riesgo, como
Valor en riesgo ( VaR) y umbral de persistencia. Luego, el rendimiento y el riesgo de la cartera se
atribuyen a varios factores de riesgo utilizando varias técnicas de descomposición (Etapa II Paso 3,
Secc. 1.3.10).
Los dos pasos finales constituyen la gestión de la cartera, donde veremos el diseño de la cartera
óptima o, desde un contexto de toda la empresa, el diseño de una política óptima para asignar la
cartera de activos de una empresa (Etapa III, Paso 1, Secc.
1.3.12). En el siguiente paso, ejecutamos y asignamos activos de acuerdo con el índice de referencia
óptimo de la cartera determinado en el paso anterior (Etapa III Paso 1, Secc. 1.3.12).
Esto se hace en estos días principalmente mediante programación utilizando algoritmos. Cada uno
de los pasos se explica mediante ejemplos sencillos e independientes. Se proporcionan referencias
adecuadas en los pasos correspondientes. Una aplicación integral del marco
Machine Translated by Google

20 análisis financiero 665

que combina múltiples pasos se proporciona en la Secc. 20.2. Ahora analizamos la metodología de tres
etapas que comienza con la identificación de variables para diferentes clases de activos, como acciones,
divisas, renta fija, crédito y materias primas.

1.3.1 Etapa I: Estimación del precio de los activos

El objetivo de la primera etapa es estimar el comportamiento del precio de un activo. Comienza con la
identificación de la variable financiera a modelar.

Paso 1: Identificación

El primer paso del modelado en el mundo P es identificar la variable apropiada que es diferente para distintas
clases de activos. La idea básica es encontrar un proceso para la variable financiera donde los residuos sean
esencialmente iid. El proceso más común usado para modelar una variable financiera x es el paseo aleatorio:

xt = xtÿ1 + ÿt

donde ÿt es el término de error y es aleatorio. La postulación en la que una variable financiera sigue un
camino aleatorio se denomina hipótesis del camino aleatorio y es consistente con la hipótesis del mercado
eficiente (Fama 1965). Lo que significa en términos simples es que las variables financieras son
fundamentalmente impredecibles. Sin embargo, si uno observa el precio de una acción típica, el precio
cambia de tal manera que el orden de magnitud del cambio es proporcional al valor del precio de la acción.
Este tipo de comportamiento entra en conflicto con la homogeneidad en el tiempo que caracteriza a una
variable financiera cuando sigue un camino aleatorio. Como salida, la variable que realmente se modela es
el logaritmo (log) del precio de la acción, y se ha observado que el logaritmo del precio de la acción se
comporta como un paseo aleatorio. Un paseo aleatorio simple tiene una media y una desviación estándar
constantes, y su distribución de probabilidad no cambia con el tiempo. Tal proceso se llama como un proceso
estacionario.

De forma similar a los precios de las acciones, el logaritmo de los tipos de cambio o el logaritmo de los
precios de las materias primas se comporta aproximadamente como un paseo aleatorio. La variable
subyacente en sí misma, es decir, el precio de las acciones, el tipo de cambio o el precio de las materias
primas, no es exactamente estacionario, pero el logaritmo del precio de las acciones, el tipo de cambio o el
precio de las materias primas se comporta como un paseo aleatorio fortuito. Un proceso estacionario es
aquel cuya distribución de probabilidad no cambia con el tiempo. Como resultado, sus momentos, como la
varianza o la media, no varían en el tiempo.
Sin embargo, elegir la variable financiera adecuada es tan importante como la modificación que se le
haga. Por ejemplo, en un instrumento de renta fija como un bono de cupón cero, el precio converge al valor
nominal a medida que el bono se acerca al vencimiento. Claramente, ni el precio en sí mismo ni su logaritmo
pueden modelarse como un paseo aleatorio. En cambio, lo que se modela como un paseo aleatorio es el
rendimiento de los bonos, denominado rendimiento al vencimiento. En pocas palabras, el rendimiento es la
tasa interna de rendimiento de un bono que se calcula sobre los flujos de efectivo
Machine Translated by Google

666 K. Vaidyanathan

Factores de Riesgo Típicos para diferentes Clases de Activos

Equi es Monedas Fijado Deriva ves Crédito Alto


• Precio Ingreso Frecuencia
• Registro de • implícito • Probabilidad de

• Registro de Precio Divisa • Curva de rendimiento Poco dinero incumplimiento Comercio


• Parámetros de la • Litecoin • Acumula cinco
• Garrapatas
Superficie Número de
curva de rendimiento • Volumen
valores predeterminados
• Vínculo
• El trance es
Untado
Matrices

Clases de activos en los mercados financieros

Fig. 20.2 Factores de riesgo típicos para diferentes clases de activos

el bono paga hasta el vencimiento. Y esta variable se ajusta adecuadamente a un modelo de paseo aleatorio.
Las variables financieras que típicamente se modelan en las diferentes clases de activos son
se muestra en la figura 20.2.

Paso 2: IID

Una vez que se identifica la variable financiera que es de interés, el siguiente paso en datos
preparación es obtener una serie temporal de las variables que son de interés. Estas
Las variables deben mostrar un comportamiento homogéneo a lo largo del tiempo, y como se muestra en la Fig.
20.2, las variables son diferentes para diferentes clases de activos. Por ejemplo, en acciones,
divisas o materias primas, es el registro del precio de la acción/moneda/materias primas. Para
instrumentos de renta fija, la variable de interés no puede ser el precio o el logaritmo de
precio. La variable de interés sería la rentabilidad al vencimiento de la renta fija
seguridad.
Una vez que tenemos los datos en bruto de la variable financiera, probamos si la
variable sigue un camino aleatorio utilizando pruebas estadísticas como la de Dickey-Fuller
o la prueba de razón de varianzas múltiples (Dickey y Fuller 1979; Campbell et al.
1997). Muchas veces pueden seguir procesos menos aleatorios y, por lo tanto, pueden ser
predecible hasta cierto punto. Esto se conoce como hipótesis de caminata no aleatoria. Andrés
Lo y Craig Mackinlay, en MIT Sloan y Wharton, respectivamente, en su libro
Un paseo no aleatorio por Wall Street presenta una serie de pruebas y estudios que
validar que existen tendencias en los mercados financieros y que las variables financieras
Machine Translated by Google

20 análisis financiero 667

identificados en el Paso 1 son algo predecibles. Son predecibles tanto en términos de corte
transversal como de series de tiempo. Como ejemplo de la capacidad de predecir utilizando
datos transversales, el modelo de tres factores Fama-French postulado por Eugene Fama y
Kenneth French utiliza tres factores para describir los rendimientos de las acciones (Fama y
French 1993). Un ejemplo de predictibilidad en series de tiempo es que la variable financiera
puede mostrar algún tipo de tendencia de reversión a la media. Lo que eso significa es que
si el valor de la variable financiera es bastante alto, tendrá una propensión a disminuir en
valor y viceversa. Por ejemplo, si los rendimientos se vuelven muy altos, puede haber una
propensión a que regresen a los niveles promedio históricos a largo plazo. En tales casos,
las características que provocan la desviación del recorrido aleatorio se extraen para que los
residuos muestren un comportamiento iid. Los modelos utilizados dependerían de las
características que presente la variable financiera. Por ejemplo, la agrupación de volatilidad
como la reversión a la media es una característica comúnmente observada en las variables financieras.
Cuando los mercados son extremadamente volátiles, la variable financiera fluctúa mucho y
puede haber una mayor probabilidad de una gran variabilidad que de otra manera. Se utilizan
técnicas como el modelo de heteroscedasticidad condicional autorregresiva (ARCH) o el
modelo de heteroscedasticidad condicional autorregresiva generalizada (GARCH) para
descartar el agrupamiento de volatilidad (Engle 1982). Si la variable muestra algún tipo de
reversión a la media, es posible que desee utilizar modelos de media móvil autorregresiva
(ARMA) si se trata de un caso univariado o utilizar modelos de autorregresión vectorial (VAR)
en escenarios multivariados (Box et al. 1994; Sims 1980). Estos son, en esencia, modelos
econométricos que pueden capturar interdependencias lineales a lo largo de múltiples series
de tiempo y son fundamentalmente una forma general de modelos autorregresivos (AR)
(Yule 1927). También podríamos usar modelos de volatilidad estocástica, y esos se usan
comparativamente comúnmente en el agrupamiento de volatilidad. Los procesos de memoria
larga garantizan principalmente modelos de integración fraccionaria (Granger y Joyeux 1980).
La integración fraccionaria muestra una memoria larga, lo que significa principalmente que
los incrementos de la variable financiera muestran autocorrelación. Por lo tanto, los
incrementos no son iid y estas autocorrelaciones persisten a lo largo de múltiples retrasos.
Por ejemplo, el valor de la variable aleatoria en el tiempo t + 1 es una función del tiempo t, t
ÿ 1, t ÿ 2, etc. Los retrasos disminuyen muy gradualmente y, por lo tanto, se denominan
procesos de memoria larga. Tales tendencias, ya sean memoria larga, agrupamiento de
volatilidad o reversión a la media, se modelan utilizando técnicas como procesos de
integración fraccionaria, GARCH o AR, respectivamente. Después de tener en cuenta dichos
patrones, nos quedan choques iid sin un patrón discernible.

Paso 3: Inferencia

El tercer paso en la estimación después de identificar la variable financiera y de haber llegado


al punto de los choques de iid es inferir el comportamiento conjunto de los choques de iid.
En el proceso de estimación, generalmente determinamos aquellos parámetros en el modelo
que nos llevan a una distribución iid. Explicamos los tres primeros pasos utilizando datos del
S&P 500 para el período del 25 de octubre de 2012 al 25 de octubre de 2017. El primer paso
es identificar la variable financiera de interés. Trabajamos con devoluciones en lugar de con
Machine Translated by Google

668 K. Vaidyanathan

Rendimientos diarios S&P 500


4%
Rentabilidad del índice S&P500
3%
2 banda SD
2%

1%

0%

-1%

-2%

-3%
-2 banda SD

-4%
25/oct/12 25/oct/13 25/oct/14 25/oct/15 25/oct/16 25/oct/17

Fig. 20.3 Rendimientos diarios del S&P 500

niveles de índice absolutos de S&P 500 por las razones mencionadas en el Paso 1. A partir de los niveles de
índice diarios, los rendimientos de 1 día se calculan de la siguiente manera:

rt = logaritmo (pt) ÿ logaritmo (ptÿ1)

Este retorno rt en sí mismo no se distribuye en un sentido iid. Las rentabilidades diarias no


son idénticas ni independientes. Podemos inferir de un vistazo rápido al gráfico de los datos
de retorno en la Fig. 20.3 que los retornos no son iid
Uno puede referirse al Cap. 5, sobre visualización de datos, para una mejor comprensión
sobre cómo interpretar el gráfico. Una de las cosas a observar en el gráfico es que si el
rendimiento en un día determinado fue extremadamente alto o bajo, normalmente el
rendimiento del día siguiente también fue bastante alto/bajo. Es decir, si el rendimiento era
volátil en el momento t, la probabilidad de que sea más volátil es mayor que la de que sea
estable en el momento t + 1. Entonces, en este caso, los datos parecen sugerir que la
variable financiera es condicionalmente heteroscedástica, lo que significa que la desviación
estándar no es independiente ni idéntica a lo largo de los períodos de tiempo. Para acomodar
la heteroscedasticidad condicional, podemos usar el modelo GARCH(1,1) (Bollerslev 1986).
Este modelo tiene en cuenta la autocorrelación y la heteroscedasticidad, es decir, las
correlaciones entre errores en diferentes períodos de tiempo t y diferentes varianzas de
errores en diferentes momentos. La forma en que modelamos la varianza
ÿt 2 es:

2 2
2 ÿt = ÿ + ÿ rtÿ1 + bstÿ1

Tenemos que estimar los parámetros ÿ, ÿ, ÿ. La técnica de estimación que utilizamos es


la estimación de máxima verosimilitud (MLE). Como su nombre lo indica, maximizamos la
probabilidad de estimar los valores verdaderos de los parámetros ÿ, ÿ, ÿ. Si el modelo
GARCH(1,1) es la especificación correcta y si los parámetros ÿ, ÿ, ÿ se estiman correctamente,
entonces rt será una secuencia de variables iid aleatorias. En este caso asumimos la
ÿt
Machine Translated by Google

20 análisis financiero 669

la rentabilidad media diaria sea cero. Usando la distribución gaussiana, la probabilidad de que
rt se distribuya normalmente viene dada por:
ÿt

2
1 ÿ
rt
12
y ÿt
2
< 2ÿÿt

Esto completa el Paso 2 de reducir la variable a un proceso iid. El siguiente paso es calcular
la distribución conjunta. Dado que las variables rt a lo largo del tiempo son independientes,
probabilidad la
ÿt
conjunta L de la muestra se calcula como el producto de la función de probabilidad anterior
utilizando la propiedad de independencia a lo largo de la serie temporal de n puntos de datos.
Por lo tanto:

2
norte
1 rt
L=
ÿ

12
y ÿt
2
t=1
< 2ÿÿt

Dado que el producto anterior sería un número muy pequeño en magnitud, el logaritmo
natural de la probabilidad anterior se maximiza en MLE. Este log-verosimilitud viene dado por:

norte

ÿ1 en 2ÿÿt 2 + rt
ln(L) =
2 t=1 ÿt 28

La probabilidad logarítmica conjunta es una función de los parámetros ÿ, ÿ, ÿ. El valor de los


parámetros que maximiza esta probabilidad conjunta es la estimación correcta. Los pasos
anteriores se explican en la hoja de cálculo “Financial Analytics Steps 1, 2 and 3.xlsx” (disponible
en el sitio web del libro).

Paso 4: Proyección

El cuarto paso es la proyección. Explicamos este paso usando un ejemplo simple de los
mercados de divisas. Digamos que la variable financiera se estima mediante una técnica como
MLE, GMM o estimación bayesiana (Hansen 1982). El siguiente paso es proyectar la variable
usando el modelo. Digamos que el horizonte es de 1 año y queremos calcular la ganancia o
pérdida esperada de una cartera determinada. Una técnica comúnmente utilizada para esto es
la simulación de Monte Carlo, que es otro ingreso de la física (Fermi y Richtmyer 1948).
Proyectamos la variable financiera en el espacio Q utilizando parámetros y procesos neutrales
al riesgo. Esto también nos ayuda a comprender cómo convergen los mundos P y Q.

Digamos que queremos proyectar el valor del tipo de cambio de la rupia india frente al dólar
estadounidense (USD/INR). USD/INR a fines de octubre de 2017 es 65. Suponemos que los
rendimientos siguen una distribución normal caracterizada por su media y desviación estándar.
La proyección podría realizarse en el espacio P o en el espacio Q. En el espacio P, la proyección
se basaría en el promedio anual histórico
Machine Translated by Google

670 K. Vaidyanathan

rendimiento y la desviación estándar histórica anualizada, y usaríamos estos primeros y segundos


momentos para proyectar el USD/INR. El método equivalente en Q-world sería calcular utilizando la
deriva libre de arbitraje.
Para estimar la deriva libre de arbitraje, supongamos que la tasa de interés anualizada en USD para
1 año es 1,7 % y que la tasa INR para 1 año es 6,2 %. Un dólar estacionado en una cuenta de ahorros
en los EE. UU. debería generar el mismo rendimiento que ese dólar convertido a rupia, estacionado en
la India y luego reconvertido a USD. Esto es necesario para garantizar que no haya arbitraje en un
mercado de divisas libre de arbitraje. Esto implica que el tipo de cambio USD/INR debería depreciarse
un 4,5%. Esto también puede entenderse a partir del criterio de paridad de tasas de interés descubierto
para una economía global sin fricciones (Frenkel y Levich 1981). El criterio especifica que las tasas de
interés reales deben ser las mismas en todo el mundo. Supongamos que la tasa de interés real a nivel
mundial es del 0,5 % y que la inflación de EE. UU. es del 1,2 %, lo que implica que la tasa de interés
nominal es del 1,7 %. Asimismo, la inflación en India es del 5,7% lo que implica una tasa de interés
nominal del 6,2%. La inflación en India es del 5,7% y la de EE.UU. del 1,2%. Por lo tanto, la moneda de
la India (rupia) debería depreciarse frente a la moneda estadounidense (dólar) por el diferencial de sus
respectivas inflaciones del 4,5 % (=5,7 %—1,2 %).

Supongamos que la desviación estándar de los rendimientos USD/INR es del 10 %. Una vez que
tengamos la media y la desviación estándar, podemos ejecutar una simulación Monte Carlo para
proyectar la variable financiera de interés. Tal ejercicio podría ser de interés si los ingresos están en
dólares y una parte sustancial de los gastos está en dólares. Para obtener una lectura más detallada de
la aplicabilidad de este ejercicio a los diversos componentes de las ganancias, como los ingresos y el
costo de los bienes vendidos en moneda extranjera, consulte el "Apéndice C: Componentes de la
obtención del documento CreditMetrics™" de JPMorgan (CreditMetrics 1999) .

Simulación del Monte Carlo

Primero elegimos un número aleatorio de la distribución normal estándar, digamos x. Luego escalamos
(multiplicamos) x por la desviación estándar y agregamos el rendimiento promedio para obtener una
variable aleatoria asignada a la distribución normal exacta de los rendimientos.

R = xÿ (10%) /raíz cuadrada(365) + (4,5%) /365

Tenga en cuenta que el rendimiento promedio y la desviación estándar se ajustan para el horizonte
diario dividiendo por 365 y la raíz cuadrada de 365, respectivamente. Después de escalar la variable,
multiplicamos el precio de USD/INR en t con (1 + R) para proyectar el valor de USD/INR al día siguiente.
Los pasos anteriores se explican en la hoja de cálculo “Financial Analytics Steps 4 and 5.xlsx” (disponible
en el sitio web del libro). Un ejemplo de la simulación anterior con USD/INR a 65 niveles en el día 1 se
ejecuta durante siete simulaciones y 10 días en la Tabla 20.1 y la Fig. 20.4.

Una vez que tenemos las proyecciones de los tipos de cambio en puntos futuros, es una tarea fácil
evaluar los diferentes componentes de las ganancias que se ven afectados por el tipo de cambio.
Machine Translated by Google

20 análisis financiero 671

Cuadro 20.1 Simulación del tipo de cambio del dólar a la rupia


Fecha 1 2 3 4 5 6 7
27-10-2017 65.00 65.00 65.00 65.00 65.00 65.00 65.00
28-10-2017 65.08 65.25 64.89 65.59 64.72 65.13 64.86
29-10-2017 65.57 64.74 65.56 65.37 64.41 65.16 64.58
30-10-2017 64.78 65.09 65.52 65.58 64.31 65.58 64.41
31-10-2017 65.27 64.65 65.28 65.51 64.92 65.72 63.98
01-11-2017 65.04 64.15 65.08 65.80 64.30 65.71 63.47
02-11-2017 64.97 64.31 65.34 65.82 64.64 65.47 63.62
03-11-2017 65.76 64.49 65.39 65.98 64.43 65.26 63.56
04-11-2017 65.63 64.24 65.22 66.35 63.97 65.73 63.19
05-11-2017 65.64 64.46 65.41 66.32 64.12 65.04 63.25
06-11-2017 65.00 64.39 65.29 66.34 64.29 64.92 64.17
07-11-2017 64.59 64.26 65.97 65.87 64.46 64.96 64.82

Simulación para USD/INR para horizonte de 1 año


85.00
USD/INR Proyección Montecarlo
80.00

75.00

70.00

65.00

60.00

55.00

50.00
Nov-2017 Ene-2018 Mar-2018 May-2018 Jul-2018 Sep-2018 Nov-2018

Fig. 20.4 Simulación del tipo de cambio del dólar a la rupia

Paso 5: Precios

El quinto paso es la fijación de precios que lógicamente se deriva de la proyección. El ejemplo


que usamos en el Paso 4 fue la proyección de USD/INR para un horizonte de 1 año. Qué
La fijación de precios nos permite llegar a la ganancia o pérdida esperada ex-ante de un producto específico.
instrumento basado en las proyecciones hechas en el Paso 4. En una técnica de proyección típica
como Monte Carlo, cada uno de los pasos es igualmente probable. Entonces la probabilidad de cada
de estos pasos viene dado por 1/ n, donde n es el número de simulaciones realizadas. los
la ganancia o pérdida ex-ante del instrumento viene dada por 1/n veces la probabilidad de
ganancia o pérdida del instrumento. Por ejemplo, en el caso de un contrato a plazo sobre
USD/INR que paga dentro de 1 año, el pago se calcularía al final
de 1 año como el valor proyectado de USD/INR menos la tasa a plazo, si es una
Machine Translated by Google

672 K. Vaidyanathan

contrato a plazo y viceversa para un contrato a plazo corto. Un contrato a plazo es un contrato entre
dos partes para comprar o vender un activo en un momento futuro específico. En este caso, el activo
es USD/INR y el momento futuro especificado es 1 año. Se supone que la parte que compra USD es
un contrato a plazo "largo", mientras que la otra parte que vende USD dentro de 1 año es un contrato
a plazo "corto". El pago ex ante esperado es la suma del pago en todos los escenarios dividido por el
número de simulaciones. Después de la fijación de precios, pasamos a la siguiente etapa de gestión
de riesgos.

1.3.2 Etapa II: Gestión de Riesgos

La segunda etapa del análisis de datos en finanzas se refiere a la gestión de riesgos. Implica un
análisis para la agregación de riesgos, la evaluación de riesgos y la atribución de riesgos. El marco
se puede utilizar para el análisis de riesgo de una cartera o incluso para una institución financiera completa.

Paso 1: Agregación

El primero de los tres pasos en la gestión de riesgos es la agregación de riesgos. El paso de


agregación es crucial porque todas las instituciones financieras necesitan conocer el valor de la
cartera de sus activos y también las exposiciones de riesgo agregadas en su balance. Después de
haber valorado los activos a nivel de instrumento, para calcular el valor de la cartera, debemos
agregarlos teniendo en cuenta el hecho de que los factores de riesgo están correlacionados. La
correlación de los diversos factores de riesgo y la situación financiera
de este modo se agrega la exposición al riesgo de los instrumentos. Exponemos la agregación
utilizando una de las herramientas comúnmente utilizadas para la agregación de riesgos llamada
funciones de cópula (Ali et al. 1978). Las funciones de cópula, especialmente las cópulas gaussianas,
son utilizadas ampliamente por la industria financiera y los reguladores debido a su manejabilidad
analítica. El Comité de Supervisión Bancaria de Basilea se basa exclusivamente en la cópula
gaussiana para medir el capital de riesgo de los bancos a nivel mundial. Una función de cópula es
una distribución de probabilidad multivariada para la que se conocen las distribuciones marginales.
La función de cópula ilustra la dependencia entre estas variables aleatorias correlacionadas.
Cópula en latín significa enlazar o atar. Son ampliamente utilizados tanto en el mundo P como en el
mundo Q para la agregación y optimización de riesgos. El edificio subyacente para la función de la
cópula es el teorema de Sklar (Sklar 1959). Este teorema postula que cualquier distribución conjunta
multivariada de factores de riesgo puede describirse en términos de las distribuciones marginales
univariadas de los factores de riesgo individuales. Una función de cópula describe la estructura de
dependencia entre estas variables aleatorias correlacionadas para las distribuciones marginales
univariadas. Como de costumbre, discutimos este paso usando un ejemplo. Digamos que existe una
cartera de préstamos compuesta por N número de exposiciones.
Para mantener el ejemplo computacionalmente simple, mantenemos N = 5. Entonces, tenemos un
banco que ha prestado dinero a cinco empresas diferentes que indexamos i = 1, 2, ..., 5. Suponemos
por simplicidad que Rs. Se prestan 100 a cada una de las cinco empresas. Entonces, la cartera de
préstamos vale Rs. 500. La forma en que vamos a agregar el riesgo de
Machine Translated by Google

20 análisis financiero 673

este Rs. 500 cartera de préstamos es que primero describiremos la distribución marginal del crédito
para cada una de las cinco empresas. A continuación, utilizaremos la función de cópula gaussiana
para obtener la distribución conjunta de la cartera de estos cinco préstamos.
Supongamos por simplicidad que cada empresa tiene una probabilidad de incumplimiento
del 2%. Por lo tanto, existe un 98% de posibilidades de supervivencia de la empresa en un año.
El horizonte para el préstamo es de 1 año. Suponga que en caso de incumplimiento, el banco
puede recuperar el 50% del monto del préstamo. Las distribuciones marginales son idénticas
en nuestro ejemplo para facilitar la exposición, pero los modelos de cópula también permiten
distribuciones variables. Lo que queremos hacer es que basándonos en la estructura de
correlación, queremos calcular la distribución conjunta del crédito de cada una de estas
empresas. Modelamos esto usando un modelo de un factor. Se supone que el único factor es
el estado de la economía M, que se supone que tiene una distribución gaussiana.
Para generar un modelo de un factor, definimos las variables aleatorias xi (1 ÿ i ÿ N):

xi = ÿiM + 1 ÿ ÿ2 i Día

En la ecuación anterior, el factor único M y el factor idiosincrásico Zi son


independientes entre sí y son variables normales estándar con media cero y desviación
estándar unitaria. El coeficiente de correlación ÿi satisface 1 ÿ ÿi < 1. La ecuación
anterior define cómo se correlacionan los activos de la empresa con la economía M.
La correlación entre los activos xi de la empresa i y los activos xj de la empresa j es ÿiÿj.
Sea H la función de distribución normal acumulada del factor idiosincrásico Zi. Por
lo tanto:

Probabilidad (xi < x| M) = H ÿ ÿ

ÿx ÿ 1ÿiM
- p2 ÿ
i

Se supone que los activos de cada una de estas empresas tienen una distribución
gaussiana. Nótese que la probabilidad de incumplimiento es del 2%, correspondiente a un
valor normal estándar de ÿ2,05. Si el valor del activo estandarizado con la media y su
desviación estándar es mayor a ÿ2.05, la entidad sobrevive, de lo contrario incumple. El condicional
probabilidad de que yoel entidad sobrevivirá es por lo tanto:

Si (xi < x| M) = 1 ÿ H ÿ ÿ

ÿx ÿ 1ÿiM
- p2 ÿ
i

Se conoce la distribución marginal de cada uno de los activos, pero no conocemos la


distribución conjunta de la cartera de crédito. Entonces, modelamos la distribución de la
cartera usando cópulas basadas en las correlaciones que tiene cada uno de estos
corporativos. El desempeño de la empresa depende del estado de la economía. Existe una
correlación entre estas dos variables. Esto puede explicarse observando que ciertas
industrias, como la del acero y el cemento, están más correlacionadas con la economía que otras, como la
Machine Translated by Google

674 K. Vaidyanathan

Tabla 20.2 Probabilidades de estado para cópula gaussiana de un factor

estados de la economia Punto medio del probabilidad de estado


1 rango ÿ3.975 7.40435E-06
2 ÿ3.925 9.02075E-06
3 ÿ3.875 1.09626E-05
4 ÿ3.825 1.32891E-05
5 ÿ3.775 1.60692E-05
6 ÿ3.725 1.93824E-05
7 ÿ3.675 2.33204E-05
8 ÿ3.625 2.79884E-05
9 ÿ3.575 3.3507E-05
10 ÿ3.525 4.00135E-05

mover bienes de consumo. Suponga que la correlación de la primera empresa con


la economía es 0.2, la segunda es 0.4, la tercera es 0.5, la cuarta es 0.6, y la
quinto es 0.8. Entonces, la correlación por pares se puede calcular como el producto de los dos
correlaciones al factor único, que en nuestro ejemplo es la economía. Modelamos
el estado de la economía como una variable aleatoria normal estándar en el rango de
ÿ3,975 a 3,975 en intervalos de 0,05. Tomamos el punto medio de estos intervalos. Mesa
20.2 muestra estos valores para los diez primeros estados de la economía. La probabilidad de
la economía que se encuentra en esos intervalos se calcula en la columna 3 de la Tabla 20.2 usando
la distribución gaussiana. Esto viene dado por:

P rob m ÿ ÿ METRO ÿ METRO +


2 2

donde M sigue la distribución normal estándar, m es el punto medio del intervalo,


y ÿ es el tamaño del paso. La forma de interpretar el estado de la economía es que cuando
es muy negativo, como ÿ2, entonces la economía está en recesión. y si es alto
como mayor que 2, la economía está en auge, y si está cerca de cero, entonces el
la salud de la economía es promedio. Una vez que tenemos las probabilidades para el estado de
la economía (Tabla 20.2), calculamos la probabilidad condicional de una empresa
incumplimiento, y esto nuevamente depende de la correlación entre los valores de sus activos y
los estados de la economía.
Sea ÿ(k) la probabilidad de que exactamente k empresas incumplan el préstamo de N empresas
portafolio. Dependiendo del estado de la economía, las probabilidades condicionales de
M son independientes. Por lo tanto, la probabilidad condicional de que todas las N empresas
sobrevivir es:

norte

ÿ (0|M) = Si (xi < x| M)


yo=1
Machine Translated by Google

20 análisis financiero 675

Similarmente,

norte

1 ÿ Si (xi < x| M)
ÿ (1|M) = ÿ (0|M)
Si (xi < x| M)
yo=1

Definir

norte

1 ÿ Si (xi < x| M)
wi =
Si (xi < x| M)
yo=1

Condicionado por el estado de la economía, la posibilidad de que exactamente k empresas incumplan


viene dada por la probabilidad combinatoria

norte

ÿ (k|M) = ÿ (0|M) wq(1)wq(2) ...wq(k)


yo=1

donde {q(1), q(2), ... , q(k)} es la interpretación combinatoria del número de


formas de k default entre N empresas {1, 2, ... , N} y la suma se toma sobre el

¡NORTE!

q(k) = k!
(N ÿ k)!

diferentes formas en que k empresas pueden incumplir entre N empresas.


norte

ÿ(k| M) es la probabilidad combinatoria de k incumplimientos, y wq(1)wq(2) ...wq(k)


yo=1
representa la suma de todas las combinaciones posibles de k incumplimientos entre N empresas.
Esto se tabula en la Tabla 20.3 para los primeros diez estados.

Tabla 20.3 Probabilidades de supervivencia condicionales para la cópula gaussiana de un factor

Estados de la economía Corporativo_1 Corporativo_2 Corporativo_3 Corporativo_4 Corporativo_5


1 0,623 0,053 0.278 0.143 0.000
2 0.632 0.292 0.155 0.060 0.001
3 0.642 0.306 0.167 0.068 0.001
4 0.651 0.320 0.180 0.076 0.001
5 0.660 0.335 0.194 0.085 0.002
6 0.669 0.350 0.208 0.095 0.002
7 0.678 0.365 0.222 0.106 0.003
8 0.687 0.381 0.237 0.118 0.004
9 0.696 0.397 0.253 0.130 0.005
10 0.705 0.412 0.269 0.144 0.007
Machine Translated by Google

676 K. Vaidyanathan

Tabla 20.4 Probabilidades de supervivencia conjunta condicional para cópula gaussiana de un factor

Estados de economía k = 0 k=1 k=2 k=3 k=4 k=5


1 5.37E-07 0.001336 0.035736 0.24323 0.134507 0.220673
2 9.99E-07 0.001746 0.041595 0.258263 0.136521 0.206578
3 1.83E-06 0.002267 0.048212 0.273353 0.138099 0.192794
4 3.3E-06 0.002926 0.055647 0.288374 0.139211 0.179355
5 5.84E-06 0.003755 0.063955 0.30319 0.139833 0.166295
6 1.02E-05 0.004791 0.073188 0.317651 0.139941 0.153647
7 1.75E-05 0.006079 0.08339 0,331596 0,139519 0,141441
8 2.96E-05 0.007672 0.094599 0.344857 0.138554 0.129705
9 4.93E-05 0.00963 0,106837 0,357256 0,13704 0.118463
10 8.08E-05 0.012025 0.120116 0.368611 0.134975 0.107738

Luego calculamos la distribución conjunta discreta de la supervivencia de todas las empresas


juntos. Hay cinco posibilidades: todas las empresas sobreviven, una empresa fracasa, dos empresas fracasan,
tres empresas fracasan, cuatro empresas fracasan y las cinco empresas fracasan. Esto se tabula en la Tabla 20.4
para los diez primeros estados.

Los pasos anteriores se explican en la hoja de cálculo “Paso de análisis financiero


6.xlsx” (disponible en el sitio web del libro). Para cada resultado, tenemos las pérdidas
correspondiente a ese resultado preciso. Así que usando las funciones de cópula tenemos
utilizó efectivamente la información sobre la distribución marginal de los activos de cada empresa
y su correlación con la economía, para llegar a la distribución conjunta de los
resultados de supervivencia de las empresas. Por lo tanto, podemos agregar el riesgo de la cartera
aunque como punto de partida solo teníamos la distribución de probabilidad marginal
de sólo préstamos individuales.

Paso 2: Evaluación

Pasamos ahora al segundo paso de la gestión de riesgos, que es la evaluación de


el portafolio. La evaluación del portafolio se realiza resumiéndolo de acuerdo a un
característica estadística adecuada. Más precisamente, la evaluación se realiza calculando el riesgo ex ante de
la cartera utilizando métricas como la persistencia del umbral (TP) o el valor en
riesgo (VaR) y, a veces, sensibilizarlo utilizando métodos como las pruebas de estrés. Límite
la persistencia se define de la siguiente manera: dado el período de tiempo durante el cual una cartera
permanecen constantes y sin cambios (T), el nivel de umbral de la cartera acumulada
rendimiento (ÿ) y el horizonte en el que el rendimiento acumulado permanece por debajo del
umbral ÿ. El VaR, por otro lado, es una medida del riesgo de una cartera bajo
condiciones normales de mercado en un cierto horizonte de tiempo, típicamente un año, para la mayoría
clases de activos. Los reguladores y las empresas utilizan el VaR para evaluar cuánta pérdida puede
posiblemente suceda en una cartera determinada y cuánto valor de activo se requiere para cubrir
por esta pérdida. Dado que el VaR es intuitivo y es comparable de manzana a manzana
en todas las clases de activos, es muy popular entre los reguladores y el mercado
Participantes. El VaR se define para un nivel de confianza dado, generalmente 99%. Esto significa
Machine Translated by Google

20 análisis financiero 677

que el gestor de riesgos puede estar seguro de que 99 de cada 100 veces, la pérdida de la
cartera no excederá la métrica VaR. Esta métrica también se utiliza para fines financieros.
informes y para el cálculo del capital regulatorio de las instituciones financieras. VaR es un
evaluación ex-ante en el sentido bayesiano—el número VaR es un valor que es ex-ante
evaluada como la pérdida que eventualmente puede resultar para la cartera. Solo incorpora
información disponible en el momento del cálculo. El VaR se utiliza para la gobernanza en
planes de pensión, dotaciones, fideicomisos y otras instituciones financieras adversas al riesgo
donde el mandato de inversión a menudo define la pérdida máxima aceptable con
probabilidades dadas. Una descripción detallada de cómo se ha utilizado el valor en riesgo
para calcular el capital se puede encontrar en el Capítulo 3, “Capital regulatorio basado en VAR”,
del libro Value at Risk: The New Benchmark for Management Financial Risk de
Felipe Jorión. Esta medida particular incorpora los pasos anteriores de cartera
agregación. Entenderemos el paso usando un ejemplo. Examinaremos el
Cálculo del VaR con una cartera simple que comprende 1 USD, 1 EUR, 1 GBP y
100 yenes. El valor de la cartera en términos de INR es Rs. 280 (1 USD = 64 rupias, 1 euro
(EUR) = Rs. 75, 1 libra esterlina (GBP) = Rs. 82, 100 yenes (JPY) = Rs. 59). Queremos
calcule al final de 1 año cuál es la posible pérdida o ganancia de este particular
portafolio. Para agregar el riesgo, hacemos uso de la matriz de correlación entre el
monedas como se describe en la Tabla 20.5.
Usaremos la descomposición de Cholesky, que fundamentalmente descompone el
matriz de correlación en una matriz triangular inferior y una matriz triangular superior
(Press et al. 1992). La única condición es que la matriz de correlación sea
matriz hermítica definida positiva. Esta descomposición es casi similar a la computación.
la raíz cuadrada de un número real.

A = LLÿ

A es una matriz hermítica definida positiva, L es una matriz triangular inferior y L* es


la transpuesta conjugada de L. La matriz descompuesta de Cholesky para la correlación
La matriz de la tabla 20.5 se muestra en la tabla 20.6.

Tabla 20.5 Moneda USD/INR EUR/INR GBP/INR JPY/INR


matriz de correlación
USD/USD 1 0.9 0.5 0.5
EUR/USD 0,9 1 0.5 0.5
EUR/USD 0,5 0.5 1 0.2
JPY/MXN 0.5 0.5 0.2 1

Tabla 20.6 Cholesky USD/INR EUR/INR GBP/INR JPY/INR


triangular inferior descompuesto
USD/USD 1 0 0 0
matriz
EUR/USD 0,9 0.43589 0 0
EUR/USD 0,5 0.114708 0.858395 0
JPY/MXN 0.5 0.114708 ÿ0.07358 0.855236
Machine Translated by Google

678 K. Vaidyanathan

Tabla 20.7 Simulación de ganancia/pérdida de cartera

Precios de registro Precios en MXN


Simulación
número USD EUR GBP JPY 1 USD 1 EUR 1 GBP 1 JPY Ganancia/pérdida

0 4.2 4.3 4.4 4.1 64.0 75,0 82.0 59.0 280.0


1 4.2 4.4 4.6 4.2 67.2 81.6 96.1 64.2 29,0
2 4.2 4.4 4.5 4.2 68.6 79.8 88.5 63.5 20.4
3 4.2 4.3 4.5 4.0 63.6 70,9 88.2 53.8 ÿ3,6
4 4.3 4.5 4.6 4.2 74.3 89.6 95.8 64.3 44.0
5 4.2 4.4 4.4 4.2 69.1 77.6 83.7 65,6 16.0
6 4.2 4.4 4.4 4.3 66.2 78.6 83.4 71.4 19.6
7 4.2 4.3 4.4 4.0 63.7 74.7 81.0 55.3 ÿ5,3
8 4.1 4.2 4.4 4.0 62.6 69.2 82.1 56.3 ÿ9,9
9 4.2 4.3 4.4 4.2 64.6 71.4 83.4 63.8 3.2
10 4.2 4.2 4.4 4.0 65.8 69.1 81.4 56,6 ÿ7,1

Para cada moneda, luego simulamos un número aleatorio extraído de un estándar


distribución normal. Estos se dibujan de forma independiente. Este vector de independiente
los sorteos se pueden convertir en un vector de sorteos correlacionados al multiplicar con el
matriz descompuesta.

Y = LX

donde Y es el vector de precios correlacionados y X es el vector de sorteos de iid.


Este proceso se repite varias veces para llegar a una simulación de correlación
sorteos. Usando el Paso 4, proyectamos el registro de los precios de USD/INR, EUR/INR,
GBP/INR y JPY/INR. Valoramos el tipo de cambio y agregamos la cartera
y restar del valor original para obtener la pérdida o ganancia de la cartera. Estos pasos son
repetido para un número dado de simulaciones como se muestra en la Tabla 20.7.
Luego calculamos el VaR al nivel del 99% a partir de las ganancias o pérdidas simuladas.
Los pasos anteriores se explican en la hoja de cálculo “Financial Analytics Step 7.xlsx”
(disponible en la web del libro). Para una simulación ejecutada 100 veces con los datos anteriores,
Se obtuvo un VaR de ÿ38 INR al 1% de nivel de confianza.

Paso 3: Atribución

El tercer paso en el análisis de gestión de riesgos es la atribución. Una vez que hemos evaluado
el riesgo de la cartera en el paso anterior, ahora necesitamos atribuir el riesgo a
diferentes factores de riesgo. Por ejemplo, el riesgo combinado de Rs. 38 de la cartera en
el ejemplo anterior se puede atribuir a cada uno de los activos individuales. Como por
una cartera, esto también se puede hacer a nivel de empresa. ¿Qué instituciones financieras
normalmente es atribuir el riesgo a lo largo de una línea de negocio (LoB). Esto es porque
bancos e instituciones financieras están interesados en medir el capital consumido
por diversas actividades. El capital se mide usando la métrica de Valor en Riesgo. VaR tiene
Machine Translated by Google

20 análisis financiero 679

convertirse en una herramienta inalienable para el control de riesgos y parte integral de las
metodologías que buscan la asignación de capital económico y/o regulatorio. Su uso está
siendo fomentado por el Banco de la Reserva de la India (RBI), el Banco de la Reserva Federal
(Fed), el Banco de Pagos Internacionales, la Junta de Bolsa y Valores de la India (SEBI) y la
Comisión de Bolsa y Valores (SEC). Las partes interesadas, incluidos los reguladores y los
órganos de supervisión, buscan cada vez más evaluar la peor pérdida posible (normalmente
con niveles de confianza del 99 %) de las carteras de las instituciones financieras y los fondos.
Puede encontrar una descripción detallada de cómo se ha utilizado el valor en riesgo para
calcular el capital en el Capítulo 3, "Capital regulatorio basado en VAR", del libro Valor en
riesgo: el nuevo punto de referencia para gestionar el riesgo financiero de Philippe Jorion. Hay
tres medidas comúnmente empleadas de capital basado en VaR: independiente, incremental y
componente. Se ha encontrado que diferentes bancos a nivel mundial calculan estos números
de capital de manera diferente, pero siguen ideas similares detrás de las medidas.

Capital independiente

El capital independiente es la cantidad de capital que la unidad de negocio requeriría, si se


considerara aisladamente. En consecuencia, el capital independiente está determinado por la
volatilidad de las ganancias de cada LoB.

Capital incremental

El capital incremental mide la cantidad de capital que la unidad de negocio agrega al capital
total de la empresa. Por el contrario, mide la cantidad de capital que se liberaría si se vendiera
la unidad de negocio.

Capital componente

El capital componente, a veces también denominado capital asignado, mide el capital total de
la empresa que estaría asociado con una determinada línea de negocios.
Atribuir capital de esta manera tiene un atractivo intuitivo y es probablemente la razón por la
que está particularmente extendido.
Utilizamos un ejemplo simplificado para comprender cómo se realiza la atribución utilizando
métricas como capital independiente, incremental y componente. Supongamos que hay un
banco que tiene tres unidades de negocio:

• Línea de negocio 1 (LoB1): banca corporativa • Línea de


negocio 2 (LoB2): banca minorista • Línea de negocio 3
(LoB3): operaciones de tesorería

Para facilitar el cálculo, suponemos que el activo bancario total es A = Rs. 3000 millones de
rupias. También asumimos por simplicidad que cada uno de los LoB tiene activos por valor de
Ai = Rs. 1000 millones de rupias, i = 1, 2, 3. La volatilidad de las tres líneas de negocios es:

ÿ = ÿ2 + ÿ2 + ÿ2 + 2ÿ12ÿ1ÿ2 + 2ÿ23ÿ2ÿ3 + 2ÿ31ÿ3ÿ1


1 2 3

donde ÿi es la volatilidad del i th el i el línea de negocio y ÿij es la correlación entre LoB. La


yj el el volatilidad de los tres LoB se calcula en la Tabla 20.8, mientras que
de cada LoB se calcula en la Tabla 20.9.
Machine Translated by Google

680 K. Vaidyanathan

Tabla 20.8 Cálculo del capital total para todo el negocio

Activos Volatilidad Capital


Banco 3000 4,534% 316.9142629

Tabla 20.9 Atribución de cálculo de capital para LoB1, LoB2 y LoB3

Activos Volatilidad Capital independiente Capital incremental Capital componente 1000 ÿ1 =


LoB1 51.25
5% 116,50 1000 ÿ2 = 7% 163,10 1000 ÿ3 = 9% 209,70 69
LoB2 67.05 102
LoB3 89.81 146
Total 3000 4,53% 489 208 317
Anónimo 109 –
(172)

LoB1 está moderadamente correlacionado con LoB2 (ÿ12=30%) y menos correlacionado


a LoB3 (ÿ31=10%). LoB2 no está correlacionado con LoB3 (ÿ23=0).
El capital requerido al 99% (z = 2,33) calculado como Valor en Riesgo viene dado por
2,33Aiÿi. El capital independiente requerido para la primera línea de negocio es 2,33 × Rs.1000
crores × 5% = 116,50 crores. El capital independiente requerido para la segunda línea de
negocio es 2,33 × Rs.1000 crores × 7% = 163,10 crores.
El capital independiente requerido para la tercera línea de negocio es 2,33 × 1000 crores de
rupias × 9 % = 209,70 crores.
El capital total viene dado por:

C = 2,33 Aÿ

= 2,33 A2 1ÿ2 1 +A2 2ÿ2 2 +A2 3ÿ2 3 +2ÿ12A1A2ÿ1ÿ2+2ÿ23A2A3ÿ2ÿ3+2ÿ31A3A1ÿ3ÿ1

El capital incremental de LoB1 se calcula como el capital total menos el capital de LoB2 y
LoB3. Mide el aumento incremental de capital al agregar LoB1 a la empresa. Por lo tanto, el
capital incremental para LoB1 es:

= 2,33 A2 1ÿ2 1 +A2 2ÿ2 2 +A2 3ÿ2 3 +2ÿ12A1A2ÿ1ÿ2+2ÿ23A2A3ÿ2ÿ3+2ÿ31A3A1ÿ3ÿ1

ÿ A2 2ÿ2 2 + A2 3ÿ2 3 + 2ÿ23A2A3ÿ2ÿ3

Por lo tanto, el capital incremental para LoB2 es:

= 2,33 A2 1ÿ2 1 +A2 2ÿ2 2 +A2 3ÿ2 3 +2ÿ12A1A2ÿ1ÿ2+2ÿ23A2A3ÿ2ÿ3+2ÿ31A3A1ÿ3ÿ1

ÿ A2 1ÿ2 1 + A2 3ÿ2 3 + 2ÿ31A3A1ÿ3ÿ1


Machine Translated by Google

20 análisis financiero 681

El capital incremental para LoB3 se calcula como:

= 2,33 A2 1ÿ2 1 +A2 2ÿ2 2 +A2 3ÿ2 3 +2ÿ12A1A2ÿ1ÿ2+2ÿ23A2A3ÿ2ÿ3+2ÿ31A3A1ÿ3ÿ1

ÿ A2 1ÿ2 1 + A2 2ÿ2 2 + 2ÿ12A1A2ÿ1ÿ2

El componente de capital para LoB1 se calcula como:

ÿC (A1ÿ1 + ÿ12A2ÿ2 + ÿ31A3ÿ3)


A1p1 = A1ÿ1
ÿ (A1ÿ1) Culo

Esto se debe a que ÿÿ = (p1+p12p2+p31p3) .


ÿÿ1 pags

De manera similar, el capital componente para LoB2 se calcula como:

ÿC (A2ÿ2 + ÿ12A1ÿ1 + ÿ23A3ÿ3)


A2ÿ2 = A2ÿ2
ÿ (A2ÿ2) Culo

Asimismo, el capital componente de LoB3 es:

ÿC (A3ÿ3 + ÿ13A1ÿ1 + ÿ23A2ÿ2)


A3ÿ3 = A3ÿ3
ÿ (A3ÿ3) Culo

El capital componente de cada LoB siempre suma el capital total. Consulte la hoja de cálculo
"Financial Analytics Step 8.xlsx" (disponible en el sitio web del libro) para conocer las
especificaciones del cálculo. Los lectores interesados en el cálculo del capital total para todo el
negocio pueden consultar el marco RiskMetrics™ desarrollado por JPMorgan (RiskMetrics 1996).

1.3.3 Etapa III: Análisis de Cartera

La tercera etapa del análisis de datos en finanzas se refiere a la gestión de riesgos de cartera.
Implica la asignación óptima de riesgo y rendimiento, así como la ejecución requerida para mover
la cartera de un nivel subóptimo a un nivel óptimo.

Paso 1: Asignación

Después de haber agregado la cartera, evaluado el riesgo y luego atribuido el riesgo a diferentes
líneas de negocios, pasamos a cambiar la cartera para toda la empresa, para una división o una
LoB para asignaciones óptimas. Entonces, si continuamos con el ejemplo anterior donde tenemos
tres líneas de negocios, la cantidad se mantiene esencialmente igual: Rs. 1000 millones de rupias.
Si analizamos los resultados del Paso 3
Machine Translated by Google

682 K. Vaidyanathan

de la gestión de riesgos, encontramos que la atribución de riesgos de las tres métricas (capital
independiente, incremental y componente) indica que la atribución de riesgo más baja ocurre a lo largo
de la primera línea de negocios. Si el índice de Sharpe (rendimiento excedente como proporción del
riesgo) para LoB1 es el más alto (seguido por el de LoB2 y LoB3 respectivamente), entonces es óptimo
para la empresa asignar más capital a la primera línea de negocios y luego a la segunda línea de
negocio. LoB3 es quizás el más caro en términos de rentabilidad ajustada al riesgo. El paso 1 del
análisis de cartera implica la asignación óptima de los activos de manera que el riesgo general de la
empresa sea óptimo.
Los lectores interesados en la asignación óptima de activos pueden consultar el marco RiskMetrics
desarrollado por JPMorgan (RiskMetrics 1996).

Paso 2: Ejecución

El último paso es la ejecución. Habiendo decidido cambiar la cartera de su nivel actual a un nivel más
óptimo, tenemos que ejecutar las operaciones respectivas para que podamos llegar a los niveles de
riesgo de cartera deseados. La ejecución ocurre en dos pasos. El primer paso es la programación de
pedidos, que es básicamente una etapa de planificación del proceso de ejecución. La programación de
órdenes implica decidir cómo dividir una operación grande en operaciones más pequeñas y programar
cada operación para una ejecución óptima. Digamos que una institución financiera quiere mover una
gran parte de su cartera de un bloque a otro.
Esto se conoce como una orden principal que se desglosa en órdenes secundarias.
La escala de tiempo de la orden principal está en el orden de un día conocido como tiempo de volumen.
En ejecución, la forma en que se mide el tiempo no es tanto en tiempo de calendario (llamado tiempo
de reloj de pared) sino en lo que se denomina tiempo de actividad. El tiempo de actividad se comporta
como un paseo aleatorio. En este último paso, volvemos al Paso 1, donde dijimos que necesitamos
identificar los factores de riesgo. Para la ejecución, la variable a modelar es el tiempo de actividad. Esto
se comporta aproximadamente como una caminata aleatoria con deriva y tiempo de actividad como un
factor de riesgo en el mundo de la ejecución, especialmente en el comercio de alta frecuencia.

Hay dos tipos de tiempo de actividad: tiempo de tictac y tiempo de volumen. El tiempo de tick es la
especificación más natural para el tiempo de actividad en escalas de tiempo muy cortas que avanzan
en 1 unidad cada vez que ocurre una operación. El segundo tipo, el tiempo de volumen, se puede
entender intuitivamente al observar que el tiempo de volumen transcurre más rápido cuando ocurre más
actividad comercial, es decir, el volumen de negociación es mayor. Después del primer paso de la
programación de pedidos, el segundo paso en la ejecución de pedidos es la colocación de pedidos, que
analiza la ejecución de pedidos secundarios, y esto se aborda nuevamente mediante el análisis de datos.
El tiempo esperado de ejecución de las órdenes secundarias es del orden de un minuto. Las órdenes
secundarias, tanto las órdenes de límite como las de mercado, se basan en comentarios en tiempo real
utilizando señales oportunistas generadas a partir de técnicas de análisis de datos. Por lo tanto, en la
colocación de órdenes, la escala de tiempo de las órdenes limitadas y de mercado es del orden de
milisegundos, y el tiempo se mide por tiempo de tictac, que es discreto. Estos dos pasos se repiten en
los algoritmos de ejecución después de concluir la primera orden secundaria llamada programación. Se
ejecuta colocando órdenes limitadas y de mercado. Una vez que la orden secundaria se ejecuta por
completo, actualizamos la orden principal con el monto residual que se ejecutará. Volvemos a calcular
Machine Translated by Google

20 análisis financiero 683

el siguiente niño ordena y ejecuta. Este procedimiento finaliza cuando se agota la orden
matriz. La ejecución casi siempre se realiza mediante programación utilizando algoritmos y
se conoce como comercio de alta frecuencia (HFT). El último paso, por lo tanto, retroalimenta
al primer paso de nuestro marco.

1.4 Conclusión

Para concluir, el marco consta de tres etapas para modelar, evaluar y mejorar el desempeño
de una institución financiera y/o una cartera. Los primeros cinco pasos pertenecen a la
estimación econométrica. Los siguientes tres pasos se refieren a la gestión de riesgos y
ayudan a medir el perfil de riesgo de la empresa y/o la cartera. Los dos últimos pasos se
refieren a la gestión de la cartera y ayudan a optimizar el perfil de riesgo de la institución
financiera y/o la cartera. Seguir estos pasos secuenciales en tres etapas nos ayuda a evitar
errores comunes y a garantizar que no nos perdamos características importantes en nuestro
uso del análisis de datos en finanzas. Dicho esto, no todos los análisis de datos en el mundo
de las finanzas involucran todos los pasos en tres etapas. Si solo estamos interesados en la
estimación, podemos seguir los primeros cinco pasos. O si solo estamos interesados en la
atribución de riesgos, es posible que solo implique el Paso 3 de la gestión de riesgos.
El marco lo abarca todo para cubrir la mayoría de los casos de análisis de datos posibles en
finanzas. Otros aspectos importantes fuera del alcance del marco, como la limpieza de
datos, se analizan en la sección. 20.2.

2 Parte B: Aplicaciones

2.1 Introducción

Este capítulo pretende demostrar el tipo de técnicas de ciencia de datos utilizadas para el
análisis de datos financieros. El estudio presenta una aplicación del mundo real de
metodologías de análisis de datos utilizadas para analizar y estimar el riesgo de una gran
cartera en diferentes horizontes para los que se puede mantener la cartera. La cartera que
utilizamos para este estudio consta de casi 250 valores que comprenden acciones
internacionales y bonos convertibles. Los principales métodos de ciencia de datos
demostrados en el estudio de caso son el análisis de componentes principales (PCA) y el
GARCH ortogonal. Usamos este enfoque para lograr parsimonia al reducir la dimensionalidad
de los datos, que es un objetivo recurrente en la mayoría de las aplicaciones de análisis de
datos en finanzas. Esto se debe a que la dimensionalidad de los datos suele ser bastante
grande dado el tamaño, la diversidad y la complejidad de los mercados financieros.
Demostramos simultáneamente formas comunes de tener en cuenta el componente variable
en el tiempo de la volatilidad y las correlaciones en la cartera, otro objetivo común en el
análisis de cartera. El objetivo más amplio es demostrar cómo los pasos descritos en el
marco metodológico del capítulo se implementan realmente en el análisis de datos financieros en el mundo
Machine Translated by Google

684 K. Vaidyanathan

El capítulo está organizado de la siguiente forma. La siguiente sección describe los aspectos financieros
del estudio de caso y su aplicación en el mundo financiero. La Sección 2.3 también analiza las métricas
utilizadas en la industria para evaluar el riesgo de la cartera. Insecto. 2.4, se describen los datos utilizados
y los pasos seguidos para que los datos sean aptos para el análisis financiero. La Sección 2.5 explica los
principios del análisis de componentes principales y su aplicación al conjunto de datos. La sección 2.6
explica el enfoque GARCH ortogonal. La Sección 2.7 describe tres tipos diferentes de modelos GARCH
específicos para el análisis de datos financieros. Los resultados del análisis se presentan en la Secc. 2.8.

2.2 Aplicación de la ciencia de datos en el mundo de las inversiones

Para la mayoría de los profesionales no financieros, las inversiones, especialmente en fondos de cobertura,
están envueltas en secreto. Las historias sensacionales de los fondos de cobertura Ponzi como la de
Bernard Madoff son excelentes titulares y una narración aún mejor. De hecho, la crónica del esquema Ponzi
de Bernie Madoff es ahora una película de Hollywood llamada “El mago de las mentiras” protagonizada por
Robert De Niro que se estrenó en mayo de 2017.
Pero las películas de Hollywood hacen poco para promover la educación en análisis de datos o explicar
cómo se puede usar la ciencia de datos para investigar el riesgo de la cartera de un fondo de cobertura.
No todos los administradores de activos tienen los recursos de un fondo de dotación de Harvard o Yale para
aplicar modelos sofisticados para detectar el riesgo de mercado en las carteras de los fondos de cobertura.
Esto no significa que no podamos usar modelos econométricos para estimar, medir y evaluar el riesgo de
mercado en las carteras, como demostraremos en este caso de estudio.

Antes del advenimiento de la ciencia de datos, la medición del riesgo de mercado en relación con los
fondos de cobertura se consideraba difícil, si no inmanejable. Los grandes fondos de dotación como los de
Harvard y Yale tenían el recurso para contratar a econometristas para que hicieran la evaluación y medición
cuantitativa del riesgo, pero en su mayoría era propiedad exclusiva de unos pocos elegidos. Además,
durante mucho tiempo, los fondos de cobertura fueron contratados por administradores de inversiones de
la "edad de oro" que no tenían conocimientos de ciencia de datos.
Estos administradores de inversiones fueron en su mayoría desafiados estadísticamente y, por lo tanto,
tenían más que su parte justa de escepticismo con respecto a la ciencia de datos. Tenían la buena
perspectiva de que los riesgos y rendimientos de los fondos de cobertura se basan en el talento de los
administradores de fondos y que las medidas de riesgo cuantitativas no son capaces de medir riesgos tan
complejos. Como resultado, la técnica de evaluación de riesgos más común fue la diligencia debida
exhaustiva realizada por un conjunto dedicado de profesionales de riesgos.

Sin embargo, desde la explosión de las técnicas y metodologías de la ciencia de datos en la última
década, ha habido un cambio tectónico en la forma en que se ve la ciencia de datos en el mundo de la
gestión de inversiones. Si los partidos de béisbol y los resultados de las elecciones se pueden predecir
utilizando la ciencia de datos, seguramente los riesgos de los fondos de cobertura también se pueden
evaluar utilizando herramientas econométricas. Otro desafío práctico que enfrenta la industria de gestión de
inversiones ha sido el aumento en el tamaño y número de los fondos de cobertura. Como
Machine Translated by Google

20 análisis financiero 685

según las estimaciones de Bloomberg, hay más de 10.000 fondos de cobertura disponibles para
invertir. Es humanamente imposible llevar a cabo la debida diligencia de más de 10 000 fondos
de cobertura por parte de una sola empresa de gestión de activos (AMC).
Además de los avances en la ciencia de datos y la inmensidad del universo de los fondos de
cobertura, otro impulsor importante en el uso del análisis de datos en la gestión de activos han
sido los avances en metodologías sólidas de cuantificación de riesgos. Las medidas tradicionales
de riesgo eran el valor en riesgo basado en la volatilidad y la persistencia del umbral que
cuantificaba la desviación a la baja. Estas métricas de riesgo se describen en la siguiente sección.
El problema con un valor en riesgo simple basado en la volatilidad es que asume la normalidad.
Por lo tanto, se asume que la distribución de los rendimientos del mercado financiero es simétrica
y que la volatilidad es constante y no cambia con el tiempo. Implícitamente supone que los
rendimientos extremos, ya sean positivos o negativos, son muy poco probables. Sin embargo, la
historia sugiere que los rendimientos extremos, especialmente los rendimientos negativos
extremos, no son tan improbables como implica la distribución normal. El problema con las
medidas a la baja, como la persistencia del umbral, es que, aunque consideran la asimetría de los
rendimientos, no tienen en cuenta las colas gruesas de las distribuciones.
Estas críticas han resultado en el desarrollo de medidas de riesgo sólidas que tienen en cuenta
las colas gruesas y el apalancamiento, como GJR y EGARCH (consulte la Sección 2.7.5).
Entonces, hoy en día, todos los principales inversores institucionales que tienen una exposición
significativa a los fondos de cobertura emplean P-quants y utilizan técnicas de análisis de datos
para medir el riesgo. Las excepciones de los fondos de dotación de Harvard y Yale se han
convertido ahora en la nueva norma. La consolidación del riesgo de mercado a nivel de cartera se
ha convertido en una práctica habitual en la gestión de activos. En este capítulo, presentamos
uno de esos análisis de una gran cartera que comprende más de 250 acciones (datos de muestra
en el archivo: tsr.txt) con diferentes pesos de cartera (datos de muestra en el archivo: ptsr.txt) y
repasamos los pasos para convertir la cartera rendimientos en métricas de riesgo. Utilizamos los
pasos 1 a 6 del marco de la metodología de análisis de datos. Primero identificamos la variable
financiera a modelar como rendimientos de acciones. Reducimos la dimensionalidad de los datos
mediante el análisis de componentes principales de 250 rendimientos de acciones a unos diez
componentes principales. Luego usamos GARCH, GJR y EGARCH (descritos en el Paso 3 de la
“Parte A: Metodología”) para hacer una inferencia adecuada sobre los rendimientos de la cartera.
Estimamos los parámetros GARCH, GJR y EGARCH utilizando la estimación de máxima
verosimilitud. Luego proyectamos los rendimientos de la cartera (Paso 4 de la metodología) para
pronosticar el rendimiento del fondo de cobertura. Finalmente agregamos los riesgos utilizando el
Paso 6 del marco y llegamos a las métricas de riesgo clave para la cartera. Ahora describimos las
métricas de riesgo utilizadas en la industria de gestión de inversiones.

2.3 Métricas para medir el riesgo

Como se describe en “Análisis financieros: Parte A—Metodología”, se utilizan dos métricas para
medir el riesgo de la cartera: valor en riesgo y persistencia de umbral.
Machine Translated by Google

686 K. Vaidyanathan

2.3.1 Valor en Riesgo (VaR)

El valor en riesgo se ha convertido en una de las medidas de riesgo más importantes en las
finanzas modernas. Como técnica de gestión de riesgos, el valor en riesgo describe la pérdida en
una cartera que puede ocurrir durante un período determinado, en un nivel de confianza
determinado, debido a la exposición al riesgo de mercado. El riesgo de mercado de una cartera se
refiere a la posibilidad de pérdida financiera debido al movimiento conjunto de parámetros de
mercado como índices de acciones, tipos de cambio y tasas de interés. El Valor en Riesgo se ha
convertido en una herramienta inalienable para el control de riesgos y parte integral de las
metodologías que buscan asignar capital económico y/o regulatorio. Su uso está siendo fomentado
por el Banco de la Reserva de la India (RBI), el Banco de la Reserva Federal (Fed), el Banco de
Pagos Internacionales, la Junta de Bolsa y Valores de la India (SEBI) y la Comisión de Bolsa y
Valores (SEC). Las partes interesadas, incluidos los reguladores y los órganos de supervisión,
buscan cada vez más evaluar la peor pérdida posible (normalmente con niveles de confianza del
99 %) de las carteras de las instituciones financieras y los fondos. La cuantificación del riesgo es
importante para los reguladores al evaluar la solvencia y para los administradores de riesgos al
asignar el escaso capital económico en las instituciones financieras.

2.3.2 Persistencia de umbral (TP)

Dado un nivel de rendimiento de umbral para una cartera determinada, los comerciantes y los
administradores de riesgos desean estimar con qué frecuencia el rendimiento acumulado de la
cartera cae por debajo de este umbral y se mantiene por debajo de este umbral durante una cierta
cantidad de días. Los comerciantes también quieren estimar el valor mínimo del rendimiento
acumulado de la cartera cuando ocurre el evento anterior. Para estimar estas dos métricas, dos
factores especifican un umbral, a saber, los participantes del mercado financiero definen una
métrica llamada persistencia de umbral.
La persistencia del umbral se define de la siguiente manera: dado el período de tiempo durante
el cual una cartera permanecería constante y sin cambios (T), dos factores especifican un umbral,
a saber, el rendimiento acumulado de la cartera (ÿ) y el horizonte durante el cual el rendimiento
acumulado permanece por debajo del umbral. ÿ. Para los propósitos de este capítulo, etiquetaremos
este horizonte umbral como T'. Las métricas de persistencia de umbral se definen como:

(a) La fracción de veces que el patrimonio neto de la cartera cae por debajo del valor crítico (ÿ) con
respecto al patrimonio neto inicial de la cartera y permanece allí durante T' días por debajo de
este valor crítico (b) La caída media en el valor patrimonial de la cartera en comparación con
el nivel crítico inicial condicionado a que (a) ocurra

Para aclarar el concepto, considere el siguiente ejemplo. Digamos que T = 10 días, ÿ = ÿ5 %, T'
= 2 días y el valor neto inicial de la cartera es Rs. 100.
Simulamos el valor neto de la cartera (consulte el Paso 4 del marco de la metodología para
comprender cómo se realiza la simulación) y, digamos, obtenemos la siguiente ruta (Tabla 20.10):
Machine Translated by Google

20 análisis financiero 687

Tabla 20.10 Ejemplo de persistencia de umbral

Día 1 Día 2 Día 3 Día 4 Día 5 Día 6 Día 7 Día 8 Día 9 Día 10
102 98 94 90 93 96 98 90 95 97

La progresión pertinente aquí para calcular (a) y (b) es el valor neto de


la cartera en los días 3, 4 y 5 ya que el valor neto de la cartera es menor que
Rs. 95 en todos estos tres días. Observe que la disminución a Rs. 90 en el día 8 sería
no debe considerarse como una ocurrencia aplicable aquí ya que T' = 2 y el valor neto de
la cartera volvió por encima del valor crítico el día 9 (el período de tiempo crítico es
2 días, y revirtió por encima del nivel crítico antes de 2 días). Supongamos que nosotros
simula diez caminos en total y en ninguno de los restantes caminos de la simulación
el valor de la cartera cae por debajo del valor crítico y se mantiene por debajo del valor crítico durante
el horizonte de 2 días. Por lo tanto, la proporción de veces que el valor de la cartera se va
por debajo del valor crítico es 1/10. Dado que tal caída ocurre durante el tiempo crítico
período de más de 2 días, la caída sería de -10%.

2.4 Datos

Los datos que normalmente están disponibles a partir de fuentes secundarias son los precios de los
varios valores de la cartera de muestra. Los precios estarían en monedas locales—
valores estadounidenses en dólares estadounidenses, acciones japonesas en yenes japoneses, etc. En el caso
estudio, hay datos de diez monedas diferentes.
Los datos que están disponibles de proveedores de servicios de información financiera tales como
Bloomberg o Thomson Reuters (los dos mayores proveedores en el mercado financiero global)
mercados), la mayoría de las veces, no está “preparado” para el análisis. el más importante
limitación en los datos puestos a disposición por los proveedores de servicios de información financiera es
que requieren una limpieza de datos considerable antes de las metodologías de análisis de datos
puede ser aplicado. El proceso de limpieza de datos suele ser el que lleva más tiempo y
una parte minuciosa de cualquier análisis de datos, al menos con datos financieros. La cartera que
que utilizamos para este estudio consta de casi 250 valores. Usamos los datos en el contexto
del estudio para describir en general los pasos tomados para hacer que los datos sean aptos para
análisis financiero:

• Los precios de casi todos los valores están en sus monedas nativas. Esto requiere
conversión de los precios a una moneda común. A nivel mundial, la moneda de elección
es el dólar estadounidense, que la mayoría de las instituciones financieras utilizan como moneda base
con fines informativos. Este es un primer paso obligatorio porque los precios y
los rendimientos convertidos a la moneda base son diferentes a los de su moneda nativa
monedas

• Los valores se negocian en diferentes países del mundo y los días festivos
(cuando los mercados están cerrados) en cada uno de estos países son diferentes. Esto puede
conducen a datos faltantes en la serie de tiempo. Si no se llenan los datos que faltan, entonces
Machine Translated by Google

688 K. Vaidyanathan

esto podría manifestarse como una volatilidad espuria en la serie temporal. Por lo tanto, los
datos que faltan normalmente se completan utilizando técnicas de interpolación entre las dos
fechas disponibles más cercanas. La metodología de interpolación más común y simple
utilizada en datos financieros es la interpolación lineal. • Es posible que algunos valores no
tengan cotizaciones de precios en absoluto porque, aunque cotizan en la bolsa, no hay actividad
comercial. Incluso cuando hay alguna actividad comercial, los períodos de tiempo durante los
cuales se negocian pueden ser diferentes y, por lo tanto, los precios disponibles pueden
variar para diferentes valores. Por ejemplo, en la cartera que usamos para este estudio,
algunos valores tienen diez años de datos, mientras que otros tienen menos de 50 puntos de
datos de precios disponibles. Deben excluirse del análisis aquellos valores que no tengan al
menos una serie temporal de precios que abarque un umbral mínimo de días de negociación.
A los efectos de este estudio de caso, utilizamos 500 puntos de datos de precios.

• Si bien muy pocos puntos de precio son un problema desde la perspectiva del análisis de datos,
muchas veces, una serie de tiempo larga puede considerarse inapropiada. Esto se debe a
que en una serie de tiempo más larga, las observaciones más históricas obtienen el mismo
peso que las observaciones recientes. Dado que las observaciones recientes tienen más
información relevante para el objetivo de predecir el riesgo futuro de la cartera, una serie de
tiempo más larga puede considerarse inapropiada. En el caso de estudio, la serie de tiempo
utilizada para el análisis comienza en mayo de 2015 y finaliza en mayo de 2017, lo que nos
brinda 2 años de datos (en la mayoría de los mercados financieros, hay aproximadamente
250 días de negociación en un año) o 500 observaciones de series de tiempo. • Los precios
se convierten habitualmente en rendimientos de capitalización continua utilizando la fórmula rt =
ln (Pt/Pt ÿ 1). Como se explica en el Paso 1 de la metodología en "Análisis financiero: Parte
A: Metodología", trabajamos con datos de rendimiento en lugar de datos de precios. El
análisis de series de tiempo de rendimientos domina el uso de precios porque los precios son
considerablemente no estacionarios en comparación con los rendimientos. • Los rendimientos
de la cartera se calculan a partir de los rendimientos de los valores, como se explica en el Paso
6 del marco metodológico. En el estudio de caso, se utilizan para el análisis dos carteras: una
cartera ponderada por igual y una cartera ponderada por valor (calculada manteniendo
constante el número de acciones en cada uno de los valores de la cartera).

2.5 Análisis de componentes principales

2.5.1 Vectores propios y valores propios

A los efectos del estudio de caso, los lectores deben comprender PCA, la forma en que se calcula
y también la intuición detrás del proceso de cálculo. Explicamos los pasos intermedios y los
conceptos en ellos para hacer la Secc. 2 del capítulo autónomo. En el cap. 15 sobre el aprendizaje
no supervisado.
Machine Translated by Google

20 análisis financiero 689

4 4 Encabezado (opcional)
Transformación: reflexión especular a lo largo de la línea y = x

Reflexión especular de (3,1)

3 3 1, 3

Vector propio
2 2 Transformación a lo largo de y = x
2, 2

1 3, 1 1 3, 1

0 0, 0 0
01234 Eje X 0123 eje X

Fig. 20.5 Descripción pictórica de vectores propios

Del álgebra matricial básica sabemos que podemos multiplicar dos matrices juntas, siempre
que sean de tamaños compatibles. Los vectores propios son un caso especial de esto.
Considere las dos multiplicaciones entre una matriz y un vector a continuación.

01 1 3
ÿ =
10 3 1
01 2 2
ÿ =
10 2 2

3
En la primera multiplicación, la matriz resultante no es un múltiplo entero
1
1
de la matriz original . En la segunda multiplicación, la matriz resultante es una
3
2
múltiplo (de 1) de la matriz original . La primera matriz no es un vector propio de
2
01
la matriz , mientras que el segundo es un vector propio. ¿Por que es esto entonces? La razón
10
es que el vector propio sigue siendo un múltiplo de sí mismo después de la transformación. No
se transforma después de la multiplicación como el primero.
1
Se puede pensar en la matriz como un vector en dos dimensiones que se origina en

3 (0,0) y terminando en (1,3) como se muestra en la figura 20.5.


Machine Translated by Google

690 K. Vaidyanathan

01
Para facilitar la imaginación visual, hemos empleado la matriz en el
10
discusión anterior. Esta matriz se puede considerar como la siguiente transformación: reflejo de
cualquier vector a lo largo de la línea y = x. Por ejemplo, un vector (1,3) después de la
multiplicación por esta matriz se convierte en (3,1), es decir, un reflejo del propio vector a lo largo
de la línea y = x . Sin embargo, el reflejo del vector (2,2) sería el propio vector. Sería un múltiplo
escalar del vector (en este caso, el múltiplo escalar es 1). Por lo tanto, un vector propio, incluso
después de la transformación, sigue siendo un múltiplo escalar de sí mismo.
El múltiplo escalar se llama valor propio “ÿ”. En otras palabras, un vector propio sigue siendo el
mismo cuando está sujeto a alguna transformación y, por lo tanto, puede capturar una fuente
básica de variación. Cuando se junta más de un vector propio, pueden constituir una base para
explicar variaciones complejas.
En general, una matriz de dimensiones n × n puede tener un máximo de n vectores propios.
Todos los vectores propios de una matriz son ortogonales entre sí, sin importar cuántas
dimensiones tengan. Esto es importante porque significa que podemos representar los datos en
términos de estos vectores propios perpendiculares, en lugar de expresarlos en términos de los
activos originales. Esto ayuda a reducir considerablemente la dimensionalidad del problema en
cuestión, que característicamente para los datos financieros es grande.

2.5.2 PCA versus análisis factorial

Habiendo entendido la intuición matemática detrás de PCA, estamos en condiciones de apreciar


por qué PCA es una opción dominante en comparación con el análisis factorial en el análisis de
datos financieros. El objetivo de PCA es poder explicar la variación en los datos originales con la
menor cantidad (¡e importante!) de dimensiones (o componentes) como sea posible.
Los lectores podrían argumentar que las dimensiones también se pueden reducir a través del análisis
factorial. ¿Por qué usar PCA en su lugar?
Para ilustrar gráficamente, en la figura 20.6 los puntos rojos son los puntos de datos para una
serie temporal hipotética de dos dimensiones. Los factores 1 y 2 juntos explican una parte
importante de la variación en los datos, y también esos dos factores juntos se ajustan mejor a los
datos que PCA1 y PCA2, pero los factores 1 y 2 no son ortogonales como se puede ver en el
gráfico anterior. Por lo tanto, su matriz de covarianza tendría elementos diagonales distintos de
cero. En otras palabras, los Factores 1 y 2 covarían. Por tanto, no solo tendríamos que estimar
los factores sino también la covarianza entre ellos, lo que en una serie temporal de 200 valores
impares (>200 dimensiones) puede resultar oneroso (¡>20.000 covarianzas!). Cuando estas
covarianzas deben modelarse dinámicamente, el procedimiento se vuelve considerablemente
ineficiente en la mayoría de los análisis de datos financieros.

Por el contrario, PCA 1 y 2 explican por igual la variación de los datos y, sin embargo, tienen
una covarianza cero. En el análisis de series temporales de curvas de rendimiento, por ejemplo,
los Factores 1 y 2 se consideran duración y convexidad. Estos dos factores ayudan a explicar
gran parte de la variación en las curvas de rendimiento a lo largo del tiempo, pero no son ortogonales
Machine Translated by Google

20 análisis financiero 691

ACP 2 3 ACP 1

factor 2

2 Factor 1

0
-3 -2 -1 0 1 2 3

Fig. 20.6 Descripción pictórica de PCA y análisis factorial

porque la convexidad cambia con la duración. Sin embargo, el nivel de la curva de rendimiento y su
pendiente son componentes ortogonales que pueden explicar igualmente bien la variación en los precios
de los bonos.

2.5.3 Resultados PCA

A continuación se detallan los resultados de la PCA para la cartera de valores. Los primeros 21
componentes principales explican el 60% de casi la mitad de la variación, como se ve en la Tabla 20.11.

La figura 20.7 muestra que los primeros diez componentes principales capturan la variación en los
rendimientos de la cartera con bastante precisión. Estos diez componentes principales explican cerca del
50% de la variación en los rendimientos de los valores. Como puede verse en la Tabla 20.11, los primeros
diez componentes principales explican el 47,5% de la variación, mientras que los siguientes trece
componentes explican menos del 15% de la variación. Agregar más componentes principales presenta
una compensación entre la precisión adicional y la dimensionalidad adicional del problema en la mayoría
de los análisis de datos financieros.
En los datos de la cartera que estudiamos, los componentes principales del 11 en adelante ayudan
cada uno a explicar menos del 2% de la variación adicional. Sin embargo, agregar un componente principal
más aumenta la dimensionalidad en un 10% y da como resultado un aumento proporcional en la
complejidad computacional. Por lo tanto, podemos limitarnos a diez componentes principales para el
análisis posterior. Esto reduce la dimensionalidad de los datos de 250 a 10.

Como muestra el histograma de la figura 20.8 , la diferencia entre los rendimientos reales de la cartera
y los rendimientos replicados utilizando los diez componentes principales son, para el
Machine Translated by Google

692 K. Vaidyanathan

Cuadro 20.11 Contribución de varios componentes principales

Componentes principales Contribución de varianza Varianza acumulada


X1 16,03% 16,03%
X2 7,81% 23,85%
X3 5,11% 28,96%
X4 4,19% 33,15%
X5 3,50% 36,64%
X6 2,62% 39,27%
X7 2,38% 41,64%
X8 2,20% 43,85%
X9 1,96% 45,81%
X10 1,71% 47,53%
X11 1,64% 49,16%
X12 1,56% 50,72%
X13 1,36% 52,08%
X14 1,32% 53,40%
X15 1,23% 54,63%
X16 1,14% 55,76%
X17 1,07% 56,83%
X18 1,01% 57,84%
X19 0.99% 58,82%
X20 0.94% 59,76%
X21 0,93% 60,69%
X22 0,88% 61,57%
X23 0,86% 62,43%

en su mayor parte, pequeña. Por lo tanto, podemos limitar nuestro análisis posterior a diez principales
componentes

2.5.4 Estacionariedad de los Componentes Principales

Para descartar la previsibilidad espuria en una serie de tiempo, la estacionariedad de la predicción


variables es extremadamente importante en la mayoría de los análisis de datos financieros. Por ejemplo, si
una serie de tiempo tiene una tendencia de tiempo, entonces es raro que la tendencia de tiempo
repetirse en el futuro. Cuando se estima una serie temporal con una tendencia temporal,
la serie de tiempo produciría resultados brillantes (R-cuadrado extremadamente alto para
la regresión y las estadísticas t altas para los coeficientes de las variables de predicción), lo que lleva a
un científico de datos menos cuidadoso a inferir un modelo bien ajustado capaz
de altos niveles de previsibilidad. Sin embargo, la previsibilidad que subyace a tal
la serie temporal es espuria y engañosa. Por lo tanto, es importante descartar tales
tendencias temporales en las variables de predicción que son los principales componentes de nuestro
caso. La figura 20.9 muestra visualmente la ausencia de tendencias temporales en los diez principales
componentes
Machine Translated by Google

20 análisis financiero 693

0.01

0.005

–0.005

-0.01

Rentabilidad de cartera original


Rendimiento de cartera recreado con 10 PCA
–0.015
450 455 460 465 470 475 480 485 490 495 500

Fig. 20.7 Serie temporal replicada utilizando diez componentes principales frente a rendimientos de la cartera original

Diferencia en la rentabilidad real de la cartera y la recuperada después de PCA


140

120

100

80

60

40

20

0 –1.5 –1 –0.5 0 0.5 Error en Rentabilidad 1 1,5


de Cartera × 10–3

Fig. 20.8 Diferencia en los rendimientos reales de la cartera frente a PCA

La tabla 20.12 muestra los resultados de la prueba de estacionariedad de Dickey-Fuller


aumentada (ADF) para los diez componentes principales. El ADF se utiliza para probar la
Machine Translated by Google

694 K. Vaidyanathan

.301 .221 .194 .136

computadora
1 computadora
2 computadora
3 computadora
4

-.3 -.18 -.174 -.131


1 500 1 500 1 500 1 500
obn_no obn_no obn_no obn_no
Principal Component No. 1 Principal Component No. 2 Principal Component No. 3 Principal Component No. 4

.166 .111 .117 .121

computadora
5 computadora
6 computadora
7 computadora
8

-.107 -.106 -.12 -.14


1 500 1 500 1 500 1 500
obn_no obn_no obn_no obn_no
Componente Principal No. 5 Componente Principal No. 6 Componente Principal No. 7 Componente Principal No. 8

.157 .0935

ordenador
personal
9

ordenador
personal
10

-.138 -.103
1 500 1 500
obn_no obn_no
Principal Component No. 9 Principal Component No. 10

Fig. 20.9 Estacionariedad de componentes principales

presencia de raíces unitarias en la serie de tiempo. Si yt = yt-1 + et, entonces la serie


temporal explotará a medida que aumente el número de observaciones. Además, la varianza
de la serie temporal será ilimitada en este caso. Para descartar la presencia de raíces
unitarias, la prueba de Dickey-Fuller aumentada ejecuta regresiones del siguiente tipo: yt ÿ
yt-1 = ÿ yt ÿ 1 + et. Si la serie temporal tiene raíz unitaria, entonces ÿ será igual a cero. El
ADF esencialmente prueba la hipótesis nula de que ÿ = 0 versus ÿ = 0. Como indican los
resultados de las pruebas en la tabla 20.12 , ninguno de los componentes principales tiene
una raíz unitaria. Además, como examinamos anteriormente, tampoco tienen una tendencia
temporal. Entonces, la previsibilidad en los componentes principales no es espuria. Esto
completa el Paso 2 de nuestro marco en el capítulo.
Sea D.PCi la primera diferencia del respectivo componente principal. La ausencia de una
raíz unitaria (que es la prueba de estacionariedad) está indicada por el coeficiente del rezago
de PC(i) que es diferente de cero. Los científicos de datos en el dominio financiero a veces
usan el valor de probabilidad de MacKinnon para indicar la probabilidad de que la estadística
de prueba sea diferente de los valores críticos aumentados de Dickey-Fuller.
Valor
absoluto
de
las
estadísticas
tentre
paréntesis;
*indica
la
importancia
del
coeficiente
al
nivel
del
1% Cuadro
20.12
Prueba
de
Dickey-
Fuller
aumentada
para
la
estacionariedad
de
los
componentes
principales
valor
p R-
sqd obns Constante Retraso
de
PC(i)
0.000 0.42 499 (1.80) (19.11)
0.007 ÿ0,847* D.PC1
0.000 0,53 499 (0.89) (23,76)
ÿ0,003 ÿ1,061* D.PC2
0.000 0.52 499 (1.85) (23.06)
0.004 ÿ1.034* D.PC3
0.000 0.5 499 (0.74) (22,31)
ÿ0,002 ÿ1.000* D.PC4
0.000 0.51 499 (1.44) (22.73)
0.003 ÿ1.016* D.PC5
0.000 0.46 499 (4.57) ÿ0.008* (20.62) ÿ0,915* D.PC6
0.000 0.52 499 (0.74) (23,28)
ÿ0,001 ÿ1.043* D.PC7
0.000 0.48 499 (0.18) (21.24)
0 ÿ0,951* D.PC8
0.000 0.43 499 (5.51) (19.49)
0.008* ÿ0,866* D.PC9
0.000 0.42 499 (4.38) 0.006* (18.91) ÿ0,837* D.PC10
695 20 análisis financiero
Machine Translated by Google
Machine Translated by Google

696 K. Vaidyanathan

2.6 GARCH ortogonal

Dada la gran cantidad de factores que normalmente afectan la posición de una cartera grande,
estimar el riesgo de la cartera se vuelve muy complejo. En el corazón de la mayoría de los modelos
de análisis de datos para estimar el riesgo se encuentra la matriz de covarianza que captura las
volatilidades y las correlaciones entre todos los factores de riesgo.
Por lo general, se deben modelar cientos de factores de riesgo que abarcan índices de acciones,
tipos de cambio y curvas de rendimiento a través de la dinámica de la matriz de covarianza grande.
De hecho, sin hacer suposiciones sobre la dinámica de estos factores de riesgo, la implementación
de modelos para estimar el riesgo se vuelve bastante engorrosa.

GARCH ortogonal es un enfoque para estimar el riesgo que es computacionalmente eficiente


pero captura la riqueza incrustada en la dinámica de la matriz de covarianza. GARCH ortogonal aplica
los cálculos a algunos factores clave que capturan las fuentes ortogonales de variación en los datos
originales. El enfoque es computacionalmente eficiente ya que permite una enorme reducción en la
dimensionalidad de la estimación mientras conserva un alto grado de precisión.

El método utilizado para identificar las fuentes ortogonales de variación es el análisis de componentes
principales (PCA). Los componentes principales identificados a través de PCA no están correlacionados
entre sí (por definición, son ortogonales). Por lo tanto, los modelos GARCH univariados pueden
usarse para modelar la volatilidad variable en el tiempo de los componentes principales mismos. Los
componentes principales junto con sus correspondientes procesos GARCH luego capturan la matriz
de covarianza variable en el tiempo de la cartera original. Habiendo descrito el análisis de
componentes principales y GARCH ortogonal, ahora ilustramos las diferentes variantes del modelado
GARCH.

2.7 Modelado GARCH

Después de reducir la dimensionalidad de la serie de tiempo usando PCA, ahora procedemos al Paso
3 de nuestro marco en el capítulo con el modelado de la covarianza usando GARCH en los
componentes principales.
Primero motivamos el uso de GARCH para medir el riesgo de una cartera. Las metodologías más
comunes para estimar el riesgo, a través de un cálculo de Valor en Riesgo, asumen que los
rendimientos de la cartera siguen una distribución normal como se muestra en la Fig. 20.10.
Esta metodología de cálculo del VaR utilizando una distribución normal supone implícitamente que la
media y la desviación estándar de los rendimientos de la cartera se mantienen constantes.
Sin embargo, una amplia evidencia empírica en finanzas muestra que los rendimientos de los
valores exhiben desviaciones significativas de las distribuciones normales, particularmente el
agrupamiento de volatilidad y el comportamiento de cola gruesa. Existen otras características de los
mercados de valores que no se tienen en cuenta adecuadamente en una distribución normal. Científicos de datos
Machine Translated by Google

20 análisis financiero 697

5.00E-02

4.00E-02

3.00E-02

2.00E-02

1.00E-02

0.00E+00
60 65 70 75 80 85 90 95 100 105 110 115 120 125 130 135 140

Figura 20.10 Distribución normal

en finanzas, por lo tanto, use modelos GARCH, ya que están diseñados para encapsular estas
características que se observan comúnmente en los mercados de valores.

2.7.1 Agrupación de volatilidad

Las series de rendimiento de acciones suelen exhibir esta característica en la que los grandes
cambios tienden a seguir a los grandes cambios y los pequeños cambios tienden a seguir a los
pequeños cambios. Por ejemplo, si los mercados fueran hoy más volátiles de lo habitual, existe
una tendencia a que mañana sean más volátiles de lo normal. Del mismo modo, si los mercados
estuvieran "tranquilos" hoy, existe una mayor probabilidad de que puedan estar "tranquilos"
mañana en comparación con una volatilidad inusual. En ambos casos, es difícil predecir el cambio
en la actividad del mercado de un escenario “tranquilo” a uno “volátil” y viceversa.
En GARCH, las perturbaciones significativas, para bien o para mal, son parte intrínseca de la
serie de tiempo que usamos para predecir la volatilidad para el próximo período de tiempo.
Estas grandes perturbaciones y choques, tanto positivos como negativos, persisten en el modelo
GARCH y se tienen en cuenta en los pronósticos futuros de varianza para períodos de tiempo
futuros. A veces también se denominan persistencia y modelan un proceso en el que las
perturbaciones sucesivas, aunque no están correlacionadas, son dependientes en serie.

Un examen de la serie temporal de los componentes principales revela que los períodos de
alta volatilidad a menudo se agrupan. Esto debe tenerse en cuenta utilizando un modelo GARCH.
Machine Translated by Google

698 K. Vaidyanathan

Cuadro 20.13 Shapiro-Wilk


Variable Prueba de Shapiro-Wilk estadística W Prob. (normal)
prueba
pc1 0.99 0.01

pc2 1.00 0,63

pc3 0.97 0.00

pc4 1.00 0.39

pc5 0.98 0.00

pc6 0.99 0.00

pc7 1.00 0.12

pc8 0.99 0.00

pc9 0.97 0.00

pc10 1.00 0.44

2.7.2 Efectos de apalancamiento

A menudo se observa que los rendimientos de los activos están negativamente correlacionados con los cambios en
volatilidad. Es decir, los mercados tienden a ser más volátiles cuando hay una liquidación frente a cuando los
mercados suben. Esto se denomina apalancamiento: la volatilidad tiende a aumentar en respuesta a
rendimientos inferiores a los esperados y a caer en respuesta a rendimientos superiores a los esperados.
Los modelos GARCH asimétricos son capaces de capturar el efecto de apalancamiento.

2.7.3 Colas gordas o exceso de curtosis

La cola de las distribuciones de los rendimientos de las acciones suele ser más gruesa en comparación con una distribución normal.

distribución. En términos simples, la posibilidad de fluctuaciones extremas en los rendimientos es


subestimados en una distribución normal, y estos pueden ser capturados con GARCH
modelos

Esta falta de normalidad en nuestra cartera se pone a prueba analizando la distribución


de los componentes principales usando gráficas de cuantiles como se muestra en la figura 20.11. colas gordas
son evidentes en la distribución de los componentes principales vistos desde el cuantil
parcelas ya que los cuantiles en ambos extremos se desvían de los cuantiles de una normal
distribución. Para probar más a fondo si las distribuciones de los componentes principales
son normales, la prueba de normalidad de Shapiro-Wilk se suele realizar en todos los
componentes principales. Los resultados de la prueba de Shapiro-Wilk se proporcionan en la Tabla
20.13.

Como es evidente en la tabla 20.13, pc1, pc3, pc5, pc6, pc8 y pc9 exhiben
desviaciones sustanciales de la normalidad, mientras que los componentes principales restantes
están más cerca de estar distribuidas normalmente. Dado que seis de los diez componentes principales
exhiben desviaciones de la normalidad, es importante modelar colas gruesas en la distribución
de componentes principales. La figura 20.11 muestra los cuantiles de los componentes principales
graficado contra cuantiles de distribución normal (45% de línea). Una mirada a la trama de la
serie temporal de los principales componentes revela que los períodos de volatilidad son a menudo
agrupados juntos. Por lo tanto, debemos tener en cuenta este agrupamiento de volatilidad
mediante análisis GARCH.
Machine Translated by Google

20 análisis financiero 699

computadora 1 normal inversa computadora 2 normal inversa computadora 3 normal inversa

.301 .221 .194

computadora
1 computadora
2 computadora
3

-.3 -.187304 -.174


-.256536 .274053 -.187304 .182925 -.145545 .153867

normal inversa normal inversa normal inversa

computadora 4 normal inversa computadora 5 normal inversa computadora 6 normal inversa

.136 .166 .111

computadora
4

computadora
5 computadora
6

-.137282 -.121006 -.115556


-.137282 .133937 -.121006 .126811 -.115556 .099051
normal inversa normal inversa normal inversa

computadora 7 normal inversa computadora 8 normal inversa ordenador personal 9 normal inversa

.117 .121 .157

ordenador
personal
9
computadora
7
computadora
8

-.12 -.14 -.138


-.103267 .101012 -.098072 .09854 -.083332 .102397
normal inversa
normal inversa normal inversa

ordenador personal 10 normal inversa

.093988

ordenador
personal
10

-.103
-.079519 .093988
normal inversa

Fig. 20.11 Normalidad de los componentes principales

Ahora que hemos discutido por qué usamos GARCH en el análisis de datos financieros, dejemos
tratemos de entenderlo conceptualmente. GARCH significa autorregresivo generalizado
heterocedasticidad condicional. En términos generales, se puede pensar en la heterocedasticidad
como varianza que varía con el tiempo. Condicional implica que las varianzas futuras dependen
Machine Translated by Google

700 K. Vaidyanathan

Rendimientos simulados de activos de cartera a 30 días


0.15

0.1

0.05

–0.05

–0.1

–0.15

–0.2
0 5 10 15 20 25 30

Fig. 20.12 Rendimientos simulados de activos de cartera con modelo GJR, distribución gaussiana

sobre variaciones pasadas. Permite modelar la dependencia serial de la volatilidad. Para el


beneficio de aquellos lectores que están bien versados en modelos econométricos y para el
En aras de la exhaustividad, proporcionamos los diversos modelos utilizados en el estudio de caso. Lectores
pueden omitir esta parte sin perder mucho si encuentran que es demasiado matemáticamente
involucrado.

2.7.4 Modelo de media condicional

Este modelo general ARMAX(R,M,Nx) para la media condicional se aplica a todos


modelos de varianza

R METRO norte x

yt = C + ÿiytÿi + ÿt + ÿj ÿt ÿj + j=1 ÿkX (t,k)


yo=1 k=1

con coeficientes autorregresivos ÿi, coeficientes de media móvil ÿj, innovaciones ÿt,
y devuelve yt. X es una matriz de regresión explicativa en la que cada columna es un tiempo
serie y X(t,k) denota la t el fila y k-ésima columna.

En el caso de estudio, implementamos el modelo ARMA(1,1) para todos los principales


componentes desde un modelo parsimonioso que captura tanto el autorregresivo y
Machine Translated by Google

20 análisis financiero 701

Los componentes de media móvil de la media condicional son deseables. Consulte el cap. 12
para una breve descripción del modelo ARMA y la determinación de sus parámetros.

2.7.5 Modelos de varianza condicional

La varianza condicional de las innovaciones, ÿt 2, es

2
Vartÿ1 (yt) = Etÿ1 ÿt 2 = ÿt

La varianza condicional cuantifica la cantidad de variación que queda si usamos la


expectativa condicional para predecir yt. La idea clave de GARCH radica en la distinción entre
variaciones condicionales e incondicionales del proceso de innovación ÿt. El término condicional
implica una dependencia inequívoca de una serie de observaciones en el tiempo pasado. El
término incondicional se relaciona más con el comportamiento a largo plazo de una serie de
tiempo y no asume ningún conocimiento explícito del pasado.
Los diversos modelos GARCH caracterizan la distribución condicional de ÿt al imponer
parametrizaciones alternativas para capturar la dependencia serial de la varianza condicional
de las innovaciones.

GARCH(P,Q) Varianza condicional

El modelo general GARCH(P,Q) para la varianza condicional de las innovaciones es

PAGS
q

2 ÿt = K + Giÿ2tÿi + tÿj
También ÿ2

yo=1 j=1

GJR(P,Q) Varianza condicional

El modelo general GJR(P,Q) para la varianza condicional de las innovaciones con términos de
apalancamiento es

PAGS
q q

2 ÿt =K+ Giÿ2tÿi + t-j


También ÿ2
+ e2
LjSÿ tÿjtÿjj=1
yo=1 j=1

dónde

= 1 ÿtÿj < 0 0
Sÿ
tÿj de lo contrario

EGARCH(P,Q) Varianza condicional

El modelo general EGARCH(P,Q) para la varianza condicional de las innovaciones con


términos de apalancamiento y un supuesto explícito de distribución de probabilidad es
Machine Translated by Google

702 K. Vaidyanathan

PAGS
q 6

2
=K+ + ÿ yo
6ÿtÿj |
log ÿt Gi log ÿ2tÿi
yo=1 j=1
ÿtÿj |
Aj "6 6ÿtÿj ÿtÿj 8#
q
ÿtÿj
+
Ljj=1 ÿtÿj

Modelos utilizados en el estudio de caso

Usamos el modelo ARMA(1,1) (R = 1, M = 1 en la ecuación para la media condicional) para la media


condicional junto con GARCH(1,1) y GJR(1,1) para nuestro análisis de estudio de caso. Empleamos la
distribución normal y la distribución t de Student para modelar las colas gruesas en los rendimientos de
la cartera.
Aunque los modelos anteriores son simples, tienen varios beneficios. Estos representan modelos
parsimoniosos que requieren la estimación de ocho parámetros como máximo.
Cuantos menos parámetros haya que estimar, mayor será la precisión de estos parámetros.
Los modelos complicados en el análisis de datos financieros, en la mayoría de los casos, no ofrecen
beneficios tangibles cuando se trata de predecir variables financieras.

Limitaciones de GARCH

Si bien es fácil quedar impresionado con las exposiciones matemáticas de los modelos y el hecho de
que los modelos GARCH brindan información sobre una amplia gama de aplicaciones del mercado
financiero, tienen limitaciones:

• El modelo GARCH al final del día es una especificación paramétrica. Los parámetros permanecen
estables solo si las condiciones de mercado subyacentes son estables.
Los modelos GARCH son buenos para capturar varianzas heterocedásticas. Dicho esto, no pueden
capturar fluctuaciones tempestuosas en el mercado. Hasta ahora no existe un modelo bien aceptado
que pueda modelar las caídas del mercado, ya que son extremadamente impredecibles y únicas. •
Los rendimientos de los activos tienen colas gruesas, es decir, es bastante probable que se
produzcan grandes desviaciones con respecto a la media.
Los modelos GARCH no están equipados para capturar todos estos rendimientos de cola gruesa
que se observan en las series financieras temporales de rendimientos. La volatilidad variable en el
tiempo explica una porción limitada de esta cola gruesa pero, dadas las limitaciones de la distribución
normal, no puede explicarla por completo. Para compensar esta restricción, los analistas de datos
suelen implementar la distribución t de Student en el modelado GARCH.

2.8 Resultados

El cálculo del valor en riesgo para carteras grandes presenta una compensación entre velocidad y
precisión, y los métodos más rápidos se basan en aproximaciones aproximadas y
Machine Translated by Google

20 análisis financiero 703

el enfoque más realista a menudo demasiado lento para ser práctico. Científicos de datos financieros
trate de usar las mejores características de ambos enfoques, como tratamos de hacer en este estudio de caso.
Las tablas 20.14, 20.15, 20.16, 20.17, 20.18, 20.19, 20.20 y 20.21 muestran la
cálculo del valor en riesgo y la persistencia del umbral utilizando cuatro modelos diferentes:
GARCH con distribución gaussiana, GARCH con distribución t de Student, GJR
con distribución t de Student, y EGARCH con distribución t de Student. Esto es
hecho tanto para la cartera ponderada por valor como para la cartera ponderada por equidad de la siguiente manera:

• La Tabla 20.14 muestra el cálculo del Valor en Riesgo y el umbral de persistencia para
modelo GARCH ponderado por el valor de mercado con una distribución gaussiana.
• La Tabla 20.15 muestra el cálculo del Valor en Riesgo y el umbral de persistencia para
modelo GARCH ponderado por valor de mercado con una distribución t de Student.
• La Tabla 20.16 muestra el cálculo del Valor en Riesgo y el umbral de persistencia para
Modelo GJR ponderado por valor de mercado con una distribución t de Student.
• La Tabla 20.17 muestra el cálculo del Valor en Riesgo y el umbral de persistencia para
Modelo EGARCH ponderado por valor de mercado con una distribución t de Student.
• La Tabla 20.18 muestra el cálculo del Valor en Riesgo y el umbral de persistencia para
Modelo GARCH equiponderado con distribución gaussiana.
• La Tabla 20.19 muestra el cálculo del Valor en Riesgo y el umbral de persistencia para
Modelo GARCH equiponderado con distribución t de Student.

Cuadro 20.14 Valor de mercado ponderado, GARCH, gaussiana

Valor de horizonte 1 Valor 2 Valor 3 Valor 4 Valor 5


Valor en riesgo
5 ÿ2,42723% ÿ2,40828% ÿ2.51901% ÿ2,43652% ÿ2.36555%
10 ÿ3,48908% ÿ3,43362% ÿ3,36722% ÿ3,22902% ÿ3,27812%
20 ÿ4.58238% ÿ4.71451% ÿ4,45732% ÿ4.47809% ÿ4,48455%
60 ÿ7.28079% ÿ7.27208% ÿ7.30652% ÿ7.13126% ÿ7.28960%
125 ÿ9.84899% ÿ9,21783% ÿ9,61347% ÿ9.95102% ÿ9,26511%
250 ÿ11,90397 % ÿ11,27439 % ÿ12,28956 % ÿ11,69521 % ÿ11,58802 %

Porcentaje de veces que la cartera está por debajo de beta


5 0.01000% 0.00000% 0.00000% 0.01000% 0.00000%
10 0.10000% 0.08000% 0.07000% 0.05000% 0.02000%
20 0.70000% 0.71000% 0.62000% 0.70000% 0.51000%
60 7.07000% 6.69000% 6.72000% 7.23000% 6.76000%
125 15.11000% 14.76000% 14.75000% 14.98000% 15.06000%
250 22.15000% 21.72000% 22.16000% 22.53000% 22.38000%

Caída media de la cartera cuando el nivel cae por debajo de beta


5 ÿ6,08684% 0,00000% 0.00000% ÿ5.99193% 0.00000%
10 ÿ6.42005% ÿ5,82228% ÿ6.09030% ÿ5.79600% ÿ5,36812%
20 ÿ6.19519% ÿ6,21074% ÿ6,33539% ÿ6.04260% ÿ5.97896%
60 ÿ6.74850% ÿ6.73923% ÿ6,79577% ÿ6.65510% ÿ6,71048%
125 ÿ7.48904% ÿ7,39024% ÿ7.52920% ÿ7.50248% ÿ7.34893%
250 ÿ8,34098% ÿ8.25300% ÿ8,37886% ÿ8.26895% ÿ8.25156%
Machine Translated by Google

Tabla 20.15 Valor de mercado ponderado, GARCH, t de Student

Valor de horizonte 1 Valor 2 Valor 3 Valor 4 Valor 5


Valor en riesgo
5 ÿ2,37854% ÿ2,39676% ÿ2.40350% ÿ2,38341% ÿ2.43340%
10 ÿ3,34525% ÿ3,32570% ÿ3,40838% ÿ3,33190% ÿ3,32166%
20 ÿ4.53003% ÿ4,56522% ÿ4.67216% ÿ4,49673% ÿ4,43257%
60 ÿ7.28625% ÿ7.36338% ÿ7.19435% ÿ6.95804% ÿ7,09243%
125 ÿ9.07297% ÿ9.50501% ÿ9,43058% ÿ9,32454% ÿ9.33755%
250 ÿ11,33888 % ÿ11,74615 % ÿ11,71408 % ÿ11,35302 % ÿ11,60062 %

Porcentaje de veces que la cartera está por debajo de beta


5 0.01000% 0.00000% 0.00000% 0.00000% 0.00000%
10 0.08000% 0.08000% 0.05000% 0.05000% 0.07000%
20 0.70000% 0.64000% 0.60000% 0.57000% 0.60000%
60 6.71000% 6.75000% 7.16000% 6.48000% 6.94000%
125 14.85000% 14.65000% 14.92000% 14.31000% 15.24000%
250 21.63000% 21.58000% 22.16000% 21.74000% 22.49000%

Caída media de la cartera cuando el nivel cae por debajo de beta


5 ÿ5,60456 % 0,00000 % 0,00000 % 0.00000% 0.00000%
10 ÿ6.17866% ÿ5.98915% ÿ5,65985% ÿ6.35440% ÿ6,02021%
20 ÿ5.96225% ÿ6.06412% ÿ6,32215% ÿ6.26961% ÿ6.05488%
60 ÿ6,71141% ÿ6.72747% ÿ6.74299% ÿ6,64512% ÿ6,64694%
125 ÿ7.33353% ÿ7.37906% ÿ7.47784% ÿ7.33874% ÿ7.37931%
250 ÿ8.15825% ÿ8,24734% ÿ8.27726% ÿ8,16879% ÿ8,22191%

Cuadro 20.16 Valor de mercado ponderado, GJR, t de Student

Valor de horizonte 1 Valor 2 Valor 3 Valor 4 Valor 5


Valor en riesgo
5 ÿ2.64120% ÿ2,67966% ÿ2.56970% ÿ2,72138% ÿ2,71597%
10 ÿ3,82148% ÿ3,80847% ÿ3,73202% ÿ3,86924% ÿ3,82415%
20 ÿ5,33825% ÿ5,41227% ÿ5.26804% ÿ5.26190% ÿ5,39392%
60 ÿ8,50145% ÿ8,79663% ÿ8,54043% ÿ8,80623% ÿ8,73182%
125 ÿ11,53589 % ÿ11,68212 % ÿ11,20231 % ÿ11,61595 % ÿ11,51297 %
250 ÿ15,96105 % ÿ15,13785 % ÿ14,87603 % ÿ15,85603 % ÿ14,83327 %

Porcentaje de veces que la cartera está por debajo de beta


5 0.02000% 0.02000%0.00000% 0.02000% 0.00000%
10 0.17000% 0.26000% 0.19000% 0.18000% 0.19000%
20 1.59000% 1.48000% 1.29000% 1.39000% 1.51000%
60 10.12000% 10.74000% 10.29000% 9.78000% 9.76000%
125 21.56000% 21.63000% 21.51000% 21.27000% 20.89000%
250 32.62000% 32.44000% 32.70000% 32.65000% 31.98000%

Caída media de la cartera cuando el nivel cae por debajo de beta


5 ÿ6,29212 % 0,00000 % ÿ6,46780 % ÿ5,83254% 0.00000%
10 ÿ7,07093% ÿ6.76246% ÿ6,49871% ÿ6.47768% ÿ6,24227%
20 ÿ6.57822% ÿ6,59474% ÿ6.74424% ÿ6.55687% ÿ6.45223%
60 ÿ7.25348% ÿ7.16626% ÿ7.14942% ÿ7.19248% ÿ7,19982%
125 ÿ8,02682% ÿ7.96397% ÿ7.93543% ÿ7.98327% ÿ7.99186%
250 ÿ9.18003% ÿ9.17600% ÿ9.04975% ÿ9.15641% ÿ9,10158%
Machine Translated by Google

Cuadro 20.17 Valor de mercado ponderado, EGARCH, t de Student

Valor de horizonte 1 Valor 2 Valor 3 Valor 4 Valor 5


Valor en riesgo
5 ÿ2,79077% ÿ2.85296% ÿ2,77644% ÿ2,69456% ÿ2,72527%
10 ÿ3,93194% ÿ3.94460% ÿ3,83798% ÿ3,83507% ÿ3,87852%
20 ÿ5,40504% ÿ5,28543% ÿ5,31962% ÿ5,33853% ÿ5,39825%
60 ÿ8.58980% ÿ8,38608% ÿ8,37522% ÿ8,48768% ÿ8,71635%
125 ÿ11,54664 % ÿ11,21148 % ÿ11,22397 % ÿ11,52668 % ÿ11,24505 %
250 ÿ14,78795 % ÿ14,88799 % ÿ14,44216 % ÿ14,46602 % ÿ14,44222 %

Porcentaje de veces que la cartera está por debajo de beta


5 0.01000% 0.01000% 0.03000% 0.00000% 0.00000%
10 0.23000% 0.20000% 0.13000% 0.16000% 0.18000%
20 1.85000% 1.54000% 1.48000% 1.55000% 1.43000%
60 10.73000% 9.78000% 10.17000% 10.70000% 10.75000%
125 21.42000% 21.09000% 20.72000% 21.30000% 21.10000%
250 32.14000% 31.55000% 31.17000% 31.80000% 31.33000%

Caída media de la cartera cuando el nivel cae por debajo de beta


5 ÿ6,64370 % ÿ6,19737ÿ6,70843%
% 0,00000 % 0.00000%
10 ÿ6.16354% ÿ6.24120% ÿ6,27418% ÿ6,43948% ÿ6.07836%
20 ÿ6.28625% ÿ6,43126% ÿ6,39376% ÿ6,50772% ÿ6.33898%
60 ÿ7.08317% ÿ7.08325% ÿ7.08800% ÿ7.10921% ÿ7.19341%
125 ÿ7.97817% ÿ7.88085% ÿ7,99144% ÿ8,00227% ÿ8,00791%
250 ÿ9.05973% ÿ9,00021% ÿ9.05599% ÿ9.06243% ÿ9,00664%

Tabla 20.18 Equi-ponderado, GARCH, Gaussiano

Valor de horizonte 1 Valor 2 Valor 3 Valor 4 Valor 5


Valor en riesgo
5 ÿ3.02645% ÿ3,12244% ÿ3,10246% ÿ3.15969% ÿ3,08626%
10 ÿ4.22080% ÿ4.34003% ÿ4,23744% ÿ4,39152% ÿ4,36571%
20 ÿ5.77279% ÿ5.99089% ÿ5,89724% ÿ5.84402% ÿ6,00114%
60 ÿ9,49140% ÿ9.72849% ÿ9,46143% ÿ9.57403% ÿ9.76131%
125 ÿ13,00547 % ÿ12,91606 % ÿ13,16552 % ÿ12,80902 % ÿ13,03503 %
250 ÿ16,19272 % ÿ17,10488 % ÿ17,15668 % ÿ16,31266 % ÿ16,92225 %

Porcentaje de veces que la cartera está por debajo de beta


5 0.01000% 0.01000%0.01000% 0.01000% 0.04000%
10 0.27000% 0.45000% 0.29000% 0.38000% 0.36000%
20 2.24000% 2.77000% 2.45000% 2.50000% 2.63000%
60 14.98000% 14.71000% 14.69000% 14.50000% 15.09000%
125 26.76000% 26.31000% 26.23000% 26.49000% 27.08000%
250 35.85000% 35.38000% 36.05000% 35.87000% 35.99000%

Caída media de la cartera cuando el nivel cae por debajo de beta


5 ÿ6,30389 % ÿ5,35099ÿ6.15856%
% ÿ7,11069% ÿ5,63802%
10 ÿ6.01000% ÿ6.16643% ÿ6,19892% ÿ6,46273% ÿ6.09211%
20 ÿ6.35667% ÿ6.38641% ÿ6,30022% ÿ6.38837% ÿ6.44409%
60 ÿ7.36676% ÿ7.40805% ÿ7.34800% ÿ7.37507% ÿ7.43454%
125 ÿ8.36959% ÿ8,50622% ÿ8.45060% ÿ8,38819% ÿ8,41793%
250 ÿ9,69286% ÿ9.85419% ÿ9.74382% ÿ9,63297% ÿ9.78937%
Machine Translated by Google

Tabla 20.19 Equi-ponderado, GARCH, t de Student

Valor de horizonte 1 Valor 2 Valor 3 Valor 4 Valor 5


Valor en riesgo
5 ÿ3,09375 % ÿ3,14080% ÿ3,10339% ÿ3,07041% ÿ3,11094%
10 ÿ4,36277% ÿ4.21170% ÿ4.38308% ÿ4.27252% ÿ4,39058%
20 ÿ5,79307% ÿ5,92853% ÿ5.95257% ÿ5,78613% ÿ6,01026%
60 ÿ9,49324% ÿ9,41315% ÿ9,67444% ÿ9.57806% ÿ9,44238%
125 ÿ12,96079 % ÿ13,42418 % ÿ12,86986 % ÿ13,34371 % ÿ12,92972 %
250 ÿ16,55830 % ÿ16,94585 % ÿ16,56531 % ÿ16,59782 % ÿ16,18167 %

Porcentaje de veces que la cartera está por debajo de beta


5 0.01000% 0.02000% 0.03000% 0.01000% 0.01000%
10 0.40000% 0.27000% 0.40000% 0.24000% 0.36000%
20 2.56000% 2.34000% 2.62000% 2.48000% 2.57000%
60 14.93000% 14.54000% 15.28000% 14.27000% 14.20000%
125 26.55000% 26.00000% 26.80000% 25.64000% 25.82000%
250 36.04000% 34.73000% 35.91000% 34.59000% 35.32000%

Caída media de la cartera cuando el nivel cae por debajo de beta


5 ÿ5,48361 % ÿ5,60246ÿ6.01500%
% ÿ5,88618% ÿ6,43174%
10 ÿ6,00148% ÿ6.38804% ÿ6.26810% ÿ6,37318% ÿ6.13003%
20 ÿ6,38101% ÿ6.47291% ÿ6.52129% ÿ6.41859% ÿ6,44267%
60 ÿ7,31137% ÿ7,31075% ÿ7,43181% ÿ7.44125% ÿ7.33935%
125 ÿ8,38976% ÿ8,49580% ÿ8,42735% ÿ8,48043% ÿ8,35742%
250 ÿ9,67619% ÿ9.72951% ÿ9.68775% ÿ9.79860% ÿ9.54100%

Tabla 20.20 Equi-ponderado, GJR, t de Student

Valor de horizonte 1 Valor 2 Valor 3 Valor 4 Valor 5


Valor en riesgo
5 ÿ3,41649% ÿ3,37054% ÿ3,43304% ÿ3,35435% ÿ3,48986%
10 ÿ4.89835% ÿ4,84086% ÿ4.86367% ÿ4,79133% ÿ5,00438%
20 ÿ6.97760% ÿ6,83118% ÿ6.85524% ÿ6,72537% ÿ6.99981%
60 ÿ11,39598 % ÿ11,26982 % ÿ11,43001 % ÿ11,77783 % ÿ11,78486 %
125 ÿ15,86655 % ÿ16,52494 % ÿ15,94209 % ÿ15,45319 % ÿ16,09934 %
250 ÿ20,67736 % ÿ21,36881 % ÿ22,31839 % ÿ20,82328 % ÿ21,46509 %

Porcentaje de veces que la cartera está por debajo de beta


5 0.03000% 0.09000%0.05000% 0.06000% 0.10000%
10 0.68000% 0.65000% 0.76000% 0.62000% 0.86000%
20 4.16000% 4.32000% 3.88000% 3.98000% 3.72000%
60 20.00000% 20.72000% 19.83000% 19.46000% 19.59000%
125 34.93000% 36.08000% 34.81000% 34.70000% 34.74000%
250 48.44000% 49.80000% 48.28000% 48.03000% 48.37000%

Caída media de la cartera cuando el nivel cae por debajo de beta


5 ÿ7,36444 % ÿ6,35243ÿ7.72945%
% ÿ5,81271% ÿ6.14997%
10 ÿ6.56317% ÿ6,69730% ÿ6.58803% ÿ6,36042% ÿ6.67660%
20 ÿ6.85652% ÿ6.77818% ÿ6.97909% ÿ6.77189% ÿ7.14428%
60 ÿ7.87520% ÿ7.83506% ÿ7,91032% ÿ7.91935% ÿ7.88042%
125 ÿ9.18330% ÿ9.18761% ÿ9,21253% ÿ9.17098% ÿ9,21382%
250 ÿ10,85028 % ÿ10,95301 % ÿ11,02630 % ÿ10,94284 % ÿ10,95912 %
Machine Translated by Google

20 análisis financiero 707

Tabla 20.21 Equi-ponderado, EGARCH, t de Student

Valor de horizonte 1 Valor 2 Valor 3 Valor 4 Valor 5


Valor en riesgo
5 ÿ3.57247% ÿ3.56529% ÿ3,50317% ÿ3.52430% ÿ3,41424%
10 ÿ5,03825 % ÿ4.94431% ÿ4.94004% ÿ4.95409% ÿ4,90723%
20 ÿ6,80683% ÿ6,90082% ÿ6,80978% ÿ7.15053% ÿ7.04633%
60 ÿ11,54241 % ÿ11,56384 % ÿ11,17854 % ÿ11,59858 % ÿ11,47896 %
125 ÿ16,02569 % ÿ15,78560 % ÿ15,09081 % ÿ16,25870 % ÿ15,86065 %
250 ÿ21,40973 % ÿ21,42843 % ÿ19,87466 % ÿ20,98633 % ÿ20,91555 %

Porcentaje de veces que la cartera está por debajo de beta


5 0.05000% 0.05000% 0.03000% 0.04000% 0.05000%
10 0.87000% 0.74000% 0.67000% 0.83000% 0.76000%
20 4.18000% 4.10000% 4.18000% 4.42000% 3.96000%
60 19.67000% 20.03000% 20.09000% 19.69000% 20.00000%
125 33.91000% 34.78000% 34.46000% 34.42000% 34.52000%
250 47.81000% 48.03000% 46.65000% 47.48000% 47.87000%

Caída media de la cartera cuando el nivel cae por debajo de beta


5 ÿ6,45992 % ÿ7,06294ÿ6,25018%
% ÿ6.51616% ÿ6.25605%
10 ÿ6.47289% ÿ6.46955% ÿ6.53686% ÿ6,39210% ÿ6,61915%
20 ÿ6.77121% ÿ6.81445% ÿ6,71482% ÿ6.87959% ÿ6,89216%
60 ÿ7.93299% ÿ7.95354% ÿ7.88962% ÿ7.96126% ÿ7.92641%
125 ÿ9,23481% ÿ9,20317% ÿ9,10547% ÿ9.27140% ÿ9.19768%
250 ÿ10,87354 % ÿ10,92524 % ÿ10,85239 % ÿ10,95101 % ÿ10,92249 %

• La Tabla 20.20 muestra el cálculo del Valor en Riesgo y el umbral de persistencia para
Modelo GJR equiponderado con distribución t de Student.
• La Tabla 20.21 muestra el cálculo del Valor en Riesgo y el umbral de persistencia para
Modelo EGARCH equiponderado con distribución t de Student.

2.8.1 Valor ponderado frente a Equiponderado

En general, la cartera ponderada por valor tiene menos dispersión que la ponderada por equidad.
portafolio. Esto es de esperar porque, en general, los comerciantes tienen un peso más alto
para activos que tienen menos volatilidad dado rendimientos esperados similares. esto es consistente
con los resultados de las tablas obtenidos por porcentaje de veces que el valor de la cartera alcanza
el nivel umbral (ÿ5,00%) y la caída media de la cartera dado que el
cartera llega a este umbral. Ambos valores son más bajos para la cartera ponderada por valor
frente a la cartera ponderada en términos de equidad.
Machine Translated by Google

708 K. Vaidyanathan

Rendimientos simulados de activos de cartera a 30 días


0.1

0.08

0.06

0.04

0.02

–0.02

–0.04

–0.06

–0.08
0 5 10 15 20 25 30

Fig. 20.13 Rendimientos simulados de activos de cartera con modelo GJR, distribución t de Student

2.8.2 Gaussiana vs. Distribución t de Student

Para los modelos GARCH, la diferencia de dispersión de las dos distribuciones es pequeña.
Sin embargo, las tablas reportan los resultados para GJR y EGARCH usando las dos distribuciones
diferentes y, en general, como es de esperar, la distribución t de Student tiende
tener una mayor dispersión que en el caso de la distribución gaussiana.
Las Figuras 20.11 y 20.12 muestran los caminos simulados para el
cartera en el horizonte de 30 días con modelo GJR con una distribución Gaussiana y
Distribución t de Student . Como es claramente visible, la distribución t de Student de cola gruesa
genera mayor variación en los extremos que la distribución normal.

2.8.3 GARCH, GJR y EGARCH

GARCH tiende a subestimar el VaR y la medida de persistencia frente a GJR y


EGARCH. Una vez más, esto es de esperar dado que GJR y EGARCH tienen en cuenta el
efecto de apalancamiento que GARCH no logra hacer. GJR y EGARCH arrojan resultados similares
que de nuevo es de esperar.
Se exhiben cinco valores para cada parámetro para mostrar la medida de la dispersión.
Los errores estándar para las estimaciones se calculan como también las estadísticas t, y ambos son
encontrado estadísticamente aceptable.
Machine Translated by Google

20 análisis financiero 709

Cada valor en sí mismo es un promedio de 10.000 rutas. El horizonte se menciona en la primera


columna. El horizonte umbral se toma como 2 días para mantener la coherencia a lo largo del horizonte.
El VaR y las medidas de persistencia también se calculan para horizontes de 2 años, 3 años, 4
años y 5 años. El rango de Valor en Riesgo está entre 20 y 22% para estos horizontes. La probabilidad
de que la cartera permanezca por debajo del nivel de umbral ÿ durante 2 o más días es de alrededor
del 42-47 %, mientras que la caída media de la cartera en caso de que esto suceda es de alrededor
del 11-13 %.

2.8.4 Resultados del análisis de componentes principales

• La Tabla 20.22 muestra el análisis PCA para el modelo GARCH con una Gaussiana
distribución.
• La tabla 20.23 muestra el análisis PCA para el modelo GARCH con una t de Student
distribución.
• La tabla 20.24 muestra el análisis PCA para el modelo GJR con una distribución t de Student. • La
Tabla 20.25 muestra el análisis PCA para el modelo EGARCH con una t de Student
distribución.

2.9 Conclusión

El estudio de caso proporciona una descripción general del análisis estadístico de riesgo de cartera
tal como se practica en el mundo de la gestión de inversiones. El enfoque emplea modelos
econométricos de rendimientos de precios de acciones y explica la teoría econométrica detrás de la
aplicación para que el capítulo sea autónomo. La medición del riesgo se formula utilizando métricas
de riesgo estándar de la industria, como el valor en riesgo y la persistencia del umbral. Utilizamos
métodos sólidos que tienen en cuenta las colas gruesas y el apalancamiento, como GJR y EGARCH,
para medir el riesgo. Una implicación fundamental del análisis de datos para los mercados financieros
es que los regímenes de riesgo cambian. Por lo tanto, un GJR o un EGARCH pueden ser aptos para
este conjunto de datos, pero pueden no ser universalmente apropiados para medir el riesgo de otros
tipos de datos financieros. Dado que los regímenes de riesgo cambian de manera abrupta e imprevista,
un P-quant debe comprender y comunicar las suposiciones y limitaciones del análisis de datos a los
consumidores de informes de riesgo. Por ejemplo, puede que no esté fuera de lugar seguir recordando
a los consumidores de los informes de riesgo que los peores resultados, como el valor en riesgo y la
persistencia del umbral, se ven singularmente en el extremo izquierdo de la distribución de pérdidas
de la cartera. Por lo tanto, son menos manejables y estables que una métrica más simple como la
varianza que se calcula en un horizonte de tiempo prolongado.
Dicho esto, la medición y presentación de informes de riesgo en las instituciones financieras, en
general, se ha alejado de las largas discusiones de tipo descriptivo para proporcionar información más
cuantitativa para que los profesionales de riesgo puedan hacer su propia evaluación. Además, la
frecuencia de los informes ha cambiado significativamente. Los directores de riesgos (CRO) en los
AMC generalmente reciben informes que contienen estimaciones de persistencia de umbral y VaR
Tabla
20.22
GARCH,
Gaussiana
ACP
10
ÿ0,000173 ACP
9 ACP
8 ACP
7 ACP
6 ACP
5 ACP
4 ACP
3 ACP
2 ACP
1
ÿ0,007667
ÿ0,942045 ÿ0,000602
ÿ0,254338 ÿ0.000491
Coeficiente
C
0,003197
ÿ0,802868 0.000127
ÿ0.781957 0.001868
ÿ0.099412
ÿ0.037937 0.000307 0.003177 0,006191
ÿ0,037002
Coeff
AR
MA
Coeff
K
Coeff
GARCH
Arch
Coeff
apalancamiento
Estimación
de
probabilidad
logarítmica
0.935406
ÿ0.996544 0,790801
ÿ0,808419 0.019312
ÿ0.090477
1.000000
ÿ0.832486
0.771076 0.994696 0.235336 0.813060 0.252324
0.000607 0.000042 0.000029 0.000008 0.000618 0.000005 0.000177 0.000062 0.000727 0.002363
0.240479 0.854067 0.906187 0.978600 0.416907 0.965923 0.880774 0.533216 0.673067 0.581073
0.096681 0.103361 0.063275 0.013823 0.092563 0.028736 0.042033 0.327323 0.159143 0.150042
0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000
1042.554168 1035.681025 1026.846244 1275.084082
967.958283 961.156845 941.624211 812.619731 664.383809 482.661472
K. Vaidyanathan 710
Machine Translated by Google
Tabla
20.23
GARCH,
tde
Student
ACP
10
ÿ0,004129
ÿ0,569986 ACP
9 ACP
8 ACP
7 ACP
6 ACP
5 ACP
4 ACP
3 ACP
2 ACP
1
ÿ0,007482
ÿ0,946004 ÿ0.000612
Coeficiente
C
0.003049
ÿ0.810527 0.000830
ÿ0.987641 0,001090
ÿ0,735297 0,001870
ÿ0,097163
ÿ0,040524
0,000177 0.000307 0.003167 0,006368
ÿ0,044536
Coef
AR
Coeff
MA
Coeff
K
0,774787
ÿ0,794976
0,000619 0,024280
ÿ0,095032
0,000733
1.000000
ÿ0.831038
0.000062
0.532482
0,622669
0,000544
0,337492 0.778840
0.000042
0.853885 0.994906
0.000034
0.888511 0.769962
0.000010
0.955841 0.258300
0.002355
1.000000
0.000009
0.974729 0.418905 0.880851 0.671451 0.582574 Coef
GARCH
Coeff
ARCH
Coef
apalancamiento
Estimación
de
probabilidad
logarítmica
0.085532 0.103836 0.078636 0.017016 0.096472 0.036009 0.042276 0.328004 0.159680 0.149677
0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000
1042.300629 1035.893574 1028.985630 1274.948566
971.144066 964.726132 946.274938 812.438789 664.281732 482.593216
711 20 análisis financiero
Machine Translated by Google
Tabla
20.24
GJR,
tde
Student
ACP
10
ÿ0,004473
ÿ0,588531 ACP
9 ACP
8 ACP
7 ACP
6 ACP
5 ACP
4 ACP
3 ACP
2 ACP
1
ÿ0,006819
ÿ0,946771 ÿ0,000854
ÿ0,320778 ÿ0,003602
ÿ0,445124
Coeficiente
C
0.000362 0.000893
ÿ0.737373 0,001946
ÿ0,101657
ÿ0,035439 0.000358 0.003857 0.003418
ÿ0.025396
Coef
AR
Coeff
MA
Coeff
K
Coeff
GARCH
ARCH
Coeff
apalancamiento
Estimación
de
probabilidad
logarítmica
0,783815
ÿ0,822747 0.067171
ÿ0.149177
1.000000
ÿ0.827733
0.639748 0.995566 0.305520 0.440511 0.771080 0.239486
0.000432 0.000043 0.000037 0.000011 0.000620 0.000009 0.000184 0.000061 0.000968 0.001970
0.455036 0.851227 0.883832 0.970576 0.420793 0.958213 0.875252 0.558873 0.614463 0.659505
0.050880 0.101817 0.108470 0.010650 0.127517 0.028510 0.051476 0.367855 0.235522 0.000000
0.075837 0.006893 ÿ0.054267 0.018427 ÿ0.069612 0.010643 ÿ0.013321 ÿ0.141102 ÿ0.156928 0.221961
1042.590481 1036.241450 1029.653034 1276.062104
969.812064 964.670930 946.341024 812.486859 665.908440 488.076790
K. Vaidyanathan 712
Machine Translated by Google
Tabla
20.25
EGARCH,
tde
Student
ACP
10
ÿ0,004564
ÿ0,590409 ACP
9 ACP
8 ACP
7 ACP
6 ACP
5 ACP
4 ACP
3 ACP
2 ACP
1
ÿ0,006313
ÿ0,944539 ÿ0.000004 ÿ0.000627
Coeficiente
C
0.000353 0.000785
ÿ0.758420 0,002047
ÿ0,094801
ÿ0,046898 0.000333 0.003834 0.003997
ÿ0.064723
Coef
AR
Coeff
MA
Coeff
K
0,759004
ÿ0,806882
ÿ0,374390
0,946651 0,982168
ÿ1,000000
ÿ0,060656
0,991111 0,773375
ÿ0,792651 0,092554
ÿ0,174779
ÿ0,994841
0,820174
1.000000
ÿ0.830915
0,646866
ÿ2,425124
0,652703 0,995196
ÿ0,282069
0,959395 0.793959
ÿ0.001776 0.281886
ÿ1.036871
0.782946
ÿ3,274587
0,510104 ÿ0,443169
0,927416 ÿ0,415517
0,947283
Coef
GARCH
Coeff
ARCH
Coef
apalancamiento
Estimación
de
probabilidad
logarítmica
1.000000
0.153982 0.220938 0.154341 0.036622 0.231433 0.041367 0.105747 0.386928 0.252133 0.185203
ÿ0.082664 ÿ0.018483 ÿ0.003358 ÿ0.163616
0.021652 0.001679 0.035319 0.032806 0.067537 0.084304
1043.202155 1034.961690 1028.909113 1272.729986
971.161642 965.878475 945.009720 813.616259 667.115909 484.578627
713 20 análisis financiero
Machine Translated by Google
Machine Translated by Google

714 K. Vaidyanathan

para un horizonte de 1 semana, 1 mes y 1 año. Por ejemplo, a partir de la Tabla 20.14 , el CRO puede
inferir que si los rendimientos de las acciones siguen aproximadamente una distribución gaussiana,
existe un 1 % de probabilidad (valor en riesgo con un nivel de confianza del 99 %) de que la cartera
pierda alrededor del 12 % de su valor en un período de 1 a 1 año. horizonte de año. Usando la métrica
de persistencia de umbral, el CRO puede inferir que en un horizonte de 1 año, existe un 22 % de
probabilidad de que la cartera caiga por debajo del 5 %. Y dado que tal caída ocurre durante el período
de tiempo crítico de más de 2 días, la caída en el valor de la cartera sería de aproximadamente un 8%.
Las otras tablas cuantifican el riesgo de la cartera cuando los rendimientos de los activos tienen un
exceso de curtosis o cuando hay mecanismos causales en juego entre los rendimientos y la volatilidad,
como los efectos de apalancamiento.
Algunas CRO y juntas de gestión de inversiones prefieren recibir solo informes de riesgo resumidos.
El informe resumido suele ser breve para que sea menos probable que los miembros de la junta pasen
por alto las cifras de riesgo. La mayoría de las CRO P-quant optan por recibir tanto el resumen como
los informes de riesgo detallados. No es habitual que las CRO de hoy en día reciban diariamente
informes MIS (sistema de información de gestión) que contienen análisis de la Tabla 20.14 a la Tabla
20.21 . En los últimos años, la mayoría de las CRO provienen del mundo P y están cuantitativamente
bien equipadas para comprender e inferir riesgos a partir de los informes de riesgos detallados.

Además de la alta gerencia y el directorio, la otra audiencia principal de los informes de riesgo son
los reguladores. Los reguladores como la Fed y el RBI exigen que todas las instituciones financieras
que regulan carguen sus informes de riesgo en una plantilla prescrita al final de cada día hábil. Los
reguladores normalmente prescriben plantillas para los informes de riesgo para que puedan hacer una
comparación de riesgo de manzanas con manzanas entre las instituciones financieras. Los propios
reguladores utilizan sistemas para monitorear el cambio en el riesgo de una institución financiera
determinada a lo largo del tiempo. Más importante aún, les ayuda a agregar el riesgo de todas las
instituciones financieras que regulan para evaluar el riesgo sistémico en la industria financiera. Con los
rápidos avances en las ciencias de la información, se prevé que la aplicación de la analítica en las
finanzas sea cada vez más sofisticada en el futuro.

Material complementario electrónico

Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están
disponibles en www.allaboutanalytics.net.

• Datos 20.1: Análisis financiero Pasos 1, 2 y 3.xlsx • Datos 20.2:


Análisis financiero Pasos 4 y 5.xlsx • Datos 20.3: Análisis financiero
Paso 6.xlsx • Datos 20.4: Análisis financiero Paso 7.xlsx • Datos
20.5: Análisis financiero Paso 8.xlsx • Datos 20.6: nifty50.txt • Datos
20.7: ptsr.txt • Datos 20.8: randomgaussian.txt • Datos 20.9:
randomgaussiancurrency.txt • Datos 20.10: tsr.txt
Machine Translated by Google

20 análisis financiero 715

Ejercicios

Ex. 20.1 Etapa I Paso 3 Inferencia: Consideramos el índice de la Bolsa Nacional de Valores
NIFTY-50 registrado diariamente para el período del 1 de noviembre de 2016 al 31 de octubre de 2017.
pt sea el índice NIFTY-50 y rt sea el log return {rt = log (pt) ÿ log (pt ÿ 1)}.
Cargue los datos del archivo nifty50.txt en Matlab.

• Dibujar gráficos del índice bursátil, los rendimientos logarítmicos y los rendimientos logarítmicos al cuadrado.
• ¿Los gráficos indican efectos GARCH?
• Estimar los parámetros GARCH (ÿ,ÿ,ÿ).

Ex. 20.2 Etapa I Paso 4 Proyección: Cargue los datos en números aleatorios de
randomgaussian.txt en Matlab. La desviación estándar es del 20%, mientras que el promedio
el retorno es del 5%. Tenga en cuenta que el rendimiento promedio y la desviación estándar deben ajustarse
para el horizonte diario dividiendo por 365 y raíz cuadrada de 365, respectivamente. Proyecto
el valor de USD/INR para un horizonte de 1 año.

Ex. 20.3 Etapa II Paso 2 Agregación: suponga una cartera de préstamos de Rs. 500 prestados
a cinco empresas diferentes por Rs. 100 cada uno Agregue el riesgo de este Rs. 500
cartera de crédito utilizando cópulas gaussianas de un factor. Suponga que cada empresa tiene un
probabilidad de incumplimiento del 4%. El horizonte para el préstamo es de 1 año. Suponga que en
en caso de incumplimiento, el banco puede recuperar el 75% del monto del préstamo. asumir el

único factor a ser la economía. La correlación de los activos de cada empresa con la economía.
se da en la siguiente tabla. Calcular la distribución conjunta del crédito de cada uno de estos
empresas utilizando un modelo de un factor.

Corporativo_1 Corporativo_2 Corporativo_3 Corporativo_4 Corporativo_5


C_i 1,00% 1,00% 1,00% 1,00% 1,00%
D_i 75,00 % a_i 75,00% 75,00% 75,00% 75,00%
0,200000 X_i 4,00 0.400000 0.500000 0.600000 0.800000
% 4,00% 4,00% 4,00% 4,00%

Ex. 20.4 Etapa II Paso 2 Evaluación: Cargue los datos en números aleatorios de
randomgaussiancurrency.txt en Matlab. Calcule el VaR para una cartera de 1 USD,
1 EUR, 1 GBP y 100 JPY. El valor de la cartera en términos de INR es Rs. 280 (1
USD = Rs. 64, 1 euro = Rs. 75, 1 GBP = Rs. 82, 100 JPY = Rs. 59). Calcula el
posible pérdida o ganancia de esta cartera para un horizonte de 1 año. Para agregar el riesgo,
use la siguiente matriz de correlación entre las monedas:

USD/INR EUR/INR GBP/INR JPY/INR


USD/USD 1 0.9 0.6 0.4
EUR/USD 0,9 1 0.5 0.5
EUR/EUR 0,6 0.5 1 0.2
JPY/MXN 0.4 0.5 0.2 1
Machine Translated by Google

716 K. Vaidyanathan

Ex. 20.5 Etapa II Paso 3 Atribución: Un banco comprende tres líneas de negocios:

• Línea de negocio 1 (LoB1): banca corporativa • Línea de


negocio 2 (LoB2): banca minorista • Línea de negocio 3 (LoB3):
operaciones de tesorería

LoB1 tiene una correlación de 0,5 con LoB2 y tiene una correlación de 0,2 con LoB3.
LoB2 no está correlacionado con LoB3. Los activos bancarios totales son Rs. 6000 millones de rupias. Cada uno de
los LoB tiene activos por valor de Rs. 2000 millones de rupias.

Volatilidad de los activos

LoB1 2000 ÿ1 = 5%
LoB2 2000 ÿ2 = 7%
LoB3 2000 ÿ3 = 9%

(a) Determine el capital económico total del banco. (b) Atribuya el


capital consumido por LoB1, LoB2 y LoB3 en una sola
base.
(c) Atribuir el capital consumido por LoB1, LoB2 y LoB3 de forma incremental. (d) Atribuya el capital
consumido por LoB1, LoB2 y LoB3 usando un componente
Acercarse.

Ex. 20.6 Para horizontes múltiples de 5, 10, 20, 60, 125 y 250 días de negociación, para una cartera
ponderada por valor de mercado, calcular lo siguiente:

(a) El Valor en Riesgo de la cartera usando el modelo GJR con distribución Gaussiana (b) El Valor en
Riesgo de la cartera usando el modelo EGARCH con distribución Gaussiana
distribución
(c) El porcentaje de veces que la cartera está por debajo de beta utilizando el modelo GJR con Gaussian
distribución
(d) El porcentaje de veces que la cartera está por debajo de beta utilizando el modelo EGARCH con
distribución gaussiana
(e) La caída promedio en la cartera cuando el nivel cae por debajo de beta usando el modelo GJR
con distribución gaussiana
(f) La caída promedio de la cartera cuando el nivel cae por debajo de beta utilizando el modelo EGARCH
con distribución Gaussiana

Ex. 20.7 Repita el ejercicio 20.6 para una cartera ponderada de valor equitativo.

Referencias

Ali, MM, Mikhail, NN y Haq, MS (1978). Una clase de distribuciones bivariadas que incluyen la
logística bivariada. Revista de análisis multivariado, 8, 405–412.
Negro, F. y Scholes, M. (1973). El precio de las opciones y pasivos corporativos. el diario de
Economía Política, 81(3), 637–654.
Machine Translated by Google

20 análisis financiero 717

Bollerslev, T. (1986). Heteroscedasticidad condicional autorregresiva generalizada. Diario de Econo


Métricas, 31(3), 307–327.
Box, G., Jenkins, GM y Reinsel, GC (1994). Análisis de series temporales: Pronóstico y control.
Upper Saddle River, Nueva Jersey: Prentice-Hall.
Campbell, JY, Lo, AW y MacKinlay, AC (1997). La econometría de los mercados financieros.
Princeton: Prensa de la Universidad de Princeton.
CreditMetrics. (1999). Documento técnico (1ª ed.). Nueva York: JP Morgan.
Dickey, DA y Fuller, WA (1979). Distribución de los estimadores para series temporales autorregresivas con raíz unitaria.
Revista de la Asociación Estadounidense de Estadística, 74(366), 427–431.
Engle, RF (1982). Heterocedasticidad condicional autorregresiva con estimaciones de la varianza de la inflación del Reino
Unido. Econométrica, 50(4), 987–1007.
Fama, EF y French, KR (1993). Factores de riesgo comunes en los rendimientos de acciones y bonos.
Revista de Economía Financiera, 33, 3.
Fama, EF (1965). Paseos aleatorios en los precios del mercado de valores. Revista de analistas financieros, 21 (5),
55–59.
Fama, EF (1970). Mercados de capital eficientes: una revisión de la teoría y el trabajo empírico. Diario de
Finanzas, 25(2), 383–417.
Fermi, E. y Richtmyer, RD (1948). Nota sobre el censo en los cálculos de Montecarlo. JUSTICIA,
805(A).
Frenkel, JA y Levich, RM (1981). Arbitraje de intereses cubierto en la década de 1970. cartas de economia,
8(3).
Granger, CWJ y Joyeux, R. (1980). Una introducción a los modelos de series de tiempo de memoria larga y
diferenciación fraccionaria. Revista de análisis de series temporales, 1, 15–30.
Hansen, LP (1982). Propiedades de muestras grandes del método generalizado de estimadores de momentos.
Econométrica, 50(4), 1029–1054.
Harrison, JM y Pliska, SR (1981). Martingales e integrales estocásticas en la teoría del comercio continuo. Procesos
estocásticos y sus aplicaciones, 11(3), 215–260.
Markowitz, H. (1952). Selección de cartera. Diario de Finanzas, 7(1), 77–91.
Merton, RC (1969). Selección de cartera de por vida bajo incertidumbre: el caso de tiempo continuo.
The Review of Economics and Statistics, 51(3), 247–257.
Owen, J. y Rabinovitch, R. (1983). Sobre la clase de distribuciones elípticas y sus aplicaciones
a la teoría de la elección de cartera. Revista de Finanzas, 38, 745–752.
Press, WH, Teukolsky, SA, Vetterling, WT y Flannery, BP (1992). Recetas numéricas en C:
El arte de la computación científica (p. 994). Cambridge: Universidad de Cambridge.
Métricas de riesgo. (1996). Documento técnico (4ª ed.). Nueva York: JP Morgan.
Ross, SA (1978). Separación de fondos mutuos en la teoría financiera: las distribuciones de separación.
Revista de teoría económica, 17, 254–286.
Ross, S. (1976). La teoría del arbitraje de los bienes de capital. Precios. Revista de Teoría Económica, 13,
341–360.
Sharpe, W. (1964). Precios de los activos de capital: una teoría del mercado. equilibrio en condiciones de riesgo.
Revista de Finanzas, 19, 425–442.
Sims, C. (1980). Macroeconomía y realidad. Econométrica, 48(1), 1–48.
Machine Translated by Google

718 K. Vaidyanathan

Sklar, A. (1959). Funciones de distribución N-dimensionales y sus márgenes. Publicaciones del Instituto
de Estadística de la Universidad de París, 8, 229–231.
Tobin, J. (1958). La preferencia por la liquidez como comportamiento frente al riesgo. Revista de Estudios Económicos, 25,
65–86.
Yule, GU (1927). Sobre un método de investigación de periodicidades en series perturbadas, con especial referencia a los
números de manchas solares de Wolfer. Transacciones filosóficas de la Royal Society de Londres, Serie A, 226, 267–
298.
Machine Translated by Google

capitulo 21
Redes Sociales y Analítica Web

Vishnuprasad Nagadevara

1. Introducción

Las redes sociales han creado nuevas oportunidades tanto para los consumidores como para las empresas.
Se ha convertido en uno de los principales impulsores de la revolución del consumidor. Las empresas
pueden analizar los datos disponibles en la web y las redes sociales para obtener información valiosa sobre
lo que quieren los consumidores. Las redes sociales y el análisis web pueden ayudar a las empresas a
medir el impacto de su publicidad y el efecto del modo de entrega del mensaje en los consumidores. Las
empresas también pueden recurrir al análisis de las redes sociales para obtener más información sobre sus
consumidores. Este capítulo analiza varios aspectos de las redes sociales y el análisis web.

2 ¿Qué son las redes sociales y la analítica web?

2.1 ¿Por qué es diferente? ¿Qué cubre todo?

El análisis de redes sociales implica recopilar información de sitios de redes sociales como Facebook,
LinkedIn y Twitter para brindar a las empresas una mejor comprensión de los clientes. Ayuda a comprender
el sentimiento del cliente, creando

Material complementario electrónico La versión en línea de este capítulo (https://doi.org/10.1007/


978-3-319-68837-4_21) contiene material complementario, que está disponible para usuarios autorizados.

V. Nagadevara )
(IIM-Bangalore, Bengaluru, Karnataka, India)
Correo electrónico: nagadevara_v@isb.edu

© Springer Nature Switzerland AG 2019 719


B. Pochiraju, S. Seshadri (eds.), Essentials of Business Analytics, International
Series in Operations Research & Management Science 264, https://doi.org/
10.1007/978-3-319-68837 -4_21
Machine Translated by Google

720 V. Nagadevara

perfiles de clientes y desarrollar estrategias apropiadas para llegar al cliente adecuado en el


momento adecuado. Implica cuatro actividades básicas, a saber, escuchar (agregar lo que se
dice en las redes sociales), analizar (como identificar tendencias, cambios en las preferencias
y los sentimientos de los clientes), comprender (recopilar información sobre los clientes, sus
intereses, preferencias y sentimientos) y elaboración de estrategias (creación de estrategias
y campañas apropiadas para conectarse con los clientes con el fin de fomentar el intercambio
y los comentarios, así como mejorar las referencias). Una de las principales ventajas del
análisis de redes sociales es que permite a las empresas identificar y fomentar diferentes
actividades que generan ingresos y ganancias y realizar ajustes en tiempo real en las
estrategias y campañas. El análisis de las redes sociales puede ayudar a las empresas a
orientar los anuncios de manera más efectiva y, por lo tanto, reducir el costo de la publicidad
y mejorar el ROI.
Por otro lado, el análisis web abarca el proceso de medir, recopilar y analizar datos de
tráfico web para comprender el comportamiento del cliente en un sitio web en particular. El
análisis web puede ayudar a mejorar la experiencia del usuario, lo que conduce a tasas de
conversión más altas. Las empresas pueden modificar el diseño y la funcionalidad de sus
sitios web al comprender cómo interactúan los usuarios con sus sitios web. Pueden rastrear
el comportamiento del usuario dentro del sitio web y cómo los usuarios interactúan con
elementos individuales en cada página del sitio web. El análisis web también puede ayudar a
identificar la fuente de tráfico más rentable para el sitio web y determinar qué referencias son
importantes en términos de inversión en esfuerzos de marketing. Google Analytics es
probablemente la mejor herramienta disponible de forma gratuita para cualquier propietario
de un sitio web para rastrear y analizar el tráfico de su sitio web. Estos análisis incluyen
fuentes de tráfico, tasas de rebote, conversiones, páginas de destino y estadísticas de
búsqueda paga. Es fácil integrar esto con Google AdWords.
Es obvio que el análisis de redes sociales es muy diferente del análisis web.
Las fuentes de datos son diferentes. Estos dos se complementan entre sí y, cuando se usan
juntos, pueden proporcionar información detallada sobre los patrones de tráfico, los usuarios
y su comportamiento. Por ejemplo, se puede medir el volumen de visitantes del sitio web en
función de las referencias de diferentes redes sociales. Al clasificar estas redes sociales
según el tráfico generado, se puede determinar cómo enfocarse en las redes correctas.
Incluso podemos determinar los influencers en las redes y su comportamiento en nuestra web.

2.2 ¿Qué información/ detalles adicionales puede proporcionar?

Muchas empresas han comenzado a aprovechar el poder de las redes sociales. Una aerolínea
en particular mantiene informados a los clientes a través de las redes sociales sobre los
retrasos y las causas de dichos retrasos. En el proceso, la aerolínea puede comunicar de
manera proactiva las causas de los retrasos y, por lo tanto, minimizar el sentimiento negativo
que surge de los retrasos. Además, la compañía aérea también puede ahorrar gran parte del
tiempo de los empleados de su centro de llamadas, porque muchos clientes ya sabían sobre
los retrasos y las razones asociadas con los retrasos y, por lo tanto, no llaman al centro de
llamadas.
Machine Translated by Google

21 Redes Sociales y Analítica Web 721

El análisis de las redes sociales se puede utilizar de manera efectiva para medir la reacción de los clientes
ante un nuevo producto o servicio introducido en el mercado. Las redes sociales brindan la oportunidad de
escuchar a la persona en la calle. La forma más sencilla de hacer esto es escanear varios sitios de redes
sociales como Twitter, Facebook o LinkedIn o varios foros de discusión y blogs. Al analizar estos mensajes y
blogs, la empresa puede comprender las percepciones de los clientes sobre el nuevo producto o servicio.
También es posible analizar la tendencia de las percepciones de los clientes a lo largo del tiempo, así como la
respuesta a diversas campañas de publicidad y marketing. Esta respuesta se puede medir casi en tiempo real.

La optimización de motores de búsqueda (SEO) es otra técnica para adquirir clientes cuando buscan un
producto o servicio específico o incluso una organización.
Por ejemplo, cuando un cliente inicia una búsqueda de un producto, digamos un teléfono inteligente, existe la
posibilidad de sobrecargarse y abrumarse con los resultados de la búsqueda.
Estos resultados contienen tanto "listados pagados" como "listados orgánicos". Los listados de búsqueda
pagados son anuncios que las empresas pagan para que sus anuncios se muestren cuando los usuarios
realizan una búsqueda que contiene palabras clave específicas. Por otro lado, las “listas de búsqueda orgánica”
son las listas de páginas web devueltas por los algoritmos del motor de búsqueda que coinciden estrechamente
con la cadena de búsqueda. Las empresas pueden hacer uso del SEO para que sus sitios web aparezcan más
arriba en los resultados de búsqueda, especialmente entre los listados orgánicos. También pueden iniciar
anuncios en línea y lograr una mayor visibilidad.
Vale la pena que las empresas controlen las publicaciones en varias redes sociales. Uno puede usar las
publicaciones, así como varios blogs y reseñas para monitorear constantemente las opiniones de los clientes
a través de la extracción de opiniones y el análisis de sentimientos. El análisis constante de las opiniones y el
análisis de sentimientos puede ayudar a las empresas no solo a comprender los sentimientos de los clientes,
sino también a desarrollar estrategias para promover aún más el sentimiento positivo o llevar a cabo un control
de daños en caso de sentimiento negativo.
Las empresas también pueden aprender de los comentarios negativos para mejorar sus productos y servicios.
Además, pueden monitorear la respuesta de los clientes a las acciones correctivas tomadas por ellos.

Los sitios web pueden usar cookies, así como direcciones IP, para identificar el historial pasado de los
clientes y sus preferencias. Según el historial anterior y los hábitos de navegación, los clientes pueden recibir
anuncios adecuados. Por ejemplo, si podemos predecir que al cliente le gustan los deportes al aire libre,
podemos dirigirnos a él o ella con una oferta de un paquete de trekking. Las predicciones se pueden hacer
incluso con respecto a una nueva llegada en el sitio web. Por ejemplo, si el cliente tiene una cuenta de
Facebook y llega viendo un anuncio en Facebook, podemos identificar sus pasatiempos e intereses y presentar
anuncios apropiados.

Se ha vuelto muy común que los clientes miren las reseñas y recomendaciones de productos (o servicios)
que se publican en varios sitios web, antes de tomar una decisión.
Muchos sitios web (como TripAdvisor) presentan un análisis de las opiniones y un resumen de las opiniones
para ayudar a los clientes a tomar la decisión adecuada. Al presentar el resumen de las reseñas, las empresas
pueden hacer ofertas adecuadas para facilitar una rápida aceptación.

El análisis de las palabras clave de uso frecuente en los motores de búsqueda puede ayudar a identificar
los problemas y preocupaciones actuales. Puede revelar el sentimiento público hacia los mercados emergentes.
Machine Translated by Google

722 V. Nagadevara

problemas, así como la actitud pública hacia los partidos políticos. Puede ayudar a identificar focos
de apoyo político. También puede ayudar a crear campañas y formulación de políticas apropiadas
para aprovechar al máximo los sentimientos predominantes.
Es muy común tener líderes y seguidores en las redes sociales. Mediante el uso de análisis de
red (como diagramas de red e influencia), las organizaciones pueden identificar a las personas más
influyentes en la red. Las organizaciones pueden tomar la ayuda de tales personas influyentes para
promover un nuevo producto o servicio. Se les puede solicitar que contribuyan con una revisión
imparcial o un artículo sobre el producto o servicio.
Tal revisión (o recomendación) puede ayudar a promocionar el nuevo producto o servicio al resolver
la incertidumbre o vacilación en la mente de los seguidores.
Los diagramas de red e influencia se utilizan de manera muy efectiva para identificar a los actores
clave en varios fraudes financieros o cárteles de lavado de drogas. Uno de esos estudios identificó a
los perpetradores de los ataques del 11 de septiembre mediante el uso de un diagrama de red
basado en la información disponible en el dominio público. El diagrama de la red podría identificar
claramente a los actores clave involucrados en el 11 de septiembre a partir de los dos sospechosos
del atentado de Cole que establecieron sus residencias en California ya en 19991.
El análisis de las redes sociales también se puede utilizar para el bien público. Los datos de los
teléfonos móviles se utilizan para identificar y predecir las condiciones del tráfico. Por ejemplo, Google
Traffic analiza datos provenientes de una gran cantidad de usuarios de dispositivos móviles. Los
proveedores de servicios de telefonía celular monitorean constantemente la ubicación de los usuarios
mediante un método llamado “trilateración” donde se mide la distancia de cada dispositivo a tres o
más torres de telefonía celular. También pueden obtener la ubicación exacta del dispositivo mediante GPS.
Al calcular la velocidad de los usuarios a lo largo de un tramo particular de la carretera, Google
genera un mapa de tráfico que destaca las condiciones del tráfico en tiempo real. Usando las
condiciones de tráfico existentes en diferentes rutas, se pueden sugerir mejores rutas alternativas.
Con la llegada de los teléfonos inteligentes, los dispositivos móviles se han convertido en la fuente
más popular para consumir información. Este fenómeno ha llevado al desarrollo de nuevos enfoques
para llegar a los consumidores. Uno de esos enfoques es el geo-cercado. Se trata de crear un
perímetro virtual para un área geográfica y permitir que las empresas sepan exactamente cuándo es
probable que un cliente en particular (o cliente potencial) pase por una tienda o ubicación. Estos
perímetros virtuales pueden generarse dinámicamente o pueden ser límites predefinidos. Este
enfoque permite a las empresas brindar información relevante o incluso entregar cupones en línea al
cliente potencial. El concepto de geo-cercado se puede combinar con otra información basada en el
historial de búsqueda anterior, transacciones anteriores, datos demográficos, etc. para orientar mejor
al cliente con el mensaje correcto.

En el resto del capítulo, describimos algunas aplicaciones con mayor detalle: publicidad gráfica
en tiempo real, experimentos A/B para medir el valor de los medios digitales y manejar los desafíos
de la venta minorista electrónica, publicidad en motores de búsqueda basada en datos, análisis de
atribución digital y estrategias y análisis para redes sociales y empresas sociales y análisis móvil e
innovación abierta.

1Valdis Krebs, “Conectando los Puntos; Tracking Two Identified Terrorists” disponible en http://www.
orgnet.com/tnet.html (último acceso el 18 de enero de 2018).
Machine Translated by Google

21 Redes Sociales y Analítica Web 723

3 Publicidad gráfica en tiempo real

Internet ofrece nuevas posibilidades para los enfoques creativos de la publicidad. La publicidad en
Internet también se denomina publicidad en línea y abarca los anuncios gráficos que se encuentran
en varios sitios web y páginas de resultados de consultas de búsqueda y los que se colocan en
correos electrónicos y redes sociales. Estos anuncios gráficos se pueden encontrar dondequiera que
acceda a la web. Como en el caso de cualquier otro modo de publicidad, el objetivo de la publicidad
gráfica es aumentar las ventas y mejorar la visibilidad de la marca. La principal ventaja de los
anuncios gráficos es que todas las acciones del usuario son rastreables y cuantificables. Podemos
realizar un seguimiento de varias métricas, como la cantidad de veces que se mostró, cuántos clics
recibió, los datos posteriores al clic y la vista y a cuántos usuarios únicos se llegó. Estos anuncios
gráficos pueden ser omnipresentes y colocarse en cualquier lugar y en cualquier tipo de página web.
Pueden ser en forma de texto, imágenes, videos y elementos interactivos. Otra ventaja de los
anuncios gráficos es que la conversión y las ventas son instantáneas y se logran con un solo clic.

Hay diferentes tipos de anuncios publicitarios. El más popular es el anuncio publicitario. Suele
ser una imagen gráfica, con o sin animación, que se muestra en una página web. Estos anuncios
suelen estar en imágenes GIF o JPEG si son estáticos, pero usan Flash, JavaScript o video si hay
animaciones involucradas. Estos anuncios publicitarios permiten al usuario interactuar y realizar
transacciones. Estos pueden ser de diferentes tamaños y se pueden colocar en cualquier parte de
la página web (generalmente en la barra lateral). Debe realizar las pruebas o experimentación
adecuadas (consulte la sección Diseños experimentales de este capítulo) para saber qué funciona
mejor para usted.
Puede diseñar su banner como URL(s) de destino único o múltiple.
Hay banners que aparecen entre páginas. A medida que pasa de una página a la siguiente
mediante clics, estos anuncios se muestran antes de que se cargue la página siguiente. Estos tipos
de anuncios se conocen como banners intersticiales.
Los anuncios gráficos se pueden abrir en una nueva ventana pequeña sobre la página web que
se está viendo. Por lo general, se denominan ventanas emergentes. Érase una vez, estos anuncios
emergentes fueron muy populares, pero la llegada de los "bloqueadores de ventanas emergentes"
en los navegadores web había disminuido la eficacia de los anuncios emergentes. Los usuarios
pueden ser muy selectivos al permitir las ventanas emergentes de sitios web preseleccionados.
También hay otros similares llamados pop-under donde un anuncio abre una nueva ventana del
navegador debajo de la ventana original.
Algunas de las empresas locales pueden mostrar un anuncio en línea sobre un mapa (por
ejemplo, Google Maps). La ubicación del anuncio puede basarse en la cadena de búsqueda utilizada
para recuperar el mapa. Estos se conocen generalmente como anuncios de mapas.
De vez en cuando, un anuncio aparece como una película translúcida sobre la página web.
Estos se llaman anuncios flotantes. Generalmente, estos anuncios tienen un botón de cierre, y el
usuario puede cerrar el anuncio haciendo clic en el botón de cerrar. A veces, estos anuncios flotan
sobre la página web durante unos segundos antes de desaparecer o disolverse. En tal caso, no hay
clics involucrados y, por lo tanto, es difícil medir la efectividad de dichos anuncios.
Machine Translated by Google

724 V. Nagadevara

Los sitios web generalmente están diseñados para mostrarse en un ancho fijo y en el centro de
la ventana del navegador. Normalmente, esto deja una cantidad considerable de espacio alrededor
de la página. Algunos anuncios gráficos aprovechan estos espacios vacíos. Estos anuncios se
denominan anuncios de papel tapiz.

3.1 ¿Cómo hacer que se muestren los anuncios?

Hay muchas opciones para que los anuncios se muestren en línea. Algunos de éstos se discuten a
continuación.
Una de las opciones más populares es colocar los anuncios en las redes sociales.
Puede hacer que sus anuncios se muestren en las redes sociales como Facebook, Twitter y LinkedIn.
En general, Facebook ofrece un espacio publicitario estándar en la barra lateral derecha. Estos
anuncios se pueden colocar en función de la información demográfica, así como de los pasatiempos
e intereses, lo que puede facilitar la orientación al público adecuado. Además de estos anuncios,
Facebook también ofrece anuncios de participación que facilitarán un punto de acción adicional,
como un botón Me gusta o un botón Compartir o un botón para participar en una encuesta o incluso
para agregar un video. Las historias o publicaciones patrocinadas también se pueden usar para
promocionar un aspecto específico de una marca. Estas historias o publicaciones pueden aparecer
como fuentes de noticias. Incluso puede publicar una publicación existente en Facebook.
Twitter también permite anuncios. Algunos tweets promocionales aparecen en la parte superior
de la línea de tiempo del usuario. La sección "A quién seguir" también se puede utilizar para
recomendar su cuenta a un precio. Por lo general, el pago se realiza cuando un usuario sigue una
cuenta promocionada. La sección de Tendencias de Twitter también está disponible para anuncios.
Si bien esta sección está destinada a los temas más populares en un momento determinado, el
espacio también está disponible para los clientes de anuncios de Twitter de servicio completo.
LinkedIn permite anuncios dirigidos con respecto al título del trabajo, la función del trabajo, la
industria, la geografía, la edad, el género, el nombre y el tamaño de la empresa, etc. Estos anuncios
se pueden colocar en la página de inicio del usuario, en la página de resultados de búsqueda o en
cualquier otra página destacada.
Los anuncios en línea se pueden reservar a través de un proveedor de medios premium, al igual
que uno reservaría desde una agencia de publicidad tradicional. Un proveedor de medios premium
generalmente tiene acceso a un espacio en línea de alto perfil y también puede asesorar sobre varias
opciones disponibles.
Otra opción es trabajar con una red de publicidad. Aquí, una sola entidad de ventas puede
proporcionar acceso a una serie de sitios web. Esta opción funciona mejor si la colección de sitios
web es propiedad o está administrada por una entidad común, como HBO o Times Inc. La Red de
Display de Google es otra entidad de este tipo. Por lo general, la red de publicidad puede ofrecer
orientación, seguimiento y preparación de informes analíticos, además de proporcionar un servidor
centralizado que es capaz de publicar anuncios en varios sitios web. Esta red publicitaria también
puede asesorarte en función de varios factores que influyen en la respuesta, como la demografía o
varios temas de interés.
Machine Translated by Google

21 Redes Sociales y Analítica Web 725

Si está buscando inventario publicitario (espacio publicitario no vendido), los intercambios


publicitarios pueden ayudar. Los editores colocan su espacio no vendido en el intercambio y se
vende al mejor postor. El intercambio trata de igualar la oferta y la demanda a través de ofertas.

Una de las formas de publicidad gráfica de más rápido crecimiento es la publicidad móvil.
La publicidad móvil incluye anuncios SMS y MMS. Teniendo en cuenta que el móvil es un medio
masivo intensamente interactivo, los anunciantes pueden utilizar este medio para el marketing viral.
Es fácil para el destinatario de un anuncio reenviarlo a un amigo. A través de este proceso, los
usuarios también se vuelven parte de la experiencia publicitaria.
Hay redes ciegas como www.buzzcity.com lo que le ayudará a dirigirse a un gran número de
editores móviles. Se puede usar una categoría especial de redes ciegas (que se pueden llamar
redes ciegas premium) para apuntar a sitios de alto tráfico.
Los sitios www.millennialmedia.com y www.widespace.com son buenos ejemplos de redes
premium para ciegos.
Los servidores de anuncios juegan un papel importante en la publicidad gráfica. Estos
servidores pueden ser propiedad de los propios editores o de un tercero y se utilizan para
almacenar y publicar anuncios. La ventaja de los servidores de anuncios es que una simple línea
de código puede llamar al anuncio desde el servidor y mostrarlo en la página web designada.
Dado que el anuncio se almacena en un solo lugar, cualquier modificación debe realizarse en un
solo lugar. Además, los servidores de anuncios pueden proporcionar todos los datos con respecto
al número de impresiones, clics, descargas, clientes potenciales, etc. Estas estadísticas se pueden
obtener de múltiples sitios web. Un ejemplo de un servidor de anuncios de terceros es Google
DoubleClick.

3.2 Publicidad gráfica programática

La publicidad programática es “la automatización de la compra y venta de anuncios de


visualización de escritorio, video, FBX y móviles mediante ofertas en tiempo real. La programática
describe cómo se reservan, distribuyen, analizan y optimizan las campañas en línea a través de
interfaces y algoritmos de software del lado de la demanda (DSP)”2.
Tradicionalmente, se supone que los visitantes en línea están expuestos a un anuncio gráfico
cuando de alguna manera llegan a un sitio web. La orientación del anuncio se basa en un
conocimiento limitado con respecto a la relevancia del contenido, la geografía, el tipo de dispositivo,
etc. El anunciante llega a un acuerdo con el editor con respecto al número de inserciones a un
precio determinado. En otras palabras, el anuncio gráfico se compra a la antigua usanza,
negociando la cantidad de exposiciones/inserciones y el precio, y se sirve a una gran cantidad de
consumidores potenciales con la esperanza de que de alguna manera llegue a las personas
adecuadas.
Hoy en día, la visualización programática ofrece anuncios gráficos en tiempo real con mensajes
específicos basados en el perfil y el comportamiento de cada consumidor individual. Con el

2Gurbaksh Chahal, presidente y director ejecutivo de RadiumOne.


Machine Translated by Google

726 V. Nagadevara

evolución de las tecnologías recientes, el enfoque se está desplazando hacia la comprensión de cada cliente
individual y exponerlo a la pantalla correcta. Este proceso está impulsado por tecnologías en tiempo real que
utilizan algoritmos especialmente diseñados. El resultado es la publicidad gráfica programática.

Hay oportunidades para mostrar miles de millones de anuncios todos los días y los anunciantes pueden
usarlos de manera efectiva para mejorar las tasas de conversión. La tecnología permite al anunciante obtener
información inmediata sobre dónde se mostró el anuncio, a quién se le mostró y durante cuánto tiempo. Esto
ayuda al anunciante a analizar y revisar el anuncio gráfico muy rápidamente y a tomar las medidas necesarias,
incluida la detención del anuncio, si no funciona como se esperaba.

Los principales componentes de la publicidad gráfica programática son los siguientes:

(a) Plataforma del lado de la oferta (SSP)


El SSP ayuda a los editores a administrar y optimizar mejor su espacio publicitario en línea y su
inventario publicitario. SSP interactúa constantemente con el intercambio de anuncios y la plataforma
del lado de la demanda (DSP). Admeld (www.admeld.com) y Rubicon (https://rubiconproject.com/) son
dos ejemplos de SSP.
(b) Plataforma del lado de la demanda (DSP)
El DSP permite a los anunciantes establecer y aplicar varios parámetros y automatizar la compra
de las pantallas. También les permite monitorear el desempeño de sus campañas. Gire (ahora Amobee,
https://www.amobee.com/), AppNexus (https://www.appnexus.com/) y Rocket Fuel (https://
rocketfuel.com/ ) son algunos de los DSP. (c) Intercambio de anuncios

Los intercambios de anuncios como Facebook Ad Exchange o DoubleClick Ad Exchange facilitan la


compra del inventario de visualización disponible a través de subastas. Estas subastas están
automatizadas y tienen lugar en milisegundos, antes de que se cargue una página web en la pantalla
del consumidor. Estos permiten a los editores optimizar el precio de su inventario disponible. (d) Editor
Los editores son aquellos que proporcionan el inventario de anuncios gráficos. (e) Anunciante El
anunciante puja por el inventario en tiempo real dependiendo de la relevancia del inventario.

Las ofertas en tiempo real (RTB) son un proceso integral de visualización de anuncios programáticos.
tising y se describe en la Fig. 21.1.
Cada vez que un consumidor realiza una solicitud de una página web y si hay espacio disponible para un
anuncio gráfico, la información sobre el consumidor/visitante, el contexto de la página web solicitada y el
comportamiento web anterior se envía a un intercambio de anuncios a través del editor. El intercambio de
anuncios subasta el espacio disponible a varios DSP, y el anuncio de oferta/display ganador se pasa al editor.
El anuncio se muestra en la pantalla del consumidor mientras se carga la página solicitada. Este proceso se
completa en unos pocos milisegundos para que no haya demoras en la carga de la página que afecten
negativamente la experiencia del usuario.
Machine Translated by Google

21 Redes Sociales y Analítica Web 727

El consumidor "C" hace clic en El editor comprueba si un anuncio


Ad Exchange transmite la
una URL y el contenido está disponible; de lo contrario, se
disponibilidad a múltiples DSP
comienza a cargarse pone en contacto con el anuncio.

Intercambio

Envíos de Ad Exchange Cada DSP analiza las reglas Los DSP responden al anuncio

datos sobre el perfil de “C”, de destino y presupuesto, Intercambio, Anuncio

categoría del sitio web y otra calcula la oferta óptima Exchange selecciona la oferta
información ganadora

Ad Exchange envía el anuncio El editor envía el anuncio al Navegador informa


ganador y la oferta al editor. navegador y el navegador DSP que el anuncio fue

muestra el anuncio ganador mostrado y visto

Fig. 21.1 Diagrama de flujo de licitación en tiempo real

Todo el proceso descrito anteriormente toma menos de medio segundo. En otras palabras,
todo el proceso se completa y el anuncio gráfico se muestra mientras el navegador está
cargando la página solicitada en la pantalla del consumidor.
Este proceso de hacer coincidir la pantalla correcta con el consumidor correcto es completamente
impulsado por datos. Datos con respecto al contexto, quién va a ver la pantalla, el perfil de
el consumidor, que es un buen target, etc. es parte del proceso. Para completar
el proceso en un lapso de tiempo muy corto, es necesario construir todas las reglas
de antemano en el sistema. El anunciante habría analizado todos los datos y
identificado el perfil adecuado, el número posible de exposiciones del anuncio y el
reglas para ofertar de antemano, basadas en su propio análisis. Las reglas tratan de igualar el
información sobre el contexto, perfil del consumidor y espacio disponible recibido
del editor con el requisito y desencadenar ofertas automáticas.
La publicidad gráfica programática beneficia tanto a los editores como a los anunciantes. Los
anunciantes se benefician al dirigirse efectivamente solo a aquellos que coinciden con el
perfiles existentes. Estos perfiles se pueden obtener analizando sus propios datos o
Machine Translated by Google

728 V. Nagadevara

de terceros. Con el contexto integrado en el proceso, el anunciante puede llegar a los


consumidores que buscan el contenido más relevante para el producto o servicio que ofrece
el anunciante. Pueden ser muy selectivos en términos del sitio web y el contexto adecuado.
No tienen que atarse a un precio y una cantidad prenegociados. Pagarán solo por la
exposición relevante que se hizo al público objetivo más relevante. El anunciante puede
analizar datos con respecto a las visitas al sitio web, tasas de rebote, esfuerzos de marketing
anteriores, etc. para mejorar las conversiones. También permite al anunciante revisar y
revisar rápidamente las estrategias publicitarias en lugar de esperar a que se complete toda
la campaña.
Los editores ganan al maximizar los ingresos mediante la subasta del espacio disponible.
Cada anuncio se subasta al mejor postor según el contexto y el perfil del consumidor.
También les permite optimizar el espacio publicitario disponible.
La publicidad gráfica programática abre otra oportunidad en la publicidad gráfica. Los
anunciantes pueden utilizar la optimización creativa dinámica (DCO) para mejorar las tasas
de conversión. DCO implica dividir un anuncio en varios componentes y crear diferentes
versiones de cada componente. Estos componentes pueden ser con respecto al contenido,
las imágenes, los colores, etc. Estos componentes luego se ensamblan dinámicamente para
adaptarse a un consumidor en particular según el contexto, el perfil, la demografía y el
historial de navegación anterior. Estos detalles, junto con cualquier otra información
disponible (como la hora del día o el clima en ese momento en particular) se introducen en
la plataforma DCO. El anuncio gráfico se ensambla en función de esta información, utilizando
reglas predeterminadas antes de enviarlo al servidor del editor. Por lo tanto, DCO puede
aprovechar los parámetros de orientación recibidos del intercambio de anuncios para crear
(ensamblar) de manera óptima el anuncio adecuado.
Se espera que la publicidad gráfica programática solo en los EE. UU. alcance más de $
45 mil millones para 2019 (Fig. 21.2).

4 experimentos A/B para medir el valor de los medios digitales


y manejo de desafíos de venta minorista electrónica

Se sabe que las empresas de tecnología web como Amazon, Facebook, eBay, Google y
LinkedIn utilizan pruebas A/B para desarrollar nuevas estrategias y enfoques de productos.
Las pruebas A/B (también llamadas divisiones A/B o experimentación controlada) son una
de las técnicas basadas en datos ampliamente utilizadas para identificar y cuantificar las
preferencias y prioridades de los clientes. Esto se remonta a los experimentos de Sir Ronald
A. Fisher en la Estación Experimental Agrícola de Rothamsted en Inglaterra en la década de
1920. Se llamó divisiones A/B porque el enfoque consistía en cambiar solo una variable a la vez.
La publicación del libro de Ronald Fisher The Design of Experiments cambió el enfoque
donde los valores de muchas variables se cambian simultáneamente y se estima el impacto
de cada una de las variables. Estos diseños experimentales usan ampliamente el concepto
de ANOVA (discutido en el capítulo anterior), con las modificaciones apropiadas.
Machine Translated by Google

21 Redes Sociales y Analítica Web 729

Fig. 21.2 Gasto en publicidad de


display digital programático de EE . UU.

4.1 Diseño completamente aleatorizado

El más simple de los diseños experimentales es el diseño completamente al azar (CRD).


Los experimentos de Internet que presentan uno de varios mensajes publicitarios a los
usuarios de los motores de búsqueda son ejemplos típicos de CRD. Si bien hay un conjunto
predeterminado de k mensajes publicitarios ofrecidos a los usuarios, cada usuario está
expuesto a uno y solo un mensaje. La respuesta se mide por la tasa de aciertos (proporción
de quienes hacen clic en el mensaje para acceder al sitio web en particular en respuesta al
mensaje). Considere un escenario en el que se lleva a cabo un experimento para evaluar
el efecto de un anuncio publicitario. Se diseñaron tres tipos diferentes de anuncios (a saber,
A, B y C) y se mostraron aleatoriamente en cinco motores de búsqueda diferentes, y el
experimento se llevó a cabo durante 3 semanas. Los usuarios son llevados a una página
web específica cuando los usuarios hacen clic en el anuncio de visualización. El número
de visitantes a la página de destino se cuenta y se utiliza como medida de la eficacia de la
visualización. Aquí, los tres tipos de pantallas se denominan tratamientos. Se asigna
aleatoriamente un tipo particular de visualización para un motor de búsqueda particular en
una semana determinada para mostrar a los usuarios. El resumen de los visitantes basado
en las tres pantallas diferentes se presenta en la Tabla 21.1.
Las observaciones anteriores provienen de tres grupos de tratamiento diferentes, cada
grupo tiene cinco observaciones (repeticiones). En general, cada observación se puede
denotar con Yij, donde i representa los tratamientos y j representa el número de repeticiones.
Aunque el ejemplo anterior tiene el mismo número de repeticiones para cada
Machine Translated by Google

730 V. Nagadevara

Tabla 21.1 Número de


Tipo de pantalla
visitantes de la página web basados
A B C
en el tipo de pantalla
Número de visitantes 2565 2295 2079
864 2430 3051
1269 2133 2619
2025 1350 3105
2241 864 3348
norte 5 5 5

Promedio 1793 1814 2840


Diferencia 497.032 457.593 250.193
Número de clics 574 592 501
175 575 630
240 449 507
444 302 587
405 160 547

tratamiento, no es necesario tener un número igual de repeticiones. Lo anterior


experimento se llama balanceado porque cada tratamiento tiene el mismo número de
replicaciones.
Los datos anteriores se pueden analizar para cualquier diferencia significativa entre la población
significa usar ANOVA.

H0: ÿ1 = ÿ2 = ÿ3.
H1: al menos un ÿ es diferente.

La prueba F que se muestra en la Tabla 21.3 indica que hay una diferencia significativa en la
respuesta a diferentes pantallas.
El CRD se puede representar como un modelo de regresión. Como todo el mundo está familiarizado
con análisis de regresión y muchos paquetes estadísticos tienen módulos de regresión,
representar y analizar CRD como un modelo de regresión hace que sea fácil de analizar y
interpretar los resultados.
El modelo de regresión para CRD es

Yij = ÿ + ÿi + ÿij

donde Yij es la respuesta correspondiente al i-ésimo tratamiento y j-ésima replicación


ÿ es la media general
ÿi es el efecto del tratamiento y
ÿij es el error aleatorio
Dado que los tratamientos son variables nominales, estas se representan como dummy
variables Como hay tres tratamientos, estos estarán representados por dos dummy
variables Tipo de pantalla "A" está representado por D1 = 1 y D2 = 0, "B" es
representado por D1 = 0 y D2 = 1, y "C" está representado por D1 = 0 y D2 = 0.
Los datos reformateados con variables ficticias según lo requerido para la regresión y el
los resultados del análisis de regresión se presentan en la Tabla 21.2 (a) y (b).
Machine Translated by Google

21 Redes Sociales y Analítica Web 731

Tabla 21.2 (a) Datos reformateados con variables ficticias para el experimento CRD. (b) Regresión
resultados del experimento CRD

(a) Datos reformateados con variables ficticias para el experimento CRD


D1 D2
Yay 2565 1 0
864 1 0
1269 1 0
2025 1 0
2241 1 0
2295 0 1
2430 0 1
2133 0 1
1350 0 1
864 0 1
2079 0 0
3051 0 0
2619 0 0
3105 0 0
3348 0 0

(b) Resultados de la regresión del experimento CRD


Estadísticas de regresión
Múltiples R 0.6531

R Plaza 0.4265

R cuadrado ajustado 0.3309


Error estándar 633.7240
Observaciones 15

2 SS EM F

Regresión _ 3.584.347 1.792.174 4.4625


Residual 12 4,819,273 401.606,1
Total 14 8,403,620
Coeficientes Error estándar t estadística valor p

Interceptar 2840.4 283.41 10.0222 0.0000


D1 ÿ1047,6 400.8022 ÿ2,6138 0.0226
D2 ÿ1026.0 400.8022 ÿ2.5599 0.0250

Puede verse que la tabla ANOVA calculada en la Tabla 21.3 es idéntica a la


Tabla ANOVA obtenida del análisis de regresión. Además, la regresión
los coeficientes correspondientes a las variables ficticias D1 y D2 son negativos y
Estadísticamente significante. Esto implica que Display C (que se omitió al crear
las variables ficticias) ha resultado en visitantes significativamente más altos que Displays
A y B. El intercepto y otros coeficientes de regresión se pueden interpretar como el
diferencias entre las respuestas medias de las tres pantallas. Las diferencias por parejas
en los efectos del tratamiento se pueden obtener mediante pruebas post hoc.
Machine Translated by Google

732 V. Nagadevara

Tabla 21.3 Tabla ANOVA

Fuente de variación SS MS F Valor P F crítico

Entre grupos 3.584.347 2 1,792,174 4.4625 0.0356 3.8853

Dentro de grupos 4.819.273 12 401,606


Total 8.403.620 14

Tabla 21.4 Tasas de clics

Bloque (motor de búsqueda)


Tratamiento SE1 SE2 SE3 SE4 SE5 Promedio
A 0.2236 0.2021 0.1892 0.2193 0.1806 0.2030
B 0.2580 0.2365 0.2107 0.2236 0.1849 0.2227
C 0.2408 0.2064 0.1935 0.1892 0.1634 0.1987

Promedio 0.2408 0.2150 0.1978 0.2107 0.1763 0.2081

4.2 Diseño de bloques completos al azar

En el experimento anterior, es posible que haya un efecto del motor de búsqueda, en


además del efecto del tipo de visualización. En otras palabras, hay dos fuentes de
variación, el tipo de visualización y el motor de búsqueda. Dado que las pantallas son aleatorias
asignados a los motores de búsqueda y semanas, es posible que las 3 semanas seleccionadas
para el primer motor de búsqueda se le podría haber asignado Display A, mientras que ninguna semana
se asigna a la Pantalla A para el segundo motor de búsqueda. Es necesario correr
el experimento en "bloques" si necesitamos aislar el efecto de visualización, así como
el efecto del motor de búsqueda. Tal diseño se llama diseño completo al azar.
diseño de bloques En otras palabras, el experimento debe ejecutarse en bloques tales que
los tres tipos de visualización se prueban en cada motor de búsqueda en cada una de las semanas.
Cuando los visitantes llegan a la página de destino, pueden "hacer clic" en la página para obtener
Información Adicional. Se registra el número de clics y la tasa de clics
se calcula como Tasa de clics (CTR) = Número de clics/Número de visitantes.
El diseño y los resultados se muestran en la Tabla 21.4.
En un diseño general de bloques al azar, hay k tratamientos y b bloques. los
las observaciones están representadas por Yij donde i representa los tratamientos y j representa
los bloques
Los datos anteriores se pueden analizar para diferencias entre medias mediante ANOVA,
excepto que las sumas de cuadrados correspondientes a tratamientos y bloques tienen que
estimarse por separado. Las fórmulas para calcular estas sumas de cuadrados son
presentado de la siguiente manera:

SS(Tratamiento) = b Y yo. ÿ Y ..2


yo=1
Machine Translated by Google

21 Redes Sociales y Analítica Web 733

b
SS(Bloque) = k Y .j ÿ Y ..2
yo=1

k b
SS(Total) = Yij ÿ Y ..2
yo=1 j=1

SS(Error) = SS(T otal) ÿ SS(T ratamiento) ÿ SS(Bloqueo)

k b
SS (Error) también se puede calcular como Yij ÿ Y i. ÿ Y .j + Y ..2
yo=1 j=1

dónde

Yij es la medida correspondiente al i-ésimo tratamiento y al j-ésimo bloque,

Y yo. es el promedio del i-ésimo tratamiento,

Y .j es el promedio del j-ésimo bloque y

Y
..
es la media general.

El grado de libertad para el tratamiento es k ÿ 1 y el de bloque es b ÿ 1. Mientras que


el grado de libertad total es kb ÿ 1, el grado de libertad de error es (k ÿ 1) (b ÿ 1).
La tabla ANOVA para los datos anteriores se presenta en la Tabla 21.5.
De la tabla ANOVA se puede concluir que existen diferencias significativas
en las respuestas entre los tipos de visualización, así como los motores de búsqueda. la estadistica
la importancia es mucho mayor (valor p = 0,0008) en el caso del bloque (motor de búsqueda)
que la del tratamiento (tipo de visualización).

Tabla 21.5 Tabla ANOVA para los datos del experimento


ANOVA
Fuente de variación SS MS F Valor P F crítico
Tratamiento 0.0016 2 0.0008 7.6239 0.0140 4.4590
Bloquear 0.0067 4 0.0017 15.5385 0.0008 3.8379
Error 0.0009 8 0.0001
Total 0.0092 14
Machine Translated by Google

734 V. Nagadevara

El modelo de regresión para el diseño de bloques completos al azar se puede representar por

Yij = ÿ + ÿi + ÿj + ÿij

donde Yij es la respuesta para i-ésimo tratamiento y j-ésimo bloque


ÿ es la media
ÿi es el efecto del Tratamiento i
efecto ÿj del Bloque j y
ÿij es el error aleatorio
La codificación de los datos anteriores para el análisis de regresión se muestra en la Tabla 21.6. los
se representan las variables ficticias correspondientes a los tratamientos (tipos de visualización)
por Ti, y los correspondientes a bloques (motores de búsqueda) están representados por SEj.
Como es habitual, se omiten las variables ficticias correspondientes a T3 y SE5. los
El resultado de la regresión se presenta en la Tabla 21.7.
Se puede ver que la suma de los cuadrados de la regresión es igual a la suma de los
“tratamiento suma de cuadrados” y “bloque suma de cuadrados”. En consecuencia, la “F”
el valor es diferente También se puede ver que todos los efectos de tratamiento y efectos de bloqueo
son significativos, lo que indica que los efectos de T1 y T2 son significativamente mejores que
la de T3. De manera similar, los efectos de los primeros cuatro motores de búsqueda (SE1 a SE4) son
significativamente mejor que la de SE5. Las comparaciones por pares se pueden obtener mediante
ejecutando pruebas post hoc.

Tabla 21.6 Codificación para Y T1 T2 SE1 SE2 SE3 SE4


análisis de regresión
SE1 0.2236 1 0 1 0 0 0
B SE1 0.2580 0 1 1 0 0 0
SE1 0.2408 0 0 1 0 0 0
SE2 0.2021 1 0 0 1 0 0
SE2 0.2365 0 1 0 1 0 0
C SE2 0.2064 0 0 0 1 0 0
SE3 0.1892 1 0 0 0 1 0
SE3 0.2107 0 1 0 0 1 0
SE3 0.1935 0 0 0 0 1 0
SE4 0.2193 1 0 0 0 0 1
BSE4 0,2236 0 1 0 0 0 1
SE4 0.1892 0 0 0 0 0 1
SE5 0.1806 1 0 0 0 0 0
B SE5 0.1849 0 1 0 0 0 0
SE5 0.1634 0 0 0 0 0 0
Machine Translated by Google

21 Redes Sociales y Analítica Web 735

Cuadro 21.7 Resultados del análisis de regresión

Estadísticas de regresión
Múltiples R 0.9520

R Plaza 0.9063

R cuadrado ajustado 0.8361


Error estándar 0.0104
Observaciones 15
ANOVA

6 SS EM F Significado F
Regresión _ 0.0084 0,0014 12,9003 0,0010
Residual 8 0.0009 0.0001
Total 14 0.0092

Coeficientes Error estándar t stat 0.0071 valor p

Interceptar 0.1668 23.4828 0.0000


T1 0.0043 0.0066 0.6537 0.5316
T2 0.0241 0.0066 3.6608 0.0064
SE1 0.0645 0.0085 7.5955 0.0001
SE2 0.0387 0.0085 4.5573 0.0019
SE3 0.0215 0.0085 2.5318 0.0352
SE4 0.0344 0.0085 4.0510 0.0037

4.3 Análisis de experimentos multivariados

El verdadero poder de los diseños experimentales se siente cuando tenemos que estimar los efectos
de una serie de variables simultáneamente. Por ejemplo, considere un escenario donde un
empresa está contemplando un anuncio de visualización en particular. han identificado
tres variables diferentes (factores), cada una con dos niveles, para probar. Estas son fuentes
(fuente tradicional frente a moderna), color de fondo (blanco frente a azul) y botón de clic
diseño (simple "Está bien" frente a grande "Haga clic ahora para unirse"). Las copias del anuncio son aleatorias.
mostrado a cada espectador, y la tasa de conversión (definida como aquellos que hacen clic para
acceder al sitio web y unirse como miembros (sin costo)). en lo tradicional
diseño experimental, como CRD, primero decidiremos cuál es probable que
ser lo más importante. Digamos que el botón de clic es el más importante. Entonces nosotros
combinaría cada uno de los dos niveles del botón de clic con uno de los otros dos
factores (digamos, fuente tradicional y fondo blanco) y ejecute cuatro repeticiones. Este
en realidad implica ocho ejecuciones (cuatro de cada botón simple + fuente tradicional + blanco
fondo y botón grande + fuente tradicional + fondo blanco). La resultante
la tasa de conversión se puede usar para decidir qué tipo de botón de clic es más efectivo
(digamos, botón grande). Ahora, seleccionaremos el color de fondo para la experimentación.
Como ya tenemos la combinación con fondo blanco, ahora seleccionaremos
fondo azul y combínalo con “botón grande” (ya que era más efectivo)
y fuente tradicional y ejecutar cuatro réplicas. Suponga que los resultados muestran que azul
fondo es más efectivo. Ahora, seleccionamos la combinación de botón grande y
Machine Translated by Google

736 V. Nagadevara

Tabla 21.8 Diseño factorial de codificación

Factor Nivel 1 (código) Nivel 2 (código)


Fuente Tradicional (ÿ1) Moderno (+1)
Color de fondo Blanco (ÿ1) Azul (+1)
Haga clic en el diseño del botón Simple “Está bien” (ÿ1) Grande "Haga clic ahora para unirse" (+1)

fondo azul y combínelo con fuente tradicional y fuente moderna. Ya tenemos cuatro tiradas
de letra tradicional, color azul y botón grande. Ahora tenemos que realizar cuatro tiradas
de la combinación de fuente moderna, color azul y botón grande.
Por lo tanto, tenemos un total de 16 carreras. Estas 16 ejecuciones nos ayudarán a estimar
los efectos de la fuente, el color de fondo y el tipo de botón de clic. Pero también es posible
que pueda haber efectos de interacción entre estos factores. Por ejemplo, una combinación
de botón pequeño con fondo azul y fuente moderna podría ser mucho más efectiva que
cualquier otra combinación. Tenga en cuenta que no experimentamos con esta combinación
en particular y, por lo tanto, no tenemos forma de estimar este efecto. Lo mismo ocurre
con muchas otras interacciones.
El diseño factorial desarrollado por Ronald Fisher es un enfoque mucho mejor. Con tres
factores y dos niveles para cada factor, hay ocho combinaciones posibles.
Estas ocho combinaciones se pueden mostrar aleatoriamente a los espectadores y calcular
la tasa de conversión. Es importante que cada combinación se muestre con la misma
probabilidad. Este proceso implica solo ocho ejecuciones en lugar de las 16 requeridas en
el enfoque anterior. La tabla 21.8 muestra el diseño factorial del experimento anterior con
dos repeticiones. Los niveles de cada factor están representados por +1 y ÿ1. La
codificación es la siguiente:
Solo hay dos niveles para cada uno de los factores en nuestro experimento. Por lo
tanto, estos diseños se denominan diseños factoriales de dos niveles (dado que hay tres
factores, este diseño se conoce como diseño factorial 23 ). En general, puede haber
muchos más niveles para cada factor. El cambio en la respuesta (tasa de conversión)
cuando el nivel del factor cambia de -1 a +1 se denomina "efecto principal". Por ejemplo,
el efecto principal del factor “fuente” es el cambio en la tasa de conversión cuando la fuente
cambia de “tradicional (ÿ1)” a “moderna (+1)”. Cuando el efecto de un factor está
influenciado por otro factor (un ejemplo típico es el agua y el fertilizante en experimentos
agrícolas), implica que existe una sinergia entre estos dos factores. Estos efectos se
denominan efectos de interacción. En la Tabla 21.9, la codificación de las variables de
interacción es la multiplicación de las columnas correspondientes.
Para aislar los efectos de cada factor y las interacciones, necesitamos calcular la suma
de cuadrados correspondiente a cada efecto principal y efecto de interacción. La tabla
ANOVA para los datos del experimento anterior se presenta en la Tabla 21.10. Estos
resultados se obtienen ejecutando el modelo en R usando el siguiente código:

> Twoway_anova <- aov(Conversion_Tasa ~ Fuente + Fondo


+ Click + FB + FC + BC + FBC, data=factorial_experiment)
> resumen.aov(Twoway_anova)
Machine Translated by Google

21 Redes Sociales y Analítica Web 737

Tabla 21.9 Diseño factorial con dos repeticiones

Efectos principales Efectos de interacción


Conversión Fondo Hacer clic

Velocidad (%) Fuente (F) color (B) botón (C) FB FC BC FBC


1.36 ÿ1 ÿ1 ÿ1 +1 +1 +1 ÿ1 REPLICACIÓN 1
2.04 +1 ÿ1 ÿ1 ÿ1 ÿ1 +1 +1
1.53 ÿ1 +1 ÿ1 ÿ1 +1 ÿ1 +1
1.87 +1 +1 ÿ1 +1 ÿ1 ÿ1 ÿ1
3.23 ÿ1 ÿ1 +1 +1 ÿ1 ÿ1 +1
5.78 +1 ÿ1 +1 ÿ1 +1 ÿ1 ÿ1
2.04 ÿ1 +1 +1 ÿ1 ÿ1 +1 ÿ1
5.61 +1 +1 +1 +1 +1 +1 +1
0,68 ÿ1 ÿ1 ÿ1 +1 +1 +1 ÿ1 REPLICACIÓN 2
2.38 +1 ÿ1 ÿ1 ÿ1 ÿ1 +1 +1
0.51 ÿ1 +1 ÿ1 ÿ1 +1 ÿ1 +1
2.38 +1 +1 ÿ1 +1 ÿ1 ÿ1 ÿ1
2.04 ÿ1 ÿ1 +1 +1 ÿ1 ÿ1 +1
4.59 +1 ÿ1 +1 ÿ1 +1 ÿ1 ÿ1
2.55 ÿ1 +1 +1 ÿ1 ÿ1 +1 ÿ1
6.12 +1 +1 +1 +1 +1 +1 +1

Tabla 21.10 Tabla ANOVA para experimento factorial 23

Variable dependiente: tasa de conversión


Df Suma cuadrada Valor medio cuadrado F Pr(>F)
Fuente (F) 1 17.703 17.703 54.149 7.93Eÿ05***

Color de fondo (B) 1 0.016 0.016 0.05 0.8291

Haga clic en el botón (C) 1 23.064 23.064 70.547 3.07Eÿ05 ***


pensión completa 1 0.219 0.219 0,669 0,4372
FC 1 3.658 3.658 11.188 0.0102 *

antes de Cristo 1 0.045 0.045 0.138 0.7198


FBC 1 0.305 0.305 0,934 0,3622
Derechos residuales de autor 8 2.615 0.327

signif. códigos: ***, 0,001; **, 0,01; *, 0,05


R cuadrado = 0,945 (R cuadrado ajustado = 0,897)

Se puede ver en la tabla anterior que los efectos principales de "fuente" y "clic
botón” son significativos y el efecto del “color de fondo” no es significativo. En
Además, solo la interacción entre la "fuente" y el "botón de clic" es significativa.
Todas las demás interacciones no son significativas.
Las tasas de conversión medias para cada nivel de los factores y las interacciones son
presentado en la Tabla 21.11.
Los efectos medios de diferentes factores y las interacciones también se presentan en
Tabla 21.11 (columna general). La forma en que estos efectos deben interpretarse es que
la tasa de conversión aumentará en 2.1038 cuando cambiemos la fuente tradicional
Machine Translated by Google

738 V. Nagadevara

Cuadro 21.11 Tasas de conversión medias

Tasas de conversión medias


1 ÿ1 Total (nivel 2 ÿ nivel 1)

Fuente (F) 3.8463 1.7425 2.1038

Color de fondo (B) 2.8263 2.7625 0.0637

Haga clic en el botón (C) 3.9950 1.5938 2.4013


pensión completa 2.9113 2.6775 0.2338
FC 3.2725 2.3163 0.9563
antes de Cristo 2.8475 2.7413 0.1063
FBC 2.9325 2.6563 0.2763

Cuadro 21.12 Resultados del análisis de regresión

Estadísticas de regresión
Múltiples R 0.9722

R Plaza 0.9451

R cuadrado ajustado 0.8970


Error estándar 0.5718
Observaciones 16.0000
ANOVA

d.f. SS EM F

Regresión 7 45.0099 6.4300 19.6677


Residual 8 2.6155 0.3269
Total 15 47.6254

Coeficientes Error estándar t estadística valor p

Interceptar 2.7944 0.1429 19.5486 0.0000

Fuente (F) 1.0519 0.1429 7.3586 0.0001

Color de fondo (B) 0.0319 0.1429 0.2230 0.8291

Haga clic en el botón (C) 1,2006 0.1429 8.3992 0.0000


pensión completa 0.1169 0.1429 0.8176 0.4372
FC 0.4781 0.1429 3.3448 0.0102
antes de Cristo 0.0531 0.1429 0.3716 0.7198
FBC 0.1381 0.1429 0.9663 0.3622

a la moderna El aumento en la tasa de conversión es solo 0.0637 cuando cambiamos el


color de fondo de blanco a azul.
La conclusión es que la empresa debe usar una fuente moderna con un clic grande.
botón con "Haga clic ahora para unirse". El color de fondo no importa.
Se podría obtener información más o menos similar realizando una regresión
sobre la tasa de conversión con las columnas de efectos principales y efectos de interacción en
Tabla 21.9. Los resultados del análisis de regresión se presentan en la Tabla 21.12.
Puede notar que los valores p de cada efecto en el análisis de regresión y
el ANOVA de la tabla 21.10 coincide exactamente. La intercepción no es más que el total
media, y los coeficientes de regresión correspondientes a cada factor o interacción son
los cambios (positivos o negativos) de la media general.
Machine Translated by Google

21 Redes Sociales y Analítica Web 739

El ejemplo anterior trata de un diseño experimental de dos factores. El mismo modelo se


puede expandir a escenarios donde hay más de dos niveles para los factores. El verdadero
problema será el número de posibles ejecuciones necesarias para el experimento. Si hay
seis factores con dos niveles cada uno, entonces el experimento requerirá 64 corridas, sin
contar las repeticiones. En tales situaciones, se pueden utilizar "diseños factoriales
fraccionados". La discusión sobre diseños factoriales fraccionados está más allá del alcance
de este libro. Los estudiantes interesados pueden leer cualquier libro de texto sobre diseños
experimentales.
Los efectos de interacción se pueden medir mejor dibujando los gráficos de interacción.
La Figura 21.3 muestra los gráficos de interacción para las tres interacciones de dos factores
(FB, FC y BC). Cuando las dos líneas en el gráfico corren paralelas entre sí, indica que no
hay interacción entre los dos factores. Una comparación entre los dos gráficos, FB y FC,
indica que la tasa de conversión aumenta significativamente cuando tanto la fuente como el
botón de clic se establecen en el nivel +1.

4.4 Ortogonalidad

Se dice que un diseño experimental es ortogonal si para cualquiera de los dos factores de
diseño, cada combinación de nivel de factor tiene el mismo número de ejecuciones. El diseño
especificado anteriormente es un diseño ortogonal. Considere dos factores cualquiera en el
experimento y el efecto sobre la variable de respuesta se estudia para cuatro combinaciones
posibles. Hay exactamente dos corridas (sin contar las repeticiones) para cada combinación.
Además, si toma dos columnas (aparte de la columna de respuesta) en la tabla 21.9 y
multiplica los elementos correspondientes y los suma, el total siempre es cero. Esto también
implica que la correlación entre dos columnas cualesquiera de la tabla 21.9 (aparte de la
columna de respuesta) es cero. Esta es una característica del diseño factorial de dos niveles.
Debido a esta naturaleza ortogonal del diseño, todos los efectos se pueden estimar de forma independiente.
Por lo tanto, el efecto principal de "fuente" no depende del efecto principal de "botón de clic".
Los diseños experimentales se utilizan ampliamente en muchas redes sociales como
Facebook, Twitter y LinkedIn para tomar decisiones basadas en datos. De hecho, LinkedIn
creó una plataforma separada llamada XLNT (pronunciado Excelente) para llevar a cabo
experimentos de forma rutinaria. La plataforma puede admitir más de 400 experimentos por
día con más de 1000 métricas. Han estado utilizando esta plataforma para implementar
experimentos y analizarlos para facilitar la innovación de productos. Sus experimentos van
desde cambios visuales en las páginas de inicio hasta la personalización de las líneas de
asunto en los correos electrónicos3.

3Ya Xu et. al., “De la infraestructura a la cultura: desafíos de las pruebas A/B en redes sociales a gran
escala”, KDD'15, 11 a 14 de agosto de 2015, Sydney, NSW, Australia.
Machine Translated by Google

740 V. Nagadevara

Fig. 21.3 Gráficos de interacción


Machine Translated by Google

21 Redes Sociales y Analítica Web 741

4.5 Publicidad en motores de búsqueda basada en datos

Hoy en día, el marketing basado en datos se ha vuelto omnipresente. Las estrategias de marketing basadas
en datos se basan en conocimientos obtenidos de los datos recopilados a través de los puntos de contacto con
los clientes, las interacciones con los clientes y la demografía de los clientes. Estos datos se analizan para
comprender el comportamiento del cliente y hacer predicciones. Estos se convierten en insumos para mejores
esfuerzos de marketing y publicidad. Los esfuerzos publicitarios tienen como objetivo mejorar la experiencia
del cliente a través de la personalización. El enfoque ayuda a las empresas a transmitir el mensaje correcto en
el momento correcto al objetivo correcto. Las empresas pueden crear campañas altamente personalizadas que
transmitan un mensaje personalizado y enfocado al consumidor. Con la cantidad de datos a su disposición, las
empresas pueden identificar los grupos de consumidores a los que pueden dirigirse fácilmente, en función de
los perfiles de los consumidores y mediante la identificación de estrategias procesables.

Los consumidores siguen moviéndose de un dispositivo a otro (móvil a computadora portátil a TV digital a
tableta). Pasan de los sitios de comercio electrónico a los sitios web sociales. La publicidad basada en datos
permite a las empresas seguir al cliente a través de varios dispositivos y diferentes plataformas. Las empresas
pueden dirigirse al consumidor con mensajes consistentes a través de diferentes canales. Pueden hacer ofertas
relevantes, especialmente diseñadas para un consumidor en particular. Por ejemplo, si un cliente ha comprado
un móvil, se le pueden ofrecer varios accesorios que pueden ir con el modelo específico de móvil adquirido.

Usando técnicas como el análisis de big data, las empresas pueden mantenerse al día con las tendencias
y preferencias cambiantes de los consumidores. Incluso se pueden predecir futuros cambios en los gustos y
preferencias. Estos datos, junto con las estrategias de marketing y publicidad adecuadas, pueden ayudar a
realizar los mejores cambios.
A través de la publicidad basada en datos, los especialistas en marketing pueden llegar a los consumidores
en línea, independientemente de su ubicación física. Los consumidores individuales pueden identificarse y
seleccionarse para recibir mensajes específicos y altamente enfocados en función de sus patrones de
comportamiento que, en última instancia, facilitarán la conversión. Implementar publicidad dinámica en línea
que permita al consumidor interactuar puede ser una gran fuente para obtener información de primera mano
del cliente.
Los consumidores de hoy confían ampliamente en los motores de búsqueda para obtener la información
que necesitan antes de comprar cualquier producto o servicio. Al comprender e identificar lo que buscan estos
consumidores, los especialistas en marketing pueden crear mensajes enfocados. Una vez que identifican lo
que buscan los consumidores, pueden optimizar las búsquedas pagas y crear un mejor contenido en sus
propios sitios web que esté en línea con las búsquedas frecuentes de los consumidores y, en última instancia,
dirigir el tráfico a sus propios sitios web.

Ejemplo: ¿Cómo se realiza la búsqueda de pago?


Tomemos un ejemplo con Google AdWords para comprender cómo funciona la búsqueda paga. Cuando
un cliente inicia una búsqueda, Google inicia el proceso identificando las palabras clave que son relevantes
para la cadena de búsqueda ingresada por el cliente. Estas palabras clave no necesariamente deben ser parte
de la cadena de búsqueda ingresada por el cliente.
Por ejemplo, si la cadena de búsqueda ingresada es "marketing en redes sociales", las palabras clave como
Machine Translated by Google

742 V. Nagadevara

como "marketing digital" y "marketing de motores de búsqueda" pueden ser relevantes.


Luego, comienza a buscar los AdWords disponibles del grupo de anunciantes y
determina si es posible una subasta para el anuncio disponible.
Por otro lado, los anunciantes identifican varias palabras clave por las que quieren ofertar,
junto con la cantidad que están dispuestos a ofertar. También emparejan cada una de las palabras clave
con anuncios específicos. Estos anuncios pueden ser prediseñados o puestos
juntos mediante la combinación de diferentes objetos basados en varios parámetros recibidos de
el buscador (Google, en este caso).
Luego, Google ingresa las palabras clave que considera relevantes en la subasta. Google
determina las clasificaciones de diferentes palabras clave posibles y los anuncios asociados en función de
dos factores, a saber, la oferta máxima y el nivel de calidad.
La oferta máxima es la que especifica el anunciante para una palabra clave en particular.
El nivel de calidad suele estar determinado por la tasa de clics (CTR), la relevancia
del anuncio y la página de destino. El rango del anuncio está determinado por
multiplicando el puntaje de calidad por el monto máximo de la oferta. Este rango se utiliza para
decidir la posición del anuncio en la página de resultados de búsqueda.
Uno de los aspectos interesantes del modelo anterior es que el monto de la oferta de un
anunciante no necesita ser el más alto entre los anunciantes de la competencia con el fin de obtener
el rango más alto. Si un anuncio en particular (junto con una palabra clave específica) tiene
un puntaje de alta calidad, incluso un monto de oferta mucho más bajo puede resultar en una clasificación superior. Google
entiende esto y calcula correspondientemente el costo por clic (CPC).
Consideremos un ejemplo en el que un cliente ingresó una cadena de búsqueda "detergente
para biberones”. Según esta cadena de búsqueda, Google determina que las palabras clave
“lavavajillas”, “jabón para lavavajillas” y “jabón para bebés” son relevantes e identifican cuatro
posibles anunciantes. Los detalles de los montos de las ofertas y los puntajes de calidad de cada uno de los
En la tabla 21.13 se dan cuatro anunciantes .
El anunciante 1 se clasifica como el número 1 aunque el monto de la oferta sea el más bajo.
Esto se debe a la puntuación de alta calidad. Del mismo modo, el mejor postor, Anunciante
4, ocupa el puesto más bajo debido a la puntuación de baja calidad. Con base en lo anterior, el
se muestra el anuncio del anunciante 1.
Cuando se muestra el anuncio ganador y el cliente hace clic en él, el costo por clic
del anuncio ganador se calcula utilizando la clasificación del anunciante que se clasifica justo
junto al anuncio ganador y el nivel de calidad del anuncio ganador. En el ejemplo anterior,
el puntaje ganador del siguiente mejor rango es 18 (Anunciante 2), y el puntaje de calidad de
el ganador es 10. El CPC se calcula como 18/10 + 0,01 = 1,81. la presunción
aquí es que incluso si el Anunciante 1 ofrece una cantidad de $ 1.81, su rango será 18.1 (dado

Cuadro 21.13 Importes de las ofertas y puntuaciones de calidad de los anunciantes

Anunciante Oferta máxima ($) Nivel de calidad Clasificación = oferta*nivel de calidad CPC real
anunciante 1 2 10 20 1.81
Anunciante 2 3 6 18 2.01
Anunciante 3 4 3 12 3.51
Anunciante 4 5 2.1 10.5 5
Machine Translated by Google

21 Redes Sociales y Analítica Web 743

servir el
Productos agregados Ofrecer el
Un cliente anuncio correcto.

visita el al carrito
producto correcto
sitio web.

Quién es

persona como?

Anuncio. base de datos

Base de datos de productos

Fig. 21.4 Diagrama de flujo de recomendaciones

que el puntaje de calidad es 10), que es marginalmente más alto que el siguiente mejor rango. los
adición de un centavo ($0.01) en la fórmula de cálculo es para asegurar que el ganador
el anuncio es marginalmente más alto y no está empatado con el siguiente anuncio mejor clasificado.

Modelo de predicción para anuncio y producto


Se pueden emplear métodos similares para mostrar anuncios apropiados y/o hacer recomendaciones
apropiadas cuando los clientes acceden a sitios de comercio electrónico para comprar.
un producto o servicio. El proceso se presenta brevemente en la figura 21.4. Dejenos considerar
un cliente que visita un sitio web de comercio electrónico en particular en busca de un cochecito. Ella
inicia sesión y revisa diferentes modelos y selecciona un cochecito de bebé y
agrega lo mismo a su carrito de compras. Su historial de búsqueda anterior indica que ella había
También he estado buscando varios productos para niños pequeños. Además, su demografía
El perfil se obtiene de sus datos de inicio de sesión, así como de sus decisiones de compra anteriores.
Esta información se puede introducir en una base de datos de productos que identifica un "cochecito dúo".
(para un bebé y un niño pequeño)”, que tiene un costo marginalmente más alto en comparación con el
uno que ella ya había seleccionado. Un anuncio correspondiente a la silla de paseo dúo es
recogido de una base de datos de anuncios y mostrado al cliente junto con un descuento
oferta. El cliente hace clic en el anuncio, ingresa al sitio web de la empresa del dúo.
cochecito, comprueba los detalles y pasa por algunas revisiones. ella vuelve a la
sitio web de comercio electrónico y compra el cochecito dúo con el descuento ofrecido.
Se puede aplicar un proceso similar para hacer recomendaciones tales como “aquellos que
compré este artículo también compré estos” a varios clientes según el mercado simple
análisis de cestas. Se pueden hacer otras recomendaciones de productos basadas en el cliente
perfiles, historial de navegación anterior o artículos similares comprados por otros clientes.
Machine Translated by Google

744 V. Nagadevara

4.6 Analítica de Atribución Digital

Tradicionalmente, la publicidad en medios impresos y en televisión ha sido considerada como el medio


de marketing más eficaz. Pero, en los últimos años, los anuncios digitales han superado a todos los
demás medios. Con la tecnología que permite a los anunciantes rastrear las huellas digitales de los
consumidores y las actividades de compra en el mundo digital, los anunciantes pueden obtener más
información sobre el comportamiento de los consumidores. Sin embargo, los consumidores están
expuestos simultáneamente a muchos otros tipos de publicidad en el proceso de realizar compras en
línea. Los medios digitales interactúan constantemente con otros medios a través de exposiciones
multicanal y se complementan entre sí para realizar la venta final. En tal escenario, la atribución de la
participación de varios componentes de los medios digitales, así como de otros medios, se está
volviendo cada vez más importante.
El consumidor de hoy está expuesto a múltiples canales, cada uno de los cuales proporciona un
punto de contacto diferente. Imagine que un consumidor, mientras mira un programa de televisión, se
encuentra con un anuncio del teléfono inteligente Samsung S8 y busca "teléfonos inteligentes
Samsung" en Google y se encuentra con un anuncio emergente del Samsung C9. Hace clic en el
anuncio y navega por el sitio web resultante en busca de varios comentarios y reseñas sobre C9. Ve
un par de videos de YouTube en C9 haciendo clic en un enlace que figura en una de las reseñas.
Luego va a un par de sitios de comercio electrónico (digamos, Amazon y Flipkart) y hace una
comparación de precios. Un par de días después, recibe promociones por correo electrónico en C9
de ambos sitios de comercio electrónico. Se encuentra con un gran anuncio de POS para C9 en una
tienda móvil del vecindario y se detiene y visita la tienda para ver físicamente un C9 que está en
exhibición. Un par de días después, recibe un correo promocional de Axis Bank que ofrece un
reembolso del 10 % en C9 en un sitio de comercio electrónico en particular (por ejemplo, Amazon) y
finalmente lo compra en el sitio.
La pregunta aquí es: ¿Cuánto influyó cada uno de estos anuncios en la decisión del consumidor y
cómo se debe valorar el impacto de cada uno de estos canales? Estas preguntas son importantes
porque las respuestas nos guían para optimizar nuestra inversión publicitaria en diferentes canales.

Hoy en día, la explosión de datos de diversas fuentes brinda un acceso sin igual al comportamiento
del consumidor. Cada acción en línea en todos y cada uno de los sitios web se registra, incluida la
cantidad de tiempo dedicado a una página web en particular. Los datos de transacciones de tiendas
minoristas, transacciones con tarjeta de crédito, registros de centros de llamadas, decodificadores,
etc. están disponibles. Toda esta información se puede analizar no solo para comprender el
comportamiento del consumidor sino también para evaluar la contribución de cada canal de marketing.
Un modelo de atribución es la regla, o conjunto de reglas, que determina cómo se asigna el crédito
por ventas y conversiones a los puntos de contacto en las rutas de conversión. La atribución es dar
crédito a los diferentes canales que la empresa emplea para promocionar y difundir el mensaje
publicitario. La atribución digital se refiere a atribuir crédito a varios componentes para proporcionar el
mensaje de marketing en el mundo en línea utilizando varias formas de medios y plataformas en línea.
Es cierto que el mundo digital ofrece oportunidades fenomenales para la mensurabilidad y la rendición
de cuentas. Sin embargo, es más desafiante en el mundo digital desentrañar los impactos de las
diversas formas de publicidad y los de las diferentes plataformas empleadas. Algunas de las acciones
no son
Machine Translated by Google

21 Redes Sociales y Analítica Web 745

Social Orgánico Remisión adwords Directo


La red Búsqueda

Fig. 21.5 Embudo que muestra diferentes pasos (canales) hasta la conversión

controlable por el anunciante. Por ejemplo, un anuncio basado en búsqueda puede mostrarse
solo cuando el consumidor inicia una búsqueda de un producto o servicio en un motor de
búsqueda en particular. Siempre es un desafío comprender qué desencadena que el
consumidor inicie dicha búsqueda, ¡y mucho menos influir en el consumidor para que inicie tal acción!
Existen diferentes modelos de atribución digital, cada uno con sus propias ventajas y
desventajas. Antes de analizar las ventajas y desventajas de cada uno de estos modelos,
consideremos el siguiente embudo que resultó en una conversión (Fig. 21.5).

Modelos de atribución
(i) Modelo de atribución de última interacción/último clic
Este es uno de los primeros modelos de atribución y se utiliza como modelo estándar en
muchos análisis web porque es el más simple entre todos los modelos. Aquí, todo el crédito se
otorga a la última interacción o clic justo antes de la conversión. En el embudo anterior,
"Directo" recibe el crédito completo del 100%. Este modelo se utiliza principalmente porque no
hay ambigüedad con respecto a la acción final que resultó en la conversión.
Dado que solo se considera el último punto de contacto, el período de caducidad de la cookie
se vuelve irrelevante. Este modelo es fácil de implementar y se vuelve apropiado cuando los
embudos toman mucho tiempo desde el inicio hasta la conversión. La desventaja es que hay
muchas otras interacciones antes de la última interacción y no reconoce ninguna de ellas. Por
otro lado, es más apropiado cuando no se dispone de información para el análisis centrado en
el visitante. (ii) Modelo de atribución del último clic no directo Este modelo subestima el tráfico
directo. Da crédito a la campaña que se inició justo antes de la conversión. Estas campañas
pueden ser sitios de referencia, correos electrónicos, visualizaciones en motores de
búsqueda, sitios web sociales o incluso búsquedas orgánicas. El "canal directo" a menudo se
define como cuando el visitante ingresa manualmente la URL en su navegador. La mayoría de
las veces, cualquier visitante que no tenga ninguna etiqueta de referencia se trata como
"Directo". En otras palabras, el canal directo es donde no hay una etiqueta de referencia y, por
lo tanto, al mismo tiempo, atribuir la conversión a "Directo" puede ser engañoso. Este modelo
evita estos problemas relacionados con el canal directo. Hay muchos casos en los que un
consumidor realmente escribe la URL debido al nombre de la marca y la imagen.

Dado que este modelo ignora el tráfico directo, equivale a infravalorar el reconocimiento de
marca y el valor de marca. Todos los esfuerzos que generalmente se dedican a crear tal
reconocimiento de marca son ignorados por este modelo.
Machine Translated by Google

746 V. Nagadevara

En el embudo anterior, "AdWords" recibe el 100 % del crédito. (iii) Modelo


de atribución del último clic de AdWords Este modelo otorga el 100 % de
crédito al anuncio de AdWords más reciente antes de la conversión.
Este modelo ignora la contribución de todos los demás canales en el embudo. Se ve sólo en la
búsqueda paga. Dado que ignora todos los demás AdWords, se vuelve difícil optimizar la
campaña de AdWords identificando y valorando otros AdWords que han contribuido a la
conversión. No hace falta decir que "AdWords" recibe el 100 % del crédito en el embudo
anterior. (iv) Modelo de atribución de primera interacción/primer clic Es el inverso del modelo
de atribución de última interacción/último clic. Todo el crédito se otorga al llamado primer
clic. Si bien no hay ambigüedad sobre el último clic, no hay certeza sobre el primer clic. Sin
embargo, este modelo otorga el 100% de crédito a ese canal de mercado en particular que llevó
al cliente al sitio web y, en consecuencia, da como resultado un énfasis excesivo en una sola
parte del embudo, especialmente en la parte superior del canal del embudo. En nuestro ejemplo,
"Red social" recibe todo el crédito. Puede pasar mucho tiempo entre el primer punto de contacto
y la conversión. Es posible que la cookie de seguimiento caduque durante este período y, en
consecuencia, el crédito se otorga a un punto de contacto que resulta ser el primero en la
ventana de caducidad de la cookie.

(v) Modelo de atribución lineal


En este modelo, cada paso involucrado, desde la primera interacción hasta la última
interacción o clic, recibe el mismo peso. Por lo tanto, este es el más simple de los modelos de
atribución multitáctil. El aspecto positivo de este modelo es que considera todos los canales
involucrados en el embudo. Si bien esto reconoce la importancia de cada uno de los pasos
intermedios, es muy poco probable que la contribución de cada paso sea la misma.
Cada uno de los canales del embudo anterior obtiene un 20 % de crédito. Por otro lado, el papel
principal jugado en todo el proceso de conversión podría ser el de la influencia de las redes
sociales, que en realidad inició el embudo. Sin embargo, este modelo es mejor que atribuir todo
el crédito a un solo canal. (vi) Modelo de atribución de decaimiento de tiempo El modelo asigna
diferentes créditos a diferentes pasos involucrados. Asigna el crédito máximo al último punto
de contacto antes de la conversión, y el punto de contacto inmediatamente anterior recibe
menos crédito y así sucesivamente. Asume que los puntos de contacto más cercanos a la
conversión son los más influyentes. Hay casos en los que es probable que el primer punto de
contacto que inició todo el proceso no obtenga el crédito adecuado, especialmente si está lejos
de la conversión. Una posible distribución del crédito por conversión en el embudo anterior
podría ser Red social 10 %, Búsqueda orgánica 15 %, Referencia 20 %, AdWords 25 % y
Directo 30 %. (vii) Modelo de atribución basado en la posición Este modelo, por defecto, atribuye
el 40% del crédito al primer y último punto de contacto cada uno, y el 20% restante se distribuye
entre los puntos de contacto restantes.

Obviamente, no es necesario utilizar los valores predeterminados, y estos pesos se pueden


ajustar en función del análisis objetivo (centrado en datos) o subjetivo. Combinando esto con el
modelo de decaimiento del tiempo, se puede crear un modelo personalizado. Este modelo es
más adecuado cuando la importancia está en la generación de prospectos que atrajo al visitante y
Machine Translated by Google

21 Redes Sociales y Analítica Web 747

el punto de contacto que aseguró la conversión. Al mismo tiempo, no ignora otros puntos de
contacto.
Los puntos de contacto "Red social" y "Directo" obtienen un 40 % cada uno, mientras que los
tres restantes obtendrán un 6,67 % cada uno, en el embudo anterior. (viii) Modelo de atribución
personalizado o algorítmico Con base en las ventajas y desventajas de los modelos descritos
anteriormente, el analista puede construir un modelo de atribución personalizado. Estos
modelos personalizados se construyen a partir de datos sobre el comportamiento del cliente
obtenidos en diferentes etapas. Se reconoce que estos modelos “basados en evidencia” son
mejores y más realistas. Desafortunadamente, estos modelos no son fáciles de construir. El
principio fundamental es estimar cuál de los puntos de contacto contribuye en qué medida en
función de los datos disponibles del cliente para que represente una imagen más precisa del
viaje del cliente desde el inicio hasta la conversión.
Esto se denomina modelo de atribución personalizado o algorítmico. Estos modelos no solo
hacen uso de los datos de los clientes, sino que también utilizan técnicas estadísticas que pueden
conducir a una optimización continua del presupuesto publicitario.
Un enfoque simple para construir un modelo de atribución algorítmico comienza con la
identificación de las métricas clave que se utilizarán para medir la efectividad relativa de cada
canal. Es importante asociar un período de tiempo apropiado con esto.
Esto se debe seguir con el costo por adquisición para cada canal.
Con la tecnología actual, los datos con respecto a varios puntos de contacto se obtienen sin
mucha dificultad. Estos datos se pueden usar para construir modelos para predecir la conversión
o de otra manera. Generalmente, la variable de destino es binaria, ya sea que la conversión sea
exitosa o no. Las variables predictoras son los diversos puntos de contacto. Para empezar, la
métrica de efectividad del modelo puede ser la precisión de la predicción. En función de la
contribución de cada una de las variables predictoras, se puede calcular la atribución a varios
puntos de contacto. Considere construir un modelo de regresión logística para predecir el éxito
de la conversión. Una vez que logramos los niveles de precisión de predicción para los conjuntos
de datos de entrenamiento y prueba, los coeficientes de la regresión logística se pueden usar
para calcular el porcentaje de atribución a varios puntos de contacto o canales4.

Si bien es cierto que cualquiera de los modelos predictivos puede emplearse para este
propósito, modelos como la regresión logística o el análisis discriminante son más amigables ya
que con estos modelos se dispone de los coeficientes correspondientes a diferentes variables
predictoras. También podemos utilizar métodos de caja negra como redes neuronales artificiales
o máquinas de vectores de soporte. En tal caso, podemos asignar los valores de atribución a
diferentes variables predictoras en función del “índice de sensibilidad” obtenido después de
construir el modelo.

4Para obtener más detalles, consulte Shao, Xuhui y Lexin Li, “Modelos de atribución multitoque basados en
datos”, KDD'11, 21–24 de agosto de 2011, San Diego, California, EE. UU.
Machine Translated by Google

748 V. Nagadevara

Otros modelos algorítmicos que se pueden utilizar para el cálculo de la atribución son los siguientes:
sigue:

• Análisis de supervivencia
• Valor de Shapley
• Modelos de Markov
• Modelos bayesianos

Podemos optimizar la asignación de presupuesto para cada uno de los canales utilizando el
valores de atribución (obtenidos de los modelos predictivos) y los costes estimados
antes (CPA, CPM, etc.). Incluso una técnica de optimización simple, como la maximización con
restricciones presupuestarias, puede generar resultados significativos.
Consideremos un ejemplo de cálculo del costo de adquisición (CoA) bajo
diferentes modelos de atribución. Consideremos un cliente que compró un "Amazon
Inicio” a través del siguiente proceso:

1. Yajvin, el cliente, primero hace clic en AdWords y visita el sitio web.


2. Luego visita su página de Facebook y hace clic en el anuncio que se muestra en Facebook,
visita el sitio web nuevamente y verifica la funcionalidad del dispositivo.
3. Luego, visita nuevamente el sitio web a través de su cuenta de Twitter y mira
los detalles técnicos.
4. Luego, entra directamente al sitio web y verifica varias reseñas.
5. Finalmente, hace clic en una oferta con descuento que recibió por correo electrónico y
compra el dispositivo.

Supongamos que el gasto en publicidad es el siguiente: AdWords, $12;


Facebook, $15; Gorjeo, $20; directo, $0; correo electrónico, $8.
El costo de adquisición bajo cada uno de los modelos de atribución se puede calcular
en base a la información anterior. La tabla 21.14 proporciona los detalles sobre el anuncio.
gastar en cada canal, las ponderaciones para cada canal bajo cada modelo y el
CoA calculado.
Del mismo modo, los modelos de atribución basados en datos se pueden utilizar para estimar la contribución
de cada canal. Esto es importante para comprender qué canales están impulsando realmente
Las ventas. En base a esto, los anunciantes pueden gastar dinero de manera más efectiva y maximizar
ROI. El siguiente ejemplo demuestra la atribución a través de tres canales diferentes
utilizando el enfoque de valor de Shapley.

Tabla 21.14 Gasto publicitario, ponderaciones y CoA para varios canales


Primer toque último toque Lineal Posición Tiempo en decaida
Canal gasto publicitario (%) (%) (%) establecido (%) (%)
AdWords $12,00 100 0 20 40 10
Facebook $15,00 0 0 20 7 15
Gorjeo $20,00 0 0 20 7 20
Directo $0,00 0 0 20 7 25
Correo electrónico $8,00 0 100 20 40 30
Con el $12.00 $8.00 $11.00 $10.33 $9.85
Machine Translated by Google

21 Redes Sociales y Analítica Web 749

Tabla 21.15 Relojes vendidos


Canal Número vendido
basado en canales
AdWords + Facebook + correo electrónico 256
AdWords + Facebook 192

AdWords + correo electrónico 190

Facebook + correo electrónico 128


AdWords 180
Facebook 120
Correo electrónico 64

Tabla 21.16 Permutaciones de canales y sus contribuciones

Contribución del canal por pedido en


la permutación Contribución del canal específico
Primero Segundo Tercero A B C
Permutación canal canal canal (AdWords) (Facebook) (Email)
ABC 180 12 64 180 12 64
ACB 180 10 66 180 66 10
BAC 120 72 64 72 120 64
BCA 120 8 128 128 120 8
TAXI 64 126 66 126 66 64
CBA 64 64 128 128 64 64

Contribución total en todas las permutaciones 814 448 274

Contribución promedio en todas las permutaciones 135.67 74.67 45.67

Contribución porcentual 52,99% 29,17% 17,84%

Consideremos un ejemplo en el que la empresa utiliza tres canales para promover


su producto, un reloj inteligente. Estos canales son AdWords (Canal A), Facebook
(Canal B) y correo electrónico (Canal C). Según los datos, el número de relojes vendidos
a través de cada canal (y cada posible combinación de canales) se obtiene y
se resumen en la Tabla 21.15.
La empresa logró vender 256 relojes inteligentes cuando los clientes expusieron
(usó) los tres canales, mientras que solo podía vender 64 relojes inteligentes cuando el
los clientes solo usaban correo electrónico y nada más. Estos números se obtienen en base a
el análisis de los datos de compra a través de diferentes canales. Teniendo en cuenta que hay
tres canales (A, B y C) en este ejemplo, hay seis permutaciones posibles
para combinar estos tres canales. Estas permutaciones son AÿBÿC, AÿCÿB,
BÿAÿC, BÿCÿA, CÿAÿB y CÿBÿA.
En la primera permutación, el Canal A aporta 180 (contribución de AdWords
solo), el Canal B aporta 12 (los canales A y B juntos aportan 192, y
por lo tanto, la contribución de B es 192 ÿ 180 = 12), y el Canal C contribuye con 64 (todas
los tres canales juntos aportan 256, mientras que A y B juntos aportan 192,
y por tanto la contribución de C es 256 ÿ 192 = 64). Del mismo modo, la contribución de
se calcula y presenta cada uno de los canales correspondientes a cada permutación
en la Tabla 21.16.
Machine Translated by Google

750 V. Nagadevara

En las seis permutaciones, la contribución de AdWords es 180, 180, 72, 128, 126 y 128. El total de estos
valores es 814 y el promedio es 135,67. Del mismo modo, los promedios de Facebook y correo electrónico
son 74,67 y 45,67, respectivamente. Estos valores se convierten en porcentajes que se presentan en la tabla.
Estos valores se denominan "valores de Shapley" (llamados así por el premio Nobel Lloyd Shapley).

Según el análisis anterior, la empresa debería invertir más en AdWords y menos en correo electrónico.
De hecho, el presupuesto de publicidad se puede distribuir entre los tres canales en la misma proporción que
los porcentajes de contribución.
El enfoque anterior requiere grandes cantidades de datos. La empresa necesita obtener datos con
respecto a todas y cada una de las combinaciones (todos los subconjuntos posibles, así como los canales
individuales) de los canales empleados. Si hay n canales, los datos deben obtenerse para 2n ÿ 1 subconjuntos.
La implementación de diseños experimentales podría ser un posible enfoque para obtener los datos
requeridos. Una vez que se desarrolla e implementa una estrategia de optimización para la asignación de
presupuesto a través de diferentes canales, es necesario un monitoreo constante de los canales para un
mayor ajuste.

5 estrategias para dispositivos móviles

Con la popularidad de los móviles inteligentes en los últimos días, más de la mitad del tráfico de búsqueda
comenzó a emanar de los móviles. Estos dispositivos también son el medio popular para interactuar dentro
de las redes sociales. Además, el algoritmo de clasificación móvil de Google incluye factores de facilidad de
uso móvil y compatibilidad con dispositivos móviles, así como la disponibilidad de aplicaciones móviles en su
indexación. En consecuencia, aquellos con sitios web optimizados para dispositivos móviles y/o aplicaciones
móviles obtienen clasificaciones mucho más altas y aparecen en la parte superior de los resultados de búsqueda.
En consecuencia, cada vez es más importante que las empresas desarrollen una estrategia orientada a
dispositivos móviles para mejorar la eficacia de sus campañas de marketing. Cada vez es más necesario
crear estrategias de marketing móvil que mejoren la experiencia del cliente al usar dispositivos móviles en
cada etapa del embudo de compra del cliente.

Dos estrategias importantes que las empresas deben adoptar son la creación de sitios web y aplicaciones
móviles compatibles con dispositivos móviles. Es más probable que los usuarios en las etapas iniciales del
embudo de compra usen el sitio web en lugar de descargar e instalar la aplicación. Por otro lado, las
aplicaciones móviles permiten una mejor interacción y facilitan una mayor creatividad para atraer al cliente.
En otras palabras, es necesario que las empresas creen sus propios sitios web optimizados para dispositivos
móviles, así como aplicaciones específicas.
Un sitio web móvil es un sitio web que está diseñado y creado para verse específicamente en un teléfono
inteligente o una tableta. Debe optimizarse para que responda o cambie su tamaño para adaptarse a la
pantalla según el tipo de dispositivo. Necesitamos entender que los clientes usan estos dispositivos en
diferentes etapas del embudo de compra. Las empresas pueden acelerar el proceso de compra a través de
alertas de ventas, mostrar anuncios, proporcionar códigos QR, extender descuentos especiales y emitir
cupones de descuento. Es fácil integrar las campañas basadas en dispositivos móviles con diferentes sitios
de redes sociales para que los clientes puedan interactuar con otros con respecto a la
Machine Translated by Google

21 Redes Sociales y Analítica Web 751

productos y servicios dentro de sus redes sociales. Los sitios web deben optimizarse para que se
carguen más rápido y sean fáciles de navegar, y los botones de clic deben ser lo suficientemente
grandes y tener estructuras de menú cortas. Los sitios web y las aplicaciones también deben
garantizar que se requiera una cantidad mínima de escritura. También es una buena idea permitir
mapas que muestren la ubicación, ya que muchos clientes tienden a usar móviles cuando están en
movimiento.
El sitio web o la aplicación debe permitir a los usuarios conectarse a varias plataformas de redes
sociales. Esto también debe incluir una función que facilite a los clientes compartir la información con
otros en la red. Las aplicaciones tienen una ventaja adicional. La aplicación permanece en la pantalla
del móvil, ya sea que el cliente esté usando la aplicación o no. Cada vez que el cliente mira la
pantalla, ve el nombre de la aplicación o el nombre de la marca que actúa como un recordatorio
constante.
La geolocalización es un aspecto importante de la estrategia móvil. Es fácil integrar esto en las
aplicaciones móviles. Las empresas podrán identificar la ubicación del cliente en cualquier momento
en particular. Los datos se pueden recopilar en lugares que el cliente visita regularmente (como, por
ejemplo, donde el cliente suele dar un paseo). Con este tipo de información, la aplicación puede
proporcionar automáticamente varias promociones u ofertas exclusivas que están actualmente
disponibles en una tienda que se encuentra más cerca del cliente. Muchos de los dispositivos móviles
actuales vienen equipados con “comunicación de campo cercano (NFC)”. NFC puede ser útil para
ubicar al cliente dentro de una tienda o instalación en particular, y la aplicación puede llamar la
atención del usuario sobre cualquier artículo cercano o descuentos especiales basados en el
comportamiento anterior de navegación/búsqueda/compra del cliente a través de SMS o
notificaciones. Esto es especialmente útil cuando el cliente está físicamente cerca del producto y en
una etapa en la que está listo para tomar una decisión.

También es importante que la aplicación pueda funcionar sin conexión. Por ejemplo, el usuario
podría descargar el catálogo y navegar por las ofertas sin depender del Wi-Fi o de la señal móvil.

En última instancia, el beneficio completo de una estrategia móvil solo se puede extraer cuando
el canal móvil se integra con otros canales. El cliente debe poder moverse sin problemas desde su
móvil a cualquier otro canal y llegar a la marca o producto o servicio.

Por lo tanto, la estrategia móvil debe ser tal que brinde suficiente personalización para aprovechar
las ventajas de un dispositivo móvil o tableta mientras se integra con otros canales para que el cliente
tenga una experiencia coherente en todos los canales.

6 El futuro del análisis de redes sociales

La última década ha visto un crecimiento fenomenal de las redes sociales que ha cambiado la vida
personal y profesional de personas de todo el mundo. A medida que crecía la creación de redes a
través de las redes sociales, las empresas comenzaron a aprovechar las plataformas de redes
sociales para llegar a los clientes directamente para atraerlos y retenerlos. Las organizaciones
empresariales encontraron formas innovadoras de escuchar las voces de los clientes a través de las
redes sociales y comprender mejor sus necesidades. Al mismo tiempo, el desarrollo de tecnologías proporcionadas
Machine Translated by Google

752 V. Nagadevara

oportunidades para analizar grandes cantidades de datos no estructurados generados por las redes
sociales para que las empresas puedan responder mejor. Hoy en día, el análisis de las redes sociales se
utiliza para obtener información más detallada sobre las preferencias de los clientes. También abrió
nuevas vías para innovar y experimentar. Los mismos análisis de redes sociales se pueden usar para
comunicarse con los clientes en el momento exacto con el mensaje correcto para influir en el proceso de
toma de decisiones. Además, abrió un nuevo enfoque para llegar al cliente a través de múltiples canales.
La participación del cliente a través de múltiples canales no solo se ha convertido en la necesidad del
momento, sino en un imperativo para transmitir el mensaje e influir en la toma de decisiones. La tecnología
disponible está facilitando la comprensión del comportamiento del cliente a través de su uso de las redes
sociales y también la eficacia de cada canal para contribuir a la decisión final del cliente. Hoy en día, el
análisis de las redes sociales todavía está evolucionando y aún debe madurar. Cada día surgen nuevas
aplicaciones que plantean desafíos adicionales en la participación del cliente. Al mismo tiempo, las
preocupaciones sobre la privacidad se están convirtiendo en problemas serios, tanto desde posiciones
éticas como legales.

Los próximos años serán un desafío para encontrar un equilibrio adecuado entre las preocupaciones de
privacidad y las necesidades de las empresas para atraer a los clientes de manera más efectiva.

Material complementario electrónico

Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están
disponibles en www.allaboutanalytics.net.

• Datos 21.1: adspends.csv •


Datos 21.2: antiques_devices.csv • Datos
21.3: bid_qs_advt.csv • Datos 21.4:
bid_qs_gmat_orgs.csv • Datos 21.5:
factorial_experiment.csv • Datos 21.6:
furnimart.csv • Datos 21.7: global_time.csv •
Datos 21.8: indo_american.csv • Datos
21.9:membership_drive_isha.csv • Datos 21.10:
modern_arts.csv • Datos 21.11: watches_sales.csv •
Datos 21.12: webpage_visitors.csv • Datos 21.13:
SMWA_Solutions.csv • Código 21.1:
factorial_experiment.R

Ejercicios

Ex. 21.1 Modern Arts (India) ha iniciado una campaña especial de correo electrónico con tres líneas de
asunto diferentes. Estos son los siguientes:
Machine Translated by Google

21 Redes Sociales y Analítica Web 753

(a) Línea de asunto 1: "Bienvenido a las artes modernas"


(b) Línea de asunto 2: "Invitación especial a nuestra exposición de arte moderno"
(c) Línea de asunto 3: "¿Eres fanático del arte moderno?"

Se seleccionaron un total de 30ÿ000 ID de correo electrónico únicos y se dividieron al azar en cuatro


grupos de 7500 cada uno. Cada uno de estos grupos se dividió aleatoriamente en tres
Grupos de 2500 cada uno. Los correos electrónicos con exactamente la misma fuente y contenido (cuerpo) fueron
enviado a cada uno de estos grupos con una de las tres líneas de asunto, y la respuesta
fue grabado. En otras palabras, el experimento constó de tres tratamientos y cuatro
replicaciones. Las respuestas se presentan a continuación:

Línea de asunto Envíos Aperturas Clics


Replicación 1
Línea de asunto 1 2500 278 96
Línea de asunto 2 2500 405 136
Asunto 3 2500 222 62
replicación 2
Asunto 1 2500 314 87
Asunto 2 2500 461 155
Asunto 3 2500 187 59
replicación 3
Asunto 1 2500 261 82
Asunto 2 2500 421 147
Asunto 3 2500 216 58
replicación 4
Asunto 1 2500 289 79
Asunto 2 2500 436 128
Asunto 3 2500 192 41

Hay dos tasas de respuesta, a saber, "tasa de apertura" y "tasa de clics". Prueba
para saber qué línea de asunto es la mejor con respecto a cada una de las tasas de respuesta.
Ex. 21.2 Se reveló que cada réplica se enviaba a una cuenta de correo diferente.
Todos los 7500 correos electrónicos de la Replicación 1 en realidad estaban dirigidos a cuentas de Gmail.
De manera similar, todos los correos de la Replicación 2 se enviaron a cuentas de correo de Outlook. Todos los correos
de Replication 3 se enviaron a cuentas de correo de Yahoo. Todos los correos de Replication 4 fueron
enviado a las cuentas de correo de AOL. Dada esta información, Modern Arts (India) decidió
considere esto como un diseño de bloques completamente al azar para observar el efecto
de tratamientos y bloques.
Pruebe si hay un efecto de bloqueo significativo. ¿Cuál es la mejor línea de asunto? Realizar
el análisis para ambas tasas de respuesta.
Ex. 21.3 FurniMart es un centro para que los entusiastas de los muebles vendan y compren especialmente
muebles diseñados. FurniMart opera a través de su propio sitio web con una línea
Catálogo. El tráfico al sitio web proviene principalmente de tres fuentes, las que
escriba la URL y llegue al sitio web (directo), los que vienen a través de AdWords
Machine Translated by Google

754 V. Nagadevara

y los que respondan a mostrar anuncios de redes sociales. había sido


su experiencia de que muchos clientes agregaron productos a sus carritos directamente desde

las páginas del catálogo. El diseño existente del sitio web muestra un gráfico que facilita agregar a
productos al carrito. Los clientes seleccionan un producto en particular y hacen clic
en el botón gráfico para agregar el artículo a sus carritos de compras. Se consideró que un mayor
Es probable que el botón de "llamada a la acción" (CtA) conduzca a mejores tasas de conversión.
FurniMart decidió experimentar con tres tipos diferentes de botones. Estos son
se muestra a continuación:

Tratamiento 1 Tratamiento 2 Tratamiento 3

Añadir al carrito + CARRITO


Diseño del botón de llamada a la acción

FurniMart creó tres sitios web diferentes, a saber, HTTP://FurniMart.COM/


T1, HTTP://FurniMart.COM/T2 y HTTP://FurniMart.COM/T3, cada uno mostrando
un botón CtA diferente. El tráfico procedente de cada una de las tres fuentes se distribuye aleatoriamente
desviado a cada uno de los tres sitios de modo que el tráfico total de cada fuente es
distribuidos equitativamente a los tres sitios web. Las tasas de conversión se resumen en
la mesa de abajo:

Fuente de tráfico Tratamiento 1 Tratamiento 2 Tratamiento 3


Directo 12.20 14.14 11.65
AdWords 13.59 14.42 11.93
Redes sociales 12.48 12.20 10.54

Analice los datos anteriores para identificar qué botón CtA es el mejor para la conversión.
Ex. 21.4 Considere los datos anteriores (pregunta 3) como un bloque completamente aleatorizado
diseño para observar el efecto de tratamientos y bloqueos. Probar si hay un
importante efecto de bloque. ¿Cuál es el mejor tratamiento?
Ex. 21.5 Global Time es un distribuidor local de la marca de relojes inteligentes "Ultimate".
Cada vez que un cliente potencial busca relojes inteligentes, Ultimate ofrece junto con
con otros vendedores de relojes inteligentes. Cuando cualquier cliente que se encuentre dentro del
área geográfica de Global Time hace clic en el anuncio de Ultimate, el visitante es llevado a
El sitio web de Global Time utilizando la función de geolocalización. Global Time está tratando de
renovar su sitio web para mejorar sus tasas de conversión. han identificado
tres aspectos diferentes (tratamientos) del sitio web que quieren modificar. Estas
aspectos son los siguientes:

(a) Actualmente, no hay video en la página de inicio. La propuesta es agregar un 90 s


video que muestra las características del reloj inteligente “Ultimate”.
Machine Translated by Google

21 Redes Sociales y Analítica Web 755

(b) En la actualidad, el botón “Comprar” se encuentra en el margen derecho de la página web, de forma vertical
centrado. La propuesta es desplazarlo hacia abajo a la derecha para que haya más espacio
para más imágenes en la página.
(c) En la actualidad, la página muestra testimonios en forma de texto. La propuesta es incluir
una pequeña foto del cliente que había dado el testimonio.

Global Time decidió realizar pruebas A/B sobre estos tres aspectos. Los detalles
de los tratamientos y las tasas de conversión correspondientes se dan en la tabla
abajo:

Tratos Número de visitantes


Ubicación de alcanzando Ordenando
Video Botón "Comprar" Testimonios sitio web de global para último

Replicación 1
No hay video Centro derecho Solo texto 2590 115
Añadir video Centro derecho Solo texto 2458 205
No hay video Abajo a la derecha Solo texto 2406 165
Añadir video Abajo a la derecha Solo texto 2557 144
No hay video Centro derecho Texto con foto 2409 101
Añadir video Centro derecho Texto con foto 2458 103
No hay video Abajo a la derecha Texto con foto 2561 161
Añadir video Abajo a la derecha Texto con foto 2587 181

replicación 2
No hay video Centro derecho Solo texto 2519 170
Añadir video Centro derecho Solo texto 2574 193
No hay video Abajo a la derecha Solo texto 2476 112
Añadir video Abajo a la derecha Solo texto 2546 125
No hay video Centro derecho Texto con foto 2595 100
Añadir video Centro derecho Texto con foto 2459 110
No hay video Abajo a la derecha Texto con foto 2562 99
Añadir video Abajo a la derecha Texto con foto 2445 190

¿Qué debe hacer el “Tiempo Global” con respecto a los tres aspectos? ¿Hay alguna
efectos de interacción entre estos tres aspectos?
Ex. 21.6 Akshita inició una búsqueda en Google de organizaciones que ofrecen GMAT
capacitación. Un análisis rápido de los AdWords relevantes de Google encontró que hay
cinco anuncios que están disponibles para mostrar en la página de resultados de búsqueda. La oferta
las cantidades, así como los puntajes de calidad se presentan en la siguiente tabla.
Calcule los rangos e identifique los primeros dos anunciantes cuyos anuncios serán
mostrado a Akshita. Además, calcule el CPC para cada uno de los anunciantes.
Ex. 21.7 Indo-American Consultancy Services (IACS) se especializa en la colocación de empresas indias
graduados con considerable experiencia laboral con clientes en los EE. UU. Anuncian sus servicios con
anuncios gráficos en Twitter, LinkedIn y AdWords. Cuando el
los clientes potenciales hacen clic en el anuncio gráfico, son llevados al sitio web de la empresa,
Machine Translated by Google

756 V. Nagadevara

Anunciante Oferta máxima ($) Nivel de calidad


Instituto de formación de gestión de élite 2 10

Capacitación en gestión de gemas 7 2

Instituto Internacional de Coaching 4 3

Capacitaciones de gestión ilimitadas 5 2.1

Centro Nacional de Gestión 3 6

y se alienta a los clientes a registrarse en el sitio web y cargar sus CV.


Una vez que el cliente potencial sube el CV, se considera como conversión.

Canal Número de conversiones


Twitter + LinkedIn + AdWords 2944
Twitter + LinkedIn 2185
Twitter + AdWords 2208
LinkedIn + AdWords 1472
Gorjeo 736
LinkedIn 1380
AdWords 2070

Con base en los datos anteriores, realice la atribución correspondiente a cada uno de los tres
canales

Caselet 21.1: Campaña de membresía en ISHA5

Vishnuprasad Nagadevara

Initiative for Special Healthcare Access (ISHA) es una organización iniciada por
Karthik para proporcionar un fácil acceso a los servicios de salud corporativos privados a un precio razonable
costo para sus miembros. Karthik, después de completar su MBA con servicios de salud
especialización en gestión, se unió a una importante cadena de hospitales corporativos con sede
en Bangalore. Ha trabajado con la cadena durante 15 años y finalmente llegó a la
nivel de director administrativo para toda la cadena. Durante su mandato en el
cadena de hospitales, había jugado con la idea de hacer que la atención médica fuera accesible para la mayor cantidad de
tantas personas como sea posible a precios asequibles. En el proceso, ha establecido un
organización llamada “Iniciativa para el Acceso Especial a la Atención Médica (ISHA)” que invita
pertenencia de los individuos. ISHA hizo arreglos contractuales con varios
de proveedores de salud privados para ofrecer varios servicios a sus miembros. Él tuvo
armar acuerdos contractuales con diferentes hospitales corporativos, diagnóstico

5Solo para discusión en el salón de clases.


Machine Translated by Google

21 Redes Sociales y Analítica Web 757

centros de servicio y farmacias. Los miembros de ISHA se benefician de los servicios con grandes
descuentos de estos proveedores de atención médica privados. Los proveedores de servicios se
benefician de las economías de escala a través de una mayor demanda de sus servicios por parte
de los miembros de ISHA.
Como parte del acuerdo, los miembros de ISHA reciben una cierta cantidad de consultas
gratuitas de cualquier médico en los principales hospitales, incluidas las consultas dentales.
Además, también obtienen dos limpiezas dentales y raspaduras gratis en ciertas clínicas dentales.
Los miembros también son elegibles para dos “chequeos de salud completos” gratuitos por año.
Los farmacéuticos participantes otorgan un descuento mínimo del 20% en medicamentos sujetos
al monto mínimo facturado. Los miembros también obtienen descuentos en varias pruebas de
diagnóstico, incluidas las pruebas de radiología.
Estos beneficios están disponibles para los miembros de ISHA. La membresía está disponible
de forma individual y familiar. La membresía familiar cubre un máximo de cuatro miembros. Se
pueden agregar miembros adicionales a la membresía familiar pagando una cantidad adicional
por persona.
La economía de todo el modelo depende de adquirir una masa crítica de miembros. ISHA
decidió aprovechar el creciente acceso a la web para impulsar su campaña de membresía. Han
iniciado una campaña de correo electrónico para inscribir miembros con un éxito muy limitado.
También se dieron cuenta de que las campañas en los medios impresos no pueden orientarse de
manera enfocada, lo que genera altos costos de campaña y bajas tasas de conversión. Karthik
finalmente decidió recurrir a una campaña basada en la web utilizando publicidad gráfica con
búsqueda orgánica y AdWords. ISHA contrató a "Web Analytics Services India Limited (WASIL)"
que tiene experiencia en la creación, prueba y ejecución de campañas publicitarias basadas en la
web.
WASIL está dispuesto a trabajar con ISHA en un modelo de pago basado en resultados. Las
tarifas pagaderas a WASIL dependerán del éxito de la campaña en términos de adquisición de
miembros. WASIL ha formado un equipo de tres miembros para crear y ejecutar la campaña.
Rajeev encabeza el equipo con Subbu y Krithika como los otros dos miembros. El equipo decidió
diseñar primero un conjunto de objetos que se pueden juntar en un anuncio gráfico basado en
palabras clave en cadenas de búsqueda.
“El azul siempre se asocia con la salud, como lo es con BlueCross”, dijo Subbu.
“Deberíamos tener color azul en el borde. Eso lo hará notorio y definitivamente conducirá a
mejores tasas de clics”. Subbu y otros miembros de su equipo están discutiendo los cambios que
se deben realizar en el anuncio publicitario de ISHA. Actualmente, ISHA no utiliza ningún color en
su publicidad. Es muy simple con un fondo blanco liso y una fuente en negrita en negro. Tampoco
tiene un botón de clic. El visitante potencial puede hacer clic en cualquier parte del anuncio y lo
llevará a la página de inicio de ISHA.

Rajeev estuvo de acuerdo con Subbu en que debería haber un borde con un color. Rajeev es
un apasionado del verde y siente que brinda una sensación relajante que podría asociarse
fácilmente con los servicios de salud. Krithika sugirió que pueden usar dos versiones diferentes,
una con azul y la otra con verde. Dado que todos estuvieron de acuerdo en que un color en el
borde es absolutamente necesario, la prueba A/B se puede realizar con los dos colores.
Machine Translated by Google

758 V. Nagadevara

“Necesitamos tener un botón CTA (llamado a la acción). Como ya estamos experimentando con
azul y verde en el borde, el CTA tiene que ser rojo”, dijo Krithika.
“Aquí nuevamente, tenemos un amplio margen para la experimentación. ¿Deberíamos probar dos
colores diferentes? preguntó Rajeev. El resto de los miembros del equipo no estaban de acuerdo con
diferentes colores. Consideraron que ya hay dos colores, uno en el borde y otro en el CTA. El texto
tendrá un color diferente, al menos negro. Sintieron que tener más de tres colores en un anuncio
gráfico puede hacer que se vea llamativo y también puede ser discordante para el visitante. Rajeev
dijo: “No podemos dejarlo como un botón. Necesitamos poner un 'texto de llamado a la acción' en el
botón, como 'Haga clic aquí para guardar'. Llamará más la atención. Hay suficientes estudios para
demostrar que un texto asociado siempre reforzará y dará mejores resultados”. Subbu sintió que
deberían agregar más información en el texto de acción por clic. “Poner un número como 'Ahorre
hasta un 70%' obtendrá una mejor respuesta”. Rajeev no estaba convencido. Sintió que destacar un
porcentaje tan grande de ahorro podría hacer que la gente sospechara de los beneficios.

Mucha gente piensa que tales grandes descuentos no son posibles en el cuidado de la salud, a pesar
de que los laboratorios ofrecen un 70% de descuento en pruebas de laboratorio específicas. Después
de una discusión prolongada, el equipo decidió probar ambas versiones como otro tratamiento en las
pruebas A/B.
El diseño actual del anuncio de ISHA es que los visitantes, cuando hacen clic en el anuncio, son
llevados a la página de inicio. Se espera que el visitante mire primero la página de inicio y navegue
desde allí a otras páginas relevantes. El equipo consideró que no es suficiente hacer que el visitante
haga clic en el anuncio y llegue al sitio web. La conversión real es cuando el visitante se convierte en
miembro pago, al menos a modo de prueba. Cualquier miembro puede retirar su membresía dentro
de los 15 días posteriores al registro y obtener un reembolso completo. El equipo consideró que la
página de destino tendrá un gran impacto en la conversión.
Los miembros del equipo también creían que la página de destino debería ser dinámica. Debe
basarse en la cadena de búsqueda o en AdWords que lleva al anuncio gráfico. Si los visitantes
buscan pruebas de laboratorio, la página de inicio debe ser la de las pruebas de laboratorio, con una
lista de laboratorios ubicados en una ciudad en particular y los descuentos correspondientes. Por otro
lado, si el visitante estaba buscando una consulta médica, la página de destino debería corresponder
a médicos o clínicas respectivas. Finalmente, el equipo acordó que la página de destino también será
tratada como un tratamiento con la página de inicio como control.

El equipo decidió utilizar un tratamiento más en su experimentación. Se entendió que ISHA es un


jugador nuevo con un concepto relativamente nuevo. La organización aún no está establecida. Los
miembros del equipo, así como Karthik, sintieron que colocar el logotipo de ISHA en el anuncio gráfico
aumentaría la visibilidad. La línea superior del anuncio mostrará ISHA sin logotipo o ISHA con logotipo
en el lado derecho. El diseño general del anuncio se muestra en la Fig. 21.6.

El equipo concluyó que debían seguir adelante con los cuatro tratamientos. El equipo resumió la
propuesta final como se muestra en la siguiente tabla.
WASIL y Karthik aprobaron la propuesta del equipo y WASIL ejecutó la campaña con los cuatro
tratamientos anteriores durante un período de 1 mes. Los datos se recopilaron en términos de número
de visitantes potenciales expuestos a cada tipo de anuncio (muestra
Machine Translated by Google

21 Redes Sociales y Analítica Web 759

Fig. 21.6 Diseño general del anuncio

Detalles del tratamiento

Tratamiento Nivel 1 (ÿ1) Nivel 2 (+1)


Color del borde Azul Verde

línea superior Sin logo con logotipo


llamada a la acción
"Haga clic aquí para guardar" "Ahorre hasta un 70%"
Página de destino Página de inicio página relevante

tamaño), número de visitantes que hicieron clic en el anuncio (clics) y, por último, el número de
conversiones (miembros). El conjunto de datos "membership_drive_isha.csv" está disponible en
el sitio web del libro.

Preguntas

(a) ¿Cuál de los cuatro tratamientos es más efectivo? ¿Cuál es el nivel adecuado para cada
de los tratamientos?
(b) ¿Existen efectos de interacción entre los tratamientos?
(c) ¿Cuál sería el diseño final del anuncio para maximizar las conversiones?
Machine Translated by Google

760 V. Nagadevara

Caselet 21.2: Antigüedades en la Modernidad6

Vishnuprasad Nagadevara

La reunión

“Creo que fue Wanamaker quien dijo 'La mitad del dinero que gasto en publicidad se
desperdicia; el problema es que no sé qué mitad'. No puedo aceptar eso hoy. Nuestro costo
de publicidad es casi el 12% de nuestros ingresos y necesito saber a dónde va”, dijo Yajvin.
“Quiero decir que sabemos exactamente dónde estamos gastando el dinero, pero necesito
saber qué estamos recibiendo. ¿Cuál es el efecto de cada uno de los canales en los que
estamos invirtiendo?”
Yajvin informa a Swetha sobre su nueva misión. Yajvin es el director ejecutivo de la
empresa en línea “Antiques in Modernity (AiM)”. Antiques in Modernity se especializa en
dispositivos electrónicos modernos que tienen el aspecto de las antigüedades. Swetha dirige
la empresa de consultoría de análisis “NS Analytics Unlimited”, que brinda servicios de
consultoría a varias empresas. Además de brindar servicios de consultoría, NS Analytics
también brinda capacitación a las empresas clientes para que puedan ser lo más autosuficientes
posible en términos de análisis. Su lema es "Nos hacemos redundantes construyendo
experiencia". NS Analytics ha sido contratado por Antiques in Modernity para analizar su gasto
en publicidad y también asesorarlos sobre la mejor manera de mejorar el ROI de su inversión
en publicidad.
“Nuestros productos son muy especiales. Mira este tocadiscos. Parece una antigüedad, y
en realidad puedes reproducir un disco de gramófono de los Beatles. Pero se puede utilizar
como altavoz Bluetooth; puede conectarse a su asistente doméstico como Amazon Echo o
Google Home; incluso se puede conectar a tu móvil. ¡Puede transmitir música desde este
tocadiscos a cualquier otro dispositivo, incluso en su patio trasero!” dijo Yajvin (Fig. 21.7).
“Algo similar sucede con nuestro antiguo teléfono de pared. Se puede utilizar como teléfono
con cable o como teléfono inalámbrico. Estamos en el proceso de rediseñarlo para que usted

Fig. 21.7 Tocadiscos AiM

6Solo para discusión en el salón de clases.


Machine Translated by Google

21 Redes Sociales y Analítica Web 761

puede llevar el auricular fuera de su casa y usarlo como teléfono. Pero volvamos a nuestro problema.
Como decía, invertimos mucho dinero en publicidad en diferentes canales. Necesitamos averiguar el
efecto de cada uno de estos canales. Entiendo que muchos de estos canales se complementan entre
sí en los mercados actuales. ¿Podemos aislar de alguna manera los efectos de cada uno, para que
nuestra inversión publicitaria pueda optimizarse? preguntó Yajvin.

Swetha respondió diciendo que hay muchos modelos que se pueden usar para abordar el
problema, pero tales modelos requieren grandes cantidades de datos confiables.
También dijo que cada uno de estos modelos puede dar resultados diferentes, y es necesario
comprender los supuestos involucrados en cada uno de estos modelos para poder elegir el que sea
más aplicable a un escenario en particular. Yajvin la puso en contacto con su director de información,
Skanda, para que Swetha pueda tener una idea del tipo de datos que está disponible con la empresa
y también explicarle sus requisitos de datos.
Skanda explicó los datos disponibles con ellos. “Dependemos principalmente de la publicidad en
línea. Invertimos una pequeña cantidad en los medios impresos, pero la mayor parte de nuestra
publicidad está en los sitios web de redes sociales, AdWords y similares. También recibimos una
buena cantidad de tráfico directo a nuestro sitio web. Dado que todas nuestras ventas son solo en
línea, tiene sentido que trabajemos de esta manera”, dijo Skanda. “Tenemos un sistema de seguimiento
de nuestros clientes potenciales a través de diferentes canales. Tratamos de recopilar la mayor
cantidad de datos, de manera confiable, como sea posible”.

Antigüedades en la Modernidad

Antiques in Modernity fue una empresa nueva, iniciada en Sunnyvale, California, por Yajvin y Skanda
hace 3 años. Yajvin se graduó de uno de los prestigiosos institutos técnicos de la India con
especialización en electrónica y luego realizó su maestría en administración de empresas en una
reconocida escuela de administración en Europa. Después de su MBA, trabajó como gerente de
desarrollo de productos en una empresa europea. Después de 5 años en la empresa, se mudó a San
José como gerente de marketing de una empresa de productos de software. Mientras se movía de
una empresa a otra en los siguientes 12 años, permaneció en la función de marketing.

El pasatiempo de Yajvin era coleccionar antigüedades, especialmente productos electrónicos muy


antiguos que estaban en perfectas condiciones de funcionamiento. Solía coleccionar productos
electrónicos antiguos de cualquier fuente posible. Si no estaban en condiciones de trabajo, él trabajaría
en ellos y los pondría en condiciones de trabajo. También solía vender algunos de ellos y también
regalar algunos de ellos. En el proceso, le picó el gusanillo del emprendedor y decidió fundar una
empresa con el objetivo de fabricar productos electrónicos especialmente diseñados con la última
tecnología, pero que parecen antigüedades.
La empresa diseña los productos, obtiene los componentes de China y el Lejano Oriente y los
ensambla en los EE. UU. Skanda era su compañera de clase de la India y se unió a él en la aventura.
Decidieron que, dado que estos son productos de nicho, será más seguro comercializarlos a través
de su propio sitio web. Sintieron que tal estrategia les dará un control completo sobre la forma en que
los productos pueden publicitarse y comercializarse.
Machine Translated by Google

762 V. Nagadevara

El hecho de que ambos se sintieran cómodos con el marketing basado en la web jugó un papel
importante en la toma de la decisión. También habían decidido utilizar la mayor cantidad posible
de publicidad en línea.
AiM utiliza anuncios gráficos en las redes sociales, especialmente en LinkedIn, Twitter y
Facebook. También utilizan Google AdWords para mostrar sus anuncios en función de las
cadenas de búsqueda utilizadas por los clientes potenciales. También realizan un seguimiento
de los clientes que llegan a su sitio a través de la búsqueda orgánica. Dado que sus productos
se venden solo a través de Internet desde su propio sitio web, la conversión final es cuando el
cliente realiza el pedido. Utilizan varios métodos para rastrear los canales desde los cuales los
clientes llegan a su sitio web.

Los datos

Durante su reunión, Skanda le prometió a Swetha que puede proporcionar detalles de todos y
cada uno de los embudos desde la primera visita a su sitio web, así como la referencia de un
cliente (o cliente potencial). Swetha sintió que no hay razón para mirar los embudos que están
incompletos, lo que puede o no conducir a la conversión en una fecha posterior. Solicitó datos
solo sobre los embudos que dieron como resultado la conversión final.
También hay muchos clientes habituales que escriben la URL directamente y acceden al sitio
web y realizan compras. Del mismo modo, hay algunos que compran artículos en su primera
visita al sitio web. Skanda le dijo que puede proporcionar detalles de cada embudo
correspondiente a todas y cada una de las conversiones. Consideró que esos datos detallados
podrían ser útiles porque AiM vende diferentes productos y los márgenes de ganancia son
diferentes para diferentes productos. Por otro lado, Swetha consideró que tal detalle no era
necesario porque los anuncios no son específicos de ningún producto en particular.
Incluso los anuncios gráficos que AiM crea sobre la marcha en función de AdWords o cadenas
de búsqueda, no son específicos del producto. El tema principal de estos anuncios es que sus
productos son de última tecnología, pero empacados como antigüedades. Tampoco son
realmente antigüedades. Por lo tanto, sugirió que Skanda resumiera los datos "en forma de
embudo". También sugirió que todos los canales de redes sociales se pueden agrupar en un
solo canal con el fin de realizar un análisis inicial. “Podemos profundizar en diferentes redes
sociales por separado en una fecha posterior. De hecho, podrá hacerlo usted mismo después
de que capacitemos a su gente”, dijo.
Finalmente, han acordado concentrarse en cuatro canales: redes sociales (Canal A),
AdWords (Canal B), búsqueda orgánica (Canal C) y directo (Canal D).
También se decidió mantener el orden real de los canales dentro de cada embudo. Cada
embudo debe leerse como la secuencia de los canales. Por ejemplo, ABCD implica AÿBÿCÿD.
Swetha explicó que el orden se vuelve importante para estimar la contribución de cada canal
bajo diferentes modelos. Luego estaba la cuestión de la métrica final. ¿La métrica final para la
conversión debería ser los ingresos, el margen de beneficio o simplemente la cantidad de
artículos vendidos? Actualmente, AiM está pasando por un importante ejercicio de cálculo de
costos, especialmente en términos de asignación de costos fijos/no variables a diferentes
productos. Se consideró que la opción del margen de beneficio no es apropiada hasta que el
Machine Translated by Google

21 Redes Sociales y Analítica Web 763

se completa el ejercicio de costeo. Skanda y Yajvin consideraron que el ejercicio inicial se


puede realizar en función de la cantidad de ventas (número de artículos vendidos) y el método
se puede extender fácilmente a los ingresos en una fecha posterior. ¡Swetha les aseguró que
solo tendrán que cambiar los valores en una hoja de cálculo simple y todo lo demás se
recalculará automáticamente!
Swetha recibió los datos resumidos requeridos por ella 2 días después de su reunión con
Yajvin y Skanda. Los datos “antiques_devices.csv” están disponibles en el sitio web del libro.

Lecturas adicionales

Abhishek, V., Despotakis, S. y Ravi, R. (2017). Atribución multicanal: El punto ciego de la publicidad online. Recuperado
el 16 de marzo de 2018, de https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2959778 .

Fischer, T. (2018). ROI en las redes sociales: una mirada a los argumentos. Marketing de bases de datos y gestión de
estrategias de clientes, 16(3), 189–195. Tracy L. Tuten, Michael R. Solomon, marketing en redes sociales, Sage
Publishing.
Ganis, M. y Kohirkar, A. (2016). Analítica de redes sociales. Nueva York, Nueva York: IBM Press.
Gardner, J. y Lehnert, K. (2016). ¿Qué hay de nuevo en los nuevos medios? Cómo funcionan las redes multicanal con
los creadores de contenido. Business Horizons, 59, 293–302.
Hawn, C. (2017). Tómate dos aspirinas y tuiteame por la mañana: Cómo twitter, facebook y otros
las redes sociales están remodelando la atención médica. Asuntos de Salud, 28(2), 361.
Kannan, PK, Reinartz, W. y Verhoef, PC (2016). El camino hacia el modelo de compra y atribución: Introducción a la
sección especial. Revista Internacional de Investigación en Marketing, 33, 449–456.

Ledolter, J. y Swersey, AJ (2007). Pruebas 1 - 2 - 3: Diseño experimental con aplicaciones en


operaciones de marketing y servicios. Palo Alto, CA: Stanford University Press.
Oh, C., Roumani, Y., Nwankpa, JK y Hu, H.-F. (2017). Más allá de los me gusta y los tweets: el comportamiento de
participación del consumidor y la taquilla de películas en las redes sociales. Información y Gestión, 54(1), 25–37.

WilliamRibarsky, DXW y Dou, W. (febrero de 2014). Análisis de redes sociales para la competencia
ventaja. Computadoras y Gráficos, 38, 328–331.
Zafarani, R., Abbasi, MA y Liu, H. (2014). Minería en redes sociales. Cambridge: Cambridge
Prensa Universitaria.
Machine Translated by Google

capitulo 22
Análisis de atención médica

Maqbool (Mac) Dadá y Chester Chambers

1 Introducción a Healthcare Analytics: modelos de simulación


de Clínicas en Centros Médicos Académicos

La antigua comprensión de la biología, la fisiología y la medicina se basaba en las


observaciones de cómo reaccionaba el cuerpo a los estímulos externos. Este enfoque
indirecto de documentar y estudiar las reacciones del cuerpo estuvo disponible mucho antes
de que se entendieran los mecanismos internos del cuerpo. Si bien los avances médicos
desde esa época han sido realmente sorprendentes, nada ha cambiado el hecho central de
que el estudio de la medicina y el estudio relacionado con la atención médica deben comenzar
con una observación cuidadosa, seguida de la recopilación, consideración y análisis de los
datos extraídos de esas observaciones. . Este antiguo enfoque sigue siendo la clave del
método y la práctica científicos actuales.

1.1 Descripción general de Healthcare Analytics

El desarrollo de tecnologías relacionadas con la captura y análisis de información durante los


últimos 20 años ha comenzado a revolucionar el uso de datos en todas las ramas de la
medicina. Junto con mejores y más fáciles métodos para la recolección, almacenamiento,

Material complementario electrónico La versión en línea de este capítulo (https://doi.org/10.1007/


978-3-319-68837-4_22) contiene material complementario, que está disponible para usuarios autorizados.

M. (Mac) Dada ( ) · C. Chambers Carey


Business School, Universidad Johns Hopkins, Baltimore, MD, EE. UU. Correo
electrónico: mdadal@jhu.edu

© Springer Nature Switzerland AG 2019 765


B. Pochiraju, S. Seshadri (eds.), Essentials of Business Analytics, International
Series in Operations Research & Management Science 264, https://doi.org/
10.1007/978-3-319-68837 -4_22
Machine Translated by Google

766 M. (Mac) Dada y C. Cámaras

e interpretación de datos, las nuevas tecnologías han dado lugar a una serie de nuevas aplicaciones.1
Por ejemplo, el análisis de datos permite la detección temprana de epidemias,2 la identificación de
moléculas (que desempeñará un papel sin precedentes en la lucha contra el cáncer3), y nuevos métodos
para evaluar la eficacia de los programas de vacunación.4 Si bien la capacidad de estas herramientas
para aumentar la eficiencia y la eficacia parece ilimitada, sus aplicaciones deben tener en cuenta tanto
sus limitaciones como su poder.

El uso de herramientas modernas de análisis para mejorar la medicina y la prestación de atención


requiere una comprensión sólida y completa de las fortalezas de las herramientas y sus limitaciones.
Para resaltar el poder y los problemas relacionados con el uso de estas herramientas, los autores de este
libro describen varias aplicaciones, incluida la telemedicina, el modelado de la fisiología del cuerpo
humano, las operaciones de atención médica, la epidemiología y el análisis de patrones para ayudar a
los proveedores de seguros.
Un área problemática que se espera que las técnicas de big data revolucionen en un futuro cercano
involucra la separación geográfica entre el paciente y el cuidador. Históricamente, el diagnóstico de
enfermedades ha requerido que los profesionales médicos evalúen la condición de sus pacientes cara a
cara. Comprender varios aspectos del cuerpo que ayudan a los médicos a diagnosticar y prescribir un
tratamiento a menudo requiere la transmisión de información que es sutil y variable. Se cree que escuchar
el ritmo de un corazón, evaluar la degradación en el sentido del equilibrio de un paciente o ver los matices
en un cambio en la apariencia de una herida requiere contacto humano directo.

Si una cantidad suficiente de los datos pertinentes se pueden transmitir de otras maneras es una pregunta
clave que muchos investigadores están trabajando para responder.
La situación está cambiando rápidamente debido a la práctica de la telemedicina. La firma de
investigación de mercado Mordor Intelligence espera que la telemedicina, que ya es un mercado
floreciente, crezca a 66 600 millones de dólares para 2021, creciendo a una tasa de crecimiento anual
compuesta del 18,8 % entre 2017 y 2022.5 Las nuevas tecnologías portátiles pueden ayudar a los
cuidadores al recopilar datos durante períodos de tiempo mucho más mayor que una visita al consultorio
o una estadía en el hospital en una amplia variedad de entornos. Los algoritmos pueden usar estos datos
para sugerir cursos de acción alternativos y garantizar que no se pasen por alto síntomas nuevos o no
informados. Las tecnologías portátiles, como Fitbit o Apple Watch, pueden rastrear continuamente varios
factores relacionados con la salud, como la frecuencia cardíaca, la temperatura corporal y la presión
arterial con facilidad. Esta información se puede transmitir a médicos

1El artículo de Forbes de octubre de 2016 proporcionó muchos de los datos de esta introducción : https://
www.forbes.com/sites/mikemontgomery/2016/10/26/the-future-of-health-care-is-in- análisis de datos /
#61208ab33ee2 (consultado el 19 de agosto de 2017). 2https://malariajournal.biomedcentral.com/articles/
10.1186/s12936-017-1728-9 (consultado el 20 de agosto de 2017). 3http://cancerres.aacrjournals.org/
content/75/15_Supplement/3688.short (consultado el 20 de agosto de 2017). 4https://www.ncbi.nlm.nih.gov/
pmc/articles/PMC4287086 (consultado el 20 de agosto de 2017). 5https://www.mordorintelligence.com/
industry-reports/global-telemedicine-market-industry (consultado el 23 de agosto de 2017).
Machine Translated by Google

22 Análisis de atención médica 767

personal en tiempo real. Por ejemplo, las instituciones militares utilizan sensores montados en el
pecho para determinar los puntos en los que los soldados se fatigan y pueden sugerir opciones
tácticas basadas en esta información.
Si bien algunas tecnologías portátiles están a la vanguardia y, por lo tanto, a menudo son costosas,
la telemedicina puede usar hardware económico y resistente para facilitar los diagnósticos.
Los médicos pueden usar kits electrónicos como el Swasthya Slate,6 que se usa en clínicas
comunitarias en Nueva Delhi, para realizar pruebas de azúcar en la sangre y electrocardiogramas y
controlar la temperatura y la presión arterial de un paciente.7 En Kigali, Ruanda, una empresa de
salud digital Babylon está probando un servicio que permitirá a los pacientes hacer videollamadas a
los médicos en lugar de esperar en las filas de los hospitales. En economías que sufren grandes
cargas en la atención médica y escasez de profesionales capacitados, intervenciones como estas
pueden ayudar a ahorrar tiempo, dinero y vidas.
La aplicación adecuada de tales tecnologías puede evitar que la falta de experiencia del usuario
enturbie la recopilación o transmisión de datos. Normalmente, los médicos aprenden sobre los
síntomas físicos junto con las experiencias del paciente a través de interacciones cara a cara. Esto
añade un desfase entre la experiencia y su discusión, así como la interpretación subjetiva del paciente.
Su eficacia también depende de la capacidad del paciente para transmitir la información con precisión.
El registro directo de datos puede cerrar estas brechas asegurando que el médico reciba información
objetiva al mismo tiempo que comprende las circunstancias específicas del paciente. Esta transmisión
de información se puede combinar con elementos adicionales que incluyen cámaras web y software
de llamadas de voz en línea. Esto permite que los médicos y los pacientes permanezcan en contacto
con respecto a los diagnósticos sin la necesidad de que el paciente se desplace físicamente a un
hospital u oficina.
Por lo tanto, se hacen posibles nuevas métricas, se aumenta la precisión y se ahorra tiempo, mientras
que se reducen los costos. Además, estas soluciones pueden ayudar a brindar atención proactiva en
caso de emergencia médica.
Los beneficios del análisis de datos no se limitan solo al diagnóstico. El análisis de datos también
facilita el aprovechamiento de la tecnología para garantizar que los pacientes reciban diagnósticos de
manera oportuna y programen el tratamiento y las interacciones de seguimiento según sea necesario.
La analítica ya desempeña un papel clave en la programación de citas, la adquisición de medicamentos
y la garantía de que los pacientes no se olviden de tomar sus medicamentos.
La ventaja de utilizar técnicas de big data no se limita a la transmisión de datos utilizados para el
diagnóstico. El análisis de datos es clave para comprender los mecanismos fundamentales de las
funciones del cuerpo. Incluso en los casos en que se comprende bien la función física del cuerpo, los
grandes datos pueden ayudar a los investigadores a analizar las innumerables formas en que cada
individuo reacciona a los estímulos y al tratamiento. Esto puede llevar a un tratamiento más
personalizado y a una disminución de los efectos secundarios. Al analizar las interacciones específicas
entre los medicamentos y el cuerpo, el análisis de datos puede ayudar a ajustar las dosis, reducir los
efectos secundarios y ajustar las prescripciones caso por caso. Geno Germano,

6https://www.thebetterindia.com/49931/swasthya-slate-kanav-kahol-delhi-diagnostic-tests/ (consultado el 16
de julio de 2018). 7https: //www.economist.com/international/2017/08/24/en-los-paises-pobres-es-mas-facil-
que-nunca-ver-un-medico (consultado el 15 de septiembre de 2018).
Machine Translated by Google

768 M. (Mac) Dada y C. Cámaras

El expresidente del grupo Global Innovative Pharma Business de Pfizer dijo en 2015 que los médicos podrían
(en un futuro cercano) usar datos sobre el ADN de los pacientes para generar tratamientos específicos y
personalizados y consejos de salud que podrían ahorrar tiempo y garantizar mejores resultados. 8

La capacidad de analizar múltiples flujos de datos relacionados en tiempo real se puede aplicar para crear
simulaciones del cuerpo humano. El uso de tales simulaciones permite a los investigadores realizar
experimentos y recopilar información virtualmente, sin dolor y a bajo costo.
Al construir modelos artificiales de todas o algunas partes del cuerpo, las técnicas de big data pueden
aprovechar el poder computacional para analizar diferentes tratamientos. Iniciativas como el Virtual Physiological
Human Institute9 tienen como objetivo reunir diversas técnicas y enfoques de modelado para obtener una
comprensión mejor y más holística del cuerpo y, a su vez, impulsar el análisis y la innovación.

Los análisis se utilizan en el estudio y la mejora de las operaciones de atención médica para mejorar el
bienestar del paciente, aumentar el acceso a la atención y eliminar los desperdicios. Por ejemplo, al analizar
los tiempos de espera y el comportamiento de los pacientes, los científicos de datos pueden sugerir políticas
que reduzcan la carga de los médicos, liberen recursos valiosos y garanticen que más pacientes reciban la
atención que necesitan cuando y donde la necesitan. Las técnicas de simulación que predicen el tráfico de
pacientes pueden ayudar a las salas de emergencia a prepararse para un mayor número de visitas,10 mientras
que los sistemas que rastrean cuándo y dónde ingresan los pacientes facilitan que las enfermeras y los
administradores asignen camas a nuevos pacientes.11 Las tecnologías modernas también pueden ayudar en
el prestación de atención de seguimiento, es decir, después de que el paciente haya salido del hospital. El
software y el hardware que rastrean síntomas físicos importantes pueden detectar patrones de desviación y
alertar a pacientes y cuidadores.
Al hacer coincidir dichos patrones con las historias de los pacientes, pueden sugerir soluciones e identificar
complicaciones. Al recordarles a los pacientes las citas de seguimiento, pueden reducir la rehospitalización.

También se necesitan análisis para guiar el uso de tecnologías de la información relacionadas con la
actualización de los registros de los pacientes y la coordinación de la atención entre los proveedores a través
del tiempo o las ubicaciones. Las tecnologías como los dictáfonos y los diarios digitales tienen como objetivo
recopilar y preservar los datos de los pacientes de manera conveniente. El análisis cuidadoso de estos datos
es clave cuando se trabaja para utilizar estas tecnologías para reducir los esfuerzos redundantes y eliminar
malentendidos cuando la atención se transfiere de un proveedor a otro.
Hay muchas aplicaciones de análisis relacionadas con la detección de peligros para la salud y la
propagación de enfermedades: Los métodos de big data ayudan a las aseguradoras a aislar tendencias en
enfermedades y comportamientos, lo que les permite ajustar mejor las primas de riesgo al riesgo de un comprador individual.

8https://www.forbes.com/sites/matthewherper/2015/02/17/how-pfizer-is-using-big-data-to power-
patient-care/#7881a444ceb4 (consultado el 21 de agosto de 2017). 9http://www.vph-institute.org
(consultado el 1 de septiembre de 2017). 10http://pubsonline.informs.org/doi/10.1287/msom.2015.0573
(consultado el 21 de agosto de 2017). 11http://www.bbc.com/news/business-25059166 (consultado
el 21 de agosto de 2017).
Machine Translated by Google

22 Análisis de atención médica 769

perfil. Por ejemplo, un proveedor de seguros de salud con sede en EE. UU.12 ofrece Nest Protect,13 una alarma
de humo y un monitor de monóxido de carbono a sus clientes y también ofrece un descuento en las primas de
seguro si instalan estos dispositivos. Las aseguradoras utilizan los datos generados por estos dispositivos para
determinar la prima y también para predecir reclamaciones.

El proveedor de información LexisNexis rastrea las variables socioeconómicas14 para predecir cómo y cuándo
enfermarán las poblaciones. Ogi Asparouhov, científico de datos en jefe de LexisNexis, sugiere que el estilo de
vida socioeconómico, el empleo del consumidor y los datos de las redes sociales pueden agregar mucho valor a
la industria de la salud.
C
El uso de Google Trends los datos, es decir, el historial de búsquedas en Internet, en la
investigación sobre atención de la salud se multiplicó por siete entre 2009 y 2013. Esta investigación involucra

una amplia variedad de diseños de estudio que incluyen análisis causales, nuevas estadísticas descriptivas y
15
métodos de vigilancia (Nuti et al. 2014). Google Brain, un proyecto de investigación de Google, utiliza
aprendizaje técnicas
automático de
para
predecir los resultados de salud a partir de los datos médicos de un paciente.16 El seguimiento de los patrones
meteorológicos y su conexión con las epidemias de gripe y resfriado está bien documentado. El programa Atlas of
Health and Climate17 de la Organización Mundial de la Salud es un ejemplo de la colaboración entre las
comunidades metrológicas y de salud pública.

Mediante la recopilación de diversos tipos de datos y el uso de poderosas herramientas analíticas, las
aseguradoras pueden predecir mejor el fraude, determinar los cursos de acción apropiados y regular los
procedimientos de pago. Un estudio de caso completo (Seguro Ideal) se incluye en el Cap. 25 que describe cómo
se pueden usar los análisis para crear reglas para clasificar las reclamaciones en aquellas que se pueden resolver
de inmediato, aquellas que necesitan más discusión y aquellas que deben ser investigadas por una agencia
externa.
Estas técnicas, sin embargo, no están exentas de desafíos. Históricamente, la heterogeneidad de los datos
en el cuidado de la salud y las preocupaciones sobre la privacidad han sido importantes obstáculos en la industria.
Diferentes médicos y enfermeras pueden registrar datos idénticos de diferentes maneras, lo que dificulta el
análisis. La extracción de datos de sensores como rayos X y ultrasonidos y máquinas de resonancia magnética
sigue siendo un desafío técnico continuo, porque la calidad de estos sensores puede variar enormemente.18

Las técnicas de big data en el cuidado de la salud también suelen depender de datos en tiempo real, lo que
ejerce presión sobre los sistemas de tecnología de la información para entregar datos de manera rápida y confiable.

12https://www.ft.com/content/3273a7d4-00d2-11e6-99cb-83242733f755 (consultado el 2 de septiembre de 2017).


13https://nest.com/smoke-co-alarm/overview (consultado el 2 de septiembre de 2017). 14http://cdn2.hubspot.net/
hubfs/593973/0116_Predictive_Modeling_News.pdf?t=1453831169463 (consultado el 3 de septiembre de 2017).
15https://research.google.com/teams/brain (consultado el 3 de septiembre de 2017). 16https://www.cnbc.com/
2017/05/17/google-brain-medical-records-prediction-illness.html (consultado el 3 de septiembre de 2017). 17http://
www.who.int/globalchange/publications/atlas/en (consultado el 2 de septiembre de 2017). 18https://
pdfs.semanticscholar.org/61c8/fe7effa85345ae2f526039a68db7550db468.pdf (consultado el 21 de agosto de 2017).
Machine Translated by Google

770 M. (Mac) Dada y C. Cámaras

A pesar de estos desafíos, se espera que las técnicas de big data sean un impulsor clave del cambio
tecnológico y la innovación en este sector en las próximas décadas. El resto de este capítulo discutirá
en detalle el uso de datos y técnicas de simulación en centros médicos académicos (AMC) para
mejorar el flujo de pacientes.

2 métodos de análisis de atención médica: uso de análisis


para mejorar el flujo de pacientes en clínicas ambulatorias

Las demandas de mayor capacidad y costos reducidos en entornos ambulatorios crean la necesidad
de una estrategia coherente sobre cómo recopilar, analizar y usar datos para facilitar las mejoras del
proceso. Específicamente, esta nota se enfoca en el desempeño del sistema relacionado con los
flujos de pacientes en clínicas ambulatorias en centros médicos académicos que programan pacientes
por citas. Describimos formas de mapear estas visitas a medida que mapeamos procesos,
recolectamos datos para describir formalmente los sistemas, creamos simulaciones de eventos
discretos (DES) de estos sistemas, usamos las simulaciones como un laboratorio virtual para explorar
posibles mejoras del sistema e identificamos propuestas como candidatas para implementación.
Cerramos con una discusión de varios proyectos en los que hemos utilizado nuestro enfoque para
comprender y mejorar estos sistemas complejos.

2.1 Introducción

A partir de 2016, la Ley del Cuidado de Salud a Bajo Precio (ACA, por sus siglas en inglés) extendió
el acceso a la cobertura de seguro médico a aproximadamente 30 millones de estadounidenses que
anteriormente no tenían seguro, y esa expansión de la cobertura está vinculada a entre 15 y 26
millones de visitas adicionales de atención primaria al año (Glied y Ma 2015; Beronio et al. otros
2014). Además, se espera que la cantidad de personas mayores de 65 años en los EE. UU. aumente
de 43,1 millones en 2012 a 83,7 millones para 2050 (Ortman et al. 2014). Este aumento en el número
de estadounidenses asegurados, junto con el crecimiento anticipado en el tamaño de la población
mayor de 65 años, se correlacionará con la creciente demanda de servicios de atención médica.
Al mismo tiempo, Medicare y otros pagadores se están alejando del antiguo modelo de “tarifa por
servicio” hacia esquemas de “pago combinado” (Cutler y Ghosh 2012). Según estos arreglos, a los
proveedores se les paga una suma global para tratar a un paciente o población de pacientes. Esto
fija los ingresos relacionados con el paciente y significa que estos pagos solo se pueden aplicar a los
costos fijos si los costos variables son menores que el pago. Esperamos que el surgimiento continuo
de esquemas de pago combinado acelere el cambio gradual del tratamiento hospitalario a la
prestación de atención a través de entornos ambulatorios que ha estado ocurriendo durante más de
20 años.
En consecuencia, una parte desproporcionada del crecimiento de la demanda se procesará a través
de clínicas ambulatorias, en lugar de camas de hospital. Esta evolución también se considera una de
las estrategias clave necesarias para ayudar a acercar el costo de la atención médica en los EE. UU.
a los costos experimentados en otros países desarrollados (Lorenzoni et al. 2014).
Machine Translated by Google

22 Análisis de atención médica 771

Un factor de complicación adicional es que la prestación de atención médica en los EE. UU. a
menudo se entremezcla con la enseñanza y la capacitación de la próxima generación de proveedores
de atención. En 2007, se realizaron aproximadamente 40 millones de visitas ambulatorias a hospitales
universitarios conocidos como centros médicos académicos (AMC) (Hing et al. 2010). La inclusión del
componente de enseñanza dentro del proceso de atención aumenta dramáticamente la complejidad
de cada visita del paciente. El modelo clásico de una visita ambulatoria en la que una enfermera lleva
al paciente a una sala de examen y el médico ve al paciente y luego sale de la clínica no es una
descripción suficiente del proceso en el AMC. Agregar un médico residente o becario (aprendiz) al
proceso introduce pasos para las interacciones entre el aprendiz y el paciente, así como las
interacciones entre el aprendiz y el médico tratante (asistente). Estos pasos adicionales aumentan los
tiempos de flujo, la cantidad y los niveles de recursos desplegados y la congestión del sistema (Boex
et al. 2000; Franzini y Berry 1999; Hosek y Palmer 1983; Hwang et al. 2010). Los retrasos agregados
son fáciles de entender cuando se considera el hecho de que el aprendiz generalmente tarda más
que el asistente en completar la misma tarea y muchos entornos de enseñanza exigen que tanto el
aprendiz como el asistente pasen tiempo con cada paciente en el horario de la clínica (Williams et al.
2007; Taylor et al. 1999 ; Sloan et al. 1983).

La adición de la misión docente no es simplemente agregar pasos a un proceso bien administrado.


La complejidad añadida es similar a cambiar de un sistema de colas de un solo servidor a un sistema
híbrido (Williams et al. 2012, 2015). El alumno puede funcionar como un servidor paralelo (pero más
lento), o el alumno y el asistente pueden funcionar como servidores en serie, de modo que una
actividad de un paso se convierte en un proceso de dos pasos, o las decisiones sobre cómo se
entrelaza el alumno en el proceso pueden ser hecho dinámicamente, lo que significa que el rol del
aprendiz puede cambiar dependiendo del estado del sistema.
En resumen, le estamos pidiendo a nuestro sistema de atención médica actual que mejore el
acceso a la atención para una población que crece y envejece rápidamente, ya que la demanda se
traslada de los servicios para pacientes hospitalizados a los ambulatorios en los hospitales
universitarios que utilizan modelos de prestación que no se comprenden bien. Si bien es discutible
hasta qué punto esto es posible (Moses et al. 2005), está bastante claro que los esfuerzos para hacer
que esto funcione requieren un análisis de datos cuidadoso y una gestión de operaciones de muy alta
calidad (Sainfort et al. 2005).
El objetivo principal de este capítulo es diseñar una estrategia para obtener una comprensión de
estos sistemas complejos, identificar los medios para mejorar su desempeño y predecir cómo los
cambios propuestos afectarán el comportamiento del sistema. Presentamos esto en forma de un
proceso de seis pasos y brindamos algunos detalles sobre cada paso. Cerramos con una discusión
de varios proyectos en los que se ha aplicado nuestro proceso.

2.2 Una clínica representativa

Para hacer más concreto el resto de nuestra discusión, introduzcamos una unidad de análisis
representativa. Los datos asociados con esta unidad se tomarán de una combinación de clínicas que
hemos estudiado, pero no pretende ser una representación completa de
Machine Translated by Google

772 M. (Mac) Dada y C. Cámaras

Fig. 22.1 Copiado del DES de una clínica representativa

cualquier unidad en particular. Considere un paciente con una cita para ver al asistente en una clínica
dentro de un AMC. Trabajaremos con una simulación de eventos discretos (DES) de este proceso. DES
es el enfoque de crear un modelo matemático de los flujos y actividades presentes en un sistema y usar
este modelo para realizar experimentos virtuales que buscan encontrar formas de mejorar el rendimiento
medible (Benneyan 1997; Clymer 2009; Hamrock et al. 2013; Jun et al. . 1999). En la Fig. 22.1 se
presenta una captura de pantalla de dicho DES y se duplicará como un mapa de proceso simplificado.
Por simplificado, queremos decir que varios de los bloques que se muestran en la figura en realidad
envuelven varios bloques que manejan los detalles del modelo. Las versiones de este y otros modelos
similares junto con ejercicios enfocados en su análisis y uso están vinculados a este capítulo.

Tenga en cuenta que la figura también contiene una muestra de entradas y salidas del modelo de la
simulación en sí. Discutiremos varias de estas métricas en breve.
En esta representación, un bloque crea unidades de trabajo (pacientes) de acuerdo con un
programa de citas. El bloque denominado “Llegada” combina estas horas de cita con una variable
aleatoria que refleja la impuntualidad del paciente para obtener las horas de llegada reales. Una vez
creado, los pacientes pasan al Paso 1. Justo encima del Paso 1, mostramos un bloque que sirve como
cola en caso de que los recursos del Paso 1 estén ocupados. En el Paso 1, el paciente interactúa con
el personal de la recepción. Etiquetaremos este paso como "Registro" con el entendimiento de que
puede incluir la recopilación de datos y tal vez alguna educación del paciente. En el Paso 2, una
enfermera lleva al paciente a una sala de examen, recopila datos sobre los signos vitales y hace
algunas preguntas sobre el estado del paciente. Etiquetaremos este paso como "Vitales". En el Paso 3,
un aprendiz revisa el registro del paciente y entra a la sala de examen para interactuar con el paciente.
Etiquetamos este paso como "aprendiz". En el Paso 4, el alumno sale de la sala de examen e interactúa
con el asistente. Etiquetamos este paso como "Enseñar". Durante este tiempo, el aprendiz puede
presentar información del caso al asistente y la pareja analiza los próximos pasos, los posibles
problemas y la necesidad de información adicional. En el Paso 5, el aprendiz y el asistente ingresan a
la sala de examen e interactúan con el paciente. Etiquetamos este paso como "Asistir". Después de
este paso, el aprendiz, el asistente y la sala son "liberados", lo que significa que son libres de ser
Machine Translated by Google

22 Análisis de atención médica 773

asignado al siguiente paciente. Finalmente, el paciente regresa a la recepción para "Salir". Este paso
puede incluir el cobro del pago y hacer una cita para una visita futura.

Para gestionar este sistema, necesitamos comprender su comportamiento. Este comportamiento se


reflejará en métricas cuantificables, como los tiempos de ciclo, los tiempos de espera y el tiempo que
llevará completar la programación de citas (makespan). Tenga en cuenta que los tiempos de los ciclos
pueden calcularse en función de los horarios de las citas o de la llegada de los pacientes.
Ambos valores se incluyen entre los resultados del modelo que se muestran aquí. Si bien este modelo
es bastante simple, algunas preguntas importantes pueden resolverse con su uso. Por ejemplo,
podemos hacer diferentes suposiciones con respecto al tiempo de procesamiento de los asistentes y
notar cómo esto cambia los valores de salida seleccionados. Esto se hace alterando los parámetros
etiquetados como “Att. Parámetros de tiempo” entre las entradas del modelo. Para esta ilustración,
asumimos que estos tiempos se extraen de una distribución logarítmica normal y que el usuario puede
cambiar la media y la desviación estándar de esa distribución.
Sin embargo, un beneficio de la simulación es que podemos usar una distribución o muestra diferente
directamente de los datos de tiempo de actividad recopilados. Hablaremos de estos temas más adelante.
Este modelo también se puede utilizar como parte de un enfoque más holístico para abordar preguntas
más sutiles, incluida la forma en que la misión educativa agregada afecta las métricas de salida y cuál
es el mejor horario de citas para este sistema. En la siguiente sección, presentamos un enfoque más
completo para manejar preguntas más complejas como estas.

2.3 Cómo arreglar los procesos de atención médica

Gran parte del desarrollo temprano de las universidades orientadas a la investigación en los EE. UU.
fue impulsado por la necesidad de investigación relacionada con el cuidado de la salud (Chesney 1943).
En consecuencia, cuando se trabaja con médicos y otros profesionales de la salud en el AMC, ya existe
un punto de partida conveniente para la discusión. La investigación en la mayor parte de la atención
médica aborda preguntas mediante ensayos aleatorios o implementaciones piloto. Por lo general, se
centran en experimentos formales cuidadosamente diseñados y realizados en entornos clínicos o de
laboratorio. Este enfoque de investigación basado en experimentos ha demostrado ser altamente
efectivo y muchos lo consideran la mejor manera de producir resultados basados en evidencia sobre
cuestiones médicas relacionadas con temas que incluyen la eficacia de un nuevo medicamento o la
eficiencia de una nueva técnica. Una forma de obtener la aceptación de los profesionales en el AMC es
adoptar un enfoque muy similar a los problemas relacionados con el flujo de pacientes.

Al mismo tiempo, la investigación de operaciones (OR) ha tenido una larga historia de uso de
herramientas para mejorar los procesos de prestación de servicios. OR emplea un paradigma de
investigación de modelado predictivo que utiliza ecuaciones matemáticas, lógica informática y
herramientas relacionadas para pronosticar las consecuencias de elecciones de decisiones particulares
(Sainfort et al. 2005). Por lo general, esto se hace en abstracción sin un experimento formal. Este
enfoque permite que la consideración de opciones alternativas se evalúe y compare rápidamente para
ver cuáles tienen más probabilidades de producir los resultados preferidos. Muchas áreas tradicionales
de quirófano prevalecen en la gestión clínica. Estos temas incluyen
Machine Translated by Google

774 M. (Mac) Dada y C. Cámaras

programación de citas (Cayirli et al. 2006), problemas de lista de enfermeras (Burke et al. 2004),
problemas de asignación de recursos (Chao et al. 2003), planificación de la capacidad (Bowers and
Mold 2005) y problemas de enrutamiento (Mandelbaum et al. 2012 ). ).
Dada esta confluencia de enfoques y necesidades, parece natural que aquellos que trabajan
para mejorar los procesos de atención médica empleen técnicas de OR como DES para realizar
experimentos virtuales controlados como parte del proceso de mejora. Sin embargo, cuando uno
mira más de cerca, encuentra que el historial de implementaciones de resultados basados en
hallazgos de OR en AMC es bastante pobre. Por ejemplo, una revisión de más de 200 artículos que
usaron DES en entornos de atención médica identificó solo cuatro que incluso afirmaron que el
comportamiento del médico cambió como resultado (Wilson 1981).
Una revisión más reciente encontró solo una instancia de una publicación que incluía un cambio
documentado en el desempeño de la clínica como resultado de una intervención motivada por
simulación (van Lent et al. 2012).
Esto plantea una pregunta importante: dado que claramente hay un interés activo en usar
modelos DES para mejorar el flujo de pacientes y hay mucho talento trabajando para que esto
suceda, ¿qué podemos hacer para usar esta técnica de una manera que resulte en un cambio real?
en el desempeño de la clínica? Prácticamente cualquier libro de texto de administración de
operaciones proporcionará una lista de factores necesarios para tener éxito en los proyectos de
mejora de procesos, como involucrar a todos los interesados desde el principio, identificar un
campeón del proyecto, establecer objetivos claros, dedicar los recursos necesarios, etc. (Trusko et
al. 2007). Sin embargo, queremos centrar esta discusión en dos elementos adicionales que son un
poco más sutiles y, según nuestra experiencia, a menudo marcan la diferencia entre el éxito y el
fracaso cuando se trabaja en clínicas ambulatorias en el AMC.
Primero, encontrar un problema importante no es suficiente. Es sumamente importante pensar
en términos de encontrar la pregunta correcta que también aborde el problema subyacente. Como
agentes o consultores externos, no estamos en condiciones de pagar dinero adicional a los profesores
y al personal para implementar cambios para mejorar el sistema. Necesitamos una forma de pago
diferente para motivar su participación. Una gran ventaja del modelo AMC es que podemos
aprovechar el hecho de que los médicos también son investigadores dedicados.
Por lo tanto, podemos usar la promesa de publicaciones en lugar de un pago en efectivo para inducir
la participación.
En segundo lugar, necesitamos encontrar la combinación correcta de técnicas. Los experimentos
y la recopilación de datos resuenan con los investigadores médicos. Sin embargo, la traducción de
"laboratorio" a "clínica" está llena de factores de confusión fuera del control del médico. Por otro lado,
las técnicas OR pueden aislar una sola variable o factor, pero el modelado por sí solo no mejora un
sistema, y las presentaciones matemáticas que se sienten completamente abstractas no resuenan
entre los profesionales. El aspecto único de nuestro enfoque es combinar herramientas OR con
experimentos "clínicos". Esto permite a los médicos proyectarse en el modelo de una manera que es
más destacada de lo que podrían ser las ecuaciones subyacentes. La idea clave es que existe valor
en encontrar una forma de fusionar las herramientas de quirófano con las metodologías de la
investigación médica para generar hallazgos útiles que realmente se implementarán para mejorar el
flujo de la clínica.
Machine Translated by Google

22 Análisis de atención médica 775

2.4 El proceso de mejora de procesos

Teniendo en cuenta estos antecedentes, necesitamos un enfoque sistemático para describir, analizar y predecir
mejoras en el rendimiento en función de los cambios que se pueden realizar en estos sistemas. Para hacer esto,
necesitamos lograr al menos seis cosas, que forman la declaración de nuestro método:

1. Describa los procesos que brindan atención y/o servicio a los pacientes de manera relevante.
2. Recopilar datos sobre tiempos de actividad, flujos de trabajo y comportamiento de los agentes clave.
3. Crear un DES del sistema en estudio.
4. Experimente con sistemas reales y virtuales para identificar y probar posibles
cambios.
5. Desarrollar métricas de rendimiento de interés tanto para los pacientes como para los proveedores de atención.
6. Predecir cambios en las métricas que se derivan de cambios en el proceso.

Ahora pasamos a proporcionar un poco más de detalles sobre cada uno de estos pasos.
Paso 1: Descripción del proceso
Mucho se ha escrito sobre el mapeo de procesos en entornos de atención médica (Trusko et al. 2007; Trebble
et al. 2010). En muchos casos, la actividad de mapeo de procesos en sí misma sugiere múltiples cambios que
pueden mejorar el flujo de procesos. Sin embargo, algunas ideas relacionadas con las complicaciones específicas
de la atención médica de esta actividad merecen discusión.

Quizás la forma más obvia de desarrollar un mapa de procesos es pedir primero a los agentes del sistema que
describan el flujo de trabajo. Hemos descubierto que esto es absolutamente necesario y sirve como un excelente
punto de partida, pero nunca es suficiente. Los agentes del sistema a menudo proporcionan descripciones engañosas
del flujo del proceso. En muchos casos, los médicos no son plenamente conscientes de lo que hace el personal de
apoyo para que el proceso funcione, y los aprendices y el personal a menudo tienen mucho cuidado de no contradecir
a los médicos más experimentados. Para obtener descripciones de procesos de alta calidad, debemos recopilar
información imparcial de múltiples niveles de la organización. Idealmente, esto incluirá personal de apoyo, enfermeras,
pasantes y asistentes. En algunos casos, otros administradores también son valiosos, especialmente si hay un
gerente de departamento o alguna otra persona que recopila y reporta datos de desempeño de manera rutinaria. Es
ideal tener a todos estos agentes trabajando en el desarrollo de un mapa de procesos como grupo. Sin embargo, si
esto no se puede hacer, es aún más vital recopilar cuidadosamente información sobre los flujos de proceso desde
tantos ángulos diferentes como sea posible.

En segundo lugar, hemos encontrado que no importa cuánta información sobre el proceso se haya recopilado,
siempre se requiere la observación directa de agentes externos que trabajan en el proceso de mejora del proceso.
Todavía tenemos que encontrar una descripción del proceso creada por agentes internos que esté completamente
de acuerdo con nuestras observaciones. Los profesionales de la salud (comprensiblemente) anteponen la atención
al paciente a cualquier otra consideración.
En consecuencia, hacen excepciones a los flujos de procesos normales de forma rutinaria sin pensarlo dos veces.
Como resultado, su comportamiento diario casi siempre incluirá varias sutilezas que no recuerdan cuando se les
pregunta sobre el flujo del proceso.
Machine Translated by Google

776 M. (Mac) Dada y C. Cámaras

Paso 2: Recopilación de datos


En nuestra experiencia, este es el paso que más tiempo consume en el proceso de mejora. Dado un mapa
de procesos, se completará con una serie de actividades realizadas por varios agentes. La pregunta principal
que debe hacerse en esta etapa es cuánto tiempo dedica cada agente a completar cada paso. Este enfoque
tiene sentido por varias razones: en primer lugar, la queja dominante de los pacientes en entornos ambulatorios
son los tiempos de espera. Por lo tanto, el tiempo es una métrica crucial desde la perspectiva del paciente. En
segundo lugar, se han desarrollado muchos sistemas que acumulan costos basados en cargos por hora o
minuto por minuto para varios recursos (Kaplan y Anderson 2003; Kaplan y Porter 2011; King et al. 1994). En
consecuencia, el tiempo también es una métrica crucial desde la perspectiva del administrador de procesos.
Por lo tanto, cuánto tiempo toma cada paso se convierte en la pregunta central de interés.

Hemos utilizado cuatro formas de descubrir esta información. En primer lugar, se puede preguntar a los
agentes dentro del sistema cuánto tiempo lleva un paso del proceso. Esto es útil como punto de partida y
puede ser suficiente en algunos casos excepcionales. Por otro lado, interrogar a los agentes sobre los tiempos
de actividad es problemático porque la mayoría de la gente piensa en términos de promedios y les resulta difícil
medir las varianzas. Esto solo se puede hacer después de que se disponga de un número suficiente de
observaciones.

También hemos utilizado un segundo enfoque en el que los cuidadores registran los tiempos durante las
visitas de los pacientes. Por ejemplo, en una clínica, adjuntamos un formulario a cada registro de paciente
recuperado durante cada sesión clínica. En el Paso 1, el personal de la recepción registra la hora de llegada
del paciente y la hora de la cita. Luego, la enfermera registra las horas de inicio y finalización del Paso 2 y así
sucesivamente. Este enfoque se puede automatizar mediante el uso de ayudas como teléfonos o aplicaciones
para iPad, cuando corresponda. Sin embargo, este enfoque introduce varios problemas. El registro de datos
interrumpe el flujo normal y no es posible convencer a los participantes de que el registro de datos se compara
en importancia con la atención al paciente.
Como consecuencia, vemos repetidamente instancias en las que los proveedores se olvidan de registrar los
datos y luego intentan "completarlos" más tarde en el día cuando las cosas están menos agitadas. Esto produce
conjuntos de datos en los que los tiempos medios pueden ser estimaciones razonables, pero las estimaciones
de las varianzas simplemente no son confiables.
Un tercer enfoque para la recopilación de datos que se usa a menudo en los AMC es utilizar observadores
pagados para registrar las marcas de tiempo. Este enfoque puede generar información altamente confiable
siempre que el proceso no sea demasiado complejo y el observador pueda colocarse físicamente para tener
líneas de visión que hagan que este método sea práctico. Este enfoque es común en los AMC porque casi
siempre están conectados a una universidad más grande y hay mano de obra de relativamente alta calidad y
bajo costo disponible en forma de estudiantes o voluntarios. Si bien hemos utilizado esta técnica con éxito en
múltiples ocasiones, no está exenta de problemas. En primer lugar, los observadores deben ser discretos. Esto
se hace mejor asignándolos a espacios específicos. Si el personal viaja mucho, esto se vuelve problemático.
Por ejemplo, una clínica de oncología radioterápica que estudiamos tenía salas y equipos en varios pisos, por
lo que el seguimiento se volvió bastante complejo. En segundo lugar, las partes que atienden a los pacientes
saben que están siendo observadas. Muchos investigadores informaron mejoras significativas en el flujo de
procesos utilizando este enfoque, solo para descubrir que después de que los observadores se fueron, el
sistema volvió a su forma anterior de funcionamiento y se perdió la mejora documentada.
Machine Translated by Google

22 Análisis de atención médica 777

También hemos utilizado un cuarto enfoque para la recopilación de datos. Muchos hospitales y clínicas
están equipados con sistemas de localización en tiempo real (RTLS). Los AMC grandes a menudo se
diseñan para incluir esta capacidad porque los dispositivos y equipos de rastreo en cientos de miles de
pies cuadrados de espacio simplemente no son prácticos sin alguna asistencia tecnológica. Las
instalaciones de estos sistemas generalmente implican colocar sensores en los techos o pisos de los
espacios relevantes. Estos sensores captan señales de transmisores que se pueden incrustar en
"etiquetas" o "insignias" que usan los artículos o las personas que se rastrean. Cada sensor registra
cuando una etiqueta entra dentro del rango y nuevamente cuando sale de esa área. Cuando se asignan
números de etiqueta únicos a cada cuidador, se pueden generar informes detallados al final de cada día
que muestren cuándo se movió una persona o equipo de un lugar a otro.

Este enfoque ofrece varias ventajas espectaculares. No interfiere con el proceso de atención, el costo
marginal de su uso es prácticamente cero y como estos sistemas están siempre funcionando, los períodos
de observación pueden comenzar y terminar según sea necesario.
Para concluir, debemos destacar tres factores clave en el proceso de recopilación de datos: (1) la
recopilación de datos debe realizarse de manera que no interfiera con la prestación de la atención; (2) se
necesitan auditorías del sistema de recopilación de datos para garantizar la precisión; y (3) se debe cubrir
un período de tiempo suficiente para eliminar cualquier efecto de la "novedad" de la recopilación de datos
y su impacto posterior en los comportamientos de los agentes.
Paso 3: Cree un DES del sistema A menudo
hemos encontrado útil crear modelos DES de los sistemas bajo estudio tan pronto como sea posible
en el proceso. Este puede ser un proceso costoso en el que se requiere una gran cantidad de recopilación
de datos y la construcción del modelo puede ser un gasto no trivial.
Otras herramientas, como el mapeo de procesos y la teoría de colas, se pueden aplicar con mucho menos
esfuerzo (Kolker 2010). Sin embargo, hemos encontrado repetidamente que estas herramientas son
insuficientes para el análisis que se necesita. Debido a que las variaciones involucradas en los tiempos
de actividad pueden ser extremadamente altas en el cuidado de la salud, las distribuciones de las métricas
de interés son hallazgos importantes. En consecuencia, el análisis básico del proceso rara vez es
suficiente y, a menudo, engañoso.
Los modelos de colas transmiten mucho mejor la importancia de la variabilidad. Sin embargo, muchas
suposiciones comunes de estos modelos se violan rutinariamente en entornos clínicos, incluido que
algunos tiempos de procesamiento no se distribuyen exponencialmente, que los tiempos de procesamiento
a menudo no tienen la misma distribución y que si las llegadas se basan en citas, los tiempos entre
llegadas son no distribuida exponencialmente.

Sin embargo, ninguno de estos problemas plantea el mayor desafío para aplicar análisis de procesos
simples o modelos de colas en clínicas ambulatorias. Considere dos cuestiones adicionales. Primero, los
resultados básicos del análisis de procesos o modelos de colas son solo promedios que aparecen en
estado estacionario. Una clínica no comienza el día en un estado estable, comienza en un estado vacío.
Se necesita algún tiempo para alcanzar el estado estacionario. Sin embargo, si se grafican los tiempos
de espera promedio de una clínica a lo largo del tiempo, se ve rápidamente que el sistema puede necesitar
docenas o incluso cientos de casos para alcanzar el estado estable. Claramente, una clínica con un
médico no programará cientos de pacientes para ese recurso en una sola sesión. Por lo tanto, los
resultados de estado estacionario a menudo no son informativos.
Machine Translated by Google

778 M. (Mac) Dada y C. Cámaras

En segundo lugar, si los tiempos de actividad y/o la lógica que define el flujo de trabajo cambian en
respuesta al tipo de trabajo o al estado del sistema, entonces los resultados del análisis de procesos simples
o los modelos de cola se vuelven inválidos. Hemos documentado tales prácticas en múltiples clínicas que
hemos estudiado (Chambers et al. 2016; Conley et al. 2016). En consecuencia, lo que se necesita es una
herramienta que pueda dar cuenta de todos estos factores simultáneamente, hacer predicciones sobre lo que
sucede cuando cambia algún elemento del sistema y brindarnos información sobre la distribución más amplia
de resultados, no solo un medio para los sistemas en constante. estado. DES es una herramienta con las
capacidades necesarias.
Se justifica aquí un breve comentario sobre la inclusión de tiempos de actividad en los modelos DES.
Hemos utilizado dos enfoques distintos. Podemos seleccionar un tiempo de actividad al azar de una colección
de observaciones. Alternativamente, podemos ajustar una distribución a los datos de tiempo de actividad
recopilados. Hemos encontrado que ambos enfoques funcionan satisfactoriamente. Sin embargo, si el conjunto
de datos es lo suficientemente grande, recomendamos tomar muestras directamente de ese conjunto.
Esto genera resultados que son más fáciles de defender ante los estadísticos y más creíbles para los
profesionales.
Paso 4: Experimentos de campo y virtuales Es
en este punto que entra en juego el uso de experimentos, y fusionamos la metodología OR de DES con
los métodos experimentales de la investigación médica. La lógica subyacente es que proponemos un
experimento que involucre algún cambio en el proceso que creemos que alterará uno o más parámetros que
definen el comportamiento del sistema. Podemos usar el DES para predecir resultados si nuestra propuesta
funciona. En otros casos, si tenemos evidencia de que el cambio propuesto funciona en algunas configuraciones,
podemos usar el DES para describir cómo ese cambio afectará las métricas del sistema en otras
configuraciones. La construcción de estos experimentos es el “arte” de nuestro enfoque. Es esta creación la
que conduce a resultados publicables y crea ideas novedosas.

Proporcionaremos ejemplos de experimentos específicos en la siguiente sección. Sin embargo, en este


momento deseamos plantear dos cuestiones críticas: variables de confusión y consecuencias no deseadas.
Las variables de confusión se refieren al sistema o atributos de comportamiento que no están completamente
controlados cuando se realiza un experimento, pero que pueden alterar los resultados del estudio. Por ejemplo,
considere observar un sistema antes de una intervención, recopilar datos sobre su desempeño, cambiar algo
sobre el sistema y luego recopilar datos sobre el desempeño del sistema modificado. Este es el enfoque ideal,
pero asume implícitamente que nada cambió en el sistema durante el período del estudio aparte de lo que
pretendía cambiar. Si la recopilación de datos se lleva a cabo durante un período de meses, es muy posible
que el horario de citas haya cambiado durante ese período de tiempo debido al aumento o la disminución de
la demanda. En este ejemplo, el cambio en la demanda sería una variable de confusión. Es de vital importancia
eliminar tantas variables de confusión como sea posible antes de concluir que el cambio de su proceso explica
completamente la mejora del sistema. DES ofrece muchas ventajas en este sentido porque le permite fijar
algunos niveles de parámetros en un modelo incluso si pueden haber cambiado en el campo.

También es fundamental tener en cuenta las consecuencias no deseadas. Por ejemplo, agregar salas de
examen a menudo se promociona como una forma de reducir los tiempos de espera. Sin embargo, esto
también hace que el espacio relevante sea más grande, aumentando los tiempos de viaje, así como la complejidad de
Machine Translated by Google

22 Análisis de atención médica 779

flujos de recursos. Esto debe tenerse en cuenta antes de declarar que las salas añadidas realmente
mejoraron el rendimiento. Puede mejorar el rendimiento en una dimensión mientras lo degrada en otra.

El modelado DES ha demostrado repetidamente ser invaluable en esta etapa. Una vez que se
crea un modelo DES, es fácil simular una gran cantidad de sesiones clínicas y recopilar datos sobre
una amplia gama de métricas de rendimiento. Con un poco más de esfuerzo, también se puede
configurar para recopilar datos sobre el uso de horas extra o tiempos de espera dentro de las salas
de examen. Además, los modelos DES se pueden configurar para que los pacientes tomen diferentes
caminos o se extraigan tiempos de actividad de diferentes distribuciones según el estado del sistema.
Finalmente, hemos encontrado útil que los modelos DES recopilen datos sobre subgrupos de pacientes
según el estado del sistema porque muchos cambios en los parámetros del sistema afectan a
diferentes grupos de manera diferente.
Paso 5: Métricas de interés Un
adagio famoso afirma: "Si no puedes medirlo, no puedes administrarlo". Por lo tanto, centrarse en
las mediciones elimina la ambigüedad y limita los malentendidos. Si todas las partes están de acuerdo
con una métrica, es más fácil para ellos compartir ideas sobre cómo mejorarla. Sin embargo, esto
plantea una pregunta importante: ¿en qué métricas queremos centrarnos?
Al tratar con esta pregunta, los pasos 4 y 5 de nuestro método se entrelazan y no pueden pensarse
de manera puramente secuencial. En algunos entornos, necesitamos métricas novedosas para
adaptarse a un experimento, mientras que en otros entornos, los resultados inesperados de los
experimentos sugieren métricas que no habíamos considerado antes.
Tanto los pacientes como los proveedores están preocupados por el rendimiento del sistema, pero
sus diferentes perspectivas crean compensaciones complejas. Por ejemplo, los investigadores a
menudo han encontrado que el aumento del tiempo cara a cara con los proveedores sirve para
mejorar la experiencia del paciente (Thomas et al. 1997; Seals et al. 2005; Lin et al. 2001), pero un
aumento en el tiempo de espera degrada esa experiencia (Meza 1998; McCarthy et al. 2000; Lee et
al. 2005). Es posible que el paciente no comprenda completamente lo que está haciendo el proveedor
de atención, pero siempre puede comprender que es preferible más atención y que esperarla no es
productivo. Dado un nivel fijo de recursos, los aumentos en el tiempo presencial dan como resultado
una mayor utilización del proveedor, lo que a su vez aumenta los tiempos de espera de los pacientes.
En consecuencia, el deseo del paciente de aumentar el tiempo de atención y reducir el tiempo de
espera crea una tensión natural y sugiere que las métricas de interés casi siempre incluirán tanto el
tiempo de atención como el tiempo de espera.
Considere un paciente que observamos recientemente. Este paciente llegó 30 minutos antes a
una cita y esperó 20 minutos antes de ser conducido a la sala de examen. Después de ser conducido
a la habitación, el paciente esperó 5 min antes de ser visto por una enfermera durante 5 min. Luego,
el paciente esperó 15 min antes de ser visto por el residente. Luego, el aprendiz habló con el paciente
durante 20 minutos antes de salir de la habitación para discutir el caso con el asistente. Luego, el
paciente esperó 15 min antes de ser visto por el residente y el asistente juntos. El asistente habló con
el paciente durante 5 minutos antes de ser llamado para tratar un problema de otro paciente. Esto
tomó 10 minutos. Luego, el asistente regresó a la sala de examen y habló con el paciente durante
otros 5 minutos. Después de eso, el paciente se fue. Al sumar estas duraciones, vemos que el
paciente estuvo en la clínica durante aproximadamente 100 minutos. El paciente esperó 20 min en la
sala de espera. Sin embargo, el paciente también pasó 45 min en el examen.
Machine Translated by Google

780 M. (Mac) Dada y C. Cámaras

sala de espera para el servicio. El tiempo en la sala de examen fue de aproximadamente 80


minutos, de los cuales 35 minutos se pasaron en presencia de un proveedor de servicios. Por lo
tanto, podemos decir que el tiempo total de cara fue de solo 35 min. Sin embargo, de este tiempo
solo 10 min estuvo con el médico tratante. La consideración de esta descripción más completa
sugiere una plétora de métricas poco utilizadas que pueden ser de interés, tales como:

1. Puntualidad del
paciente 2. Tiempo pasado en la sala de espera antes de la hora de la cita
3. Tiempo pasado en la sala de espera después de la hora de la cita 4.
Tiempo de espera en la sala de examen 5. Proporción del tiempo del ciclo
pasado con un proveedor de atención 6. Proporción del tiempo de ciclo
pasado con el asistente

El mensaje clave aquí es que las métricas de interés pueden ser específicas del problema que
se busca abordar y deben reflejar los matices del proceso implementado para brindar los servicios
involucrados.
Paso 6: Predecir el impacto de los cambios en
el proceso Incluso después de realizar un experimento en un entorno, descubrimos que es
extremadamente difícil predecir cómo afectarán los cambios a un sistema diferente simplemente
observando el mapa del proceso. Esta es otra área donde DES resulta bastante valioso.
Por ejemplo, digamos que nuestro experimento en la Clínica A muestra que al cambiar el proceso
de alguna manera, el tiempo para el paso de Atención se reduce en un 10 %. Luego, podemos
modelar este cambio en un entorno clínico diferente utilizando un DES de ese entorno para predecir
cómo se reflejará la implementación de nuestro cambio sugerido en las métricas de rendimiento de
esa clínica en el futuro. Este enfoque ha demostrado ser vital para obtener la aceptación necesaria
para facilitar un experimento más formal en el nuevo entorno o para motivar la implementación en
una unidad donde no se lleva a cabo un experimento formal.

2.5 Experimentos, simulaciones y resultados

Nuestro trabajo ha incluido una colección de experimentos que han llevado a mejoras en el sistema
para escenarios como el que se muestra en la figura 22.1. Pasamos ahora a una discusión de
algunos de estos esfuerzos para proporcionar contexto e ilustraciones de nuestro enfoque. La
Figura 22.1 incluye un proceso de llegada bajo un sistema de citas. Esto es seguido rápidamente
por actividades que involucran al aprendiz y/o enfermera y/o asistente.
Finalmente, el sistema espera dar cuenta de todas estas cosas cuando busca un horario optimizado.
Discutimos algunos de estos temas a su vez.
Proceso de
llegada Nos estamos centrando en las clínicas que establecen un horario de citas definido.
Una complicación obvia es que algunos pacientes no se presentan, lo que significa que no se
presentan a la cita. En trabajos anteriores se han citado tasas de ausencia de hasta el 40%
(McCarthy et al. 2000; Huang 1994). Sin embargo, también hay un problema más sutil de pacientes
que llegan muy temprano o muy tarde, y esto es mucho más difícil de explicar. Los primeros
trabajos en este espacio se refirieron a esto como “impuntualidad” del paciente (Bandura
Machine Translated by Google

22 Análisis de atención médica 781

1969; Blanco y Pike 1964; Alexopoulos et al. 2008; Fetter y Thompson 1966; Tai y Williams 2012; Perros
y Frier 1996). Nuestro enfoque se ha utilizado para abordar dos preguntas interrelacionadas: ¿La
impuntualidad del paciente afecta el desempeño de la clínica y podemos afectar la impuntualidad del
paciente? Para abordar estas preguntas, llevamos a cabo un experimento simple. Los datos sobre la
impuntualidad de los pacientes se recogieron durante un período de seis meses. Encontramos que la
mayoría de los pacientes llegaron temprano, pero la impuntualidad de los pacientes osciló entre -80 y +20.
En otras palabras, algunos pacientes llegaron hasta 80 minutos antes, mientras que otros llegaron 20
minutos tarde. Se realizó una intervención que constaba de tres elementos. En los recordatorios enviados
por correo a cada paciente antes de su visita, se indicó que a los pacientes que llegaran tarde se les
pediría que reprogramaran la cita.
Todos los pacientes fueron llamados en los días previos a la visita y se repitió el mismo recordatorio por
teléfono. Finalmente, se colocó un letrero que explicaba la nueva política cerca del mostrador de registro.
Luego se rastreó la impuntualidad 1, 6 y 12 meses después.
Otras métricas de interés fueron los tiempos de espera, el uso de horas extra y la proporción de pacientes
que se vieron obligados a esperar para ser atendidos (Williams et al. 2014).
Este seguimiento prolongado se consideró necesario porque algunos pacientes solo visitaron la clínica
una vez por trimestre y, por lo tanto, el efecto completo de la intervención no pudo medirse hasta después
de varios trimestres de implementación. Para garantizar que los cambios en el desempeño de la clínica
estuvieran relacionados solo con cambios en la impuntualidad, necesitábamos una forma de controlar los
cambios en el horario de citas que ocurrieron durante ese período de tiempo. Nuestra respuesta a este
problema fue crear un DES de la clínica, utilizar los tiempos de actividad reales en el DES y considerar
distribuciones antiguas versus nuevas de la impuntualidad de los pacientes, asumiendo un horario fijo.
Esto nos permitió aislar el impacto de nuestra intervención.

Antes de la intervención, el 7,7% de los pacientes llegaban tarde y la tardanza promedio de esos
pacientes era de 16,75 min. Después de 12 meses, estas cifras se redujeron a 1,5% y 2 min,
respectivamente. El porcentaje de pacientes que llegaron antes de la hora de su cita pasó del 90,4% al
95,4%. La proporción que llegó con al menos 1 minuto de retraso se redujo del 7,69 % al 1,5 %. El rango
de impuntualidad disminuyó de 100 a 58 min. El tiempo promedio para completar la sesión se redujo de
250,61 a 244,49 min. Por lo tanto, se eliminaron alrededor de 6 minutos de operaciones de tiempo extra
de cada sesión. La probabilidad de completar la sesión a tiempo aumentó del 21,8% al 31,8%.

Nuestro uso de DES nos permitió crear métricas de rendimiento que aún no se habían explorado. Por
ejemplo, notamos que los beneficios del cambio no fueron los mismos para todos los pacientes. Los
pacientes que llegaron tarde vieron caer su tiempo de espera promedio de 10,7 a 0,9 min. Aquellos que
llegaron un poco antes vieron aumentar su tiempo de espera promedio en aproximadamente 0,9 minutos.
Finalmente, para aquellos que llegaron muy temprano, su tiempo de espera no se vio afectado. En
resumen, encontramos que la impuntualidad del paciente puede verse afectada y altera el desempeño de
la clínica, pero esto tiene consecuencias tanto intencionadas como no intencionadas.
Es más probable que la sesión de la clínica termine a tiempo y se reducen los costos de horas extra.
Sin embargo, gran parte del beneficio en términos de tiempos de espera lo obtienen los pacientes que
todavía insisten en llegar tarde.
Tiempos de procesamiento de los
médicos Históricamente, casi todas las investigaciones sobre clínicas ambulatorias suponían que los
tiempos de procesamiento no estaban relacionados con el cronograma o si la clínica funcionaba a tiempo. Es
Machine Translated by Google

782 M. (Mac) Dada y C. Cámaras

este de hecho el caso? Para abordar esta pregunta, analizamos datos de tres entornos clínicos. Una era
una clínica de bajo volumen que albergaba a un solo médico, otra era una clínica de volumen medio en un
AMC que tenía un asistente trabajando en cada turno junto con dos o tres aprendices, y la última era un
servicio de alto volumen que tenía múltiples asistentes trabajando simultáneamente (Chambers et al. 2016).

Clasificamos a los pacientes en tres grupos: Los pacientes del Grupo A eran aquellos que llegaron
temprano y fueron colocados en la sala de examen antes de la hora programada para su cita. Los
pacientes del grupo B fueron aquellos que también llegaron temprano, pero fueron colocados en la sala
de examen después de la hora de su cita, lo que indica que la clínica estaba congestionada. Los pacientes
del grupo C fueron aquellos que llegaron después de la hora de su cita. La pregunta principal era si el
tiempo promedio de procesamiento para los pacientes del Grupo A era el mismo que para los pacientes
del Grupo B. También teníamos preguntas sobre cómo esto afectaba el desempeño de la clínica en
términos de tiempos de espera y tiempos de finalización de la sesión.

En la clínica de bajo volumen con un solo médico, los tiempos de procesamiento promedio y los errores
estándar (entre paréntesis) fueron 38,31 (3,21) para el Grupo A y 26,23 (2,23) para el Grupo B. En otras
palabras, el médico se movió más rápido cuando la clínica estaba retrasado Se han encontrado resultados
similares en otras industrias, pero esta fue la primera vez (hasta donde sabemos) que esto se demostró
en clínicas ambulatorias.

En la clínica de volumen medio, los valores relevantes fueron 65,59 (2,24) y 53,53 (1,97). Nuevamente,
el sistema funcionó más rápido para el Grupo B que para el Grupo A. Tenga en cuenta que la caída en los
tiempos promedio es de aproximadamente 12 minutos en ambas configuraciones. Esto sugiere que el
hallazgo es sólido, lo que significa que ocurre en un grado similar en entornos similares (pero no idénticos).
Además, recuerde que la clínica de volumen medio incluyó pasantes en el flujo del proceso. Esto sugiere
que la forma en que el sistema obtuvo este aumento de velocidad podría ser diferente. De hecho, nuestros
datos muestran que la cantidad de tiempo promedio que el asistente pasó con el paciente no fue más de
12 minutos para empezar.
Por lo tanto, sabemos que no fue solo el comportamiento de los asistentes lo que hizo que esto sucediera.
El AMC debe estar usando a los aprendices de manera diferente cuando las cosas se retrasan.

En la clínica de alto volumen, los valores paralelos fueron 47,15 (0,81) y 17,59 (0,16).
Aquí, vemos que la caída en los tiempos de procesamiento es mucho más dramática de lo que vimos
antes. Nuevamente, el mensaje es que los tiempos de procesamiento cambian cuando el sistema está
bajo estrés y la magnitud del cambio implica que múltiples partes están involucradas para que esto suceda.
En retrospectiva, esto parece totalmente razonable, pero el alcance de la diferencia sigue siendo bastante
sorprendente.
Como vimos en la sección anterior, hay una consecuencia no deseada de este comportamiento del
sistema en lo que respecta a los grupos de pacientes. Los pacientes que llegan temprano deben ayudar a
la clínica a cumplir con el cronograma. Esto puede no ser así porque estos pacientes reciben tiempos de
procesamiento más largos. Por lo tanto, sus tiempos de ciclo son más largos. Los pacientes que llegan
tarde tienen tiempos de espera más cortos y tiempos de procesamiento más cortos. Por lo tanto, sus
tiempos de ciclo son más cortos. Si los tiempos de ciclo más cortos se perciben como un beneficio, esto
parece una recompensa injusta por la tardanza del paciente y puede explicar por qué nunca desaparecerá por completo.
Machine Translated by Google

22 Análisis de atención médica 783

Impacto de la Misión de Enseñanza


El resultado de la sección anterior sugiere que la forma en que se usa y maneja al pasante
dentro de la clínica hace una diferencia cuando se considera el desempeño del sistema. Para
explorar más este punto, queríamos comparar una clínica sin pasantes con una clínica similar que
incluía pasantes. Esto es difícil de hacer como experimento, pero tuvimos suerte al analizar esta
pregunta. Un asistente de una clínica sin pasantes fue contratado como director de una clínica en
el AMC que incluía pasantes. Por lo tanto, podríamos considerar que el mismo asistente atiende a
los mismos pacientes en ambos entornos. Una variable de confusión fue que las dos clínicas
usaban diferentes horarios de citas (Williams et al. 2012).

Recopilamos datos sobre los tiempos de actividad en ambos entornos. Dados estos tiempos,
podríamos sembrar modelos DES de ambas clínicas y comparar resultados. Dentro del DES,
podríamos considerar ambos entornos como si tuvieran el mismo horario de citas. Si consideramos
las dos configuraciones usando el cronograma establecido para el AMC, vemos que el tiempo de
ciclo promedio en el AMC fue de 76,2 min y esto incluyó un tiempo de espera promedio de 30,0
min. El tiempo medio necesario para completar un programa completo fue de 291,9 min.
Si se hubiera utilizado el mismo horario en el modelo de práctica privada, el tiempo de ciclo
promedio sería de 129,1 min y el tiempo de espera promedio sería de 83,9 min.
La capacidad del AMC era claramente mayor que en el modelo de práctica privada. Esto es
interesante porque los tiempos de flujo en el entorno de la práctica privada con el horario que se
optimizó para ese entorno fueron mucho más bajos. Resulta que el tiempo total de procesamiento
para cada paciente fue mayor en el AMC, pero la capacidad fue mayor. Esto se explica usando
procesamiento paralelo. En el entorno de AMC, el asistente pasó tiempo con un paciente, mientras
que los aprendices trabajaron simultáneamente con otros pacientes. Pudimos realizar un
experimento virtual cambiando el número de alumnos en el modelo DES. Descubrimos que tener
un aprendiz creó un sistema con tiempos de ciclo que eran mucho mayores que el modelo de
práctica privada. El uso de dos aprendices produjo tiempos de ciclo que eran casi iguales. El uso
de tres aprendices creó los tiempos de ciclo reducidos que notamos en la práctica. El uso de más
de tres aprendices no produjo ningún beneficio adicional porque ambas clínicas tenían solo tres
salas de examen disponibles. Esto nos permitió comentar sobre el número óptimo de alumnos
para una clínica determinada.

El uso de DES también destacó un resultado menos obvio. Resulta que el tiempo de espera en
este sistema fue particularmente sensible al tiempo que se tomó en el paso que etiquetamos como
"Enseñar". Este es el tiempo que el pasante pasa interactuando con el asistente después de
interactuar con el paciente. De hecho, encontramos que reducir este tiempo en 1 min sirvió para
reducir el tiempo de espera promedio en 3 min. Para comprender este fenómeno, recuerde que
cuando el aprendiz y el asistente están discutiendo el caso mientras el paciente espera en la sala
de examen durante 1 minuto, los tres recursos más ocupados del sistema (el aprendiz, el asistente
y la sala de examen) se encuentran simultáneamente. ocupado durante ese tiempo. Por lo tanto,
no sorprende que los tiempos de espera sean sensibles a la duración de esta actividad, aunque el
grado de esta sensibilidad sigue siendo revelador.
Preprocesamiento
Dado que los tiempos de espera son extremadamente sensibles a los tiempos de enseñanza,
creamos un experimento diseñado para alterar la distribución de estos tiempos. en vez de tener la
Machine Translated by Google

784 M. (Mac) Dada y C. Cámaras

El aprendiz revisa el caso después de colocar al paciente en la sala de examen y luego tiene la
primera conversación sobre el caso con el asistente después de que el aprendiz interactúa con el
paciente, podemos notificar tanto al aprendiz como al asistente con anticipación qué paciente verá
cada aprendiz. De esa manera, el pasante puede revisar el archivo antes de que comience la sesión
y tener una conversación con el asistente sobre lo que debe suceder cuando llegue el paciente.
También creamos una plantilla para guiar el flujo y el contenido de esta conversación. Nos referimos
a este enfoque como "preprocesamiento" (Williams et al. 2015).

Registramos tiempos de actividad utilizando el sistema original durante 90 días. Luego


presentamos el nuevo enfoque y lo ejecutamos durante 30 días. Durante este tiempo, continuamos
recopilando datos sobre los tiempos de actividad.
Antes de realizar la intervención, el tiempo medio de enseñanza era de 12,9 min para los
pacientes nuevos y de 8,8 min para los pacientes que regresaban. El nuevo enfoque redujo estos
tiempos en 3,9 min para pacientes nuevos y 2,9 min para pacientes recurrentes. Manteniendo el
horario como una constante, encontramos que los tiempos de espera promedio caen de 36,1 a 21,4
min y el tiempo de finalización de la sesión cae de 275,6 a 247,4 min.
Sin embargo, en este caso, fueron las consecuencias no deseadas las que demostraron ser más
importantes. Cuando los alumnos tenían un plan más claramente definido sobre cómo manejar cada
caso, sus interacciones con los pacientes se volvieron más eficientes. Los alumnos también
informaron que se sentían más seguros al tratar a los pacientes que antes. Si bien es difícil medir
este efecto en términos de tiempo, tanto los aprendices como los asistentes sintieron que los
pacientes recibieron una mejor atención con el nuevo protocolo.

Programación cíclica
Teniendo en cuenta los trabajos mencionados anteriormente, un hallazgo que ocurrió
repetidamente fue que la forma en que el alumno participaba en el proceso tenía un gran impacto
en el rendimiento del sistema y la forma en que se hacía a menudo dependía del estado. Recuerde
que descubrimos que el sistema encuentra formas de moverse más rápido cuando la clínica está
atrasada. Cuando un médico trabaja solo, esto se puede hacer simplemente proporcionando menos
tiempo cara a cara a los pacientes. Cuando el sistema incluye un aprendiz, hay una respuesta
adicional disponible en la que el asistente o el aprendiz pueden ser eliminados del proceso para uno
o más pacientes. Nuestra experiencia es que los médicos creen firmemente que el primer enfoque
produce grandes ahorros y se oponen firmemente al segundo.
Nuestra observación directa de múltiples clínicas produjo algunas ideas relacionadas con estos
temas. Omitir el asistente no ahorra tanto tiempo como la mayoría de los asistentes piensan porque
el alumno es más lento que el asistente. Además, el asistente se involucra en más de estos casos
de lo que parece darse cuenta. Muchos asistentes se sienten obligados a "al menos saludar" a los
pacientes incluso cuando los pacientes no están realmente en su horario, y estas visitas a menudo
resultan ser más largas de lo esperado. Con respecto al segundo enfoque, hemos notado una gran
variación en términos de qué tan dispuesto está el asistente a omitir al aprendiz de un caso. Algunos
casi nunca lo hacen, mientras que otros lo hacen con bastante frecuencia. En una clínica que
estudiamos, encontramos que el aprendiz fue omitido de aproximadamente el 30% de los casos en
el horario de la clínica. Si se hace esto, podría explicar por qué una clínica de volumen medio o alto
dentro del AMC podría reducir los tiempos de ciclo después de atrasarse en mayor medida que la
clínica de bajo volumen.
Machine Translated by Google

22 Análisis de atención médica 785

puede lograr. Esto se puede hacer instruyendo al aprendiz para que maneje un caso mientras el asistente maneja
otro y haciendo que el asistente excluya al aprendiz de uno o más casos en un esfuerzo por ponerse al día con el
horario de la clínica.
Tener en cuenta estos problemas al crear un programa de citas nos llevó a la noción de programación cíclica.
La idea es que el calendario de citas se pueda dividir en varios subconjuntos que se repiten. Etiquetamos estos
subconjuntos como "ciclos". En cada ciclo, incluimos un paciente nuevo y un paciente que regresa programado
para llegar al mismo tiempo. Un tercer paciente está programado para llegar a la mitad del ciclo.

Si ambos pacientes llegan al comienzo del ciclo, dejamos que el aprendiz comience a trabajar en el nuevo paciente
y el asistente se encarga del paciente que regresa sin que el aprendiz esté involucrado. Esto se consideró
aceptable porque se argumentó que la mayor parte del aprendizaje proviene de las visitas a nuevos pacientes. Si
solo llega uno de los dos pacientes, se utiliza el proceso estándar.

Las herramientas de análisis de procesos producen algunos resultados sobre los tiempos de ciclo promedio
en esta configuración, pero dado que los tiempos de espera están correlacionados en serie, queremos una
descripción mucho más clara de cómo se relaciona el tiempo de espera de cada paciente con el de los siguientes pacientes.
Considerar el problema utilizando un modelo de colas es extremadamente difícil porque la distribución relevante
de los tiempos de actividad depende del estado y el número de ciclos es pequeño. En consecuencia, los resultados
de estado estacionario son engañosos. El estudio de este enfoque dentro de un DES reveló que el promedio de
realización, los tiempos de espera y los tiempos de ciclo se reducen significativamente con nuestro enfoque cíclico
y el alumno participa en una mayor proporción de los casos programados.

3 Conclusión

Si bien se ha invertido una gran cantidad de tiempo, esfuerzo y dinero para mejorar los procesos de atención
médica, los problemas involucrados han demostrado ser muy difíciles de resolver. En este trabajo, nos enfocamos
en un sector pequeño pero importante del espacio del problema: el de las clínicas basadas en citas en los centros
médicos académicos. Una fuente de dificultad es que el campo médico favorece un enfoque basado en el diseño
experimental, mientras que muchas herramientas de quirófano son más matemáticas y abstractas. En consecuencia,
uno de nuestros mensajes centrales es que aquellos que trabajan para mejorar estos sistemas deben encontrar
formas de cerrar esta brecha mediante la combinación de técnicas. Cuando se hace esto, se puede avanzar y los
conocimientos generados se pueden difundir más ampliamente. Nuestro uso de DES se basa en herramientas de
mapeo de procesos con las que la mayoría de los gerentes están familiarizados y facilita experimentos virtuales
que son más fáciles de controlar y usar para generar métricas cuantitativas susceptibles a los tipos de pruebas
estadísticas que los médicos investigadores aplican de manera rutinaria.

Sin embargo, seríamos negligentes si no enfatizáramos el hecho de que los enfoques basados en datos rara
vez son suficientes para lograr el cambio deseado. Los hospitales en los AMC suelen ser entornos muy politizados
con una cultura jerárquica. Este hecho puede generar múltiples obstáculos que ninguna cantidad de "procesamiento
de números" podrá superar. Un aspecto no tan sutil de nuestro método es que normalmente involucra involucrarnos
en el proceso durante algunos períodos de tiempo e interactuar
Machine Translated by Google

786 M. (Mac) Dada y C. Cámaras

repetidamente con las partes involucradas. Hemos iniciado muchos proyectos no mencionados
anteriormente porque no dieron como resultado una acción real. Cada proyecto que ha tenido
éxito involucró muchas horas de trabajo con profesores, médicos, personal y técnicos de varios
tipos para recopilar información y obtener nuevas perspectivas. Hemos visto a docenas de
investigadores realizar análisis de datos mucho más impresionantes en grandes conjuntos de
datos utilizando herramientas que eran más poderosas que las empleadas en estos ejemplos,
solo para terminar con un análisis maravilloso que no está vinculado a ninguna implementación.
Cuando tratamos con profesionales de la salud, a menudo recordamos el viejo adagio: “A nadie
le importa cuánto sabes. Quieren saber cuánto te importa”. Si bien creemos que la metodología
descrita en este capítulo es útil, nuestra experiencia sugiere fuertemente que el ingrediente
secreto para hacer que estos proyectos funcionen es la atención prestada a los médicos,
profesores y especialmente al personal involucrado que finalmente hace que el sistema funcione.

Material complementario electrónico

Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están

disponibles en www.allaboutanalytics.net.

• Modelo 22.1: Modelo1.mox


• Modelo 22.2: Modelo1A.mox
• Modelo 22.3: Modelo2.mox •
Modelo 22.4: Modelo3.mox

Ejercicios

En "Uso de análisis para mejorar el flujo de pacientes en clínicas ambulatorias", presentamos un


enfoque de seis pasos para mejorar los sistemas basados en citas en centros médicos
académicos ambulatorios. Estos ejercicios involucran versiones simplificadas de simulaciones de
eventos discretos (DES) de dichos escenarios. Su propósito es ilustrar y conceptualizar el
proceso. La finalización de estos ejercicios debe resaltar muchos problemas y sutilezas de estos
sistemas y ayudar al lector a desarrollar ideas que se ajusten mejor a su entorno de interés.

Introducción
Versiones simplificadas de varios modelos a los que se hace referencia en la Secc. 22.2.5 de
la lectura se puede considerar para explorar los temas discutidos allí. Estos modelos DES se han
desarrollado en ExtendSim versión 9.0.19 Las versiones completas del software subyacente
están disponibles a través del proveedor, y se ofrece una variedad de modelos de precios académicos.

19Descargue la versión de prueba desde https://www.extendsim.com/demo (consultado el 16 de julio de 2018).


Machine Translated by Google

22 Análisis de atención médica 787

disponible. También hay disponible una amplia variedad de textos y herramientas para ayudar al
usuario potencial con detalles de las capacidades del software, incluidos Strickland (2010) y
Laguna y Marklund (2005). Sin embargo, los modelos utilizados en esta lectura son bastante
simples de construir y se pueden adaptar fácilmente a otros paquetes según el lector (o el
instructor) lo crea conveniente. Para facilitar la exposición y encajar con el cuerpo principal de la
lectura, presentamos ejercicios correspondientes a los escenarios descritos anteriormente. Se
proporcionan sugerencias en el archivo de palabras Sugerencias para la solución (consulte el
sitio web del libro) que deberían ayudar a realizar los ejercicios. Los ejercicios permiten al lector
explorar las muchas ideas dadas en el capítulo paso a paso.
Un modelo básico con impuntualidad del
paciente Los proveedores de servicios en muchos entornos utilizan un sistema de citas para
gestionar la llegada de clientes/trabajos. Sin embargo, la suposición de que el calendario de citas
se seguirá estrictamente rara vez se justifica. El primer modelo (Modelo 1; consulte el sitio web
del libro) presenta un flujo de proceso simplificado para una clínica hipotética e incorpora un
programa de citas. El modelo facilita cambios en la variable aleatoria que define la puntualidad
del paciente. En resumen, los pacientes llegan en algún momento desplazado de su hora de cita.
Ajustando los parámetros que definen la distribución de esta variable, podemos representar el
comportamiento de llegada. Puede modificar este modelo para abordar las siguientes preguntas:
Ej. 22.1 Describa el desempeño de la clínica si todos los pacientes llegan a tiempo.

Ex. 22.2 Explique cómo cambia este desempeño si se incluye la impuntualidad.


Para este ejemplo, esto significa modelar la hora de llegada real como la hora de la cita más una
variable con distribución logarítmica normal con una media de ÿ y una desviación estándar de ÿ
minutos. Un caso base razonable puede incluir ÿ = ÿ15 min y ÿ = 10 min. (Los valores negativos
de impuntualidad significan que el paciente llega antes de la hora de la cita, que es la norma).
Observe cómo los cambios en ÿ y ÿ afectan el desempeño de manera diferente.

Ex. 22.3 Explique cómo crearía un experimento (en una clínica real) para descubrir cómo cambia
este comportamiento y cómo afecta el desempeño de la clínica.
Ex. 22.4 Explique cómo modificaría el Modelo 1 para informar los resultados de grupos de
pacientes como aquellos con impuntualidad negativa (llegadas tempranas), aquellos con
impuntualidad positiva (llegadas tardías) y aquellos con horarios de citas cerca del final de la
sesión clínica.
Ex. 22.5 El DES asume que el paciente con la cita más temprana siempre es atendido primero,
incluso si llegó tarde. ¿Cómo modificaría este modelo si el sistema "espera" a los pacientes que
llegan tarde hasta cierto límite, "w" minutos en lugar de ver al siguiente paciente tan pronto como
el servidor esté libre?
Un Modelo Académico con Distribuciones del Tiempo de
Enseñanza El flujo del proceso dentro del centro médico académico (AMC) difiere del Modelo
1 en que incluye pasos y recursos adicionales necesarios para la misión docente del hospital. El
análisis de procesos simple es útil en estas configuraciones para ayudar a identificar el recurso
de cuello de botella y usar la administración de ese recurso para mejorar el rendimiento del
sistema. Sin embargo, estos modelos simples no pueden dar cuenta completamente del impacto
de la congestión del sistema dado este flujo más complejo. Por ejemplo, a menudo se agrega
tiempo de inactividad porque un recurso se ve obligado a esperar la disponibilidad de otro.
Machine Translated by Google

788 M. (Mac) Dada y C. Cámaras

El uso de un DES de tales sistemas puede ser particularmente valioso porque facilita varias formas de
análisis de sensibilidad que pueden producir conocimientos novedosos sobre estos temas. Use el Modelo 2
(consulte el sitio web del libro) del AMC para abordar las siguientes preguntas: Ej. 22.6 ¿Cómo responden
los valores promedio de tiempo de ciclo, tiempo de espera y tiempos de preparación a los cambios en el
tiempo de aprendizaje?

Ex. 22.7 Describa el vínculo entre la utilización de los pasantes en este sistema y la cantidad de tiempo que
pasan con los pacientes. ¿Cuánto de su tiempo ocupado no se explica por tareas de valor agregado?

Ex. 22.8 Describa el vínculo entre el número de aprendices y la utilización de otros recursos clave en el
sistema.
Ex. 22.9 Explique cómo crearía un experimento (en una clínica real) para descubrir cómo cambiar el proceso
educativo está relacionado con la productividad de los residentes.
Ex. 22.10 ¿Cómo alteraría el Modelo 2 para que refleje un nuevo enfoque de la formación de los pasantes
destinado a aumentar la parte de su tiempo que agrega valor al paciente?
Tiempos de procesamiento dependientes
del estado La experiencia con muchos sistemas de servicios respalda la noción de que el proveedor de
servicios puede estar motivado para "acelerar" cuando el sistema está ocupado. Sin embargo, el sentido
común también sugiere que esto no es sostenible para siempre. Con estos hechos en mente, es importante
pensar cómo podemos medir este comportamiento y cómo podemos monitorear las consecuencias no
deseadas de tal enfoque. Teniendo esto en cuenta, el Modelo 3 (consulte el sitio web del libro) incluye una
reducción de los tiempos de procesamiento para los asistentes cuando el sistema está ocupado. Considere
este modelo para abordar las siguientes preguntas: Ej. 22.11 ¿Cómo cambian los valores promedio del
tiempo de ciclo, el tiempo de espera y el intervalo de tiempo cuando la atención se vuelve más rápida en un
sistema ocupado?

Ex. 22.12 En lugar de reducir el tiempo presencial, considere agregar salas de examen al sistema. ¿Existe
alguna evidencia producida por el DES que sugiera que un enfoque es mejor que el otro?

Ex. 22.13 Describa la comparación entre tiempos de procesamiento decrecientes cuando el sistema está
ocupado y tiempos de procesamiento cambiantes para todas las configuraciones.
Ex. 22.14 Explique cómo crearía un experimento (en una clínica real) para explorar cómo este comportamiento
afecta el flujo de pacientes y la calidad del servicio. ¿Qué factores adicionales necesita controlar?

Ex. 22.15 ¿Cómo modificaría el Modelo 3 para separar los efectos del comportamiento del paciente (incluida
la impuntualidad) de los efectos del comportamiento del médico (incluidos los cambios en los tiempos de
procesamiento)?
Programación cíclica
Es probable que el personal que crea un programa de citas esté a favor de tener una plantilla simple
para consultar cuando los pacientes solicitan horarios de citas. En consecuencia, existe un valor administrativo
en tener una lógica que sea fácil de explicar e implementar. Nuevamente, esto es más difícil de hacer en el
AMC ya que el flujo del proceso es más complejo.
Vuelva al uso del Modelo 2 y modifíquelo según sea necesario para abordar las siguientes preguntas:
Machine Translated by Google

22 Análisis de atención médica 789

Ex. 22.16 Estudiar el calendario de citas existente. Desarrolle el "mejor" programa si no hay variabilidad
a considerar. (Puede suponer que los tiempos de actividad promedio siempre se realizan).

Ex. 22.17 ¿Cómo funciona su horario cuando se agrega la impuntualidad del paciente y cómo ajustará
su horario para tener esto en cuenta?
Ex. 22.18 Suponiendo que los pacientes son siempre perfectamente puntuales y que solo el tiempo de
atención es variable, busque un horario que funcione mejor que el desarrollado en el ejercicio 22.16.

Ex. 22.19 Explique cómo crearía un experimento (en una clínica real) para explorar formas de reducir
esta variabilidad. ¿Qué factores adicionales necesita controlar?

Ex. 22.20 ¿Cómo modificaría el Modelo 2 para incluir problemas adicionales, como ausencias de
pacientes, emergencias, interrupciones del trabajo y programación de acceso abierto?
Conclusión
Es importante señalar que los modelos DES son solo una herramienta que se puede aplicar para
desarrollar una comprensión más profunda del comportamiento de los sistemas complejos. Sin
embargo, agregar este enfoque a la “caja de herramientas” del gerente o consultor de la clínica debería
proporcionar amplios beneficios y apoyo para ideas sobre cómo hacer que estos sistemas satisfagan
mejor las necesidades de todas las partes interesadas.

Referencias

Alexopoulos, C., Goldman, D., Fontanesi, J., Kopald, D. y Wilson, JR (2008). paciente modelo
llegadas a clínicas comunitarias. Omega, 36, 33–43.
Bandura, A. (1969). Principios de modificación de conducta. Nueva York, NY: Holt, Rinehart y
Winston.
Benneyan, JC (1997). Una introducción al uso de la simulación por computadora en el cuidado de la salud: espera del paciente
caso de estudio. Revista de la Sociedad para los Sistemas de Salud, 5(3), 1–15.
Beronio, K., Glied, S. & Frank, R. (2014) J Behav Health Serv Res. 41, 410. https://doi.org/ 10.1007/s11414-014-9412-0 Boex,
JR, Boll, AA, Franzini, L., Hogan, A., Irby, D., Meservey, PM, Rubin, RM, Seifer, SD y Veloski, JJ (2000). Medición de los
costos de la educación en atención primaria en el ámbito ambulatorio. Medicina Académica, 75(5), 419–425.

Bowers, J. y Mould, G. (2005). Atención ambulatoria y planificación de la capacidad ortopédica. Cuidado de la salud
Ciencias de la administración, 8(1), 41–47.
Burke, EK, De Causmaecker, P., Berghe, GV y Van Landeghem, H. (2004). El estado del arte de las listas de enfermeras.
Revista de programación, 7(6), 441–499.
Cayirli, T., Veral, E. y Rosen, H. (2006). Diseño de sistemas de programación de citas para
servicios de atención ambulatoria. Ciencias de la gestión de la atención médica, 9(1), 47–58.
Chambers, CG, Dada, M., Elnahal, SM, Terezakis, SA, DeWeese, TL, Herman, JM y Williams, KA (2016). Cambios en los
tiempos de procesamiento de los médicos en respuesta a la congestión clínica y la puntualidad del paciente: un estudio
retrospectivo. Abierto BMJ, 6(10), e011730.
Chao, X., Liu, L. y Zheng, S. (2003). Asignación de recursos en sistemas de servicios multisitio con
flujos de clientes entre sitios. Ciencias de la gestión, 49(12), 1739–1752.
Chesney, AM (1943). El Hospital Johns Hopkins y la Escuela de la Universidad John Hopkins de
Medicina: una crónica. Baltimore, MD: Prensa de la Universidad Johns Hopkins.
Machine Translated by Google

790 M. (Mac) Dada y C. Cámaras

Clymer, JR (2009). Ingeniería basada en simulación de sistemas complejos (Vol. 65). Nueva York, NY: John Wiley & Sons.

Conley, K., Chambers, C., Elnahal, S., Choflet, A., Williams, K., DeWeese, T., Herman, J. y Dada, M. (2018). Uso de un sistema
de ubicación en tiempo real para medir el flujo de pacientes en una clínica ambulatoria de oncología radioterápica, Oncología
radioterápica práctica.
Cutler, DM y Ghosh, K. (2012). El potencial de ahorro de costos a través de episodios combinados
pagos Revista de Medicina de Nueva Inglaterra, 366(12), 1075–1077.
Fetter, RB y Thompson, JD (1966). Tiempo de espera de los pacientes y tiempo de inactividad de los médicos en el ámbito
ambulatorio. Investigación de servicios de salud, 1(1), 66.
Franzini, L. y Berry, JM (1999). Un modelo de construcción de costos para evaluar el costo total de un programa de residencia
en anestesiología. Revista de la Sociedad Estadounidense de Anestesiólogos, 90(1), 257–268.

Glied, S. y Ma, S. (2015). ¿Cómo afectará la Ley del Cuidado de Salud a Bajo Precio el uso de los servicios de atención médica?
Nueva York, NY: Commonwealth Fund.
Hamrock, E., Parks, J., Scheulen, J. y Bradbury, FJ (2013). Simulación de eventos discretos para organizaciones de salud: una
herramienta para la toma de decisiones. Revista de Gestión de la Atención Médica, 58(2), 110.

Hing, E., Hall, MJ, Ashman, JJ y Xu, J. (2010). Encuesta de atención médica ambulatoria del hospital nacional: resumen del
departamento de pacientes ambulatorios de 2007. Informes de estadísticas nacionales de salud, 28, 1–32.
Hosek, JR y Palmer, AR (1983). Costos docentes y hospitalarios: El caso de la radiología. Diario
de Economía de la Salud, 2(1), 29–46.
Huang, XM (1994). Actitud del paciente ante la espera en una consulta externa y sus aplicaciones.
Investigación de gestión de servicios de salud, 7(1), 2–8.
Hwang, CS, Wichterman, KA y Alfrey, EJ (2010). El costo de la educación residente. Diario
de Investigación Quirúrgica, 163(1), 18–23.
Jun, JB, Jacobson, SH y Swisher, JR (1999). Aplicación de simulación de eventos discretos en clínicas de atención médica: una
encuesta. Revista de la Sociedad de Investigación Operativa, 50(2), 109–123.
Kaplan, RS y Anderson, SR (2003). Costeo basado en actividades controlado por el tiempo. SSRN 485443.
Kaplan, RS y Porter, ME (2011). Cómo resolver la crisis de costos en el cuidado de la salud. Harvard Business Review, 89(9),
46–52.
King, M., Lapsley, I., Mitchell, F. y Moyes, J. (1994). Necesidades y prácticas de costos en un entorno cambiante: el potencial de
ABC en el NHS. Gestión y responsabilidad financiera, 10(2), 143–160.

Kolker, A. (2010). Teoría de colas y simulación de eventos discretos para el cuidado de la salud: desde procesos básicos hasta
sistemas complejos con interdependencias. En Abu-Taieh, E. y El Sheik, A. (Eds.), Manual de investigación sobre tecnologías
y aplicaciones de simulación de eventos discretos (págs. 443– 483). Hershey, Pensilvania: IGI Global.

Laguna, M. y Marklund, J. (2005). Modelado, simulación y diseño de procesos de negocio. Upper Saddle River, Nueva Jersey:
Pearson Prentice Hall.
Lee, VJ, Earnest, A., Chen, MI y Krishnan, B. (2005). Predictores de asistencias fallidas en un centro ambulatorio multiespecialidad
utilizando bases de datos electrónicas. Investigación de servicios de salud de BMC, 5(1), 1.

van Lent, WAM, VanBerkel, P. y van Harten, WH (2012). Una revisión sobre la relación entre simulación y mejora en hospitales.
Informática médica y toma de decisiones de BMC, 12(1), 1.

Lin, CT, Albertson, GA, Schilling, LM, Cyran, EM, Anderson, SN, Ware, L. y Anderson, RJ (2001). ¿Es la percepción de los
pacientes del tiempo que pasan con el médico un factor determinante de la satisfacción del paciente ambulatorio? Archivos
de Medicina Interna, 161(11), 1437–1442.
Lorenzoni, L., Belloni, A. y Sassi, F. (2014). Gasto en atención médica y política de salud en los EE. UU. versus otros países de
la OCDE que gastan mucho. The Lancet, 384 (9937), 83–92.
Mandelbaum, A., Momcilovic, P. y Tseytlin, Y. (2012). En el enrutamiento justo desde los departamentos de emergencia a las
salas de hospital: colas QED con servidores heterogéneos. Ciencias de la gestión, 58(7), 1273–1291.
Machine Translated by Google

22 Análisis de atención médica 791

McCarthy, K., McGee, HM y O'Boyle, CA (2000). Tiempos de espera y no asistencia a consulta externa como indicadores
de calidad. Psicología, Salud y Medicina, 5(3), 287–293.
Meza, JP (1998). Tiempos de espera del paciente en el consultorio de un médico. The American Journal of Managed Care,
4(5), 703–712.
Moses, H., Thier, SO y Matheson, DHM (2005). ¿Por qué tener centros médicos académicos?
sobrevivió. Revista de la Asociación Médica Estadounidense, 293(12), 1495–1500.
Nuti, SV, Wayda, B., Ranasinghe, I., Wang, S., Dreyer, RP, Chen, SI y Murugiah, K.
(2014). El uso de las tendencias de Google en la investigación del cuidado de la salud: una revisión sistemática. PLoS
One, 9(10), e109583.
Ortman, JM, Velkoff, VA y Hogan, H. (2014). Una nación que envejece: la población de mayor edad en el
Estados Unidos (págs. 25–1140). Washington, DC: Oficina del Censo de EE. UU.
Perros, P. y Frier, BM (1996). Una auditoría de los tiempos de espera en la consulta externa de diabéticos: papel de la
puntualidad de los pacientes y el nivel de personal médico. Medicina diabética, 13(7), 669–673.
Sainfort, F., Blake, J., Gupta, D. y Rardin, RL (2005). Investigación de operaciones para los sistemas de prestación de
servicios de salud. Informe del panel WTEC. Baltimore, MD: Centro Mundial de Evaluación de Tecnología, Inc..

Seals, B., Feddock, CA, Griffith, CH, Wilson, JF, Jessup, ML y Kesavalu, SR (2005).
¿Más tiempo pasado con el médico reduce la insatisfacción de la clínica de padres debido a los largos tiempos de
espera? Revista de Medicina Investigativa, 53(1), S324–S324.
Sloan, FA, Feldman, RD y Steinwald, AB (1983). Efectos de la docencia en los costes hospitalarios.
Revista de Economía de la Salud, 2(1), 1–28.
Strickland, JS (2010). Simulación de eventos discretos mediante ExtendSim 8. Colorado Springs, CO: Simulation Educators.

Tai, G. y Williams, P. (2012). Optimización de la programación de citas de pacientes en clínicas utilizando una técnica
novedosa de modelado de llegada de pacientes. Métodos y programas informáticos en biomedicina, 108(2), 467–476.

Taylor, DH, Whellan, DJ y Sloan, FA (1999). Efectos de la admisión a un hospital docente sobre el costo y la calidad de la
atención para los beneficiarios de Medicare. Revista de Medicina de Nueva Inglaterra, 340(4), 293–299.

Thomas, S., Glynne-Jones, R. y Chait, I. (1997). ¿Vale la pena la espera? una encuesta de satisfacción de los pacientes con
una consulta externa de oncología. Revista Europea de Atención del Cáncer, 6(1), 50– 58.

Trebble, TM, Hansi, J., Hides, T., Smith, MA y Baker, M. (2010). Mapeo de procesos del viaje del paciente a través de la
atención médica: una introducción. Diario médico británico, 341 (7769), 394–397.
Trusko, BE, Pexton, C., Harrington, HJ y Gupta, P. (2007). Mejorar la calidad de la atención médica y
costo con seis sigma. Upper Saddle River, Nueva Jersey: Financial Times Press.
Blanco, MJB y Pike, MC (1964). Los sistemas de citas en las consultas externas y el efecto
de la impuntualidad de los pacientes. Atención médica, 133–145.
Williams, JR, Matthews, MC y Hassan, M. (2007). Diferencias de costos entre hospitales académicos y no académicos: un
estudio de caso de procedimientos quirúrgicos. Temas hospitalarios, 85(1), 3–10.
Williams, KA, Chambers, CG, Dada, M., Hough, D., Aaron, R. y Ulatowski, JA (2012).
Uso del análisis de procesos para evaluar el impacto de la educación médica en la prestación de servicios para el dolor:
un experimento natural. Revista de la Sociedad Estadounidense de Anestesiólogos, 116(4), 931–939.

Williams, KA, Chambers, CG, Dada, M., McLeod, JC y Ulatowski, JA (2014). Puntualidad del paciente y rendimiento clínico:
observaciones de un centro de dolor de práctica privada con base académica: un estudio prospectivo de mejora de la
calidad. Abierto BMJ, 4(5), e004679.
Williams , KA , Chambers , CG , Dada , M , Christo , PJ , Hough , D , Aaron , R y Ulatowski , J .
R. (2015). Aplicación de los principios JIT a la educación de los residentes para reducir los retrasos de los pacientes: un estudio
piloto en una clínica del dolor de un centro médico académico. Medicina del dolor, 16(2), 312–318.
Wilson, JCT (1981). Implementación de proyectos de simulación por computadora en el cuidado de la salud. Diario de
la Sociedad de Investigación Operacional, 32(9), 825–832.
Machine Translated by Google

capitulo 23
Análisis de precios

Kalyan Talluri y Sridhar Seshadri

1. Introducción

Una de las decisiones más importantes que debe tomar una empresa es el precio de sus productos.
En su forma más simple, esto equivale a indicar un número (el precio) para un solo producto.
Pero a menudo es mucho más complicado que eso. Varios mecanismos de fijación de precios, como precios
dinámicos, promociones, paquetes, descuentos por volumen, segmentación, licitación y precio propio, se
implementan generalmente para aumentar los ingresos, y este capítulo está dedicado al estudio de tales
mecanismos. La optimización de precios e ingresos se conoce con diferentes nombres en diferentes dominios,
como gestión de ingresos (RM), gestión de rendimiento y análisis de precios. Una definición formal de la gestión
de ingresos es el estudio de cómo una empresa debe establecer y actualizar las decisiones sobre precios y
disponibilidad de productos en sus diversos canales de venta para maximizar su rentabilidad. Hay varias
frases clave en esta definición: las empresas no solo deben fijar sino también actualizar los precios; por lo tanto, la
fijación de precios debe ser dinámica y depender de muchos factores, como la competencia, la disponibilidad de
inventario y los pronósticos de demanda actualizados. Las empresas no solo fijan los precios, sino que también
toman decisiones sobre la disponibilidad de productos; en otras palabras, las empresas pueden dejar de ofrecer
ciertos productos a un precio determinado

Material complementario electrónico La versión en línea de este capítulo (https://doi.org/10.1007/


978-3-319-68837-4_23) contiene material complementario, que está disponible para los usuarios autorizados.

K. Talluri
Imperial College Business School, South Kensington, Londres, Reino Unido
Correo electrónico: kalyan.talluri@imperial.ac.uk

S. Seshadri )
(Gies College of Business, University of Illinois at Urbana-Champaign, Champaign, IL, EE. UU.) Correo
electrónico: sridhar@illinois.edu

© Springer Nature Switzerland AG 2019 B. 793


Pochiraju, S. Seshadri (eds.), Essentials of Business Analytics, International Series
in Operations Research & Management Science 264, https://doi.org/
10.1007/978-3-319-68837 -4_23
Machine Translated by Google

794 K. Talluri y S. Seshadri

(como el cierre de asientos con tarifas bajas en las aerolíneas) u ofrecer solo ciertos surtidos en
ciertos canales. Las empresas pueden ofrecer diferentes productos a diferentes precios a través de
los canales de venta: ¡el precio en línea de ciertos productos puede ser más bajo que el precio
minorista!
La aplicación de análisis de gestión de precios e ingresos en la gestión empresarial comenzó
en la década de 1970. Operadores de aerolíneas como British Airways (entonces British Overseas
Airways Corp.) y American Airlines comenzaron a ofrecer tarifas diferenciadas para esencialmente
los mismos boletos. El pionero de esta técnica, llamada gestión del rendimiento, fue Bob Crandall.
Crandall, quien finalmente se convirtió en director ejecutivo de American Airlines, encabezó una
revolución en el precio de los boletos de avión, pero su impacto se sentiría en todas las industrias.
Las cadenas hoteleras, como Marriott International, y los servicios de paquetería, como United
Parcel Service, lo han utilizado con gran eficacia.
Estas técnicas solo se han vuelto más refinadas en las décadas posteriores. La llegada de los
grandes datos ha revolucionado el grado en que la analítica puede predecir patrones de demanda
de los clientes, ayudando a las empresas a adaptarse a las tendencias más rápido que nunca. Las
cadenas minoristas como Walmart recopilan petabytes de datos diariamente, mientras que las
aplicaciones móviles como Uber se basan en big data para proporcionar el marco para su modelo
de negocios.
Sin embargo, incluso en su forma más simple (un mecanismo simple de publicación de precios), la fijación de precios es complicada.

Si lo establece demasiado bajo o demasiado alto, está perdiendo ingresos. Por otra parte, puede
resultar imposible determinar el precio correcto, ya sea antes o después de la venta.
La analítica ayuda; de hecho, hay pocas otras áreas donde los datos y el análisis se combinan tan
bien para ayudar al gerente. Esto se debe a que la fijación de precios se trata inherentemente de
datos, números y optimización. Hay muchos factores no observables, como la disposición a pagar
y las necesidades de un cliente, por lo que el modelado juega un papel fundamental. Aquí también,
nos limitamos en general a los modelos de monopolio, incorporando, siempre que sea posible,
precios competitivos y características del producto, pero no modelamos explícitamente reacciones
y equilibrios estratégicos. Cubrimos el modelado de la optimización de precios que, por necesidad,
implica el modelado del comportamiento del cliente y la optimización restringida.

Además, la aplicación de técnicas de macrodatos a los métodos de fijación de precios plantea


problemas de privacidad. A medida que los modelos comprenden mejor a los clientes, es posible
que las empresas se encuentren entrando rápidamente en un efecto de valle inquietante, donde
sus clientes se encuentran desorientados y desanimados por la cantidad de precisión con la que
pueden dirigirse. El Reglamento general de protección de datos de la Unión Europea tiene como
objetivo explícito limitar el uso y el almacenamiento de datos personales, lo que requiere un amplio
conjunto de reformas por parte de las empresas de todos los sectores e industrias.

Los dos componentes básicos de la gestión de ingresos son el desarrollo de modelos


cuantitativos del comportamiento del cliente, es decir, curvas de precio-respuesta, pronósticos de
demanda, segmentación del mercado, etc., y herramientas de optimización restringida. El primer
bloque de construcción tiene que ver con la captura de detalles sobre los consumidores a nivel de micromercado.
Machine Translated by Google

23 Análisis de precios 795

Por ejemplo, uno podría considerar qué clientes compran a qué hora qué productos en una tienda
determinada de un minorista de alimentos. Luego, uno podría modelar su sensibilidad al precio, surtido de
productos y paquetes de productos. Estos datos se pueden combinar con la información del sistema de
planificación de inventario para establecer precios. El segundo bloque de construcción refleja el hecho de
que el precio debe depender de la disponibilidad. Por lo tanto, las limitaciones de capacidad juegan un
papel importante en la optimización de precios. Además, podría haber otras restricciones simples, como la
disponibilidad de inventario, la estructura de rutas de una aerolínea, restricciones de red que equiparan el
flujo de entrada y el inventario con los flujos de salida, y el consumo y el cierre del inventario. Se utilizan
restricciones más esotéricas para modelar el comportamiento de cambio del cliente cuando se le presenta
una selección de productos o incluso el comportamiento estratégico de los clientes en previsión de un
descuento o aumento de precio.
¿Qué tipo de preguntas ayuda a responder RM? Hemos proporcionado una lista parcial de la siguiente
manera:

• Una cadena hotelera quiere pautas sobre cómo diseñar productos para diferentes segmentos de clientes.
El precio no es la única característica distintiva. Por ejemplo, los hoteles venden la misma habitación
con diferentes productos y a diferentes precios, como sin reembolso, se requiere pago por adelantado,
reembolso completo, desayuno incluido, acceso al salón ejecutivo incluido, etc.

• El dueño de un club de salud quiere saber si las ganancias aumentarán si establece diferentes precios en
diferentes momentos y para diferentes clientes. • A un fabricante de automóviles que licita por el
suministro de una flota de automóviles le gustaría saber cómo presentar una oferta para un contrato en
función de la información de ofertas anteriores, la competencia actual y otros factores para maximizar
la rentabilidad esperada.
• Una cadena minorista necesita decidir cuándo y cuánto descontar los precios de un artículo de moda
durante una temporada de venta para maximizar los ingresos esperados. • En un hotel céntrico, los
viajeros de negocios reservan más cerca de la fecha de estancia que los viajeros de ocio. Los viajeros de
ocio son más sensibles a los precios que los viajeros de negocios. El gerente del hotel tiene que decidir
cuántas habitaciones reservar para los viajeros de negocios. • El gerente de un hotel tiene que
determinar cómo fijar el precio de una estadía de un solo día frente a una estadía múltiple.
estancia de un día

• Una agencia de alquiler de coches tiene que decidir si es rentable transportar coches desde
de un lugar a otro anticipándose al aumento de la demanda.
• Una franquicia de baloncesto quiere explorar precios diferenciales. Quiere evaluar si cobrar diferentes
precios para diferentes días, diferentes equipos y diferentes horas del día aumentará los ingresos. •
¿Cómo funciona la libertad de poner tu propio precio (inventado por Priceline)?

El profesional de análisis reconocerá la oportunidad de emplear casi todas las herramientas del conjunto
de herramientas de análisis para resolver estos problemas. En primer lugar, los datos son necesarios con
la granularidad correcta y de diferentes fuentes, incluidos los puntos de venta y los sistemas de reservas,
las encuestas y las conversaciones en las redes sociales. También se requiere información sobre ofertas y
precios competitivos. Se deben recopilar datos no solo sobre ventas, sino también sobre ausencias y
cancelaciones. Muchas veces, las reservas se hacen en grupos.
Estas reservas tienen sus propias características para registrar. En segundo lugar, estos datos deben
organizarse de manera que revelen patrones y tendencias, de modo que los gerentes de ingresos,
Machine Translated by Google

796 K. Talluri y S. Seshadri

los gerentes de producto y los gerentes de operaciones pueden coordinar sus acciones para cambiar la
oferta y la demanda. En tercer lugar, la demanda debe pronosticarse a futuro y en todos los niveles del
mercado. Algunos sistemas recientes afirman incluso predecir la demanda con una granularidad de un
solo cliente. Las soluciones óptimas de RM de precios y disponibilidad de productos deben estar
disponibles en un formato aceptable para vendedores, agentes, casas de subastas, etc. Por lo tanto,
RM requiere información, sistemas, tecnologías y capacitación, así como acción disciplinada para tener
éxito.
En el resto del capítulo, brindamos un vistazo a las técnicas de RM más utilizadas. Estos incluyen
control de capacidad, overbooking, precios dinámicos, pronósticos para RM, procesos utilizados en RM
y RM de red. Concluimos con sugerencias para lecturas adicionales.

2 teoría
Los factores que afectan el precio son los siguientes:

1. La naturaleza del producto o servicio (características, entrega, condiciones de venta, canal) y las
alternativas competidoras (tanto directas como indirectas)
2. Valoración de los clientes sobre el producto, necesidades y comportamiento de compra

El lector habrá notado que no incluimos los costos. Esto se debe a que en este capítulo no analizamos
la fijación de precios basada en el costo simple, como las reglas de margen de beneficio (p. ej., un
margen del 10 %), no porque no se practique (de hecho, tal vez sea la metodología más popular debido
a su simplicidad), sino porque porque no hay mucho que decir sobre reglas tan simples. Más bien, nos
concentramos en la fijación de precios basada en el mercado que establece el precio en función de los
productos y la competencia y lo que el consumidor está dispuesto a pagar. El costo juega un papel
como límite inferior del precio, pero la decisión real es establecer el margen por encima del costo en
función del mercado, las características del producto y las preferencias del cliente.

Entonces necesitamos un modelo de un mercado y el comportamiento de compra del cliente. Ambos


son conceptos algo abstractos e imprecisos y solo parcialmente observables, pero hacemos todo lo
posible para modelarlos a fin de extraer información de los datos observados.

2.1 Modelo básico de optimización de precios

Sea p el precio (de un solo producto) y D(p) la demanda a ese precio (asumiendo que todas las demás
características se mantienen iguales). La optimización de ingresos consiste en encontrar el precio p que
maximiza R(p) = pD(p), y la optimización de beneficios consiste en maximizar (p ÿ c)D(p) cuando c es el
costo de producir una unidad.
D(p) se denomina función de demanda y es natural suponer que disminuye a medida que
aumentamos el precio. También se acostumbra suponer que tiene alguna forma funcional, digamos
Machine Translated by Google

23 Análisis de precios 797

D(p) = a ÿ pb o D(p) = apb donde a y b son los parámetros del modelo que estimamos en base a
los datos observados.

Ejemplo: supongamos que, según los datos, estimamos que la demanda de un determinado
producto es D(p) = 35,12 ÿ 0,02p (es decir, se supone que la demanda tiene una forma lineal D(p)
= a ÿ pb, donde calibramos a = 35,12 y b = 0,02). El problema de optimización de ingresos es
maximizar p × (35.12 ÿ 0.02p). A partir del cálculo (tomar la derivada de la función de ingresos y
establecerla en 0, por lo que 35.12 ÿ 2 × 0.02p = 0, y resolverla para p), obtenemos que el precio
35,12
es pÿ == 878.
óptimo 2×0,02

Las restricciones de capacidad introducen algunas complicaciones, pero, al menos para el


caso de un solo producto, siguen siendo fáciles de manejar. Por ejemplo, en el ejemplo anterior, si
el precio es de $878, la estimación de la demanda es 35,12 ÿ 0,02 × 878 = 17,56. Sin embargo, si
solo tenemos diez unidades, es natural aumentar el precio para que la demanda sea exactamente
igual a 10, lo cual se puede encontrar resolviendo 10 = 35.12 ÿ 0.02p o p = 1256.

2.2 Controles de capacidad

En esta sección, analizamos el control de la venta de inventario cuando los clientes pertenecen a
diferentes tipos o, utilizando la terminología de marketing, segmentos. Se supone que los
segmentos tienen diferente disposición a pagar y también diferentes preferencias en cuanto a
cuándo y cómo compran. Por ejemplo, un cliente de negocios de una aerolínea puede preferir
comprar cerca de la fecha de salida, mientras que un cliente de ocio planifica con mucha
anticipación y desea una reserva de vuelo garantizada. La motivación original de la administración
de ingresos fue un intento de asegurarnos de reservar suficiente inventario para el cliente comercial
que llega tarde y que paga más, y al mismo tiempo continuar vendiendo a un precio más barato al
segmento de ocio sensible al precio.
Asumimos que creamos productos con restricciones de venta (como compra anticipada
requerida o no cancelaciones o estadía de fin de semana), y etiquetamos cada uno de estos
productos como clases de reserva o simplemente clases. Todos los productos comparten el mismo
inventario físico (como las habitaciones del hotel o los asientos de un vuelo). En la práctica, varios
productos RM pueden agruparse en clases por conveniencia operativa o limitaciones del sistema
de control. Si tal es el caso, el precio asociado a una clase es una aproximación o un promedio de
los productos de esa clase.
De ahora en adelante, asumimos que cada solicitud de reserva es para una sola unidad de
inventario.

2.2.1 Modelos de clases independientes

Comenzamos con la suposición de comportamiento del cliente más simple, la suposición de clase
independiente : cada segmento se identifica con un solo producto (que tiene un precio fijo) y los
clientes compran solo ese producto. Y si ese producto no está disponible para
Machine Translated by Google

798 K. Talluri y S. Seshadri

venta, entonces no compran nada. Dado que los segmentos se identifican uno a uno con las clases,
podemos etiquetarlos como clientes de clase 1, clientes de clase 2, etc.
El objetivo del modelo de optimización es encontrar límites de reserva (la cantidad máxima de unidades
del inventario compartido que estamos dispuestos a vender a ese producto) que maximicen los ingresos.

Consideremos primero el modelo de dos clases, donde la clase 1 tiene un precio más alto que la clase
2, es decir, f1 > f2, y las reservas de la clase 2 son las primeras. El problema sería trivial si los clientes que
pagan más son los primeros, por lo que el núcleo del problema es decidir un "nivel de protección" para los
últimos que pagan más y, alternativamente, un "límite de reserva" sobre cuándo detener las ventas. los
clientes de clase 2 que pagan menos.
Digamos que tenemos un inventario de r0. Primero hacemos pronósticos de la demanda para cada
clase, digamos basados en la demanda histórica, y representamos los pronósticos de demanda por Dj , j =
1, 2.
¿Cuántas unidades de inventario debe proteger la empresa para los clientes de clase 1 que llegan más
tarde, pero de mayor valor? La empresa sólo tiene una idea probabilística de la demanda de clase 1 (el
problema sería nuevamente trivial si conociera con certeza esta demanda).

La empresa tiene que decidir si necesita proteger r unidades para los clientes de clase 1 que llegan
tarde. Venderá la r-ésima unidad a un cliente de clase 1 si y solo si D1 ÿ r, por lo que el ingreso marginal
esperado de la r-ésima unidad es f1P (D1 ÿ r). Intuitivamente, la empresa debería aceptar una solicitud de
clase 2 si y solo si f2 excede este valor marginal o, de manera equivalente, si y solo si

f2 ÿ f1P (D1 ÿ r). (23.1)

El lado derecho de (23.1) es decreciente en r. Por lo tanto, habrá un nivel de protección óptimo para la
clase 1, denotado rÿ tal que aceptamos la clase 2 si la capacidad
1 , la remanente
capacidad remanente
excede rÿ yes
la rÿ
rechazamos
o menos. si

1 1
Formalmente, rÿ satisface
1

f2 < f1P (D1 ÿ rÿ ) y f2 ÿ1f1P (D1 ÿ rÿ + 1). 1 (23.2)

En la práctica, suele haber muchos productos y segmentos, así que considere n > 2 clases.
Continuamos con el supuesto de clases independientes y que la demanda de las n clases llega en n
etapas, una para cada clase en orden de ingresos con el segmento que paga más, la clase 1, que llega
más cerca del tiempo de uso del inventario.
Deje que las clases se indexen de modo que f1 > f2 > ··· > fn. Por lo tanto, la demanda de clase n (el
precio más bajo) llega en la primera etapa (etapa n), seguida por la demanda de clase n-1 en la etapa n-1,
y así sucesivamente, con la clase de precio más alto (clase 1) llegando a la etapa n-1. última etapa (etapa
1). Dado que existe una correspondencia uno a uno entre etapas y clases, indexamos ambas por j .

Describimos ahora un método heurístico llamado método de ingreso marginal esperado por asiento
(EMSR). Este método heurístico se usa porque resolver el problema de clase n de manera óptima es
complicado. El método heurístico funciona de la siguiente manera:
Machine Translated by Google

23 Análisis de precios 799

Considere la etapa j + 1 en la que la empresa quiere determinar el nivel de protección rj para


clase j. Defina la demanda futura agregada para las clases j, j ÿ 1,..., 1 por

j
Sj = Dk,
k=1

y dejar que el ingreso promedio ponderado (esta es la parte heurística) de las clases
1,..., j, denotado f¯ j , definido por

j
= k=1j fkE[Dk]
f¯j _ , (23.3)
k=1 E[Dk]

donde E[Dj ] denota la demanda de clase j esperada.


Entonces, el nivel de protección EMSR para la clase j y superiores, rj , se elige mediante (23.2),
satisfacer

fj+1 .
PAGS (Sj > rj ) = (23.4)
f¯ j

Es conveniente suponer que la demanda de cada clase j se distribuye normalmente con


media ÿj y varianza ÿ2 en ese caso
j,

rj = ÿ + zÿ,

j j es la varianza de la
demanda agregadak=1
en la
ÿketapa
es la media
j + 1 y yz ÿ2
= ÿ1(1
= donde
ÿ fj+1/f¯
ÿ= k=1 p2k
j ) y ÿ1(·)
es el inverso de la cdf normal estándar Se repite este cálculo para cada j .
El método heurístico EMSR es muy popular en la práctica ya que es muy simple de
programa y es robusto con un rendimiento aceptable (Belobaba 1989). uno puede hacer
el cálculo con bastante facilidad usando Excel, ya que tiene funciones integradas para el normal
distribución y su inversa.

2.3 Sobreventa
Hay muchas industrias donde los clientes primero reservan el servicio y luego lo usan
luego. Algunos ejemplos son hoteles, aerolíneas, restaurantes y autos de alquiler. Ahora, cuando
un cliente reserva algo para uso futuro, sus planes pueden cambiar en el
mientras tanto. Una cancelación es cuando el cliente cancela explícitamente la reserva,
y una ausencia es cuando no notifican a la empresa pero simplemente no se presentan en el
horario previsto para el servicio. Lo que haga el cliente depende de la reserva.
Machine Translated by Google

800 K. Talluri y S. Seshadri

Fig. 23.1 Evolución del límite de overbooking

políticas Si existe un incentivo como la devolución parcial o total del importe, los clientes tienden a
cancelar. Si no hay reembolso, simplemente optarán por no presentarse.
El overbooking es una práctica de tomar más reservas que capacidad, anticipando que una
cierta fracción de los clientes cancelaría u optaría por no presentarse. Esto lleva a una mejor
utilización de la capacidad, especialmente en días de alta demanda cuando el valor marginal de
cada unidad de inventario es muy alto. La empresa, sin embargo, tiene que estar preparada para
manejar un cierto número de clientes a los que se les niega el servicio a pesar de que han pagado
por el producto y tienen un contrato de reserva. En muchas industrias, los beneficios de una mejor
utilización de la capacidad dominan el riesgo de denegar el servicio, y el overbooking se ha
convertido en una práctica común.
Las empresas controlan el overbooking estableciendo un límite superior sobre cuánto
overbooking (llamado límite de overbooking). Por lo general, a medida que se acercan al tiempo de
uso del inventario (por ejemplo, la salida de un vuelo), tienen una mejor idea de la demanda y
reducen el riesgo de exceso de reservas si parece haber una gran demanda con pocas cancelaciones.
La figura 23.1 muestra la dinámica de una evolución típica del límite de overbooking. A medida que
se acerca la fecha de uso y la empresa teme que podría terminar negando el servicio a algunos
clientes, reduce el límite de sobreventa hacia la capacidad física más rápido (incluso puede ser
menor que la cantidad actual de reservas disponibles también, para evitar nuevas reservas). ).

La sobreventa representa una compensación: si la empresa vende demasiadas reservas por


encima de su capacidad, se arriesga a un escenario en el que aparecen más clientes que inventario
y los costos resultantes en la buena voluntad y la compensación del cliente. Si no sobrevende lo
suficiente, corre el riesgo de inventario no vendido y un costo de oportunidad.
Los modelos de overbooking se utilizan para encontrar el equilibrio óptimo entre estos dos factores.
A continuación, describimos uno de esos cálculos que, si bien no tiene en cuenta todos los factores
por completo, destaca este equilibrio matemáticamente. Es una reminiscencia del modelo clásico
de vendedor de periódicos de la gestión de operaciones.
Machine Translated by Google

23 Análisis de precios 801

Sea CDB el costo de un abordaje denegado, es decir, el costo estimado de negar el servicio a un
cliente que tiene una reserva (que, como mencionamos anteriormente, incluye compensación, pérdida
de buena voluntad, etc.). Sea Cu el costo de oportunidad de la capacidad infrautilizada, que
generalmente se toma como el ingreso esperado por una unidad de inventario. El límite de
overbooking que tenemos que decidir entonces es ÿ>C, donde C es la capacidad física.

Para simplificar, asumimos lo peor y que la demanda excederá el límite de overbooking, es decir,
seremos conservadores al establecer nuestro límite. Sea N el número de ausencias/cancelaciones.
Como no estamos seguros del número de cancelaciones o ausencias, lo modelamos como una
variable aleatoria, digamos como una variable aleatoria binomial con parámetros ÿ,p donde p es la
probabilidad de cancelación o ausencia. Entonces, el número de clientes que realmente se presentan
viene dado por ÿ ÿ N (se supone, de forma conservadora, que la demanda de recuperación es
siempre hasta ÿ).
A continuación, planteamos el problema como la siguiente decisión marginal: ¿Deberíamos
quedarnos en el límite actual ÿ o aumentar el límite a ÿ + 1, continuando con el supuesto de que la
demanda es alta y también superará ÿ + 1? Pueden ocurrir dos eventos mutuamente excluyentes: (1)
ÿ ÿN<C. En este caso, al subir el límite en 1, aumentaríamos nuestra ganancia, o en términos de
costo, en ÿCu. (2) ÿ ÿ N ÿ C, e incurrimos en un costo de CDB.
Entonces, el costo esperado por incremento unitario de ÿ es

ÿCuP r(ÿ ÿ N < C) + CDBP r(ÿ ÿ N ÿ C).

Tenga en cuenta que esta cantidad comienza siendo negativa (cuando ÿ = C) como P r(ÿ ÿ N ÿ
C) = 0 en ese punto, pero a medida que aumentamos ÿ, disminuye y el riesgo de CDB aumenta.
Eso nos dice que podemos aumentar la ganancia siempre que sea negativa, pero incurrir en un costo
si es positiva, y la mejor decisión es detenerse cuando esta cantidad sea 0. Esto da como resultado
una buena ecuación para determinar el ÿ óptimo,

ÿCuP r(ÿ ÿ N < C) + CDBP r(ÿ ÿ N ÿ C) = ÿCu(1 ÿ P r(ÿ ÿ N ÿ C))

+CDBP r(ÿ ÿ N ÿ C)0,

o conjunto ÿ, tal que

Con
PAGS r(ÿ - norte ÿ C) = .
Con + CBD

Si dejamos que S(ÿ) sea el número de personas que se presentan, una vista alternativa es que Cu
necesitamos establecer ÿ tal que P
r(S(ÿ) ÿ C) = Si no se presenta con Cu+CDB . probabilidad p.
p, Entonces
muestra binomial
también seguir
establezca una
tal distribución
conÿprobabilidad
que 1ÿ
(escribiendo en términos de ÿ para adaptarse a los cálculos de Excel)

Con
PAGS r(S(ÿ) ÿ C) = 1 ÿ .
Con + CBD
Machine Translated by Google

802 K. Talluri y S. Seshadri

Fig. 23.2 Cálculos para el


ejemplo de overbooking

Ejemplo (Fig. 23.2): Digamos Cu = $150 y CDB = $350. Para calcular el límite de
overbooking, primero calculamos el ratio crítico:

Con 150
= = 0,3.
Con + CBD 500

Si asumimos que la distribución de N es aproximadamente normal (bastante precisa


cuando ÿp ÿ 5) con media = ÿp y desviación estándar = ÿÿp, de hecho podemos usar
InverseNormal (NORMINV en Excel) para hacer los cálculos. Supongamos que C = 100 y
p = 0,1 (es decir, una probabilidad del 10 % de que finalmente se cancele una reserva). La
solución óptima es sobrevender nueve asientos.

2.4 Precios dinámicos

La fijación dinámica de precios es una versión de la gestión de ingresos, más simple en cierto sentido,
pero que también requiere una estrecha supervisión. Por lo general, no hay productos virtuales
explícitos dirigidos a diferentes segmentos.1 Más bien, la empresa cambia el precio del producto con
el tiempo a medida que observa cambios en los muchos factores que afectarían la demanda: como el
tiempo mismo (por ejemplo, porque los clientes de mayor valoración vienen después de los clientes
de menor valoración), el clima, la combinación de clientes y la competencia.

1Aunque podría haberlo, pero no nos compliquemos innecesariamente.


Machine Translated by Google

23 Análisis de precios 803

En los últimos años, la fijación dinámica de precios ha adquirido tres sabores distintos: aumento de precios,
como lo practican Uber, Lyft y las empresas de servicios públicos; reajuste de precios, o fijación de precios
basada en la competencia, tal como lo practican los vendedores en el mercado de Amazon; y, por último, la
fijación de precios de descuento o aumento, en la que los precios disminuyen gradualmente (como en el comercio
minorista de moda) o aumentan (como en las aerolíneas de bajo costo) a medida que se acerca una fecha límite.

2.4.1 Aumento de precios: igualar la oferta y la demanda

Esta es la más nueva y quizás la más controvertida de las prácticas dinámicas de fijación de precios. La razón
económica subyacente es sólida y razonable. Cuando hay más demanda que oferta, se debe aumentar el precio
para despejar el mercado; básicamente, el bien o servicio se asigna a quienes más lo valoran. Cuando se les
pide que juzguen la justicia de esto, la mayoría de los consumidores no tienen ningún problema con este principio,
por ejemplo, pocos consideran que las subastas son injustas.

Sin embargo, cuando se aplica a artículos o servicios cotidianos comunes, muchos consumidores se
indignan. Esto se debe a muchas razones: (1) No hay transparencia sobre cómo se mueven los precios para
equilibrar la oferta y la demanda. (2) A medida que los precios suben cuando un gran número de personas lo
necesitan, se quedan con la sensación de que se les está subiendo el precio cuando más necesitan el servicio.
(3) El artículo o servicio es esencial o vital, como un servicio farmacéutico o de ambulancia. Uber fue pionera en
la introducción de aumento de precios en una industria acostumbrada a un sistema de precios fijos regulados
(precisamente para brindar transparencia y evitar el aumento de precios y también para evitar las molestias de la
negociación). Si bien las reacciones iniciales2 han sido predecibles, en unos pocos años se ha convertido en un
hecho de la vida. Esto muestra la importancia de que una empresa crea en la lógica económica de la fijación
dinámica de precios y se apegue a la práctica a pesar de la resistencia del público. Por supuesto, los
consumidores deben encontrar valor en el servicio en sí mismo, ya que los precios son más bajos que las
alternativas (como el servicio de taxi regular) durante las horas de menor actividad, con el tiempo los consumidores
se dan cuenta de la importancia y la necesidad de los precios dinámicos.

2.4.2 Cambio de precios: precios dinámicos impulsados por la competencia

Un segundo fenómeno que se ha apoderado recientemente se llama "cambio de precio" que se utiliza en los
mercados de comercio electrónico como Amazon.com. Es esencialmente una fijación de precios dinámica
impulsada por la competencia.
Muchas plataformas de comercio electrónico venden productos de marca que son idénticos a los que venden
otros vendedores. El papel del vendedor en toda la cadena de suministro es poco más que almacenar y enviar,
ya que el fabricante maneja las garantías. El servicio juega un papel importante, pero muchos de los vendedores
tienen reseñas y calificaciones similares y, a menudo, el precio es la principal motivación del cliente para elegir a
un vendedor sobre otro, ya que la plataforma de comercio electrónico elimina todos los costos de búsqueda.

2https://nyti.ms/2tybWiV, https://nyti.ms/2uwkLXR. Consultado el 21 de mayo de 2018.


Machine Translated by Google

804 K. Talluri y S. Seshadri

Sin embargo, los precios fluctúan, siendo a menudo misteriosas las razones. Algunas explicaciones posibles
son las creencias de las empresas sobre su propio atractivo (en términos de calificaciones, revisiones y
confianza) en comparación con otras y sus posiciones de inventario: una empresa con inventarios bajos puede
querer reducir las ventas aumentando los precios. Otra posible razón es que las empresas evalúan los perfiles
de los clientes que compran en diferentes momentos del día y días de la semana. Una persona que compra
tarde en la noche definitivamente no es una comparación de compras dentro de una tienda física, por lo que se
reduce el conjunto de competidores.

Tenga en cuenta que un sitio de comercio electrónico normalmente tendría más variables a las que fijar el
precio, como la ubicación y el perfil del cliente anterior, pero un vendedor en un mercado como Amazon o eBay
solo tiene información limitada y tiene que recopilar la información de la competencia extrayéndola. sitio web o
de fuentes externas.
La revisión de precios se refiere a herramientas automatizadas, a menudo simplemente basadas en reglas,
que cambian el precio debido a movimientos o inventario de la competencia. En el ejercicio al final de este
capítulo se dan ejemplos de tales reglas.

2.4.3 Precio de descuento y aumento de precio: cambio de valoraciones

La reducción de precios es una táctica común en las tiendas de abarrotes y en la venta minorista de moda.
Aquí, el valor del producto en sí mismo se deteriora, ya sea físicamente debido a la vida útil limitada o como en
la industria de la moda y la electrónica de consumo, a medida que se introducen nuevas colecciones o
productos. Las rebajas en la moda tienen una motivación algo diferente de las rebajas de los productos frescos.
En el comercio minorista de moda, los productos no se pueden reponer dentro de la temporada debido a los
largos ciclos de ventas, mientras que para los alimentos frescos, la fecha de caducidad reduce el valor del
producto porque se introducen artículos más frescos al mismo tiempo.

El precio de descuento, como su nombre lo indica, comienza con un precio inicial y luego, gradualmente en
varios puntos durante el ciclo de vida del producto, reduce el precio. Las reducciones de precios son a menudo
en forma de 10% de descuento, 20% de descuento, etc., y algunas veces coordinadas con las ventas
anunciadas. Al final de la temporada o en una fecha prescrita, el producto se retira del estante y se vende a
través de canales secundarios a un precio muy reducido, a veces incluso por debajo del costo. Este precio final
se denomina valor de salvamento.

Las decisiones operativas son cuánto descontar y cuándo. Hay varias restricciones y reglas comerciales
que se deben respetar al rebajar, la más común es que una vez descontado, no podemos volver a subir el
precio (esto es lo que distingue el precio rebajado de las promociones). Otros limitan la cantidad y las cantidades
de descuento.

La compensación involucrada es similar a la que enfrenta un vendedor de periódicos: el descuento


demasiado tarde conduciría a un exceso de inventario que debe eliminarse, y el descuento demasiado pronto
significará que venderemos el inventario y potencialmente nos enfrentaremos a un desabastecimiento.
En contraste con la fijación de precios de descuento donde los precios bajan, hay algunas industrias que
practican la fijación dinámica de precios con precios que suben a medida que se acerca la fecha límite. Aquí, el
valor del producto disminuye para la empresa, pero la mezcla de clientes puede ser
Machine Translated by Google

23 Análisis de precios 805

cambiando cuando los clientes con valoraciones más altas llegan más cerca de la fecha límite (el
tipo y la combinación de clientes pueden estar cambiando o incluso para el mismo cliente, su
incertidumbre sobre el producto puede resolverse).

2.5 Pronóstico y Estimación

Por razones de practicidad, tratamos de mantener los modelos de demanda simples. Al fin y al
cabo, de nada servirían elaborados modelos de comportamiento de la demanda si no podemos
calibrarlos a partir de datos y optimizar en base a ellos. En cualquier caso, los modelos más
complicados no significan necesariamente que predigan mejor la demanda y, a menudo, son más
difíciles de gestionar y controlar.
En esta sección, nos concentramos en tres modelos simples de cómo se explica la demanda
en función del precio. Los tres se basan en la idea de una población potencial que está
considerando comprar nuestro producto. El tamaño de esta población es M. Tenga en cuenta que
M puede variar según el día, el día de la semana o la hora del día. Fuera de este mercado
potencial, una cierta fracción compra el producto. Modelamos la fracción en función del precio y
posiblemente también de otros atributos.
Sea D(p) la demanda en función del precio p.

• En el modelo aditivo de la demanda,

D(p) = M(a + pb)

donde a y b son parámetros que estimamos a partir de los datos. Si hay varios productos, la
demanda de uno puede afectar al otro. Podemos modelar la demanda en presencia de
múltiples productos como

D(pi) = M(ai + bipi + bijpj ). j


= yo

Es decir, la demanda del producto i es una función no solo del precio de i, sino también de los
precios de los otros productos, pj , j = i. Los parámetros ai, bi y bij deben estimarse a partir de
los datos.
Este modelo puede generar problemas en los extremos ya que no hay garantía de que la
fracción esté entre 0 y 1.

• En el modelo multiplicativo de la demanda,

D(p) = M(apb).

Cuando hay varios productos, el modelo es

bij
D(pi) = M(ai p ). yo
Machine Translated by Google

806 K. Talluri y S. Seshadri

Esto generalmente se estima tomando los logaritmos naturales en ambos lados, por lo que se vuelve lineal
en los parámetros. Sin embargo, este modelo debe manejarse con cuidado en la optimización, ya que puede
dar resultados extraños; esencialmente, cuando estamos optimizando tanto los ingresos como las ganancias,
el problema puede volverse ilimitado.

• Modelo de elección de la demanda: En el modelo de elección, se supone que cada cliente hace una elección
entre los productos disponibles. El siguiente a veces se denomina modelo logit multinomial (MNL),

huevo+carne
D(pi) = METRO
1 + eaj+bjpj ,

donde e representa la base del logaritmo natural. Tenga en cuenta que este modelo tiene muchos menos
parámetros que el modelo aditivo o multiplicativo y, naturalmente, limita la fracción para que siempre se
encuentre entre 0 y 1. Esta es la gran ventaja de este modelo.

Mostramos en los ejercicios cómo se pueden utilizar estos modelos para la optimización de precios.
El estudio de caso sobre el modelo de elección de aerolíneas (ver el Capítulo 26), tiene un ejercicio detallado
sobre la estimación y el uso de modelos de elección para la optimización de precios y el diseño de productos.

2.6 Procesos para el Control de Aforo

La fijación de precios para cada producto dirigido a un segmento, como se indica en el art. 2.2.1, y controlar
cuánto se vende a cada precio requiere que controlemos cuántas reservas se han realizado para cada producto
y cerrar ventas a ese precio siempre que vendamos lo suficiente.

Entonces, la secuencia es (1) pronosticar la demanda de cada producto RM para un día específico y luego
(2) optimizar los controles dados los pronósticos y (3) controlar las ventas en tiempo real para cada producto
para que no excedan los límites de reserva para ese producto.
A continuación enumeramos las principales formas de control utilizadas en las industrias de RM. Debido a

las limitaciones de los sistemas de distribución que se diseñaron hace muchos años, el resultado de nuestro
paso de optimización debe ajustarse a estas formas.

• Asignaciones anidadas o límites de reserva: todos los productos de RM que comparten inventario se clasifican
primero en algún orden, generalmente por su precio.3 Luego, la capacidad restante se asigna a estas clases,
pero las asignaciones están "anidadas", por lo que la clase más alta tiene acceso a todo el inventario
asignado a una clase inferior. Por ejemplo, si quedan 100 asientos a la venta y hay dos clases, Y y B,
considerando Y

3Como mencionamos anteriormente, es común agrupar diferentes productos bajo una “clase” y tomar un precio
promedio para la clase. En la industria de las aerolíneas, por ejemplo, los productos, cada uno con un código de
base de tarifa (como BXP21), se agrupan en clases de tarifas (representadas por un alfabeto, Y, B, etc.)
Machine Translated by Google

23 Análisis de precios 807

una clase más alta, entonces un ejemplo de una asignación anidada sería Y100 B54. Por
ejemplo, si llegaran 100 Y clientes, los controles permitirían la venta a todos ellos. Si 60 B
clientes aparecieran, solo 54 podrían comprar.
Se dice que B tiene una asignación o un límite de reserva de 54. Otra terminología que se utiliza
es protecciones (anidadas): se dice que Y tiene (en este ejemplo) una protección de 46 asientos.

Las asignaciones se publican en un sistema central de reservas y se actualizan periódicamente


(generalmente durante la noche). Después de cada reserva, el sistema de reservas actualiza los
límites. En el ejemplo anterior, si entra una reserva B, entonces (ya que la empresa puede
vender hasta 54 asientos a B) se acepta, por lo que la capacidad restante es 99 y los nuevos
límites de reserva son Y99 B53. Supongamos que entra una reserva Y y se acepta, hay un par
de formas en que la empresa puede actualizar los límites: Y99 B54 o Y99 B53. El primero se
denomina anidamiento estándar y el segundo anidamiento de robo .

• Precios de oferta: por razones históricas, la mayoría de los sistemas RM de aerolíneas y hoteles
funcionan con asignaciones anidadas, ya que muchos sistemas de distribución global (como
Amadeus o Sabre) se estructuraron de esta manera. Muchos de estos sistemas permiten una
pequeña cantidad de límites (10 a 26), por lo que cuando la cantidad de productos RM supera
esta cantidad, de alguna manera deben agruparse para ajustarse a la cantidad permitida por el sistema.
El control del límite de reserva es perfectamente adecuado cuando se controla un solo
recurso (como un solo tramo de vuelo) de forma independiente (independiente de otros vuelos
de conexión, por ejemplo), pero encontramos sus limitaciones cuando aumenta la cantidad de
productos que utilizan ese recurso, digamos a más que el tamaño del inventario. Considere la
red RM, donde los productos son itinerarios, y podría haber muchos itinerarios que utilizan un
recurso (un tramo de vuelo): la agrupación de los productos a priori se vuelve complicada y
desordenada (aunque se ha intentado, a veces llamado anidamiento virtual).

Una forma de control más natural y apropiada, especialmente para la red RM, es una forma
de control de precio de umbral llamada control de precio de oferta . Cada recurso tiene asociado
un número no negativo llamado precio de oferta. Un producto que utiliza una combinación de
recursos se vende si el precio del producto supera la suma de los precios de oferta de los
recursos que utiliza el producto. Los precios de oferta se actualizan con frecuencia a medida que
llega nueva información o cuando se vende el inventario. La siguiente sección ilustra el cálculo
de los precios de oferta.

2.7 Gestión de ingresos de la red

La necesidad de la gestión de ingresos de la red: en muchas situaciones, la empresa tiene que


calcular el impacto de una decisión de fijación de precios, oferta de productos o gestión de la
capacidad en toda una red de recursos. Considere el caso de una aerolínea que ofrece vuelos
desde muchos orígenes y hacia muchos destinos. En este caso, los pasajeros que vuelan a
diferentes pares de origen-destino (OD) pueden usar el mismo tramo de vuelo.
Machine Translated by Google

808 K. Talluri y S. Seshadri

Digamos que una aerolínea usa Chicago como centro. Ofrece itinerarios desde la costa este de los
EE. UU., como Nueva York y Boston, hasta ciudades del oeste, como Los Ángeles y San Francisco. Los
pasajeros que vuelan de Nueva York a Chicago incluyen aquellos que viajan directamente a Chicago y
también aquellos que viajan vía Chicago a Los Ángeles, San Francisco, etc. La empresa no puede tratar
la reserva del vuelo de Nueva York a Chicago de forma independiente, sino que debe considerar el
impacto en el resto de la red ya que reduce la capacidad para futuros clientes que deseen viajar a Los
Ángeles y San Francisco.
De manera similar, existen interacciones intertemporales cuando consideramos problemas de
estadías de varias noches, por ejemplo, un automóvil o una habitación de hotel cuando se alquila por varios días.
Por lo tanto, el problema del alquiler de automóviles del lunes afecta al problema del alquiler de automóviles
del martes y así sucesivamente. Otros ejemplos de administración de ingresos de la red incluyen reservas
de carga que consumen capacidad en más de un par de OD o campañas publicitarias de televisión que
usan espacios publicitarios en múltiples programas y días.

Gestión subóptima de un recurso de red a la vez: es fácil demostrar que no es óptimo gestionar cada
recurso por separado. Considere una situación en la que el tomador de decisiones sabe que el vuelo de
la ciudad A a B, con una tarifa publicada de 100, estará relativamente vacío, mientras que el vuelo de
conexión de B a C, con una tarifa de 200, estará bastante lleno. Algunos pasajeros solo quieren viajar de
A a B, y hay otros que quieren volar de A a C. Ambos usan el tramo AB. En este caso, ¿cuál será el orden
de preferencia para reservar un pasajero de A a B frente a uno que quiere viajar de A a C y paga 275?
Intuitivamente, quitaríamos 200 de 275 y valoraríamos el valor de este pasajero para la aerolínea en el
tramo AB como solo 75. Por lo tanto, los ingresos totales podrían no ser un buen indicador de valor. En
este ejemplo, la asignación del 275 según la distancia entre A–B y B–C también podría ser incorrecta si,
por ejemplo, las distancias son iguales. Las asignaciones basadas en la utilización o el precio de alguna
clase de tarifa mediana también serían inapropiadas.

Por lo tanto, cualquier fórmula que asigne el valor a diferentes tramos del itinerario debe considerar tanto
la rentabilidad de cada tramo como la probabilidad de ocupar el asiento.

Un ejemplo para ilustrar un enfoque inductivo: considere un ejemplo simple en el que, como se indicó
anteriormente, hay un vuelo de la ciudad A a la ciudad B y un vuelo de conexión de B a C. Las tarifas de
ida son 200 y 200, mientras que la tarifa de A a C es 360. Queda exactamente un asiento en cada tramo
de vuelo. Suponga, como se hace típicamente al establecer el problema de optimización, que el tiempo es
discreto. Está numerado al revés, de modo que el tiempo n indica que quedan n períodos de tiempo antes
de que tenga lugar el primer vuelo. Además, se supone que la probabilidad de que llegue más de un
cliente en un período de tiempo es insignificante. Por lo tanto, o no llega ningún cliente o llega un cliente.

Nos dan que quedan tres períodos de tiempo para ir. En cada periodo, la probabilidad de que un cliente
quiera viajar de A a B es 0,2, de B a C es 0,2 y de A a C es 0,45; por lo tanto, existe una probabilidad de
cero llegadas igual a 0,15. En este ejemplo, las probabilidades de llegada son las mismas en cada período.
Es fácil cambiar los porcentajes con el tiempo. ¿Cuál debería ser la política de reserva de la aerolínea con
un asiento disponible en cada vuelo?
Machine Translated by Google

23 Análisis de precios 809

Este problema se resuelve mejor a través de la inducción hacia atrás. Defina el estado del
sistema como (n, i, j), donde n es el período e i y j los números de asientos no vendidos en las
patas AB y BC.
Considere el estado (1, 1, 1). En este estado, en el último período, la decisión óptima es
vender a cualquier cliente que llegue. El pago esperado es 0,4 × 200 + 0,45 × 360 = 242.
Escribimos el valor en este estado como V (1, 1, 1) = 242. El pago esperado en el estado (1, 0,
1) o (1, 1, 0) es 0,2 × 200 = 40. Escribimos V (1, 0, 1) = V (1, 1, 0) = 40. Para completar, podemos
escribir V (n, 0, 0) = 0.
Cuando faltan dos períodos, la decisión es si vender a un cliente o esperar. Considere el
estado (2, 1, 1) y el valor de estar en este estado, V (2, 1, 1).
Obviamente, es óptimo vender a un cliente de AC. Algunos cálculos son necesarios para saber
si debemos vender a un cliente AB o BC:

Si llega un cliente AB: Si vendemos, obtenemos 200 + V (1, 0, 1) (de vender el asiento a un
cliente BC si llega en el último período) = 240. Esperando obtiene V (1, 1, 1) = 242. Por lo
tanto, es mejor no vender.
Si llega un cliente BC: Similar al caso anterior, es mejor esperar.
Si llega un cliente AC: Vender. Obtenemos 360.
Así, V (2, 1, 1) = 0,4 × 242 + 0,45 × 360 + 0,15 × V (1, 1, 1) = 295,1.
Podemos calcular V (2, 1, 0)(= V (2, 0, 1)) = 0,2 × 200 + 0,8 × V (1, 1, 0) = 72.
En el periodo 3, en el estado (3, 1, 1), es óptimo vender si llega un cliente AC.
Si llega un cliente AB (o BC), al vender obtenemos 200 + V (2, 0, 1)(o V (2, 1, 0)) = 272. Esto
es menor que V (2, 1, 1) . Por lo tanto, es mejor esperar.
Esto completa el análisis.

El lector puede generalizar fácilmente al caso cuando hay diferentes combinaciones de


asientos no vendidos. Por ejemplo, habiendo resuelto completamente el caso cuando quedan un
máximo de (k, m) asientos en el último período, se puede usar la inducción hacia atrás para
resolver lo mismo cuando quedan dos períodos, etc.
El método de inducción hacia atrás se llama programación dinámica y puede volverse
bastante engorroso cuando la red es grande y la cantidad de períodos restantes es grande.
Es de naturaleza estocástica debido a las probabilidades. El lector astuto podría haber notado
que estas probabilidades pueden generarse utilizando un modelo apropiado de elección del
cliente que produce la probabilidad de elegir un itinerario cuando se le presenta un conjunto de
opciones.

Enfoque de Precio de Oferta: Recuerde el control de precio de oferta de la Secc. 2.6. La regla
de operación es aceptar un itinerario si su tarifa excede la suma de los precios de oferta en cada
tramo utilizado por el itinerario, si queda suficiente capacidad. Se puede pensar que los precios
de oferta representan el valor marginal de las unidades de capacidad restantes.
Pero, ¿cómo calculamos estos precios de oferta? Se han propuesto y analizado muchos
enfoques heurísticos diferentes, tanto en la literatura académica como en la práctica (véanse,
por ejemplo, las referencias al final de este capítulo). Estos van desde la resolución de modelos
de optimización como un programa lineal determinista (DLP), un programa lineal estocástico
(SLP) y versiones aproximadas del programa dinámico (DP) ilustrado anteriormente hasta una
variedad de heurísticas. (La advertencia habitual es que el uso
Machine Translated by Google

810 K. Talluri y S. Seshadri

de los precios de oferta de esta manera no tiene por qué dar lugar a los ingresos esperados óptimos.
Tomemos, por ejemplo, la regla de decisión que derivamos usando el programa dinámico con tres
períodos para el final y un asiento disponible en cada tramo de vuelo. Necesitamos dos precios de
oferta (uno por tramo) de modo que cada uno sea mayor que la tarifa del tramo sencillo pero su
suma sea menor que la tarifa de los tramos combinados. Por tanto, necesitamos precios b1 y b2
tales que b1 > 200, b2 > 200, b1 + b2 ÿ 360. Esos valores no existen.)
En este capítulo, ilustramos el enfoque DLP como es práctico y es utilizado por hoteles y
aerolíneas para resolver el problema. Para ilustrar el enfoque, primero usaremos una notación
general y luego proporcionaremos un ejemplo específico. Tenemos un conjunto de productos,
. El
indexados por i = 1 a I Si el producto i usa el recurso j, sea
conjunto aij = 1 si está
de recursos no 0.etiquetado
Sea Ri el como
ingreso
j = obtenido
1aJ.
por la venta de una unidad del producto i. Sabemos
capacidad quej es
del recurso la demanda deldemanda
Cj . Aquí, la productoyi los
es Di y la son
ingresos
deterministas.

En el contexto de una aerolínea, los productos serían los itinerarios, los recursos serían los
tramos de vuelo, el coeficiente aij = 1 si el itinerario i usa el tramo de vuelo j sino 0, la capacidad
sería el número de asientos no vendidos del recurso j, y el ingreso sería la tarifa del producto i.

En un hotel que está planificando sus asignaciones de habitaciones para la próxima semana, el
producto podría ser una estadía que comience un día y finalice otro día, como el ingreso el lunes y
la salida el miércoles. El recurso será una noche de habitación.
La capacidad será el número de habitaciones no vendidas para cada día de la semana. El coeficiente
aij = 1 si el producto i requiere permanecer el día j (por ejemplo, una persona que se hospeda los
lunes y martes utiliza una unidad de capacidad en cada noche de habitación). El ingreso será el
precio cobrado por la estancia completa del producto i. Para un problema de alquiler de autos,
reemplace la noche de la habitación con el alquiler de autos para cada día de la semana. Tenga en
cuenta que es posible que dos productos utilicen el mismo conjunto de recursos pero tengan un
precio diferente. Ejemplos de estos incluyen alguna combinación de habitación vendida con/sin
desayuno, permitir o no permitir la cancelación, aceptar el pago por adelantado o al final de la estancia, etc.
El problema es decidir cuántas reservas acepta Xi de cada producto i.
El problema de optimización general se puede enunciar de la siguiente manera (DLP):

máximo RiXi
X
yo = 1 a yo

St

aijXi ÿ Cj , j = 1 a J, (23.5)
i

Xi ÿ Di, i = 1 a I, (23.6)

Xi = 0, 1, 2,..., yo

Aquí, las restricciones (23.5) aseguran que no vendamos más reservas que la capacidad en cada
vuelo (en promedio); Las restricciones (23.6) aseguran que el número de reservas para un itinerario
sea menor que la demanda de ese itinerario (media de la demanda:
Machine Translated by Google

23 Análisis de precios 811

recuerda que esto es solo una aproximación). El valor de este problema de optimización
de hecho, puede demostrarse que es un límite superior del ingreso máximo esperado.
Los siguientes datos son necesarios para resolver este problema: Las demandas tienen que ser
pronóstico. El aforo del que se disponga dependerá del número de reservas
que ya han sido aceptados y tienen que ser computados. Los precios pueden ser
algo desconocido porque fluctúan dependiendo de las condiciones del mercado y
los tratos que se van a negociar. El DLP requerirá estimaciones de la esperada
precio. Además, se supone que no hay cancelaciones. también se supone
no hay no-shows y no se permite el overbooking. Algunas variaciones de la
El DLP básico tiene en cuenta estos factores.

A pesar de sus limitaciones y simplicidad, DLP se usa a menudo en la práctica porque


es rápido, conveniente y utiliza datos fácilmente disponibles. Reoptimización frecuente y
el uso de la solución más reciente puede dar buenos resultados. Un ejemplo concreto ayudará
ilustrar el enfoque.

2.7.1 Estudio de caso

Un pequeño hotel está planificando su asignación de habitaciones para la semana siguiente.


A los efectos de la planificación, se supone que los clientes que se alojan los fines de semana
pertenecer a un segmento diferente y no quedarse hasta el lunes o registrarse antes
Sábado. Vende varios productos. Aquí, consideramos los tres más populares.
que tienen un precio promedio de $ 125, $ 150 y $ 200. Estas tarifas son aplicables,
respectivamente, si el cliente (1) paga por adelantado, (2) proporciona una tarjeta de crédito y acepta
a un cargo por cancelación que se aplica solo si la reserva de la habitación se cancela con
falta menos de 1 día, y (3) es similar a (2) pero también ofrece Internet gratis
y desayuno (que son prácticamente gratuitos para el hotel). Los clientes se quedan por 1, 2 o 3
noches Las previsiones de demanda y las habitaciones ya reservadas se muestran en la Tabla 23.1.
El hotel dispone de un bloque de 65 habitaciones para destinar a estos productos.
En este ejemplo, hay 45 productos y cinco recursos. Cada previsión de demanda
se refiere a un producto. Las habitaciones disponibles en cada uno de los 5 días constituyen los cinco
diferentes recursos. El producto Lunes 1 noche de estancia utiliza una unidad de Lunes
capacidad. El producto Lunes de estancia de 2 noches utiliza una unidad cada uno de Lunes y
Martes capacidad de habitaciones, etc. Las habitaciones disponibles son 65 menos las habitaciones vendidas.

Cuadro 23.1 Previsiones de demanda y habitaciones ya reservadas

125 150 200 Habitaciones vendidas

Lunes 7 12 17 17 6 4 9 5 1 12

martes 17 3 10 2 7 4 8 1 1 22

miércoles 2 19 15 3 3 4 2 4 2 31

jueves 15 11 0 20 9 0 6 0 0 24

Viernes 20 0 0 9 0 0 4 0 0 15
Machine Translated by Google

812 K. Talluri y S. Seshadri

Fig. 23.3 Variables de decisión

Fig. 23.4 Configuración de Excel Solver

Figura 23.5 Solución DLP

Hay 45 variables de decisión en este problema. Las capturas de pantalla de los datos, las variables de
decisión (amarillo) y la configuración de Excel Solver se muestran en las Figs. 23.3 y 23.4.
Resolviendo este problema como un programa lineal o LP (elija lineal y no negativo
en Solver), obtenemos la solución que se muestra en la Fig. 23.5.
Machine Translated by Google

23 Análisis de precios 813

Cuadro 23.2 Precio sombra de las restricciones

Restricción de sombra final Precio de valor Admisible


Nombre de celda permitido Incremento del lado derecho 53 disminuir

M11 Lunes habitaciones vendidas 53 100 2 0

M12 Martes habitaciones vendidas 43 150 43 0 2

M13 Miércoles cuartos vendidos 34 150 34 2 1

M14 Jueves habitaciones vendidas 41 150 41 12 7.999999999

M15 viernes habitaciones vendidas 50 100 50 7.999999999 2.000000001

Nota: Los precios sombra se redondearon al valor entero más cercano

Tabla 23.3 ¿La clase de tasa está abierta o cerrada?

125 150 200

Noche de estancia 1 2 3 1 2 3 1 2 3

Lunes ABIERTO ABIERTO CERRADO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO
Martes CERRADO CERRADO CERRADO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO
Miércoles CERRADO CERRADO CERRADO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO
Jueves CERRADO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO
Viernes ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO

La solución óptima es no aceptar muchas reservas en la clase de tarifa de $125, excepto


los lunes y martes. Incluso parte de la demanda en la clase de tarifa de $150 se convierte
fuera los miércoles y jueves. Uno podría simplemente usar esta solución como guía
durante los próximos días y luego volver a optimizar en función de las reservas aceptadas y
las previsiones de demanda revisadas. Dos oportunidades potenciales de mejora son como
siguiente: (1) La solución no considera la secuencia de llegadas, por ejemplo,
si el cliente de la clase de tarifa de $125 llega antes que el de $150. (2) La solución
no tiene en cuenta el aspecto estocástico de la demanda total. Estos pueden ser
parcialmente remediado mediante el uso de los precios duales proporcionados por el análisis de sensibilidad de
la solución. El análisis de sensibilidad de la solución al PL se obtiene a partir de cualquier
solucionador tradicional que incluye Excel. El análisis de sensibilidad de las capacidades de las habitaciones es
dado en la Tabla 23.2.
Hay un precio sombra por recurso y día de estancia. Esto se puede utilizar como el
precio de oferta de una habitación para ese día. Por ejemplo, si un cliente estuviera dispuesto a pagar
$225 por una estadía de 2 noches a partir del lunes, rechazaríamos esa oferta porque el
el precio es menor que la suma de los precios de oferta del lunes y martes (100 + 150),
considerando que el hotel debe aceptar a cualquier cliente que esté dispuesto a pagar por una noche
Quédese el lunes o el viernes si la tarifa supera los $ 100. Uno podría publicar qué tasa
las clases están abiertas según esta lógica, como se muestra en la Tabla 23.3.
También podemos calcular el precio mínimo por aceptar una reserva (o un grupo):
Para crear el precio mínimo (ver Tabla 23.4), hemos redondeado la sombra
precio manualmente a valor entero. Resaltamos que el precio de oferta es un precio interno
mecanismo de control que ayuda a los tomadores de decisiones a decidir si aceptar o no un
cliente. No es necesario que el precio de la oferta se parezca al precio real. También, tenga en cuenta
Machine Translated by Google

814 K. Talluri y S. Seshadri

Cuadro 23.4 Precio mínimo Estancia nocturna 1 2 3


basado en precios sombra
Lunes 100 250 400

martes 150 300 450

miércoles 150 300 400


jueves 150 250 250

Viernes 100 100 100

Tabla 23.5 Martes noche Producto Ingresos totales Ingresos del martes
análisis de recurso único
Lunes 125 2 noches 250 150

lunes 125 3 noches 375 125

Lunes 150 2 noches 300 200

Lunes 150 3 noches 450 200

Lunes 200 2 noches 400 300

Lunes 200 3 noches 600 350

martes 125 1 noche 125 125

martes 125 2 noches 250 100

martes 125 3 noches 375 75

martes 150 1 noche 150 150

martes 150 2 noches 300 150

martes 150 3 noches 450 150

martes 200 1 noche 200 200

martes 200 2 noches 400 250

martes 200 3 noches 600 300

que a pesar de que la clase de tarifa de $150 para estadía de 1 noche está abierta el jueves, el LP
solución no acepta toda la demanda. Por lo tanto, el precio de la oferta es válido solo para pequeñas
cambio en la capacidad disponible. Además, es posible que necesitemos volver a conectarnos al
problema de recurso único para determinar los límites de reserva para diferentes clases de tarifas.
Para ver esto, considere solo el recurso llamado Martes. Uso de varios productos diferentes
el recurso del martes. Restando el precio de oferta para los otros días del total
ingresos, llegamos a los ingresos del martes que se muestran en la tabla 23.5.
Con base en esta tabla, podemos inferir que el DLP también puede proporcionar valor relativo
de diferentes productos. Esto se puede usar en el problema de un solo recurso para obtener el
límites de reserva. También podemos agrupar productos en diferentes cubos antes de usar el
algoritmo de límite de reserva. Productos con ingresos del martes mayores o iguales a
300 puede ser el cubo más alto; el siguiente segmento pueden ser aquellos con ingresos entre
200 y 250; el resto está en el balde más bajo.

Usos y limitaciones de los precios de oferta para Network Revenue Management: existen
Hay muchos usos prácticos de los precios de oferta. En primer lugar, el enfoque cambia
el enfoque de la previsión al nivel del producto y lejos del recurso único
nivel. Por lo tanto, el tomador de decisiones genera pronósticos de demanda para 1 noche y 2-
la noche se queda por separado en lugar de la previsión para la noche del martes. Los precios de oferta
puede ayudar en la planificación de rutas, cambiar la capacidad si hay cierta flexibilidad disponible, ejecutar
Machine Translated by Google

23 Análisis de precios 815

promociones/cambio de demanda, identificación de tendencias de precios de oferta, etc. Por


ejemplo, la gerencia puede decidir no ofrecer algunos productos en ciertos días, cambiando así la
demanda a otros productos. Si existe cierta flexibilidad, una empresa de alquiler de automóviles
podría utilizar el precio de oferta como guía para mover automóviles de un lugar con un precio
bajo a otro con un precio alto. Los valores de los productos pueden revelar patrones sistemáticos
de infravaloración y sobrevaloración que pueden ayudar a decidir si realizar una promoción para
una tarifa especial de fin de semana o para un destino en particular. Las tendencias de precios de
oferta que muestran un aumento sostenido durante varias semanas pueden indicar una disminución
de la presión competitiva o reservas anticipadas en previsión de un evento.
En el propio capítulo se han mencionado varias limitaciones del enfoque.
Se puede encontrar material más avanzado que explica el desarrollo de la gestión de ingresos de
la red en las referencias proporcionadas en el capítulo.

3 Lectura adicional

Hay varios textos dedicados a la optimización de ingresos. El libro de Robert Cross (2011) es uno
de los primeros dedicados al arte y la ciencia de la gestión de ingresos en un estilo popular.
Muchas ideas discutidas en este capítulo y muchas más encuentran un lugar en el libro. El libro
de Robert Phillips (2005) y el libro de Talluri y Van Ryzin (2006) contienen una introducción al
tema a nivel de posgrado. Además, hemos tomado prestadas ideas de los artículos enumerados
al final del capítulo (Bratu 1998; Lapp y Weatherford 2014; Talluri y van Ryzin 1998; Williamson
1992). El sitio web de INFORMS Revenue Management and Pricing Section4 contiene varias
referencias útiles. Finalmente, hay un Journal of Revenue and Pricing Management5 que está
dedicado al tema.

Material complementario electrónico

Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están
disponibles en www.allaboutanalytics.net.

• Datos 23.1: Opera.xls

Ejercicios

Ex. 23.1 (Nivel de protección) Una aerolínea ofrece dos clases de tarifas para asientos de clase
económica en su vuelo del lunes por la mañana: una clase se vende a $400/boleto y otra a

4http://www.informs.org/Community/revenue-mgt. Consultado el 22 de mayo de 2018. 5http://


www.palgrave-journals.com/rpm/index.html. Consultado el 22 de mayo de 2018.
Machine Translated by Google

816 K. Talluri y S. Seshadri

$160/boleto. Hay 225 asientos económicos en el avión. La demanda de asientos con tarifa de $400
(también llamada tarifa completa) tiene una media de 46, una desviación estándar de 16. Suponga que
sigue una distribución normal. La demanda de asientos más baratos tiene una distribución exponencial
con una media de 177. Un asiento se puede vender a cualquier clase. Además, se puede suponer que
la demanda de las dos clases de tarifas es independiente entre sí. La principal restricción es que los
boletos más baratos deben comprarse con 3 semanas de anticipación.

(a) ¿Cuántos asientos protegería para los clientes de la clase de $400? (b) El
pronóstico para los pasajeros de clase más económica ha cambiado. Ahora se supone que es menos
de 190 con una probabilidad de 1. ¿Cuántos asientos protegería para los clientes de tarifa completa
dada esta información? (c) Regrese al problema original. Suponga que los asientos no vendidos a
veces pueden venderse en el último minuto a $105. ¿Qué efecto tendrá esto en el nivel de protección
(protegerá más o menos asientos o la misma cantidad de asientos)? ¿Por qué? (d) ¿Cambiará su
respuesta original si las demandas de las dos clases no son independientes entre sí? Explique su
respuesta si es posible usando un ejemplo.

Ex. 23.2 (Precio de la Oferta) Por favor, consulte los datos en la hoja de Excel Opera.xls (disponible
en el sitio web). La pregunta también se da en la hoja de cálculo. Se reproduce a continuación. Todos
los datos están disponibles en la hoja de cálculo.
Realice el siguiente análisis basado en los datos de la ópera. Se le proporciona la reserva
acumulativa para 1 año para dos clases de boletos. Suponga que el teatro de ópera vende dos tipos de
boletos para sus asientos de piso. El primero se vende a $145 y el boleto no es reembolsable. El
segundo es por $215 pero reembolsable. El teatro de la ópera tiene 245 asientos en el piso. Estos datos
se dan en dos hojas en la hoja de cálculo.
Puede verificar (o asumir) que el patrón de reserva es el mismo para la mayoría de los días.
Esto se debe a que hemos normalizado un poco los datos y nos hemos deshecho de los picos y valles.
El patrón de reserva se da 14 días antes del concierto en adelante. La entrada final muestra cuántas
personas se presentaron realmente al concierto cada día.
Aquí hay una muestra de los datos para asientos de $145:

ÿ1 0 1 2 3
30/11/2011 143 143 133 124 116

Por ejemplo, hoy es 30 de noviembre de 2011. Para esta fecha, 116 personas habían reservado
asientos con 3 días para el final, 124 con 2 días para el final, 133 con 1 día para el final y 143 la noche
anterior al concierto. Finalmente, 143 personas se presentaron el 30 de noviembre que fue el día del
concierto.
Hemos creado un pronóstico de la demanda de los dos tipos de asientos para los próximos diez
días, del 1 de diciembre al 10 de diciembre. Hemos utilizado el método aditivo para estimar la recolección
(PU).
(En este método, calculamos la diferencia entre los asientos promedio vendidos y los asientos
reservados con 1, 2, 3, . . . días para el final. Esa es la PU con 1, 2, 3, . . . días para el final).
Vea las filas 40–44 en la primera hoja de la hoja de cálculo para el pronóstico.
Machine Translated by Google

23 Análisis de precios 817

Responda las preguntas (a)–(d):


(a) Recuerde que la ópera ya vendió algunos asientos para los próximos 10 días. Calcule la capacidad
disponible para los próximos 10 días (del 1 de diciembre al 10 de diciembre).

(b) Determine cuántos asientos vender a cada precio durante los próximos 10 días. Tú tienes
para configurar un programa lineal para hacer esto.
(c) Comente su solución. (¿Cómo usar los precios sombra? ¿Qué revelan los precios sombra? ¿Qué es
necesario para implementar la solución?) (d) Basándose en los datos, ¿puede dar algún consejo
sobre cómo determinar el nivel de overbooking? Proporcione, si es posible, un ejemplo utilizando los
datos y cualquier suposición necesaria del nivel de overbooking y cómo será utilizado por usted en
la optimización.

Ex. 23.3 (Modelo elegido) Daisy tiene una pequeña tienda en la zona rural de Indiana. Los clientes que
vienen tienen que comprar en su tienda o manejar millas para ir a otro lado. ¡Ha oído hablar de la
optimización de ingresos! Siempre se preguntaba a qué ritmo los clientes engullían sus chocolatinas y
siempre se preguntaba si les estaba fijando el precio correcto. Los tres más vendidos son Milky Way,
Starburst y Coconut Bar. Al preguntar amablemente a algunos de sus variados pero confiables clientes,
estima que su disposición a pagar es de alrededor de $2.20, $2.60 y $2.00 por los tres tipos de barras de
chocolate. La varianza parece ser de alrededor de 0,10 para cada uno de estos valores de disposición a
pagar. Actualmente, cobra $2.00 por cualquiera de las barras de chocolate. Por lo general, 100 clientes
visitan su tienda todos los días.

(a) Estime las ventas e ingresos promedio actuales de Daisy. (b) Daisy
quiere realizar una promoción en su tienda dando un 10% de descuento en un tipo de barra a los clientes.
¿Qué barra debería descontar? (c) ¿Cuál debería ser el precio uniforme óptimo de Daisy para los
tres tipos de barras de chocolate?
¿Recomendarías el cambio de precio?

Sugerencia: use el modelo MNL de su elección. En este modelo, se supone que los clientes son
homogéneos. Tienen una utilidad subyacente Ui para el producto i. Cada producto tiene un precio de pi,
i=1, 2,...,n. La probabilidad de que compren el producto i viene dada por los siguientes cálculos:

ÿ(varianza ÿ 6)
metro =
Pi

Ui = utilidad bruta del producto i (asumir igual a la disposición a pagar)

vi = e((Ui ÿpi)/ÿ) Prob (Compra i) = vi/(1 + v1 + v2 + ... + vn)

Ex. 23.4 (Precio dinámico) Mike es el gerente de administración de ingresos en el Hotel Marriott en 49th
St., Manhattan, Nueva York. Está contemplando cómo responder a las solicitudes de última hora de los
clientes de "cómpralo ahora". En este canal de ventas, los clientes pueden ofertar un precio por una
habitación y Mark puede tomarlo o esperar la próxima oferta. Los clientes no son estratégicos (en el
sentido de que no juegan a esperar para ofertar). marca tiene
Machine Translated by Google

818 K. Talluri y S. Seshadri

observó que normalmente recibe como máximo una solicitud cada hora. El análisis indica que recibe
una solicitud en una hora con una probabilidad de 0,2. Está mirando las últimas 3 h de la decisión antes
de que se cierre la reserva para el día siguiente. Por ejemplo, si la reserva se cierra a la medianoche,
él está mirando las solicitudes entre las 9 y las 10 p. m., las 10 y las 11 p. m. y las 11 y la medianoche.
Los clientes piden una tarifa baja o una tarifa alta.
Por lo general, la mitad pide una habitación por $100 y el resto por $235 (que es la tarifa publicada).

Ayude a Mark a estructurar sus pensamientos y proponga una regla de decisión para aceptar o
rechazar ofertas. Puede ser útil pensar que con 3 h para el final puede vender como máximo tres
habitaciones, con 2 h para el final puede vender como máximo dos habitaciones y con una hora para el
final puede vender como máximo una habitación. (Por lo tanto, puede regalar el exceso de habitaciones
a cualquier precio más allá de estos números, etc.) Use el ejemplo de programación dinámica.
Ex. 23.5 (Exceso de reservas) La Sra. Dorothy Parker es la directora de admisiones en Winch ester
College, que es una pequeña universidad de artes liberales. El colegio tiene una capacidad de admitir
200 estudiantes al año. Las aulas son pequeñas y la universidad quiere mantener un límite estricto. La
demanda es sólida con más de 800 solicitudes el año anterior, de las cuales se ofreció un lugar a 340
estudiantes de forma continua y se cumplió el objetivo de 200 admisiones.

Sin embargo, 17 estudiantes que aceptaron la oferta de admisión no se presentaron.


Investigaciones posteriores revelaron que cuatro de ellos cambiaron de opinión en el último minuto
sobre su elección de universidad, tres decidieron tomarse un año sabático y no hubo respuesta del
resto. Pagaron el depósito y perdieron los montos según las reglas de la universidad. Admisiones se
puso en contacto con los que estaban en la lista de espera, pero ya era demasiado tarde ya que la
mayoría ya se había unido a otras instituciones. Como resultado, la cohorte comprendía solo 183
estudiantes que enfatizaban los presupuestos.
La Sra. Parker decidió que se necesitaba un cambio de política, y para el próximo año, la universidad
hará overbooking, es decir, admitirá una cohorte mayor a la capacidad de 200. La pregunta es cuántos.
El costo de la matrícula por 1 año de estudio es de $ 34,500.

(a) ¿Qué datos debe recopilar la Sra. Parker para tomar una decisión sobre cuántos
estudiantes para admitir más allá del límite de 200?
(b) ¿Podemos suponer que el costo de quedarse corto por parte de un estudiante es el valor de 4 años
de los ingresos por matrícula? Argumentar por qué o por qué no.

(c) ¿Cuál es el costo de aceptar a un estudiante por encima del límite de 200? Explique cómo Ud.
se me ocurrió tu número.
(d) La Sra. Parker decidió, después de algunos análisis, que la pérdida de ingresos de un estudiante
era de $100 000 y que el costo de tener más estudiantes que la capacidad es el siguiente:

Costo de los estudiantes

201 $10,000
202 $22,000
203 $40,000
204 $70,000
205 $100,000
206 $140,000
Machine Translated by Google

23 Análisis de precios 819

Más allá de eso, son $50,000 por estudiante.


¿Son suficientes estos datos para establecer un número objetivo de admisiones? ¿Qué
otros datos serían útiles? Con base solo en estos datos, ¿cuántos estudiantes admitiría? (e) Al
analizar los datos de los 5 años anteriores, la Sra. Parker observó que con la política de admitir
exactamente 200 cada año, el número final de estudiantes que se presentaron fue el siguiente:

Admitido Apareció
200 200
200 195
200 197
200 190
200 192
200 183

Si la Sra. Parker admitiera ingenuamente a 217 estudiantes basándose en la observación


de ausencias de este año, ¿cuál sería el costo esperado? Según los datos, ¿cuál es el número
óptimo para sobrevender?

Ex. 23.6 (Optimización de rebajas) Xara es una tienda minorista especializada en ropa de moda
que se enfoca en el segmento grande y alto del mercado. Este año, está vendiendo aproximadamente
12 000 SKU, y cada SKU está clasificado por tamaños. Los precios iniciales de cada artículo
generalmente los establece la casa matriz, pero una vez que el envío llega a las tiendas, los gerentes
de tienda tienen la libertad de rebajar los artículos según las ventas. Los gerentes de las tiendas se
evalúan en función de los ingresos totales que generan, por lo que se entiende que intentarán
maximizar los ingresos.
La demanda de la nueva línea de jeans se estimó con base en las compras históricas de la
siguiente manera:

D(p) = 10.000(1 ÿ 0,0105p)

Aquí, 10 000 representa el mercado potencial y la interpretación de (1ÿ0.0105p) es la probabilidad


de compra de cada miembro del mercado. Es decir, la demanda al precio p viene dada por la fórmula
anterior, donde p está en el rango de 0 a $95 (es decir, más allá de $95, la demanda se estima en
0).
La temporada dura 3 meses y los artículos sobrantes tienen un valor de rescate del 25% de su
precio inicial. La casa matriz establece las siguientes pautas: Los artículos una vez rebajados no
pueden tener precios más altos posteriormente. Los precios solo se pueden rebajar en un 10, 20, 30
o 40 %. Se supone que la demanda llega más o menos uniformemente durante los 3 meses.
temporada.

(a) Con base en el pronóstico de la demanda, ¿cuál debería ser el precio inicial de los jeans y
cuántos deberían producirse?
Machine Translated by Google

820 K. Talluri y S. Seshadri

(b) El gerente de la tienda en Portal de l'Angel en Barcelona obtuvo un envío inicial de 300 jeans, calculados como la
demanda esperada en esa tienda.
Después de un tiempo, notó que los jeans se vendían particularmente lento. Todavía tenía un stock de 200
artículos y ya habían pasado 2 meses de la temporada, por lo que es probable que se haya calculado mal el
mercado potencial para el área de la tienda. ¿Debería marcar hacia abajo? Si es así, por cuánto? (Sugerencia:
con base en la demanda esperada que se calculó inicialmente para la tienda, debe derivar la curva de demanda
de la tienda).

Ex. 23.7 (Repricer) Meanrepricer.com ofrece una opción de regla compleja en la que puede establecer precios de
acuerdo con los siguientes criterios:

• Condición de mi artículo: la condición de su artículo • Condición del


artículo de la competencia: la condición del producto de sus competidores • Acción: la acción que debe
tomarse al aplicar una regla • Valor: la diferencia de precios que debe aplicarse al usar cierto

regla

Aquí hay algunas reglas de muestra. Discuta su razón de ser (si la hay) y qué tan efectivos son.

(a) Si nuestro precio por el Producto A es 100 y el precio de nuestros competidores por el Producto A es $100, entonces
el revaluador seguirá adelante y reducirá nuestro precio en un 20% (es decir, de $100 a $80).

(b) En caso de que la valoración media de sus competidores sea inferior a 3, la condición elegida indicará al repricer
que aumente su precio en dos unidades. (c) Reglas secuenciales, cuando se implemente la primera regla aplicable:

(i) Reducir nuestro precio en dos unidades si el precio del producto de nuestros competidores está dentro de un
rango de 300 a 800 unidades.
(ii) Aumentar nuestro precio en dos unidades si el precio del producto de nuestros competidores está dentro de un
Rango de 500 a 600 unidades.

Referencias

Belobaba, PP (1989). Aplicación de un modelo de decisión probabilístico al control de inventario de asientos de


aerolíneas. Investigación de operaciones, 37(2), 183–197.
Bratú, S. (1998). Concepto de valor de red en la gestión de ingresos de las aerolíneas. Cambridge, MA: Instituto de
Tecnología de Massachusetts.
Cruz, RG (2011). Gestión de ingresos: tácticas duras para dominar el mercado. Nueva York:
Negocios de la Corona.

Lapp, M. y Weatherford, L. (2014). Gestión de ingresos de la red de aerolíneas: consideraciones para la implementación.
Journal of Revenue and Pricing Management, 13(2), 83–112.
Phillips, RL (2005). Optimización de precios e ingresos. Palo Alto, CA: Stanford University Press.
Talluri, K. y van Ryzin, GJ (1998). Un análisis de los controles de precio de oferta para los ingresos de la red
administración. Ciencias de la gestión, 44(11), 1577–1593.
Machine Translated by Google

23 Análisis de precios 821

Talluri, KT y Van Ryzin, GJ (2006). La teoría y práctica de la gestión de ingresos (Vol. 68).
Nueva York: Springer.
Williamson, EL (1992). Control de inventario de asientos en la red de aerolíneas: Metodología e ingresos
impactos (Tesis doctoral, Instituto Tecnológico de Massachusetts).
Machine Translated by Google

capitulo 24
Análisis de la cadena de suministro

yao zhao

1. Introducción

A través de ejemplos y un estudio de caso, aprenderemos cómo aplicar el análisis de datos a la


gestión de la cadena de suministro con la intención de diagnosticar y optimizar los procesos de
generación de valor de bienes y servicios, para un valor comercial significativo.
Una cadena de suministro consta de todas las actividades que crean valor en forma de bienes y
servicios mediante la transformación de insumos en productos. Desde la perspectiva de una empresa,
tales actividades incluyen la compra de materias primas de los proveedores (compra), la conversión
de materias primas en productos terminados (fabricación) y el traslado y entrega de bienes y servicios
a los clientes (entrega).
Los objetivos gemelos de la gestión de la cadena de suministro son mejorar la rentabilidad y la
satisfacción del cliente. La eficiencia de costos mejorada puede llevar a un precio más bajo (aumenta
la participación de mercado) y/o un mejor margen (mejora la rentabilidad). Una mejor satisfacción del
cliente, a través de mejores niveles de servicio, como una entrega más rápida y/o una mayor
disponibilidad de existencias, mejora las relaciones con los clientes, lo que a su vez también puede
conducir a un aumento de la cuota de mercado. Sin embargo, estos objetivos gemelos tienen el
potencial de afectarse mutuamente de manera inversa. Mejorar la satisfacción del cliente a menudo
requiere un costo más alto; asimismo, la reducción de costos puede disminuir la satisfacción del
cliente. Por lo tanto, es un desafío lograr ambos objetivos simultáneamente. Sin embargo, a pesar
del desafío, aquellas empresas que fueron capaces de lograrlos con éxito (p. ej., Walmart,

Material complementario electrónico La versión en línea de este capítulo (https://doi.org/10.1007/


978-3-319-68837-4_24) contiene material complementario, que está disponible para usuarios autorizados.

Y. Zhao )
(Universidad de Rutgers, Newark, NJ, EE. UU.
Correo electrónico: yaozhao@business.rutgers.edu

© Springer Nature Switzerland AG 2019 823


B. Pochiraju, S. Seshadri (eds.), Essentials of Business Analytics, International
Series in Operations Research & Management Science 264, https://doi.org/
10.1007/978-3-319-68837 -4_24
Machine Translated by Google

824 Y. Zhao

Amazon, Apple y Samsung) disfrutaron de una ventaja sostenible y a largo plazo sobre su competencia
(Simchi-Levi et al. 2008; Sanders 2014; Rafique et al. 2014).
Los dos objetivos son difíciles de lograr porque las cadenas de suministro son muy complejas
sistemas Podemos atribuir parte de esta complejidad a lo siguiente:

1. La estacionalidad y la incertidumbre en la oferta y la demanda y los procesos internos hacen que el


futuro sea impredecible.
2. La red compleja de instalaciones y las numerosas ofertas de productos dificultan el diagnóstico y la
optimización de las cadenas de suministro.

Afortunadamente, las cadenas de suministro son ricas en datos, como datos de punto de venta (POS)
de puntos de venta, datos de inventario y envío de sistemas de logística y distribución, y datos de
producción y calidad de fábricas y proveedores. Estos conjuntos de datos de gran volumen, de alta
velocidad y en tiempo real, si se utilizan de manera efectiva a través del análisis de la cadena de
suministro, pueden brindar abundantes oportunidades para que las empresas realicen un seguimiento de
los flujos de materiales, diagnostiquen las interrupciones del suministro, pronostiquen las tendencias del
mercado y optimicen los procesos comerciales para la reducción de costos y el servicio. mejora. Por
ejemplo, el análisis descriptivo y de diagnóstico puede descubrir problemas en las operaciones actuales
y proporcionar información sobre las causas fundamentales; el análisis predictivo puede proporcionar
previsiones sobre posibles problemas y oportunidades que aún no se han realizado; y, por último, el
análisis prescriptivo puede optimizar las cadenas de suministro para equilibrar las compensaciones entre
la rentabilidad y los requisitos de servicio al cliente.
El análisis de la cadena de suministro está floreciendo en todas las actividades de una cadena de
suministro, desde la compra hasta la entrega. La encuesta de Deloitte Consulting (2014) muestra que las
cuatro principales capacidades de la cadena de suministro están todas relacionadas con el análisis. Son
herramientas de optimización, previsión de demanda, planificación empresarial integrada y colaboración
de proveedores, y análisis de riesgos. El Estudio de megatendencias de operaciones globales de
Accenture (2014) demostró los resultados que las empresas lograron mediante el uso de análisis, incluida
una mejora en el servicio al cliente y el cumplimiento de la demanda, tiempos de reacción más rápidos y
efectivos a los problemas de la cadena de suministro y un aumento en la eficiencia de la cadena de suministro.
Este capítulo primero proporcionará una descripción general de las aplicaciones de análisis en la gestión
de la cadena de suministro y luego mostrará la metodología y el poder del análisis de la cadena de
suministro en un estudio de caso sobre entrega (es decir, distribución integrada y planificación logística).

2 métodos de análisis de la cadena de suministro

La gestión de la cadena de suministro implica la planificación, programación y control del flujo de


materiales, información y fondos en una organización. El enfoque de este capítulo estará en las
aplicaciones y los avances de la toma de decisiones basada en datos en la cadena de suministro. Varias
encuestas (p. ej., Baljko 2013; Columbus 2016) destacan el creciente énfasis en el uso de análisis de la
cadena de suministro para generar valor comercial para las empresas de fabricación, logística y venta
minorista. Las ganancias típicas incluyen pronósticos más precisos, mejor gestión de inventario y mejor
gestión de abastecimiento y transporte.
Machine Translated by Google

24 Análisis de la cadena de suministro 825

Es relativamente fácil ver que una mejor predicción, hacer coincidir la oferta y la demanda a
un nivel más granular, eliminar el desperdicio a través de la planificación del surtido y una mejor
gestión de categorías pueden reducir el inventario sin afectar los niveles de servicio. Un ejercicio
de pensamiento simple mostrará que si un minorista puede planificar las ventas por hora y obtener
entregas por hora, entonces puede minimizar su inventario requerido. De hecho, un minorista
logró hacer eso: “Rakuten” apareció en una serie de televisión sobre las empresas más
innovadoras de Japón (Ho 2015). El enfoque en los vendedores y el excepcional servicio al cliente
parece haber valido la pena. En 2017, Forbes incluyó a Rakuten entre las empresas más
innovadoras con ventas superiores a los $7 mil millones y una capitalización de mercado de más
de $15 mil millones.1 El análisis de datos puede lograr resultados similares, sin necesidad de
planificación y entrega por horas, y puede hacerlo no solo en el comercio minorista, sino también
en el abastecimiento global mediante la detección de patrones y la predicción de cambios en los mercados de prod
Claramente, los gerentes de la cadena de suministro tienen que mantener y actualizar una base
de datos para cientos de proveedores en todo el mundo sobre su capacidad disponible,
cronograma de entrega, problemas de calidad y operaciones, etc. para obtener de la mejor fuente.
En la gestión del transporte, no es necesario mirar más allá de FedEx y UPS para el uso de datos
y análisis para dominar la logística de la cadena de suministro en cada etapa, desde la recogida
hasta la entrega en el último tramo (Szwast 2014). Además, hay grandes movimientos de
productos básicos hacia y desde países de Asia, como China, Japón y Corea, que implican
planificación a largo plazo, abastecimiento, adquisición, logística, almacenamiento, etc., muchos
de los cuales implican regulaciones y cumplimiento que simplemente no se puede llevar a cabo
sin las herramientas proporcionadas por el análisis de la cadena de suministro (reunión del G20 de 2014).
La cadena de suministro es un excelente lugar para aplicar análisis para obtener una ventaja
competitiva debido a la incertidumbre, la complejidad y el papel importante que desempeña en la
estructura general de costos y la rentabilidad de casi cualquier empresa. Los siguientes ejemplos
destacan algunas áreas clave de aplicaciones y herramientas útiles.

2.1 Previsión de la demanda

La previsión de la demanda es quizás la aplicación más frecuente de análisis a las cadenas de


suministro. Según el Informe del director de la cadena de suministro (O'Marah et al. 2014), el 80
% de los ejecutivos están preocupados por los riesgos que representa para su cadena de
suministro la excesiva volatilidad de la demanda de los clientes. La volatilidad de la demanda
provoca problemas y desperdicios en toda la cadena de suministro, desde la planificación del
suministro, la producción y el control de inventario hasta el envío. En términos simples, el
pronóstico de la demanda es la ciencia de predecir la demanda futura de productos y servicios en
todos los niveles de una organización, ya sea una tienda, una región, un país o el mundo. La
previsión de la demanda es esencial en la planificación del abastecimiento, la fabricación, la
logística, la distribución y las ventas. Los módulos de planificación de ventas y operaciones de los
sistemas ERP ayudan a unir varias disciplinas para que se puedan crear y compartir pronósticos para coordinar dif

1https://www.forbes.com/companies/rakuten/ (consultado el 26 de marzo de 2018).


Machine Translated by Google

826 Y. Zhao

en la cadena de suministro. Estos incluyen los más obvios, como los niveles de inventario, los
programas de producción y la planificación de la fuerza laboral (especialmente para las industrias de servicios).
Los menos obvios son el establecimiento de objetivos de ventas, la planificación del capital de trabajo
y la planificación de la capacidad del proveedor (Cap. 4, Vollmann et al. 2010). Varias técnicas
utilizadas para el pronóstico se tratan en el Cap. 12 sobre “Análisis de pronósticos”.
Un ejemplo notable del uso de la previsión es el de Rue La La, un minorista de moda de ventas
flash con sede en EE. UU. (Ferreira et al. 2015) que obtiene la mayor parte de sus ingresos de artículos
nuevos a través de numerosos eventos de ventas a corto plazo. Una observación clave hecha por los
gerentes de Rue La La fue que algunos de los artículos nuevos se agotaron antes de que terminara el
período de ventas, mientras que otros tenían un excedente de inventario sobrante. Uno de sus mayores
desafíos fue predecir la demanda de artículos que nunca se vendieron y estimar las ventas perdidas
debido a los desabastecimientos. Analytics fue útil para superar estos desafíos. Desarrollaron modelos
mediante los cuales se analizaron y clasificaron las tendencias y los patrones de la demanda en
diferentes estilos y rangos de precios, y se identificaron los factores clave que tenían un impacto en las
ventas. Con base en la demanda y las ventas perdidas estimadas, el inventario y los precios se
optimizan conjuntamente para maximizar las ganancias.
capitulo 18 on retail analytics tiene más detalles sobre su enfoque de previsión y gestión de inventario.

En el futuro, las empresas han comenzado a predecir la demanda a nivel de cliente individual. De
hecho, la predicción personalizada se está volviendo cada vez más popular en el comercio electrónico
con ejemplos notables de Amazon y Netflix, que predicen la demanda futura y hacen recomendaciones
para clientes individuales en función de su historial de compras. Varias aplicaciones móviles ahora
pueden ayudar a rastrear la demanda a nivel de usuario (Pontius 2016). Un ejemplo del desarrollo,
implementación y uso de una aplicación de este tipo se puede encontrar en la remota India
(Gopalakrishnan 2016). Como parte del programa Swachha Bharat (India limpia) del primer ministro, el
gobierno indio autorizó subsidios para la construcción de retretes en las aldeas. Una organización de
voluntarios llamada Samarthan ha creado una aplicación móvil que ayuda a seguir el progreso de la
demanda de construcción de baños a través de varias agencias y etapas. La aplicación ha ayudado a
descongestionar la provisión de baños.

2.2 Optimización de inventario

La planificación y el control del inventario en su forma más simple implica decidir cuándo y cuánto
ordenar para equilibrar la compensación entre la inversión en inventario y los niveles de servicio. Los
niveles de servicio se pueden definir de muchas maneras, por ejemplo, la tasa de cumplimiento mide
el porcentaje de demanda satisfecha dentro de la ventana de tiempo prometida. La inversión en
inventario a menudo se mide por la rotación de inventario, que es la relación entre el costo anual de
los bienes vendidos (COGS) y la inversión promedio en inventario. Los estudios han demostrado que
existe una correlación significativa entre la rentabilidad general de la fabricación y la rotación de
inventario (Sangam 2010).
Machine Translated by Google

24 Análisis de la cadena de suministro 827

La gestión de inventario a menudo implica la planificación y coordinación de actividades en diferentes


partes de la cadena de suministro. La falta de coordinación puede generar costos excesivos y niveles de
servicio deficientes. Por ejemplo, el efecto látigo (Lee et al. 1997) se utiliza para describir la amplificación y la
variabilidad aguas arriba de la demanda de una cadena de suministro debido a pedidos reactivos realizados
por mayoristas, distribuidores y planificadores de fábrica. Existen herramientas modernas que pueden ayudar
a reducir el efecto de tales acciones al aumentar la visibilidad de la demanda y el intercambio de información
(Bisk 2016).
Un estudio realizado por IDC Manufacturing Insights encontró que muchas organizaciones que utilizaron
herramientas de optimización de inventario redujeron significativamente los niveles de inventario en 1 año
(Bodenstab 2015). La optimización del inventario juega un papel fundamental en la industria de alta tecnología,
donde la mayoría de los productos y componentes se vuelven obsoletos rápidamente, pero la demanda fluctúa
significativamente. La capacidad de predecir la demanda y optimizar el inventario o el inventario de seguridad
es esencial para la supervivencia, ya que es posible que se deba cancelar el exceso de inventario e incurrir
en una pérdida directa. Por ejemplo, durante el estallido de la burbuja tecnológica en 2001, el gigante de las
redes Cisco canceló $2.100 millones en inventario (Gilmore 2008).
La gestión de inventario se puede mejorar mediante la adquisición de mejor información y la toma de
decisiones en tiempo real. Por ejemplo, una cadena de supermercados estadounidense con sede en Arkansas
se enfrentó al desafío de mejorar la participación del cliente en varias de sus ubicaciones físicas. Los gerentes
pasaban horas colocando el inventario de productos en posición en lugar de dedicar tiempo a la participación
del cliente. La división de I+D desarrolló una aplicación móvil que proporcionaba información en tiempo real a
los empleados interesados. Esta aplicación móvil proporcionó una vista holística de las ventas, el
reabastecimiento y otros datos necesarios que residían en múltiples fuentes de datos. También desarrollaron
una aplicación para los proveedores a fin de ayudarlos a comprender mejor cómo se movían sus productos.
Asimismo, una de las principales cadenas minoristas de productos electrónicos de entretenimiento y
electrodomésticos en Rusia pudo procesar datos de POS en tiempo real, lo que ayudó a evitar la escasez y el
exceso de existencias (Winckelmann 2013). El procesamiento de datos de inventario de más de 9000 artículos
en 370 tiendas y cuatro centros de distribución es complejo y requiere mucho tiempo.

Su uso de la solución SAP HANA2 con procesamiento en memoria en tiempo real y compresión de bases de
datos fue un activo importante para mejorar los resultados.

2.3 Interrupción de la cadena de suministro

Uno de los mayores desafíos para los gerentes de la cadena de suministro es gestionar las interrupciones. Es
importante predecir posibles interrupciones y responder a ellas rápidamente para minimizar su impacto. La
interrupción de la cadena de suministro puede tener un impacto significativo en el desempeño corporativo. En
un nivel muy alto, las empresas afectadas por las interrupciones de la cadena de suministro tienen un
rendimiento de las acciones entre un 33 % y un 40 % más bajo en relación con su punto de referencia y sufren

una volatilidad un 13,5 % más alta en los precios de las acciones en comparación con el año anterior en el que no hubo

2SAP HANA es un RDBMS en memoria de SAP, Inc.


Machine Translated by Google

828 Y. Zhao

ruptura. Las interrupciones pueden tener un impacto negativo significativo en la rentabilidad: una
interrupción típica podría provocar una caída del 107 % en los ingresos operativos, un 7 % menos de
crecimiento de las ventas y un 11 % más de costos (Hendricks y Singhal 2015).
Las interrupciones de la cadena de suministro pueden ser causadas por eventos incontrolables,
como desastres naturales, o eventos controlables, como errores provocados por el hombre. Una mejor
información y análisis pueden ayudar a predecir y evitar errores provocados por el hombre. Por
ejemplo, una empresa naviera que enfrentaba desafíos de visibilidad incompleta de la red implementó
una tecnología de cadena de suministro que les brindaba una vista perfecta del sistema.
La tecnología permitió a los gerentes obtener detalles de envío y tomar medidas preventivas o
correctivas en tiempo real. En este ejemplo, el análisis prescriptivo también podría haber brindado un
mejor apoyo a las decisiones para que los gerentes evalúen y comparen varias opciones y acciones.
Los beneficios de una mayor eficiencia, operaciones más confiables y una mejor satisfacción del
cliente podrían haber ayudado en la expansión de su base de clientes y crecimiento comercial (Hicks
2012).
Connected Cows es un ejemplo ampliamente informado de tecnología que se utiliza para ayudar
a los agricultores a monitorear mejor su ganado (Heikell 2015). Las vacas son monitoreadas por
bienestar las 24 horas del día. Esta tecnología no solo ayuda a cuidar mejor al ganado, sino también
a reducir las interrupciones en la producción de las lecherías.
Connected Cows ayuda a los granjeros a determinar qué vacas están enfermas y a tomar medidas
oportunas para cuidarlas hasta que recuperen la buena salud con un efecto mínimo en la producción.
Se puede aplicar un concepto similar a otros activos de una organización donde la creación de activos
conectados puede generar información valiosa y proporcionar las acciones preventivas o correctivas
necesarias que minimizan las interrupciones de la cadena de suministro.
Todos los ejemplos antes mencionados han tenido datos históricos considerables que ayudaron a
identificar las interrupciones de la cadena de suministro y la evaluación de riesgos. A veces, este no
es el caso, y pueden ocurrir eventos raros como el huracán Katrina, epidemias y apagones importantes
debido a incendios. Dichos eventos tienen un alto impacto pero baja probabilidad sin muchos datos
históricos y, por lo tanto, no se puede utilizar el enfoque tradicional. El documento de revisión de HBR
(Simchi-Levi et al. 2014) ha abordado este problema mediante el desarrollo de un modelo que evalúa
el impacto de tales eventos en lugar de su causa. En estos casos extremos, la estrategia de mitigación
toma el centro del escenario. Visualizan toda la cadena de suministro como un diagrama de red con
nodos para el proveedor, el centro de transporte, el centro de distribución, etc., donde la característica
central es el tiempo de recuperación (TTR): “el tiempo que le llevaría a un nodo en particular estar
completamente restaurado a la funcionalidad después de una interrupción”. Mediante la optimización
lineal, el modelo elimina un nodo a la vez para determinar el tiempo de respuesta óptimo y genera el
índice de rendimiento (PI) para cada nodo. Hay muchos beneficios para este enfoque; lo que es más
importante, los gerentes obtienen una comprensión profunda de la exposición al riesgo de cada nodo.
Posteriormente, el riesgo se puede categorizar como alto, medio y bajo, y se pueden iniciar las
acciones prescriptivas correspondientes. Este modelo también representa algunas de las dependencias
entre los nodos y los cuellos de botella. Hay ciertos casos en los que el gasto total es bajo pero el
impacto general de la disrupción es significativo: el gasto en válvulas de un fabricante de automóviles
(Ford) es bajo; sin embargo, la interrupción del suministro de estos componentes provocaría el cierre
de la línea de producción. Esta metodología fue utilizada por Ford Motor Company para evaluar su
exposición a las interrupciones de la cadena de suministro.
Machine Translated by Google

24 Análisis de la cadena de suministro 829

2.4 Adquisición de productos básicos

El precio y la oferta de los productos básicos pueden fluctuar significativamente con el tiempo.
Debido a esta incertidumbre, se vuelve difícil para muchas empresas que dependen de los productos
básicos como materia prima para garantizar la continuidad del negocio y ofrecer un precio constante
a sus clientes. Las organizaciones que usan análisis para identificar indicadores macroeconómicos
e internos pueden hacer un trabajo más efectivo al predecir hacia dónde podrían ir los precios. Por
lo tanto, pueden aislarse a través de inversiones en inventario y compras de contratos futuros y de
largo plazo. Por ejemplo, un fabricante de azúcar puede protegerse de los choques de oferta y
demanda mediante múltiples acciones, como subcontratar la producción a largo plazo, comprar
futuros en los mercados de productos básicos y comprar a plazo antes de que suban los precios.

Otro ejemplo es la adquisición de etanol que se utiliza en medicinas o fármacos. El etanol se


puede producir petroquímicamente o a partir de azúcar o maíz. Los precios del etanol están en
función de su demanda y oferta en el mercado, para lo cual existe un buen grado de volatilidad. El
precio del etanol también se ve afectado por la oferta de productos similares en el mercado. Como
tal, existen numerosas variables que pueden afectar el precio del etanol. El análisis de datos puede
ayudar a descubrir estas relaciones para planificar la adquisición de etanol. Las mismas herramientas
y modelos de análisis se pueden extender a otras materias primas y componentes basados en
productos básicos (Chandrasekaran 2014).

El último ejemplo es el aumento en el precio de los cultivos debido al cambio climático. Es


probable que el cambio climático afecte los alimentos y el hambre en el futuro debido a su impacto
en la temperatura, la precipitación y los niveles de CO2 en el rendimiento de los cultivos (Willenbockel 2012).
Comprender el impacto del cambio climático en la volatilidad de los precios de los alimentos a largo
plazo sería útil para que los países tomen las medidas preventivas y correctivas necesarias.
Los investigadores utilizan el equilibrio general computable (CGE) para modelar el impacto del
cambio climático, que tiene la capacidad de evaluar los efectos que los factores externos, como el
clima, pueden tener en una economía. La estimación de referencia de la producción, el consumo, el
comercio y los precios por región y grupo de productos básicos tiene en cuenta la temperatura y la
precipitación (cambios climáticos), el crecimiento de la población, el crecimiento de la fuerza laboral
y el crecimiento de la productividad total de los factores en los sectores agrícolas y no agrícolas. La
etapa avanzada simula varias condiciones climáticas extremas y estima posteriormente la
productividad y los precios de los cultivos.
Los ejemplos proporcionados apenas abordan las diferentes aplicaciones posibles en la gestión
de la cadena de suministro. La idea de la encuesta es brindar orientación sobre las principales áreas
de aplicación. Las referencias al final del capítulo contienen más ejemplos y descripciones de
métodos. En la siguiente sección, describimos en detalle un ejemplo que ilustra la optimización del
inventario y las estrategias de distribución en un importante proveedor de servicios inalámbricos.
Machine Translated by Google

830 Y. Zhao

3 VASTA: Proveedor de servicios inalámbricos: un estudio de caso

Nuestro estudio de caso se estableció en 2010, cuando VASTA era uno de los proveedores de servicios
inalámbricos más grandes de los EE. UU. y muy conocido por su red nacional confiable y su excelente servicio
al cliente. En el año fiscal de 2009, VASTA sufrió una importante cancelación de inventario debido a la
obsolescencia de los teléfonos móviles. En ese momento, VASTA tenía un inventario de teléfonos por un valor
aproximado de $ 2 mil millones en su red de distribución de EE. UU., con una mayoría en más de 2000 tiendas
minoristas. Para abordar este desafío, la compañía estaba pensando en cambiar su actual estrategia de
inventario de "empuje", en la que el inventario se mantenía principalmente en las tiendas, hacia una estrategia
de "atracción", en la que el inventario de teléfonos se retiraría de las tiendas a tres centros de distribución. (DC)
y las tiendas servirían alternativamente como salas de exposición. Los clientes que visiten las tiendas podrán
experimentar la última tecnología y realizar pedidos, mientras que sus teléfonos se entregarán en sus hogares
durante la noche desde los centros de distribución de forma gratuita. La estrategia de extracción se había
utilizado antes en productos electrónicos de consumo (p. ej., Apple), pero VASTA y otros proveedores de
servicios inalámbricos de EE. UU. aún no la habían intentado (Zhao 2014a, b).

A partir de 2010, el mercado de servicios inalámbricos de EE. UU. tenía 280 millones de suscriptores con
ingresos de $ 194 mil millones. Con una población de aproximadamente 300 millones en los EE. UU., el
crecimiento del mercado y los ingresos se estaban desacelerando a medida que el mercado se saturaba cada
vez más. Como resultado, la industria estaba pasando del modelo comercial de "crecimiento" que perseguía el
crecimiento de los ingresos a un modelo de "eficiencia" que maximizaba la eficiencia operativa y la rentabilidad.

La industria de servicios inalámbricos de EE. UU. estaba dominada por unos pocos jugadores importantes.
Ofrecieron tecnología y productos similares (teléfonos móviles) de los mismos fabricantes, pero compitieron
por nuevos suscriptores en función del precio, la calidad de los servicios, la confiabilidad, las velocidades de la
red y la cobertura geográfica. VASTA fue un jugador importante con las siguientes fortalezas:

• Amplia cobertura nacional • Calidad de servicio


superior y red confiable • Alta disponibilidad de inventario y
satisfacción del cliente

Estas fortalezas también llevaron a algunas debilidades:

• Menor rotación de inventario y mayor costo operativo en comparación con la competencia


tores

• Servicios y productos con precios más altos que los promedios de la industria debido a la mayor
costos de operacion

El principal desafío al que se enfrentó VASTA fue su rentabilidad, especialmente en los costos de inventario.
La rotación de inventario de VASTA fue de 28,5 por año, muy baja en comparación con lo que lograron Verizon
y Sprint Nextel (alrededor de 50 a 60 rotaciones por año). Los teléfonos tienen un ciclo de vida corto de
aproximadamente 6 meses. Una inversión de inventario de $2 mil millones en su sistema de distribución planteó
una responsabilidad y un costo significativos para VASTA debido al riesgo de obsolescencia. En las siguientes
secciones, analizaremos la propuesta de cambio de VASTA utilizando datos de muestra y métricas.
Machine Translated by Google

24 Análisis de la cadena de suministro 831

3.1 Declaración del problema

Para mantener su estatus como líder del mercado, VASTA debe mejorar su rentabilidad sin sacrificar la
satisfacción del cliente. VASTA había estado utilizando la estrategia de "empuje", que abasteció por completo
sus más de 2000 minoristas abastecidos para satisfacer la demanda de los clientes.
Las tiendas tenían alrededor del 60% del inventario de $2 mil millones, mientras que los centros de distribución
tenían alrededor del 40%.

La empresa estaba pensando en cambiar el modelo de distribución de "push" a "pull", lo que llevó el
inventario de vuelta a los centros de distribución. Las tiendas se convertirían en salas de exposición y los
pedidos de los clientes se transmitirían a un centro de distribución que luego completaría los pedidos a través
de un envío urgente al día siguiente. Las figuras 24.1 y 24.2 representan las dos estrategias. En estos gráficos,
un círculo representa una tienda y un triángulo representa el almacenamiento de inventario.

Las estrategias de “push” y “pull” representan dos soluciones extremas a un problema comercial típico en la
planificación integrada de distribución y logística, es decir, el posicionamiento estratégico del inventario. Las
preguntas clave son las siguientes: ¿Dónde colocar el inventario en el sistema de distribución? ¿Y cómo afecta
todos los aspectos del sistema, desde el inventario hasta el transporte y el cumplimiento hasta la satisfacción
del cliente?
Claramente, las estrategias tendrán un impacto significativo no solo en el inventario sino también en el
envío, el cumplimiento del almacén, la introducción de nuevos productos y, lo que es más importante, la
satisfacción del consumidor. La compensación se resume en la Tabla 24.1.
Si bien la estrategia de empuje permitió a VASTA atraer mejor a los clientes, la estrategia de extracción
tuvo la ventaja significativa de reducir el inventario y facilitar la introducción rápida de nuevos teléfonos, lo que
a su vez redujo el costo y el riesgo de obsolescencia del inventario. Sin embargo, la estrategia de extracción
requería un costo de envío y cumplimiento de almacén más alto que la estrategia de inserción. Además, VASTA
tuvo que renovar las tiendas para convertirlas en salas de exhibición y volver a capacitar a la fuerza laboral de
sus tiendas para adaptarse al cambio.

Fig. 24.1 Modelo de distribución antiguo de VASTA. Fuente: Notas de clase, “VASTA Wireless—Push vs.
Estrategias de distribución de extracción”, por Zhao (2014b)
Machine Translated by Google

832 Y. Zhao

Fig. 24.2 Nuevo modelo de distribución propuesto por VASTA. Fuente: Notas de la conferencia, “VASTA Wireless— Push
vs. Pull Distribution Strategies”, por Zhao (2014b)

Tabla 24.1 Pros y contras de los dos modelos de distribución

ventajas Contras

Empuje • Satisfacción del cliente • Inversión significativa en inventario


• Selección por lotes en los • Riesgo de obsolescencia

CD • Envío por lotes en 2 días a las


Jalar tiendas • Reducción significativa del inventario • Los clientes tienen que esperar la entrega
• Cambio más rápido a nuevos teléfonos • Selección de unidades
envío urgente en los CDa •personas
al día siguiente Unidad,

clientes

Intuitivamente, la elección de estrategias de atracción frente a estrategias de empuje debe ser específica del producto.
Por ejemplo, la estrategia de extracción puede ser ideal para productos costosos y de bajo volumen (alta incertidumbre)
debido a su costo de envío y cumplimiento relativamente pequeño, pero a su alto costo de inventario. Por el contrario, la
estrategia de empuje puede ser ideal para productos económicos y de alto volumen (baja incertidumbre). Sin embargo, sin
un análisis cuantitativo (cadena de suministro), no podemos estar seguros de qué estrategia usar para los productos
costosos y de alto volumen y los productos económicos y de bajo volumen; tampoco podemos estar seguros del impacto
financiero resultante.

3.2 Modelo Básico y Metodología

Evaluaremos las estrategias push y pull para cada producto en cada tienda para determinar qué estrategia funciona mejor
para la combinación producto-tienda desde una perspectiva de costos. Para este propósito, consideraremos el costo total
descargado del producto
Machine Translated by Google

24 Análisis de la cadena de suministro 833

i en la tienda j, Cij, que es la suma del costo del inventario de la tienda, ICij; costo de envío,
SCij; y costo de cumplimiento de CD, FCij:

Cij = ICij + SCij + F Cij (24.1)

El costo del inventario de la tienda está representado por

ICij = hola × Iij (24.2)

donde hi es la tasa de costo de mantenimiento de inventario para el producto i (por unidad de inventario por unidad
de tiempo) e Iij es el nivel de inventario promedio del producto i en la tienda j.
El costo de envío está representado por

SCij = sj × Vij (24.3)

donde sj es la tasa de costo de envío (por unidad) incurrido por la demanda generada por la tienda
j y Vij es el volumen de ventas por unidad de tiempo del producto i en la tienda j. Bajo la
estrategia de empuje, sj es el costo unitario de envío para reponer el inventario en la tienda j por el
DC; bajo la estrategia pull, sj es el costo unitario de envío para entregar los teléfonos a
clientes individuales de los centros de distribución.

Finalmente, el costo de cumplimiento de CD está representado por

F Cij = F Vij (24.4)

donde f es una función creciente y cóncava que representa economías de escala en


recoger y empacar.
Ignoraremos la diferencia en los niveles de inventario de DC entre push y pull
porque bajo ambas estrategias, los CD enfrentan la misma demanda agregada y deben
proporcionar la misma disponibilidad de inventario. Resumimos el cálculo en la Tabla 24.2.
Necesitamos estimar todos los parámetros de costo y las ventas (demanda) y el nivel de inventario
estadísticas para cada combinación producto-tienda a partir de los datos.

Tabla 24.2 Modelo básico de


costos Para el producto i en la tienda j Costos (por unidad de tiempo)

Nivel de inventario promedio Iij

Costo de inventario ICij = hola × Iij

Volumen de ventas semanal Vij

Costo de envío SCij = sj × Vij


costo de cumplimiento FCij = f(Vij)
Coste total ICij+SCij+FCij
Machine Translated by Google

834 Y. Zhao

3.3 Estimaciones de parámetros de costos

Para calcular los costos, como el inventario de la tienda, el envío y el cumplimiento de DC (por ejemplo,
recolección y empaque) costo para cada combinación producto-tienda, necesitamos estimar

la tasa de costo de mantenimiento de inventario, hola; la tasa de costo de envío, sj; y el costo de cumplimiento
función, f(Vij). Usaremos un conjunto de datos de ventas (o demanda,
equivalente) y datos de inventario en todas las capas del sistema de distribución de VASTA para
60 semanas Un período será igual a 1 semana porque el inventario tanto en las tiendas como en
Los DC se revisan semanalmente.
Tasa de costo de inventario:
Costo de mantenimiento de inventario por semana = costo de capital por semana + costo de depreciación por
semana

Costo de capital por semana = Costo de capital anual/Número de semanas en un año


Costo de depreciación por semana = [Valor del producto ÿ Valor de salvamento]/Ciclo de vida del producto
VASTA tenía dos tipos de teléfonos: teléfonos inteligentes y función menos costosa
teléfonos con parámetros y costo de mantenimiento de inventario por semana, hola, como en la Tabla 24.3.
Tarifa de costo de envío: Claramente, las tarifas de envío dependen de la distancia y el volumen. Aquí,
proporcionamos una estimación promedio por simplicidad. La estrategia de atracción requiere
enviar cada unidad desde los centros de distribución a clientes individuales mediante flete urgente al día siguiente.
La cotización de múltiples transportistas devolvió la tarifa fija más baja de $12/unidad. El empuje
Sin embargo, la estrategia requiere el envío de lotes semanales desde los centros de distribución a las tiendas de forma estándar.

flete de 2 días. La tarifa exprés al día siguiente suele ser 2,5 veces la tarifa de envío de 2 días;
con un descuento por volumen del 40%, llegamos a un promedio de $2.88/unidad. Tabla 24.4
resume las tarifas de envío.
Costo de cumplimiento de CD: los centros de distribución incurren en diferentes costos para la recolección por lotes
y empaque en relación con la recolección y empaque de unidades debido a las economías de escala. Para
DC de VASTA, la selección de la primera unidad de un producto cuesta en promedio $1.50. si mas
más de una unidad del producto es recolectada al mismo tiempo (recolección por lotes), entonces el
el costo de recoger cualquier unidad adicional es de $0.1. Ignoraremos el costo de embalaje tal como es.
insignificante en relación con el costo de recolección.

Tabla 24.3 Características de los teléfonos vendidos por VASTA

Teléfonos inteligentes (caros) • Teléfonos con funciones (económicos)

Valor promedio del producto: $500 • • Valor promedio del producto: $200

Valor de rescate en la tienda: 0% • Costo • Valor de salvamento en tienda: 0%

de capital anual: 7% • Costo de inventario/ • Costo de capital anual: 7%

semana: $19.90 • Costo de inventario/semana: $7.96

Tabla 24.4 Costos de envío de teléfonos

Jalar Empujar

Método de envío Expreso nocturno a clientes $12/unidad Lote de 2 días a tiendas

Tarifa de gastos de envío sj $2.88/unidad


Machine Translated by Google

24 Análisis de la cadena de suministro 835

Bajo la estrategia de empuje, las tiendas se reabastecen semanalmente. Deja que Vij sea
el volumen de ventas semanal. Debido a la recolección por lotes, el costo de cumplimiento semanal para
el producto i y la tienda j es

f Vij = $1,50 + Vij ÿ 1 × $0,1 f o Vij > 0. (24.5)

Bajo la estrategia pull, cada demanda generada por una tienda debe ser satisfecha
(elegido) individualmente. Por lo tanto, el costo de cumplimiento para el producto i y la tienda j es

f Vij = Vij × $1,50 f o Vij > 0. (24.6)

3.4 Análisis, solución y resultados

Para simplificar el análisis, agruparemos los productos con características similares


en función de su volumen de ventas y costo. Hay esencialmente dos tipos de teléfonos:
teléfonos inteligentes y teléfonos básicos. El costo promedio de un teléfono inteligente es de $500 y
el costo promedio de un teléfono con funciones es de $200. Así, clasificaremos los productos en
cuatro categorías de la siguiente manera:

• Productos caros y de gran volumen, es decir, teléfonos inteligentes de gran venta


• Productos económicos y de alto volumen, es decir, teléfonos con funciones de gran venta
• Productos costosos y de bajo volumen, es decir, teléfonos inteligentes de venta en frío
• Productos económicos y de bajo volumen, es decir, teléfonos con funciones de venta en frío

Usando los datos de una tienda representativa y un producto representativo de cada


(Tabla 24.5), mostraremos la solución, el análisis y los resultados.
En el modelo pull para productos de alto volumen, asumimos un inventario por tienda
nivel de cinco teléfonos: estos se utilizan para demostrar y mejorar el cliente
experiencia. La Tabla 24.6 compara el costo total y el desglose de costos entre los
estrategias de empuje y atracción para el producto representativo de alto volumen y costoso.
El cálculo muestra que podemos ahorrar un 46,51 % del coste total de descarga de este
producto caro y de alto volumen si reemplazamos la estrategia de empujar por la de jalar
estrategia. Esto es cierto porque los ahorros en el costo del inventario superan con creces el costo adicional
costo incurrido por envío y cumplimiento de DC.

Cuadro 24.5 Ventas representativas de tipos de teléfono

Promedio Promedio
Volumen de ventas semanal Inventario disponible
(unidad) (unidad)

Alto volumen y caro (hot-smart) 99 120

Alto volumen y económico (característica caliente) 102 110

Bajo volumen y caro (frío-inteligente) 2.5 15

Bajo volumen y económico (función fría) 7.3 25


Machine Translated by Google

836 Y. Zhao

Tabla 24.6 Ahorros para teléfonos “hot-smart” entre estrategias pull y push

alto volumen y
caro (caliente-inteligente) Jalar Empujar

Nivel del inventario 5 120

(Iij) (Iij)
Costo de inventario $99.52 $2388.46
(Iij × él = 5 × $19,90) (Iij × él = 120 × $19,90)
Volumen de ventas semanal 99 99

(Vij) (Vij)
Costo de envío $1188 $285.12
( vij × sij = 99 × $12/ unidad) ( vij × sij = 99 × $2,88/ unidad)
costo de cumplimiento $ 148,50 $11.30

(Vij × $ 1,50 = 99 × $ 1,50) ($ 1.50 + (Vij


ÿ 1)*0.1 = $1.50 + 98*0.1)
Coste total $1436.02 $2684.88
– 46,51%
Ahorros

Tabla 24.7 Ahorros para teléfonos con "funciones calientes" entre las estrategias pull y push

alto volumen y
económico (característica caliente) Jalar Empujar

Nivel del inventario 5 110

(Iij) (Iij)
Costo de inventario $39.81 $875.77
(Iij × él = 5 × $7,96) (Iij × él = 110 × $7,96)
Volumen de ventas semanal 102 102

(Vij) (Vij)
Costo de envío $1224 $293.76
( vij × sij = 102 × $12/ unidad) ( vij × sij = 102 × $2,88/ unidad)
costo de cumplimiento $153.00 $11.60
(Vij × $1,50 = 102 × $1,50) ($1,50 + (Vij ÿ 1)*0,1
= $1,50 + 101*0,1)
Coste total $1416.81 $1181.13
– ÿ19,95%
Ahorros

A continuación, consideramos el producto económico y de alto volumen. Como se muestra en


Tabla 24.7, la estrategia de extracción no genera ningún ahorro pero incurre en una pérdida de aproximadamente
20% relativo a la estrategia push. Claramente, el ahorro en el costo de inventario en este
el caso se ve superado por el gasto adicional en envío y cumplimiento de DC.
Ahora, consideramos los productos de bajo volumen y asumimos dos copias de la tienda para
demostración en el showroom del método pull. La tabla 24.8 muestra el cálculo
para el producto caro y de bajo volumen.
Para el producto económico y de bajo volumen, consulte la Tabla 24.9.
Machine Translated by Google

24 Análisis de la cadena de suministro 837

Cuadro 24.8 Ahorros para teléfonos “inteligentes en frío” entre las estrategias de atracción y promoción

Bajo volumen y caro


(frío-inteligente) Jalar Empujar

Nivel del inventario 2 15


(Iij) (Iij)
Costo de inventario $38.81 $298.56

(Iij × él = 2 × $19,90) (Iij × él = 15 × $19,90)


Volumen de ventas semanal 2.5 2.5
(Vij) (Vij)
Costo de envío $30.00 $7.20

( vij × sij = 2,5 × $12/ unidad) ( vij × sij = 2,5 × $2,88/ unidad)
costo de cumplimiento $3.75 $1.65

(Vij × $1,50 = 1,5 × $1,50) ($1,50 + (Vij ÿ 1)*0,1


= $1,50 + 1,5*0,1)
Coste total $73.56 $307.41
– 76,07%
Ahorros

Tabla 24.9 Ahorros para teléfonos con “características frías” entre las estrategias de extracción y de inserción

Bajo volumen y económico


(característica fría) Jalar Empujar

Nivel del inventario 2 25


(Iij) (Iij)
Costo de inventario $15.92 $199.04

(Iij × él = 2 × $7,96) (Iij × él = 120 × $7,96)


Volumen de ventas semanal 7.3 7.3
(Vij) (Vij)
Costo de envío $87.60 $21.02

( vij × sij = 7,3 × $12/ unidad) ( vij × sij = 7,3 × $2,88/ unidad)
costo de cumplimiento $10.95 $2.13

(Vij × $1,50 = 7,3 × $1,50) ($1,50 + (Vij ÿ 1)*0,1


= $1,50 + 6,3*0,1)
Coste total $114.47 $222.19
– 48,48%
Ahorros

Tabla 24.10 Ahorros para todos los tipos de teléfonos entre estrategias pull y push

frío-inteligente característica fría Caliente-inteligente Característica caliente

% Ahorros 76,07% 48,48% 46,51% –19,95%

La tabla 24.10 resume el porcentaje de ahorro a medida que pasamos de "empujar" a


“pull” para la tienda representativa y los productos representativos de las cuatro categorías.
De acuerdo con nuestra intuición, la estrategia pull genera los mayores ahorros para el
producto caro y de bajo volumen (cold-smart), y el menor ahorro (incluso un
pérdida) para el producto económico y de alto volumen (característica caliente). En general, el tirón
La estrategia tiende a traer menos ahorros para productos con un mayor volumen y/o un menor
costo.
Machine Translated by Google

838 Y. Zhao

Para evaluar el impacto de la estrategia de extracción en el inventario de la tienda, cuantificamos el


reducción de la inversión en inventario por tienda. Para la tienda representativa, Tabla 24.11
muestra la cantidad de productos en cada categoría y su inventario correspondiente
reducción de nivel. En concreto, hay 22 productos en la categoría hot-smart, 20 en
la categoría de características calientes, 15 en la categoría de frío inteligente y 11 en la categoría de características frías
categoría. La inversión en inventario de la tienda se puede calcular tanto para el pull como para el push
estrategias.
En esta tabla, podemos ver que la inversión en inventario por tienda bajo el tirón
la estrategia es solo alrededor del 5% de la estrategia de empuje. Por lo tanto, la estrategia de atracción puede
reducir el inventario a nivel de tienda en aproximadamente un 95%. Dado que las cuentas de inventario de la tienda
para el 60% de la inversión total en inventario de $ 2 mil millones, la estrategia de extracción traerá
una reducción de al menos $ 1 mil millones en inversión de inventario en comparación con el impulso
estrategia.
A pesar de los ahorros significativos en el inventario, la estrategia pull puede aumentar la
los costos de envío y cumplimiento de DC sustancialmente. Para evaluar el impacto neto de la
estrategia pull, agregaremos los costos de todos los productos para cada tipo de costo
(inventario, envío y cumplimiento) en la tienda representativa y presentarlos
en la Tabla 24.12.

La tabla muestra que la reducción de costos de inventario supera el costo de envío/recolección


la inflación de costos y, por lo tanto, la estrategia de extracción da como resultado un ahorro neto por tienda de alrededor del 31%

en relación con la estrategia de empuje.

Tabla 24.11 Inversión en inventario de la tienda para estrategias de extracción y empuje

Jalar Empujar

Inventario Inventario Inventario Inventario


Categoría # de productos nivel inversión nivel inversión

Caliente-inteligente 22 5 5 · $500 · 22 120 120 · $500 · 22

= $55 000 5 · = $1,320,000


Característica caliente 20 5 $200 · 20 = $20 110 110 · $200 · 20

000 5 · $200 · = $440,000


frío-inteligente 20 = $15 000 2 110 · $200 · 20
15 2 · $200 · 11 = 15 = $112,500
Característica fría 11 2 $4400 $94 400 25 25 · $200 · 11

= $55,000
Total 68 – –
$1,927,500

Cuadro 24.12 Costos totales para


Por tienda por semana Atraer Empujar
estrategias de tirar y empujar
Costo total de inventario $3757.85 $76,729.33
Costo total de envío $52,029.60 $12,487.10
Costo total de recolección $6,503.70 $528.78
Costo total $62.291,15 $89.745,21
Machine Translated by Google

24 Análisis de la cadena de suministro 839

3.5 Modelo avanzado y solución

Como lo muestra nuestro análisis anterior, la estrategia de extracción no supera a la estrategia de


inserción para todos los productos. De hecho, para productos económicos y de gran volumen (teléfonos
con funciones populares), es mejor satisfacer una parte de la demanda en las tiendas. Por lo tanto, la
estrategia ideal puede ser híbrida, es decir, la tienda debe tener algo de inventario para que una fracción
de la demanda se satisfaga en la tienda, mientras que el resto se satisfará mediante envío urgente
nocturno desde un centro de distribución. La pregunta es cómo establecer el nivel de inventario de la
tienda para lograr el equilibrio óptimo entre empujar y tirar.
Para responder a esta pregunta, presentaremos modelos de inventario más avanzados (Zipkin
2000). Considere la tienda representativa y un producto representativo. El inventario de la tienda se
revisa y repone una vez por semana. La siguiente notación es útil:

• T: el período de revisión •
D(T): la demanda durante el período de revisión: • E[D(t)]
= ÿ: la media de la demanda durante el período de revisión • STDEV[D(t)] = ÿ: la
desviación estándar de la demanda durante el período de revisión

La tienda utiliza una política de inventario de existencias base que ordena suficientes unidades para
elevar el inventario (disponible más pedido) a un nivel objetivo S al comienzo de cada período.
La probabilidad de satisfacer toda la demanda en este período solo a través del inventario de la tienda
es ÿ (ÿ se denomina nivel de servicio Tipo 1). Suponiendo que D(t) sigue una distribución normal,
Normal(ÿ, ÿ), y el tiempo de entrega es insignificante (como ocurre en el caso de VASTA), entonces

S = m + zás, (24.7)

donde zÿ es la puntuación estándar de distribución normal de ÿ. Claramente, si ÿ = 0, volvemos a la


estrategia de extracción en la que los CD satisfacen toda la demanda. Si ÿ = 100%, entonces volvemos
a la estrategia de empuje donde las tiendas satisfacen toda la demanda, únicamente. Una estrategia
híbrida establecerá ÿ tal que 0 < ÿ < 1.
La demanda esperada de la tienda satisfecha por los CD a través del envío urgente nocturno se
puede escribir como

E [D1] = E [máx {0, D(T ) ÿ S}] = ÿ [ÿ (zÿ) ÿ zÿ (1 ÿ ÿ)] , (24.8)

x2 1
donde ÿ(x) = eÿ ÿ 2ÿ 2 es la función de densidad de probabilidad normal estándar.
La demanda esperada de la tienda satisfecha por el inventario de la tienda es

mi [D2] = mi [min {D(T ), S}] = mi [D(T )] ÿ mi [D1] . (24.9)


Machine Translated by Google

840 Y. Zhao

Al final del período, el nivel de inventario esperado es

EI = mi [máx. {0, S - D(T)}] = S - ÿ + mi [D1] . (24.10)

Debido a que el nivel de inventario al comienzo del período es S, el inventario disponible promedio
durante el período se puede aproximar mediante

S + NO
yo = . (24.11)
2

Usando ÿ como la variable de decisión, podemos calcular el costo total de descarga por Eq.
(24.1),

Cij = ICij + SCij + F Cij ,

donde ICij = hi × Iij e Iij provienen de la ecuación. (24.11).


SCij es la suma de dos partes:

1. Envío por lotes y en 2 días de la cantidad E[D2] desde los CD a la tienda


2. Envío urgente al día siguiente de la cantidad E[D1] desde los centros de distribución a los clientes

FCij es también la suma de dos partes:

1. Selección por lotes en los centros de distribución por la cantidad de E[D2]

2. Picking individual en DCs por la cantidad de E[D1]

Para identificar la estrategia óptima, resolveremos el siguiente problema de optimización no lineal para el
producto i en la tienda j. Es decir, encontraremos el ÿij (0 ÿ ÿij ÿ 1) tal
que el costo total Cij se minimiza

Min0ÿÿij ÿ1Cij .

Para resolver este problema, necesitaremos información sobre la variabilidad (o incertidumbre) de la


demanda además de promedios, como la desviación estándar de la demanda por unidad.
de tiempo. La tabla 24.13 proporciona las estimaciones de los productos representativos en el
tienda representativa.
Los resultados para el hot-smartphone representativo se representan en la Fig. 24.3. Eso
muestra cómo varía el costo total con ÿ (nivel de servicio de tienda tipo 1). Claramente, un híbrido
La estrategia es mejor para el teléfono representativo de características activas (mejor que tanto el pull
y estrategias de empuje). Sin embargo, la estrategia de atracción sigue siendo la mejor para el representante.
caliente-teléfono inteligente.

De manera similar, los resultados para los productos de bajo volumen se representan en la figura 24.4. los
la estrategia pull funciona mejor para el teléfono inteligente frío, mientras que una estrategia híbrida es la
Lo mejor para el teléfono con funciones frías.
Machine Translated by Google

24 Análisis de la cadena de suministro 841

Tabla 24.13 Estimaciones de teléfonos representativos en una tienda representativa

Ventas semanales Ventas semanales disponible


promedio Desviación Estándar inventario
alto volumen y 99 40 120
caro (caliente-inteligente)
alto volumen y 102 53 110
económico (característica caliente)
Volumen bajo y 2.5 2.3 15
caro (frío-inteligente)
Volumen bajo y 7.3 9.1 25
barato
(característica fría)

Fig. 24.3 Comparación entre estrategias push y pull para teléfonos calientes

Tabla 24.14 Ahorros de Función caliente Función fría


moviéndose para tirar de la estrategia
El mejor servicio Tipo 1 (ÿ) 50% % 50%

demanda atendida por tienda 79% 50%

Ahorro de tirar 28% 8,4%

De estos resultados podemos sacar las siguientes conclusiones:

• La estrategia de extracción es mejor tanto para los teléfonos inteligentes calientes como para los fríos.

• Para teléfonos básicos, es mejor usar una estrategia híbrida (consulte la Tabla 24.14).

Desde la perspectiva de la tienda, los ahorros obtenidos al cambiar de pull a híbrido


es 13.4% (o $8081.90) por tienda por semana.
Machine Translated by Google

842 Y. Zhao

Fig. 24.4 Comparación entre estrategias push y pull para teléfonos fríos

3.6 Satisfacción del Cliente e Implementación

Hasta ahora, nuestro análisis se enfoca en el costo total descargado, que es más pequeño con la estrategia
de extracción que con la estrategia de inserción. A pesar de esta rentabilidad, sigue existiendo una cuestión
fundamental: ¿Aceptarán los clientes la estrategia de extracción? Más específicamente, ¿los clientes estarán
dispuestos a esperar a que sus teléfonos celulares favoritos sean entregados en su puerta durante la noche
desde un centro de distribución?
Un análisis de los datos de ventas en línea muestra que en el año 2010, uno de cada tres clientes compró
teléfonos celulares en línea. Si bien este hecho implica que una gran parte de los clientes pueden estar
dispuestos a esperar la entrega, no está claro cómo los dos tercios restantes de los clientes pueden responder
a la estrategia de extracción. Tampoco está claro cómo estructurar la entrega para minimizar el costo de envío
sin dejar de ser aceptable para la mayoría de los clientes. Las opciones de entrega disponibles incluyen lo
siguiente:

1. Pernocte sin cargo 2. Pernocte


con un cargo de $12 3. Sin cargo pero
2 días 4. Sin cargo pero con retiro en
tienda

Diferentes opciones tienen costos significativamente diferentes e implicaciones de satisfacción del cliente;
deben probarse en diferentes segmentos de mercado y regiones geográficas. Para garantizar la satisfacción
del cliente, VASTA había decidido comenzar con la opción 1 para todos los clientes.
Machine Translated by Google

24 Análisis de la cadena de suministro 843

Tabla 24.15 Plan de implementación de la estrategia pull


Fase I • Implementar la estrategia de extracción para un centro de distribución y algunas tiendas
objetivo • Negociar contratos de envío con los transportistas • Revisar los ahorros, los
niveles de servicio y el impacto en los clientes • Implementar la estrategia de extracción
Fase II en todas las tiendas atendidas por el centro de distribución • Experimentar las opciones
de recogida en tienda y 2 envío a domicilio gratuito en un día • Implementación a gran escala de la
Fase III estrategia de extracción en los tres centros de distribución • Revisar los ahorros, los niveles de
servicio y el impacto en los clientes

La implementación de la estrategia pull requiere tres cambios importantes en el sistema de


distribución:

1. Convertir las tiendas minoristas en salas de exposición y volver a capacitar a la fuerza


laboral de ventas 2. Negociar con los transportistas la tarifa y el servicio del envío exprés 3.
Una transformación masiva de los centros de distribución que pasarán de manejar alrededor del 33 %
de pedidos de clientes individuales a casi el 72 % de clientes individuales pedidos (las ventas
indirectas, a través de tiendas minoristas de terceros como Walmart, se pueden cumplir mediante
la recolección por lotes y representan el 28% de las ventas totales)

A pesar de los costos de renovación y los gastos de capacitación, las salas de exhibición pueden
disfrutar de múltiples ventajas sobre las tiendas desde una perspectiva de ventas. Por ejemplo, eliminar
el inventario puede ahorrar espacio para la exhibición de productos y, por lo tanto, mejorar las
experiencias de compra de los clientes. Las salas de exhibición pueden aumentar la variedad de
productos y facilitar una adopción más rápida de los teléfonos más nuevos y, por lo tanto, aumentar las
ventas. Finalmente, también pueden ayudar a reducir los daños y robos de inventario a nivel de tienda,
minimizando así la logística inversa.
La negociación con los transportistas debe equilibrar la tarifa de envío y las áreas geográficas
cubiertas, ya que una cobertura nacional integral puede requerir una tarifa de envío mucho más alta
que una cobertura regional. También se deben incluir en el contrato cuestiones importantes como los
daños por envío y la cobertura del seguro. La parte más difícil de la implementación es la transformación
de DC, especialmente dada la respuesta desconocida del mercado a la estrategia de extracción. Por lo
tanto, se llevó a cabo un plan de implementación de tres fases (consulte la Tabla 24.15) para
implementar lentamente la estrategia de extracción con el fin de maximizar el aprendizaje y evitar
errores importantes.

3.7 Epílogo

En 2011, VASTA implementó la estrategia pull en su sistema de distribución de EE. UU. Se utilizó
FedEx durante la noche. El inventario del sistema se redujo de $ 2 mil millones a $ 1 mil millones. Poco
después, otros proveedores de servicios inalámbricos de EE. UU. siguieron su ejemplo, y la experiencia
de compra de teléfonos celulares por parte del cliente cambió por completo en EE. En los años
posteriores, VASTA continuó afinando la estrategia pull en la estrategia híbrida y exploró múltiples
opciones de envío exprés según las preferencias de los clientes. VASTA sigue siendo uno de los líderes
del mercado en la actualidad.
Machine Translated by Google

844 Y. Zhao

4 Resumen: Perspectivas e impacto empresarial

En este capítulo, mostramos el poder del análisis de la cadena de suministro en la planificación integrada de
distribución y logística a través de un caso de negocios en la industria de servicios inalámbricos de EE. UU. La
empresa, VASTA, sufrió una ineficiencia de costos significativa a pesar de su excelente servicio al cliente.
Brindamos modelos, metodología y soporte de decisiones para que VASTA transforme su estrategia de
distribución de "empujar" a "atraer" y, finalmente, a "híbrido" para mejorar su rentabilidad sin sacrificar la
satisfacción del cliente. La transformación resultó en un ahorro de mil millones de dólares en inversión de
inventario y ayudó a la empresa a mantener su papel de liderazgo en un mercado cada vez más saturado.

Las cadenas de suministro son sistemas complejos y ricos en datos. Hemos demostrado que al combinar
creativamente dichos datos con análisis simples, podemos lograr los objetivos gemelos de eficiencia de costos
y satisfacción del cliente al mismo tiempo que generamos un impacto financiero significativo. Este capítulo
también revela tres ideas comerciales que uno debe tener en cuenta al emplear el análisis de la cadena de
suministro:

• Los objetivos conflictivos de rentabilidad y satisfacción del cliente son difíciles de resolver cualitativamente. El
análisis cuantitativo de la cadena de suministro es necesario para lograr el equilibrio.

• Pensamiento sistémico: las estrategias de distribución pueden tener un impacto significativo en todos los
aspectos de un sistema: inventario, envío, satisfacción del cliente, así como operaciones en la tienda y el
almacén. Debemos evaluar todos los aspectos del sistema y evaluar el impacto neto.

• Una talla no sirve para todos: debemos personalizar las estrategias para que se ajusten a las necesidades
específicas de los diferentes productos y puntos de venta (p. ej., tiendas).

Material complementario electrónico

Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están
disponibles en www.allaboutanalytics.net.

• Datos 24.1: Vasta_data.xls

Ejercicios

Ex. 24.1 Reproducir el modelo básico y el análisis en la tienda representativa para la comparación entre las
estrategias push y pull.
Ex. 24.2 Reproducir el modelo avanzado y análisis sobre la estrategia híbrida para la tienda representativa.

Ex. 24.3 Para las tiendas de Nueva York y Los Ángeles, use los modelos básico y avanzado para averiguar qué
estrategia usar para cada tipo de producto y calcule el impacto del costo en relación con la estrategia de empuje.
Machine Translated by Google

24 Análisis de la cadena de suministro 845

Referencias

Estudio de megatendencias de operaciones globales de Accenture. (2014). Análisis de big data en la cadena de suministro: exageración
o aquí para quedarse? Dublín: Accenture.
Baljko, J. (3 de mayo de 2013). Apostando por la analítica como el próximo gran paso de la cadena de suministro. Recuperado el
30 de diciembre de 2016, de http://www.ebnonline.com/author.asp?section_id=1061&doc_id=262988
&itc=ticker_velocidad.
Sopa de mariscos. (2016). Cómo gestionar el efecto látigo en su cadena de suministro. Consultado en diciembre
30, 2016, de http://www.usanfranonline.com/resources/supply-chain-management/how-to manage-the-bullwhip-effect-on-your-
supply-chain/.
Bodenstab, J. (27 de enero de 2015). Recuperado el 30 de diciembre de 2016, de http://blog.toolsgroup.com/
es/multi-echelon-inventory-optimization-fast-time-to-benefit.
Chandrasekaran, P. (2014, 19 de marzo). Qué importancia tiene el big data para los mercados de materias primas. Recuperado
30 de diciembre de 2016, de http://www.thehindubusinessline.com/markets/commodities/how-big-data-is-relevant-to-commodity-
markets/article5805911.ece.
Columbus, L. (2016, 18 de diciembre) El estudio analítico de McKinsey de 2016 define el futuro
de aprendizaje automático. Recuperado el 30 de diciembre de 2016, de http://www.forbes.com/sites/
louiscolumbus/2016/12/18/mckinseys-2016-analytics-study-defines-the-future-machine learning/#614b73d9d0e8.

Consultoría Deloitte. (2014). Talento de la cadena de suministro de los hallazgos futuros del tercer suministro anual
encuesta en cadena. Recuperado el 27 de diciembre de 2016, de https://www2.deloitte.com/content/dam/
Deloitte/global/Documents/Process-and-Operations/gx-operations-supply-chain-talent-of-the future-042815.pdf.

Ferreira, KJ, Lee, BHA y Simchi-Levi, D. (2015). Análisis para un minorista en línea: Demanda
previsión y optimización de precios. Gestión de operaciones de fabricación y servicios, 18(1),
69–88.

Reunión de Ministros de Comercio del G20. (2014, 19 de julio). Cadenas globales de valor: Desafíos, oportunidades,
e implicaciones para la política. Recuperado el 30 de diciembre de 2016, de https://www.oecd.org/tad/
gvc_informe_g20_julio_2014.pdf.
Gilmore, D. (28 de agosto de 2008). Noticias de la cadena de suministro: ¿Qué es la optimización del inventario? Recuperado
30 de diciembre de 2016, de http://www.scdigest.com/assets/firstthoughts/08-08-28.php.
Gopalakrishnan, S. (22 de julio de 2016). Forma de la aplicación para rastrear la demanda del baño. Consultado el 30 de diciembre de 2016,
de http://www.indiawaterportal.org/articles/app-way-track-toilet-demand.
Heikell, L. (2015, 17 de agosto). Las vacas conectadas ayudan a las granjas a mantenerse al día con la manada. Noticias de Microsoft
Centro. Recuperado el 30 de diciembre de 2016 de https://news.microsoft.com/features/connected cows-help-farms-keep-up-
with-the-herd/#sm.00001iwkvt0awzd5ppu5pahjfsks0.
Hendricks, K. y Singhal, VR (junio de 2015). El efecto de las interrupciones de la cadena de suministro en el largo plazo
valor para el accionista, rentabilidad y volatilidad del precio de las acciones. Recuperado el 7 de enero de 2017, de
http://www.supplychainmagazine.fr/TOUTE-INFO/ETUDES/singhal-scm-report.pdf.
Hicks, H. (2012, marzo). Gestión de interrupciones en la cadena de suministro. Recuperado el 30 de diciembre de 2016, de
http://www.inboundlogistics.com/cms/article/managing-supply-chain-disruptions/.
Ho, J. (2015, 19 de agosto). Las diez empresas más innovadoras de Asia 2015. Consultado el 30 de diciembre de 2016 en http://
www.forbes.com/sites/janeho/2015/08/19/the-ten-most-innovativecompanys-in-asia- 2015/#3c1077d6465c.

Lee, HL, Padmanabhan, V. y Whang, S. (15 de abril de 1997). El efecto látigo en las cadenas de suministro.
Recuperado el 30 de diciembre de 2016, de http://sloanreview.mit.edu/article/the-bullwhip-effect-in supply-chains/.

O'Marah, K., John, G., Blake, B., Manent, P. (2014, septiembre). SCM World es el principal proveedor
informe del oficial de la cadena. Recuperado el 30 de diciembre de 2016, de https://www.logility.com/Logility/
archivos/4a/4ae80953-eb43-49f4-97d7-b4bb46f6795e.pdf.
Poncio, N. (2016, 24 de septiembre). Top 30 de gestión, control y seguimiento de inventario
aplicaciones Recuperado el 30 de diciembre de 2016 de https://www.camcode.com/asset-tags/inventory management-apps/.
Machine Translated by Google

846 Y. Zhao

Rafique, R., Mun, KG y Zhao, Y. (2014). Apple vs. Samsung: competencia en la cadena de suministro. Caso
estudiar. Newark, Nueva Jersey; Nuevo Brunswick, Nueva Jersey: Escuela de Negocios de Rutgers.
Sanders, NR (2014). Gestión de la cadena de suministro impulsada por big data: un marco para implementar análisis y convertir
la información en inteligencia. Upper Saddle River, NJ: Pearson Education, Inc..

Sangam, V. (2 de septiembre de 2010). Optimización de inventario. Blog mundial de la cadena de suministro. Consultado el 30
de diciembre de 2016.
Simchi-Levi, D., Kaminsky, F. y Simchi-Levi, E. (2008). Diseño y gestión de la cadena de suministro: conceptos, estrategias y
casos de estudio. Nueva York, NY: McGraw-Hill Irwin.
Simchi-Levi, D., Schmidt, W. y Wei, Y. (2014). Desde supertormentas hasta incendios en fábricas: gestión de interrupciones
impredecibles en la cadena de suministro. Harvard Business Review., 92, 96 Obtenido de https://hbr.org/2014/01/from-
superstorms-to-factory-fires-managing-unpredictable-supply chain-disruptions.

Szwast, S. (2014). Serie de documentos técnicos de salud de UPS 2014: gestión de la cadena de suministro. Recuperado el
30 de diciembre de 2016 de https://www.ups.com/media/en/UPS-Supply-Chain-Management Whitepaper-2014.pdf.

Vollmann, T., Berry, W., Whybark, DC y Jacobs, FR (2010). Sistemas de control y planificación de la fabricación para la gestión
de la cadena de suministro (6ª ed.). Noida: Tata McGraw-Hill Capítulos 3 y 4.

Willenbockel, D. (2012, septiembre). Eventos climáticos extremos y picos de precios de cultivos en un clima cambiante.
Recuperado el 7 de enero de 2017 de https://www.oxfam.org/sites/www.oxfam.org/files/rr extreme-weather-events-crop-
price-spikes-05092012-en.pdf.
Winckelmann, L. (2013, 17 de enero). HANA exitosa en misión al Grupo Eldorado en Moscú. Recuperado el 7 de enero de
2017 de https://itelligencegroup.com/in-en/hana-successful in-mission-to-the-eldorado-group-in-moscow.

Zhao, Y. (2014a). VASTA inalámbrico: estrategias de distribución push vs pull. Caso de estudio. Newark, Nueva Jersey;
Brunswick, Nueva Jersey: Escuela de Negocios de Rutgers.
Zhao, Y. (2014b). Notas de conferencias VASTA inalámbrico: estrategias de distribución push vs. pull. Newark, Nueva Jersey;
Brunswick, Nueva Jersey: Escuela de Negocios de Rutgers.
Zipkin, P. (2000). Fundamentos de la gestión de inventarios. Nueva York, Nueva York: McGraw-Hill Higher
Educación.
Machine Translated by Google

capitulo 25
Caso de Estudio: Seguro Ideal

Deepak Agrawal y Soumithri Mamidipudi

1. Introducción

Sebastian Silver, director financiero de Ideal Insurance Inc., estaba preocupado.


La industria global de seguros se estaba desacelerando y muchas empresas como la suya sentían la
presión de generar retornos. Con las bajas tasas de interés y el aumento de la volatilidad financiera
en los mercados mundiales, se estaba poniendo a prueba la capacidad de Sebastián para aumentar
los resultados.
Sebastian comenzó a revisar los informes financieros de los últimos trimestres. Estaba preocupado
por la tendencia a la baja en los números y estaba tratando de identificar las causas fundamentales
del déficit para proponer una estrategia a los miembros de la junta en la próxima reunión trimestral.
Para respaldar su razonamiento, comenzó a revisar los informes de la industria para examinar si la
tendencia era común en toda la industria o si había áreas de mejora para su empresa. Mirando los
informes, observó que tanto las ganancias de las operaciones principales, es decir, las ganancias del
servicio de seguros, como la tasa de satisfacción del cliente fueron sorprendentemente más bajas
que las de la industria.

Material complementario electrónico La versión en línea de este capítulo (https://doi.org/10.1007/


978-3-319-68837-4_25) contiene material complementario, que está disponible para usuarios autorizados.

D. Agrawal ( ) · S. Mamidipudi Indian


School of Business, Hyderabad, Telangana, India Correo
electrónico: a.deepak@outlook.com

© Springer Nature Switzerland AG 2019 847


B. Pochiraju, S. Seshadri (eds.), Essentials of Business Analytics, International
Series in Operations Research & Management Science 264, https://doi.org/
10.1007/978-3-319-68837 -4_25
Machine Translated by Google

848 D. Agrawal y S. Mamidipudi

estándar. Los datos contradecían el índice de liquidación de reclamos de la empresa,1 que Sebastian
sabía que era más alto que el de sus rivales, y el índice de repudio de reclamos,2 que era más bajo
que el promedio de la industria. También observó que la liquidación de reclamaciones estaba
tardando más de lo esperado.
La jefa del departamento de reclamos de Ideal Insurance, Rachel Morgan, le dijo a Sebastian que
había una enorme escasez de mano de obra en el equipo de liquidación y agregó que no se enfocaba
en innovar y mejorar el proceso de investigación de reclamos. También le recordó a Sebastián que
había propuesto un departamento interno de analistas que podría ayudar a mejorar el proceso de
liquidación de reclamaciones y respaldar otras iniciativas de mejora. Sebastian prometió que revisaría
la propuesta, que se había presentado al equipo de recursos humanos de Adam Berger a principios
de año, y concertó una reunión con Rachel para la semana siguiente. También le pidió que se pusiera
en contacto con un experto en liquidación e investigación de siniestros para brindarle una revisión
detallada del desempeño y sugerir una hoja de ruta para los cambios.

Siguiendo la sugerencia de Sebastian, Rachel se puso en contacto con un consultor independiente


para verificar y analizar las afirmaciones de la póliza de atención médica de Ideal. Sabía que la
prevención del fraude, una de las principales causas de fuga de beneficios en el sector, tendría que
ser un área prioritaria clave. Sin embargo, también era consciente de que mejorar la probabilidad de
detectar reclamaciones fraudulentas podría perjudicar a los verdaderos asegurados. El desafío al
que se enfrentó Rachel fue cómo equilibrar la necesidad de brindar respuestas rápidas a los clientes
con el conocimiento de que demasiadas reclamaciones fraudulentas dañarían gravemente el resultado final.
Fue para resolver este desafío que el consultor aconsejó a Rachel que considerara el uso de técnicas
analíticas avanzadas. Estas técnicas, como la inteligencia artificial y el aprendizaje automático,
podrían ayudar a que el procesamiento de reclamos sea más eficiente al identificar fraudes, optimizar
la utilización de recursos y descubrir nuevos patrones de fraude. El consultor agregó que tales
aplicaciones mejorarían la percepción de la empresa por parte del cliente porque las reclamaciones
genuinas se identificarían y procesarían más rápidamente.

2 La Industria de Seguros

La industria global de seguros suscribe anualmente trillones de dólares en pólizas. La naturaleza de


la industria de seguros significa que las aseguradoras son increíblemente sensibles a las fluctuaciones
en los mercados financieros locales y globales, porque muchas pólizas involucran cobertura por
décadas. Por lo tanto, las primas que se pagan a las compañías de seguros se invierten a largo plazo
en diversos activos financieros para generar rendimientos y utilizar el capital de manera eficiente.
Esto necesariamente significa que entender el mundo global

1Ratio de liquidación de siniestros se calcula como el porcentaje de siniestros liquidados en un período sobre el
total de siniestros notificados en el mismo período. Cuanto mayor sea el índice de liquidación, mayor será la
satisfacción del cliente.

2La tasa de rechazo de reclamos se calcula como el porcentaje de reclamos rechazados (por información faltante
o incorrecta) en un período sobre el total de reclamos notificados en el mismo período.
Machine Translated by Google

25 Caso de Estudio: Seguro Ideal 849

industria aseguradora implica no sólo comprender la naturaleza de las empresas que operan en
el sector, sino también sus interconexiones con los mercados financieros.
Quizás la distinción más importante con respecto a las compañías de seguros es la naturaleza
de las pólizas escritas. Las empresas grandes (medidas por activos y cobertura geográfica) como
AXA y Prudential suelen tener una variedad de pólizas en cada segmento. Las empresas más
pequeñas, sin embargo, pueden limitarse a suscribir solo en los segmentos de vida o no vida.
Por lo tanto, las aseguradoras pueden optar por participar únicamente en siniestros relacionados
con automóviles, desastres o lesiones. Las empresas también pueden reasegurar las pólizas de
otras compañías de seguros: Swiss Re, Munich Re y Berkshire Hathaway se dedican a reasegurar
las pólizas de otras aseguradoras. Los resultados operativos de cualquier compañía de seguros
específica, por lo tanto, dependerán no solo de la geografía en la que opere, sino también del
tipo o tipos de pólizas que suscriba.
El seguro para un laico no es más que el negocio de compartir el riesgo. El proveedor de
seguros acepta compartir el riesgo con el titular de la póliza a cambio del pago de una prima de
seguro. Por lo general, un suscriptor evalúa el riesgo en función de la edad, las condiciones de
salud existentes, el estilo de vida, la ocupación, los antecedentes familiares, la ubicación
residencial, etc. y recomienda que se cobre la prima al cliente potencial.
El asegurado asegura su riesgo imprevisto mediante el pago de la prima y espera apoyo
financiero en caso de que se produzca el evento de riesgo.
El negocio de seguros depende para su supervivencia y rentabilidad de la distribución del
riesgo en una combinación y volumen adecuados y una planificación cuidadosa a largo plazo. La
prima colectiva se utiliza para cumplir con los reclamos presentados por los asegurados o se
invierte en activos a largo plazo con la expectativa de obtener ganancias significativas. Por lo
tanto, el proveedor de seguros tiene dos vías principales para obtener ganancias, a saber, las
ganancias de las operaciones centrales de distribución de riesgos y las ganancias de las
inversiones. Se ha observado que las ganancias de las operaciones centrales son generalmente
muy bajas o, a veces, incluso negativas; sin embargo, las ganancias generales son altas debido
a las estrategias de inversión seguidas por la empresa, como la inversión en valor, la gestión de
patrimonio y la diversificación global. La mayoría de las empresas de seguros tienen una entidad
de gestión de activos que gestiona la inversión de dicha prima cobrada. Los proveedores de
seguros también se protegen de las enormes pérdidas del negocio principal al trabajar con
reaseguradoras como Swiss Re y Berkshire Hathaway, que comparten los riesgos entre los proveedores de segu

3 El negocio de los seguros de salud

La industria de seguros médicos y de salud es un segmento de rápido crecimiento de la industria


de seguros que no son de vida. Se espera que la tasa de crecimiento anual compuesto del
mercado mundial de seguros de salud sea de alrededor del 11 % durante 2016–2020.3 Los
ingresos de la industria mundial de seguros de salud privados, que fueron de alrededor de

3https://www.technavio.com/report/global-miscellaneous-global-health-insurance-market-2016- 2020
(consultado el 17 de agosto de 2018).
Machine Translated by Google

850 D. Agrawal y S. Mamidipudi

es probable que se duplique para 2025 (Singhal et al. 2016). Si bien EE. UU. ocupa el primer lugar
en ingresos brutos por primas suscritas, con más del 40 % de la participación de mercado, se espera
que el envejecimiento de la población y el aumento de los ingresos conduzcan a importantes
aumentos en la demanda de servicios de atención médica y seguros médicos en América Latina y
Asia. regiones del Pacífico en los próximos años. Las principales fuerzas impulsoras y los cambios
disruptivos en los mercados de seguros médicos y de salud se deben al aumento en el riesgo de
salud por el aumento de las enfermedades no transmisibles y las condiciones médicas crónicas, los
avances en la tecnología digital y las ciencias médicas emergentes, las suscripciones mejoradas y
los cambios en los entornos regulatorios, y aumento del consumismo y aumento del envejecimiento
de la población en las economías en desarrollo.
El seguro de salud representa miles de millones de dólares en gastos de las compañías de
seguros. Los Centros para el Control y la Prevención de Enfermedades estiman que alrededor del 15
% del gasto de las aseguradoras se destina a planes de atención médica.4 Es probable que los
avances en la tecnología de la atención médica se vean compensados por una mayor demanda. A
medida que la población sigue envejeciendo en los EE. UU., Europa y Japón, el gasto en este sector
seguirá siendo la piedra angular del negocio de los seguros en las próximas décadas.
La mayoría de los seguros de salud dividen el costo de la atención entre el titular de la póliza y la
aseguradora. Según el tipo de póliza y la naturaleza del tratamiento, esta división puede realizarse de
varias maneras. Algunas pólizas se pagan una vez que el gasto cruza cierto umbral, llamado
"deducible". Otros dividen el costo con el titular de la póliza en una proporción definida, llamada
"copago".

4 Procesamiento de reclamos

La velocidad está en el corazón del diseño de los procesos en una empresa de seguros de salud. Por
su definición, el seguro se requiere en situaciones que son imprevisibles. En el caso de los seguros
de salud, recibir el dinero que garantiza la póliza lo antes posible es vital para el tomador. Sin
embargo, esta restricción significa que el cronograma del procesamiento de reclamos debe ser
necesariamente lo más corto posible, lo que perjudica la capacidad de las compañías de seguros
para verificar los reclamos.
El proceso para reclamar un seguro de salud normalmente se desarrolla en varias etapas.
El contacto inicial entre la empresa y el titular de la póliza se realiza a través del centro de llamadas o
de la oficina/agente local. A menudo, este paso lo realiza una persona cercana al titular o el proveedor
de atención médica, porque el titular puede estar incapacitado.
El centro de llamadas de la firma obtiene y registra información básica del cliente, incluidos
detalles sobre el tipo de póliza que posee el titular, el hospital al que ha sido llevado el titular y la
lesión/enfermedad con la que el titular tiene

4Eynde, Mike Van Den, “Resumen del mercado de seguros de salud”, seminario web de liderazgo de salud
pública estatal, Deloitte Consulting LLP, 15 de agosto de 2013, URL: https://www.cdc.gov/stltpublichealth/
program/transformation/docs/health- resumen-de-seguros.pdf (consultado el 25 de mayo de 2017).
Machine Translated by Google

25 Caso de Estudio: Seguro Ideal 851

sido afligido. Armado con esta información, el empleado del centro de llamadas envía los detalles necesarios al
equipo de procesamiento de reclamos.
El equipo de procesamiento de reclamaciones es responsable de la primera línea de investigación de la
reclamación. Comprueban la cobertura y los gastos del asegurado, verifican el hospital y la red en la que ha estado
ingresado el cliente y solicitan comprobantes como facturas y recetas. Al hacerlo, el equipo clasifica el reclamo como
Genuino, Discutido o Investigado. Los casos genuinos se procesan sin más aclaraciones. Los casos de discusión se
envían a un equipo de recopilación de datos para recopilar más información y verificar los detalles. Los casos de
investigación se envían al equipo de investigación de reclamaciones y pueden tardar mucho tiempo en procesarse

(resolverse o rechazarse).

Actualmente, el equipo de procesamiento de reclamos de Ideal Insurance examina los siguientes puntos para
crear un puntaje de fraude:

1. ¿El titular de la póliza presenta reclamos de reembolso de un hospital fuera de la red?


2. ¿Son múltiples las reclamaciones de una sola póliza (excepto las pólizas de grupo) o
¿tenedor de una póliza?

3. ¿Hay varias reclamaciones grupales del mismo hospital?


4. ¿El siniestro planteado se acerca a la fecha de vencimiento de la póliza?
5. ¿La reclamación se presenta cerca de la fecha de inicio de la póliza?
6. ¿No hay reclamo previo o posterior al reclamo principal?
7. ¿Hay tergiversación de la información material identificada en el informe?
8. ¿Se presentó el reclamo en fin de semana?
9. ¿Existen investigaciones “más costosas”?
10. ¿Hay tarifas médicas altas?
11. ¿Se informó el siniestro un día antes del alta?
12. ¿La intimación del reclamo ocurrió después de las 48 h del ingreso?

Cada indicador tiene un peso asignado en base a la investigación previa y la experiencia del equipo de
investigación. El puntaje ponderado máximo es 40. Si el puntaje ponderado (o puntaje de fraude) de un reclamo es
mayor a 20, entonces el equipo de procesamiento de reclamos envía los reclamos al equipo de investigación para
investigar un posible fraude. Si el puntaje de fraude está entre 16 y 20, entonces el equipo de procesamiento de
reclamos busca datos adicionales del equipo de recopilación de información y del proveedor de servicios de atención
médica. Las reclamaciones con puntajes de fraude menores o iguales a 15 se consideran genuinas y se envían al
equipo de liquidación para el pago al titular de la póliza o al proveedor del servicio.

La investigación de reclamos requiere que las empresas verifiquen una serie de detalles que los corroboren. Para
asegurarse de la naturaleza genuina del reclamo, los investigadores verifican los tipos de medicamentos recetados,
los años de historial del paciente y la naturaleza específica de la dolencia. Dependiendo de si el tipo de fraude
sospechado es duro o blando, los investigadores pueden optar por examinar diferentes niveles de datos. Si bien el
fraude leve podría identificarse demostrando de manera concluyente que ciertos tipos de tratamiento no eran
apropiados para la enfermedad diagnosticada, el fraude fuerte necesitaría patrones más grandes y complejos para
descubrirse.

Los procesos de siniestros más largos y complicados son un arma de doble filo para las compañías de seguros.
A medida que aumenta el número de denuncias que se investigan en profundidad, la
Machine Translated by Google

852 D. Agrawal y S. Mamidipudi

la probabilidad de errores de inclusión y exclusión disminuye. Sin embargo, investigar una gran cantidad
de reclamos requiere tiempo, recursos y riesgos, lo que provoca demoras a los clientes genuinos.
Un reclamo se complica aún más si el titular de la póliza decide presentar una demanda judicial debido
a la demora o al rechazo. Aunque puede crear presión para un arreglo rápido, proporcionando un
argumento sólido para minimizar la demora/rechazo, una demanda por sí sola no significa necesariamente
que la reclamación sea genuina. El litigio es una herramienta crucial e importante para las compañías de
seguros. Dado que el seguro de salud es vital para la mayoría de los clientes, la decisión de clasificar un
reclamo como fraude puede potencialmente abrir la puerta a una gran cantidad de demandas. Estas
demandas pueden ser en nombre de clientes individuales o de una gran cantidad de clientes. Por lo
general, es responsabilidad de la empresa justificar su opinión de que una reclamación es fraudulenta.
Debido a que los estándares legales para el fraude pueden ser diferentes de los estándares internos de la
empresa, garantizar que la empresa pueda ganar tales casos puede resultar complicado.
Además, los costos judiciales en sí mismos pueden ser prohibitivos. La empresa puede tener que seguir
reglas diferentes según lo prescrito por la ley del país respectivo. Una gran cantidad de casos o casos
pendientes durante mucho tiempo también pueden dañar la reputación de la empresa.
Evitar tales desafíos es la mejor apuesta. También es importante no retroceder en los litigios cuando la
ocasión lo exija para evitar que posibles estafadores se aprovechen de la empresa.

5 partes interesadas en la industria de seguros de salud

La transformación en la industria de seguros de salud implica y requiere influir en numerosos actores y


participantes del mercado. Estos incluyen5 lo siguiente:

1. Consumidores, pacientes, cuidadores y organizaciones de defensa de pacientes: Estas son personas


que experimentan los problemas de salud y que serían beneficiarias de diversos servicios y
tratamientos de salud.
2. Médicos y sus asociaciones profesionales: Estos son los principales tomadores de decisiones médicas;
y sus habilidades, experiencia y pericia son lo más importante.
3. Instituciones de atención médica, como sistemas hospitalarios y clínicas médicas, y sus asociaciones:
las principales decisiones de atención médica están estructuradas y determinadas por las elecciones
de los proveedores de atención médica institucionales, ya que a menudo tienen una visión amplia
de lo que está causando un problema de salud en particular.
4. Compradores y pagadores, como empleadores y aseguradores públicos y privados: la cobertura por
parte del asegurador y el comprador de atención médica juega un papel importante en las decisiones
de diagnóstico y tratamiento y en las elecciones de los asegurados.
5. Industria de la salud, compañías farmacéuticas y fabricantes de medicamentos, y asociaciones
industriales: los fabricantes de medicamentos y dispositivos de tratamiento y sus proveedores y
distribuidores influyen en la calidad de los servicios de atención médica disponibles en una región.

5Agencia para la Investigación y la Calidad de la Atención Médica (AHRQ). 2014. Guía de partes interesadas.
https://www. ahrq.gov/sites/default/files/publications/files/stakeholdr.pdf (consultado el 17 de agosto de 2018).
Machine Translated by Google

25 Caso de Estudio: Seguro Ideal 853

6. Responsables de la formulación de políticas y reguladores de la atención médica: la política


gubernamental y los mecanismos regulatorios, incluido el sistema legal, influyen en el costo y la
calidad de la atención médica, el desarrollo del mercado de seguros médicos y el acceso a las
personas y sus familias.
7. Investigación en salud e instituciones de investigación: la disponibilidad local de fondos de
investigación y la calidad de las instituciones de investigación juegan un papel vital en el desarrollo
del mercado de seguros médicos y de salud en una región.
8. Compañías de seguros: Las compañías de seguros brindan cobertura al tomador de la póliza a
cambio de una prima de seguro. Suscriben la póliza y cobran la prima calculada en función del
perfil de riesgo del cliente. Se espera que cumplan con los reclamos presentados por un asegurado
en caso de circunstancias imprevistas. Los riesgos se comparten poniendo en común un gran
número de clientes con perfiles de riesgo diversos y con la ayuda de las reaseguradoras.

9. Proveedores de reaseguros: Los reaseguradores brindan cobertura a las compañías de seguros


en caso de grandes situaciones imprevistas, como calamidades naturales, ataques terroristas y
quiebras. Ayudan a compartir el riesgo entre geografías y un grupo diverso de clientes riesgosos.

10. Proveedores de servicios de asistencia de terceros (TPA): los TPA son los mediadores entre los
proveedores de seguros y los clientes o consumidores que ayudan a proporcionar información a
los aseguradores y ayudan a procesar sin problemas las reclamaciones cuando se presentan.
Ayudan en el proceso de recopilación de información de los proveedores de seguros y en la
presentación de reclamaciones por parte de los clientes.
11. Agentes o bancos: el proveedor de servicios de seguros contrata a los agentes/empleados para vender
varios productos o colabora con instituciones financieras como bancos y proveedores externos para
realizar ventas cruzadas de productos de seguros a su base de clientes existente.

La compañía de seguros actúa como un gran coordinador entre los diferentes actores. Las
aseguradoras ayudan a interpretar las leyes y reglamentos. Conocen los medicamentos, los efectos
secundarios, los programas de tratamiento y los procedimientos. Recopilan datos sobre tarifas y costos
de diferentes servicios en diferentes lugares. También proporcionan información y servicios afines a los
clientes. Por ejemplo, procesan directamente las facturas y pagan los hospitales una vez aprobado el
trámite. En muchos sentidos, se necesita una industria de seguros fuerte y competitiva para coordinar
tantos intereses diferentes.

6 Fraude en el Negocio de Seguros

El fraude de seguros es una de las mayores fuentes de delitos de cuello blanco en el mundo, lo que
significa que también se dedica un esfuerzo policial significativo a rastrearlo y eliminarlo.
Sin embargo, dados los recursos policiales limitados y un universo de delincuencia que abarca mucho
más que la variedad de cuello blanco, el fraude de seguros duros perpetrado por delincuentes
organizados tiende a ser el foco de atención de la aplicación de la ley. Esto deja el fraude duro
desorganizado y una plétora de fraude suave para permanecer dentro del alcance de las compañías de
seguros.
Machine Translated by Google

854 D. Agrawal y S. Mamidipudi

La industria de seguros de salud no es más inmune al fraude que cualquier otro subsector de seguros.
Los expertos estiman que alrededor del 6 % del gasto mundial en atención médica se pierde por fraude
cada año.6 En un mundo en el que los gobiernos, las organizaciones no gubernamentales y las
corporaciones gastan billones de dólares en atención médica, esto equivale a decenas de miles de millones
perdidos por empresas criminales. Solo en los EE. UU., se estima que el fraude causa alrededor de 80 000
millones de USD en pérdidas anuales a la industria, y el fraude por daños a la propiedad representa 32 000
millones de USD.7 Estas cifras no incluyen el fraude perpetrado en Medicare y Medicaid.

El fraude de seguros de salud es un acto de proporcionar información engañosa o falsa a una compañía
de seguros de salud en un intento de que paguen a un titular de la póliza, a otra parte o a la entidad que
presta los servicios (PAIFPA 2017). Un suscriptor individual puede cometer fraude de seguro médico al:

• Permitir que otra persona use su identidad y la información de su seguro para


obtener servicios de salud

• Usar beneficios para pagar recetas que no fueron recetadas por su


médico

Los proveedores de salud pueden cometer actos fraudulentos (PAIFPA 2017) al:

• Facturar por servicios, procedimientos y/o suministros que nunca se brindaron • Cobrar por
servicios más costosos que los realmente brindados • Realizar servicios innecesarios con el fin de
obtener ganancias financieras • Tergiversar tratamientos no cubiertos como una necesidad médica
• Falsificar el diagnóstico de un paciente para justificar pruebas, cirugías u otros procedimientos •
Facturar cada paso de un solo procedimiento como si fuera un procedimiento separado • Cobrar a un
paciente más del copago acordado según los términos de la aseguradora • Pagar “sobornos” por
referencia de vehículo motorizado víctimas de accidentes para recibir tratamiento • Pacientes que
reclaman falsamente costos de atención médica • Individuos que utilizan documentos falsos/robados/
prestados para acceder a la atención médica

Abordar el fraude es fundamental para la industria, especialmente cuando el fraude se vuelve cada vez
más complejo. Por su naturaleza, el fraude de seguros es difícil de detectar, ya que su objetivo es ser
indistinguible de las reclamaciones de seguros genuinas. En cada uno de los casos anteriores, identificar el
fraude que se ha perpetrado puede ser un proceso laborioso, que consume tiempo y esfuerzo. Dado que el
gasto en atención médica puede ser repentino, urgente e inesperado, verificar si hay fraude puede ser un
proceso complicado. Las empresas deben equilibrar sus limitaciones financieras con la realidad de las
situaciones de atención médica.
Según una estimación de la Asociación Nacional contra el Fraude en el Cuidado de la Salud de EE. UU.
(NHCAA),8 el 3 % de todo el gasto en atención médica se pierde debido al fraude en la atención médica (LexisNexis

6“El desafío del fraude en el cuidado de la salud”, Red mundial contra el fraude en el cuidado de la salud. http://
www.ghcan. org/global-anti-fraud-resources/the-health-care-fraud-challenge/ (consultado el 12 de junio de 2017).
7http://www.insurancefraud.org/statistics.htm (consultado el 12 de junio de 2017).
8Los desafíos del fraude en la atención médica. https://www.nhcaa.org/resources/health-care-anti-fraud
resources/the-challenge-of-health-care-fraud.aspx (consultado el 17 de agosto de 2018).
Machine Translated by Google

25 Caso de Estudio: Seguro Ideal 855

2011). El fraude financiero, incluida la facturación ilegal y las reclamaciones falsas, es el tipo más común
de fraude de seguros de salud y, por lo general, está relacionado con aspectos de la organización y la
gestión de la información de salud (Fundación AHIMA 2010). Las herramientas y técnicas de minería de
datos y el análisis predictivo, como la red neuronal, el razonamiento basado en la memoria y el análisis
de enlaces, se pueden utilizar para detectar fraudes en los datos de reclamaciones de seguros (Bagde y
Chaudhary 2016).
El fraude en la atención médica conduce a tarifas de primas más altas, mayores gastos para los
consumidores y cobertura reducida. Aumenta el costo para los empleadores por proporcionar seguro
médico a sus empleados, lo que afecta el costo de hacer negocios. Además de las pérdidas financieras,
las actividades fraudulentas conducen a la explotación y exposición de las personas a procedimientos
médicos innecesarios e inseguros, que pueden tener efectos secundarios devastadores para la salud.

Detectar el fraude de seguros de salud es un proceso largo y complicado que cuesta a las empresas
tiempo, esfuerzo, dinero y la buena voluntad de sus clientes.
La tecnología moderna y el software estadístico han ayudado a reducir este costo, pero sigue siendo una
carga importante para los recursos de los departamentos de servicio al cliente en todo el mundo. Las
estrategias y actividades de gestión y protección contra fraudes de seguros médicos pueden incluir
"mejorar la calidad de los datos, crear una cultura centrada en los datos y aplicar análisis de datos
avanzados" .

Las innovaciones en los productos de seguros y el desarrollo de las tecnologías de la información y


las comunicaciones pueden ayudar a diseñar productos de seguros hechos a la medida con una mejor
suscripción y fijación de precios del seguro de salud y opciones de cobertura.
La tecnología y los sistemas de información mejorados pueden beneficiar a las partes interesadas y los
participantes del mercado y conducir a un mayor bienestar y satisfacción del consumidor.
En el pasado, la forma principal en que las aseguradoras detectaban el fraude era emplear agentes
de reclamaciones que investigaban las reclamaciones sospechosas. Sin embargo, a medida que el
software de análisis de datos gana importancia y se vuelve más poderoso, las empresas se vuelven más
capaces de identificar patrones de comportamiento anormal.
La detección de fraude, sin embargo, debe lidiar con la posibilidad de identificar erróneamente el
fraude. Permitir que los reclamos falsos pasen por el sistema daña las ganancias de la compañía y
aumenta las primas. Sin embargo, obligar a los reclamantes genuinos a pasar por el proceso de detección
de fraude aumenta los costos y perjudica la satisfacción del cliente. Como estas restricciones son
diametralmente opuestas, cualquier intento de frenar una tenderá a aumentar la otra.

9Deloitte (2012), Reducción del fraude de reclamos: un problema transversal de la industria. http://deloitte.wsj.com/cfo/
files/ 2012/10/reducing_claims_fraud.pdf (consultado el 17 de agosto de 2018).
Machine Translated by Google

856 D. Agrawal y S. Mamidipudi

7 El negocio de Ideal

Ideal Insurance Inc. es uno de los mayores proveedores de seguros de salud en el


Estados Unidos y otras naciones desarrolladas. Tiene planes de expansión para entrar en mercados emergentes
mercados donde la penetración es mucho menor. La mayor parte del trabajo de suscripción se realiza
en la oficina de EE. UU. o el Reino Unido. Cuenta con un amplio equipo de tramitación de siniestros ubicado en todas las
países de presencia. Tiene back office en otros países como India, Singapur,
y Tailandia. Con la creciente competencia en el mercado, la empresa ha
tenía que centrarse en la liquidación rápida, el índice de liquidación de reclamaciones y el margen de beneficio.
La compañía ha estado invirtiendo una cantidad significativa en la automatización del reclamo.
proceso de liquidación con el fin de aumentar la tasa de satisfacción del cliente, reducir la duración
del ciclo de liquidación, y reducir la pérdida asociada con la fuga de siniestros debido a
posibles reclamos de fraude. La tabla 25.1 muestra algunas de las medidas clave de desempeño que
Sebastian estaba rastreando. Aunque Ideal ofrece primas competitivas y mantiene una
alto índice de liquidación de reclamos y bajo índice de repudio, su puntaje neto de promotor (NPS)—
una métrica de satisfacción del cliente—es significativamente más baja que el promedio de la industria.
La empresa cuenta con un sistema automatizado que revisa la información básica de todos los reclamos
con base en reglas preespecificadas establecidas por expertos. Las normas
se utilizan para clasificar las reclamaciones en tres categorías, a saber, Genuino, Discutido,
e investigar. Esta información se transmite al equipo de liquidación de reclamaciones para que actúe
más lejos. Los reclamos clasificados como “Genuino” se procesan con alta prioridad con
un tiempo de respuesta de liquidación (TAT) de 7 días hábiles. Las reclamaciones clasificadas como
"Discutir" se envían al equipo de recopilación de datos para recopilar más y
información granular sobre las reclamaciones. Tales reclamos generalmente toman un promedio de
hasta 30 días. Los reclamos clasificados como "Investigar" se envían al reclamo
equipo de investigación para una investigación exhaustiva de las partes interesadas. Estas afirmaciones suelen
tomar entre 1 y 2 meses o, a veces, incluso más de 3 meses para la liquidación
o cierre basado en los resultados de las investigaciones o si los reclamos son litigados.
Algunos clientes presentan demandas judiciales en caso de reclamos rechazados, y luego es el
responsabilidad de la empresa de probar que la reclamación es fraudulenta. Evidencia anecdótica sugerida
que el experimentado personal de liquidación de reclamos de Ideal no confiaba completamente en el

Cuadro 25.1 Desempeño ideal frente a la industria

Parámetro Seguro Ideala Promedio de la industriaa

Ingresos por póliza 70 100

Contribución de las operaciones básicas 20% 35%

Contribución de las inversiones 80% sesenta y cinco%

Ratio de liquidación de siniestros 92% 87%

Ratio de rechazo de reclamaciones 2,5% 4%

Periodo medio de liquidación 72 días 73 30–45 días

Puntaje neto del promotor (de 100) 86

aEscalado a 100 si no se proporciona una métrica


Machine Translated by Google

25 Caso de Estudio: Seguro Ideal 857

sistema actual. La sensación era que estaba algo limitado debido a un “enfoque burocrático”.
Hicieron sus propios controles, a menudo descubriendo fraudes de reclamos identificados
como Genuinos por el sistema actual. Rachel discutió lo mismo con el personal de mayor rango
para comprender la causa raíz. El argumento dado fue que "la madurez de los datos es vital
para descubrir un patrón de fraude y, por lo tanto, volvemos a analizar los reclamos (incluso si
se identifican como Genuinos) cuando se ingresa más información en la base de datos".
Además, su experiencia sugirió que es difícil descubrir el fraude suave profesional que
generalmente se identifica solo mediante un análisis exhaustivo o si hay alguna pista de una
parte interesada externa o al realizar un análisis de red de otros reclamos de fraude.
Rachel quería comentarios sobre los procesos actuales y contrató a un consultor
independiente para examinar 100ÿ000 reclamos de los datos históricos de reclamos. El
consultor, con la ayuda de un equipo de investigación, realizó un examen exhaustivo de las
reclamaciones proporcionadas y las clasificó como fraude o no fraude. De los 100 000 reclamos
investigados por el consultor, identificó 21 692 como reclamos potencialmente fraudulentos y
78 308 como reclamos genuinos. La comparación de estos resultados con los registros de
liquidación anteriores de 100 000 reclamaciones mostró que más del 90 % de estas
reclamaciones fraudulentas no fueron identificadas por el sistema automatizado existente.
Los reclamos de más de 6657 clientes se retrasaron debido al proceso de investigación
sugerido por el sistema actual. El costo promedio de un reclamo es de alrededor de US$5000
mientras que el costo de una investigación es de aproximadamente US$500. El costo de la
investigación se dividió en partes iguales entre el costo de la mano de obra interna y el costo
externo de obtener información específica sobre la reclamación. Por lo tanto, de manera
conservadora, Rachel estimó que investigar un reclamo genuino conduce a una pérdida de
US$500 y aumenta la insatisfacción del cliente debido a la demora en la liquidación. También
reduce la eficiencia del equipo de investigación. La liquidación de una posible reclamación
fraudulenta conduce a una pérdida de US$5000 en promedio y afecta negativamente el precio
de la prima y la eficacia del equipo de suscripción.
El equipo de gestión discutió el informe con su equipo de liquidación de reclamaciones y
buscó su consejo sobre cómo mejorar los procesos. Se recopilaron varias sugerencias
excelentes, como monitorear cada etapa del proceso en lugar de todo el proceso, marcar
problemas que el sistema actual pasa por alto y usar datos de reclamos similares anteriores
para verificar el reclamo. El equipo de liquidación de reclamaciones también sugirió contratar a
un profesional de análisis para crear un modelo predictivo de fraude utilizando técnicas
avanzadas de ciencia de datos. Explicaron que esto no solo ayudaría a identificar correctamente
posibles reclamos de fraude, sino también a optimizar los esfuerzos de los equipos de
investigación y liquidación de reclamos. También mencionaron que su competidor más cercano
había establecido recientemente un departamento de análisis, que estaba ayudando en varios
aspectos del negocio, como la realización de análisis de fraude, la predicción de reclamos, la
revisión de las partes interesadas en la lista negra, la suscripción efectiva y el desarrollo de
productos personalizados.
Machine Translated by Google

858 D. Agrawal y S. Mamidipudi

Rachel recurrió a Raghavan, un empleado reciente que se había graduado con una maestría
en análisis de negocios de una famosa escuela en el centro sur de la India. Raghavan tenía
experiencia en análisis específicamente en el dominio de seguros. Se le encargó contratar
profesionales y supervisar el proyecto: construir un modelo predictivo para identificar posibles
reclamos fraudulentos a partir de los reclamos de seguros de salud informados. Esta solución,
sintieron Rachel y Sebastian, ayudará no solo a reducir las pérdidas por fraude, sino también a
mejorar la eficiencia y la satisfacción del cliente y reducir el ciclo de liquidación de reclamaciones.

7.1 Detalles del proyecto

Los pensamientos iniciales de Raghavan fueron ofrecer una solución analítica robusta que
mejoraría el proceso de identificación de reclamos fraudulentos en el sitio de Ideal sin invertir
mucho tiempo y esfuerzo en el campo en la etapa inicial. Los posibles reclamos de fraude se
pueden investigar de manera más rigurosa, mientras que los reclamos genuinos se pueden resolver
rápidamente al mismo tiempo. Cooptó a Caroline Gladys, quien también se había graduado
recientemente en análisis de una de las principales escuelas de negocios, que había estado
trabajando con el equipo de inteligencia comercial y ahora quería cambiarse al equipo de análisis
avanzado. Raghavan le brindó la oportunidad de trabajar en esta prueba de concepto y brindar
una solución.

7.2 Descripción de datos

Caroline, gracias a su experiencia en Ideal Insurance , creó rápidamente un conjunto de datos de


muestra a nivel de transacción para 100ÿ000 reclamos de seguros de salud. Cada observación
tiene hasta 33 parámetros relacionados con el reclamo, como detalles de la póliza, si hubo un
administrador externo, detalles demográficos y detalles del reclamo. Los detalles completos se
muestran en el Apéndice 1. Las tablas del Apéndice 2 proporcionan la codificación de variables
tales como tipo de producto, tipo de póliza y modo de pago.
Los datos de las tablas son recopilados por el sistema de procesamiento de transacciones (1)
cuando se emite la póliza, (2) cuando se registra un reclamo y (3) mientras se realiza un
seguimiento de su progreso. El sistema ERP hizo un trabajo bastante bueno al recopilar los datos necesarios.
Machine Translated by Google

25 Caso de Estudio: Seguro Ideal 859

Tabla 25.2 Resumen de


Fraude Número de reclamos Proporción (%)
reclamos de fraude identificados (por
No 78.308 78.3
experto)
Sí 21.692 21.7
Total 100.000

Tabla 25.3 Resumen de la recomendación del sistema actual

recomendación del sistema Número de reclamos Proporción (%)


Genuino (Verde) 91,986 92.0
Conversar 6560 6.6

Investigar 1454 1.5


Total 100,000

El software personalizado ayudó a reunir la información en tablas y creó informes


para su posterior procesamiento. Ideal había invertido mucho en la automatización de transacciones
en el pasado y buscaba cosechar dividendos del sistema de informes.
Caroline también obtuvo la clasificación de reclamos como Fraude/No Fraude examinado
por el experto que había investigado 100.000 reclamaciones. La clasificación se muestra
en la Tabla 25.2. Además, los datos de la Tabla 25.3 proporcionan la clasificación de
las 100.000 reclamaciones como Genuinas, Discutidas e Investigadas de acuerdo con el actual
sistema automático.
Caroline reunió todos los datos en un conjunto de datos (idea_insurance.csv; consulte
el sitio web) y también las definiciones detalladas de las variables disponibles y los datos
descripción requerida para decodificar las categorías tales como tipo de producto, tipo de póliza y
tipo de pago de reclamación.
Habiendo recopilado toda esta información, Caroline se preguntaba cómo empezar
el analisis. ¿Fue el análisis predictivo superior al sistema experto utilizado por Ideal?
¿Los expertos que crearon el sistema, así como los altos funcionarios de liquidación
aceptar fácilmente los cambios? También estaba preocupada por la creación continua de reglas.
y mantenimiento del sistema. Eso costaría una inversión significativa en personas y
tecnología, por no hablar de la formación, la obtención de datos, etc. Ella tendría que claramente
convencer a la dirección de que valía la pena llevar a cabo este proyecto.

Material complementario electrónico

Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están disponibles en
www.allaboutanalytics.net.

• Datos 25.1: ideal_seguro.csv


Machine Translated by Google

860 D. Agrawal y S. Mamidipudi

Apéndice 1

No Señor. Nombre de la variable Descripción


1 tpa ID de administrador de terceros
2 policy_ref Número de referencia de la póliza
3 miembro_id ID de miembro asegurado

4 sexo Sexo del afiliado

5 fecha de nacimiento Fecha de nacimiento del asegurado


6 policy_start_dt Fecha de inicio de la póliza
7 policy_end_dt Fecha de vencimiento de la póliza
8 prod_code Tipo de producto
9 policy_type Tipo de póliza
10 sum_insured Suma máxima asegurada a disposición del tomador
11 Claim_ref Claim_dt Número de referencia de la reclamación

12 hospital_id Fecha de notificación del siniestro a la aseguradora

13 hos_zipcode Identificación única otorgada al hospital


14 admit_dt dt alta_dt código postal del hospital
15 pago_dt Claim_amt Fecha de ingreso en el hospital
dieciséis
cambio_enfermería Fecha de alta del hospital
17 cambio_cirugía Fecha de liquidación de la reclamación
18 cons_fee Cantidad reclamada por el reclamante
19 cambio_prueba Gastos de enfermería incurridos durante el tratamiento
20 costo_farmacia Gastos de cirugía incurridos durante el tratamiento
21 otro_cambio Cargos por consultas médicas incurridos durante el tratamiento
22 pre_hosp_exp Investigación cargos de pruebas médicas prescritas por el médico
23 post_hosp_exp Medicamentos consumidos durante el tratamiento
24 otro_cambio_no_hosp Cualquier otro cargo que no se pueda clasificar en los anteriores
25 Otros cargos no Importe reclamado por tratamiento prehospitalario
26 hospitalarios Importe reclamado por tratamiento post-hospitalización
27 (lavandería, canales de TV pagados, huésped
comida y bebida, etc)

28 copago Copago o franquicia si corresponde


29 liquidar_amt Importe final pagado al asegurado o al servicio médico
proveedor en nombre del asegurado
30 tipo de pago El modo de pago (ver descripción)
31 recomendación Si el hospital está conectado a la red, S/N
32 hosp_type Clasificado como Verde/Discutir/Investigar por el reclamo
equipo de asentamiento

33 fraude Clasificado como Fraude/No Fraude por un consultor experto

Nota: Todos los montos están en US$ y las fechas en formato d-mmm-aaaa. Los datos de identidad como
el número de póliza, el número de reclamo y los detalles del hospital están enmascarados para mantener la privacidad de los datos.
Machine Translated by Google

25 Caso de Estudio: Seguro Ideal 861

Apéndice 2

código_prod Tipo de producto


A Política básica
B plan de efectivo hospitalario
C Cobertura para pacientes ambulatorios

D Política de salud universal


Y Póliza de microseguros
F Póliza de paquete (que cubre más de un tipo de salud arriba)
GRAMO
Póliza híbrida (que cubre además de la salud también)
O Cualquier otro tipo de producto

tipo_política Detalles del tipo de póliza


A Individual
B flotador individual
C Grupo
D flotador de grupo
Y Declaración
F Declaración flotante
GRAMO
Declaración con seguro colectivo
H Declaración flotante con seguro colectivo
O Cualquier otro tipo de cobertura

tipo de pago Descripción del tipo de pago de reclamación


A Liquidación sin efectivo
B Reembolso al reclamante
C Beneficio en efectivo

D Per diem basis


Y Base de suma global
F Cashless al asegurado
Machine Translated by Google

862 D. Agrawal y S. Mamidipudi

Referencias

Fundación AIMA. (2010). Un estudio sobre el fraude y el abuso en la atención de la salud: implicaciones para los profesionales
manejo de la información de salud. Recuperado el 15 de septiembre de 2018, de https://www. ahimafoundation.org/
downloads/pdfs/Fraud%20and%20Abuse%20-%20final%2011-4-10.pdf.
Bagde, PR y Chaudhary, MS (2016). Análisis del mecanismo de detección de fraude en salud
seguro utilizando técnicas de minería de datos estadísticos. Revista Internacional de Ciencias de la Computación
y Tecnologías de la Información, 7(2), 925–927.
LexisNexis. (2011). Doblando la curva de costos: control de fraude empresarial impulsado por análisis. Recuperado
15 de septiembre de 2018, de http://lexisnexis.com/risk/downloads/idm/bending-the-cost-curve analytic-driven-enterprise-
fraud-control.pdf.
Autoridad de Prevención del Fraude de Seguros de Pensilvania (PAIFPA). (2017). Fraude de seguros de salud. Recuperado
15 de septiembre de 2018, de http://www.helpstopfraud.org/Types-of-Insurance-Fraud/Health.
Singhal S, Finn P, Schneider T, Schaudel F, Bruce D y Dash P (2016). Global
pagadores privados: una industria de crecimiento de un billón de euros. Nueva York: McKinsey and Company Obtenido
el 15 de septiembre de 2018 de http://healthcare.mckinsey.com/sites/default/files/
Global%20private%20payors%20%28updated%29.pdf.
Machine Translated by Google

capitulo 26
Estudio de caso: Aerolínea AAA

Deepak Agrawal, Hema Sri Sai Kollipara y Soumithri Mamidipudi

1. Introducción

Steven Thrush, director de ingresos de AAA Airline Corp, estaba preocupado por su empresa. La
industria de las aerolíneas, impulsada por la fuerte demanda y los bajos precios del petróleo, había
experimentado un auge durante los últimos años. Sin embargo, la creciente competencia había
comenzado a presionar las operaciones de AAA. Los sentimientos cambiantes del mercado y un
mercado cada vez más complicado habían hecho que viajar a la mayoría de los destinos en los EE.
UU. dependiera para la mayoría de los clientes de una serie de factores contrastantes.
Además, el auge de las aerolíneas de bajo costo y los sitios web de comparación de boletos en
línea ejercieron una enorme presión a la baja sobre los precios de los boletos, reduciendo los
márgenes de las empresas y obligándolas a investigar nuevas vías de crecimiento para mantener su
rentabilidad.
Thrush acababa de regresar de una conferencia centrada en la aplicación de la ciencia y el análisis
de datos en la industria del transporte de pasajeros. En la conferencia, investigadores y profesionales
hablaron sobre el rápido avance de los grandes datos y su poder para comprender y predecir el
comportamiento de los clientes. Thrush captó que los grandes datos

Material complementario electrónico La versión en línea de este capítulo (https://doi.org/10.1007/


978-3-319-68837-4_26 ) contiene material complementario, que está disponible para usuarios autorizados.

El estudio de caso está escrito por Agrawal, Deepak; Kollipara, Hemasri; y Mamidipudi, Soumithri bajo
la dirección del profesor Sridhar Seshadri. Nos gustaría agradecer a Coldrena et al. (2003) y Garrow
(2010) quienes son la inspiración para desarrollar este estudio de caso.

D. Agrawal ( ) · HSS Kollipara · S. Mamidipudi Indian


School of Business, Hyderabad, Telangana, India Correo
electrónico: a.deepak@outlook.com

© Springer Nature Switzerland AG 2019 B. 863


Pochiraju, S. Seshadri (eds.), Essentials of Business Analytics, International Series
in Operations Research & Management Science 264, https://doi.org/
10.1007/978-3-319-68837 -4_26
Machine Translated by Google

864 D.Agrawal et al.

podría ayudar a su empresa a avanzar hacia nuevos modelos que tuvieran en cuenta una vertiginosa
gama de factores para tomar mejores decisiones.
Cuando Linda James, la jefa de planificación de rutas de la compañía, se acercó a él para preguntarle
sobre la viabilidad de lanzar un vuelo Nueva York-Boston, Thrush pensó inmediatamente en emplear los
modelos de elección del cliente de los que había oído hablar para comprender la propuesta. Le pidió a su
equipo de datos que usara la base de datos de la compañía de sus clientes para comprender la cuestión
de qué tan bien recibido sería un nuevo vuelo de Nueva York a Boston. Sabía que para responder a esa
pregunta, el equipo también tendría que investigar muchos más problemas, como qué tipo de fijación de
precios sería más eficiente, qué tipo de avión sería más eficiente y cuál sería la mejor manera de llegar a
nuevos clientes que de otro modo no podrían. volar AAA.

Thrush sabía que decidirse por el enfoque correcto del problema sería la mejor manera de brindar el
mejor servicio posible a los clientes y maximizar las ganancias de su empresa.

2 Corporación aérea AAA

AAA Airline Corp se fundó en 2005, en medio de un cambio radical en la industria de viajes.
A medida que crecía la penetración de Internet y los sitios web de comparación de precios se volvían
cada vez más populares, AAA vio una oportunidad para que un operador de bajo costo capitalizara el
mayor enfoque de los clientes en los precios.
Al igual que muchos operadores fundados a raíz del auge en línea, la filosofía de AAA era competir
únicamente en función del precio. En lugar de enfocarse en vuelos y necesidades regionales específicas,
la filosofía de AAA era identificar y llenar los vacíos en el mercado y, al hacerlo, crear un nicho para sí
misma. Si bien la mayoría de sus vuelos operaban en un sistema hub-and-spoke desde el Aeropuerto
Logan de Boston, la compañía no era reacia a operar rutas de punto a punto que son el sello distintivo de
las aerolíneas de bajo costo en todo el mundo.
El método inicial de AAA para identificar qué rutas eran rentables se basaba en una combinación de
investigación de mercado e intuición. El equipo de administración original de AAA estaba formado
principalmente por veteranos de la industria provenientes de Massachusetts, y todos estaban bien
familiarizados con las necesidades de los clientes locales. La profunda experiencia de AAA en su mercado
inicial la ayudó a sobrevivir donde muchos de sus rivales fracasaron, lo que la impulsó a expandir su
oferta y planificar un crecimiento más ambicioso.
Para 2016, el tamaño de la flota de AAA había aumentado considerablemente, lo que provocó la
preocupación de Thrush con respecto a sus próximos pasos. La historia de AAA significaba que tenía
acceso a una gran base de datos de sus propios clientes, que hasta ahora había estado utilizando para
pronosticar la demanda futura y los patrones de tráfico. Sin embargo, Thrush deseaba saber qué nuevas
herramientas se podrían utilizar y qué conjuntos de datos se podrían encontrar para analizar el mercado
y ayudar a la empresa a avanzar en la nueva era de los viajes aéreos comerciales.
Machine Translated by Google

26 Estudio de caso: Aerolínea AAA 865

3 Historia y contexto actual de la industria aeronáutica de EE. UU.

La industria de las aerolíneas de EE. UU. tenía una capacidad de más de 1,1 millones de millas de
asientos disponibles (contando tanto para vuelos nacionales como internacionales) en 2016 y es la
geografía más grande para viajes aéreos en todo el mundo. El sector suministra casi 3500 millas de
asientos disponibles, una medida de la capacidad de carga, por persona en América del Norte, más del
doble que la industria en Europa.
Los efectos de la Ley de Desregulación de Aerolíneas de 1978 todavía se sienten hoy.
Antes de la Ley, las compañías aéreas estadounidenses estaban estrictamente restringidas por la Junta
de Aeronáutica Civil, que era responsable de aprobar nuevas rutas y precios.
La Junta podría otorgar inmunidad antimonopolio a los acuerdos entre transportistas si considerara que
es de interés público. Esto dio lugar a una situación en la que las aerolíneas competían únicamente en
el servicio a bordo y en los horarios y la frecuencia de los vuelos.
Los transportistas heredados (aerolíneas fundadas antes de la desregulación) pueden ofrecer un
mejor servicio y beneficios, como esquemas de lealtad, como resultado del entorno en el que operaban
cuando se fundaron. Las aerolíneas como estas tienden a tener aviones más grandes y operan en un
sistema radial, lo que significa que sus vuelos se basan en gran medida en un solo aeropuerto.

Después de que se desreguló la industria, las aerolíneas quedaron libres para decidir qué rutas
volar y qué precios ofrecer. Nuevas aerolíneas de bajo costo como AAA ingresaron al mercado y
cambiaron el paradigma por el cual funcionaban las empresas de la industria, lo que obligó a las
aerolíneas de servicio completo a adaptarse. Desde 1978, más de 100 aerolíneas se han declarado en
bancarrota1, lo que subraya la naturaleza tumultuosa de la industria.
La proliferación de Internet no fue menos perturbadora para las industrias de las aerolíneas y los
viajes. Los clientes pudieron más que nunca comparar vuelos, y su capacidad para discriminar entre
una multitud de opciones con solo tocar una tecla dejó a las empresas de todo el mundo luchando por
mantenerse al día. Esto significó que empresas como AAA se vieron obligadas a utilizar modelos cada
vez más complicados en sus intentos de comprender y predecir la demanda de los clientes y, al mismo
tiempo, realizar un seguimiento de sus costos.
Thrush sabía que el sistema de radios y ejes de AAA ayudaba a mantener bajos los costos y
permitía que la aerolínea transportara una gran cantidad de pasajeros. Sin embargo, también sabía que
los aeropuertos centrales se veían especialmente afectados por el aumento del número de pasajeros
que los utilizaban, lo que significaba que la presión sobre su personal y sus operaciones aumentaba a
diario. El factor de ocupación nacional de la industria, la fracción de asientos disponibles que se
vendieron, aumentó del 66 % en 1995 al 85 % en 2016.2 Las ASM nacionales aumentaron un 29 % en
el mismo período a 794 282. Sin embargo, el tamaño y la capacidad de los aeropuertos centrales no
habían aumentado en consonancia con este crecimiento explosivo de pasajeros debido a restricciones
financieras, ambientales y de propiedad.

1http://airlines.org/dataset/us-bankruptcies-and-services-cessations/ (consultado el 21 de julio de 2018). 2http://


web.mit.edu/airlinedata/www/2016%2012%20Month%20Documents/ Traffic%20and%20Capacity/Domestic/
Domestic%20Load%20Factor%20.htm, Consultado el 15 de julio de 2017.
Machine Translated by Google

866 D.Agrawal et al.

Hasta ahora, la industria de las aerolíneas había abordado el problema de poder suministrar a
sus clientes los vuelos que necesitaban buscando alianzas estratégicas y acuerdos de código
compartido. Las aerolíneas que formaban parte de la misma alianza acordaron unir sus recursos
acordando estar ubicadas en las mismas terminales en los aeropuertos centrales, operar vuelos bajo
la bandera de más de una aerolínea y ofrecer privilegios a los miembros de los programas de lealtad
de otros miembros. Al hacerlo, las empresas se aseguraron de no tener que operar y volar todas las
rutas que demandaban sus clientes.
“Necesitamos considerar si tiene sentido abandonar nuestro sistema de radios y ejes. Nuestros
rivales que usan rutas de punto a punto se están comiendo la demanda, y estoy seguro de que los
pasajeros están notando el tipo de colas que se están acumulando en los aeropuertos más grandes”,
dijo James a Thrush.

4 fuentes de datos de la industria

La industria de las aerolíneas utiliza tres tipos principales de datos para interpretar el entorno en el
que opera: datos de demanda, como reservas y emisión de boletos; suministrar datos, como horarios;
y datos operativos, como retrasos, cancelaciones y registros. Thrush descubrió que los científicos
de datos usaban estas bases de datos para descubrir las preferencias de los viajeros y comprender
su comportamiento.
Los datos de demanda en la industria provienen de las bases de datos de reservas y emisión de
boletos, y detallan una gran cantidad de factores que afectan a los clientes al reservar vuelos, y
tienen en cuenta exactamente qué información está disponible para los clientes en el momento de
su compra. Por lo general, se puede acceder a los datos de suministro para que los clientes puedan
identificar los vuelos, pero las principales fuentes de la industria son los horarios y las guías
proporcionadas por la Guía oficial de aerolíneas (OAG). Estas guías recopilan información que
incluye el origen, el destino, la duración del viaje y el kilometraje para vuelos individuales a nivel
mundial.3 Los datos sobre el estado operativo de los vuelos generalmente están disponibles de
forma gratuita, aunque a menudo no son granulares. AAA, al igual que sus competidores, mantuvo
registros detallados de datos operativos para detectar patrones de ineficiencia. Además, el
Departamento de Transporte de EE. UU. mantiene un banco de datos que contiene el 10% de todos
los boletos aéreos en el país.4 El banco de datos proporciona información detallada sobre boletos,
itinerarios y viajes y está disponible gratuitamente para fines de investigación.

3https://www.oag.com/airline-schedules, consultado el 15 de julio de


2017. 4https://www.trastats.bts.gov/Tables.asp?DB_ID=125&DB_Name=Airline%20Origin
%20and%20Destination%20Survey%20%28DB1B%29&DB_Short_Name=Origin%20and
%20Destination%20Survey (consultado el 24 de junio de 2018).
Machine Translated by Google

26 Estudio de caso: Aerolínea AAA 867

5 Reunión con John Heavens, Consultor

Thrush se reunió con John Heavens, un científico de datos y consultor de viajes de aerolíneas, para
investigar más sobre la posibilidad de utilizar modelos de datos avanzados para comprender y
pronosticar el comportamiento de los clientes.
Heavens le dijo a Thrush que los viejos modelos probabilísticos/de series de tiempo de la
industria se habían vuelto demasiado obsoletos. Los modelos de elección de decisiones logit
multinomiales fueron las herramientas principales de la industria para comprender la demanda de
los consumidores. Estos modelos desglosaron los itinerarios asignando valores de utilidad a cada
vuelo e intentando determinar qué factores eran más valiosos para los clientes. Al observar los
factores que afectaron las elecciones de los clientes para cada par de origen-destino, Thrush podría
predecir con confianza hacia dónde viajarían los clientes a continuación.
Sin embargo, Heavens también le dio a Thrush una tercera opción. “Incluso los modelos de
decisión-elección se están volviendo obsoletos y ahora nos estamos moviendo en nuevas
direcciones”, dijo. El consultor señaló que los modelos MNL de la industria eran esencialmente de
naturaleza lineal y no podían tratar con factores que estaban correlacionados. Además, su rígida
necesidad de entrada de datos significaba que no podían predecir la demanda de nuevas rutas y
nuevos mercados.
En cambio, Heavens apuntó a la investigación pionera en inteligencia artificial como la
vanguardia de una variedad de nuevas herramientas tecnológicas que podrían usarse para predecir
la demanda futura. Técnicas como los bosques aleatorios, las máquinas potenciadoras de gradientes
y las redes neuronales artificiales pudieron producir mejores resultados fuera de la muestra sin
sacrificar la bondad de ajuste dentro de la muestra. Si bien estas técnicas carecían de la legibilidad
y la simplicidad de los modelos MNL, finalmente fueron más eficientes.

6 Reunión con Veerabhadram, el científico de datos

Después de que le presentaran los modelos, Thrush supo que tenía que tomar una decisión difícil.
Pasar a nuevos métodos de análisis tenía claras ventajas, pero la importante inversión en tiempo y
esfuerzo debía justificarse. La capacitación y contratación de empleados y la realización de análisis
continuos serían una carga para los recursos de la empresa.
Thrush miró a Hari Veerabhadram, el miembro más nuevo de su equipo, para que le explicara
exactamente qué modelos son los más adecuados para comprender las preferencias de los clientes.
Hari sabía que tenía que explicar cómo funcionaban los modelos. Empezó a pensar qué variables
de los modelos usaría y cuáles serían las más importantes. Sabía que sería crucial explicar por qué
determinadas variables eran las más importantes y qué modelo predecía mejor las preferencias de
los clientes.
A la gerencia siempre le gusta la prueba visual del análisis. Por lo tanto, sintió que tendría que
explicar y comparar los modelos tanto estadísticamente (error cuadrático medio, varianza porcentual
explicada por el modelo, etc.) como a través de métodos de visualización (ajuste previsto frente a
real, entrenamiento frente a resultados de validación, etc.) .
Machine Translated by Google

868 D.Agrawal et al.

Tabla 26.1 Características del itinerario (descripción de datos)

S. no. Nombre de la variable Descripción


1 ODPar_ID Identificador de par origen-destino
2 Itinerario_ID Identificador de itinerario dentro del par O–D
3 Aerolínea Identificador de la línea aérea (A, B, ..., H y todos los demás)
Aerolínea AAA se puede identificar como Aerolínea = "A"
4 Tipo de aeronave Tipo de aeronave en el itinerario: hélice, jet, línea principal
5 DoW Día de la semana en que vuela el itinerario
6 Nivel de servicio Nivel de servicio del itinerario: sin escalas, directo, de conexión única,
doble conexión
7 Mejor_nivel_de_servicio Mejor nivel de servicio disponible para itinerario en el par O–D
Directo > Directo > Conexión simple > Conexión doble
8 Hora_Salida Hora de salida en origen (HH:MM)
9 POS_Presencia Presencia en el punto de venta de la aerolínea en origen y destino
aeropuertos Mide el número de vuelos que salen de
aeropuertos

10 Código_compartido Ya sea que el itinerario se opere o no como un código compartido con


otro transportista
11 Kilometraje Distancia recorrida por el itinerario (convertida en ratio)
12 Que hacer
Tarifa media del itinerario (convertida en ratio)
13 Pass_Cnt Número de pasajeros que eligieron itinerario
14 No_de_itinerarios Número de itinerarios disponibles para el par OD
15 Pass_Cnt_ODPair Número de pasajeros en par OD (Tamaño del mercado)
dieciséis Time_Bucket Cubos de horas del día correspondientes a la salida
tiempo de la primera etapa del itinerario
5 = (4 am–5:59 pm); 6 = 6–6:59; ... ;
22 = 22:00–23:59
No hay salidas desde las 12 de la noche hasta las 4 de la mañana.

17 Maniquíes de aerolíneas Si el itinerario es con la Aerolínea XX


18 Variables ficticias de nivel de servicio Si el itinerario tiene un nivel de servicio específico
19 Dummies de cubo de tiempo Si la hora de salida del itinerario cae en el tiempo
cubeta XX
20 Variables ficticias de tipo de aeronave Variables ficticias para diferentes tipos de aeronaves para cada
itinerario

Zorzal le dijo a Veerabhadram que comenzara mirando los itinerarios en los que AAA
se estaba quedando atrás de sus competidores. ¿Había patrones? ¿Qué mercados hicieron
¿AAA se encuentra fuera de los tres primeros? ¿AAA necesitaba hacer algo diferente? Veer abhadram sabía
que tendría que recomendar cambios en las operaciones de AAA
y comenzó a pensar en cómo usar los datos a su disposición.
Veerabhadram comenzó a explorar los datos disponibles (consulte la Tabla 26.1 para obtener más detalles)
procedente de la base de datos interna de la empresa y de proveedores de datos de terceros. Él
notó que los datos de ventas están en el nivel de itinerario para múltiples aerolíneas, pero no en
nivel de cliente o transaccional. Los datos consisten en 1885 origen-destino distinto
(OD) pares con todos los itinerarios posibles en las rutas respectivas (par OD). Cada fila
es un itinerario para un par de OD dado y proporciona información adicional como
Machine Translated by Google

26 Estudio de caso: Aerolínea AAA 869

la identidad de la aerolínea, cuántos pasajeros eligieron ese itinerario, cuál fue


el tipo de avión ofrecido, día y hora de salida, nivel de servicio, mejor nivel de servicio
disponible en esa ruta, kilometraje, tarifa promedio, etc. Por ejemplo, digamos, el par OD
“5” representa la ruta de Nueva York a Los Ángeles, y Aerolínea = “A” representa todas
los itinerarios ofrecidos por AAA Airline. Elija el ID de itinerario "3". Este itinerario ofrece una
Servicio Small Propeller en la ruta como opción de conexión única con salida a las 7 a. m.
de Nueva York. Single connect es el mejor servicio posible en esta ruta en todos
las aerolíneas que prestan servicio a ese par OD.

Las estadísticas resumidas básicas (Tabla 26.2) ayudaron a Veerabhadram a comprender


la variabilidad en los datos.5 Observó que AAA Airline es una de las principales
aerolíneas de alto rendimiento que conectan un número significativo de ciudades a través de rutas únicas y
itinerarios de doble conexión. También significa que incluso un pequeño cambio en la ruta puede tener

Cuadro 26.2 Estadísticas resumidas

Estadísticas resumidas básicas


Nombre de la variable Distinto Obs Media Mediana Mínimo Máximo

ODPar_ID 1885 NA NA 1 1885

Itinario_ID 82,892 78 63 2 311

POS_Presencia QUE 10 7 0 100

Código_compartido QUE QUE 0 0 1

Kilometraje QUE 112 109 100 153

Que hacer QUE 99 100 10 471

Pass_Cnt QUE 1.7 0 0 534

Tamaño del mercado utilizando Pass_Cnt NA 212 52 1 3828

Cuota de mercado de las aerolíneas

Nombre de la variable Itinerarios totales Proporción (%)


Aerolínea A 18.234 22

Aerolínea B 11.907 14

Aerolínea C 4463 5

Aerolínea D 12.593 15

Aerolínea E 13.849 dieciséis

Aerolínea F 3185 4

Aerolínea G 12,226 15

Aerolínea H 5231 6

Aerolínea otros 1564 2

Opciones de vuelo que ofrecen todas las aerolíneas


Nombre de la variable Itinerarios totales Proporción (%)

Sin escalas 450 1

Directo 454 1

Conexión única 35.155 42

Conexión doble 46.833 57

5Consulte el sitio web para descargar los datos (versión csv y excel).
Machine Translated by Google

870 D.Agrawal et al.

un gran impacto en la programación y la asignación de recursos. Veerabhadram se preguntó si un mayor


análisis y una mejor visualización podrían ayudar a representar la situación actual de manera significativa
para los tomadores de decisiones.
“Cambiar el horario de nuestros vuelos plantea serios desafíos, Steven. Es mejor mantenerlos iguales
para no confundir a los clientes y complicar nuestra logística”, dijo James. Ahora, Veerabhadram comenzó
a pensar en cómo mejorar el desempeño de AAA sin cambiar el cronograma.

La segunda prioridad de Thrush fue comprender qué itinerarios tienen vacíos que AAA podría llenar.
“Nuestro negocio se basó en volar entre lugares que nadie sabía que necesitaban más vuelos. ¿Adónde
crees que tenemos que ir ahora? le preguntó a Veerabhadram.

Thrush le dijo que la flota de AAA actualmente consta de 120 hélices, 40 jets y 100 aviones de línea
principal, todos los cuales estaban en servicio. Veerabhadram decidió que elegiría las cinco mejores rutas
sin servicio para recomendárselas a Zorzal. También comenzó a considerar qué rutas AAA tendría que
descontinuar para comenzar nuevos vuelos.
¡Al final de estas discusiones, el cuaderno de Veerabhadram estaba lleno! Él decidió
para empezar con las siguientes preguntas:

• Ajustar un modelo de elección del cliente a los datos proporcionados y analizar si las características, la
complejidad del modelo y el tamaño de los datos fueron adecuados para responder a las preguntas
comerciales.
• Identifique las variables de importancia y asegúrese de que tengan un sentido comercial sólido.
Pensó que probaría MNL y otras técnicas. • Identificar las rutas
actualmente sin servicio y recomendar las cinco mejores rutas sin servicio en las que la aerolínea puede
introducir un nuevo itinerario para aumentar los ingresos. • Identificar los pares de OD donde AAA
Airline no se encuentra entre los tres primeros en términos de
cuota de mercado y luego:

– Analizar las ofertas de las tres principales aerolíneas en estos pares de OD.
– Recomendar cambios en las características del itinerario para mejorar la cuota de mercado.
– Sugiera posibles rutas que la aerolínea podría descartar y explique por qué.

Material complementario electrónico

Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están
disponibles en www.allaboutanalytics.net.

• Texto 26.1: Manual de instrucciones de la aerolínea.docx

• Datos 26.1: AAA_Airline_dummy.csv • Datos 26.2:


AAA_Airline_Template.xlsx
Machine Translated by Google

26 Estudio de caso: Aerolínea AAA 871

Referencias

Coldrena, GM, Koppelmana, FS, Kasturirangana, K. y Mukherjee, A. (2003). Modelado de cuotas agregadas de
itinerarios de viajes aéreos: desarrollo del modelo Logit en una importante aerolínea de EE. UU. Revista de
Gestión del Transporte Aéreo, 9, 361–369.
Garrow, LA (2010). Modelado de elección discreta y demanda de viajes aéreos: teoría y aplicaciones.
Nueva York: Routledge.
Machine Translated by Google

capitulo 27
Estudio de caso: Soluciones InfoMedia

Deepak Agrawal, Soumithri Mamidipudi y Sriram Padmanabhan

Hui Zhang acababa de regresar de un taller sobre deportes y análisis de medios. Uno de los
oradores describió la convergencia de los medios y cómo afectó su negocio de transmisión en
un período de tiempo muy corto. Al escuchar a otros mencionar el mismo conjunto de
posibilidades y con su propia experiencia en la industria que cambia rápidamente, Zhang estaba
convencido de que un número cada vez mayor de televidentes, si aún no lo han hecho, "cortarán
el cable" y se mudarán. desde las plataformas de visualización tradicionales. Fue este
pensamiento el que Zhang tenía en el fondo de su mente cuando leyó un informe que predecía
que la audiencia se estaba fragmentando: cada vez más canales especializados estaban
atacando programas y horarios tradicionales. Además, el informe mencionó que la publicidad en
Internet superaría a la televisión y los medios impresos en tamaño y gasto en los próximos 5
años. A Zhang le preocupaba que las nuevas tecnologías amenazaran la posición que su
empresa había construido en el segmento de publicidad televisiva.
Si bien todavía se esperaba que se gastaran millones de dólares en publicidad en la
televisión tradicional y los canales de cable, los cambios en los hábitos de audiencia y la
demografía seguramente cambiarían los presupuestos para dirigirse a diferentes audiencias a
través de canales dedicados. Además, la estrategia de agrupación seguida por las empresas de
televisión por cable permitió a la audiencia navegar rápidamente de un programa a otro. El
cambio en la asignación de recursos de los gastos publicitarios aún no se había producido debido al debate en c

Material complementario electrónico La versión en línea de este capítulo (https://doi.org/10.1007/


978-3-319-68837-4_27) contiene material complementario, que está disponible para usuarios autorizados.

D. Agrawal ( ) · S. Mamidipudi Indian


School of Business, Hyderabad, Telangana, India Correo
electrónico: a.deepak@outlook.com

S. Padmanabhan
Nueva York, NY, EE. UU.

© Springer Nature Switzerland AG 2019 B. 873


Pochiraju, S. Seshadri (eds.), Essentials of Business Analytics, International Series in
Operations Research & Management Science 264, https://doi.org/10.1007/978-3-319-68837
-4_27
Machine Translated by Google

874 D.Agrawal et al.

en temas complicados como la medición de la audiencia, evitar el conteo doble de la audiencia y


medir el "alcance" (consulte la definición a continuación)1 en la publicidad multiplataforma o
multicanal. Estas eran preguntas relevantes incluso para los medios tradicionales, como periódicos,
revistas, radio y publicidad televisiva, incluso sin tener en cuenta la publicidad en Internet.

Zhang pensó que la ciencia de datos podría ayudar a aclarar estas preguntas. ¡Comprender
cómo usar las nuevas herramientas analíticas seguramente sería la clave para la rentabilidad!
Como director de estrategia publicitaria de InfoMedia Solutions, el trabajo de Zhang consistía en
identificar cambios en el mercado y la tecnología. Para comprender las formas en que su empresa
podría usar mejor las herramientas a su disposición, Zhang se acercó a Luke Gershwin, jefe de
análisis de InfoMedia. Le preguntó a Gershwin qué herramientas de análisis de datos podría usar
InfoMedia para dirigirse mejor a la audiencia en la televisión. “Sin una estrategia clara centrada en
la tecnología, temo que cualquier intento de cambiar la forma en que funciona nuestro negocio
publicitario podría fallar”, dijo Zhang.

1 Soluciones InfoMedia

Las operaciones de InfoMedia abarcaron toda la gama de servicios publicitarios y relacionados


con la prensa. La empresa ofrecía una gama completa de servicios: estaban orgullosos de poder
supervisar una campaña publicitaria desde su concepción hasta su finalización.
El papel de Zhang era asesorar a los clientes y guiar a los equipos de marketing, así como
monitorear las campañas publicitarias para asegurarse de que funcionaran sin problemas. A
Zhang no se le pasó por alto la complejidad cada vez mayor y la interconexión de la publicidad, y
destacó a sus clientes que dirigirse a clientes potenciales no sería una propuesta sencilla en el
futuro.
La principal preocupación de Zhang era el "alcance", la métrica que todos los anunciantes
usaban para medir su éxito. Medido como la cantidad de personas en un grupo objetivo que han
estado expuestos al anuncio al menos una vez, el alcance fue la columna vertebral de cada
estrategia de medios diseñada para atraer nuevos clientes e impresionar a los clientes. "El
contexto cambiante de los medios", dijo Gershwin, "tuvo un impacto muy simple y obvio que aún
se estaba desarrollando: las formas en que las empresas de medios podían llegar a sus objetivos
potenciales habían cambiado y se habían multiplicado".
“Hace diez años, nadie hubiera imaginado que ver videos de 10 segundos sería suficiente
para administrar un negocio. Ahora Snapchat vale casi $30 mil millones,2”, le dijo Gershwin a
Zhang. “Tienes que apuntar al mercado correcto, y tienes que hacerlo económicamente”.

1Puede encontrar un glosario de términos comerciales publicitarios en https://www.tubemogul.com/


glossary/ o https://www.bionic-ads.com/2016/03/reach-frequency-ratings-grps-impressions-cpp and-cpm-
in-advertising/ (consultado el 22 de agosto de 2018). Consulte el artículo para conocer el significado de
términos como Alcance, CPM, CPV, Cross-Channel, Daypart, GRP, OTT, PTV y RTB. 2http://
money.cnn.com/2017/03/02/technology/snapchat-ipo/index.html (consultado el 23 de junio de 2018)
Machine Translated by Google

27 Caso de Estudio: Soluciones InfoMedia 875

El primer problema que enfrentó Zhang fue el problema que todos los anunciantes tenían que
abordar: la duplicación. Transmitir un anuncio (anuncio) diez veces sería muy eficiente si fuera visto por
diez personas diferentes. Sin embargo, si una sola persona los viera diez veces, el alcance del anuncio
sería mucho menor. Para medir el alcance de manera efectiva, Zhang tendría que dar cuenta
correctamente de las impresiones duplicadas y redundantes que eran inevitables en su línea de negocio.
Alcance-1 midió la cantidad de veces que un espectador único vio el anuncio al menos una vez.

Zhang también sabía que la mayoría de los clientes no cambiarían de opinión con respecto a un
nuevo producto la primera vez que escucharan sobre él. Para crear una imagen en la mente del cliente
sobre un producto, Zhang tendría que llegar al mismo cliente varias veces. Por lo tanto, el problema de
duplicación de Zhang era similar a un problema de Ricitos de oro: muy pocas impresiones no darían
como resultado una venta exitosa, pero demasiadas serían un desperdicio e ineficientes. Identificar
cómo entregar la cantidad correcta de impresiones para maximizar el alcance sería el núcleo de la
solución que necesitaba de Gershwin.

Según el público objetivo y el producto, Zhang normalmente realizaba un seguimiento de Alcance-1,


-3 o -5, lo que significa que se había entregado una impresión a un cliente potencial al menos tres, cinco
o siete veces. Comprender cuántas impresiones serían necesarias para cada producto era crucial para
utilizar los recursos de manera eficiente.
El próximo problema de Gershwin sería identificar el punto de inflexión donde la duplicación ya no era
útil para expandir el alcance.
Si bien tradicionalmente, la superposición entre los medios no era lo suficientemente alta como para
tener un gran impacto en la duplicación, la necesidad de rastrear las impresiones duplicadas en medios
digitales, impresos y de televisión se estaba volviendo cada vez más importante. El enfoque
multiplataforma, en el que la campaña se desarrollaba en más de un medio para ganar impresiones, era
una parte floreciente del sector que seguramente crecería. Gershwin sintió que la duplicación
multiplataforma podría abordarse más adelante.

2 Alcance en Publicidad

Como la mayoría de las empresas en el negocio de la publicidad, InfoMedia pensó en el alcance no


como una función del costo sino como una función de los puntos de calificación brutos (GRP) (Goerg 2014).
Las campañas publicitarias pueden colocar anuncios en los periódicos, transmitirlos por radio o
mostrarlos en la televisión. En lugar de simplemente mirar la cantidad de dinero gastado en la campaña
para determinar la eficiencia, Zhang pensó en la cantidad de impresiones que generaría la campaña y
cómo eso se traduciría en alcance.

Zhang calculó los GRP (puntos de calificación brutos) calculando en términos porcentuales el
número de impresiones realizadas en una audiencia objetivo en relación con el tamaño de la audiencia.
Por ejemplo, si los espectadores vieron un anuncio 120 millones de veces y el tamaño de la audiencia
objetivo es de 60 millones, esto se traduce en (120/60×100) = 200 GRP. Los intervalos de tiempo que
eran más largos, los espacios durante las horas pico o en programas populares podrían crear más
impresiones y, por lo tanto, un mayor alcance. no vino nada
Machine Translated by Google

876 D.Agrawal et al.

libre; un intervalo de tiempo que pudiera ofrecer más alcance sería más costoso. Por lo tanto, Zhang
tendría que equilibrar el costo de transmitir los espacios con el alcance que esos espacios podrían
brindarle, al comprender a su público objetivo. El alcance 1, -3, -5 y -7 se definieron en términos
porcentuales o en el número total de espectadores únicos que vieron el anuncio al menos una, tres,
cinco y siete veces. En el ejemplo anterior, podrían ser 45, 30, 15 y 7 millones de espectadores o 75
%, 50 %, 25 % y 11,66 %. Obviamente, el alcance no excederá el tamaño de la población. Alcance-1
será el más grande seguido del resto.

Se sabía que los alcances 1, 3, 5 y 7 eran una función creciente cóncava de los anuncios
publicitarios, lo que quiere decir que a medida que aumentaba el número de anuncios publicitarios,
aumentaba el alcance, pero la tasa de ese aumento para el mismo aumento en puntos estaba
disminuyendo. En un mundo ideal, Zhang podría comprar exactamente la cantidad de espacios en
los que la tasa de disminución del alcance multiplicada por “un valor en dólares por alcance” se
equilibrara con la tasa de aumento en los espacios por un “valor en dólares de un lugar”. ” Gershwin
pensó que se podía descubrir la relación entre los anuncios publicitarios y el alcance mediante la simulación.
Además de la complicación, un enfoque multiplataforma necesitaría estimar el alcance a través
de múltiples canales o medios. Esto significaba que la función utilizada para calcular el alcance
tendría múltiples entradas para realizar un seguimiento.
Adivinar el objetivo adecuado de los anuncios publicitarios resultaría complicado. La solución de
Gershwin tendría que ayudar a resolver este problema de manera más eficiente si fuera a mejorar
los resultados de InfoMedia.

3 Galletas de Gallo

Zhang ya tenía un cliente en mente para la primera prueba del nuevo enfoque.
Rooster Confectionery, un fabricante de galletas y cereales, quería lanzar una nueva marca de
galletas recubiertas de chocolate. La directora de operaciones de Rooster, Joni Fernandez, le había
dicho a Zhang que quería enfocarse en un público objetivo más joven (grupo de edad de 20 a 35
años) con el producto, exactamente el tipo de cliente que cambiaría a diferentes vías de consumo de
medios. Zhang sintió que si el enfoque de Gershwin pudiera ayudar a optimizar la campaña de
Rooster Biscuits, sería un buen augurio para el uso de técnicas novedosas.

Sin embargo, Fernández tenía una programación estricta y restricciones presupuestarias. Ya le


había informado a Zhang que "Rooster esperaba que los canales mostraran al menos el 20 % de sus
anuncios durante los espacios de 'hora de máxima audiencia', entre las 8 p. m. y las 11 p. m., y al
menos el 30 % durante los fines de semana". Además, aunque esperaba una campaña publicitaria a
largo plazo, quería que Zhang ejecutara primero una versión corta de una semana para probar la
reacción del mercado al nuevo producto. Ella le informó que la campaña de prueba debería estar
dirigida a los dos canales de cable más grandes dirigidos al grupo demográfico de 18 a 34 P (P =
persona): The Animation Channel y Sports 500 Network.

También podría gustarte