Documentos de Académico
Documentos de Profesional
Documentos de Cultura
582 M. Gupta
rectángulos y, para cada subregión, genera el máximo. La intuición es que la ubicación exacta de una
característica es menos importante que su ubicación aproximada en relación con otras características. La
capa de agrupación sirve para reducir progresivamente el tamaño espacial de la representación, para
reducir el número de parámetros y la cantidad de cómputo en la red y, por lo tanto, también para controlar
el sobreajuste. La Figura 17.5 muestra un ejemplo de agrupación máxima con un tamaño de agrupación
de 2 × 2.
Finalmente, después de varias capas convolucionales y de agrupación máxima, el razonamiento de
alto nivel en la red neuronal se realiza a través de capas totalmente conectadas. Las neuronas en una
capa completamente conectada tienen conexiones con todas las activaciones en la capa anterior, como
se ve en las MLP regulares.
3.4 Resumen
En resumen, hemos discutido una interesante arquitectura de aprendizaje profundo, CNN, para imágenes
en esta sección. Las CNN son muy populares en estos días en una gran variedad de tareas de
procesamiento de imágenes. Las redes de convolución están inspiradas en la estructura jerárquica de la
corteza visual. Las cosas que diferencian a las CNN de las DNN son la escasa conectividad, los pesos
compartidos, los mapas de funciones y la agrupación.
(a) lenet: puntero al último nodo de cálculo en la definición de red (b) X: datos de píxeles
(valores X) (c) Y: variable dependiente (valores Y) (d) ctx: dispositivo de procesamiento a
utilizar (e) num.round: número máximo de iteraciones sobre el conjunto de datos (f)
array.batch.size: tamaño de lote para descenso de gradiente por lotes (g) Tasa de
aprendizaje (h) Momentum: para actualizaciones de descenso de gradiente basadas en
impulso (i) WD: peso decadencia
El código de muestra ayuda a comprender cómo crear una CNN con el paquete R "mxnet". El código
“Mxnet-MNIST_CNN.R” y los conjuntos de datos “MNIST_train_sample.csv” y “MNIST_test_sample.csv”
están disponibles en el sitio web.
En esta sección, analizaremos una arquitectura de aprendizaje profundo para manejar datos de secuencia,
RNN. Primero motivaremos por qué se necesitan modelos de aprendizaje secuencial. Luego hablaremos
sobre los detalles técnicos de las RNN (redes neuronales recurrentes) y finalmente discutiremos sobre su
aplicación para el subtitulado de imágenes y la traducción automática.
Las secuencias están en todas partes. El texto es una secuencia de caracteres. El habla es una secuencia
de fonemas. Los videos son secuencias de imágenes. Hay muchas aplicaciones importantes impulsadas
por análisis además de datos de secuencia. Por ejemplo, la traducción automática se trata de transformar
una secuencia escrita en un idioma a otro. Necesitamos una forma de modelar tales datos de secuencia
utilizando redes neuronales. Los humanos no comienzan su pensamiento desde cero cada segundo. A
medida que lea esta sección, comprenderá cada palabra en función de su comprensión de las palabras
anteriores. No tiras todo y empiezas a pensar desde cero otra vez. Tus pensamientos tienen persistencia.
Por lo tanto, necesitamos redes neuronales con cierta persistencia durante el aprendizaje. En este capítulo,
discutiremos sobre RNN como una arquitectura para soportar tareas de aprendizaje de secuencias.
584 M. Gupta
P(w1, ... ,wm). Los modelos de lenguaje son muy útiles para muchas tareas como las siguientes: (1)
predicción de la siguiente palabra: por ejemplo, predecir la siguiente palabra después de que el usuario haya
escrito esta parte de la oración. “Las acciones se desplomaron esta mañana, a pesar de un recorte en las
tasas de interés por parte de la Reserva Federal, como Wall…”; (2) correctores ortográficos: por ejemplo,
detectar automáticamente que los minutos se han escrito incorrectamente en la siguiente oración. “Se van
en unos quince minutos para ir a su casa”; (3) autocorrección móvil: por ejemplo, sugerir automáticamente
que el usuario debe usar "buscar" en lugar de "bien" en la siguiente oración. “Él está tratando de multar”; (4)
reconocimiento de voz: por ejemplo, descubrir automáticamente que "palomitas de maíz" tiene más sentido
que "unicornio" en la siguiente oración. “Los propietarios de teatros dicen que las ventas de unicornios se
han duplicado...”; (5) calificación automática de ensayos; y (6) traducción automática: por ejemplo, identificar
el orden correcto de las palabras como en p(el gato es pequeño) > p(pequeño es el gato), o identificar la
elección correcta de palabras como en p(caminar a casa después de la escuela) > p (casa de paseo después
de la escuela).
i=1P wi|wiÿ(nÿ1),...,wiÿ1 .
Aquí, condicionamos los n valores anteriores en lugar de todos los valores anteriores. Esta aproximación se
llama el supuesto de Markov. Para estimar las probabilidades, se pueden calcular unigramas, bigramas,
trigramas, etc., de la siguiente manera, usando un corpus de texto grande con tokens T.
contar (w1)
Modelo de unigrama: p (w1) =
T cuenta(w1,w2)
Modelos de bigramas: p (w2|w1) = cuenta(w1)
cuenta(w1,w2,w3)
Modelos de trigramas: p (w3|w1, w2) = cuenta(w1,w2)
El rendimiento de los modelos de lenguaje de n-gramas mejora a medida que aumenta n para n-gramas.
El suavizado, el retroceso y la interpolación son técnicas populares para manejar n-gramas de baja
frecuencia. Pero el problema es que hay muchos n-gramas, especialmente cuando n aumenta. Esto conduce
a requisitos de RAM gigantescos. En algunos casos, la ventana de n palabras pasadas consecutivas puede
no ser suficiente para capturar el contexto. Por ejemplo, considere un caso en el que un artículo analiza la
historia de España y Francia y, más adelante en el texto, dice: "Los dos países se enfrentaron en una
batalla"; Claramente, la información presentada en esta oración por sí sola no es suficiente para identificar
el nombre de los dos países.
¿Podemos usar MLP para modelar el problema de predicción de la siguiente palabra? La Figura 17.6
muestra un MLP típico para la tarea de predicción de la siguiente palabra propuesta por Bengio et al. (2003).
El MLP está entrenado para predecir la t-ésima palabra en función de un contexto de tamaño fijo de n ÿ 1
palabras anteriores. Esta red asume que tenemos un mapeo C de cualquier palabra i en el vocabulario a un
vector de características distribuidas como word2vec.6 Por lo tanto, si m es el
6Word2vec es un algoritmo para aprender una palabra incrustada a partir de un corpus de texto. Para más
detalles, lea Mikolov et al. (2013).
Machine Translated by Google
Fig. 17.6 MLP para la tarea de predicción de la siguiente palabra (Fuente: Bengio et al. 2003)
dimensión para la representación del vector de características, y |V| es el tamaño del vocabulario, C es una |
V| matriz de tamaño × m . C(wt ÿ i) es la representación vectorial de la palabra que vino hace i palabras. C
también podría aprenderse junto con los otros pesos en la red.
Además, el modelo contiene una capa oculta con una no linealidad. Finalmente, en la capa de salida, se
realiza un softmax para devolver la distribución de probabilidad de tamaño |V| que se espera que esté lo más
cerca posible de la representación codificada en caliente de la siguiente palabra real.
En todos los modelos de lenguaje convencionales, los requisitos de memoria del sistema crecen
exponencialmente con el tamaño de la ventana n , lo que hace casi imposible modelar ventanas de palabras
grandes sin quedarse sin memoria. Pero en este modelo, los requisitos de RAM crecen linealmente con n. Por
lo tanto, este modelo admite una ventana fija de contexto (es decir, n). Hay dos inconvenientes de este
modelo: (1) el número de parámetros aumenta linealmente con el tamaño del contexto y (2) no puede manejar
contextos de diferentes longitudes. Los RNN ayudan a abordar estos inconvenientes.
RNNs es una arquitectura neuronal de aprendizaje profundo que puede admitir la predicción de la siguiente
palabra con la variable n. Los RNN atan los pesos en cada paso de tiempo. Esto ayuda en el acondicionamiento
Machine Translated by Google
586 M. Gupta
la red neuronal en todas las palabras anteriores. Por lo tanto, el requisito de RAM solo aumenta con la
cantidad de palabras en el vocabulario. La Figura 17.7 muestra la arquitectura de un modelo RNN
básico con tres unidades. U, V y W son las matrices de ponderación compartidas que se repiten en
múltiples unidades de tiempo. En general, los parámetros que se aprenderán son U, V y W.
Los RNN se denominan recurrentes porque realizan la misma tarea para cada elemento de una
secuencia. Lo único que difiere es la entrada en cada paso de tiempo. La salida depende de cálculos
previos. Los RNN pueden verse como redes neuronales que tienen "memoria" sobre lo que se ha
calculado hasta ahora. La información (o el estado) ht en cualquier instancia de tiempo t es esta
memoria. En cierto sentido, capta un pensamiento que resume las palabras vistas hasta ahora. Las
RNN procesan una secuencia de vectores x aplicando una fórmula de recurrencia en cada paso de
tiempo: ht = fU,W (ht ÿ 1, xt), donde ht es el nuevo estado, fU,W es alguna función con parámetros U y
W, ht ÿ 1 es el estado anterior y xt es el vector de entrada en el paso de tiempo actual. Observe que
se utiliza la misma función y el mismo conjunto de parámetros en cada paso de tiempo.
Los pesos para un RNN se aprenden usando el mismo algoritmo de retropropagación, también
llamado backpropagation through time (BPTT) en el contexto de los RNN.
Los datos de entrenamiento para BPTT deben ser una secuencia ordenada de pares de entrada-salida.
x0, y0 , x1, y1 , ... , xn - 1, en - 1 . Se debe especificar un valor inicial para la salida de la
capa oculta h0 en el tiempo t0 . Por lo general, se utiliza un vector de todos los ceros para este propósito.
BPTT comienza desplegando una red neuronal recurrente a través del tiempo. Cuando la red se
despliega a través del tiempo, la red desplegada contiene k instancias de una unidad, cada una de las
cuales contiene una entrada, una capa oculta y una salida. Luego, el entrenamiento procede de manera
similar al entrenamiento de una red neuronal de alimentación hacia adelante con retropropagación,
Machine Translated by Google
excepto que cada época debe pasar por las observaciones, yt, en orden secuencial.
Cada patrón de entrenamiento consta de ht, xt, xt+1, xt+2, ... , xt+k ÿ 1, yt+k . Por lo general, la
retropropagación se aplica en línea para actualizar los pesos a medida que se presenta cada patrón de
entrenamiento. Después de que se presenta cada patrón y se actualizan los pesos, se promedian los
pesos en cada instancia de U, V y W para que todos tengan los mismos pesos, respectivamente. Además,
ht+1 se calcula como ht+1 = fU,W (ht, xt+1), lo que proporciona la información necesaria para que el
algoritmo pueda pasar al siguiente paso de tiempo, t + 1. La salida yt se calcula como sigue: yt =
softmax(V ht). Por lo general, la función de pérdida de entropía cruzada se usa para la optimización: Dada
una distribución de salida real yt y una distribución de salida predicha yt , la pérdida de entropía cruzada
se define como ÿ j=1yt,j log y(t,j ). Tenga en cuenta que yt es el vector verdadero; podría ser una
|en |
codificación one-hotinstante
de la palabra esperada
de tiempo o una representación word2vec de la palabra esperada en el
t-ésimo.
El siguiente pseudocódigo muestra cómo construir un RNN usando el paquete R "mxnet" para la siguiente
tarea de predicción de palabras. A continuación se muestran las principales etapas del código:
(a) Cell_type = “lstm” #Uso de la celda lstm que puede contener los resultados (b)
num_rnn_layer = 1 (c) num_embed = 2 (d) num_hidden = 4 #Número de capas
ocultas (e) loss_output = “softmax” (f ) núm.ronda = 6
El código de muestra ayuda a entender cómo construir un RNN usando el paquete R "mxnet". El
código “Next_word_RNN.R” y los conjuntos de datos “cor pus_bucketed_train.rds” y
“corpus_bucketed_test.rds” están disponibles en el sitio web.
La arquitectura básica de RNN se puede ampliar de muchas formas. Los RNN bidireccionales son
RNN con dos vectores ocultos por unidad. El primer vector oculto mantiene el estado de la información
vista hasta ahora en la secuencia en dirección hacia adelante, mientras que el otro vector oculto mantiene
el estado que representa la información vista hasta ahora en la secuencia en dirección hacia atrás. El
número de parámetros en los RNN bidireccionales es, por lo tanto, el doble del número de parámetros en
el RNN básico.
Machine Translated by Google
588 M. Gupta
Los RNN también podrían ser profundos. Por lo tanto, un RNN profundo tiene unidades ocultas
apiladas y las neuronas de salida están conectadas a la capa más abstracta.
Las redes recurrentes ofrecen mucha flexibilidad. Por lo tanto, se pueden utilizar para una gran variedad
de tareas de aprendizaje de secuencias. Dichas tareas podrían clasificarse como de uno a muchos, de
muchos a uno o de muchos a muchos, según el número de entradas y el número de salidas. Un ejemplo
de una aplicación de uno a muchos es el subtítulo de imagen (imagen ÿ secuencia de palabras). Un
ejemplo de aplicación de muchos a uno es la clasificación de sentimientos (secuencia de palabras ÿ
sentimiento). Un ejemplo de aplicación "retrasada" de muchos a muchos es la traducción automática
(secuencia de palabras ÿ secuencia de palabras).
Finalmente, un ejemplo del caso de muchos a muchos "sincronizados" es la clasificación de video a nivel
de cuadro.
A continuación, analizaremos dos aplicaciones de RNN: subtítulos de imágenes y traducción
automática. La figura 17.8 muestra la arquitectura neuronal CNN-RNN para la tarea de subtítulos de
imágenes. Primero se utiliza una CNN para obtener una representación profunda de la imagen. Luego, la
representación se pasa a la RNN para aprender los subtítulos. Tenga en cuenta que los subtítulos
comienzan con una palabra especial INICIO y terminan con una palabra especial FIN.
A diferencia de la tarea de clasificación de imágenes donde la cantidad de subtítulos es limitada, en la
subtitulación de imágenes, la cantidad de subtítulos que se pueden generar es mucho más, ya que en
lugar de seleccionar uno de, digamos, 1,000 subtítulos, aquí la tarea es generar subtítulos.
Como se muestra en la Figura 17.8, primero se usa una CNN entrenada con los datos de ImageNet.
Tal CNN se discutió en la Secc. 3. La última capa completamente conectada de la CNN se descarta y el resultado de la
penúltima capa de la CNN se alimenta a la primera unidad de la RNN. La codificación one-hot de la palabra especial
START se alimenta como entrada a la primera unidad de la RNN. En el momento del entrenamiento, dado que se
conocen los títulos de imagen reales, las representaciones de palabras correspondientes se alimentan realmente como
entrada para cada unidad recurrente. Sin embargo, en el momento de la prueba, se desconoce el verdadero título. Por lo
tanto, en el momento de la prueba, la salida de la k-ésima unidad se alimenta como entrada a la (k + 1)-ésima unidad.
Esto se hace para un mejor aprendizaje del orden de las palabras en el pie de foto. La pérdida de entropía cruzada se
usa para calcular el error en cada una de las neuronas de salida. Microsoft COCO7 es un conjunto de datos popular que
se puede usar para entrenar un modelo de este tipo para subtítulos de imágenes. El conjunto de datos tiene alrededor
de 120 000 imágenes, cada una con cinco oraciones de subtítulos (Lin et al. 2014).
Por último, analicemos la aplicación de RNN a la traducción automática. La Figura 17.9 muestra una arquitectura
básica de codificador-decodificador para la tarea de traducción automática usando RNN. El codificador RNN intenta
codificar toda la información del idioma de origen en un solo vector oculto al final. Llamemos a este último vector oculto
del codificador como el vector "pensamiento". El decodificador RNN usa información de este vector de pensamiento para
generar palabras en el idioma de destino. La arquitectura intenta minimizar el error de entropía cruzada para todas las
palabras de destino condicionadas a las palabras de origen.
Hay muchas variantes de esta arquitectura de la siguiente manera. (1) El codificador y el decodificador pueden usar
pesos compartidos o pesos diferentes. (2) El estado oculto en el decodificador siempre depende del estado oculto de la
unidad anterior, pero también podría depender opcionalmente del vector de pensamiento y la salida prevista de la unidad
anterior.
(3) Los RNN bidireccionales profundos podrían usarse tanto para el codificador como para el decodificador.
Más allá de estas aplicaciones, los RNN se han utilizado para muchas tareas de aprendizaje de secuencias. Sin
embargo, los RNN sufren el problema de los gradientes que desaparecen. En teoría, RNN
590 M. Gupta
puede memorizar en estado oculto, es decir, ht, toda la información sobre entradas pasadas.
Pero, en la práctica, el RNN estándar no puede capturar la dependencia a muy larga distancia.
Problema de gradiente evanescente/explosivo en retropropagación: la señal de gradiente puede
terminar siendo multiplicada un gran número de veces (tantas como el número de pasos de tiempo)
por la matriz de peso asociada a las conexiones entre las neuronas de la capa oculta recurrente. Si
los pesos en la matriz de pesos de transición son pequeños (o, más formalmente, si el valor propio
principal de la matriz de pesos es menor que 1.0), puede conducir a gradientes que desaparecen
donde la señal del gradiente se vuelve tan pequeña que el aprendizaje se vuelve muy lento o se
detiene. trabajando en conjunto. También puede dificultar la tarea de aprender las dependencias a
largo plazo en los datos. Por el contrario, si los pesos en esta matriz son grandes (o, de nuevo, de
manera más formal, si el valor propio principal de la matriz de peso es mayor que 1.0), puede
conducir a una situación en la que la señal de gradiente es tan grande que puede causar
aprendizaje. divergir Esto a menudo se denomina gradientes explosivos. Una solución a este
problema es la memoria a largo plazo (LSTM), que son arquitecturas de aprendizaje profundo
similares a las RNN pero con celdas de memoria explícita. La idea principal es mantener las
memorias para capturar dependencias de largo alcance y permitir que los mensajes de error fluyan
con diferentes intensidades según las entradas. La intuición es que las celdas de memoria pueden
mantener la información intacta, a menos que las entradas les hagan olvidarla o sobrescribirla con
una nueva entrada. La celda de memoria puede decidir emitir esta información o simplemente
almacenarla.
El lector puede consultar Hochreiter y Schmidhuber (1997) para obtener más detalles sobre los
LSTM.
4.5 Resumen
En resumen, las redes neuronales recurrentes son poderosas para modelar datos de secuencias.
Pero tienen el problema del gradiente de fuga/explosión. Los LSTM son mejores porque evitan el
problema del gradiente de desaparición/explosión al introducir celdas de memoria.
En general, los RNN y los LSTM son realmente útiles en muchas aplicaciones del mundo real, como
subtítulos de imágenes, minería de opiniones y traducción automática.
5 Lectura adicional
Los avances que se realizan en este campo son de naturaleza continua debido a la práctica de
compartir información y cooperar con investigadores que trabajan en laboratorios y en el campo.
Por lo tanto, la información más reciente está disponible en la Web ya través de conferencias y
talleres. El libro8 de Goodfellow et al. (2016), el
los tutoriales de aprendizaje profundo9 y la especialización en aprendizaje profundo10 que ofrece Andrew Ng
son buenos puntos de partida para aprender más.
Material de referencia adicional (consultado el 1 de agosto de 2018):
• http://people.csail.mit.edu/torralba/research/drawCNN/drawNet.html?path=image
netCNN
• http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part-1-introduction-to-rnns/ _
• http://karpathy.github.io/2015/05/21/rnn-efectividad/ • http://colah.github.io/
posts/2015-08-Understanding-LSTMs/ • Hochreiter, S. y Schmidhuber, J. (1997).
Memoria a corto plazo. Computación neuronal, 9(8), 1735–1780. http://www.bioinf.jku.at/publications/older/
2604.pdf • http://jeffdonahue.com/lrcn/ • https://github.com/kjw0612/awesome-rnn#theory
Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están
disponibles en www.allaboutanalytics.net.
Ejercicios
592 M. Gupta
Ex. 17.2 ¿Cuál es el algoritmo que se usa para entrenar una sola neurona?
Ex. 17.3 ¿Cómo se puede hacer que una neurona artificial aprenda patrones no lineales?
Ex. 17.5 Si un MLP tiene una capa de entrada con 10 funciones, una capa oculta con 20 neuronas y una capa
de salida con 1 salida, ¿cuántos parámetros hay?
Ex. 17.6 ¿Por qué el algoritmo perceptrón no puede funcionar para MLP?
Ex. 17.7 Discutimos tres funciones de activación diferentes. Cuál de los siguientes
no es una función de activación?
(a) Los MLP tienen capas completamente conectadas, mientras que las CNN tienen escasa
conectividad. (b) Los MLP son supervisados, mientras que las CNN se usan generalmente para algo no supervisado.
ritmos
(c) Los MLP tienen más pesos, mientras que los CNN tienen menos pesos para ser
aprendió.
(d) MLP es una arquitectura de modelado general, mientras que las CNN se especializan en imágenes.
Ex. 17.9 Dada una imagen de 32 × 32 × 3, ¿cuántos pesos tendrá que aprender una sola neurona
completamente conectada?
(a) 32 × 32 × 3 + 1 (b) 32
(c) 3 (d) 32 × 32
Ex. 17.11 ¿Cuántos pesos se necesitan si la capa de entrada tiene 32 × 32 entradas y la capa oculta tiene 20
× 20 neuronas?
Ex. 17.12 Considere un volumen de tamaño 32 × 32 × 3. Si se le aplica la agrupación máxima con un tamaño
de agrupación de 4 y un paso de 4, ¿cuál es el número de pesas en la capa de agrupación?
Ex. 17.13 ¿Cuál de los siguientes es falso acerca de las diferencias entre MLP y RNN?
(a) Los MLP se pueden usar con secuencias de tamaño fijo, mientras que los RNN pueden manejar
secuencias de tamaño variable. (b) Los MLP tienen más pesos, mientras que los RNN tienen menos
pesos para ser
aprendió.
(c) MLP es una arquitectura de modelado general, mientras que las RNN se especializan en secuencias. (d)
Los MLP están supervisados, mientras que los RNN generalmente se usan para algoritmos no supervisados.
ritmos
Machine Translated by Google
594 M. Gupta
Ex. 17.14 Observamos dos modelos neuronales para la predicción de la siguiente palabra: un MLP y un RNN. Dado
un vocabulario de 1000 palabras y una capa oculta de tamaño 100, un contexto de tamaño 6 palabras, ¿cuál es el
número de pesos en un MLP?
Ex. 17.15 ¿En qué se diferencia la retropropagación a través del tiempo de la retropropagación típica en las MLP?
(a) Los pesos en los bordes que se supone que tienen pesos compartidos deben promediarse y establecerse en el
promedio después de cada iteración. (b) La retropropagación en MLP utiliza descenso de gradiente, mientras
que la retropropagación
a través del tiempo utiliza modelos de series de tiempo.
(c) La retropropagación en MLP tiene dos iteraciones por cada iteración correspondiente en la retropropagación a
lo largo del tiempo. (re. Ninguna de las anteriores.
Respuesta en longitud
Ex. 17.16 Defina el aprendizaje profundo resaltando sus cinco aspectos importantes.
Ex. 17.18 Los RNN necesitan entrada en cada paso de tiempo. Para los subtítulos de imágenes, observamos una
arquitectura CNN-RNN.
(a) ¿Cuál es la entrada a la primera capa oculta de la RNN? (b) ¿De dónde
vienen los otros insumos? (c) ¿Cómo se decide la longitud del título? (d) ¿Genera
nuevos subtítulos por sí mismo o solo selecciona de los que había visto en los
datos de entrenamiento? (e) Si el tamaño del vocabulario es V, el tamaño de la capa oculta es h y el tamaño
promedio de la secuencia es "s", ¿cómo
Ejercicios prácticos
Ex. 17.19 Cree un clasificador simple basado en regresión logística para el popular conjunto de datos de iris en
mxnet.
Ex. 17.20 Cree un clasificador MLP usando tres capas ocultas de tamaños 5, 10, 5 para la tarea de reconocimiento
de dígitos MNIST usando mxnet. (Sugerencia: modifique el código de la Sección 2.5 según corresponda).
Machine Translated by Google
Ex. 17.21 Cree un clasificador CNN usando dos capas CONV, cada una con veinte filtros de 5 × 5
con relleno como 2 y zancada como 1. También use capas de agrupación con filtros 2 × 2 con
zancada como 2. Haga esto para la tarea de reconocimiento de dígitos MNIST usando mxnet.
(Sugerencia: modifique el código de la Sección 3.5 según corresponda).
Ex. 17.22 Entrene un modelo RNN en mxnet para la tarea de predicción de la siguiente palabra.
Utilice un corpus de texto adecuado de https://en.wikipedia.org/wiki/List_of_text_corpora. (Sugerencia:
modifique el código de la Sección 4.2 según corresponda).
Referencias
Bengio, Y., Ducharme, R., Vincent, P. y Jauvin, C. (2003). Un modelo de lenguaje probabilístico neural.
Revista de investigación de aprendizaje automático, 3, 1137–1155.
Duchi, J., Hazan, E. y Singer, Y. (2011). Métodos adaptativos de subgradiente para aprendizaje en línea y optimización
estocástica. Revista de investigación de aprendizaje automático, 12, 2121–2159.
Fukushima, K. y Miyake, S. (1982). Neocognitron: un modelo de red neuronal autoorganizada para un mecanismo de
reconocimiento de patrones visuales. En S. Amari & A. Michael (Eds.), Competencia y cooperación en redes
neuronales (págs. 267–285). Berlín: Springer.
Goodfellow, I., Bengio, Y. y Courville, A. (2016). Aprendizaje profundo (Vol. 1). Cambridge: MIT Press.
Hinton, G., Srivastava, N. y Swersky, K. (2012). Clase 6d: una tasa de aprendizaje adaptativa separada para cada
conexión. Diapositivas de conferencias sobre redes neuronales para el aprendizaje automático. Recuperado el 6 de
marzo de 2019 de https://www.cs.toronto.edu/~tijmen/csc321/slides/lecture_slides_lec6.pdf Hochreiter, S. y
Schmidhuber, J. (1997). Memoria a corto plazo. Computación neuronal, 9(8),
1735-1780.
Hubel, DH y Wiesel, TN (1962). Campos receptivos, interacción binocular y arquitectura funcional en la corteza visual del
gato. El Diario de Fisiología, 160(1), 106–154.
Kingma, DP y Ba, J. (2014). Adam: Un método para la optimización estocástica. arXiv:1412.6980.
Lin, TY, Maire, M., Belongie, S., Hays, J., Perona, P., Ramanan, D., et al. (2014). Microsoft coco: objetos comunes en
contexto. En D. Fleet, T. Pajdla, B. Schiele y T. Tuytelaars (Eds.), Conferencia europea sobre visión artificial (págs.
740–755). Cham: Springer.
Mikolov, T., Chen, K., Corrado, G. y Dean, J. (2013). Estimación eficiente de representaciones de palabras
en espacio vectorial. arXiv:1301.3781
Miller, GA (1995). WordNet: Una base de datos léxica para inglés. Comunicaciones de la ACM,
38(11), 39–41.
Minsky, ML y Papert, S. (1969). Perceptrones. Prensa del MIT, Cambridge, MA.
Rosenblatt, F. (1962). Principios de la neurodinámica. Wuhan: publicación de investigación científica.
Rumelhart, DE, Hinton, GE y Williams, RJ (1986). Aprendiendo representaciones internas por propagación de errores. En
D. Rumelhart & J. McClelland (Eds.), Procesamiento distribuido en paralelo.
Exploraciones en la microestructura de la cognición (Vol. 1, págs. 318–362). Cambridge, MA: Libros de Bradford.
Parte III
Aplicaciones
Machine Translated by Google
capitulo 18
Análisis minorista
Ramandeep S. Randhawa
1. Introducción
1.1 Antecedentes
El comercio minorista es uno de los sectores más importantes de la economía actual. Se estima
que el sector minorista global tendrá ingresos de USD 28 billones en 2019 (con aproximadamente
USD 5,5 billones de ventas solo en los EE. UU.). Este sector representa el 31 % del PIB mundial
y emplea a miles de millones de personas en todo el mundo.1 Un componente grande y creciente
de esto es el comercio electrónico o e-tail, que incluye productos y servicios solicitados a través
de Internet, con ventas estimadas en aproximadamente USD 840 mil millones en 2014, y se
espera que crezca a una tasa de alrededor del 20 % en los años siguientes.2 La analítica está
ganando cada vez más importancia en este sector con un tamaño del mercado de análisis
minorista estimado en más de USD 3520 millones en 2017 y se espera que aumente. crecer a
una tasa compuesta anual de más del 19,7 % en los próximos años.3
1https://www.businesswire.com/news/home/20160630005551/en/Global-Retail-Industry-Valor USD-28-
Trillion (consultado el 31 de julio de 2018). 2https://www.atkearney.com/consumer-goods/article?/a/
global-retail-e-commerce-sigue haciendo clic (consultado el 1 de marzo de 2019). 3https://
www.marketsandmarkets.com/Market-Reports/retail-analytics-market-123460609.html (consultado el
31 de julio de 2018).
RS Randhawa ( )
Marshall School of Business, University of Southern California, Los Ángeles, CA, EE. UU. Correo
electrónico: Ramandeep.Randhawa@marshall.usc.edu
600 RS Randhawa
El comercio minorista actúa como la última parada en la cadena de suministro al vender productos
directamente a los clientes. Dado que los minoristas se centran en este aspecto, recopilar datos sobre el
comportamiento y las preferencias de los clientes e incorporarlos en las decisiones comerciales es
bastante natural. Y así, el comercio minorista ha sido uno de los primeros en adoptar metodologías de
análisis y se centra en gran medida en el avance del conocimiento en este dominio.
El análisis minorista es un término general que comprende varios elementos que ayudan en la toma de
decisiones en el negocio minorista. Por lo general, esto incluye la recopilación y el almacenamiento de
datos (almacenamiento de datos), el análisis de datos que involucra algunos modelos estadísticos o
predictivos y la toma de decisiones. Tradicionalmente, el análisis de datos se limitaba a monitorear y
visualizar retrospectivamente algunos indicadores clave de desempeño (KPI).
Se puede utilizar el término inteligencia empresarial para referirse a la gama de actividades que
subyacen a la toma de decisiones empresariales inteligentes. Sin embargo, normalmente este término
se usa para referirse a la recopilación y presentación de información histórica de una manera fácil de
entender, a través de informes, tableros, cuadros de mando , etc. métodos estadísticos o aprendizaje
automático. Nuestro enfoque en este capítulo estará en el análisis avanzado posterior, metodologías que
pueden ayudar significativamente en el proceso de toma de decisiones en el comercio minorista.
Para comprender el papel que juega el análisis en el comercio minorista, es útil dividir las decisiones
comerciales que se toman en el comercio minorista en las siguientes categorías: consumidor, producto,
fuerza laboral y publicidad.
1. Consumidor: la personalización es una decisión clave a nivel del consumidor que toman las empresas
minoristas. La fijación de precios personalizados al ofrecer descuentos a través de cupones para
clientes selectos es una de esas decisiones. Este enfoque utiliza la recopilación de datos a través de
tarjetas de fidelización para comprender mejor los patrones de compra y la disposición a pagar de un
cliente y lo utiliza para ofrecer precios personalizados. Dicha personalización también se puede
utilizar como estrategia de retención de clientes. Otro ejemplo es ofrecer a los clientes una experiencia
de venta personalizada: en la configuración de e-tail, esto implica ofrecer a los clientes una experiencia
de navegación única mediante la modificación de los productos mostrados y las sugerencias
realizadas en función de la información histórica del cliente.
2. Producto: Las decisiones de productos minoristas se pueden dividir en un solo producto y en un grupo
de decisiones de productos. Las decisiones de productos únicos o individuales son en su mayoría
decisiones de inventario: cuánto stock del producto ordenar y cuándo realizar el pedido. A nivel de
grupo, las decisiones suelen estar relacionadas con la fijación de precios y la planificación del surtido.
Es decir, qué precio fijar para cada producto del grupo y cómo colocar los productos en los estantes
de las tiendas, teniendo en cuenta la variedad de productos, la cantidad de cada tipo de producto y
la ubicación. Para tomar estas decisiones, se requiere un modelo predictivo para pronosticar el
producto.
Machine Translated by Google
Esto incluye responder a las preguntas de los clientes y manejar los mostradores de pago.
4. Publicidad: En el ámbito publicitario, las empresas se enfrentan a las típicas decisiones de encontrar el
mejor medio para anunciarse (medios en línea como Google Adwords, Facebook, Twitter y/o medios
tradicionales como impresos e insertos en periódicos) y el mejor productos a publicitar. Esto puede
implicar cultivar algunos "líderes de pérdida" que tienen un precio bajo para atraer a los clientes a la
tienda, de modo que también puedan comprar otros artículos que tengan un margen mayor.
Remitimos al lector al artículo de la encuesta de Bradlow et al. (2017). Revisa las prácticas de big data y
análisis predictivo en el comercio minorista. Discuten varios problemas y métodos estadísticos, incluido el
análisis bayesiano, que son importantes para recopilar, procesar, modelar y analizar datos. Además, hacen
hincapié en cuestiones éticas y de privacidad.
• Analytics ha revelado que un gran número de visitas de clientes a tiendas online no se convierten en el
último minuto, cuando el cliente tiene el artículo en su cesta de la compra pero no confirma la compra.
Con la teoría de que esto se debe a que los clientes a menudo no pueden encontrar sus tarjetas de
crédito o débito para confirmar los detalles, la plataforma sueca de comercio electrónico Klarna trasladó
a sus clientes (como Vistaprint, Spotify y 45 000 tiendas en línea) a un modelo de facturación, donde los
clientes pueden pagar después de se entrega el producto. Se utilizan análisis sofisticados de prevención
de fraude para asegurarse de que el sistema no pueda ser manipulado por personas con malas
intenciones.
• Los algoritmos de pronóstico de tendencias combinan las publicaciones de las redes sociales y los hábitos
de navegación web para descubrir qué productos pueden estar causando revuelo, y los datos de compra
de anuncios se analizan para ver qué departamentos de marketing impulsarán. Las marcas y los
especialistas en marketing se involucran en el "análisis de sentimientos", utilizando sofisticados algoritmos
basados en aprendizaje automático para determinar el contexto cuando se habla de un producto. Estos
datos se pueden usar para predecir con precisión cuáles serán los productos más vendidos en una categoría.
Machine Translated by Google
602 RS Randhawa
• Los minoristas rusos han descubierto que la demanda de libros aumenta exponencialmente a
medida que el clima se vuelve más frío. Por lo tanto, los minoristas como Ozon.ru aumentan la
cantidad de recomendaciones de libros que aparecen en los feeds de sus clientes a medida que
baja la temperatura en sus áreas locales.4
• El gigante de los grandes almacenes de EE. UU., Macy's, se dio cuenta recientemente de que era
esencial atraer al tipo correcto de clientes a sus tiendas físicas. Debido a que sus análisis
mostraron una escasez del grupo demográfico vital de la generación del milenio, recientemente
abrió su sótano5 "Uno debajo" en su tienda insignia de Nueva York, que ofrece "paredes para
selfies" y fundas personalizadas para teléfonos inteligentes impresas en 3D mientras espera. La
idea es atraer a clientes jóvenes a la tienda que, con suerte, tendrán un valor duradero de por vida
para el negocio.
• Amazon ha propuesto usar análisis predictivos de envío6 para enviar productos a los clientes incluso
antes de que hagan clic en "agregar al carrito". Según un informe de tendencias reciente de DHL,
durante los próximos 5 años, esta llamada cadena de suministro psíquica tendrá efectos de gran
alcance en casi todas las industrias, desde la automotriz hasta la de bienes de consumo. Utiliza
big data y algoritmos predictivos avanzados para mejorar la planificación y la toma de decisiones.
Hay varias complicaciones que surgen en los escenarios minoristas que deben superarse para el uso
exitoso de la analítica minorista. Estas complicaciones se pueden clasificar en (a) las que afectan al
modelado predictivo y (b) las que afectan a la toma de decisiones.
Algunos de los problemas más comunes que afectan el modelado predictivo son la censura de la
demanda y las imprecisiones de inventario (DeHoratius y Raman 2008). Por lo general, las empresas
minoristas solo tienen acceso a la información de ventas, no a la información de demanda y, por lo
tanto, deben tener en cuenta el hecho de que cuando se agota el inventario, no se observa la
demanda real. Ignorar esta censura de información puede resultar en una subestimación de la
demanda. También existe un problema no trivial de imprecisiones en los registros de inventario que
existen en las tiendas minoristas: la cantidad real de productos en un inventario difiere de la cantidad
esperada según los sistemas de TI de la empresa (DeHoratius 2011). Tal inexactitud puede ser
causada por robo, fallas de software, etc. Esta inexactitud debe incorporarse en la estimación de la
demanda porque confunde si la demanda es baja o parece baja debido a la escasez del producto. La
inexactitud también afecta la decisión
4https://www.forbes.com/sites/bernardmarr/2015/11/10/big-data-a-game-changer-in-the-retail sector/
#651838599f37 (consultado el 31 de julio de 2018). 5https://www.bloomberg.com/news/articles/
2015-09-25/this-is-macy-s-idea-of-a-millennial wonderland (consultado el 31 de julio de 2018).
6https://www.forbes.com/sites/onmarketing/2014/01/28/why-amazons-anticipatory-shipping-is pure-
genius/#178cd4114605 (consultado el 31 de julio de 2018).
Machine Translated by Google
haciendo impactando el tiempo de colocación de la orden. Algunos de los otros factores que afectan la
toma de decisiones son las restricciones sobre los precios cambiantes, las restricciones físicas sobre los
surtidos, los plazos de entrega de los proveedores, los contratos con los proveedores y las restricciones
sobre la programación de la fuerza laboral. En particular, las empresas minoristas se enfrentan a muchas
restricciones en los precios cambiantes. Algunos de estos son restricciones de mano de obra: cambiar los
surtidos requiere una reconfiguración de los estantes de las tiendas, y cambiar los precios puede implicar
el etiquetado físico de los productos con el nuevo precio (un proceso que requiere mucha mano de obra).
Para facilitar el cambio de precios, muchas tiendas como Kohl's están recurriendo a etiquetas electrónicas
en los estantes como un medio para hacer que el proceso de cambio de precios sea eficiente.7 Hay
restricciones no físicas adicionales con las que una empresa puede tener que lidiar. Por ejemplo, en la
moda, los precios normalmente solo se marcan a la baja y, una vez que se baja un precio, no se aumenta.
También hay límites a la frecuencia con la que se pueden cambiar los precios, por ejemplo, dos veces por
semana. Hay muchas restricciones basadas en el proveedor que también deben tenerse en cuenta, por
ejemplo, los plazos de entrega de cualquier pedido nuevo realizado y los términos acordados en los contratos con los provee
En este capítulo, nuestro enfoque estará en el uso de análisis minoristas para la toma de decisiones
basada en productos. Continuamos en la Sec. 2, explorando los diversos medios de recopilación de datos
que utilizan los minoristas y los que están ganando protagonismo en los últimos tiempos. Insecto. 3,
discutiremos algunas metodologías clave que se utilizan para dicha toma de decisiones. En particular,
discutiremos varias estadísticas y metodologías de aprendizaje automático para la estimación de la
demanda, y cómo se pueden usar para la fijación de precios, y técnicas para modelar la elección del
consumidor para la optimización del surtido.
Insecto. 4, nos centraremos en los muchos desafíos y oportunidades comerciales en el comercio minorista, centrándonos tanto
en la configuración del comercio electrónico como en el crecimiento de las nuevas empresas analíticas minoristas.
2 Recopilación de datos
Los datos minoristas se pueden considerar tanto estructurados (hoja de cálculo con filas y columnas) como
no estructurados (imágenes, videos y otros datos basados en la ubicación). Los datos minoristas
tradicionales se han estructurado y derivado principalmente de dispositivos de punto de venta (POS) y
datos suministrados por terceros. Los datos de POS generalmente capturan información de ventas,
cantidad de artículos vendidos, precios y marcas de tiempo de las transacciones. Combinados con el
mantenimiento de registros de inventario, estos datos brindan una gran cantidad de información sobre los
productos vendidos y, en particular, las canastas de productos (recopilación de artículos en el carrito)
vendidos. Los minoristas tienden a utilizar programas de fidelización para adjuntar información del cliente
a esta información, de modo que se puedan analizar los datos de ventas a nivel del cliente. Los datos de
terceros generalmente consisten en información de la competencia, como precios y surtidos de productos.
También consta de información general sobre los clientes de la empresa, como su demografía y ubicación.
7https://www.wsj.com/articles/now-prices-can-change-from-minute-to-minute-1450057990
(consultado el 31 de julio de 2018).
Machine Translated by Google
604 RS Randhawa
La tendencia reciente es capturar cada vez más datos no estructurados. Ahora existe tecnología
que puede ayudar a los minoristas a recopilar información no solo sobre las ventas directas a los
clientes, sino también sobre las comparaciones de productos, es decir, qué productos comparó el
cliente al tomar decisiones. Las cámaras de video junto con la tecnología de detección de imágenes
pueden ayudar a recopilar datos sobre las rutas de los clientes a través de una tienda. Estos datos
de video también se pueden usar para recopilar datos de los empleados (por ejemplo, qué tareas
están haciendo los empleados, cómo se involucran los clientes y cuánto tiempo tiene que esperar un
cliente que necesita asistencia para que se brinde la asistencia). Recientemente, muchas empresas
también han empleado tecnología de seguimiento ocular en entornos controlados para recopilar datos
sobre cómo aparece la tienda desde la perspectiva del cliente; una desventaja importante de esta
tecnología es que requiere que el cliente use anteojos especializados.
Con la llegada de Internet de las cosas (IoT), ha aumentado el potencial para recopilar datos en
la tienda. Walmart comenzó a utilizar la tecnología de identificación por radiofrecuencia (RFID) hace
aproximadamente una década. Inicialmente, el objetivo principal de usar esta tecnología era rastrear
el inventario en la cadena de suministro. Sin embargo, cada vez más, a los minoristas les resulta
beneficioso realizar un seguimiento del inventario en la tienda. Las etiquetas RFID son mucho más
fáciles de leer que los códigos de barras porque no requieren un escaneo de línea de visión directa.
Esta facilidad de seguimiento permite que las etiquetas se utilicen para recopilar datos sobre el
movimiento de productos a través de la tienda. Por ejemplo, en el comercio minorista de moda, el
minorista puede rastrear los artículos que llegan a los probadores; también se puede rastrear la
combinación de elementos probados y, finalmente, se puede detectar fácilmente si los elementos
fueron elegidos o no. Todo esto proporciona un rico conjunto de datos para alimentar el sistema para análisis.
Los minoristas también están utilizando chips de comunicación de campo cercano (NFC) para
simplificar la experiencia de compra. La mayor parte del uso actual de NFC está dirigido a pagos. Sin
embargo, varios minoristas también están utilizando el escaneo NFC como un medio para brindarles
a los clientes información adicional sobre el producto. Esto ayuda a recopilar información sobre los
productos que un cliente está considerando. Debido a que los lectores NFC no están presentes en
todos los teléfonos inteligentes, algunos minoristas también usan códigos de respuesta rápida (QR)
para sus productos que los clientes normalmente pueden escanear usando una aplicación para una
funcionalidad similar.
Otro nuevo método de recopilación de datos de los clientes es a través de balizas Bluetooth.
Las balizas utilizan Bluetooth Low Energy, una tecnología integrada en los teléfonos inteligentes
recientes. Las balizas se colocan en toda la tienda y pueden detectar la señal de Bluetooth del
teléfono inteligente de un cliente que se encuentra en las inmediaciones. Estos dispositivos pueden
enviar información al teléfono inteligente a través de aplicaciones especializadas. En este sentido, las
balizas brindan mucha flexibilidad para que el minorista se comprometa e interactúe con el cliente
(suponiendo que el cliente tenga la aplicación especializada). Esto se puede usar para enviar
notificaciones sobre productos, cupones, etc. en tiempo real al cliente. Además, debido a que el
cliente interactúa con la aplicación para utilizar esta información, el efecto de enviar la información al
cliente también se puede rastrear de inmediato. Esta tecnología parece tener mucho potencial para
personalizar la experiencia minorista de los clientes,
Machine Translated by Google
así como para recabar información del cliente. Según Kline,8 casi una cuarta parte de los minoristas
estadounidenses han implementado este tipo de balizas. Macy's y Rite Aid son algunos de los
minoristas destacados que completaron la implementación de balizas en la mayoría de sus tiendas
en 2015.
Algunos de los potenciales más emocionantes para la recopilación de datos se pueden ver en la
tienda minorista Amazon Go lanzada recientemente. La tienda permite a los clientes simplemente
agarrar artículos e irse, sin necesidad de pagar formalmente en un mostrador. El cliente solo necesita
escanear una aplicación al ingresar a la tienda. El uso de una gran cantidad de cámaras de video
junto con algoritmos basados en aprendizaje profundo hacen que esto sea bastante plausible. El
aprendizaje profundo es un área del aprendizaje automático que ha ganado una atención considerable
recientemente debido a su capacidad de vanguardia para descifrar datos no estructurados,
especialmente para el reconocimiento de imágenes; ver cap. 17 sobre el aprendizaje profundo. En el
contexto minorista, las cámaras de video capturan a los clientes y sus acciones, y los algoritmos de
aprendizaje profundo descifran lo que significan las acciones: qué artículos están agarrando de los
estantes y si están devolviendo algún artículo de su bolsa. Tal enfoque revolucionaría la experiencia
minorista de los clientes. Sin embargo, al mismo tiempo, proporciona a la empresa grandes
cantidades de datos más allá de las rutas de los clientes. Le permite a la empresa captar en
momentos de indecisión, productos que fueron comparados, especialmente cuando un producto es
reemplazado por un producto similar.
3 Metodologías
Nos centraremos en el análisis basado en productos para respaldar las decisiones de inventario,
surtido y fijación de precios. Los elementos clave de tales análisis son estimar la demanda de
productos por parte del consumidor, incluir el caso de grupos de productos y luego tomar decisiones
optimizando las variables relevantes.
Algunas de las decisiones fundamentales que toma un minorista es decidir el nivel de inventario
y establecer el precio para cada SKU. Por lo general, esto implica pronosticar la distribución de la
demanda y luego optimizar la variable de decisión en función del objetivo del minorista. La previsión
de la demanda es un tema que ha recibido mucha atención y tiene una larga historia de metodologías.
Los métodos de pronóstico típicos consideran la serie temporal univariada de los datos de ventas y
utilizan métodos basados en series temporales, como el suavizado exponencial y los modelos
ARIMA; ver cap. 12 sobre el análisis de pronósticos. Estos métodos generalmente se enfocan en pronosticar
8https://www.huffingtonpost.com/kenny-kline/how-bluetooth-beacons-wil_b_8982720.html
(consultado el 10 de mayo de 2018).
Machine Translated by Google
606 RS Randhawa
ventas y puede requerir la censura para ser utilizado para la toma de decisiones. Recientemente, ha
habido avances que utilizan enfoques estadísticos y de aprendizaje automático para manejar mayores
cantidades de datos.
A medida que crece el número de predictores, estimar la demanda se vuelve estadísticamente
complicado porque aumenta el potencial de sobreajuste. Por lo general, uno se enfrenta a una situación
de este tipo introduciendo alguna "regularización". La regularización L1 penalizada es una metodología
común, extremadamente exitosa, desarrollada para lidiar con la alta dimensionalidad, ya que realiza una
selección de variables. La regresión L1 penalizada llamada LASSO (operador de selección y contracción
mínima absoluta) se introdujo en Tib shirani (1996) y en el contexto de la regresión lineal típica de
mínimos cuadrados se puede entender de la siguiente manera: supongamos que el objetivo es predecir
una variable de respuesta y ÿ Rn usando covariables X ÿ Rn
×
p, entonces el objetivo de LASSO es resolver
donde ||·||x representa la norma Lx de la expresión entre paréntesis. Tal formulación hace que el
estimador típico de mínimos cuadrados esté sesgado debido al término de regularización; sin embargo,
al seleccionar adecuadamente el regularizador, la varianza se puede reducir, de modo que, en general,
el estimador funciona mejor para la predicción. El uso de la norma L1 facilita la escasez y conduce a una
"mejor" selección de variables. Esto es especialmente útil en el caso de configuraciones de alta dimensión
en las que el número de parámetros p puede incluso exceder los puntos de datos n. Antes de la
introducción de LASSO, la regularización basada en L2, también llamada regresión de cresta, era una
forma común de aliviar el sobreajuste. Más recientemente, se ha propuesto la red elástica que utiliza las
normas L1 y L2 como regularizador. Dirigimos al lector al libro de código abierto9 de James et al. (2013)
para una discusión detallada de estas metodologías. Una descripción también está contenida en el Cap.
7 sobre análisis de regresión.
Recientemente, Ma et al. (2016) utilizó un enfoque basado en LASSO (junto con una selección de
características adicionales) para estimar las ventas basadas en SKU en un entorno de alta dimensión,
en el que las covariables incluían información promocional de categorías cruzadas, lo que involucraba
una cantidad extremadamente grande de parámetros. Descubrieron que incluir información de categorías
cruzadas mejora la precisión del pronóstico en un 12,6 %.
Ferreira et al. (2015) utilizó recientemente un enfoque alternativo basado en el aprendizaje automático
para pronosticar la demanda en un entorno minorista de moda en línea utilizando árboles de regresión.
Los árboles de regresión son un método no paramétrico que implica la predicción de manera jerárquica
mediante la creación de una serie de "divisiones" en los datos. Por ejemplo, la figura 18.1 (reproducida
de Ferreira et al. 2015) muestra un árbol de regresión con dos divisiones de este tipo.
Luego se pronostica la demanda respondiendo las preguntas correspondientes a cada una de las
divisiones: primero, si el precio del producto es inferior a $100. Si no, entonces la demanda se pronostica
como 30. De lo contrario, se hace la siguiente pregunta: si el precio relativo de los estilos de la
competencia es inferior a 0,8 (es decir, el precio de este estilo es
menos del 80% del precio promedio de los estilos de la competencia); si la respuesta es no,
entonces la demanda se pronostica como 40. De lo contrario, se pronostica como 50. El documento
utiliza además el método de reducción de varianza de agregación o embolsado de arranque, en el
que se "cultiva" un conjunto de árboles, con cada árbol entrenado en un muestreo aleatorio del
conjunto de datos, es decir, si los datos tienen N registros, entonces cada árbol se entrena en m <
N registros muestreados aleatoriamente del conjunto de datos con reemplazo. Esto reduce la
interpretabilidad del modelo pero mejora el rendimiento. Remitimos al lector al libro citado
anteriormente sobre aprendizaje estadístico y al Cap. dieciséis, Aprendizaje automático
(supervisado), para obtener detalles sobre esta metodología. Un método estrechamente relacionado
es el de los bosques aleatorios, que es similar a los árboles empaquetados, excepto que a cada
árbol solo se le permite dividirse en un subconjunto de los parámetros; esto reduce la correlación
entre los árboles y reduce aún más la varianza. Los bosques aleatorios son extremadamente
buenos predictores listos para usar; sin embargo, debido a que cada árbol solo usa un subconjunto
de parámetros para el entrenamiento, su interpretabilidad general es bastante limitada.
Recientemente, las redes neuronales (artificiales) (NN) también se han empleado para la
previsión de la demanda (Au et al. 2008). Una red neuronal es un gran grupo de nodos que están
dispuestos en capas, y los arcos en la red están asociados con pesos (Sección 2.1 en el Capítulo
17 ). sobre el aprendizaje profundo). La entrada a la red se transforma secuencialmente capa por
capa: la entrada a una capa se usa para calcular la salida de cada nodo en la capa en función de
las entradas al nodo, y esto sirve como entrada a la siguiente capa. De esta manera, la red
neuronal produce una salida para cualquier entrada dada. Los pesos de la red neuronal se
"entrenan" generalmente mediante métodos de descenso de gradiente para minimizar una función
de pérdida que se relaciona con el error entre la salida y la entrada. Las redes neuronales pueden
modelar dependencias altamente no lineales y, como tales, funcionan muy bien para detectar
patrones y tendencias en escenarios complejos. Las redes neuronales existen desde hace mucho
tiempo; ver caps. dieciséis y 17 La conocida función de regresión logística se puede representar
mediante una red neuronal de una sola capa. Sin embargo, se obtienen redes más interesantes
creando una gran cantidad de capas; Las redes neuronales de cien capas no son infrecuentes.
Las redes neuronales profundas son notoriamente difíciles de entrenar, ya que requieren una gran
cantidad de datos y potencia computacional. Con los avances recientes en la recopilación de datos
y la computación, se ha hecho posible aprovechar el potencial de estas redes. La investigación
inicial demuestra que NN se puede usar de manera efectiva en el contexto de la predicción de la
demanda de moda, y esto ilustra el potencial para usar tales métodos para la previsión de la
demanda en el futuro. El rendimiento de las NN (y su sofisticación) aumenta a medida que aumenta
la cantidad de datos de entrenamiento. Con el auge de la recopilación de datos, especialmente de
datos no estructurados, las NN brindan un potencial interesante para la previsión de la demanda.
Machine Translated by Google
608 RS Randhawa
El árbol de regresión utilizado para entrenar y predecir la demanda incluía todas estas variables.
Basó el ajuste en una división de 70-30 entre las muestras del tren y de prueba. Creció un árbol completo
y lo podó para que coincidiera con el error más bajo en el conjunto de prueba. Los detalles del enfoque
utilizados se dan en el Cap. dieciséis sobre el aprendizaje supervisado. El árbol final se parece a
el que se da a continuación (su árbol puede ser ligeramente diferente dependiendo de la prueba y
muestras de trenes).
En este árbol, moverse hacia la izquierda significa responder "Sí". Un método ingenuo para establecer
el precio y el pedido de inventario se pueden basar en este árbol. Por ejemplo, uno puede
enfóquese en introducir un nuevo producto en una categoría y pregunte qué precio cobrar y
cuánto inventario pedir. Suponga que la tienda está considerando introducir un nuevo
producto dentro de una categoría que ya tiene cinco estilos en competencia. La media
precio (promedio) es 125, y el número de eventos de venta (venta total) es 4. El MSRP
para el producto también es 125. Observe que el árbol no necesita otra información para
Producto Departamento Categoría MSRP Precio compitiendo estilos eventos eventos Pedir
9728 3 3 417 261 215.4 4 4 3 9
9131 3 2 290 124 133 7 5 1 18
2102 3 1 122 21 50,2 3 1 1 40
1879 1 2 258 84 135,6 3 6 1 38
1515 3 1 133 128 98.6 8 3 2 6
Machine Translated by Google
predecir la demanda excepto el precio del producto. Entonces podemos crear un Excel
modelo que se muestra en la Tabla 18.2.
En este modelo simple, uno puede establecer un precio para el producto y bajarlo en la
árbol para predecir la demanda utilizando una serie de declaraciones "SI". La demanda si el precio
<70 y el precio >70 se calculan por separado para minimizar el número de bloques "IF".
La demanda es el total de los dos. Con Solver, un complemento de Microsoft Excel, uno
puede maximizar los ingresos variando el precio. El precio “óptimo” es $158 y el
el ingreso óptimo es $3634. Se le pide al lector que haga varias mejoras al
modelo que se muestra arriba en los ejercicios del capítulo.
El trabajo de Ferreira et al. (2015) adopta el enfoque típico de primera estimación
la demanda y luego optimizando las decisiones. Desde la perspectiva de la toma de decisiones.
en base a los datos disponibles, la naturaleza secuencial de este enfoque es innecesaria, y
uno puede concebir optimizar directamente la decisión de interés basada en todos los disponibles
datos. De hecho, Liyanage y Shanthikumar (2005) prueban que formular la decisión
como una función de los datos y luego optimizarlos directamente puede conducir a una mejora
rendimiento en comparación con el enfoque secuencial.
El trabajo de Ban y Rudin (2018) estudia tal enfoque en el contexto de
elección de inventario óptima para un solo producto (a precios fijos). Este es el escenario de
el clásico problema del vendedor de periódicos en el que el objetivo es seleccionar el nivel de stock para
minimizar el déficit y los costos de mantenimiento (esto se remonta a Edgeworth 1888 y es un
bloque de construcción para modelos más sofisticados de optimización de inventario estocástico;
ver Porteus 2002, para más antecedentes). La obra de Ban y Rudin (2018)
Machine Translated by Google
610 RS Randhawa
considera un enfoque basado en características en el que se supone que la demanda es una función
de muchas características que son observables antes de realizar el pedido, como la estación y el clima.
Por lo tanto, el objetivo del vendedor de periódicos es optimizar la cantidad del pedido en función de
las características observadas, cuando la demanda es incierta y depende de estas características
observables. El documento establece el problema de optimización como un problema de aprendizaje
automático, incluida la regularización como se discutió anteriormente cuando se trata de una gran
cantidad de funciones, y demuestra que el problema se puede resolver utilizando programas LP, MIP
o QCQP. La metodología se aplica al caso de la dotación de personal de enfermería en la sala de
emergencias de un hospital y se muestra que reduce los costos en aproximadamente un 24 % en
relación con los puntos de referencia existentes.
La discusión anterior se centra en los modelos de demanda exógena sin entrar en detalles sobre cómo
surge la demanda. En situaciones de venta al por menor, la sustitución de productos es abundante en
la que cuando el artículo preferido de un cliente está agotado, lo sustituyen seleccionando un producto
diferente. (El trabajo informado en Gruen et al. 2002 sugiere que tales tasas de sustitución pueden ser
significativas).
Esto motiva directamente a modelar las preferencias de los clientes sobre todos los productos que
ofrece el minorista. Uno de los modelos de caballo de batalla para tales modelos de elección del
consumidor es el logit multinomial (MNL); véase también el cap. 8 sobre análisis de regresión avanzada
y Cap. 23 sobre análisis de precios para otras aplicaciones. El modelo MNL considera que cada
consumidor selecciona un producto que maximiza su utilidad. En particular, el modelo describe cada
producto-j de un conjunto de productos numerados 1,...,N a través de una utilidad promedio vj , de
modo que la utilidad de un consumidor i, al elegir el producto-j, viene dada por ui,j = vj + ÿij, donde ÿij
es un término de ruido idiosincrásico de media cero. En el MNL, el ruido se modela como una
distribución de Gumbel,10 y para esta distribución podemos definir la probabilidad de que el cliente i
elija el producto-j cuando se le da un subconjunto de productos A de la siguiente manera:
exp vj
P (El cliente elige el producto j) = 1 + (18.2)
kÿA exp (vk)
Mixed MNL es una extensión natural de este modelo, en el que se incorpora la heterogeneidad
del cliente. Además, la utilidad puede ser una función de los atributos del producto. En particular, el
coeficiente ÿ aplicado a los atributos no es fijo sino que se supone que difiere entre los clientes. Los
coeficientes normalmente se modelan como derivados de una determinada distribución con un
parámetro desconocido que se utiliza como parte del proceso de estimación.
Con fines ilustrativos, consideramos una muestra (Tabla 18.3) dentro de la categoría oscura de losas.
Se enumeran el nombre de la losa, el precio de venta y el costo de mantenimiento. Un estudio de
mercado ha identificado el “valor bruto” del cliente asociado a cada uno de los productos. También se
proporciona el "valor" de ninguna compra. Todas las cifras están en dólares.
Machine Translated by Google
612 RS Randhawa
Nombre de la losa Precio por losa Valor adjunto por el cliente 1750 Costo de mantenimiento por período
Azul romano 1440 1750 14.4 310 22.19795128 0.4857 $ 664.49 $ 489.49
Para simplificar, suponga que el valor de ninguna compra se normaliza a cero. los
el valor neto para un cliente por la compra de una losa es igual a (Valor – Precio). También,
suponga que cada cliente comprará exactamente una losa. El costo de una losa es
80% del precio. Hay un costo de tenencia por unidad debido a intereses, almacenamiento,
rotura, etc. Hay un costo fijo de 175 por losa almacenada. El número promedio de
clientes por periodo en todos los ejemplos es 5.
Considere el caso cuando el producto se vende como MTO. Usamos la opción MNL
modelo en este ejemplo: En la versión más simple del modelo, la probabilidad de que un
el cliente elige un producto i viene dado por ÿi = e((viÿpi)/s)/(1 + e((vlÿpj )/s));
j donde pi representa el precio y vi el valor asociado al producto-i, s es una escala
factor, y la suma se toma de todos los productos que se comparan con el producto-i.
capitulo 23, Pricing Analytics, tiene más detalles sobre este modelo de consumidor
elección. Sea D la demanda media. Suponga que el factor de escala es 100. El valor esperado
entonces el beneficio viene dado por
Continuando con la discusión del modelo de demanda basado en la elección del consumidor,
el trabajo de Vulcano et al. (2012) analiza un modelo de demanda que combina un modelo de
elección MNL con un modelo de llegadas de Poisson no homogéneo. El documento estima
conjuntamente las preferencias de los clientes y los parámetros del proceso de llegada (de la
demanda) utilizando datos de ventas, que incluyen información sobre la disponibilidad del
producto. El documento utiliza un algoritmo de maximización de expectativas (EM) y demuestra la
eficacia de su método utilizando conjuntos de datos de la industria, incluido el de una cadena minorista real.
Si bien el MNL es una gran clase de modelos paramétricos, tiene una deficiencia adicional en
el modelado de sustitución de productos. Algunos ejemplos de artículos que consideran modelos
alternativos de sustitución de productos son Anupindi et al. (1998), Chong et al. (2001), Bell et al.
(2005), Kök y Fisher (2007) y Fisher y Vaidyanathan (2014).
614 RS Randhawa
marco de la demanda. En el artículo, se observa una función de anidamiento, de modo que los
productos pueden clasificarse por su valor y el surtido óptimo solo requiere considerar subconjuntos
anidados de los productos clasificados. Empíricamente, se ha visto que dicha optimización mejora
significativamente las finanzas de una empresa, por ejemplo, Kök y Fisher (2007) estiman un
aumento del 50 % en las ganancias de un minorista, Fisher y Vaidyanathan (2014) informan un
aumento de ventas del 3,6 % y 5,8 % . para dos categorías de productos diferentes, y Farias et al.
(2013) y Jagabathula y Rusmevichientong (2016) estiman alrededor de un 10% de aumento en los
ingresos. Dirigimos al lector a Rusmevichientong et al. (2006), Smith et al.
(2009), Honhon et al. (2010) y Honhon et al. (2012) para optimizar la toma de decisiones bajo
variantes de modelos de elección basados en rangos. Más recientemente, ha habido un interés
creciente en optimizar los surtidos utilizando métodos no paramétricos. Por ejemplo, Bertsimas y
Mišic (2015) utilizan un modelo de elección no paramétrico relacionado con Farias et al. (2013) ,
pero renuncia al enfoque robusto para estimar directamente el modelo de elección resolviendo de
manera eficiente un problema de optimización lineal a gran escala mediante la generación de
columnas y luego resuelve la pieza de optimización de surtido basada en la solución de un problema
de optimización de enteros mixtos prácticamente tratable. El Jagabathula y Rusmevichientong
(2016) al que se hizo referencia anteriormente resuelve un problema conjunto de precios y surtido
(que se sabe que es NP-difícil) utilizando un algoritmo de aproximación con una garantía de
desempeño demostrable basada en una formulación de DP.
Curiosamente, a medida que avanzamos hacia surtidos dinámicos, que se vuelven más
relevantes en el contexto del comercio electrónico, Bernstein et al. (2015) y Golrezaei et al. (2014)
resuelven este problema en un entorno de inventario limitado. Estos últimos, de hecho, consideran
un modelo de elección del consumidor muy general y proponen un algoritmo que no requiere el
conocimiento de la información de llegada del cliente.
Ejemplo: Surtido a través de Internet
Considere el ejemplo anterior y el caso cuando el surtido se ofrece a través de Internet. En este
caso, el surtido se cambia cada temporada de venta. Modelamos esto como un problema MTS sin
sustitución. Una vez que se agota el producto, el cliente que lo solicita recibe un mensaje de que
está agotado y se va sin comprar. También se nos dice que deshacerse del producto no vendido al
final de un período (o temporada de venta) recupera el 85% del costo del producto. Este costo se
estima como el costo del artículo menos el costo de envío a una tienda de descuento y el costo de
mantenimiento para vender el producto al final de la temporada. Se supone que la demanda tiene
una distribución de Poisson con media igual a 5. Aunque podemos calcular la ganancia esperada
analíticamente, para ilustrar un método alternativo, ¡usaremos simulaciones! Por hacer esto,
generamos demanda 1000 veces. En cada simulación, dibujamos el número de clientes según la
distribución de Poisson. Luego determine qué losa prefiere cada uno de los clientes. Dada una
cantidad de existencias, es sencillo pero un poco tedioso calcular la ganancia esperada. La hoja
“Surtido_Ejemplos.xlsx” contiene la simulación. Los resultados del resumen de la muestra cuando
se almacena una losa de cada tipo se muestran a continuación (datos y ganancias promedio arriba
y las primeras filas de simulación a continuación en las Tablas 18.5 y 18.6).
Por ejemplo, en la primera simulación llegaron tres clientes. Todos querían Roman Blue. La
venta real fue de una losa de Roman Blue y una losa de Niagara,
Machine Translated by Google
azul romano 1440 1750 14.4 310 22.19795128 0.4857 $ 685.07 $ 510.07
Inventario 1 1 1 1 Total
romano Siempre Violeta Nº de
Simulación aleatoria Lucro Azul Niágara Negro Negro clientes
1 0.17144837 $ (1106.08) 3 0.73233508 0 0 0 3
2 $ 195.36 0.98212926 $ 744.80 1 3 0 2 6
3 0.48677441 $ 1.44 0.13994017 $ 6 1 2 1 10
4 (556.64) 2 3 0 1 1 5
5 0 1 0 3
Forever Black y Violet Black tuvieron que ser rescatados con pérdidas. Se pide al lector que
verifique la configuración de la simulación en el ejercicio y luego tome las decisiones óptimas.
AbD vende a clientes sin cita previa o vende MTS con sustitución. ya podemos
¡Mira cómo este problema se vuelve mucho más complicado cuando hay sustitución!
Además de crear llegadas, tenemos que hacer un seguimiento de la secuencia en la que las
llegan los clientes y luego ver si hay stock. Si hay desabastecimiento, necesitamos modelar
si hay sustitución de los productos restantes o el cliente abandona el
almacenar con las manos vacías. El ejercicio 18.4 da un ejemplo simple para ilustrar estas ideas.
En muchos entornos, las preferencias de los clientes no se conocen y es posible que sea necesario aprender
éstos mientras optimizan simultáneamente el surtido. Caro y Gallien (2007)
y Rusmevichientong et al. (2010) fueron de los primeros en estudiar este problema.
Caro y Gallien (2007) emprendieron un enfoque de aprendizaje bayesiano en el que el
primitivos subyacentes tienen una cierta distribución, y el enfoque bayesiano es
para aprender estos parámetros. Por otro lado, Rusmevichientong et al. (2010)
utilizó un enfoque de aprendizaje adaptativo en el que tales antecedentes no se asumen, y un
Se utiliza el paradigma explorar-explotar: en este enfoque, el tomador de decisiones equilibra
"exploración" para recopilar puntos de datos relevantes, con "explotación" para generar ingresos
en base a los datos observados hasta el momento. Más recientemente, la noción de personalización
surtidos se está volviendo frecuente, especialmente en entornos de venta electrónica, en los que un cliente
se le podría mostrar una variedad de artículos en función de la información específica del cliente, como
Machine Translated by Google
616 RS Randhawa
como datos históricos sobre preferencias, demografía, etc. En tal situación, estimar la elección
del cliente se convierte en un problema de estimación de alta dimensión (la dimensionalidad es
igual al número de clientes multiplicado por el número de productos). Un artículo reciente (Kallus
y Udell 2016) considera este problema y propone un modelo de elección logit multinomial mixto
de bajo rango en el que se supone que la matriz de elección del cliente tiene una representación
latente de bajo rango. El documento propone un estimador de máxima verosimilitud regularizado
de norma nuclear para aprender este modelo y muestra que puede aprender el modelo con
pocas interacciones con los clientes. En términos generales, con las crecientes capacidades de
recopilación de datos, esperamos una mayor proliferación de tales modelos que estiman las
opciones individuales a nivel de cliente y las utilizan para tomar decisiones personalizadas.
El tremendo éxito del comercio electrónico ha llevado a muchos minoristas a aumentar sus
tiendas físicas con una presencia en línea, lo que ha llevado al advenimiento del comercio
minorista multicanal. En este enfoque, el minorista tiene acceso a múltiples canales para
interactuar con el cliente y venderle. Normalmente, cada uno de estos canales se gestiona por
separado. Este enfoque multicanal se ha visto eclipsado por lo que comúnmente se conoce
como comercio minorista omnicanal , en el que la empresa integra todos los canales para
brindar una experiencia perfecta a los clientes. Un buen ejemplo de este enfoque es el enfoque
de "compre en línea, recoja en la tienda" (BOPS) que se ha vuelto bastante común.
Indiscutiblemente, este enfoque perfecto mejora la experiencia del cliente y las ventas en
general; sin embargo, puede conducir a resultados no deseados. Por ejemplo, Bell et al. (2014)
muestran que dicha estrategia puede reducir las ventas en línea y, en cambio, generar un
aumento en las ventas y el tráfico en la tienda. En ese contexto, los autores encuentran que se
generan ventas adicionales mediante la venta cruzada en la que los clientes que utilizan la
funcionalidad BOPS compran productos adicionales en las tiendas y, además, también existe
un efecto de canal en el que los clientes en línea pueden convertirse en ladrillo. -y-mortero clientes.
Los beneficios del enfoque omnicanal incluso están impulsando a los minoristas en línea a
incursionar en las tiendas físicas. Por ejemplo, estudios recientes muestran cómo, al introducir
un canal fuera de línea a través de salas de exhibición, WarbyParker.com pudo aumentar tanto
la demanda general como la del canal en línea (ver Bell et al. 2014).
Por lo tanto, existe un valor significativo para que un minorista incursione en la omnicanalidad.
Sin embargo, al hacerlo, es crucial que el análisis minorista de la empresa trascienda al análisis
omnicanal para una estimación correcta y una toma de decisiones óptima.
Machine Translated by Google
Ha habido un aumento repentino en las nuevas empresas de análisis minorista recientemente. La mayoría
de estas empresas se pueden clasificar como aquellas que usan tecnología para ayudar en la recopilación
de datos y aquellas que usan medios sofisticados para analizar los datos en sí.
En términos de recopilación de datos, hay muchas nuevas empresas que atienden a la gama de
minoristas, tanto pequeños como grandes. Algunos ejemplos ilustrativos aquí son Euclid Analytics, que
utiliza Wi-Fi en la tienda para recopilar información sobre los clientes a través de sus teléfonos inteligentes.
La empresa puede recopilar el comportamiento de los clientes en la tienda y también datos sobre visitas
repetidas. La recopilación de información basada en Wi-Fi también permite al minorista realizar un
seguimiento de lo que hacen los clientes en línea mientras están en la tienda. Esto le permite al minorista
comprender mejor su base de clientes, incluidos los productos que están investigando en sus teléfonos
inteligentes (showrooming). Otra puesta en marcha reciente es Dor, que está dirigida a minoristas más
pequeños y vende un dispositivo que cuenta el tráfico peatonal en la tienda. Luego proporciona una vista
de tablero del tráfico y proporciona información para optimizar la dotación de personal. Startups como
Brickstream y Footmarks producen sensores que monitorean el tráfico peatonal, para que los asociados
puedan reaccionar ante los compradores en tiempo real. Swirl trabaja con marcas como Urban Outfitters,
Lord & Taylor y Timberland para monitorear el comportamiento de los compradores con balizas. Point Inside
proporciona balizas a Target. Las empresas emergentes como Estimote, Shelfbucks y Bfonics aprovechan
las balizas para el marketing de proximidad en la tienda, como enviar notificaciones móviles a los
compradores sobre los productos que están buscando actualmente.
El análisis de video es otra área emocionante en la que se están involucrando las nuevas empresas.
Por ejemplo, Brickstream utiliza análisis de video para capturar inteligencia de comportamiento en profundidad.
RetailNext es una de las nuevas empresas más grandes en este dominio y cubre una amplia gama de
recopilación de datos, desde la recopilación de datos basada en Wi-Fi hasta métodos más sofisticados que
utilizan transmisiones de cámaras de video. RetailNext también profundiza en una variedad de soluciones
de análisis que incluyen horarios de personal y algunas pruebas A/B. El análisis de video ayuda en el mapa
de calor de las rutas de los clientes y también se puede usar para la prevención de pérdidas.
Oak Labs construye espejos interactivos con pantalla táctil que pretenden revolucionar el probador. El
espejo permite a los clientes explorar recomendaciones de productos y buscar asistencia digital de los
asociados de la tienda. El uso de la tecnología aquí mejora la experiencia del cliente y recopila datos
valiosos al mismo tiempo.
PERCH produce pantallas digitales interactivas utilizadas por marcas como Kate Spade y Cole Haan.
Blippar se enfoca en integrar dominios digitales y físicos mediante el uso de una aplicación que desbloquea
contenido al escanear productos. Aila administra tabletas interactivas en el pasillo para tiendas que brindan
a los clientes información detallada del producto al escanear un código de barras del producto. Estas nuevas
empresas se enfocan en mejorar la experiencia del cliente al proporcionar más información y al mismo
tiempo recopilar información sobre cómo los clientes eligen productos que pueden ayudar al minorista a
tomar decisiones más inteligentes.
En cuanto a la analítica, algunas empresas emergentes como Sku IQ y Orchestro se centran en brindar
una vista unificada a las empresas multicanal. Sku IQ proporciona una vista unificada del inventario, las
ventas y los clientes de todos los canales. Orchestro se centra en la estimación de la demanda mediante la
combinación de datos de sistemas POS, ERP interno y datos de terceros
Machine Translated by Google
618 RS Randhawa
en una visión común de la demanda. Orchestro fue adquirida recientemente por E2open, un proveedor
de sistemas de gestión de red de cadena de suministro basado en la nube.
En cuanto a las nuevas empresas centradas en el análisis avanzado, Blue Yonder se centra en el
análisis para optimizar el precio y la reposición de inventario, mientras que Celect se centra en el uso
del aprendizaje automático para optimizar los surtidos de productos. Finalmente, Stitch Fix brinda una
perspectiva interesante sobre cómo la personalización para los clientes puede tener un enorme potencial
comercial. Stitch Fix selecciona ropa de moda y da recomendaciones a sus miembros. Para ello, utiliza
algoritmos de aprendizaje automático que hacen sugerencias a estilistas humanos que luego usan su
experiencia y conocimiento para hacer recomendaciones a los clientes finales.
Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están
disponibles en https://www.allaboutanalytics.net.
Ejercicios
(a) Replique el árbol de regresión que se muestra en la figura 18.2. Los detalles del procedimiento se
encuentran en el Cap. dieciséis sobre el aprendizaje supervisado. (b) Mejorar el modelo para
considerar el impacto del precio del producto en el precio promedio de los productos de la competencia.
Machine Translated by Google
(c) Mejorar el modelo para no solo considerar los ingresos por nuevos productos, sino también
los ingresos por productos de la competencia. Para hacerlo, suponga que los otros productos
tienen precios de 75, 100, 125, 150 y 175, y sus MSRP son iguales a sus precios. (d) A la
gerencia de la tienda le gustaría asegurarse de que las ventas totales del nuevo producto sean
de al menos 25 unidades. ¿Cómo afecta este cambio a su solución? (e) La tienda desea
ordenar inventario con base en la demanda pronosticada. ¡El gerente de la tienda argumenta
que la predicción de la demanda es solo un número! Él dice: "Necesitamos un pronóstico
de intervalo". ¿Cómo modificaría el modelo para predecir un intervalo (como (20,26))? ¿Qué
inventario pedirías? (Sugerencia: mire el error asociado con la predicción en un nodo del
árbol de regresión. ¿Puede usar esto?)
(a) Calcule la utilidad esperada (que se muestra en la tabla 18.4) usando las fórmulas provistas
en el capítulo. Puede consultar la hoja MTO de AssortmentExamples.xlsx. (b) ¿Es este el
surtido óptimo para ofrecer? (c) ¿Qué cambiaría si el costo de almacenamiento aumentara a
$230 por producto?
abastecido?
(d) ¿Cómo evaluaría AbD si agregar un nuevo producto a esta categoría? Crear
su propio ejemplo y mostrar el análisis.
(a) Calcule la utilidad esperada (que se muestra en la tabla 18.5) usando las fórmulas provistas
en el capítulo. Verifique la simulación. (b) ¿Es este el surtido óptimo para ofrecer? ¿Se
puede optimizar el beneficio esperado? (c) ¿Qué cambiaría si el costo de almacenamiento
aumentara a $230 por producto?
abastecido?
(d) ¿Cómo evaluaría AbD el impacto de un aumento del 5% en el precio de todos los productos?
AbD decide ofrecer solo dos tipos de losas a los clientes sin cita previa, Roman Blue y
Forever Black. Suponga que las probabilidades de elección son 0,4857 y 0,3256, respectivamente.
Si un cliente no encuentra el producto deseado, cambiará al otro producto con la mitad de la
probabilidad original (0.2428 y 0.1628). AbD mantiene solo una losa de cada uno como inventario.
Utilice los mismos costes y precios que en el ejercicio anterior. Calcule la ganancia esperada
cuando llega exactamente un cliente y también cuando llegan exactamente dos clientes.
(Sugerencia: enumere todas las secuencias posibles en las que se demanda un producto).
Referencias
ÿ
Alptekinoglu, A. y Semple, JH (2016). El modelo de elección exponencial: una nueva alternativa para la optimización
de surtido y precio. Investigación de operaciones, 64(1), 79–93.
Anupindi, R., Dada, M. y Gupta, S. (1998). Estimación de la demanda del consumidor con sustitución basada en
desabastecimiento: una aplicación a productos de máquinas expendedoras. Ciencias del marketing, 17(4), 406–423.
Machine Translated by Google
620 RS Randhawa
Au, KF, Choi, TM y Yu, Y. (2008). Pronóstico minorista de moda por redes neuronales evolutivas.
Revista Internacional de Economía de la Producción, 114(2), 615–630.
Ban, G.-Y., & Rudin, C. (2018). El vendedor de noticias de big data: conocimientos prácticos del aprendizaje automático.
La investigación de operaciones. Disponible en SSRN: https://ssrn.com/abstract=2559116. doi.org/ 10.2139/
ssrn.2559116
Bell, DR, Bonfrer, A. y Chintagunta, PK (2005). Recuperación de preferencias a nivel de unidad de almacenamiento y
sensibilidades de respuesta a partir de modelos de participación de mercado estimados en agregados de artículos.
Revista de Investigación de Mercados, 42(2), 169–182.
Bell, DR, Gallino, S. y Moreno, A. (2014). Salas de exposición fuera de línea y migración de clientes en el comercio
minorista omnicanal. Recuperado el 1 de agosto de 2018 de https://courses.helsinki.fi/sites/default/files/course-
material/4482621/17.3_MIT2014%20Bell.pdf Bernstein, F., Kök , AG y Xie, L. ( 2015). Personalización dinámica del
surtido con inventarios limitados. Gestión de operaciones de fabricación y servicios, 17(4), 538–553.
Chong, JK, Ho, TH y Tang, CS (2001). Un marco de modelado para el surtido de categorías
planificación. Gestión de operaciones de fabricación y servicios, 3(3), 191–210.
De Horatius, N. (2011). Inexactitud del registro de inventario en las cadenas de suministro minorista. Enciclopedia Wiley de
investigación de operaciones y ciencias de la gestión (págs. 1–14).
DeHoratius, N. y Raman, A. (2008). Inexactitud del registro de inventario: un análisis empírico.
Ciencias de la gestión, 54(4), 627–641.
Edgeworth, año fiscal (1888). La teoría matemática de la banca. Diario de la Estadística Real
Sociedad, 51(1), 113–127.
Farias, VF, Jagabathula, S. y Shah, D. (2013). Un enfoque no paramétrico para modelar la elección
con datos limitados. Ciencias de la administración, 59(2), 305–322.
Ferreira, KJ, Lee, BHA y Simchi-Levi, D. (2015). Análisis para un minorista en línea: previsión de demanda y optimización
de precios. Gestión de operaciones de fabricación y servicios, 18(1), 69–88.
Fisher, M. y Vaidyanathan, R. (2014). Un procedimiento de estimación de la demanda para la optimización del surtido
minorista con resultados de implementaciones. Ciencias de la administración, 60(10), 2401–2415.
Golrezaei, N., Nazerzadeh, H. y Rusmevichientong, P. (2014). Optimización en tiempo real de
surtidos personalizados. Ciencias de la gestión, 60(6), 1532–1551.
Gruen, TW, Corsten, DS y Bharadwaj, S. (2002). Venta minorista agotada: un examen mundial del alcance, las causas y
las respuestas de los consumidores. Washington, DC: Fabricantes de comestibles de América.
Guadagni, PM y Little, JD (1983). Un modelo logit de elección de marca calibrado en datos de escáner.
Ciencias del marketing, 2(3), 203–238.
Haensel, A. y Koole, G. (2011). Estimación de funciones de tasa de demanda sin restricciones utilizando el cliente
conjuntos de elección. Journal of Revenue and Pricing Management, 10(5), 438–454.
Honhon, D., Gaur, V. y Seshadri, S. (2010). Planificación de surtido y decisiones de inventario bajo sustitución basada en
desabastecimiento. Investigación de operaciones, 58(5), 1364–1379.
Honhon, D., Jonnalagedda, S. y Pan, XA (2012). Algoritmos óptimos para la selección de surtido bajo modelos de elección
del consumidor basados en clasificación. Gestión de operaciones de fabricación y servicios, 14(2), 279–289.
Machine Translated by Google
Tibshirani, R. (1996). Encogimiento de regresión y selección a través del lazo. Diario de la Real
Sociedad de Estadística. Serie B (Metodológica), 267–288.
Tren, KE (2009). Métodos de elección discreta con simulación. Cambridge: Universidad de Cambridge
Prensa. https://eml.berkeley.edu/~train/distant.html.
van Ryzin, G. y Vulcano, G. (2017). Un método de maximización de expectativas para estimar un modelo de elección
de demanda basado en rangos. Investigación de operaciones, 65(2), 396–407.
Vulcano, G., Van Ryzin, G. y Ratliff, R. (2012). Estimación de la demanda primaria de sustituibles
productos a partir de datos de transacciones de ventas. Investigación de operaciones, 60(2), 313–334.
Wierenga, B., van Bruggen, GH y Althuizen, NA (2008). Avances en los sistemas de apoyo a la gestión de marketing.
En B. Wierenga (Ed.), Manual de modelos de decisión de marketing (págs. 561–592).
Boston, MA: Springer.
Machine Translated by Google
capitulo 19
Análisis de marketing
1. Introducción
Es muy difícil ignorar el potencial de la analítica para brindar información sólida a la sala de juntas a
fin de tomar decisiones efectivas a nivel de empresa, cliente y producto/marca. Las herramientas de
análisis avanzado, los datos disponibles y los conceptos relacionados tienen un enorme potencial
para ayudar a diseñar estrategias comerciales y de marketing efectivas. En tal contexto, comprender
las herramientas y sus diversas implicaciones en varios contextos diferentes es esencial para
cualquier gerente. De hecho, el uso sólido de las herramientas de análisis ha ayudado a las empresas
a aumentar el rendimiento en términos de ventas, ingresos, ganancias, satisfacción del cliente y
competencia. Para obtener detalles sobre cómo el análisis de marketing puede ayudar a las empresas
a aumentar su rendimiento, consulte Kumar y Sharma (2017).
El análisis de marketing puede ayudar a las empresas a darse cuenta del verdadero potencial de
los datos y explorar información significativa. El análisis de marketing se puede definir como un
"enfoque respaldado por un modelo de ciencia de marketing y habilitado por alta tecnología para
aprovechar los valores reales de los datos a nivel de cliente, mercado y empresa para mejorar el
efecto de las estrategias de marketing" (Kumar y Sharma 2017; Lilien 2011) .
Básicamente, el análisis de marketing es la creación y el uso de datos para medir y optimizar las
decisiones de marketing. El análisis de marketing comprende herramientas y procesos.
S. Arunachalam ( )
Escuela de Negocios de la India, Hyderabad, Telangana, India
Correo electrónico: S_Arunachalam@isb.edu
Universidad
A. Sharma Texas A&M, College Station, TX, EE. UU.
que pueden informar y evaluar las decisiones de marketing desde el desarrollo del producto/servicio hasta
las ventas (Farris et al. 2010; Venkatesan et al. 2014). Según la encuesta de CMO, el gasto en análisis
aumentará del 4,6 % al 22 % en los próximos 3 años.1 Esto muestra la creciente importancia de los análisis
en el campo del marketing. Los mejores especialistas en marketing ya no confían solo en la intuición o la
experiencia pasada para tomar decisiones. Quieren tomar decisiones basadas en datos. Pero en la misma
encuesta, la "falta de procesos o herramientas para medir el éxito a través del análisis" y la "falta de personas
que puedan vincularse con la práctica de marketing" se han citado como los dos factores principales que
impiden que los especialistas en marketing utilicen herramientas analíticas de marketing avanzadas en el
mundo real. mundo.
Este capítulo es un paso hacia el cierre de estas dos brechas. Presentamos herramientas que informan
y miden el éxito de las actividades y estrategias de marketing. También esperamos que esto ayude a los
especialistas en marketing actuales y potenciales a comprender bien el análisis de marketing y cómo se
puede utilizar en la práctica (Lilien et al. 2013; Kumar et al. 2015).
Dado que las herramientas de análisis son muy numerosas y que no es factible explicar la A–Z de cada
herramienta aquí, seleccionamos algunas herramientas de uso común e intentamos brindar una comprensión
integral de estas herramientas. Los lectores interesados pueden consultar las referencias de este capítulo
para obtener una comprensión más avanzada y profunda de las herramientas discutidas.
Los procesos y herramientas discutidos en este capítulo ayudarán en varios aspectos del marketing,
como el marketing objetivo y la segmentación, el precio y la promoción, la valoración del cliente, la asignación
de recursos, el análisis de respuesta, la evaluación de la demanda y el desarrollo de nuevos productos.
Estos se pueden aplicar en los siguientes niveles:
• Empresa: En este nivel, las herramientas se aplican a la empresa como un todo. En lugar de centrarse en
un producto o marca en particular, estos pueden usarse para decidir y evaluar las estrategias de la
empresa. Por ejemplo, el análisis envolvente de datos (DEA) se puede utilizar para todas las unidades
(es decir, finanzas, marketing, recursos humanos, operaciones, etc.) dentro de una empresa para
encontrar las unidades más eficientes y asignar los recursos en consecuencia.
• Marca/ producto: A nivel de marca/producto, se aplican herramientas para decidir y evaluar estrategias
para una marca/producto en particular. Por ejemplo, se puede realizar un análisis conjunto para encontrar
las características del producto preferidas por los clientes o se puede realizar un análisis de respuesta
para encontrar cómo el mercado recibirá un anuncio de marca en particular. • Cliente: las herramientas
aplicadas a nivel del cliente brindan información que ayuda a segmentar y orientar a los clientes. Por
ejemplo, el valor de por vida del cliente es una métrica del cliente con visión de futuro que ayuda a evaluar
el valor proporcionado por los clientes a la empresa (Fig. 19.1).
1https://cmosurvey.org/2017/02/cmo-survey-marketers-to-spend-on-analytics-use-sigue siendo
esquivo/ (consultado el 6 de julio de 2018).
Machine Translated by Google
Marketing
Analítica
Marca Cliente
1. Análisis estadístico multivariado: Se trata del análisis de más de una variable de resultado. El análisis de
conglomerados, el análisis factorial, los mapas de percepción, el análisis conjunto, el análisis discriminante
y MANOVA forman parte del análisis estadístico multivariado. Estos pueden ayudar en el marketing y la
segmentación de objetivos, la optimización de las características del producto, etc., entre otras aplicaciones.
2. Análisis de elección: el modelo de elección proporciona información sobre cómo los clientes toman
decisiones. Comprender el proceso de toma de decisiones del cliente es fundamental, ya que puede
ayudar a diseñar y optimizar varias estrategias de mezcla de marketing, como la fijación de precios y la
publicidad. En gran parte, los modelos logísticos, probit y tobit se tratan en esta sección.
3. Modelos de regresión: Los modelos de regresión establecen relaciones entre variables dependientes y
variables independientes. Se puede utilizar para comprender resultados como las ventas y la rentabilidad,
sobre la base de diferentes factores como el precio y la promoción. En esta sección se tratan el análisis
univariante, el análisis multivariante, el análisis no lineal y el análisis de moderación y mediación.
4. Análisis de series temporales: los modelos establecidos hasta ahora se ocupan principalmente de datos
transversales (sin embargo, los modelos de elección y regresión también se pueden usar para datos de panel).
Esta sección consta de modelos autorregresivos y modelos vectoriales autorregresivos para el análisis de
series de tiempo. Estos se pueden utilizar para pronosticar ventas, cuota de mercado, etc.
5. Herramientas no paramétricas: Las herramientas no paramétricas se utilizan cuando los datos no pertenecen
a ninguna distribución en particular. El análisis envolvente de datos (DEA) y el análisis de frontera
estocástica (SFA) se analizan en esta sección y se pueden utilizar para la evaluación comparativa, la
asignación de recursos y la evaluación de la eficiencia.
6. Análisis de supervivencia: el análisis de supervivencia se utiliza para determinar la duración del tiempo hasta
que ocurre un evento como la compra, el desgaste y la conversión. En esta sección se tratan el modelo de
riesgo de referencia, el modelo de riesgo proporcional y el análisis con covariables variables en el tiempo.
Machine Translated by Google
7. Análisis de Salesforce/ventas: esta sección cubre el análisis de ventas, que incluye la previsión de
ventas potenciales, la previsión de cuota de mercado y el análisis causal. Comprende varios
métodos, como el método de relación de cadena, el método Delphi y el análisis del ciclo de vida del
producto.
8. Análisis de innovación: el análisis de innovación se ocupa específicamente de nuevos productos.
El análisis de nuevos productos difiere del análisis de productos existentes, ya que es posible que
tenga pocos o ningún dato histórico para el diseño del producto o la previsión de ventas.
El modelo Bass, el modelo ASSESSOR y el análisis conjunto se pueden utilizar para el análisis de
la innovación.
9. Análisis conjunto: esta sección cubre uno de los métodos cuantitativos más utilizados en la
investigación de mercados. El análisis conjunto (trade-off) es una técnica estadística para medir las
preferencias del cliente por varios atributos de un producto o servicio. Esto se utiliza en varias etapas
del diseño de un nuevo producto, segmentación de clientes y fijación de precios.
10. Análisis de clientes: en esta sección, investigamos las métricas de los clientes, como el valor de por
vida del cliente, el valor de referencia del cliente y el análisis RFM (reciente, frecuencia y valor
monetario). Estos se pueden utilizar para segmentar a los clientes y determinar el valor proporcionado
por los clientes.
Este capítulo proporciona una comprensión integral del campo de análisis de marketing. Explicamos
una parte a través de regresión básica y avanzada, análisis envolvente de datos, análisis de frontera
estocástica, análisis de innovación y análisis de clientes.
Cada sección de este capítulo tiene problemas y soluciones relacionados con el marketing para
reforzar los conceptos y mejorar la comprensión. Describimos cómo se pueden implementar varias
herramientas para un objetivo particular. También discutimos las limitaciones de las herramientas bajo
consideración. Debe familiarizarse con todos los procesos y herramientas para que pueda elegir los
apropiados para su análisis.
2.1 Regresión
Efecto de interacción
Esta sección cubre los pasos para realizar interacciones entre variables continuas en regresión
múltiple (MR). Brindamos una comprensión intuitiva de este concepto y compartimos un método paso a
paso para realizar y probar estadísticamente un efecto de interacción. El capítulo 7 sobre el análisis de
regresión lineal contiene una explicación detallada de la teoría subyacente a la RM.
Los efectos de interacción, también llamados efectos moderadores, son los efectos combinados de
múltiples variables independientes sobre la variable dependiente. Representan situaciones en las que el
efecto de una variable sobre una variable dependiente depende de otra variable (Baron y Kenny 1986).
Consideremos un ejemplo hipotético donde
Machine Translated by Google
Y = i0 + a X + b Z + c XZ + Error (19.1)
dónde
Y = variable dependiente continua (ventas en el ejemplo anterior)
X, Z = variables independientes continuas (publicidad y precio en el ejemplo anterior)
Y = (a + c Z) X + (i0 + b Z) (19.2)
Machine Translated by Google
Esta vista ampliada de la ecuación. (19.1) ayuda a responder las dos preguntas que
planteamos anteriormente. Se ve de la Ec. (19.2) que la pendiente de la regresión de Y sobre
X ahora es el término (a + c Z), a diferencia de solo "a" de la ecuación simple. Este término (a
+ c Z) se denomina pendiente simple en la literatura sobre moderación, ya que el efecto de Y
sobre X ahora está condicionado por el valor de Z. Por lo tanto, el efecto ahora depende de Z
en lugar de ser independiente como se indicó anteriormente. Volviendo a nuestro ejemplo de
gestión, esto significaría que el efecto de la publicidad (X) sobre las ventas (Y) depende del precio (Z).
Esto es precisamente lo que nos gustaría lograr o probar. Esto también significa que para
cada valor de Z, la regresión de Y sobre X tendría una línea diferente, que se llama línea de
regresión simple. La ecuación (19.2) también podría reescribirse extrayendo Z y teniendo una
pendiente simple que es (b + c X), lo que ayudaría a comprender cómo el efecto del precio (Z)
en las ventas (Y) depende de la publicidad (X) .
Estimación: Estimación de la ecuación. (19.2) utilizando cualquier software estadístico
como STATA (o R), es sencillo. El comando de regresión (lm) se puede utilizar para estimar la
ecuación después de centrar la media de las variables independientes y crear el término XZ.
La interpretación y el sondeo de los efectos de interacción necesitan más comprensión
(Preacher et al. 2006). Supongamos que la pendiente “c” del término XZ es estadísticamente
significativa (en p < 0,05). ¿Qué significa esto? ¿Cómo interpretar este efecto significativo?
Hay dos conclusiones muy importantes cuando la pendiente "c" es significativa. Primero,
significa que las pendientes simples para cualquier par de líneas de regresión simples
obtenidas usando dos valores legítimos diferentes de Z son estadísticamente diferentes.
Segundo, para cualquier valor específico de Z, el investigador tiene que probar si la línea de
regresión simple es significativamente (es decir, significación estadística) diferente de cero.
Estos dos puntos se entienden y observan mejor trazando gráficos de la interacción.
Recomendamos que el investigador siempre debe trazar gráficos para comprender a fondo
los efectos de interacción. Antes de probar estos efectos a través de gráficos, comprendamos
el significado de "valores legítimos" de Z. Recordemos que hemos centrado la media de las
variables X y Z y, por lo tanto, la media de estas dos variables sería cero y el rango sería de
negativo a valores positivos alrededor de cero. Siempre es una buena práctica elegir dos
valores de Z: un valor bajo y otro valor alto como una desviación estándar por debajo y por
encima de la media (que ahora es cero) respectivamente, para trazar las líneas de regresión
simples. La razón es que estos dos valores estarían dentro del rango de valores de Z en
nuestra muestra. Esto es importante porque no debemos elegir un valor que no esté dentro
del rango de la muestra. El investigador es libre de elegir dos valores cualesquiera que estén
dentro del rango de Z. Si elegimos un valor arbitrario y si ese valor está fuera del rango de Z,
entonces estamos probando los efectos para datos fuera de la muestra, que Es incorrecto.
Por lo tanto, los investigadores deben prestar atención al elegir valores legítimos de Z.
Supongamos que elegimos dos valores legítimos de Z, a saber, Z-bajo (ZL) y Z-alto (ZH).
Así que las pendientes simples de la Ec. (19.2) que determinan las líneas de regresión simple
son (a + c ZL) y (a + c ZH). Por lo tanto, podemos trazar dos líneas de regresión sustituyendo
los dos valores de Z en la ecuación. (19.2). Estas dos líneas representarían entonces el efecto
de la publicidad (X) sobre las ventas (Y) cuando el precio es bajo (ZL) y cuando el precio es
alto (ZH). Derivando de la Ec. (19.2) las ecuaciones de regresión simple son:
Machine Translated by Google
Supongamos que hemos estimado la Ec. (19.2) de un conjunto de datos de muestra que contenía
valores para Y, X y Z y que tenemos esta ecuación de predicción (el intercepto i0 se omite por razones
pedagógicas; X y Z están centrados en la media):
Los parámetros “a”, “b” y “c” son estadísticamente significativos (p < 0,05). Tenga en cuenta que no es
necesario que "a" y "b" sean significativos para probar el efecto de interacción. Sin embargo, es importante
que "c", la estimación del término de interacción XZ, sea estadísticamente significativo para probar el
efecto de la interacción (consulte más arriba las dos conclusiones importantes). Supongamos también que
las desviaciones estándar de X y Z son 0,5 y 0,5. Los siguientes pasos ayudan a trazar los gráficos.
Esto conduce a unas ventas previstas de 0,01 con poca publicidad y bajo precio.
De manera similar, se pueden obtener los valores pronosticados para todas las demás combinaciones de X y Z.
Recomendamos usar una hoja de Excel para calcular esta tabla 2 * 2 como se muestra a continuación
(Tabla 19.1).
Una vez que tenemos la tabla anterior, es fácil trazar las dos líneas de regresión correspondientes a
los valores alto y bajo del precio (Z). Las dos filas de la tabla son las dos líneas de regresión. El gráfico se
puede trazar como un gráfico de líneas en Excel (Fig. 19.2).
(Enfoque de Excel: para trazar, haga clic en la opción "Insertar" y seleccione el gráfico de líneas y elija
los dos puntos de datos para bajo y alto para obtener las dos líneas de regresión como se muestra a
continuación).
Interpretación del gráfico: La línea titulada “Precio alto” muestra el efecto de la publicidad en las
ventas cuando el precio también aumenta a un valor alto. La línea muestra que la pendiente es positiva;
es decir, cuando aumenta el precio, a medida que aumenta la publicidad, el efecto sobre las ventas es
positivo. La línea titulada Precio bajo muestra el efecto
0.25
Precio alto ZH
0.2
0.15
0.1
0.05
0
1 2
-0.05
-0.1
Precio bajo MXN
-0.15
Publicidad (X)
Relaciones curvilíneas
Muchas veces, en los estudios de marketing, las relaciones entre las variables independientes
(X) y las variables dependientes (Y) son complejas en lugar de lineales. En la mayoría de los
casos, representan una relación curvilínea y los estudios tienden a plantear la hipótesis de un
efecto en forma de U o en forma de U invertida. En lugar de pensar en las relaciones curvilíneas
simplemente en forma de U (o U invertida), ayudaría a apreciar las relaciones curvilíneas de
acuerdo con el efecto de X en Y. El efecto de X en Y podría ser (1) aumentando a un ritmo
creciente, (2) aumentando a una tasa decreciente, o (3) disminuyendo a una tasa decreciente,
alterando así la pendiente alejándola de una tendencia lineal simple.
Machine Translated by Google
Y
Y
X X
Las tres relaciones mencionadas anteriormente pueden entenderse mejor como una ecuación de
regresión. Para probar cualquier relación curvilínea hipotética entre X e Y, la siguiente ecuación ayuda:
Y = i0 + a X + b X2 (19.5)
Volviendo al ejemplo del efecto de la publicidad y el precio sobre las ventas (Y); Consideremos ahora
(por razones pedagógicas) sólo el efecto de la publicidad (X) sobre las ventas (Y). Un gerente podría
argumentar que a medida que aumenta la publicidad, las ventas de productos tienden a aumentar. Además,
más allá de cierto punto, el efecto de la publicidad en las ventas podría
Machine Translated by Google
no aumenta al mismo ritmo. El gerente en realidad está hablando de una relación curvilínea entre X e
Y, en la que el efecto de X sobre Y aumenta, pero más allá de un punto aumenta a un ritmo decreciente.
Esto conduce a una línea de predicción como se muestra en el Gráfico (19.3, 2) anterior, donde la
pendiente "a" es positiva y "b" es negativa.
Como aprendimos en la sección de interacción, podríamos tratar de calcular la pendiente simple de
la ecuación. (19.5) reestructurándolo. Sin embargo, este método es incorrecto y no se puede usar para
ecuaciones que tienen efectos curvilíneos. Tenemos que usar cálculo simple para derivar la pendiente
simple. Como todos sabemos, la primera derivada parcial con respecto a (wrt) X es la pendiente simple
de regresión de Y sobre X. Esta técnica también se puede aplicar a la ecuación de interacción que
tratamos anteriormente. Entonces, volviendo a la Ec. (19.5), la primera derivada parcial es:
Como se ve en la Ec. (19.6), la pendiente simple depende o está condicionada al valor de X mismo.
Esto, junto con el signo de "a" y "b", es precisamente la razón por la cual el efecto de X sobre Y es
curvilíneo y no solo lineal. Nuevamente, volviendo a nuestros pasos para elegir valores legítimos de X,
podemos tomar una desviación estándar por debajo y por encima de la media (que es cero) y calcular
los valores de la pendiente simple.
Si un gerente quisiera investigar cómo interactúa el precio con la relación curvilínea de la publicidad
sobre las ventas, podemos seguir los mismos pasos que hicimos en la interacción. Sin embargo, para
derivar la pendiente simple, tenemos que usar cálculo y no solo una reestructuración simple de la
ecuación por las razones expuestas anteriormente. Los efectos de interacción en la relación curvilínea
son conceptos complejos y avanzados. Por lo tanto, instamos a los lectores interesados a leer
detenidamente los recursos en la sección de referencia para una comprensión completa. Proporcionamos
algunas ideas para ayudar a comprender algunos conceptos básicos de los efectos de interacción en
las relaciones curvilíneas a continuación.
La ecuación completa después de incluir el precio (Z) sería:
Y = i0 + a X + b X2 + c Z (19.7)
Ahora, a diferencia de los efectos de interacción simples, los investigadores deben pensar
profundamente si el precio (Z) interactúa solo con la publicidad (X) o si Z interactúa también con el
término de orden superior (X2) . Conceptualmente, estos dos efectos son diferentes, por lo que el
investigador debe especificar la ecuación correcta en función de la hipótesis que se está probando.
También debemos recordar incluir siempre los términos de orden inferior al intentar introducir términos
de orden superior que tengan efectos de interacción. Consideremos un ejemplo, donde introducimos el
término XZ. Entonces la ecuación. (19.7) cambiará a lo siguiente:
Y = i0 + a X + b X2 + c Z + d XZ (19.8a)
Para derivar la pendiente simple, que muestra el efecto de X sobre Y, tomamos la primera
derivada parcial con X:
Machine Translated by Google
De la ecuación anterior se puede ver que el efecto no solo depende de X (debido a la presencia
del término 2 b X) sino que también depende de Z (debido al término d Z). Esto significa que el efecto
curvilíneo también está condicionado a Z.
Además, si un gerente plantea la hipótesis de que Z altera tanto el nivel como la forma del efecto
curvilíneo, se puede probar introduciendo el término X2Z . Este término es el producto de X2 y Z.
Entonces las Ecs. (19.8a y 19.8b) cambiará a lo siguiente:
Y = i0 + a X + b X2 + c Z + d XZ + e X2Z (19.9a)
Tenga en cuenta la presencia de todos los términos de orden inferior (que son X, X2, Z y XZ) del
término de orden superior (X2Z). Despreciar cualquiera de los términos de orden inferior conduce a
una interpretación incorrecta de la ecuación (19.9a y 19.9b). De nuevo, para calcular la pendiente
simple hacemos lo siguiente:
ÿ Y/ÿ X = a + 2 b X + d Z + 2 e XZ (19.9b)
Esto muestra que Z afecta no solo el nivel sino también la forma de la curva.
Mediación
La mediación se utiliza para estudiar las relaciones entre un conjunto de variables mediante la
estimación de un sistema de ecuaciones. El objetivo de un análisis de mediación es extraer el
mecanismo detrás del efecto de X sobre Y. El análisis de mediación es útil para comprender el
mecanismo intermedio que en realidad causa el efecto de X sobre Y (MacKinnon 2008; Preacher y
Hayes 2004). Para encontrar este mecanismo interviniente, se introduce una variable interviniente
llamada mediador (M). Podemos imaginar esta mediación como un camino: XÿMÿY. Por lo tanto, el
efecto total de X sobre Y ahora se divide en un efecto indirecto a través de M y un efecto directo de X
sobre Y.
En el análisis de mediación, hay una serie de regresiones o un conjunto de ecuaciones que deben
estimarse. Primero está el efecto de X sobre el mediador M (XÿM, pendiente a), luego está el efecto
del mediador sobre la variable dependiente Y (MÿY, pendiente b), y finalmente el efecto directo de X
sobre Y (X ÿ Y. pendiente c ). El investigador debe tener en cuenta que ahora hay dos variables
dependientes, a saber, Y y el mediador interviniente recientemente introducido M. Se puede entender
fácilmente a través del diagrama que se muestra a continuación (Fig. 19.4).
Y = i0 + b M + c X (19.10)
M = j0 + una X (19.11)
metro
a b
X y
c`
Ahora el efecto mediador, también llamado efecto indirecto de X sobre Y a través de M, puede
obtenerse insertando la ecuación. (19.11) en la ecuación. (19.10):
Y = ab X + c X (19.12)
Esto muestra que el efecto indirecto de X sobre Y es el producto de dos pendientes capturadas
como "a * b" y el efecto directo de X sobre Y es "c".
Las pendientes "a", "b" y "c" se pueden estimar usando cualquier software estadístico y el producto
de las pendientes "a * b" se puede calcular para encontrar la fuerza de la mediación. Sin embargo,
recomendamos usar software que admita técnicas de análisis de ruta o de modelado de ecuaciones
estructurales (SEM) (STATA, Mplus o R) para estimar ambas ecuaciones simultáneamente sin tener
que ejecutar regresiones múltiples. Esta práctica puede ayudar al investigador a progresar fácilmente
del modelo simple narrado aquí a modelos de mediación más complejos que a menudo son el caso en
la investigación. Aún queda una pregunta importante: ¿cómo probar la significación estadística del
término del producto "a * b"? La prueba estadística de las pendientes simples "a", "b" y "c" utilizando
errores estándar es sencilla. Sin embargo, para el producto de las pendientes, investigaciones recientes
en análisis de mediación sugieren que derivar el error estándar (usando una técnica llamada método
delta) para un término de producto de orden superior es inexacto y que la significación estadística debe
probarse usando técnicas no paramétricas como bootstrapping. La intuición detrás de esto es que,
aunque se supone que las pendientes individuales "a" y "b" tienen una distribución normal, el producto
de estas pendientes no puede serlo. Por lo tanto, como la derivación de errores estándar a través de
métodos paramétricos (como OLS o máxima verosimilitud) asume normalidad, se recomienda a los
investigadores que utilicen procedimientos de muestreo no paramétrico como bootstrapping para derivar
los errores estándar. La lógica detrás del procedimiento de arranque es sencilla. Las estimaciones del
efecto indirecto “a * b” se obtienen repetidamente a partir de muestras extraídas de la muestra original
con reposición. La desviación estándar de esas estimaciones es el error estándar, que luego se usa
para construir un intervalo de confianza del 95 % no simétrico para probar la importancia del efecto
indirecto. Si el intervalo de confianza del 95% de la
Machine Translated by Google
efecto indirecto no contiene cero el efecto es estadísticamente significativo. En este caso, podemos
concluir que existe un efecto de mediación significativo.
Volvamos al ejemplo de la publicidad (X) que tiene un efecto sobre las ventas del producto (Y). Ahora,
un gerente podría estar interesado en saber la razón detrás del “aumento en la publicidad que tiene un
efecto positivo en las ventas”. Se podría argumentar que, a medida que aumenta la publicidad (X), también
aumenta la conciencia de los clientes (M) sobre el producto, lo que los alienta a comprar más, lo que lleva
a un aumento en las ventas del producto (Y). Por lo tanto, aquí el mediador es la conciencia del consumidor
(M). Si de alguna manera el gerente puede medir o capturar esta variable, puede usarse, junto con las
variables X e Y, para probar este efecto de mediación hipotético. Pero, ¿cuál es la implicación gerencial?
¿Cuál es realmente la percepción “adicional” derivada de hacer este análisis de mediación? Una idea
importante es que el gerente ahora puede identificar un mecanismo relevante que realmente causa el
efecto de X en Y. El gerente puede aumentar la asignación de recursos a las estrategias de marketing que
ayudan a mejorar los niveles de conciencia del consumidor. Además, este gerente podría sentirse intrigado
por investigar si existen otros mediadores o mecanismos de intervención como la conciencia. Comprender
y encontrar las razones detrás de los efectos es fundamental para la toma de decisiones. Armados con el
conocimiento del mecanismo detrás de la relación de causa y efecto, los ejecutivos pueden tomar
decisiones informadas que conducen a un mayor éxito.
La teoría y los datos empíricos detrás de la mediación moderada se han disparado en los últimos tiempos.
Se solicita a los lectores que consulten las referencias para una comprensión más profunda de esta
técnica.
Machine Translated by Google
Suponga que es gerente de una gran empresa multinacional y desea identificar las unidades eficientes
(finanzas, marketing, operaciones, recursos humanos, negocios internacionales, etc.) dentro de su
organización. Es posible que desee decidir sobre la asignación de recursos, la contratación, el aumento
de los beneficios para los empleados de una unidad específica, en función de la eficiencia de la unidad.
¿Cómo vas a decidir sobre la eficiencia? Puede utilizar datos de observación para tales decisiones.
Sin embargo, tal enfoque puede no ser excelente al diseñar estrategias críticas como la asignación de
recursos o la contratación.
Una herramienta analítica muy destacada que se puede utilizar en dicha toma de decisiones es el
“análisis envolvente de datos” (Cook y Seiford 2009; Cooper et al. 2004). DEA está diseñado para
ayudar a los gerentes a medir y mejorar el desempeño de sus organizaciones. Como la búsqueda de
la eficiencia es una meta interminable, DEA puede ayudar a capturar la eficiencia de cada unidad y
sugerir los factores potenciales que pueden ser responsables de hacer que las unidades sean eficientes.
DEA permite a los gerentes tomar en cuenta todos los factores importantes que afectan el
desempeño de una unidad para proporcionar una evaluación completa y completa de la eficiencia
(Charnes et al. 1978). DEA hace esto convirtiendo múltiples entradas y salidas en una sola medida de
eficiencia. Al hacerlo, identifica aquellas unidades que están operando eficientemente y aquellas que
no. Las unidades eficientes, es decir, las unidades que hacen el mejor uso de los recursos de entrada
para producir productos, se califican como 100% eficientes, mientras que las ineficientes obtienen
puntajes más bajos.
Entendamos los aspectos técnicos de DEA de una manera simple. Supongamos que un gerente
del banco ICICI quiere medir la eficiencia de los departamentos de recursos humanos, finanzas,
marketing, operaciones, relaciones públicas y contabilidad para asignar recursos para el año siguiente
(Sherman y Franklin 1985). Los gerentes generalmente tienen información sobre el número de
empleados, el total de problemas manejados, los aumentos otorgados y la contribución de estas
unidades a las ganancias operativas de la empresa. Los gerentes pueden usar DEA con el número de
empleados, el total de problemas manejados y los aumentos dados como entradas y la contribución
de estas unidades a las ganancias operativas como salida.
El análisis DEA proporcionará una puntuación de 1 o menos de 1 para cada unidad. Una puntuación
de 1 significa que la unidad es perfectamente eficiente y cualquier valor inferior a 1 significa que la
unidad tiene espacio para crecer y ser más eficiente. Con base en la importancia relativa de las
entradas, se puede pedir a las unidades que trabajen en entradas específicas para que las unidades
se vuelvan eficientes. Además, los gerentes ahora pueden asignar los recursos que deseen a las
unidades eficientes.
DEA también brinda orientación a los gerentes sobre la reducción/incremento requerido en los
insumos de las unidades para volverse eficientes, ayudando a los gerentes a responder preguntas
como "¿Qué tan bien están funcionando las unidades?" y "¿Cuánto podrían mejorar?" Sugiere
objetivos de rendimiento, como que la unidad de marketing debería poder producir un 15 % más de
producción con su nivel de inversión actual o la unidad de recursos humanos debería poder reducir la
rotación en un 25 % y seguir produciendo el mismo nivel de producción. También identifica las
unidades con mejor rendimiento. Una de las ideas más interesantes de la DEA es que uno puede
probar las prácticas operativas de dichas unidades y establecer una guía de "mejores prácticas" para
que otros las emulen.
Machine Translated by Google
Entendamos con un ejemplo práctico. Supongamos que un banco como ICICI quiere medir la
eficiencia de sus sucursales en India. El objetivo de la gerencia es asegurar que cada una de estas
sucursales logre el mejor desempeño posible; Sin embargo, el problema es decidir qué significa
eso y cuál es la mejor manera de medirlo. Los resultados de las sucursales, como las ventas, el
crecimiento de las ventas, las cuentas y la participación de mercado, se pueden estudiar y
comparar. De manera similar, se pueden medir los insumos de una sucursal, como el personal, el
espacio de oficina y los costos de materiales. Luego, los gerentes pueden desarrollar índices de
rendimiento, como las ventas por miembro del personal o las ganancias por unidad de espacio de
oficina utilizado.
Sin embargo, es posible que todos estos intentos de medir el desempeño no produzcan una
imagen clara, ya que las sucursales pueden exhibir una variación considerable según el indicador
de desempeño elegido. Aquí es donde DEA ayuda, ya que proporciona una medida más completa
de la eficiencia al tener en cuenta todos los factores importantes que afectan el rendimiento de una
sucursal.
Aunque la elección de entradas y salidas depende en gran medida de la disponibilidad de los
datos, la belleza de DEA radica en su capacidad para manejar múltiples entradas y múltiples salidas
para dar una puntuación completa sobre la eficiencia de las unidades. DEA se puede utilizar dentro
de una organización específica (por ejemplo, medir la eficiencia de varias divisiones del banco
ICICI); a través de organizaciones en una industria (por ejemplo, comparando la eficiencia de todos
los bancos del sector privado en la India); ya través de industrias (por ejemplo, medición de la
eficiencia de los bancos, empresas de bienes de consumo masivo). Sin embargo, dicho análisis
requerirá la disponibilidad de insumos y productos similares para todas las organizaciones.
El DEA puede analizarse como retorno constante a escala (CRS) o retorno variable a escala (VRS)
(Banker y Thrall 1992; Banker et al. 2004; Seiford y Zhu 1999).
Consideremos primero el modelo CRS. Supongamos que hay N unidades de toma de decisiones
(DMU) (las DMU son varios bancos en nuestro ejemplo) con K entradas y 2 salidas (beneficios y
satisfacción del cliente). Estos están representados por xi y yi para i-ésima DMU.
El propósito de DEA es construir una frontera envolvente no paramétrica sobre los puntos de datos
de modo que todos los puntos observados se encuentren en o por debajo de la frontera de
producción (Charnes et al. 1985; Boussofiane et al. 1991; Chen y Soo 2010). Podemos expresar el
problema como un programa lineal de la siguiente manera:
maxÿ,ÿÿ
tales que ÿ ÿyi + Yÿ ÿ 0, ÿ ÿ 0 xi ÿ Xÿ ÿ 0,
ÿÿ0
maxÿ,ÿÿ
tales que ÿ ÿyi + Yÿ ÿ 0, el = 1, ÿ ÿ 0 xi ÿ Xÿ ÿ 0,
el = 1, ÿ ÿ 0
El CRS y VRS proporcionan diferentes valores para el puntaje de eficiencia de una DMU;
indica la presencia de ineficiencia de escala en la DMU. Se puede calcular la ineficiencia de
escala tomando la relación entre el puntaje de eficiencia obtenido de CRS y el puntaje de
eficiencia obtenido de VRS (Caudill et al. 1995; Gagnepain e Ivaldi 2002; Greene 2010).
Ejemplo
Supongamos que nos interesa evaluar la eficiencia de las unidades hospitalarias (Ouellette y
Valérie 2004) de una cadena en función de una serie de características: el número total de
empleados, el tamaño de las unidades en metros cuadrados, el número de pacientes que
atiende cada unidad , número total de especialistas, ingresos totales y satisfacción. Se vuelve
obvio que encontrar las unidades más eficientes requiere que comparemos registros con
múltiples características.
Para aplicar DEA, debemos definir nuestras entradas (X) y salidas (Y). En el caso de una
cadena hospitalaria, X puede ser el número total de empleados, el tamaño de las unidades en
metros cuadrados, el número de pacientes que atiende cada unidad, el número total de
especialistas; e Y puede ser el ingreso total y la satisfacción. Si ejecutamos DEA, estimaremos
la relación de salida a entrada para cada hospital bajo los pesos ideales (los pesos ideales
son pesos que consideran los valores que cada unidad asigna a las entradas y salidas). Una
vez que tengamos sus ratios, los clasificaremos según su eficiencia (Banker y Morey 1986).
Código STATA/R
2https://www.cgdev.org/sites/default/files/archive/doc/stata/MO/DEA/dea_in_stata.pdf (consultado el 30
de enero de 2019). 3https://www.rdocumentation.org/packages/TFDEA/versions/0.9.8.3/topics/DEA
(consultado el 30 de enero de 2019).
Machine Translated by Google
Para hacer el análisis en STATA, necesita descargar un comando escrito por el usuario (escriba
instalación neta st0193).
Opciones:
DEA en la práctica
Unidades 1234567 8
Empleado 5 6 11 15 20 9 12 10
Ingresos 4 4,8 8 14 18 5 11 9
Unidades 1 23 4 56 7 8
Empleado 56 11 15 20 9 12 10
Ingresos 4 4.8 8 14 18 5 11 9
Ingresos/empleado 0,8 0,8 0,727 0,93 0,9 0,55 0,91 0,9
0 ÿ ingresos por empleado para cada unidad/ingresos por empleado para la mayoría
unidad eficiente ÿ1.
Unidades 1 2 3 4 5 6 7 8
empleado 5 6 11 15 20 9 12 10
Ingresos 4 4.8 8 14 18 5 11 9
Ingresos/ 0.8 0.8 0,727 0,93 0,9 0,55 0.91 0.9
empleado
Pariente 0.860215 0.860215 0.78172 1 0.967742 0.591398 0.978495 0.967742
effi
ciencia
yi = ÿxi ÿ ui + vi
las influencias externas más allá del control del productor. En resumen, el SFA tiene dos componentes:
una frontera de producción estocástica que sirve como punto de referencia contra el cual se mide la
eficiencia de la empresa, y un término de error unilateral con distribución independiente e idéntica
entre las observaciones y captura la ineficiencia técnica entre las unidades de producción.
Si un gerente permite que las ineficiencias dependan de los factores a nivel de la empresa
(empleados, expertos, tamaño, alianzas, adquisiciones, etc.), el gerente puede examinar los
determinantes de las ineficiencias. Tal comprensión ayuda a implementar diferentes intervenciones
políticas para mejorar la eficiencia. Los gerentes también pueden modificar los insumos e incorporarlos
en la función de producción para reducir las ineficiencias.
Ahora la pregunta es si uno debería usar SFA sobre DEA. (Wadud y White 2000; Koetter y
Poghosyan 2009). Imagine que hay variaciones aleatorias en las entradas. Estas variaciones pueden
hacer que el análisis DEA sea inestable. Una ventaja potencial de SFA sobre DEA es que se pueden
acomodar variaciones aleatorias en las entradas.4 Aunque hay algunos beneficios, SFA también tiene
múltiples desventajas, incluidas sus complicaciones en el manejo de múltiples salidas. Además,
también requiere funciones estocásticas de distancia de salida múltiple y plantea problemas para las
salidas que toman valores cero.
La relación tecnológica entre unas pocas variables de entrada y las correspondientes variables de
salida viene dada por una “función de producción” (Aigner et al. 1997). Econométricamente, si usamos
datos sobre insumos y productos observados, la función de producción indicará el nivel promedio de
productos que se puede producir a partir de un nivel dado de insumos (Schmidt 1985). Se pueden
estimar las funciones de producción a nivel individual o agregado.
La literatura sobre la función de producción sugiere que el supuesto implícito de las funciones de
producción es que todas las empresas producen de manera técnicamente eficiente y, por lo tanto, la
empresa representativa (promedio) define la frontera (Førsund et al.
1980; Farrell y Fieldhouse 1962). La estimación de la frontera de producción supone que el límite de
la función de producción está definido por unidades de "mejores prácticas". Por lo tanto, indica la
salida potencial máxima para un conjunto dado de entradas a lo largo de una línea recta desde el
punto de origen. El término de error en el modelo SFA representa cualquier otra razón por la cual las
empresas estarían fuera (dentro) del límite.
Las observaciones dentro de la frontera se consideran “ineficientes (Hjalmarsson et al. 1996; Reinhard
et al. 2000)”.
En esta área de estudio, la estimación de los parámetros del modelo no suele ser el objetivo principal.
La estimación y el análisis de la ineficiencia de los individuos de la muestra y de la muestra agregada suelen
ser de mayor interés.
STATA tiene un comando incorporado para estimar SFA.5 Este es esencialmente un análisis de
regresión donde el término de error consiste en un error aleatorio y un término de ineficiencia, y nuevamente
se puede estimar para las funciones de producción y costo. La sintaxis del comando frontier es:
cm (varlist) se ajusta al modelo medio condicional; solo se puede utilizar con distribución (tnormal).
uhet(varlist) variables explicativas para la función de varianza de la ineficiencia técnica
vhet(varlist) variables explicativas para la función de varianza del error idiosincrático modelo de frontera
de costos de ajuste de costos; el valor predeterminado es el modelo de frontera de producción vce(vcetype)
Para hacer el análisis en R, puede usar el paquete "Benchmarking" y la función sfa como se muestra a
continuación.
SFA en la práctica
El análisis conjunto es una técnica de investigación de mercados para determinar las preferencias de
los consumidores y los clientes potenciales. Conocer las preferencias de los clientes proporciona
información invaluable sobre cómo piensan y toman sus decisiones antes de comprar productos. Por lo
tanto, ayuda a las empresas a diseñar sus estrategias de marketing, incluidas las actividades de
publicidad, promoción y ventas (Ofek y Toubia 2014).
El análisis conjunto se puede definir como una técnica para analizar y determinar cómo los
consumidores valoran varios atributos de un producto y la compensación que están dispuestos a hacer
entre las características que componen un producto. Estos Atributos son características/características
inherentes de un producto. Por ejemplo, el precio, el color, la memoria RAM, la cámara, el tamaño de la
pantalla y la energía de la batería pueden ser atributos de un teléfono inteligente. Los diferentes valores
que puede tomar un atributo de producto representan los distintos niveles de ese atributo. El negro, el
dorado y el blanco pueden ser niveles del atributo color. Del mismo modo, la memoria RAM de atributos
puede tener los niveles de 4 GB, 8 GB y 16 GB. La importancia de cada atributo se puede inferir
manipulando experimentalmente las características de un producto en varios paquetes de productos y
observando las calificaciones de los consumidores para ese producto o las opciones entre los productos
de la competencia en el mercado. Los conocimientos proporcionados por el análisis conjunto ayudan a
desarrollar productos claramente definidos al identificar aquellas características que son más atractivas
para los consumidores. El análisis conjunto se puede emplear productivamente en las siguientes áreas:
• Diseñar productos que maximicen las utilidades medidas para los clientes en un objetivo
segmento
• Modificación de productos existentes y desarrollo de nuevos productos •
Selección de segmentos de mercado para los que un producto determinado ofrece una gran
utilidad • Planificación de una estrategia competitiva • Análisis de políticas de precios
Esta técnica es extremadamente útil en el proceso de desarrollo de nuevos productos. Cuando las
empresas definen claramente los productos en las primeras etapas, tienen 3,3 veces más probabilidades
de éxito. A menudo se utiliza para varios tipos de productos, como bienes de consumo, productos
eléctricos y electrónicos, viviendas para jubilados y viajes aéreos.
El principio básico detrás de cualquier tipo de análisis conjunto es el mismo: los productos se dividen en
atributos del producto y los clientes se enfrentan a compensaciones al decidir qué combinación de
atributos y sus niveles correspondientes comprar. Existen diferentes tipos de análisis conjuntos según el
tipo de respuesta, el enfoque de las preguntas, el tipo de diseño y si todos los atributos están incluidos
en cada pregunta del cuestionario de la encuesta. Los cuatro tipos de análisis conjunto basados en el
tipo de respuesta son: (1) conjunto basado en calificaciones, (2) conjunto mejor-peor, (3) conjunto basado
en rango y (4) conjunto basado en elección. El conjunto estándar y el conjunto adaptativo basado en la
elección se basan en el enfoque de preguntas. El conjunto genérico y el conjunto específico de la marca
se basan en el tipo de diseño. Conjunto de perfil completo y
Machine Translated by Google
Los conjuntos de perfil parcial se clasifican en función de la inclusión de todos los atributos en cada
pregunta de la encuesta.
El análisis conjunto basado en la elección es el tipo más común de análisis conjunto. En conjunto
basado en la elección, a los encuestados se les presentan varias preguntas y cada pregunta
comprende de 2 a 5 productos y se les pide que elijan su opción preferida.
Luego, los resultados se utilizan para calcular un valor numérico (conocido como "puntuación de
utilidad", "utilidad" o "valor parcial") que mide cuánto influyó cada atributo y nivel en la decisión del
cliente de hacer esa elección.
Recopilación de datos: el tipo de análisis conjunto utilizado dicta la naturaleza de los datos que
se recopilarán. El objetivo es obtener las preferencias de los encuestados por un conjunto
cuidadosamente seleccionado de paquetes de productos (Perfiles). Por lo general, estos datos se
recopilan mediante una encuesta en línea o en papel. El tamaño de los datos depende del número
de niveles de atributo que se probarán. Cuanto mayor sea el número de niveles de atributos, más
datos se recopilarán para una mayor precisión. El primer paso en este proceso es diseñar un
procedimiento de recopilación de datos utilizando una de las siguientes metodologías:
• Evaluaciones por pares de paquetes de productos: el encuestado considera dos o más productos
al mismo tiempo y asigna 100 puntos entre las opciones. • Paquetes de productos ordenados
por rango: el encuestado clasifica los productos presentados y asigna el rango 1 a la opción más
preferida y un rango igual al número de productos presentados a la opción menos preferida.
Machine Translated by Google
• Evaluación del producto en una escala de calificación: el encuestado evalúa cada producto en una
escala (p. ej., 1 a 100), otorgando una calificación de 100 al producto más preferido. • Método
de elección: el encuestado considera múltiples productos que están definidos en todos los atributos
del estudio y elige el mejor en el mejor método de escala y elige el mejor y el peor producto en
el mejor-peor método de escala.
queso cheddar
Queso Mozzarella
parmesano
Cebolla
Hongo
Pepperoni
Beber Coca
pepsi
Precio $5
$7
$10
Las preferencias de los consumidores se cuantifican mediante regresión lineal para varios
atributos de la pizza. En la encuesta, el encuestado indica sus preferencias por varias pizzas
definidas por diferentes combinaciones de los atributos dados y sus niveles.
queso de
respuestas
de
un
solo
consumidor
para
múltiples
perfiles
de
pizza
Cheddar Ejemplos
10 0 10 10 0 10 0 0
0 110 0 0 0 10 0 10 Queso
Mozzarella
0 0 0 0 10 10 0 10 1 parmesano
10 0 10 0 0 10 0 0 1 Cebolla
0 10 0 10 0 0 110 0 Champiñones
0 0 10 0 110 0 0 10 Pepperoni
0 10 111110 0 0 0 Coca
10 10 0 0 0 0 1111 Pepsi
0 0 1110 0 0 0 10 0 cinco$
10 0 0 0 0 1110 0 0 siete$
0 10 0 0 10 0 0 0 11 diez$
2 3 12 7 6 6 3 16 14 Clasificación
S. Arunachalam y A. Sharma 646
Machine Translated by Google
Machine Translated by Google
Ahora, el enfoque es hacer una regresión de las preferencias del consumidor por la pizza con base en
sus calificaciones de los distintos niveles de atributos.
Ejecutamos la regresión en variables ficticias categóricas. Establecemos un nivel de atributo
como línea de base y eliminar el nivel correspondiente de la regresión. Nuestra línea de base
en este ejemplo es una pizza con queso Cheddar, aderezos de cebolla, coca cola y un precio
de 5$.
La utilidad de esta pizza de referencia se captura en la intersección de la regresión
producción. Los otros coeficientes dan los valores parciales para varios niveles de atributos.
Dependiendo del tipo de información necesaria, se pueden obtener más conocimientos de
los valores parciales calculados anteriormente.
Hay muchas aplicaciones posibles del análisis conjunto. Sin embargo, los cuatro
aplicaciones comunes son el análisis de compensaciones, la previsión de cuotas de mercado, la determinación
importancia relativa de los atributos y comparación de alternativas de productos. Todas las demás aplicaciones
son generalmente variantes de estas cuatro aplicaciones.
Análisis de compensación: las utilidades del análisis conjunto se utilizan para analizar si
los consumidores promedio estarían dispuestos a renunciar a un atributo en particular para ganar
mejoras en otro.
Para el ejemplo dado, los valores parciales se estiman de la siguiente manera:
Partworths
Cebolla 0 Pepperoni
Hongo 0.78
Peperoni 0.89
Beber coca cola 0 Coca
Pepsi ÿ2
Precio dólar5 0 10$
dólar7 ÿ0,11
dólar10 0.44
evaluado. Con base en las utilidades del producto, la cuota de mercado del producto i puede ser
calculado como:
yo yo
Sharei = norte
eUj
j=1
Yo = norte
De manera similar, la importancia relativa de otros atributos se puede calcular como se muestra
en la tabla de arriba.
Comparación de alternativas de productos: el análisis conjunto también se puede utilizar
para determinar la elección del consumidor entre dos productos alternativos. Basado en la utilidad
derivado de cada oferta de producto, podemos predecir cómo elegiría un consumidor
entre los perfiles hipotéticos.
Machine Translated by Google
Producto Cheddar Mozzarella Parmesano Cebolla Champiñones Pepperoni Coca Cola Pepsi Five$ Seven$ Ten$ Valoración
A 0 0 1 1 0 0 0 1 0 0 1 4
B 0 1 0 0 0 1 0 1 0 0 1 1
La utilidad de un perfil de producto se calcula utilizando los valores parciales estimados. los
los elementos del perfil se multiplican cada uno por los valores parciales correspondientes y se suman
hasta obtener la utilidad. Luego se comparan las utilidades calculadas y la que tiene el
mayor valor sería la elección del consumidor.
Coeficientes de los niveles de atributo:
Cheddar Mozzarella Parmesano Cebolla Champiñones Pepperoni Coca Cola Pepsi Cinco$ Siete$ Diez$
0 ÿ1,11 2.78 0 0.78 0.89 0 ÿ2 0 ÿ0,11 0,44
Producto Cheddar Mozzarella Parmesano Cebolla Champiñones Pepperoni Coca Cola Pepsi Five$ Seven$ Ten$ Utility Choice
A 0 0 1 1 0 0 0 1 0 0 1 4,5A
B 0 1 0 0 0 1 0 1 0 0 1 1.5
El análisis conjunto tiene varias ventajas, como descubrir controladores ocultos que
puede no ser evidente para los propios encuestados y evaluar la elección en un
nivel individual. Se puede utilizar para obtener valor de marca determinando la popularidad
de una marca Sin embargo, tiene ciertas desventajas, como la complejidad añadida en
el diseño experimental debido a la inclusión de un gran número de atributos.
Esto aumenta la fatiga del encuestado al realizar la encuesta y, por lo tanto, compromete
la exactitud del resultado. Además, la validez del análisis conjunto depende de la
Machine Translated by Google
plenitud de los atributos. El análisis conjunto iguala la utilidad general de un cliente para un
producto con la suma de sus utilidades para los componentes. Por lo tanto, una opción muy
valorada en un atributo puede compensar opciones poco atractivas en otro atributo y, por lo tanto,
dar resultados engañosos.
Los clientes son la base de la existencia de una empresa. Una empresa crea y proporciona valor
(producto o servicio) a los clientes y, a cambio, los clientes proporcionan valor (ingresos/beneficios)
a las empresas. Esta sección se centrará en una de esas medidas para analizar el valor
proporcionado por los clientes a las empresas: el valor de por vida del cliente (CLV).
Antes de entender CLV, echemos un vistazo a algunas otras métricas de clientes que se
usaban (todavía se usan) ampliamente antes de allanar el camino para la CLV, que es mucho
más superior. Una forma de determinar el valor del cliente es observar métricas como el ingreso
promedio del cliente o la ganancia promedio del cliente. A menos que se utilicen para un segmento
específico, estas métricas colocan a todos los clientes en el mismo nivel, lo cual es incorrecto y
ciertamente no es de interés para los especialistas en marketing que celebran la heterogeneidad
de los clientes. Algunos clientes proporcionan más ganancias que otros y algunos clientes en
realidad conducen a pérdidas. Otra forma interesante de analizar el valor proporcionado por un
cliente es observar su comportamiento de compra a través del análisis RFM (actualidad,
frecuencia, valor monetario). En el análisis RFM, se observan los siguientes parámetros:
Los clientes pueden calificarse en cada parámetro y clasificarse desde los más valiosos
(recientemente, frecuencia y valor monetario más altos) hasta los menos valiosos (recientemente,
frecuencia y valor monetario más bajos). Este es un modelo simple que puede ayudar a segmentar
a los clientes y predecir su comportamiento futuro. Pero todas estas son métricas retrospectivas,
es decir, estas métricas no tienen en cuenta el potencial futuro de un cliente. Estos métodos
fueron lo suficientemente buenos cuando no teníamos acceso a grandes datos y software
estadístico avanzado para analizar datos. Ahora tenemos la capacidad de recopilar y analizar
datos al nivel más bajo, lo que permite un análisis más sofisticado. CLV es una de esas métricas
que representa directamente el valor futuro. CLV se puede definir como la contribución financiera
total del período actual hacia el futuro, es decir, los ingresos menos los costos, de un cliente
durante su vida futura con la empresa y, por lo tanto, refleja la rentabilidad futura del cliente
(Kumar 2010). Es una métrica del cliente con visión de futuro que no solo tiene en cuenta el valor
actual sino también el valor futuro proporcionado por los clientes. Proporciona un valor en dólares
para la relación con el cliente. Ayuda a distinguir a los clientes de acuerdo con el valor
proporcionado por ellos durante la vida de su negocio con la empresa. Las futuras estrategias de
marketing se pueden planificar en consecuencia para los clientes actuales y futuros.
Machine Translated by Google
Ahora que hemos establecido que CLV es una métrica importante, intentaremos calcularlo. CLV
se calcula descontando todas las ganancias actuales y futuras esperadas del lado del cliente. Se
trata de los márgenes de beneficio de cada cliente en lugar de los ingresos. También tiene en
cuenta el porcentaje de clientes retenidos por la empresa. CLV se puede calcular como:
mtrt
CLV = (19.13)
(1 + yo) t
t
r
CLV = m (19.14)
1 + yo - r
Aquí r
es el múltiplo del margen y depende de la tasa de retención y la tasa de
1+iÿr
descuento. Cuanto mayor sea la tasa de retención y menor la tasa de descuento, más valioso es
un cliente. La Tabla 19.2 proporciona el múltiplo de margen basado en las tasas típicas de retención
y descuento. ¡ La tabla 19.2 es un cálculo de CLV muy útil al “dorso del sobre”!
CLV es el valor máximo proporcionado por los clientes a la empresa. Por lo tanto, puede usarse
como el límite superior de cualquier actividad centrada en el cliente. Por ejemplo, si el CLV de un
cliente potencial es de $5, la empresa no debería gastar más de $5 en la adquisición de este
cliente. Esto también se aplica a las actividades de retención y desarrollo de clientes. Como se
mencionó anteriormente, el valor en dólares proporcionado por CLV puede ayudar a distinguir
cohortes de clientes. Por lo tanto, también ayuda a distinguir las perspectivas futuras que son
similares a los clientes actualmente rentables.
Como con cualquier métrica, CLV también tiene algunas limitaciones. En primer lugar, es muy
difícil calcular los márgenes de beneficio a nivel individual. A veces, los ingresos y/o costos no se
pueden atribuir a un solo cliente, lo que dificulta el cálculo de los márgenes de beneficio.
De manera similar, es difícil calcular con precisión las tasas de retención porque el cálculo de la
tasa requiere un análisis sofisticado. Un pequeño aumento en la tasa de retención puede
aumentar sustancialmente el múltiplo del margen, lo que a su vez aumenta el CLV. Por lo tanto, la
precisión de la tasa de retención es extremadamente importante para calcular CLV.
A pesar de las limitaciones mencionadas anteriormente, CLV ayuda a tomar importantes
decisiones de marketing. Es una métrica de cliente que tiene en cuenta tanto la rentabilidad actual
como la futura de un cliente. Pero CLV no debe ser el único criterio de toma de decisiones. Las
empresas deben tener en cuenta factores como la referencia/influencia del cliente y la reputación de
la marca, junto con el CLV para tomar decisiones de marketing.
CRV es más complicado que calcular el valor de por vida del cliente (CLV).
El cálculo de CRV requiere la estimación del número promedio de referencias exitosas que hace un
cliente después de proporcionar algún incentivo por parte de la empresa. Para
eso, necesitamos mirar el comportamiento pasado, que debe incluir suficiente variación en el número de
referencias para un modelo empírico y precisión adecuados. El cálculo del CRV requiere comprender el
tiempo que puede pasar y aún así estar seguro de que las referencias de un cliente son realmente
provocadas por los incentivos de referencia de una empresa. Además, es fundamental comprender la tasa
de conversión de referencias a clientes reales. Finalmente, el valor de referencia de un cliente es el valor
presente de sus referencias de tipo uno más el valor presente de sus referencias de tipo dos (Kumar et al.
2007). El valor de referencia del cliente de un cliente es el valor monetario asociado con las ganancias
futuras otorgadas por cada prospecto referido, descontado al valor presente.
El CRV se puede calcular sumando el valor de los clientes que se unieron debido a la referencia y el
valor de los clientes que se habrían unido de todos modos descontados al valor actual. Podemos calcular
el CRV de customer8 i como
T n1 T n2
Aty ÿ aty + Mty + ACQ1ty (1 + r) ACQty
gusanos = +
t (1 + r) t
t=1 y=1 t=1 y=1
dónde
Aty = margen de contribución del cliente y que de otro modo no compraría el producto aty = costo de
la referencia para el cliente y
¿Qué más puedes hacer para llegar a tu decisión? Con el poder creciente de las plataformas
sociales (en línea o fuera de línea), es posible que desee publicar una pregunta en Facebook o
hacerle una pregunta a un blogger experto en automóviles, o seguir a alguien en Instagram cuyas
ideas, comentarios y comentarios sobre la industria automotriz lo influencien. . Casi todo, desde las
grandes empresas hasta los niños, tiene algún tipo de estrategias, consejos, experiencias y
atribuciones que impulsan la decisión, las ventas, la impresión, etc. de otros. Dicho esto, la mayoría
de las empresas no pueden comprender completamente el valor de las estrategias y tácticas de
conexiones sociales, que va más allá de las estratagemas y tácticas de marketing tradicionales.9 Es
fundamental calcular esta influencia al determinar el valor de sus clientes. La influencia social puede
desempeñar un papel significativamente más importante en su decisión de comprar un automóvil
nuevo o colocar a sus hijos en una escuela en particular, o decidir qué aplicación de citas elegir. Por
lo tanto, el valor de un cliente puede ir más allá de su valor de compra o valores de referencia.
Además de CLV y CRV, el valor de un cliente puede provenir de su influencia sobre otros clientes.
El valor de la influencia de un cliente se refiere al valor monetario de las ganancias asociadas con
las compras generadas por la influencia de las redes sociales de un cliente en otros clientes
adquiridos y prospectos, descontados al valor presente (Kumar 2013).
Comprender CIV puede ser de gran valor para la mayoría de las empresas. Para un minorista
de helados, Kumar y Mirchandani (2012) muestran que una empresa puede aprovechar el verdadero
valor de la influencia del cliente. Diseñan un proceso de siete pasos para identificar a las personas
influyentes en las redes sociales en línea, observar sus influencias a lo largo del tiempo y mejorar
sustancialmente el desempeño de la empresa. De hecho, la influencia de los clientes tiene un valor
significativo para las empresas y las empresas deben medir e implementar CIV en sus estrategias
comerciales. Para obtener una comprensión detallada del cálculo de CIV, consulte Kumar et al.
(2013), Kumar y Mirchandani (2012).
3 Aplicaciones
Las aplicaciones que se tratan en este libro son los motores de recomendación, las geovallas, la
segmentación del mercado y la orientación de la búsqueda. Los rápidos cambios en la disponibilidad de
datos y herramientas seguirán impulsando el desarrollo de nuevas aplicaciones en marketing. Para
mantenerse al tanto de los nuevos desarrollos, los investigadores pueden seguir los temas del “Marketing
Science Institute10” y sus prioridades de investigación.
Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están
disponibles en www.allaboutanalytics.net.
Ejercicios
Ex. 19.1 Utilice el archivo de datos titulado “exercise_inter.csv” y responda las siguientes preguntas:
a) ¿Por qué las variables independientes están centradas en la media? Publicidad de centro medio, dis
conteo y variables de promoción.
b) ¿El efecto de la publicidad sobre las ventas depende del nivel de descuento? Trace un gráfico para
interpretar el efecto de interacción. c) ¿El efecto de la publicidad sobre las ventas depende del nivel
de promoción? Trace un gráfico para interpretar el efecto de interacción.
Ex. 19.2 Use el archivo de datos titulado "ejercicio_curvilíneo.csv" y responda las siguientes preguntas:
a) ¿El efecto de la publicidad sobre las ganancias es curvilíneo o lineal? Trace una gráfica si el
la relación es curvilínea.
b) ¿El efecto de la promoción de ventas sobre las ganancias es curvilíneo o lineal? Trace una gráfica si el
la relación es curvilínea.
c) ¿El efecto de las rebajas y los descuentos sobre las ganancias es curvilíneo o lineal? Trazar un gráfico
si la relación es curvilínea.
Ex. 19.3 Utilice los datos de "exercise_mediation.csv" y responda las siguientes preguntas:
Ex. 19.4 Encuentre la unidad hospitalaria más eficiente del grupo hospitalario ABC dada la
siguiente información:
Unidad 1 2 3 4 5 6 7 8
Beneficio (crore) 120 160 430 856 200 320 189 253
Número de 150 100 120 180 220 90 140 160
Especialistas
Área (pies cuadrados) 21.000 32.650 40.000 18.780 19.870 50.000 33.000 19.878
Referencias
Cook, WD y Seiford, LM (2009). Análisis envolvente de datos (DEA): treinta años después.
Revista europea de investigación operativa, 192(1), 1–17.
Cooper, WW, Seiford, LM y Zhu, J. (2004). Análisis Envolvente de Datos. manual sobre datos
análisis envolvente (págs. 1–39). Boston, MA: Springer.
Cullinane, K., Wang, TF, Song, DW y Ji, P. (2006). La eficiencia técnica de los puertos de contenedores: comparando el
análisis envolvente de datos y el análisis de frontera estocástica. Investigación de Transporte Parte A: Política y
Práctica, 40(4), 354–374.
Farrell, MJ y Fieldhouse, M. (1962). Estimación de funciones de producción eficientes bajo rendimientos crecientes a
escala. Revista de la Real Sociedad Estadística. Serie A (General), 125, 252–267.
Farris, PW, Bendle, NT, Pfeifer, PE y Reibstein, DJ (2010). Métricas de marketing: la guía definitiva para medir el
desempeño de marketing, Introducción (págs. 1–25). Londres:
Pearson.
Feng, C. y Fay, SA (2016). Inferir la capacidad del vendedor mediante el análisis de frontera estocástica.
Journal of Personal Selling and Sales Management, 36, 294–306.
Fenn, P., Vencappa, D., Diacon, S., Klumpes, P. y O'Brien, C. (2008). Estructura del mercado y la eficiencia de las
compañías de seguros europeas: un análisis de frontera estocástica. Revista de Banca y Finanzas, 32(1), 86–100.
Førsund, FR, Lovell, CK y Schmidt, P. (1980). Un estudio de las funciones de producción de frontera y de su relación con
la medición de la eficiencia. Revista de Econometría, 13(1), 5–25.
Gagnepain, P. e Ivaldi, M. (2002). Fronteras estocásticas y modelos de información asimétrica.
Revista de Análisis de Productividad, 18(2), 145–159.
Greene, WH (2010). Un modelo de frontera estocástica con corrección por selección de muestra. Diario de
Análisis de productividad, 34(1), 15–24.
Hjalmarsson, L., Kumbhakar, SC y Heshmati, A. (1996). DEA, DFA y SFA: una comparación.
Revista de Análisis de Productividad, 7(2-3), 303–327.
Jacobs, R. (2001). Métodos alternativos para examinar la eficiencia hospitalaria: análisis envolvente de datos y análisis
de frontera estocástica. Ciencias de la gestión de la atención médica, 4(2), 103–115.
Koetter, M. y Poghosyan, T. (2009). La identificación de regímenes tecnológicos en la banca: Implicaciones para el nexo
entre poder de mercado y fragilidad. Revista de Banca y Finanzas, 33, 1413–1422.
Kumar, V. (2010). Gestión de la relación con el cliente. Hoboken, Nueva Jersey: Biblioteca en línea de Wiley.
Kumar, V. (2013). Compromiso rentable del cliente: Concepto, métricas y estrategias. Mil
Oaks, CA: Publicaciones SAGE India.
Kumar, V., Andrew Petersen, J. y Leone, RP (2007). ¿Qué valor tiene el boca a boca? Harvard Business Review, 85(10),
139.
Kumar, V., Bhaskaran, V., Mirchandani, R. y Shah, M. (2013). Ganador del premio de práctica: creación de una estrategia
de marketing en redes sociales medible: aumento del valor y el retorno de la inversión de intangibles y tangibles para
Hokey Pokey. Ciencias del marketing, 32(2), 194–212.
Kumar, V. y Mirchandani, R. (2012). Aumentar el ROI del marketing en redes sociales. Sloan del MIT
Revisión de la gestión, 54(1), 55.
Kumar, V. y Sharma, A. (2017). Aprovechar el análisis de marketing para mejorar el rendimiento de la empresa:
conocimientos de la implementación. Análisis de marketing aplicado, 3(1), 58–69.
Kumar, V., Sharma, A., Donthu, N. y Rountree, C. (2015). Practique el modelo de ciencia de marketing integrado de
implementación de papel premiado en una organización sin fines de lucro: Equilibrar múltiples objetivos comerciales
en el Acuario de Georgia. Ciencias del marketing, 34(6), 804–814.
Kumbhakar, SC y Lovell, CK (2003). Análisis de frontera estocástica. Cambridge: Cambridge
prensa universitaria.
Lilien, GL, Rangaswamy, A. y De Bruyn, A. (2013). Principios de ingeniería de marketing. State College, Pensilvania:
DecisionPro.
Lilien, GL (2011). Cerrar la brecha entre académicos y profesionales en los modelos de decisión de marketing.
Revista de Marketing, 75(4), 196–210.
MacKinnon, DP (2008). Introducción al análisis de mediación estadística. Abingdon: Routledge.
Meeusen, W. y van den Broeck, J. (1977). Estimación de eficiencia a partir de funciones de producción Cobb-Douglas
con error compuesto. Revista Económica Internacional, 18(2), 435–444.
Machine Translated by Google
Ofek, E. y Toubia, O. (2014). Análisis conjunto: una guía para hacerlo usted mismo. Escuela de Negocios de Harvard,
nota, 515024.
Ouellette, P. y Vierstraete, V. (2004). Cambio tecnológico y eficiencia en presencia de insumos cuasi-fijos: Una aplicación de
DEA al sector hospitalario. Revista europea de investigación operativa, 154(3), 755–763.
Parsons, JL (2002). Uso del análisis de frontera estocástica para la medición del rendimiento y
evaluación comparativa Avances en Econometría, 16, 317–350.
Predicador, KJ, Curran, PJ y Bauer, DJ (2006). Herramientas computacionales para sondear interacciones en regresión lineal
múltiple, modelado multinivel y análisis de curvas latentes. Revista de Estadísticas Educativas y de Comportamiento,
31(4), 437–448.
Predicador, KJ y Hayes, AF (2004). Procedimientos SPSS y SAS para la estimación de efectos indirectos en modelos de
mediación simple. Métodos de investigación del comportamiento, 36(4), 717–731.
Predicador, KJ, Rucker, DD y Hayes, AF (2007). Abordaje de hipótesis de mediación moderada: teoría, métodos y
prescripciones. Investigación conductual multivariante, 42(1), 185–227.
Reinhard, S., Lovell, C. y Thijssen, G. (2000). Eficiencia ambiental con múltiples variables ambientalmente perjudiciales;
estimado con SFA y DEA. Revista europea de investigación operativa, 121(3), 287–303.
Sherman, HD y Gold, F. (1985). Eficiencia operativa de sucursales bancarias: Evaluación con análisis envolvente de datos.
Revista de Banca y Finanzas, 9(2), 297–315.
Venkatesan, R., Farris, P. y Wilcox, RT (2014). Análisis de marketing de vanguardia: Casos del mundo real y conjuntos de
datos para el aprendizaje práctico. Londres: Educación de Pearson.
Vyt, D. (2008). Evaluación del rendimiento de la red minorista: un enfoque DEA que considera el geomarketing de los
minoristas. The International Review of Retail, Distribution and Consumer Research, 235–253.
Wadud, A. y White, B. (2000). Eficiencia de los hogares agrícolas en Bangladesh: una comparación de la frontera estocástica
y los métodos DEA. Economía Aplicada, 32(13), 1665–1673.
Wedel, M. y Kannan, PK (2016). Análisis de marketing para entornos ricos en datos. Diario de
Comercialización, 80, 97–121.
Otros recursos
Kristopher, J. Predicador (2018). Sitio web del predicador. Recuperado el 19 de mayo de 2018, de http://
quantpsy.org/medn.htm.
Recuperado el 19 de mayo de 2018, de www.conjoint.online.
Software: STATA, Mplus. Recuperado el 19 de mayo de 2018, de www.statmodel.com.
Machine Translated by Google
capitulo 20
Análisis financiero
Krishnamurthy Vaidyanathan
1 Parte A: Metodología
1.1 Introducción
El análisis de datos en finanzas es una parte de las finanzas cuantitativas. Las finanzas
cuantitativas consisten principalmente en tres sectores financieros: gestión de activos, banca
y seguros. En estos tres sectores, hay cuatro funciones estrechamente conectadas en las que
se utilizan las finanzas cuantitativas: valoración, gestión de riesgos, gestión de carteras y
análisis de rendimiento. El análisis de datos en finanzas respalda estos cuatro componentes
básicos secuenciales de las finanzas cuantitativas, especialmente los tres primeros: valoración,
gestión de riesgos y gestión de carteras.
Las finanzas cuantitativas se pueden dicotomizar en dos ramas o subconjuntos que tienen
ligeras superposiciones. El primero es el mundo neutral al riesgo o el mundo Q, y el segundo,
en el que el análisis de datos se usa ampliamente, es el mundo adverso al riesgo o el mundo P.
Los profesionales cuantitativos del mundo Q se denominan Q-quants, y los del mundo P se
denominan P-quants. Antes de profundizar en la metodología del análisis de datos en finanzas
que estructuramos como un proceso de tres etapas en este capítulo, destacamos brevemente
los procesos, metodologías, desafíos y objetivos de estos dos mundos cuantitativos y también
analizamos la historia y los orígenes de estos dos mundos dicotomizados de las finanzas
cuantitativas.
K. Vaidyanathan ( )
Escuela de Negocios de la India, Hyderabad, Telangana, India
Correo electrónico: vaidya_nathan@isb.edu
660 K. Vaidyanathan
Uno puede parafrasear el poema de Rudyard Kipling The Ballad of East and West y decir: "Oh, el
mundo Q es el mundo Q, el mundo P es el mundo P, y los dos nunca se encontrarán". A decir verdad,
la elevada perogrullada de Kipling no es del todo cierta en el mundo cuántico.
El mundo Q y el mundo P se encuentran, pero apenas se hablan. En esta sección, presentamos los
mundos P y Q y sus respectivos edificios teóricos.
1.2.1 Q-Cuántos
a tiempo. Cualquier proceso que satisfaga esta propiedad se denomina martingala. Debido a que el
rendimiento esperado es el mismo para todos los instrumentos financieros, implica que no hay una
recompensa adicional por asumir riesgos. Es como si todos los precios se hicieran en un mundo ficticio
llamado mundo neutral al riesgo, donde, independientemente del riesgo de un valor, no hay una
compensación adicional por el riesgo. Todos los instrumentos financieros en este mundo ficticio
obtienen el mismo rendimiento independientemente de su riesgo. Los instrumentos libres de riesgo
ganan la tasa libre de riesgo al igual que todos los instrumentos riesgosos. Por el contrario, en el mundo
P, los agentes económicos o inversores son, para todos los efectos, reacios al riesgo, como la mayoría
de las personas en el mundo real.
Los Q-quants suelen tener un conocimiento profundo sobre un producto específico. Entonces, un
Q quant que, por ejemplo, comercia con derivados crediticios para ganarse la vida tendría un
conocimiento abundante sobre productos derivados crediticios, pero su conocimiento puede no ser muy
útil en, digamos, un dominio como el cambio de divisas. De manera similar, un Q-quant que modela
instrumentos de divisas puede no encontrar su conjunto de habilidades muy útil si intentara modelar
tasas de interés para instrumentos de renta fija. La mayor parte de las finanzas que se realizan en el
mundo Q se realizan en tiempo continuo porque, como se discutió anteriormente, la expectativa del
precio en cualquier momento futuro es igual a su precio actual. Dado que esto es válido para todos los
tiempos, los procesos utilizados en Q-world se establecen naturalmente en tiempo continuo. Por el
contrario, en el mundo P, las probabilidades son para un inversor adverso al riesgo. Esto se debe a
que, en el mundo real, las personas como tú y como yo necesitamos un rendimiento adicional por
asumir riesgos. Además, medimos los rendimientos en intervalos de tiempo discretos, como un día,
una semana, un mes o un año. Así que la mayoría de los procesos se modelan en tiempo discreto. La
dimensionalidad del problema en el mundo P es evidentemente grande porque el P-quant no está
mirando un instrumento específico o solo una clase de activos en particular, sino múltiples clases de
activos simultáneamente. Las herramientas que se utilizan para modelar en el mundo P son
principalmente estadísticas multivariadas, que es lo que preocupa a los analistas de datos.
1.2.2 P-Cuántos
Ahora discutimos el mundo P y sus orígenes, herramientas y técnicas y los contrastamos con el mundo
Q. El mundo P comenzó con el marco de media-varianza de Markowitz en 1952 (Markowitz 1952).
Harry Markowitz mostró que los criterios de evaluación de inversiones convencionales del valor presente
neto (NPV) deben segregarse explícitamente en términos de riesgo y rendimiento. Definió el riesgo
como la desviación estándar de la distribución de retorno. Argumentó que la correlación imperfecta de
la distribución de rendimiento de las acciones se puede utilizar para reducir el riesgo de una cartera de
acciones. Introdujo el concepto de diversificación, que es el equivalente financiero de la consigna: no
ponga todos los huevos en la misma canasta. Sobre la base del modelo de Markowitz, el siguiente
edificio importante del mundo P fue el modelo de fijación de precios de activos de capital (CAPM) de
William Sharpe en 1964 (Sharpe 1964). William Sharpe convirtió el marco de la “escuela de negocios”
de Markowitz en un modelo de “departamento de economía”.
Sharpe comenzó con un mundo ficticio en el que todos los inversores operan en el marco de Markowitz.
Además, todos los inversores en el mundo CAPM tienen la misma expectativa de rendimiento y
varianza-covarianza. Dado que todos los activos de riesgo en el
Machine Translated by Google
662 K. Vaidyanathan
mercado financiero debe estar en manos de alguien, resulta que en el modelo del “departamento de
economía” de Sharpe, todos los inversores acaban teniendo la cartera del mercado, una cartera en
la que cada título de riesgo tiene el peso proporcional a cuántos de ellos están disponibles. En el
momento en que William Sharpe postuló el modelo, la noción de cartera de mercado era nueva.
Poco tiempo después, la industria financiera creó fondos mutuos que mantienen una cartera
diversificada de acciones, principalmente en la proporción de acciones disponibles. Era como si la
naturaleza hubiera imitado al arte, aunque todos sabemos que casi siempre es al revés. En 1990,
Markowitz y Sharpe ganaron el Premio Noble de Economía por desarrollar la base teórica para la
diversificación y CAPM.
El siguiente edificio significativo llegó en 1970 por Eugene Fama llamado la hipótesis del mercado
eficiente (EMH). La EMH plantea la hipótesis de que ninguna estrategia comercial basada en
información ya disponible puede generar rendimientos superiores a los normales (Fama 1970).
La EMH ofreció importantes conocimientos teóricos sobre la naturaleza de los mercados financieros.
Más importante aún, se prestó a la investigación empírica que era imperativa y esencial para las
finanzas, entonces un campo relativamente incipiente. Como resultado, la hipótesis del mercado
eficiente es probablemente la hipótesis probada más amplia y extensamente en todas las ciencias
sociales. Eugene Fama ganó el Premio Nobel en 2013 por sus poderosas ideas sobre los mercados
financieros.
Otra contribución importante a mediados de la década de 1970 fue el modelo de teoría de precios
de arbitraje (APT) de Stephen Ross (1976). La APT es un modelo multifactorial utilizado para
calcular la rentabilidad esperada de un activo financiero. Aunque tanto CAPM como APT
proporcionaron un marco fundamental para la fijación de precios de activos, no utilizaron análisis de
datos porque su marco asumió que se conoce la distribución de probabilidad en el mundo P. Por
ejemplo, si los rendimientos de los activos financieros siguen una distribución elíptica, cada inversor
optaría por mantener una cartera con la varianza más baja posible para el nivel elegido de
rendimientos esperados. Tal cartera se denomina cartera de varianza mínima, y el marco de análisis
de cartera se denomina marco de varianza media. Desde el punto de vista de la teoría financiera,
esta es una suposición conveniente, especialmente la suposición de que los rendimientos de los
activos son conjuntamente normales, que es un caso especial de una distribución elíptica. Una vez
que se asume que la distribución de probabilidad ya se conoce, se pueden derivar implicaciones
teóricas sobre cómo deberían funcionar los mercados de activos. Tobin propuso el teorema de
separación que postula que la elección óptima de inversión para un inversor es independiente de su
riqueza (Tobin 1958). El teorema de separación de Tobin es válido si los rendimientos de los activos
financieros son multinormales. Ampliando el trabajo de Tobin, Stephen Ross postuló el teorema de
los dos fondos que establece que si los inversores pueden pedir prestado y prestar a la tasa libre de
riesgo, poseerán la cartera libre de riesgo o la cartera de mercado (Ross 1978). Ross luego lo
generalizó a un teorema de separación de fondos k más completo . El teorema de separación de
Ross es válido si los rendimientos de los activos financieros siguen una distribución elíptica. La clase
de distribución elíptica incluye la normal multivariante, la exponencial multivariante, la distribución t
de Student multivariante y la distribución de Cauchy multivariante, entre otras (Owen y Rabinovitch
1983).
664 K. Vaidyanathan
Fig. 20.1 Metodología del marco de tres etapas para el análisis de datos en finanzas
que combina múltiples pasos se proporciona en la Secc. 20.2. Ahora analizamos la metodología de tres
etapas que comienza con la identificación de variables para diferentes clases de activos, como acciones,
divisas, renta fija, crédito y materias primas.
El objetivo de la primera etapa es estimar el comportamiento del precio de un activo. Comienza con la
identificación de la variable financiera a modelar.
Paso 1: Identificación
El primer paso del modelado en el mundo P es identificar la variable apropiada que es diferente para distintas
clases de activos. La idea básica es encontrar un proceso para la variable financiera donde los residuos sean
esencialmente iid. El proceso más común usado para modelar una variable financiera x es el paseo aleatorio:
xt = xtÿ1 + ÿt
donde ÿt es el término de error y es aleatorio. La postulación en la que una variable financiera sigue un
camino aleatorio se denomina hipótesis del camino aleatorio y es consistente con la hipótesis del mercado
eficiente (Fama 1965). Lo que significa en términos simples es que las variables financieras son
fundamentalmente impredecibles. Sin embargo, si uno observa el precio de una acción típica, el precio
cambia de tal manera que el orden de magnitud del cambio es proporcional al valor del precio de la acción.
Este tipo de comportamiento entra en conflicto con la homogeneidad en el tiempo que caracteriza a una
variable financiera cuando sigue un camino aleatorio. Como salida, la variable que realmente se modela es
el logaritmo (log) del precio de la acción, y se ha observado que el logaritmo del precio de la acción se
comporta como un paseo aleatorio. Un paseo aleatorio simple tiene una media y una desviación estándar
constantes, y su distribución de probabilidad no cambia con el tiempo. Tal proceso se llama como un proceso
estacionario.
De forma similar a los precios de las acciones, el logaritmo de los tipos de cambio o el logaritmo de los
precios de las materias primas se comporta aproximadamente como un paseo aleatorio. La variable
subyacente en sí misma, es decir, el precio de las acciones, el tipo de cambio o el precio de las materias
primas, no es exactamente estacionario, pero el logaritmo del precio de las acciones, el tipo de cambio o el
precio de las materias primas se comporta como un paseo aleatorio fortuito. Un proceso estacionario es
aquel cuya distribución de probabilidad no cambia con el tiempo. Como resultado, sus momentos, como la
varianza o la media, no varían en el tiempo.
Sin embargo, elegir la variable financiera adecuada es tan importante como la modificación que se le
haga. Por ejemplo, en un instrumento de renta fija como un bono de cupón cero, el precio converge al valor
nominal a medida que el bono se acerca al vencimiento. Claramente, ni el precio en sí mismo ni su logaritmo
pueden modelarse como un paseo aleatorio. En cambio, lo que se modela como un paseo aleatorio es el
rendimiento de los bonos, denominado rendimiento al vencimiento. En pocas palabras, el rendimiento es la
tasa interna de rendimiento de un bono que se calcula sobre los flujos de efectivo
Machine Translated by Google
666 K. Vaidyanathan
el bono paga hasta el vencimiento. Y esta variable se ajusta adecuadamente a un modelo de paseo aleatorio.
Las variables financieras que típicamente se modelan en las diferentes clases de activos son
se muestra en la figura 20.2.
Paso 2: IID
Una vez que se identifica la variable financiera que es de interés, el siguiente paso en datos
preparación es obtener una serie temporal de las variables que son de interés. Estas
Las variables deben mostrar un comportamiento homogéneo a lo largo del tiempo, y como se muestra en la Fig.
20.2, las variables son diferentes para diferentes clases de activos. Por ejemplo, en acciones,
divisas o materias primas, es el registro del precio de la acción/moneda/materias primas. Para
instrumentos de renta fija, la variable de interés no puede ser el precio o el logaritmo de
precio. La variable de interés sería la rentabilidad al vencimiento de la renta fija
seguridad.
Una vez que tenemos los datos en bruto de la variable financiera, probamos si la
variable sigue un camino aleatorio utilizando pruebas estadísticas como la de Dickey-Fuller
o la prueba de razón de varianzas múltiples (Dickey y Fuller 1979; Campbell et al.
1997). Muchas veces pueden seguir procesos menos aleatorios y, por lo tanto, pueden ser
predecible hasta cierto punto. Esto se conoce como hipótesis de caminata no aleatoria. Andrés
Lo y Craig Mackinlay, en MIT Sloan y Wharton, respectivamente, en su libro
Un paseo no aleatorio por Wall Street presenta una serie de pruebas y estudios que
validar que existen tendencias en los mercados financieros y que las variables financieras
Machine Translated by Google
identificados en el Paso 1 son algo predecibles. Son predecibles tanto en términos de corte
transversal como de series de tiempo. Como ejemplo de la capacidad de predecir utilizando
datos transversales, el modelo de tres factores Fama-French postulado por Eugene Fama y
Kenneth French utiliza tres factores para describir los rendimientos de las acciones (Fama y
French 1993). Un ejemplo de predictibilidad en series de tiempo es que la variable financiera
puede mostrar algún tipo de tendencia de reversión a la media. Lo que eso significa es que
si el valor de la variable financiera es bastante alto, tendrá una propensión a disminuir en
valor y viceversa. Por ejemplo, si los rendimientos se vuelven muy altos, puede haber una
propensión a que regresen a los niveles promedio históricos a largo plazo. En tales casos,
las características que provocan la desviación del recorrido aleatorio se extraen para que los
residuos muestren un comportamiento iid. Los modelos utilizados dependerían de las
características que presente la variable financiera. Por ejemplo, la agrupación de volatilidad
como la reversión a la media es una característica comúnmente observada en las variables financieras.
Cuando los mercados son extremadamente volátiles, la variable financiera fluctúa mucho y
puede haber una mayor probabilidad de una gran variabilidad que de otra manera. Se utilizan
técnicas como el modelo de heteroscedasticidad condicional autorregresiva (ARCH) o el
modelo de heteroscedasticidad condicional autorregresiva generalizada (GARCH) para
descartar el agrupamiento de volatilidad (Engle 1982). Si la variable muestra algún tipo de
reversión a la media, es posible que desee utilizar modelos de media móvil autorregresiva
(ARMA) si se trata de un caso univariado o utilizar modelos de autorregresión vectorial (VAR)
en escenarios multivariados (Box et al. 1994; Sims 1980). Estos son, en esencia, modelos
econométricos que pueden capturar interdependencias lineales a lo largo de múltiples series
de tiempo y son fundamentalmente una forma general de modelos autorregresivos (AR)
(Yule 1927). También podríamos usar modelos de volatilidad estocástica, y esos se usan
comparativamente comúnmente en el agrupamiento de volatilidad. Los procesos de memoria
larga garantizan principalmente modelos de integración fraccionaria (Granger y Joyeux 1980).
La integración fraccionaria muestra una memoria larga, lo que significa principalmente que
los incrementos de la variable financiera muestran autocorrelación. Por lo tanto, los
incrementos no son iid y estas autocorrelaciones persisten a lo largo de múltiples retrasos.
Por ejemplo, el valor de la variable aleatoria en el tiempo t + 1 es una función del tiempo t, t
ÿ 1, t ÿ 2, etc. Los retrasos disminuyen muy gradualmente y, por lo tanto, se denominan
procesos de memoria larga. Tales tendencias, ya sean memoria larga, agrupamiento de
volatilidad o reversión a la media, se modelan utilizando técnicas como procesos de
integración fraccionaria, GARCH o AR, respectivamente. Después de tener en cuenta dichos
patrones, nos quedan choques iid sin un patrón discernible.
Paso 3: Inferencia
668 K. Vaidyanathan
1%
0%
-1%
-2%
-3%
-2 banda SD
-4%
25/oct/12 25/oct/13 25/oct/14 25/oct/15 25/oct/16 25/oct/17
niveles de índice absolutos de S&P 500 por las razones mencionadas en el Paso 1. A partir de los niveles de
índice diarios, los rendimientos de 1 día se calculan de la siguiente manera:
2 2
2 ÿt = ÿ + ÿ rtÿ1 + bstÿ1
la rentabilidad media diaria sea cero. Usando la distribución gaussiana, la probabilidad de que
rt se distribuya normalmente viene dada por:
ÿt
2
1 ÿ
rt
12
y ÿt
2
< 2ÿÿt
Esto completa el Paso 2 de reducir la variable a un proceso iid. El siguiente paso es calcular
la distribución conjunta. Dado que las variables rt a lo largo del tiempo son independientes,
probabilidad la
ÿt
conjunta L de la muestra se calcula como el producto de la función de probabilidad anterior
utilizando la propiedad de independencia a lo largo de la serie temporal de n puntos de datos.
Por lo tanto:
2
norte
1 rt
L=
ÿ
12
y ÿt
2
t=1
< 2ÿÿt
Dado que el producto anterior sería un número muy pequeño en magnitud, el logaritmo
natural de la probabilidad anterior se maximiza en MLE. Este log-verosimilitud viene dado por:
norte
ÿ1 en 2ÿÿt 2 + rt
ln(L) =
2 t=1 ÿt 28
Paso 4: Proyección
El cuarto paso es la proyección. Explicamos este paso usando un ejemplo simple de los
mercados de divisas. Digamos que la variable financiera se estima mediante una técnica como
MLE, GMM o estimación bayesiana (Hansen 1982). El siguiente paso es proyectar la variable
usando el modelo. Digamos que el horizonte es de 1 año y queremos calcular la ganancia o
pérdida esperada de una cartera determinada. Una técnica comúnmente utilizada para esto es
la simulación de Monte Carlo, que es otro ingreso de la física (Fermi y Richtmyer 1948).
Proyectamos la variable financiera en el espacio Q utilizando parámetros y procesos neutrales
al riesgo. Esto también nos ayuda a comprender cómo convergen los mundos P y Q.
Digamos que queremos proyectar el valor del tipo de cambio de la rupia india frente al dólar
estadounidense (USD/INR). USD/INR a fines de octubre de 2017 es 65. Suponemos que los
rendimientos siguen una distribución normal caracterizada por su media y desviación estándar.
La proyección podría realizarse en el espacio P o en el espacio Q. En el espacio P, la proyección
se basaría en el promedio anual histórico
Machine Translated by Google
670 K. Vaidyanathan
Supongamos que la desviación estándar de los rendimientos USD/INR es del 10 %. Una vez que
tengamos la media y la desviación estándar, podemos ejecutar una simulación Monte Carlo para
proyectar la variable financiera de interés. Tal ejercicio podría ser de interés si los ingresos están en
dólares y una parte sustancial de los gastos está en dólares. Para obtener una lectura más detallada de
la aplicabilidad de este ejercicio a los diversos componentes de las ganancias, como los ingresos y el
costo de los bienes vendidos en moneda extranjera, consulte el "Apéndice C: Componentes de la
obtención del documento CreditMetrics™" de JPMorgan (CreditMetrics 1999) .
Primero elegimos un número aleatorio de la distribución normal estándar, digamos x. Luego escalamos
(multiplicamos) x por la desviación estándar y agregamos el rendimiento promedio para obtener una
variable aleatoria asignada a la distribución normal exacta de los rendimientos.
Tenga en cuenta que el rendimiento promedio y la desviación estándar se ajustan para el horizonte
diario dividiendo por 365 y la raíz cuadrada de 365, respectivamente. Después de escalar la variable,
multiplicamos el precio de USD/INR en t con (1 + R) para proyectar el valor de USD/INR al día siguiente.
Los pasos anteriores se explican en la hoja de cálculo “Financial Analytics Steps 4 and 5.xlsx” (disponible
en el sitio web del libro). Un ejemplo de la simulación anterior con USD/INR a 65 niveles en el día 1 se
ejecuta durante siete simulaciones y 10 días en la Tabla 20.1 y la Fig. 20.4.
Una vez que tenemos las proyecciones de los tipos de cambio en puntos futuros, es una tarea fácil
evaluar los diferentes componentes de las ganancias que se ven afectados por el tipo de cambio.
Machine Translated by Google
75.00
70.00
65.00
60.00
55.00
50.00
Nov-2017 Ene-2018 Mar-2018 May-2018 Jul-2018 Sep-2018 Nov-2018
Paso 5: Precios
672 K. Vaidyanathan
contrato a plazo y viceversa para un contrato a plazo corto. Un contrato a plazo es un contrato entre
dos partes para comprar o vender un activo en un momento futuro específico. En este caso, el activo
es USD/INR y el momento futuro especificado es 1 año. Se supone que la parte que compra USD es
un contrato a plazo "largo", mientras que la otra parte que vende USD dentro de 1 año es un contrato
a plazo "corto". El pago ex ante esperado es la suma del pago en todos los escenarios dividido por el
número de simulaciones. Después de la fijación de precios, pasamos a la siguiente etapa de gestión
de riesgos.
La segunda etapa del análisis de datos en finanzas se refiere a la gestión de riesgos. Implica un
análisis para la agregación de riesgos, la evaluación de riesgos y la atribución de riesgos. El marco
se puede utilizar para el análisis de riesgo de una cartera o incluso para una institución financiera completa.
Paso 1: Agregación
este Rs. 500 cartera de préstamos es que primero describiremos la distribución marginal del crédito
para cada una de las cinco empresas. A continuación, utilizaremos la función de cópula gaussiana
para obtener la distribución conjunta de la cartera de estos cinco préstamos.
Supongamos por simplicidad que cada empresa tiene una probabilidad de incumplimiento
del 2%. Por lo tanto, existe un 98% de posibilidades de supervivencia de la empresa en un año.
El horizonte para el préstamo es de 1 año. Suponga que en caso de incumplimiento, el banco
puede recuperar el 50% del monto del préstamo. Las distribuciones marginales son idénticas
en nuestro ejemplo para facilitar la exposición, pero los modelos de cópula también permiten
distribuciones variables. Lo que queremos hacer es que basándonos en la estructura de
correlación, queremos calcular la distribución conjunta del crédito de cada una de estas
empresas. Modelamos esto usando un modelo de un factor. Se supone que el único factor es
el estado de la economía M, que se supone que tiene una distribución gaussiana.
Para generar un modelo de un factor, definimos las variables aleatorias xi (1 ÿ i ÿ N):
xi = ÿiM + 1 ÿ ÿ2 i Día
ÿx ÿ 1ÿiM
- p2 ÿ
i
Se supone que los activos de cada una de estas empresas tienen una distribución
gaussiana. Nótese que la probabilidad de incumplimiento es del 2%, correspondiente a un
valor normal estándar de ÿ2,05. Si el valor del activo estandarizado con la media y su
desviación estándar es mayor a ÿ2.05, la entidad sobrevive, de lo contrario incumple. El condicional
probabilidad de que yoel entidad sobrevivirá es por lo tanto:
Si (xi < x| M) = 1 ÿ H ÿ ÿ
ÿx ÿ 1ÿiM
- p2 ÿ
i
674 K. Vaidyanathan
norte
Similarmente,
norte
1 ÿ Si (xi < x| M)
ÿ (1|M) = ÿ (0|M)
Si (xi < x| M)
yo=1
Definir
norte
1 ÿ Si (xi < x| M)
wi =
Si (xi < x| M)
yo=1
norte
¡NORTE!
q(k) = k!
(N ÿ k)!
676 K. Vaidyanathan
Tabla 20.4 Probabilidades de supervivencia conjunta condicional para cópula gaussiana de un factor
Paso 2: Evaluación
que el gestor de riesgos puede estar seguro de que 99 de cada 100 veces, la pérdida de la
cartera no excederá la métrica VaR. Esta métrica también se utiliza para fines financieros.
informes y para el cálculo del capital regulatorio de las instituciones financieras. VaR es un
evaluación ex-ante en el sentido bayesiano—el número VaR es un valor que es ex-ante
evaluada como la pérdida que eventualmente puede resultar para la cartera. Solo incorpora
información disponible en el momento del cálculo. El VaR se utiliza para la gobernanza en
planes de pensión, dotaciones, fideicomisos y otras instituciones financieras adversas al riesgo
donde el mandato de inversión a menudo define la pérdida máxima aceptable con
probabilidades dadas. Una descripción detallada de cómo se ha utilizado el valor en riesgo
para calcular el capital se puede encontrar en el Capítulo 3, “Capital regulatorio basado en VAR”,
del libro Value at Risk: The New Benchmark for Management Financial Risk de
Felipe Jorión. Esta medida particular incorpora los pasos anteriores de cartera
agregación. Entenderemos el paso usando un ejemplo. Examinaremos el
Cálculo del VaR con una cartera simple que comprende 1 USD, 1 EUR, 1 GBP y
100 yenes. El valor de la cartera en términos de INR es Rs. 280 (1 USD = 64 rupias, 1 euro
(EUR) = Rs. 75, 1 libra esterlina (GBP) = Rs. 82, 100 yenes (JPY) = Rs. 59). Queremos
calcule al final de 1 año cuál es la posible pérdida o ganancia de este particular
portafolio. Para agregar el riesgo, hacemos uso de la matriz de correlación entre el
monedas como se describe en la Tabla 20.5.
Usaremos la descomposición de Cholesky, que fundamentalmente descompone el
matriz de correlación en una matriz triangular inferior y una matriz triangular superior
(Press et al. 1992). La única condición es que la matriz de correlación sea
matriz hermítica definida positiva. Esta descomposición es casi similar a la computación.
la raíz cuadrada de un número real.
A = LLÿ
678 K. Vaidyanathan
Y = LX
Paso 3: Atribución
El tercer paso en el análisis de gestión de riesgos es la atribución. Una vez que hemos evaluado
el riesgo de la cartera en el paso anterior, ahora necesitamos atribuir el riesgo a
diferentes factores de riesgo. Por ejemplo, el riesgo combinado de Rs. 38 de la cartera en
el ejemplo anterior se puede atribuir a cada uno de los activos individuales. Como por
una cartera, esto también se puede hacer a nivel de empresa. ¿Qué instituciones financieras
normalmente es atribuir el riesgo a lo largo de una línea de negocio (LoB). Esto es porque
bancos e instituciones financieras están interesados en medir el capital consumido
por diversas actividades. El capital se mide usando la métrica de Valor en Riesgo. VaR tiene
Machine Translated by Google
convertirse en una herramienta inalienable para el control de riesgos y parte integral de las
metodologías que buscan la asignación de capital económico y/o regulatorio. Su uso está
siendo fomentado por el Banco de la Reserva de la India (RBI), el Banco de la Reserva Federal
(Fed), el Banco de Pagos Internacionales, la Junta de Bolsa y Valores de la India (SEBI) y la
Comisión de Bolsa y Valores (SEC). Las partes interesadas, incluidos los reguladores y los
órganos de supervisión, buscan cada vez más evaluar la peor pérdida posible (normalmente
con niveles de confianza del 99 %) de las carteras de las instituciones financieras y los fondos.
Puede encontrar una descripción detallada de cómo se ha utilizado el valor en riesgo para
calcular el capital en el Capítulo 3, "Capital regulatorio basado en VAR", del libro Valor en
riesgo: el nuevo punto de referencia para gestionar el riesgo financiero de Philippe Jorion. Hay
tres medidas comúnmente empleadas de capital basado en VaR: independiente, incremental y
componente. Se ha encontrado que diferentes bancos a nivel mundial calculan estos números
de capital de manera diferente, pero siguen ideas similares detrás de las medidas.
Capital independiente
Capital incremental
El capital incremental mide la cantidad de capital que la unidad de negocio agrega al capital
total de la empresa. Por el contrario, mide la cantidad de capital que se liberaría si se vendiera
la unidad de negocio.
Capital componente
El capital componente, a veces también denominado capital asignado, mide el capital total de
la empresa que estaría asociado con una determinada línea de negocios.
Atribuir capital de esta manera tiene un atractivo intuitivo y es probablemente la razón por la
que está particularmente extendido.
Utilizamos un ejemplo simplificado para comprender cómo se realiza la atribución utilizando
métricas como capital independiente, incremental y componente. Supongamos que hay un
banco que tiene tres unidades de negocio:
Para facilitar el cálculo, suponemos que el activo bancario total es A = Rs. 3000 millones de
rupias. También asumimos por simplicidad que cada uno de los LoB tiene activos por valor de
Ai = Rs. 1000 millones de rupias, i = 1, 2, 3. La volatilidad de las tres líneas de negocios es:
680 K. Vaidyanathan
C = 2,33 Aÿ
El capital incremental de LoB1 se calcula como el capital total menos el capital de LoB2 y
LoB3. Mide el aumento incremental de capital al agregar LoB1 a la empresa. Por lo tanto, el
capital incremental para LoB1 es:
El capital componente de cada LoB siempre suma el capital total. Consulte la hoja de cálculo
"Financial Analytics Step 8.xlsx" (disponible en el sitio web del libro) para conocer las
especificaciones del cálculo. Los lectores interesados en el cálculo del capital total para todo el
negocio pueden consultar el marco RiskMetrics™ desarrollado por JPMorgan (RiskMetrics 1996).
La tercera etapa del análisis de datos en finanzas se refiere a la gestión de riesgos de cartera.
Implica la asignación óptima de riesgo y rendimiento, así como la ejecución requerida para mover
la cartera de un nivel subóptimo a un nivel óptimo.
Paso 1: Asignación
Después de haber agregado la cartera, evaluado el riesgo y luego atribuido el riesgo a diferentes
líneas de negocios, pasamos a cambiar la cartera para toda la empresa, para una división o una
LoB para asignaciones óptimas. Entonces, si continuamos con el ejemplo anterior donde tenemos
tres líneas de negocios, la cantidad se mantiene esencialmente igual: Rs. 1000 millones de rupias.
Si analizamos los resultados del Paso 3
Machine Translated by Google
682 K. Vaidyanathan
de la gestión de riesgos, encontramos que la atribución de riesgos de las tres métricas (capital
independiente, incremental y componente) indica que la atribución de riesgo más baja ocurre a lo largo
de la primera línea de negocios. Si el índice de Sharpe (rendimiento excedente como proporción del
riesgo) para LoB1 es el más alto (seguido por el de LoB2 y LoB3 respectivamente), entonces es óptimo
para la empresa asignar más capital a la primera línea de negocios y luego a la segunda línea de
negocio. LoB3 es quizás el más caro en términos de rentabilidad ajustada al riesgo. El paso 1 del
análisis de cartera implica la asignación óptima de los activos de manera que el riesgo general de la
empresa sea óptimo.
Los lectores interesados en la asignación óptima de activos pueden consultar el marco RiskMetrics
desarrollado por JPMorgan (RiskMetrics 1996).
Paso 2: Ejecución
El último paso es la ejecución. Habiendo decidido cambiar la cartera de su nivel actual a un nivel más
óptimo, tenemos que ejecutar las operaciones respectivas para que podamos llegar a los niveles de
riesgo de cartera deseados. La ejecución ocurre en dos pasos. El primer paso es la programación de
pedidos, que es básicamente una etapa de planificación del proceso de ejecución. La programación de
órdenes implica decidir cómo dividir una operación grande en operaciones más pequeñas y programar
cada operación para una ejecución óptima. Digamos que una institución financiera quiere mover una
gran parte de su cartera de un bloque a otro.
Esto se conoce como una orden principal que se desglosa en órdenes secundarias.
La escala de tiempo de la orden principal está en el orden de un día conocido como tiempo de volumen.
En ejecución, la forma en que se mide el tiempo no es tanto en tiempo de calendario (llamado tiempo
de reloj de pared) sino en lo que se denomina tiempo de actividad. El tiempo de actividad se comporta
como un paseo aleatorio. En este último paso, volvemos al Paso 1, donde dijimos que necesitamos
identificar los factores de riesgo. Para la ejecución, la variable a modelar es el tiempo de actividad. Esto
se comporta aproximadamente como una caminata aleatoria con deriva y tiempo de actividad como un
factor de riesgo en el mundo de la ejecución, especialmente en el comercio de alta frecuencia.
Hay dos tipos de tiempo de actividad: tiempo de tictac y tiempo de volumen. El tiempo de tick es la
especificación más natural para el tiempo de actividad en escalas de tiempo muy cortas que avanzan
en 1 unidad cada vez que ocurre una operación. El segundo tipo, el tiempo de volumen, se puede
entender intuitivamente al observar que el tiempo de volumen transcurre más rápido cuando ocurre más
actividad comercial, es decir, el volumen de negociación es mayor. Después del primer paso de la
programación de pedidos, el segundo paso en la ejecución de pedidos es la colocación de pedidos, que
analiza la ejecución de pedidos secundarios, y esto se aborda nuevamente mediante el análisis de datos.
El tiempo esperado de ejecución de las órdenes secundarias es del orden de un minuto. Las órdenes
secundarias, tanto las órdenes de límite como las de mercado, se basan en comentarios en tiempo real
utilizando señales oportunistas generadas a partir de técnicas de análisis de datos. Por lo tanto, en la
colocación de órdenes, la escala de tiempo de las órdenes limitadas y de mercado es del orden de
milisegundos, y el tiempo se mide por tiempo de tictac, que es discreto. Estos dos pasos se repiten en
los algoritmos de ejecución después de concluir la primera orden secundaria llamada programación. Se
ejecuta colocando órdenes limitadas y de mercado. Una vez que la orden secundaria se ejecuta por
completo, actualizamos la orden principal con el monto residual que se ejecutará. Volvemos a calcular
Machine Translated by Google
el siguiente niño ordena y ejecuta. Este procedimiento finaliza cuando se agota la orden
matriz. La ejecución casi siempre se realiza mediante programación utilizando algoritmos y
se conoce como comercio de alta frecuencia (HFT). El último paso, por lo tanto, retroalimenta
al primer paso de nuestro marco.
1.4 Conclusión
Para concluir, el marco consta de tres etapas para modelar, evaluar y mejorar el desempeño
de una institución financiera y/o una cartera. Los primeros cinco pasos pertenecen a la
estimación econométrica. Los siguientes tres pasos se refieren a la gestión de riesgos y
ayudan a medir el perfil de riesgo de la empresa y/o la cartera. Los dos últimos pasos se
refieren a la gestión de la cartera y ayudan a optimizar el perfil de riesgo de la institución
financiera y/o la cartera. Seguir estos pasos secuenciales en tres etapas nos ayuda a evitar
errores comunes y a garantizar que no nos perdamos características importantes en nuestro
uso del análisis de datos en finanzas. Dicho esto, no todos los análisis de datos en el mundo
de las finanzas involucran todos los pasos en tres etapas. Si solo estamos interesados en la
estimación, podemos seguir los primeros cinco pasos. O si solo estamos interesados en la
atribución de riesgos, es posible que solo implique el Paso 3 de la gestión de riesgos.
El marco lo abarca todo para cubrir la mayoría de los casos de análisis de datos posibles en
finanzas. Otros aspectos importantes fuera del alcance del marco, como la limpieza de
datos, se analizan en la sección. 20.2.
2 Parte B: Aplicaciones
2.1 Introducción
Este capítulo pretende demostrar el tipo de técnicas de ciencia de datos utilizadas para el
análisis de datos financieros. El estudio presenta una aplicación del mundo real de
metodologías de análisis de datos utilizadas para analizar y estimar el riesgo de una gran
cartera en diferentes horizontes para los que se puede mantener la cartera. La cartera que
utilizamos para este estudio consta de casi 250 valores que comprenden acciones
internacionales y bonos convertibles. Los principales métodos de ciencia de datos
demostrados en el estudio de caso son el análisis de componentes principales (PCA) y el
GARCH ortogonal. Usamos este enfoque para lograr parsimonia al reducir la dimensionalidad
de los datos, que es un objetivo recurrente en la mayoría de las aplicaciones de análisis de
datos en finanzas. Esto se debe a que la dimensionalidad de los datos suele ser bastante
grande dado el tamaño, la diversidad y la complejidad de los mercados financieros.
Demostramos simultáneamente formas comunes de tener en cuenta el componente variable
en el tiempo de la volatilidad y las correlaciones en la cartera, otro objetivo común en el
análisis de cartera. El objetivo más amplio es demostrar cómo los pasos descritos en el
marco metodológico del capítulo se implementan realmente en el análisis de datos financieros en el mundo
Machine Translated by Google
684 K. Vaidyanathan
El capítulo está organizado de la siguiente forma. La siguiente sección describe los aspectos financieros
del estudio de caso y su aplicación en el mundo financiero. La Sección 2.3 también analiza las métricas
utilizadas en la industria para evaluar el riesgo de la cartera. Insecto. 2.4, se describen los datos utilizados
y los pasos seguidos para que los datos sean aptos para el análisis financiero. La Sección 2.5 explica los
principios del análisis de componentes principales y su aplicación al conjunto de datos. La sección 2.6
explica el enfoque GARCH ortogonal. La Sección 2.7 describe tres tipos diferentes de modelos GARCH
específicos para el análisis de datos financieros. Los resultados del análisis se presentan en la Secc. 2.8.
Para la mayoría de los profesionales no financieros, las inversiones, especialmente en fondos de cobertura,
están envueltas en secreto. Las historias sensacionales de los fondos de cobertura Ponzi como la de
Bernard Madoff son excelentes titulares y una narración aún mejor. De hecho, la crónica del esquema Ponzi
de Bernie Madoff es ahora una película de Hollywood llamada “El mago de las mentiras” protagonizada por
Robert De Niro que se estrenó en mayo de 2017.
Pero las películas de Hollywood hacen poco para promover la educación en análisis de datos o explicar
cómo se puede usar la ciencia de datos para investigar el riesgo de la cartera de un fondo de cobertura.
No todos los administradores de activos tienen los recursos de un fondo de dotación de Harvard o Yale para
aplicar modelos sofisticados para detectar el riesgo de mercado en las carteras de los fondos de cobertura.
Esto no significa que no podamos usar modelos econométricos para estimar, medir y evaluar el riesgo de
mercado en las carteras, como demostraremos en este caso de estudio.
Antes del advenimiento de la ciencia de datos, la medición del riesgo de mercado en relación con los
fondos de cobertura se consideraba difícil, si no inmanejable. Los grandes fondos de dotación como los de
Harvard y Yale tenían el recurso para contratar a econometristas para que hicieran la evaluación y medición
cuantitativa del riesgo, pero en su mayoría era propiedad exclusiva de unos pocos elegidos. Además,
durante mucho tiempo, los fondos de cobertura fueron contratados por administradores de inversiones de
la "edad de oro" que no tenían conocimientos de ciencia de datos.
Estos administradores de inversiones fueron en su mayoría desafiados estadísticamente y, por lo tanto,
tenían más que su parte justa de escepticismo con respecto a la ciencia de datos. Tenían la buena
perspectiva de que los riesgos y rendimientos de los fondos de cobertura se basan en el talento de los
administradores de fondos y que las medidas de riesgo cuantitativas no son capaces de medir riesgos tan
complejos. Como resultado, la técnica de evaluación de riesgos más común fue la diligencia debida
exhaustiva realizada por un conjunto dedicado de profesionales de riesgos.
Sin embargo, desde la explosión de las técnicas y metodologías de la ciencia de datos en la última
década, ha habido un cambio tectónico en la forma en que se ve la ciencia de datos en el mundo de la
gestión de inversiones. Si los partidos de béisbol y los resultados de las elecciones se pueden predecir
utilizando la ciencia de datos, seguramente los riesgos de los fondos de cobertura también se pueden
evaluar utilizando herramientas econométricas. Otro desafío práctico que enfrenta la industria de gestión de
inversiones ha sido el aumento en el tamaño y número de los fondos de cobertura. Como
Machine Translated by Google
según las estimaciones de Bloomberg, hay más de 10.000 fondos de cobertura disponibles para
invertir. Es humanamente imposible llevar a cabo la debida diligencia de más de 10 000 fondos
de cobertura por parte de una sola empresa de gestión de activos (AMC).
Además de los avances en la ciencia de datos y la inmensidad del universo de los fondos de
cobertura, otro impulsor importante en el uso del análisis de datos en la gestión de activos han
sido los avances en metodologías sólidas de cuantificación de riesgos. Las medidas tradicionales
de riesgo eran el valor en riesgo basado en la volatilidad y la persistencia del umbral que
cuantificaba la desviación a la baja. Estas métricas de riesgo se describen en la siguiente sección.
El problema con un valor en riesgo simple basado en la volatilidad es que asume la normalidad.
Por lo tanto, se asume que la distribución de los rendimientos del mercado financiero es simétrica
y que la volatilidad es constante y no cambia con el tiempo. Implícitamente supone que los
rendimientos extremos, ya sean positivos o negativos, son muy poco probables. Sin embargo, la
historia sugiere que los rendimientos extremos, especialmente los rendimientos negativos
extremos, no son tan improbables como implica la distribución normal. El problema con las
medidas a la baja, como la persistencia del umbral, es que, aunque consideran la asimetría de los
rendimientos, no tienen en cuenta las colas gruesas de las distribuciones.
Estas críticas han resultado en el desarrollo de medidas de riesgo sólidas que tienen en cuenta
las colas gruesas y el apalancamiento, como GJR y EGARCH (consulte la Sección 2.7.5).
Entonces, hoy en día, todos los principales inversores institucionales que tienen una exposición
significativa a los fondos de cobertura emplean P-quants y utilizan técnicas de análisis de datos
para medir el riesgo. Las excepciones de los fondos de dotación de Harvard y Yale se han
convertido ahora en la nueva norma. La consolidación del riesgo de mercado a nivel de cartera se
ha convertido en una práctica habitual en la gestión de activos. En este capítulo, presentamos
uno de esos análisis de una gran cartera que comprende más de 250 acciones (datos de muestra
en el archivo: tsr.txt) con diferentes pesos de cartera (datos de muestra en el archivo: ptsr.txt) y
repasamos los pasos para convertir la cartera rendimientos en métricas de riesgo. Utilizamos los
pasos 1 a 6 del marco de la metodología de análisis de datos. Primero identificamos la variable
financiera a modelar como rendimientos de acciones. Reducimos la dimensionalidad de los datos
mediante el análisis de componentes principales de 250 rendimientos de acciones a unos diez
componentes principales. Luego usamos GARCH, GJR y EGARCH (descritos en el Paso 3 de la
“Parte A: Metodología”) para hacer una inferencia adecuada sobre los rendimientos de la cartera.
Estimamos los parámetros GARCH, GJR y EGARCH utilizando la estimación de máxima
verosimilitud. Luego proyectamos los rendimientos de la cartera (Paso 4 de la metodología) para
pronosticar el rendimiento del fondo de cobertura. Finalmente agregamos los riesgos utilizando el
Paso 6 del marco y llegamos a las métricas de riesgo clave para la cartera. Ahora describimos las
métricas de riesgo utilizadas en la industria de gestión de inversiones.
Como se describe en “Análisis financieros: Parte A—Metodología”, se utilizan dos métricas para
medir el riesgo de la cartera: valor en riesgo y persistencia de umbral.
Machine Translated by Google
686 K. Vaidyanathan
El valor en riesgo se ha convertido en una de las medidas de riesgo más importantes en las
finanzas modernas. Como técnica de gestión de riesgos, el valor en riesgo describe la pérdida en
una cartera que puede ocurrir durante un período determinado, en un nivel de confianza
determinado, debido a la exposición al riesgo de mercado. El riesgo de mercado de una cartera se
refiere a la posibilidad de pérdida financiera debido al movimiento conjunto de parámetros de
mercado como índices de acciones, tipos de cambio y tasas de interés. El Valor en Riesgo se ha
convertido en una herramienta inalienable para el control de riesgos y parte integral de las
metodologías que buscan asignar capital económico y/o regulatorio. Su uso está siendo fomentado
por el Banco de la Reserva de la India (RBI), el Banco de la Reserva Federal (Fed), el Banco de
Pagos Internacionales, la Junta de Bolsa y Valores de la India (SEBI) y la Comisión de Bolsa y
Valores (SEC). Las partes interesadas, incluidos los reguladores y los órganos de supervisión,
buscan cada vez más evaluar la peor pérdida posible (normalmente con niveles de confianza del
99 %) de las carteras de las instituciones financieras y los fondos. La cuantificación del riesgo es
importante para los reguladores al evaluar la solvencia y para los administradores de riesgos al
asignar el escaso capital económico en las instituciones financieras.
Dado un nivel de rendimiento de umbral para una cartera determinada, los comerciantes y los
administradores de riesgos desean estimar con qué frecuencia el rendimiento acumulado de la
cartera cae por debajo de este umbral y se mantiene por debajo de este umbral durante una cierta
cantidad de días. Los comerciantes también quieren estimar el valor mínimo del rendimiento
acumulado de la cartera cuando ocurre el evento anterior. Para estimar estas dos métricas, dos
factores especifican un umbral, a saber, los participantes del mercado financiero definen una
métrica llamada persistencia de umbral.
La persistencia del umbral se define de la siguiente manera: dado el período de tiempo durante
el cual una cartera permanecería constante y sin cambios (T), dos factores especifican un umbral,
a saber, el rendimiento acumulado de la cartera (ÿ) y el horizonte durante el cual el rendimiento
acumulado permanece por debajo del umbral. ÿ. Para los propósitos de este capítulo, etiquetaremos
este horizonte umbral como T'. Las métricas de persistencia de umbral se definen como:
(a) La fracción de veces que el patrimonio neto de la cartera cae por debajo del valor crítico (ÿ) con
respecto al patrimonio neto inicial de la cartera y permanece allí durante T' días por debajo de
este valor crítico (b) La caída media en el valor patrimonial de la cartera en comparación con
el nivel crítico inicial condicionado a que (a) ocurra
Para aclarar el concepto, considere el siguiente ejemplo. Digamos que T = 10 días, ÿ = ÿ5 %, T'
= 2 días y el valor neto inicial de la cartera es Rs. 100.
Simulamos el valor neto de la cartera (consulte el Paso 4 del marco de la metodología para
comprender cómo se realiza la simulación) y, digamos, obtenemos la siguiente ruta (Tabla 20.10):
Machine Translated by Google
Día 1 Día 2 Día 3 Día 4 Día 5 Día 6 Día 7 Día 8 Día 9 Día 10
102 98 94 90 93 96 98 90 95 97
2.4 Datos
Los datos que normalmente están disponibles a partir de fuentes secundarias son los precios de los
varios valores de la cartera de muestra. Los precios estarían en monedas locales—
valores estadounidenses en dólares estadounidenses, acciones japonesas en yenes japoneses, etc. En el caso
estudio, hay datos de diez monedas diferentes.
Los datos que están disponibles de proveedores de servicios de información financiera tales como
Bloomberg o Thomson Reuters (los dos mayores proveedores en el mercado financiero global)
mercados), la mayoría de las veces, no está “preparado” para el análisis. el más importante
limitación en los datos puestos a disposición por los proveedores de servicios de información financiera es
que requieren una limpieza de datos considerable antes de las metodologías de análisis de datos
puede ser aplicado. El proceso de limpieza de datos suele ser el que lleva más tiempo y
una parte minuciosa de cualquier análisis de datos, al menos con datos financieros. La cartera que
que utilizamos para este estudio consta de casi 250 valores. Usamos los datos en el contexto
del estudio para describir en general los pasos tomados para hacer que los datos sean aptos para
análisis financiero:
• Los precios de casi todos los valores están en sus monedas nativas. Esto requiere
conversión de los precios a una moneda común. A nivel mundial, la moneda de elección
es el dólar estadounidense, que la mayoría de las instituciones financieras utilizan como moneda base
con fines informativos. Este es un primer paso obligatorio porque los precios y
los rendimientos convertidos a la moneda base son diferentes a los de su moneda nativa
monedas
• Los valores se negocian en diferentes países del mundo y los días festivos
(cuando los mercados están cerrados) en cada uno de estos países son diferentes. Esto puede
conducen a datos faltantes en la serie de tiempo. Si no se llenan los datos que faltan, entonces
Machine Translated by Google
688 K. Vaidyanathan
esto podría manifestarse como una volatilidad espuria en la serie temporal. Por lo tanto, los
datos que faltan normalmente se completan utilizando técnicas de interpolación entre las dos
fechas disponibles más cercanas. La metodología de interpolación más común y simple
utilizada en datos financieros es la interpolación lineal. • Es posible que algunos valores no
tengan cotizaciones de precios en absoluto porque, aunque cotizan en la bolsa, no hay actividad
comercial. Incluso cuando hay alguna actividad comercial, los períodos de tiempo durante los
cuales se negocian pueden ser diferentes y, por lo tanto, los precios disponibles pueden
variar para diferentes valores. Por ejemplo, en la cartera que usamos para este estudio,
algunos valores tienen diez años de datos, mientras que otros tienen menos de 50 puntos de
datos de precios disponibles. Deben excluirse del análisis aquellos valores que no tengan al
menos una serie temporal de precios que abarque un umbral mínimo de días de negociación.
A los efectos de este estudio de caso, utilizamos 500 puntos de datos de precios.
• Si bien muy pocos puntos de precio son un problema desde la perspectiva del análisis de datos,
muchas veces, una serie de tiempo larga puede considerarse inapropiada. Esto se debe a
que en una serie de tiempo más larga, las observaciones más históricas obtienen el mismo
peso que las observaciones recientes. Dado que las observaciones recientes tienen más
información relevante para el objetivo de predecir el riesgo futuro de la cartera, una serie de
tiempo más larga puede considerarse inapropiada. En el caso de estudio, la serie de tiempo
utilizada para el análisis comienza en mayo de 2015 y finaliza en mayo de 2017, lo que nos
brinda 2 años de datos (en la mayoría de los mercados financieros, hay aproximadamente
250 días de negociación en un año) o 500 observaciones de series de tiempo. • Los precios
se convierten habitualmente en rendimientos de capitalización continua utilizando la fórmula rt =
ln (Pt/Pt ÿ 1). Como se explica en el Paso 1 de la metodología en "Análisis financiero: Parte
A: Metodología", trabajamos con datos de rendimiento en lugar de datos de precios. El
análisis de series de tiempo de rendimientos domina el uso de precios porque los precios son
considerablemente no estacionarios en comparación con los rendimientos. • Los rendimientos
de la cartera se calculan a partir de los rendimientos de los valores, como se explica en el Paso
6 del marco metodológico. En el estudio de caso, se utilizan para el análisis dos carteras: una
cartera ponderada por igual y una cartera ponderada por valor (calculada manteniendo
constante el número de acciones en cada uno de los valores de la cartera).
A los efectos del estudio de caso, los lectores deben comprender PCA, la forma en que se calcula
y también la intuición detrás del proceso de cálculo. Explicamos los pasos intermedios y los
conceptos en ellos para hacer la Secc. 2 del capítulo autónomo. En el cap. 15 sobre el aprendizaje
no supervisado.
Machine Translated by Google
4 4 Encabezado (opcional)
Transformación: reflexión especular a lo largo de la línea y = x
3 3 1, 3
Vector propio
2 2 Transformación a lo largo de y = x
2, 2
1 3, 1 1 3, 1
0 0, 0 0
01234 Eje X 0123 eje X
Del álgebra matricial básica sabemos que podemos multiplicar dos matrices juntas, siempre
que sean de tamaños compatibles. Los vectores propios son un caso especial de esto.
Considere las dos multiplicaciones entre una matriz y un vector a continuación.
01 1 3
ÿ =
10 3 1
01 2 2
ÿ =
10 2 2
3
En la primera multiplicación, la matriz resultante no es un múltiplo entero
1
1
de la matriz original . En la segunda multiplicación, la matriz resultante es una
3
2
múltiplo (de 1) de la matriz original . La primera matriz no es un vector propio de
2
01
la matriz , mientras que el segundo es un vector propio. ¿Por que es esto entonces? La razón
10
es que el vector propio sigue siendo un múltiplo de sí mismo después de la transformación. No
se transforma después de la multiplicación como el primero.
1
Se puede pensar en la matriz como un vector en dos dimensiones que se origina en
690 K. Vaidyanathan
01
Para facilitar la imaginación visual, hemos empleado la matriz en el
10
discusión anterior. Esta matriz se puede considerar como la siguiente transformación: reflejo de
cualquier vector a lo largo de la línea y = x. Por ejemplo, un vector (1,3) después de la
multiplicación por esta matriz se convierte en (3,1), es decir, un reflejo del propio vector a lo largo
de la línea y = x . Sin embargo, el reflejo del vector (2,2) sería el propio vector. Sería un múltiplo
escalar del vector (en este caso, el múltiplo escalar es 1). Por lo tanto, un vector propio, incluso
después de la transformación, sigue siendo un múltiplo escalar de sí mismo.
El múltiplo escalar se llama valor propio “ÿ”. En otras palabras, un vector propio sigue siendo el
mismo cuando está sujeto a alguna transformación y, por lo tanto, puede capturar una fuente
básica de variación. Cuando se junta más de un vector propio, pueden constituir una base para
explicar variaciones complejas.
En general, una matriz de dimensiones n × n puede tener un máximo de n vectores propios.
Todos los vectores propios de una matriz son ortogonales entre sí, sin importar cuántas
dimensiones tengan. Esto es importante porque significa que podemos representar los datos en
términos de estos vectores propios perpendiculares, en lugar de expresarlos en términos de los
activos originales. Esto ayuda a reducir considerablemente la dimensionalidad del problema en
cuestión, que característicamente para los datos financieros es grande.
Por el contrario, PCA 1 y 2 explican por igual la variación de los datos y, sin embargo, tienen
una covarianza cero. En el análisis de series temporales de curvas de rendimiento, por ejemplo,
los Factores 1 y 2 se consideran duración y convexidad. Estos dos factores ayudan a explicar
gran parte de la variación en las curvas de rendimiento a lo largo del tiempo, pero no son ortogonales
Machine Translated by Google
ACP 2 3 ACP 1
factor 2
2 Factor 1
0
-3 -2 -1 0 1 2 3
porque la convexidad cambia con la duración. Sin embargo, el nivel de la curva de rendimiento y su
pendiente son componentes ortogonales que pueden explicar igualmente bien la variación en los precios
de los bonos.
A continuación se detallan los resultados de la PCA para la cartera de valores. Los primeros 21
componentes principales explican el 60% de casi la mitad de la variación, como se ve en la Tabla 20.11.
La figura 20.7 muestra que los primeros diez componentes principales capturan la variación en los
rendimientos de la cartera con bastante precisión. Estos diez componentes principales explican cerca del
50% de la variación en los rendimientos de los valores. Como puede verse en la Tabla 20.11, los primeros
diez componentes principales explican el 47,5% de la variación, mientras que los siguientes trece
componentes explican menos del 15% de la variación. Agregar más componentes principales presenta
una compensación entre la precisión adicional y la dimensionalidad adicional del problema en la mayoría
de los análisis de datos financieros.
En los datos de la cartera que estudiamos, los componentes principales del 11 en adelante ayudan
cada uno a explicar menos del 2% de la variación adicional. Sin embargo, agregar un componente principal
más aumenta la dimensionalidad en un 10% y da como resultado un aumento proporcional en la
complejidad computacional. Por lo tanto, podemos limitarnos a diez componentes principales para el
análisis posterior. Esto reduce la dimensionalidad de los datos de 250 a 10.
Como muestra el histograma de la figura 20.8 , la diferencia entre los rendimientos reales de la cartera
y los rendimientos replicados utilizando los diez componentes principales son, para el
Machine Translated by Google
692 K. Vaidyanathan
en su mayor parte, pequeña. Por lo tanto, podemos limitar nuestro análisis posterior a diez principales
componentes
0.01
0.005
–0.005
-0.01
Fig. 20.7 Serie temporal replicada utilizando diez componentes principales frente a rendimientos de la cartera original
120
100
80
60
40
20
694 K. Vaidyanathan
computadora
1 computadora
2 computadora
3 computadora
4
computadora
5 computadora
6 computadora
7 computadora
8
.157 .0935
ordenador
personal
9
ordenador
personal
10
-.138 -.103
1 500 1 500
obn_no obn_no
Principal Component No. 9 Principal Component No. 10
696 K. Vaidyanathan
Dada la gran cantidad de factores que normalmente afectan la posición de una cartera grande,
estimar el riesgo de la cartera se vuelve muy complejo. En el corazón de la mayoría de los modelos
de análisis de datos para estimar el riesgo se encuentra la matriz de covarianza que captura las
volatilidades y las correlaciones entre todos los factores de riesgo.
Por lo general, se deben modelar cientos de factores de riesgo que abarcan índices de acciones,
tipos de cambio y curvas de rendimiento a través de la dinámica de la matriz de covarianza grande.
De hecho, sin hacer suposiciones sobre la dinámica de estos factores de riesgo, la implementación
de modelos para estimar el riesgo se vuelve bastante engorrosa.
El método utilizado para identificar las fuentes ortogonales de variación es el análisis de componentes
principales (PCA). Los componentes principales identificados a través de PCA no están correlacionados
entre sí (por definición, son ortogonales). Por lo tanto, los modelos GARCH univariados pueden
usarse para modelar la volatilidad variable en el tiempo de los componentes principales mismos. Los
componentes principales junto con sus correspondientes procesos GARCH luego capturan la matriz
de covarianza variable en el tiempo de la cartera original. Habiendo descrito el análisis de
componentes principales y GARCH ortogonal, ahora ilustramos las diferentes variantes del modelado
GARCH.
Después de reducir la dimensionalidad de la serie de tiempo usando PCA, ahora procedemos al Paso
3 de nuestro marco en el capítulo con el modelado de la covarianza usando GARCH en los
componentes principales.
Primero motivamos el uso de GARCH para medir el riesgo de una cartera. Las metodologías más
comunes para estimar el riesgo, a través de un cálculo de Valor en Riesgo, asumen que los
rendimientos de la cartera siguen una distribución normal como se muestra en la Fig. 20.10.
Esta metodología de cálculo del VaR utilizando una distribución normal supone implícitamente que la
media y la desviación estándar de los rendimientos de la cartera se mantienen constantes.
Sin embargo, una amplia evidencia empírica en finanzas muestra que los rendimientos de los
valores exhiben desviaciones significativas de las distribuciones normales, particularmente el
agrupamiento de volatilidad y el comportamiento de cola gruesa. Existen otras características de los
mercados de valores que no se tienen en cuenta adecuadamente en una distribución normal. Científicos de datos
Machine Translated by Google
5.00E-02
4.00E-02
3.00E-02
2.00E-02
1.00E-02
0.00E+00
60 65 70 75 80 85 90 95 100 105 110 115 120 125 130 135 140
en finanzas, por lo tanto, use modelos GARCH, ya que están diseñados para encapsular estas
características que se observan comúnmente en los mercados de valores.
Las series de rendimiento de acciones suelen exhibir esta característica en la que los grandes
cambios tienden a seguir a los grandes cambios y los pequeños cambios tienden a seguir a los
pequeños cambios. Por ejemplo, si los mercados fueran hoy más volátiles de lo habitual, existe
una tendencia a que mañana sean más volátiles de lo normal. Del mismo modo, si los mercados
estuvieran "tranquilos" hoy, existe una mayor probabilidad de que puedan estar "tranquilos"
mañana en comparación con una volatilidad inusual. En ambos casos, es difícil predecir el cambio
en la actividad del mercado de un escenario “tranquilo” a uno “volátil” y viceversa.
En GARCH, las perturbaciones significativas, para bien o para mal, son parte intrínseca de la
serie de tiempo que usamos para predecir la volatilidad para el próximo período de tiempo.
Estas grandes perturbaciones y choques, tanto positivos como negativos, persisten en el modelo
GARCH y se tienen en cuenta en los pronósticos futuros de varianza para períodos de tiempo
futuros. A veces también se denominan persistencia y modelan un proceso en el que las
perturbaciones sucesivas, aunque no están correlacionadas, son dependientes en serie.
Un examen de la serie temporal de los componentes principales revela que los períodos de
alta volatilidad a menudo se agrupan. Esto debe tenerse en cuenta utilizando un modelo GARCH.
Machine Translated by Google
698 K. Vaidyanathan
A menudo se observa que los rendimientos de los activos están negativamente correlacionados con los cambios en
volatilidad. Es decir, los mercados tienden a ser más volátiles cuando hay una liquidación frente a cuando los
mercados suben. Esto se denomina apalancamiento: la volatilidad tiende a aumentar en respuesta a
rendimientos inferiores a los esperados y a caer en respuesta a rendimientos superiores a los esperados.
Los modelos GARCH asimétricos son capaces de capturar el efecto de apalancamiento.
La cola de las distribuciones de los rendimientos de las acciones suele ser más gruesa en comparación con una distribución normal.
Como es evidente en la tabla 20.13, pc1, pc3, pc5, pc6, pc8 y pc9 exhiben
desviaciones sustanciales de la normalidad, mientras que los componentes principales restantes
están más cerca de estar distribuidas normalmente. Dado que seis de los diez componentes principales
exhiben desviaciones de la normalidad, es importante modelar colas gruesas en la distribución
de componentes principales. La figura 20.11 muestra los cuantiles de los componentes principales
graficado contra cuantiles de distribución normal (45% de línea). Una mirada a la trama de la
serie temporal de los principales componentes revela que los períodos de volatilidad son a menudo
agrupados juntos. Por lo tanto, debemos tener en cuenta este agrupamiento de volatilidad
mediante análisis GARCH.
Machine Translated by Google
computadora
1 computadora
2 computadora
3
computadora
4
computadora
5 computadora
6
computadora 7 normal inversa computadora 8 normal inversa ordenador personal 9 normal inversa
ordenador
personal
9
computadora
7
computadora
8
.093988
ordenador
personal
10
-.103
-.079519 .093988
normal inversa
Ahora que hemos discutido por qué usamos GARCH en el análisis de datos financieros, dejemos
tratemos de entenderlo conceptualmente. GARCH significa autorregresivo generalizado
heterocedasticidad condicional. En términos generales, se puede pensar en la heterocedasticidad
como varianza que varía con el tiempo. Condicional implica que las varianzas futuras dependen
Machine Translated by Google
700 K. Vaidyanathan
0.1
0.05
–0.05
–0.1
–0.15
–0.2
0 5 10 15 20 25 30
Fig. 20.12 Rendimientos simulados de activos de cartera con modelo GJR, distribución gaussiana
R METRO norte x
con coeficientes autorregresivos ÿi, coeficientes de media móvil ÿj, innovaciones ÿt,
y devuelve yt. X es una matriz de regresión explicativa en la que cada columna es un tiempo
serie y X(t,k) denota la t el fila y k-ésima columna.
Los componentes de media móvil de la media condicional son deseables. Consulte el cap. 12
para una breve descripción del modelo ARMA y la determinación de sus parámetros.
2
Vartÿ1 (yt) = Etÿ1 ÿt 2 = ÿt
PAGS
q
2 ÿt = K + Giÿ2tÿi + tÿj
También ÿ2
yo=1 j=1
El modelo general GJR(P,Q) para la varianza condicional de las innovaciones con términos de
apalancamiento es
PAGS
q q
dónde
= 1 ÿtÿj < 0 0
Sÿ
tÿj de lo contrario
702 K. Vaidyanathan
PAGS
q 6
2
=K+ + ÿ yo
6ÿtÿj |
log ÿt Gi log ÿ2tÿi
yo=1 j=1
ÿtÿj |
Aj "6 6ÿtÿj ÿtÿj 8#
q
ÿtÿj
+
Ljj=1 ÿtÿj
Limitaciones de GARCH
Si bien es fácil quedar impresionado con las exposiciones matemáticas de los modelos y el hecho de
que los modelos GARCH brindan información sobre una amplia gama de aplicaciones del mercado
financiero, tienen limitaciones:
• El modelo GARCH al final del día es una especificación paramétrica. Los parámetros permanecen
estables solo si las condiciones de mercado subyacentes son estables.
Los modelos GARCH son buenos para capturar varianzas heterocedásticas. Dicho esto, no pueden
capturar fluctuaciones tempestuosas en el mercado. Hasta ahora no existe un modelo bien aceptado
que pueda modelar las caídas del mercado, ya que son extremadamente impredecibles y únicas. •
Los rendimientos de los activos tienen colas gruesas, es decir, es bastante probable que se
produzcan grandes desviaciones con respecto a la media.
Los modelos GARCH no están equipados para capturar todos estos rendimientos de cola gruesa
que se observan en las series financieras temporales de rendimientos. La volatilidad variable en el
tiempo explica una porción limitada de esta cola gruesa pero, dadas las limitaciones de la distribución
normal, no puede explicarla por completo. Para compensar esta restricción, los analistas de datos
suelen implementar la distribución t de Student en el modelado GARCH.
2.8 Resultados
El cálculo del valor en riesgo para carteras grandes presenta una compensación entre velocidad y
precisión, y los métodos más rápidos se basan en aproximaciones aproximadas y
Machine Translated by Google
el enfoque más realista a menudo demasiado lento para ser práctico. Científicos de datos financieros
trate de usar las mejores características de ambos enfoques, como tratamos de hacer en este estudio de caso.
Las tablas 20.14, 20.15, 20.16, 20.17, 20.18, 20.19, 20.20 y 20.21 muestran la
cálculo del valor en riesgo y la persistencia del umbral utilizando cuatro modelos diferentes:
GARCH con distribución gaussiana, GARCH con distribución t de Student, GJR
con distribución t de Student, y EGARCH con distribución t de Student. Esto es
hecho tanto para la cartera ponderada por valor como para la cartera ponderada por equidad de la siguiente manera:
• La Tabla 20.14 muestra el cálculo del Valor en Riesgo y el umbral de persistencia para
modelo GARCH ponderado por el valor de mercado con una distribución gaussiana.
• La Tabla 20.15 muestra el cálculo del Valor en Riesgo y el umbral de persistencia para
modelo GARCH ponderado por valor de mercado con una distribución t de Student.
• La Tabla 20.16 muestra el cálculo del Valor en Riesgo y el umbral de persistencia para
Modelo GJR ponderado por valor de mercado con una distribución t de Student.
• La Tabla 20.17 muestra el cálculo del Valor en Riesgo y el umbral de persistencia para
Modelo EGARCH ponderado por valor de mercado con una distribución t de Student.
• La Tabla 20.18 muestra el cálculo del Valor en Riesgo y el umbral de persistencia para
Modelo GARCH equiponderado con distribución gaussiana.
• La Tabla 20.19 muestra el cálculo del Valor en Riesgo y el umbral de persistencia para
Modelo GARCH equiponderado con distribución t de Student.
• La Tabla 20.20 muestra el cálculo del Valor en Riesgo y el umbral de persistencia para
Modelo GJR equiponderado con distribución t de Student.
• La Tabla 20.21 muestra el cálculo del Valor en Riesgo y el umbral de persistencia para
Modelo EGARCH equiponderado con distribución t de Student.
En general, la cartera ponderada por valor tiene menos dispersión que la ponderada por equidad.
portafolio. Esto es de esperar porque, en general, los comerciantes tienen un peso más alto
para activos que tienen menos volatilidad dado rendimientos esperados similares. esto es consistente
con los resultados de las tablas obtenidos por porcentaje de veces que el valor de la cartera alcanza
el nivel umbral (ÿ5,00%) y la caída media de la cartera dado que el
cartera llega a este umbral. Ambos valores son más bajos para la cartera ponderada por valor
frente a la cartera ponderada en términos de equidad.
Machine Translated by Google
708 K. Vaidyanathan
0.08
0.06
0.04
0.02
–0.02
–0.04
–0.06
–0.08
0 5 10 15 20 25 30
Fig. 20.13 Rendimientos simulados de activos de cartera con modelo GJR, distribución t de Student
Para los modelos GARCH, la diferencia de dispersión de las dos distribuciones es pequeña.
Sin embargo, las tablas reportan los resultados para GJR y EGARCH usando las dos distribuciones
diferentes y, en general, como es de esperar, la distribución t de Student tiende
tener una mayor dispersión que en el caso de la distribución gaussiana.
Las Figuras 20.11 y 20.12 muestran los caminos simulados para el
cartera en el horizonte de 30 días con modelo GJR con una distribución Gaussiana y
Distribución t de Student . Como es claramente visible, la distribución t de Student de cola gruesa
genera mayor variación en los extremos que la distribución normal.
• La Tabla 20.22 muestra el análisis PCA para el modelo GARCH con una Gaussiana
distribución.
• La tabla 20.23 muestra el análisis PCA para el modelo GARCH con una t de Student
distribución.
• La tabla 20.24 muestra el análisis PCA para el modelo GJR con una distribución t de Student. • La
Tabla 20.25 muestra el análisis PCA para el modelo EGARCH con una t de Student
distribución.
2.9 Conclusión
El estudio de caso proporciona una descripción general del análisis estadístico de riesgo de cartera
tal como se practica en el mundo de la gestión de inversiones. El enfoque emplea modelos
econométricos de rendimientos de precios de acciones y explica la teoría econométrica detrás de la
aplicación para que el capítulo sea autónomo. La medición del riesgo se formula utilizando métricas
de riesgo estándar de la industria, como el valor en riesgo y la persistencia del umbral. Utilizamos
métodos sólidos que tienen en cuenta las colas gruesas y el apalancamiento, como GJR y EGARCH,
para medir el riesgo. Una implicación fundamental del análisis de datos para los mercados financieros
es que los regímenes de riesgo cambian. Por lo tanto, un GJR o un EGARCH pueden ser aptos para
este conjunto de datos, pero pueden no ser universalmente apropiados para medir el riesgo de otros
tipos de datos financieros. Dado que los regímenes de riesgo cambian de manera abrupta e imprevista,
un P-quant debe comprender y comunicar las suposiciones y limitaciones del análisis de datos a los
consumidores de informes de riesgo. Por ejemplo, puede que no esté fuera de lugar seguir recordando
a los consumidores de los informes de riesgo que los peores resultados, como el valor en riesgo y la
persistencia del umbral, se ven singularmente en el extremo izquierdo de la distribución de pérdidas
de la cartera. Por lo tanto, son menos manejables y estables que una métrica más simple como la
varianza que se calcula en un horizonte de tiempo prolongado.
Dicho esto, la medición y presentación de informes de riesgo en las instituciones financieras, en
general, se ha alejado de las largas discusiones de tipo descriptivo para proporcionar información más
cuantitativa para que los profesionales de riesgo puedan hacer su propia evaluación. Además, la
frecuencia de los informes ha cambiado significativamente. Los directores de riesgos (CRO) en los
AMC generalmente reciben informes que contienen estimaciones de persistencia de umbral y VaR
Tabla
20.22
GARCH,
Gaussiana
ACP
10
ÿ0,000173 ACP
9 ACP
8 ACP
7 ACP
6 ACP
5 ACP
4 ACP
3 ACP
2 ACP
1
ÿ0,007667
ÿ0,942045 ÿ0,000602
ÿ0,254338 ÿ0.000491
Coeficiente
C
0,003197
ÿ0,802868 0.000127
ÿ0.781957 0.001868
ÿ0.099412
ÿ0.037937 0.000307 0.003177 0,006191
ÿ0,037002
Coeff
AR
MA
Coeff
K
Coeff
GARCH
Arch
Coeff
apalancamiento
Estimación
de
probabilidad
logarítmica
0.935406
ÿ0.996544 0,790801
ÿ0,808419 0.019312
ÿ0.090477
1.000000
ÿ0.832486
0.771076 0.994696 0.235336 0.813060 0.252324
0.000607 0.000042 0.000029 0.000008 0.000618 0.000005 0.000177 0.000062 0.000727 0.002363
0.240479 0.854067 0.906187 0.978600 0.416907 0.965923 0.880774 0.533216 0.673067 0.581073
0.096681 0.103361 0.063275 0.013823 0.092563 0.028736 0.042033 0.327323 0.159143 0.150042
0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000
1042.554168 1035.681025 1026.846244 1275.084082
967.958283 961.156845 941.624211 812.619731 664.383809 482.661472
K. Vaidyanathan 710
Machine Translated by Google
Tabla
20.23
GARCH,
tde
Student
ACP
10
ÿ0,004129
ÿ0,569986 ACP
9 ACP
8 ACP
7 ACP
6 ACP
5 ACP
4 ACP
3 ACP
2 ACP
1
ÿ0,007482
ÿ0,946004 ÿ0.000612
Coeficiente
C
0.003049
ÿ0.810527 0.000830
ÿ0.987641 0,001090
ÿ0,735297 0,001870
ÿ0,097163
ÿ0,040524
0,000177 0.000307 0.003167 0,006368
ÿ0,044536
Coef
AR
Coeff
MA
Coeff
K
0,774787
ÿ0,794976
0,000619 0,024280
ÿ0,095032
0,000733
1.000000
ÿ0.831038
0.000062
0.532482
0,622669
0,000544
0,337492 0.778840
0.000042
0.853885 0.994906
0.000034
0.888511 0.769962
0.000010
0.955841 0.258300
0.002355
1.000000
0.000009
0.974729 0.418905 0.880851 0.671451 0.582574 Coef
GARCH
Coeff
ARCH
Coef
apalancamiento
Estimación
de
probabilidad
logarítmica
0.085532 0.103836 0.078636 0.017016 0.096472 0.036009 0.042276 0.328004 0.159680 0.149677
0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000
1042.300629 1035.893574 1028.985630 1274.948566
971.144066 964.726132 946.274938 812.438789 664.281732 482.593216
711 20 análisis financiero
Machine Translated by Google
Tabla
20.24
GJR,
tde
Student
ACP
10
ÿ0,004473
ÿ0,588531 ACP
9 ACP
8 ACP
7 ACP
6 ACP
5 ACP
4 ACP
3 ACP
2 ACP
1
ÿ0,006819
ÿ0,946771 ÿ0,000854
ÿ0,320778 ÿ0,003602
ÿ0,445124
Coeficiente
C
0.000362 0.000893
ÿ0.737373 0,001946
ÿ0,101657
ÿ0,035439 0.000358 0.003857 0.003418
ÿ0.025396
Coef
AR
Coeff
MA
Coeff
K
Coeff
GARCH
ARCH
Coeff
apalancamiento
Estimación
de
probabilidad
logarítmica
0,783815
ÿ0,822747 0.067171
ÿ0.149177
1.000000
ÿ0.827733
0.639748 0.995566 0.305520 0.440511 0.771080 0.239486
0.000432 0.000043 0.000037 0.000011 0.000620 0.000009 0.000184 0.000061 0.000968 0.001970
0.455036 0.851227 0.883832 0.970576 0.420793 0.958213 0.875252 0.558873 0.614463 0.659505
0.050880 0.101817 0.108470 0.010650 0.127517 0.028510 0.051476 0.367855 0.235522 0.000000
0.075837 0.006893 ÿ0.054267 0.018427 ÿ0.069612 0.010643 ÿ0.013321 ÿ0.141102 ÿ0.156928 0.221961
1042.590481 1036.241450 1029.653034 1276.062104
969.812064 964.670930 946.341024 812.486859 665.908440 488.076790
K. Vaidyanathan 712
Machine Translated by Google
Tabla
20.25
EGARCH,
tde
Student
ACP
10
ÿ0,004564
ÿ0,590409 ACP
9 ACP
8 ACP
7 ACP
6 ACP
5 ACP
4 ACP
3 ACP
2 ACP
1
ÿ0,006313
ÿ0,944539 ÿ0.000004 ÿ0.000627
Coeficiente
C
0.000353 0.000785
ÿ0.758420 0,002047
ÿ0,094801
ÿ0,046898 0.000333 0.003834 0.003997
ÿ0.064723
Coef
AR
Coeff
MA
Coeff
K
0,759004
ÿ0,806882
ÿ0,374390
0,946651 0,982168
ÿ1,000000
ÿ0,060656
0,991111 0,773375
ÿ0,792651 0,092554
ÿ0,174779
ÿ0,994841
0,820174
1.000000
ÿ0.830915
0,646866
ÿ2,425124
0,652703 0,995196
ÿ0,282069
0,959395 0.793959
ÿ0.001776 0.281886
ÿ1.036871
0.782946
ÿ3,274587
0,510104 ÿ0,443169
0,927416 ÿ0,415517
0,947283
Coef
GARCH
Coeff
ARCH
Coef
apalancamiento
Estimación
de
probabilidad
logarítmica
1.000000
0.153982 0.220938 0.154341 0.036622 0.231433 0.041367 0.105747 0.386928 0.252133 0.185203
ÿ0.082664 ÿ0.018483 ÿ0.003358 ÿ0.163616
0.021652 0.001679 0.035319 0.032806 0.067537 0.084304
1043.202155 1034.961690 1028.909113 1272.729986
971.161642 965.878475 945.009720 813.616259 667.115909 484.578627
713 20 análisis financiero
Machine Translated by Google
Machine Translated by Google
714 K. Vaidyanathan
para un horizonte de 1 semana, 1 mes y 1 año. Por ejemplo, a partir de la Tabla 20.14 , el CRO puede
inferir que si los rendimientos de las acciones siguen aproximadamente una distribución gaussiana,
existe un 1 % de probabilidad (valor en riesgo con un nivel de confianza del 99 %) de que la cartera
pierda alrededor del 12 % de su valor en un período de 1 a 1 año. horizonte de año. Usando la métrica
de persistencia de umbral, el CRO puede inferir que en un horizonte de 1 año, existe un 22 % de
probabilidad de que la cartera caiga por debajo del 5 %. Y dado que tal caída ocurre durante el período
de tiempo crítico de más de 2 días, la caída en el valor de la cartera sería de aproximadamente un 8%.
Las otras tablas cuantifican el riesgo de la cartera cuando los rendimientos de los activos tienen un
exceso de curtosis o cuando hay mecanismos causales en juego entre los rendimientos y la volatilidad,
como los efectos de apalancamiento.
Algunas CRO y juntas de gestión de inversiones prefieren recibir solo informes de riesgo resumidos.
El informe resumido suele ser breve para que sea menos probable que los miembros de la junta pasen
por alto las cifras de riesgo. La mayoría de las CRO P-quant optan por recibir tanto el resumen como
los informes de riesgo detallados. No es habitual que las CRO de hoy en día reciban diariamente
informes MIS (sistema de información de gestión) que contienen análisis de la Tabla 20.14 a la Tabla
20.21 . En los últimos años, la mayoría de las CRO provienen del mundo P y están cuantitativamente
bien equipadas para comprender e inferir riesgos a partir de los informes de riesgos detallados.
Además de la alta gerencia y el directorio, la otra audiencia principal de los informes de riesgo son
los reguladores. Los reguladores como la Fed y el RBI exigen que todas las instituciones financieras
que regulan carguen sus informes de riesgo en una plantilla prescrita al final de cada día hábil. Los
reguladores normalmente prescriben plantillas para los informes de riesgo para que puedan hacer una
comparación de riesgo de manzanas con manzanas entre las instituciones financieras. Los propios
reguladores utilizan sistemas para monitorear el cambio en el riesgo de una institución financiera
determinada a lo largo del tiempo. Más importante aún, les ayuda a agregar el riesgo de todas las
instituciones financieras que regulan para evaluar el riesgo sistémico en la industria financiera. Con los
rápidos avances en las ciencias de la información, se prevé que la aplicación de la analítica en las
finanzas sea cada vez más sofisticada en el futuro.
Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están
disponibles en www.allaboutanalytics.net.
Ejercicios
Ex. 20.1 Etapa I Paso 3 Inferencia: Consideramos el índice de la Bolsa Nacional de Valores
NIFTY-50 registrado diariamente para el período del 1 de noviembre de 2016 al 31 de octubre de 2017.
pt sea el índice NIFTY-50 y rt sea el log return {rt = log (pt) ÿ log (pt ÿ 1)}.
Cargue los datos del archivo nifty50.txt en Matlab.
• Dibujar gráficos del índice bursátil, los rendimientos logarítmicos y los rendimientos logarítmicos al cuadrado.
• ¿Los gráficos indican efectos GARCH?
• Estimar los parámetros GARCH (ÿ,ÿ,ÿ).
Ex. 20.2 Etapa I Paso 4 Proyección: Cargue los datos en números aleatorios de
randomgaussian.txt en Matlab. La desviación estándar es del 20%, mientras que el promedio
el retorno es del 5%. Tenga en cuenta que el rendimiento promedio y la desviación estándar deben ajustarse
para el horizonte diario dividiendo por 365 y raíz cuadrada de 365, respectivamente. Proyecto
el valor de USD/INR para un horizonte de 1 año.
Ex. 20.3 Etapa II Paso 2 Agregación: suponga una cartera de préstamos de Rs. 500 prestados
a cinco empresas diferentes por Rs. 100 cada uno Agregue el riesgo de este Rs. 500
cartera de crédito utilizando cópulas gaussianas de un factor. Suponga que cada empresa tiene un
probabilidad de incumplimiento del 4%. El horizonte para el préstamo es de 1 año. Suponga que en
en caso de incumplimiento, el banco puede recuperar el 75% del monto del préstamo. asumir el
único factor a ser la economía. La correlación de los activos de cada empresa con la economía.
se da en la siguiente tabla. Calcular la distribución conjunta del crédito de cada uno de estos
empresas utilizando un modelo de un factor.
Ex. 20.4 Etapa II Paso 2 Evaluación: Cargue los datos en números aleatorios de
randomgaussiancurrency.txt en Matlab. Calcule el VaR para una cartera de 1 USD,
1 EUR, 1 GBP y 100 JPY. El valor de la cartera en términos de INR es Rs. 280 (1
USD = Rs. 64, 1 euro = Rs. 75, 1 GBP = Rs. 82, 100 JPY = Rs. 59). Calcula el
posible pérdida o ganancia de esta cartera para un horizonte de 1 año. Para agregar el riesgo,
use la siguiente matriz de correlación entre las monedas:
716 K. Vaidyanathan
Ex. 20.5 Etapa II Paso 3 Atribución: Un banco comprende tres líneas de negocios:
LoB1 tiene una correlación de 0,5 con LoB2 y tiene una correlación de 0,2 con LoB3.
LoB2 no está correlacionado con LoB3. Los activos bancarios totales son Rs. 6000 millones de rupias. Cada uno de
los LoB tiene activos por valor de Rs. 2000 millones de rupias.
LoB1 2000 ÿ1 = 5%
LoB2 2000 ÿ2 = 7%
LoB3 2000 ÿ3 = 9%
Ex. 20.6 Para horizontes múltiples de 5, 10, 20, 60, 125 y 250 días de negociación, para una cartera
ponderada por valor de mercado, calcular lo siguiente:
(a) El Valor en Riesgo de la cartera usando el modelo GJR con distribución Gaussiana (b) El Valor en
Riesgo de la cartera usando el modelo EGARCH con distribución Gaussiana
distribución
(c) El porcentaje de veces que la cartera está por debajo de beta utilizando el modelo GJR con Gaussian
distribución
(d) El porcentaje de veces que la cartera está por debajo de beta utilizando el modelo EGARCH con
distribución gaussiana
(e) La caída promedio en la cartera cuando el nivel cae por debajo de beta usando el modelo GJR
con distribución gaussiana
(f) La caída promedio de la cartera cuando el nivel cae por debajo de beta utilizando el modelo EGARCH
con distribución Gaussiana
Ex. 20.7 Repita el ejercicio 20.6 para una cartera ponderada de valor equitativo.
Referencias
Ali, MM, Mikhail, NN y Haq, MS (1978). Una clase de distribuciones bivariadas que incluyen la
logística bivariada. Revista de análisis multivariado, 8, 405–412.
Negro, F. y Scholes, M. (1973). El precio de las opciones y pasivos corporativos. el diario de
Economía Política, 81(3), 637–654.
Machine Translated by Google
718 K. Vaidyanathan
Sklar, A. (1959). Funciones de distribución N-dimensionales y sus márgenes. Publicaciones del Instituto
de Estadística de la Universidad de París, 8, 229–231.
Tobin, J. (1958). La preferencia por la liquidez como comportamiento frente al riesgo. Revista de Estudios Económicos, 25,
65–86.
Yule, GU (1927). Sobre un método de investigación de periodicidades en series perturbadas, con especial referencia a los
números de manchas solares de Wolfer. Transacciones filosóficas de la Royal Society de Londres, Serie A, 226, 267–
298.
Machine Translated by Google
capitulo 21
Redes Sociales y Analítica Web
Vishnuprasad Nagadevara
1. Introducción
Las redes sociales han creado nuevas oportunidades tanto para los consumidores como para las empresas.
Se ha convertido en uno de los principales impulsores de la revolución del consumidor. Las empresas
pueden analizar los datos disponibles en la web y las redes sociales para obtener información valiosa sobre
lo que quieren los consumidores. Las redes sociales y el análisis web pueden ayudar a las empresas a
medir el impacto de su publicidad y el efecto del modo de entrega del mensaje en los consumidores. Las
empresas también pueden recurrir al análisis de las redes sociales para obtener más información sobre sus
consumidores. Este capítulo analiza varios aspectos de las redes sociales y el análisis web.
El análisis de redes sociales implica recopilar información de sitios de redes sociales como Facebook,
LinkedIn y Twitter para brindar a las empresas una mejor comprensión de los clientes. Ayuda a comprender
el sentimiento del cliente, creando
V. Nagadevara )
(IIM-Bangalore, Bengaluru, Karnataka, India)
Correo electrónico: nagadevara_v@isb.edu
720 V. Nagadevara
Muchas empresas han comenzado a aprovechar el poder de las redes sociales. Una aerolínea
en particular mantiene informados a los clientes a través de las redes sociales sobre los
retrasos y las causas de dichos retrasos. En el proceso, la aerolínea puede comunicar de
manera proactiva las causas de los retrasos y, por lo tanto, minimizar el sentimiento negativo
que surge de los retrasos. Además, la compañía aérea también puede ahorrar gran parte del
tiempo de los empleados de su centro de llamadas, porque muchos clientes ya sabían sobre
los retrasos y las razones asociadas con los retrasos y, por lo tanto, no llaman al centro de
llamadas.
Machine Translated by Google
El análisis de las redes sociales se puede utilizar de manera efectiva para medir la reacción de los clientes
ante un nuevo producto o servicio introducido en el mercado. Las redes sociales brindan la oportunidad de
escuchar a la persona en la calle. La forma más sencilla de hacer esto es escanear varios sitios de redes
sociales como Twitter, Facebook o LinkedIn o varios foros de discusión y blogs. Al analizar estos mensajes y
blogs, la empresa puede comprender las percepciones de los clientes sobre el nuevo producto o servicio.
También es posible analizar la tendencia de las percepciones de los clientes a lo largo del tiempo, así como la
respuesta a diversas campañas de publicidad y marketing. Esta respuesta se puede medir casi en tiempo real.
La optimización de motores de búsqueda (SEO) es otra técnica para adquirir clientes cuando buscan un
producto o servicio específico o incluso una organización.
Por ejemplo, cuando un cliente inicia una búsqueda de un producto, digamos un teléfono inteligente, existe la
posibilidad de sobrecargarse y abrumarse con los resultados de la búsqueda.
Estos resultados contienen tanto "listados pagados" como "listados orgánicos". Los listados de búsqueda
pagados son anuncios que las empresas pagan para que sus anuncios se muestren cuando los usuarios
realizan una búsqueda que contiene palabras clave específicas. Por otro lado, las “listas de búsqueda orgánica”
son las listas de páginas web devueltas por los algoritmos del motor de búsqueda que coinciden estrechamente
con la cadena de búsqueda. Las empresas pueden hacer uso del SEO para que sus sitios web aparezcan más
arriba en los resultados de búsqueda, especialmente entre los listados orgánicos. También pueden iniciar
anuncios en línea y lograr una mayor visibilidad.
Vale la pena que las empresas controlen las publicaciones en varias redes sociales. Uno puede usar las
publicaciones, así como varios blogs y reseñas para monitorear constantemente las opiniones de los clientes
a través de la extracción de opiniones y el análisis de sentimientos. El análisis constante de las opiniones y el
análisis de sentimientos puede ayudar a las empresas no solo a comprender los sentimientos de los clientes,
sino también a desarrollar estrategias para promover aún más el sentimiento positivo o llevar a cabo un control
de daños en caso de sentimiento negativo.
Las empresas también pueden aprender de los comentarios negativos para mejorar sus productos y servicios.
Además, pueden monitorear la respuesta de los clientes a las acciones correctivas tomadas por ellos.
Los sitios web pueden usar cookies, así como direcciones IP, para identificar el historial pasado de los
clientes y sus preferencias. Según el historial anterior y los hábitos de navegación, los clientes pueden recibir
anuncios adecuados. Por ejemplo, si podemos predecir que al cliente le gustan los deportes al aire libre,
podemos dirigirnos a él o ella con una oferta de un paquete de trekking. Las predicciones se pueden hacer
incluso con respecto a una nueva llegada en el sitio web. Por ejemplo, si el cliente tiene una cuenta de
Facebook y llega viendo un anuncio en Facebook, podemos identificar sus pasatiempos e intereses y presentar
anuncios apropiados.
Se ha vuelto muy común que los clientes miren las reseñas y recomendaciones de productos (o servicios)
que se publican en varios sitios web, antes de tomar una decisión.
Muchos sitios web (como TripAdvisor) presentan un análisis de las opiniones y un resumen de las opiniones
para ayudar a los clientes a tomar la decisión adecuada. Al presentar el resumen de las reseñas, las empresas
pueden hacer ofertas adecuadas para facilitar una rápida aceptación.
El análisis de las palabras clave de uso frecuente en los motores de búsqueda puede ayudar a identificar
los problemas y preocupaciones actuales. Puede revelar el sentimiento público hacia los mercados emergentes.
Machine Translated by Google
722 V. Nagadevara
problemas, así como la actitud pública hacia los partidos políticos. Puede ayudar a identificar focos
de apoyo político. También puede ayudar a crear campañas y formulación de políticas apropiadas
para aprovechar al máximo los sentimientos predominantes.
Es muy común tener líderes y seguidores en las redes sociales. Mediante el uso de análisis de
red (como diagramas de red e influencia), las organizaciones pueden identificar a las personas más
influyentes en la red. Las organizaciones pueden tomar la ayuda de tales personas influyentes para
promover un nuevo producto o servicio. Se les puede solicitar que contribuyan con una revisión
imparcial o un artículo sobre el producto o servicio.
Tal revisión (o recomendación) puede ayudar a promocionar el nuevo producto o servicio al resolver
la incertidumbre o vacilación en la mente de los seguidores.
Los diagramas de red e influencia se utilizan de manera muy efectiva para identificar a los actores
clave en varios fraudes financieros o cárteles de lavado de drogas. Uno de esos estudios identificó a
los perpetradores de los ataques del 11 de septiembre mediante el uso de un diagrama de red
basado en la información disponible en el dominio público. El diagrama de la red podría identificar
claramente a los actores clave involucrados en el 11 de septiembre a partir de los dos sospechosos
del atentado de Cole que establecieron sus residencias en California ya en 19991.
El análisis de las redes sociales también se puede utilizar para el bien público. Los datos de los
teléfonos móviles se utilizan para identificar y predecir las condiciones del tráfico. Por ejemplo, Google
Traffic analiza datos provenientes de una gran cantidad de usuarios de dispositivos móviles. Los
proveedores de servicios de telefonía celular monitorean constantemente la ubicación de los usuarios
mediante un método llamado “trilateración” donde se mide la distancia de cada dispositivo a tres o
más torres de telefonía celular. También pueden obtener la ubicación exacta del dispositivo mediante GPS.
Al calcular la velocidad de los usuarios a lo largo de un tramo particular de la carretera, Google
genera un mapa de tráfico que destaca las condiciones del tráfico en tiempo real. Usando las
condiciones de tráfico existentes en diferentes rutas, se pueden sugerir mejores rutas alternativas.
Con la llegada de los teléfonos inteligentes, los dispositivos móviles se han convertido en la fuente
más popular para consumir información. Este fenómeno ha llevado al desarrollo de nuevos enfoques
para llegar a los consumidores. Uno de esos enfoques es el geo-cercado. Se trata de crear un
perímetro virtual para un área geográfica y permitir que las empresas sepan exactamente cuándo es
probable que un cliente en particular (o cliente potencial) pase por una tienda o ubicación. Estos
perímetros virtuales pueden generarse dinámicamente o pueden ser límites predefinidos. Este
enfoque permite a las empresas brindar información relevante o incluso entregar cupones en línea al
cliente potencial. El concepto de geo-cercado se puede combinar con otra información basada en el
historial de búsqueda anterior, transacciones anteriores, datos demográficos, etc. para orientar mejor
al cliente con el mensaje correcto.
En el resto del capítulo, describimos algunas aplicaciones con mayor detalle: publicidad gráfica
en tiempo real, experimentos A/B para medir el valor de los medios digitales y manejar los desafíos
de la venta minorista electrónica, publicidad en motores de búsqueda basada en datos, análisis de
atribución digital y estrategias y análisis para redes sociales y empresas sociales y análisis móvil e
innovación abierta.
1Valdis Krebs, “Conectando los Puntos; Tracking Two Identified Terrorists” disponible en http://www.
orgnet.com/tnet.html (último acceso el 18 de enero de 2018).
Machine Translated by Google
Internet ofrece nuevas posibilidades para los enfoques creativos de la publicidad. La publicidad en
Internet también se denomina publicidad en línea y abarca los anuncios gráficos que se encuentran
en varios sitios web y páginas de resultados de consultas de búsqueda y los que se colocan en
correos electrónicos y redes sociales. Estos anuncios gráficos se pueden encontrar dondequiera que
acceda a la web. Como en el caso de cualquier otro modo de publicidad, el objetivo de la publicidad
gráfica es aumentar las ventas y mejorar la visibilidad de la marca. La principal ventaja de los
anuncios gráficos es que todas las acciones del usuario son rastreables y cuantificables. Podemos
realizar un seguimiento de varias métricas, como la cantidad de veces que se mostró, cuántos clics
recibió, los datos posteriores al clic y la vista y a cuántos usuarios únicos se llegó. Estos anuncios
gráficos pueden ser omnipresentes y colocarse en cualquier lugar y en cualquier tipo de página web.
Pueden ser en forma de texto, imágenes, videos y elementos interactivos. Otra ventaja de los
anuncios gráficos es que la conversión y las ventas son instantáneas y se logran con un solo clic.
Hay diferentes tipos de anuncios publicitarios. El más popular es el anuncio publicitario. Suele
ser una imagen gráfica, con o sin animación, que se muestra en una página web. Estos anuncios
suelen estar en imágenes GIF o JPEG si son estáticos, pero usan Flash, JavaScript o video si hay
animaciones involucradas. Estos anuncios publicitarios permiten al usuario interactuar y realizar
transacciones. Estos pueden ser de diferentes tamaños y se pueden colocar en cualquier parte de
la página web (generalmente en la barra lateral). Debe realizar las pruebas o experimentación
adecuadas (consulte la sección Diseños experimentales de este capítulo) para saber qué funciona
mejor para usted.
Puede diseñar su banner como URL(s) de destino único o múltiple.
Hay banners que aparecen entre páginas. A medida que pasa de una página a la siguiente
mediante clics, estos anuncios se muestran antes de que se cargue la página siguiente. Estos tipos
de anuncios se conocen como banners intersticiales.
Los anuncios gráficos se pueden abrir en una nueva ventana pequeña sobre la página web que
se está viendo. Por lo general, se denominan ventanas emergentes. Érase una vez, estos anuncios
emergentes fueron muy populares, pero la llegada de los "bloqueadores de ventanas emergentes"
en los navegadores web había disminuido la eficacia de los anuncios emergentes. Los usuarios
pueden ser muy selectivos al permitir las ventanas emergentes de sitios web preseleccionados.
También hay otros similares llamados pop-under donde un anuncio abre una nueva ventana del
navegador debajo de la ventana original.
Algunas de las empresas locales pueden mostrar un anuncio en línea sobre un mapa (por
ejemplo, Google Maps). La ubicación del anuncio puede basarse en la cadena de búsqueda utilizada
para recuperar el mapa. Estos se conocen generalmente como anuncios de mapas.
De vez en cuando, un anuncio aparece como una película translúcida sobre la página web.
Estos se llaman anuncios flotantes. Generalmente, estos anuncios tienen un botón de cierre, y el
usuario puede cerrar el anuncio haciendo clic en el botón de cerrar. A veces, estos anuncios flotan
sobre la página web durante unos segundos antes de desaparecer o disolverse. En tal caso, no hay
clics involucrados y, por lo tanto, es difícil medir la efectividad de dichos anuncios.
Machine Translated by Google
724 V. Nagadevara
Los sitios web generalmente están diseñados para mostrarse en un ancho fijo y en el centro de
la ventana del navegador. Normalmente, esto deja una cantidad considerable de espacio alrededor
de la página. Algunos anuncios gráficos aprovechan estos espacios vacíos. Estos anuncios se
denominan anuncios de papel tapiz.
Hay muchas opciones para que los anuncios se muestren en línea. Algunos de éstos se discuten a
continuación.
Una de las opciones más populares es colocar los anuncios en las redes sociales.
Puede hacer que sus anuncios se muestren en las redes sociales como Facebook, Twitter y LinkedIn.
En general, Facebook ofrece un espacio publicitario estándar en la barra lateral derecha. Estos
anuncios se pueden colocar en función de la información demográfica, así como de los pasatiempos
e intereses, lo que puede facilitar la orientación al público adecuado. Además de estos anuncios,
Facebook también ofrece anuncios de participación que facilitarán un punto de acción adicional,
como un botón Me gusta o un botón Compartir o un botón para participar en una encuesta o incluso
para agregar un video. Las historias o publicaciones patrocinadas también se pueden usar para
promocionar un aspecto específico de una marca. Estas historias o publicaciones pueden aparecer
como fuentes de noticias. Incluso puede publicar una publicación existente en Facebook.
Twitter también permite anuncios. Algunos tweets promocionales aparecen en la parte superior
de la línea de tiempo del usuario. La sección "A quién seguir" también se puede utilizar para
recomendar su cuenta a un precio. Por lo general, el pago se realiza cuando un usuario sigue una
cuenta promocionada. La sección de Tendencias de Twitter también está disponible para anuncios.
Si bien esta sección está destinada a los temas más populares en un momento determinado, el
espacio también está disponible para los clientes de anuncios de Twitter de servicio completo.
LinkedIn permite anuncios dirigidos con respecto al título del trabajo, la función del trabajo, la
industria, la geografía, la edad, el género, el nombre y el tamaño de la empresa, etc. Estos anuncios
se pueden colocar en la página de inicio del usuario, en la página de resultados de búsqueda o en
cualquier otra página destacada.
Los anuncios en línea se pueden reservar a través de un proveedor de medios premium, al igual
que uno reservaría desde una agencia de publicidad tradicional. Un proveedor de medios premium
generalmente tiene acceso a un espacio en línea de alto perfil y también puede asesorar sobre varias
opciones disponibles.
Otra opción es trabajar con una red de publicidad. Aquí, una sola entidad de ventas puede
proporcionar acceso a una serie de sitios web. Esta opción funciona mejor si la colección de sitios
web es propiedad o está administrada por una entidad común, como HBO o Times Inc. La Red de
Display de Google es otra entidad de este tipo. Por lo general, la red de publicidad puede ofrecer
orientación, seguimiento y preparación de informes analíticos, además de proporcionar un servidor
centralizado que es capaz de publicar anuncios en varios sitios web. Esta red publicitaria también
puede asesorarte en función de varios factores que influyen en la respuesta, como la demografía o
varios temas de interés.
Machine Translated by Google
Una de las formas de publicidad gráfica de más rápido crecimiento es la publicidad móvil.
La publicidad móvil incluye anuncios SMS y MMS. Teniendo en cuenta que el móvil es un medio
masivo intensamente interactivo, los anunciantes pueden utilizar este medio para el marketing viral.
Es fácil para el destinatario de un anuncio reenviarlo a un amigo. A través de este proceso, los
usuarios también se vuelven parte de la experiencia publicitaria.
Hay redes ciegas como www.buzzcity.com lo que le ayudará a dirigirse a un gran número de
editores móviles. Se puede usar una categoría especial de redes ciegas (que se pueden llamar
redes ciegas premium) para apuntar a sitios de alto tráfico.
Los sitios www.millennialmedia.com y www.widespace.com son buenos ejemplos de redes
premium para ciegos.
Los servidores de anuncios juegan un papel importante en la publicidad gráfica. Estos
servidores pueden ser propiedad de los propios editores o de un tercero y se utilizan para
almacenar y publicar anuncios. La ventaja de los servidores de anuncios es que una simple línea
de código puede llamar al anuncio desde el servidor y mostrarlo en la página web designada.
Dado que el anuncio se almacena en un solo lugar, cualquier modificación debe realizarse en un
solo lugar. Además, los servidores de anuncios pueden proporcionar todos los datos con respecto
al número de impresiones, clics, descargas, clientes potenciales, etc. Estas estadísticas se pueden
obtener de múltiples sitios web. Un ejemplo de un servidor de anuncios de terceros es Google
DoubleClick.
726 V. Nagadevara
evolución de las tecnologías recientes, el enfoque se está desplazando hacia la comprensión de cada cliente
individual y exponerlo a la pantalla correcta. Este proceso está impulsado por tecnologías en tiempo real que
utilizan algoritmos especialmente diseñados. El resultado es la publicidad gráfica programática.
Hay oportunidades para mostrar miles de millones de anuncios todos los días y los anunciantes pueden
usarlos de manera efectiva para mejorar las tasas de conversión. La tecnología permite al anunciante obtener
información inmediata sobre dónde se mostró el anuncio, a quién se le mostró y durante cuánto tiempo. Esto
ayuda al anunciante a analizar y revisar el anuncio gráfico muy rápidamente y a tomar las medidas necesarias,
incluida la detención del anuncio, si no funciona como se esperaba.
Las ofertas en tiempo real (RTB) son un proceso integral de visualización de anuncios programáticos.
tising y se describe en la Fig. 21.1.
Cada vez que un consumidor realiza una solicitud de una página web y si hay espacio disponible para un
anuncio gráfico, la información sobre el consumidor/visitante, el contexto de la página web solicitada y el
comportamiento web anterior se envía a un intercambio de anuncios a través del editor. El intercambio de
anuncios subasta el espacio disponible a varios DSP, y el anuncio de oferta/display ganador se pasa al editor.
El anuncio se muestra en la pantalla del consumidor mientras se carga la página solicitada. Este proceso se
completa en unos pocos milisegundos para que no haya demoras en la carga de la página que afecten
negativamente la experiencia del usuario.
Machine Translated by Google
Intercambio
Envíos de Ad Exchange Cada DSP analiza las reglas Los DSP responden al anuncio
categoría del sitio web y otra calcula la oferta óptima Exchange selecciona la oferta
información ganadora
Todo el proceso descrito anteriormente toma menos de medio segundo. En otras palabras,
todo el proceso se completa y el anuncio gráfico se muestra mientras el navegador está
cargando la página solicitada en la pantalla del consumidor.
Este proceso de hacer coincidir la pantalla correcta con el consumidor correcto es completamente
impulsado por datos. Datos con respecto al contexto, quién va a ver la pantalla, el perfil de
el consumidor, que es un buen target, etc. es parte del proceso. Para completar
el proceso en un lapso de tiempo muy corto, es necesario construir todas las reglas
de antemano en el sistema. El anunciante habría analizado todos los datos y
identificado el perfil adecuado, el número posible de exposiciones del anuncio y el
reglas para ofertar de antemano, basadas en su propio análisis. Las reglas tratan de igualar el
información sobre el contexto, perfil del consumidor y espacio disponible recibido
del editor con el requisito y desencadenar ofertas automáticas.
La publicidad gráfica programática beneficia tanto a los editores como a los anunciantes. Los
anunciantes se benefician al dirigirse efectivamente solo a aquellos que coinciden con el
perfiles existentes. Estos perfiles se pueden obtener analizando sus propios datos o
Machine Translated by Google
728 V. Nagadevara
Se sabe que las empresas de tecnología web como Amazon, Facebook, eBay, Google y
LinkedIn utilizan pruebas A/B para desarrollar nuevas estrategias y enfoques de productos.
Las pruebas A/B (también llamadas divisiones A/B o experimentación controlada) son una
de las técnicas basadas en datos ampliamente utilizadas para identificar y cuantificar las
preferencias y prioridades de los clientes. Esto se remonta a los experimentos de Sir Ronald
A. Fisher en la Estación Experimental Agrícola de Rothamsted en Inglaterra en la década de
1920. Se llamó divisiones A/B porque el enfoque consistía en cambiar solo una variable a la vez.
La publicación del libro de Ronald Fisher The Design of Experiments cambió el enfoque
donde los valores de muchas variables se cambian simultáneamente y se estima el impacto
de cada una de las variables. Estos diseños experimentales usan ampliamente el concepto
de ANOVA (discutido en el capítulo anterior), con las modificaciones apropiadas.
Machine Translated by Google
730 V. Nagadevara
H0: ÿ1 = ÿ2 = ÿ3.
H1: al menos un ÿ es diferente.
La prueba F que se muestra en la Tabla 21.3 indica que hay una diferencia significativa en la
respuesta a diferentes pantallas.
El CRD se puede representar como un modelo de regresión. Como todo el mundo está familiarizado
con análisis de regresión y muchos paquetes estadísticos tienen módulos de regresión,
representar y analizar CRD como un modelo de regresión hace que sea fácil de analizar y
interpretar los resultados.
El modelo de regresión para CRD es
Yij = ÿ + ÿi + ÿij
Tabla 21.2 (a) Datos reformateados con variables ficticias para el experimento CRD. (b) Regresión
resultados del experimento CRD
R Plaza 0.4265
2 SS EM F
732 V. Nagadevara
b
SS(Bloque) = k Y .j ÿ Y ..2
yo=1
k b
SS(Total) = Yij ÿ Y ..2
yo=1 j=1
k b
SS (Error) también se puede calcular como Yij ÿ Y i. ÿ Y .j + Y ..2
yo=1 j=1
dónde
Y
..
es la media general.
734 V. Nagadevara
El modelo de regresión para el diseño de bloques completos al azar se puede representar por
Yij = ÿ + ÿi + ÿj + ÿij
Estadísticas de regresión
Múltiples R 0.9520
R Plaza 0.9063
6 SS EM F Significado F
Regresión _ 0.0084 0,0014 12,9003 0,0010
Residual 8 0.0009 0.0001
Total 14 0.0092
El verdadero poder de los diseños experimentales se siente cuando tenemos que estimar los efectos
de una serie de variables simultáneamente. Por ejemplo, considere un escenario donde un
empresa está contemplando un anuncio de visualización en particular. han identificado
tres variables diferentes (factores), cada una con dos niveles, para probar. Estas son fuentes
(fuente tradicional frente a moderna), color de fondo (blanco frente a azul) y botón de clic
diseño (simple "Está bien" frente a grande "Haga clic ahora para unirse"). Las copias del anuncio son aleatorias.
mostrado a cada espectador, y la tasa de conversión (definida como aquellos que hacen clic para
acceder al sitio web y unirse como miembros (sin costo)). en lo tradicional
diseño experimental, como CRD, primero decidiremos cuál es probable que
ser lo más importante. Digamos que el botón de clic es el más importante. Entonces nosotros
combinaría cada uno de los dos niveles del botón de clic con uno de los otros dos
factores (digamos, fuente tradicional y fondo blanco) y ejecute cuatro repeticiones. Este
en realidad implica ocho ejecuciones (cuatro de cada botón simple + fuente tradicional + blanco
fondo y botón grande + fuente tradicional + fondo blanco). La resultante
la tasa de conversión se puede usar para decidir qué tipo de botón de clic es más efectivo
(digamos, botón grande). Ahora, seleccionaremos el color de fondo para la experimentación.
Como ya tenemos la combinación con fondo blanco, ahora seleccionaremos
fondo azul y combínalo con “botón grande” (ya que era más efectivo)
y fuente tradicional y ejecutar cuatro réplicas. Suponga que los resultados muestran que azul
fondo es más efectivo. Ahora, seleccionamos la combinación de botón grande y
Machine Translated by Google
736 V. Nagadevara
fondo azul y combínelo con fuente tradicional y fuente moderna. Ya tenemos cuatro tiradas
de letra tradicional, color azul y botón grande. Ahora tenemos que realizar cuatro tiradas
de la combinación de fuente moderna, color azul y botón grande.
Por lo tanto, tenemos un total de 16 carreras. Estas 16 ejecuciones nos ayudarán a estimar
los efectos de la fuente, el color de fondo y el tipo de botón de clic. Pero también es posible
que pueda haber efectos de interacción entre estos factores. Por ejemplo, una combinación
de botón pequeño con fondo azul y fuente moderna podría ser mucho más efectiva que
cualquier otra combinación. Tenga en cuenta que no experimentamos con esta combinación
en particular y, por lo tanto, no tenemos forma de estimar este efecto. Lo mismo ocurre
con muchas otras interacciones.
El diseño factorial desarrollado por Ronald Fisher es un enfoque mucho mejor. Con tres
factores y dos niveles para cada factor, hay ocho combinaciones posibles.
Estas ocho combinaciones se pueden mostrar aleatoriamente a los espectadores y calcular
la tasa de conversión. Es importante que cada combinación se muestre con la misma
probabilidad. Este proceso implica solo ocho ejecuciones en lugar de las 16 requeridas en
el enfoque anterior. La tabla 21.8 muestra el diseño factorial del experimento anterior con
dos repeticiones. Los niveles de cada factor están representados por +1 y ÿ1. La
codificación es la siguiente:
Solo hay dos niveles para cada uno de los factores en nuestro experimento. Por lo
tanto, estos diseños se denominan diseños factoriales de dos niveles (dado que hay tres
factores, este diseño se conoce como diseño factorial 23 ). En general, puede haber
muchos más niveles para cada factor. El cambio en la respuesta (tasa de conversión)
cuando el nivel del factor cambia de -1 a +1 se denomina "efecto principal". Por ejemplo,
el efecto principal del factor “fuente” es el cambio en la tasa de conversión cuando la fuente
cambia de “tradicional (ÿ1)” a “moderna (+1)”. Cuando el efecto de un factor está
influenciado por otro factor (un ejemplo típico es el agua y el fertilizante en experimentos
agrícolas), implica que existe una sinergia entre estos dos factores. Estos efectos se
denominan efectos de interacción. En la Tabla 21.9, la codificación de las variables de
interacción es la multiplicación de las columnas correspondientes.
Para aislar los efectos de cada factor y las interacciones, necesitamos calcular la suma
de cuadrados correspondiente a cada efecto principal y efecto de interacción. La tabla
ANOVA para los datos del experimento anterior se presenta en la Tabla 21.10. Estos
resultados se obtienen ejecutando el modelo en R usando el siguiente código:
Se puede ver en la tabla anterior que los efectos principales de "fuente" y "clic
botón” son significativos y el efecto del “color de fondo” no es significativo. En
Además, solo la interacción entre la "fuente" y el "botón de clic" es significativa.
Todas las demás interacciones no son significativas.
Las tasas de conversión medias para cada nivel de los factores y las interacciones son
presentado en la Tabla 21.11.
Los efectos medios de diferentes factores y las interacciones también se presentan en
Tabla 21.11 (columna general). La forma en que estos efectos deben interpretarse es que
la tasa de conversión aumentará en 2.1038 cuando cambiemos la fuente tradicional
Machine Translated by Google
738 V. Nagadevara
Estadísticas de regresión
Múltiples R 0.9722
R Plaza 0.9451
d.f. SS EM F
4.4 Ortogonalidad
Se dice que un diseño experimental es ortogonal si para cualquiera de los dos factores de
diseño, cada combinación de nivel de factor tiene el mismo número de ejecuciones. El diseño
especificado anteriormente es un diseño ortogonal. Considere dos factores cualquiera en el
experimento y el efecto sobre la variable de respuesta se estudia para cuatro combinaciones
posibles. Hay exactamente dos corridas (sin contar las repeticiones) para cada combinación.
Además, si toma dos columnas (aparte de la columna de respuesta) en la tabla 21.9 y
multiplica los elementos correspondientes y los suma, el total siempre es cero. Esto también
implica que la correlación entre dos columnas cualesquiera de la tabla 21.9 (aparte de la
columna de respuesta) es cero. Esta es una característica del diseño factorial de dos niveles.
Debido a esta naturaleza ortogonal del diseño, todos los efectos se pueden estimar de forma independiente.
Por lo tanto, el efecto principal de "fuente" no depende del efecto principal de "botón de clic".
Los diseños experimentales se utilizan ampliamente en muchas redes sociales como
Facebook, Twitter y LinkedIn para tomar decisiones basadas en datos. De hecho, LinkedIn
creó una plataforma separada llamada XLNT (pronunciado Excelente) para llevar a cabo
experimentos de forma rutinaria. La plataforma puede admitir más de 400 experimentos por
día con más de 1000 métricas. Han estado utilizando esta plataforma para implementar
experimentos y analizarlos para facilitar la innovación de productos. Sus experimentos van
desde cambios visuales en las páginas de inicio hasta la personalización de las líneas de
asunto en los correos electrónicos3.
3Ya Xu et. al., “De la infraestructura a la cultura: desafíos de las pruebas A/B en redes sociales a gran
escala”, KDD'15, 11 a 14 de agosto de 2015, Sydney, NSW, Australia.
Machine Translated by Google
740 V. Nagadevara
Hoy en día, el marketing basado en datos se ha vuelto omnipresente. Las estrategias de marketing basadas
en datos se basan en conocimientos obtenidos de los datos recopilados a través de los puntos de contacto con
los clientes, las interacciones con los clientes y la demografía de los clientes. Estos datos se analizan para
comprender el comportamiento del cliente y hacer predicciones. Estos se convierten en insumos para mejores
esfuerzos de marketing y publicidad. Los esfuerzos publicitarios tienen como objetivo mejorar la experiencia
del cliente a través de la personalización. El enfoque ayuda a las empresas a transmitir el mensaje correcto en
el momento correcto al objetivo correcto. Las empresas pueden crear campañas altamente personalizadas que
transmitan un mensaje personalizado y enfocado al consumidor. Con la cantidad de datos a su disposición, las
empresas pueden identificar los grupos de consumidores a los que pueden dirigirse fácilmente, en función de
los perfiles de los consumidores y mediante la identificación de estrategias procesables.
Los consumidores siguen moviéndose de un dispositivo a otro (móvil a computadora portátil a TV digital a
tableta). Pasan de los sitios de comercio electrónico a los sitios web sociales. La publicidad basada en datos
permite a las empresas seguir al cliente a través de varios dispositivos y diferentes plataformas. Las empresas
pueden dirigirse al consumidor con mensajes consistentes a través de diferentes canales. Pueden hacer ofertas
relevantes, especialmente diseñadas para un consumidor en particular. Por ejemplo, si un cliente ha comprado
un móvil, se le pueden ofrecer varios accesorios que pueden ir con el modelo específico de móvil adquirido.
Usando técnicas como el análisis de big data, las empresas pueden mantenerse al día con las tendencias
y preferencias cambiantes de los consumidores. Incluso se pueden predecir futuros cambios en los gustos y
preferencias. Estos datos, junto con las estrategias de marketing y publicidad adecuadas, pueden ayudar a
realizar los mejores cambios.
A través de la publicidad basada en datos, los especialistas en marketing pueden llegar a los consumidores
en línea, independientemente de su ubicación física. Los consumidores individuales pueden identificarse y
seleccionarse para recibir mensajes específicos y altamente enfocados en función de sus patrones de
comportamiento que, en última instancia, facilitarán la conversión. Implementar publicidad dinámica en línea
que permita al consumidor interactuar puede ser una gran fuente para obtener información de primera mano
del cliente.
Los consumidores de hoy confían ampliamente en los motores de búsqueda para obtener la información
que necesitan antes de comprar cualquier producto o servicio. Al comprender e identificar lo que buscan estos
consumidores, los especialistas en marketing pueden crear mensajes enfocados. Una vez que identifican lo
que buscan los consumidores, pueden optimizar las búsquedas pagas y crear un mejor contenido en sus
propios sitios web que esté en línea con las búsquedas frecuentes de los consumidores y, en última instancia,
dirigir el tráfico a sus propios sitios web.
742 V. Nagadevara
Anunciante Oferta máxima ($) Nivel de calidad Clasificación = oferta*nivel de calidad CPC real
anunciante 1 2 10 20 1.81
Anunciante 2 3 6 18 2.01
Anunciante 3 4 3 12 3.51
Anunciante 4 5 2.1 10.5 5
Machine Translated by Google
servir el
Productos agregados Ofrecer el
Un cliente anuncio correcto.
visita el al carrito
producto correcto
sitio web.
Quién es
persona como?
que el puntaje de calidad es 10), que es marginalmente más alto que el siguiente mejor rango. los
adición de un centavo ($0.01) en la fórmula de cálculo es para asegurar que el ganador
el anuncio es marginalmente más alto y no está empatado con el siguiente anuncio mejor clasificado.
744 V. Nagadevara
Hoy en día, la explosión de datos de diversas fuentes brinda un acceso sin igual al comportamiento
del consumidor. Cada acción en línea en todos y cada uno de los sitios web se registra, incluida la
cantidad de tiempo dedicado a una página web en particular. Los datos de transacciones de tiendas
minoristas, transacciones con tarjeta de crédito, registros de centros de llamadas, decodificadores,
etc. están disponibles. Toda esta información se puede analizar no solo para comprender el
comportamiento del consumidor sino también para evaluar la contribución de cada canal de marketing.
Un modelo de atribución es la regla, o conjunto de reglas, que determina cómo se asigna el crédito
por ventas y conversiones a los puntos de contacto en las rutas de conversión. La atribución es dar
crédito a los diferentes canales que la empresa emplea para promocionar y difundir el mensaje
publicitario. La atribución digital se refiere a atribuir crédito a varios componentes para proporcionar el
mensaje de marketing en el mundo en línea utilizando varias formas de medios y plataformas en línea.
Es cierto que el mundo digital ofrece oportunidades fenomenales para la mensurabilidad y la rendición
de cuentas. Sin embargo, es más desafiante en el mundo digital desentrañar los impactos de las
diversas formas de publicidad y los de las diferentes plataformas empleadas. Algunas de las acciones
no son
Machine Translated by Google
Fig. 21.5 Embudo que muestra diferentes pasos (canales) hasta la conversión
controlable por el anunciante. Por ejemplo, un anuncio basado en búsqueda puede mostrarse
solo cuando el consumidor inicia una búsqueda de un producto o servicio en un motor de
búsqueda en particular. Siempre es un desafío comprender qué desencadena que el
consumidor inicie dicha búsqueda, ¡y mucho menos influir en el consumidor para que inicie tal acción!
Existen diferentes modelos de atribución digital, cada uno con sus propias ventajas y
desventajas. Antes de analizar las ventajas y desventajas de cada uno de estos modelos,
consideremos el siguiente embudo que resultó en una conversión (Fig. 21.5).
Modelos de atribución
(i) Modelo de atribución de última interacción/último clic
Este es uno de los primeros modelos de atribución y se utiliza como modelo estándar en
muchos análisis web porque es el más simple entre todos los modelos. Aquí, todo el crédito se
otorga a la última interacción o clic justo antes de la conversión. En el embudo anterior,
"Directo" recibe el crédito completo del 100%. Este modelo se utiliza principalmente porque no
hay ambigüedad con respecto a la acción final que resultó en la conversión.
Dado que solo se considera el último punto de contacto, el período de caducidad de la cookie
se vuelve irrelevante. Este modelo es fácil de implementar y se vuelve apropiado cuando los
embudos toman mucho tiempo desde el inicio hasta la conversión. La desventaja es que hay
muchas otras interacciones antes de la última interacción y no reconoce ninguna de ellas. Por
otro lado, es más apropiado cuando no se dispone de información para el análisis centrado en
el visitante. (ii) Modelo de atribución del último clic no directo Este modelo subestima el tráfico
directo. Da crédito a la campaña que se inició justo antes de la conversión. Estas campañas
pueden ser sitios de referencia, correos electrónicos, visualizaciones en motores de
búsqueda, sitios web sociales o incluso búsquedas orgánicas. El "canal directo" a menudo se
define como cuando el visitante ingresa manualmente la URL en su navegador. La mayoría de
las veces, cualquier visitante que no tenga ninguna etiqueta de referencia se trata como
"Directo". En otras palabras, el canal directo es donde no hay una etiqueta de referencia y, por
lo tanto, al mismo tiempo, atribuir la conversión a "Directo" puede ser engañoso. Este modelo
evita estos problemas relacionados con el canal directo. Hay muchos casos en los que un
consumidor realmente escribe la URL debido al nombre de la marca y la imagen.
Dado que este modelo ignora el tráfico directo, equivale a infravalorar el reconocimiento de
marca y el valor de marca. Todos los esfuerzos que generalmente se dedican a crear tal
reconocimiento de marca son ignorados por este modelo.
Machine Translated by Google
746 V. Nagadevara
el punto de contacto que aseguró la conversión. Al mismo tiempo, no ignora otros puntos de
contacto.
Los puntos de contacto "Red social" y "Directo" obtienen un 40 % cada uno, mientras que los
tres restantes obtendrán un 6,67 % cada uno, en el embudo anterior. (viii) Modelo de atribución
personalizado o algorítmico Con base en las ventajas y desventajas de los modelos descritos
anteriormente, el analista puede construir un modelo de atribución personalizado. Estos
modelos personalizados se construyen a partir de datos sobre el comportamiento del cliente
obtenidos en diferentes etapas. Se reconoce que estos modelos “basados en evidencia” son
mejores y más realistas. Desafortunadamente, estos modelos no son fáciles de construir. El
principio fundamental es estimar cuál de los puntos de contacto contribuye en qué medida en
función de los datos disponibles del cliente para que represente una imagen más precisa del
viaje del cliente desde el inicio hasta la conversión.
Esto se denomina modelo de atribución personalizado o algorítmico. Estos modelos no solo
hacen uso de los datos de los clientes, sino que también utilizan técnicas estadísticas que pueden
conducir a una optimización continua del presupuesto publicitario.
Un enfoque simple para construir un modelo de atribución algorítmico comienza con la
identificación de las métricas clave que se utilizarán para medir la efectividad relativa de cada
canal. Es importante asociar un período de tiempo apropiado con esto.
Esto se debe seguir con el costo por adquisición para cada canal.
Con la tecnología actual, los datos con respecto a varios puntos de contacto se obtienen sin
mucha dificultad. Estos datos se pueden usar para construir modelos para predecir la conversión
o de otra manera. Generalmente, la variable de destino es binaria, ya sea que la conversión sea
exitosa o no. Las variables predictoras son los diversos puntos de contacto. Para empezar, la
métrica de efectividad del modelo puede ser la precisión de la predicción. En función de la
contribución de cada una de las variables predictoras, se puede calcular la atribución a varios
puntos de contacto. Considere construir un modelo de regresión logística para predecir el éxito
de la conversión. Una vez que logramos los niveles de precisión de predicción para los conjuntos
de datos de entrenamiento y prueba, los coeficientes de la regresión logística se pueden usar
para calcular el porcentaje de atribución a varios puntos de contacto o canales4.
Si bien es cierto que cualquiera de los modelos predictivos puede emplearse para este
propósito, modelos como la regresión logística o el análisis discriminante son más amigables ya
que con estos modelos se dispone de los coeficientes correspondientes a diferentes variables
predictoras. También podemos utilizar métodos de caja negra como redes neuronales artificiales
o máquinas de vectores de soporte. En tal caso, podemos asignar los valores de atribución a
diferentes variables predictoras en función del “índice de sensibilidad” obtenido después de
construir el modelo.
4Para obtener más detalles, consulte Shao, Xuhui y Lexin Li, “Modelos de atribución multitoque basados en
datos”, KDD'11, 21–24 de agosto de 2011, San Diego, California, EE. UU.
Machine Translated by Google
748 V. Nagadevara
Otros modelos algorítmicos que se pueden utilizar para el cálculo de la atribución son los siguientes:
sigue:
• Análisis de supervivencia
• Valor de Shapley
• Modelos de Markov
• Modelos bayesianos
Podemos optimizar la asignación de presupuesto para cada uno de los canales utilizando el
valores de atribución (obtenidos de los modelos predictivos) y los costes estimados
antes (CPA, CPM, etc.). Incluso una técnica de optimización simple, como la maximización con
restricciones presupuestarias, puede generar resultados significativos.
Consideremos un ejemplo de cálculo del costo de adquisición (CoA) bajo
diferentes modelos de atribución. Consideremos un cliente que compró un "Amazon
Inicio” a través del siguiente proceso:
750 V. Nagadevara
En las seis permutaciones, la contribución de AdWords es 180, 180, 72, 128, 126 y 128. El total de estos
valores es 814 y el promedio es 135,67. Del mismo modo, los promedios de Facebook y correo electrónico
son 74,67 y 45,67, respectivamente. Estos valores se convierten en porcentajes que se presentan en la tabla.
Estos valores se denominan "valores de Shapley" (llamados así por el premio Nobel Lloyd Shapley).
Según el análisis anterior, la empresa debería invertir más en AdWords y menos en correo electrónico.
De hecho, el presupuesto de publicidad se puede distribuir entre los tres canales en la misma proporción que
los porcentajes de contribución.
El enfoque anterior requiere grandes cantidades de datos. La empresa necesita obtener datos con
respecto a todas y cada una de las combinaciones (todos los subconjuntos posibles, así como los canales
individuales) de los canales empleados. Si hay n canales, los datos deben obtenerse para 2n ÿ 1 subconjuntos.
La implementación de diseños experimentales podría ser un posible enfoque para obtener los datos
requeridos. Una vez que se desarrolla e implementa una estrategia de optimización para la asignación de
presupuesto a través de diferentes canales, es necesario un monitoreo constante de los canales para un
mayor ajuste.
Con la popularidad de los móviles inteligentes en los últimos días, más de la mitad del tráfico de búsqueda
comenzó a emanar de los móviles. Estos dispositivos también son el medio popular para interactuar dentro
de las redes sociales. Además, el algoritmo de clasificación móvil de Google incluye factores de facilidad de
uso móvil y compatibilidad con dispositivos móviles, así como la disponibilidad de aplicaciones móviles en su
indexación. En consecuencia, aquellos con sitios web optimizados para dispositivos móviles y/o aplicaciones
móviles obtienen clasificaciones mucho más altas y aparecen en la parte superior de los resultados de búsqueda.
En consecuencia, cada vez es más importante que las empresas desarrollen una estrategia orientada a
dispositivos móviles para mejorar la eficacia de sus campañas de marketing. Cada vez es más necesario
crear estrategias de marketing móvil que mejoren la experiencia del cliente al usar dispositivos móviles en
cada etapa del embudo de compra del cliente.
Dos estrategias importantes que las empresas deben adoptar son la creación de sitios web y aplicaciones
móviles compatibles con dispositivos móviles. Es más probable que los usuarios en las etapas iniciales del
embudo de compra usen el sitio web en lugar de descargar e instalar la aplicación. Por otro lado, las
aplicaciones móviles permiten una mejor interacción y facilitan una mayor creatividad para atraer al cliente.
En otras palabras, es necesario que las empresas creen sus propios sitios web optimizados para dispositivos
móviles, así como aplicaciones específicas.
Un sitio web móvil es un sitio web que está diseñado y creado para verse específicamente en un teléfono
inteligente o una tableta. Debe optimizarse para que responda o cambie su tamaño para adaptarse a la
pantalla según el tipo de dispositivo. Necesitamos entender que los clientes usan estos dispositivos en
diferentes etapas del embudo de compra. Las empresas pueden acelerar el proceso de compra a través de
alertas de ventas, mostrar anuncios, proporcionar códigos QR, extender descuentos especiales y emitir
cupones de descuento. Es fácil integrar las campañas basadas en dispositivos móviles con diferentes sitios
de redes sociales para que los clientes puedan interactuar con otros con respecto a la
Machine Translated by Google
productos y servicios dentro de sus redes sociales. Los sitios web deben optimizarse para que se
carguen más rápido y sean fáciles de navegar, y los botones de clic deben ser lo suficientemente
grandes y tener estructuras de menú cortas. Los sitios web y las aplicaciones también deben
garantizar que se requiera una cantidad mínima de escritura. También es una buena idea permitir
mapas que muestren la ubicación, ya que muchos clientes tienden a usar móviles cuando están en
movimiento.
El sitio web o la aplicación debe permitir a los usuarios conectarse a varias plataformas de redes
sociales. Esto también debe incluir una función que facilite a los clientes compartir la información con
otros en la red. Las aplicaciones tienen una ventaja adicional. La aplicación permanece en la pantalla
del móvil, ya sea que el cliente esté usando la aplicación o no. Cada vez que el cliente mira la
pantalla, ve el nombre de la aplicación o el nombre de la marca que actúa como un recordatorio
constante.
La geolocalización es un aspecto importante de la estrategia móvil. Es fácil integrar esto en las
aplicaciones móviles. Las empresas podrán identificar la ubicación del cliente en cualquier momento
en particular. Los datos se pueden recopilar en lugares que el cliente visita regularmente (como, por
ejemplo, donde el cliente suele dar un paseo). Con este tipo de información, la aplicación puede
proporcionar automáticamente varias promociones u ofertas exclusivas que están actualmente
disponibles en una tienda que se encuentra más cerca del cliente. Muchos de los dispositivos móviles
actuales vienen equipados con “comunicación de campo cercano (NFC)”. NFC puede ser útil para
ubicar al cliente dentro de una tienda o instalación en particular, y la aplicación puede llamar la
atención del usuario sobre cualquier artículo cercano o descuentos especiales basados en el
comportamiento anterior de navegación/búsqueda/compra del cliente a través de SMS o
notificaciones. Esto es especialmente útil cuando el cliente está físicamente cerca del producto y en
una etapa en la que está listo para tomar una decisión.
También es importante que la aplicación pueda funcionar sin conexión. Por ejemplo, el usuario
podría descargar el catálogo y navegar por las ofertas sin depender del Wi-Fi o de la señal móvil.
En última instancia, el beneficio completo de una estrategia móvil solo se puede extraer cuando
el canal móvil se integra con otros canales. El cliente debe poder moverse sin problemas desde su
móvil a cualquier otro canal y llegar a la marca o producto o servicio.
Por lo tanto, la estrategia móvil debe ser tal que brinde suficiente personalización para aprovechar
las ventajas de un dispositivo móvil o tableta mientras se integra con otros canales para que el cliente
tenga una experiencia coherente en todos los canales.
La última década ha visto un crecimiento fenomenal de las redes sociales que ha cambiado la vida
personal y profesional de personas de todo el mundo. A medida que crecía la creación de redes a
través de las redes sociales, las empresas comenzaron a aprovechar las plataformas de redes
sociales para llegar a los clientes directamente para atraerlos y retenerlos. Las organizaciones
empresariales encontraron formas innovadoras de escuchar las voces de los clientes a través de las
redes sociales y comprender mejor sus necesidades. Al mismo tiempo, el desarrollo de tecnologías proporcionadas
Machine Translated by Google
752 V. Nagadevara
oportunidades para analizar grandes cantidades de datos no estructurados generados por las redes
sociales para que las empresas puedan responder mejor. Hoy en día, el análisis de las redes sociales se
utiliza para obtener información más detallada sobre las preferencias de los clientes. También abrió
nuevas vías para innovar y experimentar. Los mismos análisis de redes sociales se pueden usar para
comunicarse con los clientes en el momento exacto con el mensaje correcto para influir en el proceso de
toma de decisiones. Además, abrió un nuevo enfoque para llegar al cliente a través de múltiples canales.
La participación del cliente a través de múltiples canales no solo se ha convertido en la necesidad del
momento, sino en un imperativo para transmitir el mensaje e influir en la toma de decisiones. La tecnología
disponible está facilitando la comprensión del comportamiento del cliente a través de su uso de las redes
sociales y también la eficacia de cada canal para contribuir a la decisión final del cliente. Hoy en día, el
análisis de las redes sociales todavía está evolucionando y aún debe madurar. Cada día surgen nuevas
aplicaciones que plantean desafíos adicionales en la participación del cliente. Al mismo tiempo, las
preocupaciones sobre la privacidad se están convirtiendo en problemas serios, tanto desde posiciones
éticas como legales.
Los próximos años serán un desafío para encontrar un equilibrio adecuado entre las preocupaciones de
privacidad y las necesidades de las empresas para atraer a los clientes de manera más efectiva.
Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están
disponibles en www.allaboutanalytics.net.
Ejercicios
Ex. 21.1 Modern Arts (India) ha iniciado una campaña especial de correo electrónico con tres líneas de
asunto diferentes. Estos son los siguientes:
Machine Translated by Google
Hay dos tasas de respuesta, a saber, "tasa de apertura" y "tasa de clics". Prueba
para saber qué línea de asunto es la mejor con respecto a cada una de las tasas de respuesta.
Ex. 21.2 Se reveló que cada réplica se enviaba a una cuenta de correo diferente.
Todos los 7500 correos electrónicos de la Replicación 1 en realidad estaban dirigidos a cuentas de Gmail.
De manera similar, todos los correos de la Replicación 2 se enviaron a cuentas de correo de Outlook. Todos los correos
de Replication 3 se enviaron a cuentas de correo de Yahoo. Todos los correos de Replication 4 fueron
enviado a las cuentas de correo de AOL. Dada esta información, Modern Arts (India) decidió
considere esto como un diseño de bloques completamente al azar para observar el efecto
de tratamientos y bloques.
Pruebe si hay un efecto de bloqueo significativo. ¿Cuál es la mejor línea de asunto? Realizar
el análisis para ambas tasas de respuesta.
Ex. 21.3 FurniMart es un centro para que los entusiastas de los muebles vendan y compren especialmente
muebles diseñados. FurniMart opera a través de su propio sitio web con una línea
Catálogo. El tráfico al sitio web proviene principalmente de tres fuentes, las que
escriba la URL y llegue al sitio web (directo), los que vienen a través de AdWords
Machine Translated by Google
754 V. Nagadevara
las páginas del catálogo. El diseño existente del sitio web muestra un gráfico que facilita agregar a
productos al carrito. Los clientes seleccionan un producto en particular y hacen clic
en el botón gráfico para agregar el artículo a sus carritos de compras. Se consideró que un mayor
Es probable que el botón de "llamada a la acción" (CtA) conduzca a mejores tasas de conversión.
FurniMart decidió experimentar con tres tipos diferentes de botones. Estos son
se muestra a continuación:
Analice los datos anteriores para identificar qué botón CtA es el mejor para la conversión.
Ex. 21.4 Considere los datos anteriores (pregunta 3) como un bloque completamente aleatorizado
diseño para observar el efecto de tratamientos y bloqueos. Probar si hay un
importante efecto de bloque. ¿Cuál es el mejor tratamiento?
Ex. 21.5 Global Time es un distribuidor local de la marca de relojes inteligentes "Ultimate".
Cada vez que un cliente potencial busca relojes inteligentes, Ultimate ofrece junto con
con otros vendedores de relojes inteligentes. Cuando cualquier cliente que se encuentre dentro del
área geográfica de Global Time hace clic en el anuncio de Ultimate, el visitante es llevado a
El sitio web de Global Time utilizando la función de geolocalización. Global Time está tratando de
renovar su sitio web para mejorar sus tasas de conversión. han identificado
tres aspectos diferentes (tratamientos) del sitio web que quieren modificar. Estas
aspectos son los siguientes:
(b) En la actualidad, el botón “Comprar” se encuentra en el margen derecho de la página web, de forma vertical
centrado. La propuesta es desplazarlo hacia abajo a la derecha para que haya más espacio
para más imágenes en la página.
(c) En la actualidad, la página muestra testimonios en forma de texto. La propuesta es incluir
una pequeña foto del cliente que había dado el testimonio.
Global Time decidió realizar pruebas A/B sobre estos tres aspectos. Los detalles
de los tratamientos y las tasas de conversión correspondientes se dan en la tabla
abajo:
Replicación 1
No hay video Centro derecho Solo texto 2590 115
Añadir video Centro derecho Solo texto 2458 205
No hay video Abajo a la derecha Solo texto 2406 165
Añadir video Abajo a la derecha Solo texto 2557 144
No hay video Centro derecho Texto con foto 2409 101
Añadir video Centro derecho Texto con foto 2458 103
No hay video Abajo a la derecha Texto con foto 2561 161
Añadir video Abajo a la derecha Texto con foto 2587 181
replicación 2
No hay video Centro derecho Solo texto 2519 170
Añadir video Centro derecho Solo texto 2574 193
No hay video Abajo a la derecha Solo texto 2476 112
Añadir video Abajo a la derecha Solo texto 2546 125
No hay video Centro derecho Texto con foto 2595 100
Añadir video Centro derecho Texto con foto 2459 110
No hay video Abajo a la derecha Texto con foto 2562 99
Añadir video Abajo a la derecha Texto con foto 2445 190
¿Qué debe hacer el “Tiempo Global” con respecto a los tres aspectos? ¿Hay alguna
efectos de interacción entre estos tres aspectos?
Ex. 21.6 Akshita inició una búsqueda en Google de organizaciones que ofrecen GMAT
capacitación. Un análisis rápido de los AdWords relevantes de Google encontró que hay
cinco anuncios que están disponibles para mostrar en la página de resultados de búsqueda. La oferta
las cantidades, así como los puntajes de calidad se presentan en la siguiente tabla.
Calcule los rangos e identifique los primeros dos anunciantes cuyos anuncios serán
mostrado a Akshita. Además, calcule el CPC para cada uno de los anunciantes.
Ex. 21.7 Indo-American Consultancy Services (IACS) se especializa en la colocación de empresas indias
graduados con considerable experiencia laboral con clientes en los EE. UU. Anuncian sus servicios con
anuncios gráficos en Twitter, LinkedIn y AdWords. Cuando el
los clientes potenciales hacen clic en el anuncio gráfico, son llevados al sitio web de la empresa,
Machine Translated by Google
756 V. Nagadevara
Con base en los datos anteriores, realice la atribución correspondiente a cada uno de los tres
canales
Vishnuprasad Nagadevara
Initiative for Special Healthcare Access (ISHA) es una organización iniciada por
Karthik para proporcionar un fácil acceso a los servicios de salud corporativos privados a un precio razonable
costo para sus miembros. Karthik, después de completar su MBA con servicios de salud
especialización en gestión, se unió a una importante cadena de hospitales corporativos con sede
en Bangalore. Ha trabajado con la cadena durante 15 años y finalmente llegó a la
nivel de director administrativo para toda la cadena. Durante su mandato en el
cadena de hospitales, había jugado con la idea de hacer que la atención médica fuera accesible para la mayor cantidad de
tantas personas como sea posible a precios asequibles. En el proceso, ha establecido un
organización llamada “Iniciativa para el Acceso Especial a la Atención Médica (ISHA)” que invita
pertenencia de los individuos. ISHA hizo arreglos contractuales con varios
de proveedores de salud privados para ofrecer varios servicios a sus miembros. Él tuvo
armar acuerdos contractuales con diferentes hospitales corporativos, diagnóstico
centros de servicio y farmacias. Los miembros de ISHA se benefician de los servicios con grandes
descuentos de estos proveedores de atención médica privados. Los proveedores de servicios se
benefician de las economías de escala a través de una mayor demanda de sus servicios por parte
de los miembros de ISHA.
Como parte del acuerdo, los miembros de ISHA reciben una cierta cantidad de consultas
gratuitas de cualquier médico en los principales hospitales, incluidas las consultas dentales.
Además, también obtienen dos limpiezas dentales y raspaduras gratis en ciertas clínicas dentales.
Los miembros también son elegibles para dos “chequeos de salud completos” gratuitos por año.
Los farmacéuticos participantes otorgan un descuento mínimo del 20% en medicamentos sujetos
al monto mínimo facturado. Los miembros también obtienen descuentos en varias pruebas de
diagnóstico, incluidas las pruebas de radiología.
Estos beneficios están disponibles para los miembros de ISHA. La membresía está disponible
de forma individual y familiar. La membresía familiar cubre un máximo de cuatro miembros. Se
pueden agregar miembros adicionales a la membresía familiar pagando una cantidad adicional
por persona.
La economía de todo el modelo depende de adquirir una masa crítica de miembros. ISHA
decidió aprovechar el creciente acceso a la web para impulsar su campaña de membresía. Han
iniciado una campaña de correo electrónico para inscribir miembros con un éxito muy limitado.
También se dieron cuenta de que las campañas en los medios impresos no pueden orientarse de
manera enfocada, lo que genera altos costos de campaña y bajas tasas de conversión. Karthik
finalmente decidió recurrir a una campaña basada en la web utilizando publicidad gráfica con
búsqueda orgánica y AdWords. ISHA contrató a "Web Analytics Services India Limited (WASIL)"
que tiene experiencia en la creación, prueba y ejecución de campañas publicitarias basadas en la
web.
WASIL está dispuesto a trabajar con ISHA en un modelo de pago basado en resultados. Las
tarifas pagaderas a WASIL dependerán del éxito de la campaña en términos de adquisición de
miembros. WASIL ha formado un equipo de tres miembros para crear y ejecutar la campaña.
Rajeev encabeza el equipo con Subbu y Krithika como los otros dos miembros. El equipo decidió
diseñar primero un conjunto de objetos que se pueden juntar en un anuncio gráfico basado en
palabras clave en cadenas de búsqueda.
“El azul siempre se asocia con la salud, como lo es con BlueCross”, dijo Subbu.
“Deberíamos tener color azul en el borde. Eso lo hará notorio y definitivamente conducirá a
mejores tasas de clics”. Subbu y otros miembros de su equipo están discutiendo los cambios que
se deben realizar en el anuncio publicitario de ISHA. Actualmente, ISHA no utiliza ningún color en
su publicidad. Es muy simple con un fondo blanco liso y una fuente en negrita en negro. Tampoco
tiene un botón de clic. El visitante potencial puede hacer clic en cualquier parte del anuncio y lo
llevará a la página de inicio de ISHA.
Rajeev estuvo de acuerdo con Subbu en que debería haber un borde con un color. Rajeev es
un apasionado del verde y siente que brinda una sensación relajante que podría asociarse
fácilmente con los servicios de salud. Krithika sugirió que pueden usar dos versiones diferentes,
una con azul y la otra con verde. Dado que todos estuvieron de acuerdo en que un color en el
borde es absolutamente necesario, la prueba A/B se puede realizar con los dos colores.
Machine Translated by Google
758 V. Nagadevara
“Necesitamos tener un botón CTA (llamado a la acción). Como ya estamos experimentando con
azul y verde en el borde, el CTA tiene que ser rojo”, dijo Krithika.
“Aquí nuevamente, tenemos un amplio margen para la experimentación. ¿Deberíamos probar dos
colores diferentes? preguntó Rajeev. El resto de los miembros del equipo no estaban de acuerdo con
diferentes colores. Consideraron que ya hay dos colores, uno en el borde y otro en el CTA. El texto
tendrá un color diferente, al menos negro. Sintieron que tener más de tres colores en un anuncio
gráfico puede hacer que se vea llamativo y también puede ser discordante para el visitante. Rajeev
dijo: “No podemos dejarlo como un botón. Necesitamos poner un 'texto de llamado a la acción' en el
botón, como 'Haga clic aquí para guardar'. Llamará más la atención. Hay suficientes estudios para
demostrar que un texto asociado siempre reforzará y dará mejores resultados”. Subbu sintió que
deberían agregar más información en el texto de acción por clic. “Poner un número como 'Ahorre
hasta un 70%' obtendrá una mejor respuesta”. Rajeev no estaba convencido. Sintió que destacar un
porcentaje tan grande de ahorro podría hacer que la gente sospechara de los beneficios.
Mucha gente piensa que tales grandes descuentos no son posibles en el cuidado de la salud, a pesar
de que los laboratorios ofrecen un 70% de descuento en pruebas de laboratorio específicas. Después
de una discusión prolongada, el equipo decidió probar ambas versiones como otro tratamiento en las
pruebas A/B.
El diseño actual del anuncio de ISHA es que los visitantes, cuando hacen clic en el anuncio, son
llevados a la página de inicio. Se espera que el visitante mire primero la página de inicio y navegue
desde allí a otras páginas relevantes. El equipo consideró que no es suficiente hacer que el visitante
haga clic en el anuncio y llegue al sitio web. La conversión real es cuando el visitante se convierte en
miembro pago, al menos a modo de prueba. Cualquier miembro puede retirar su membresía dentro
de los 15 días posteriores al registro y obtener un reembolso completo. El equipo consideró que la
página de destino tendrá un gran impacto en la conversión.
Los miembros del equipo también creían que la página de destino debería ser dinámica. Debe
basarse en la cadena de búsqueda o en AdWords que lleva al anuncio gráfico. Si los visitantes
buscan pruebas de laboratorio, la página de inicio debe ser la de las pruebas de laboratorio, con una
lista de laboratorios ubicados en una ciudad en particular y los descuentos correspondientes. Por otro
lado, si el visitante estaba buscando una consulta médica, la página de destino debería corresponder
a médicos o clínicas respectivas. Finalmente, el equipo acordó que la página de destino también será
tratada como un tratamiento con la página de inicio como control.
El equipo concluyó que debían seguir adelante con los cuatro tratamientos. El equipo resumió la
propuesta final como se muestra en la siguiente tabla.
WASIL y Karthik aprobaron la propuesta del equipo y WASIL ejecutó la campaña con los cuatro
tratamientos anteriores durante un período de 1 mes. Los datos se recopilaron en términos de número
de visitantes potenciales expuestos a cada tipo de anuncio (muestra
Machine Translated by Google
tamaño), número de visitantes que hicieron clic en el anuncio (clics) y, por último, el número de
conversiones (miembros). El conjunto de datos "membership_drive_isha.csv" está disponible en
el sitio web del libro.
Preguntas
(a) ¿Cuál de los cuatro tratamientos es más efectivo? ¿Cuál es el nivel adecuado para cada
de los tratamientos?
(b) ¿Existen efectos de interacción entre los tratamientos?
(c) ¿Cuál sería el diseño final del anuncio para maximizar las conversiones?
Machine Translated by Google
760 V. Nagadevara
Vishnuprasad Nagadevara
La reunión
“Creo que fue Wanamaker quien dijo 'La mitad del dinero que gasto en publicidad se
desperdicia; el problema es que no sé qué mitad'. No puedo aceptar eso hoy. Nuestro costo
de publicidad es casi el 12% de nuestros ingresos y necesito saber a dónde va”, dijo Yajvin.
“Quiero decir que sabemos exactamente dónde estamos gastando el dinero, pero necesito
saber qué estamos recibiendo. ¿Cuál es el efecto de cada uno de los canales en los que
estamos invirtiendo?”
Yajvin informa a Swetha sobre su nueva misión. Yajvin es el director ejecutivo de la
empresa en línea “Antiques in Modernity (AiM)”. Antiques in Modernity se especializa en
dispositivos electrónicos modernos que tienen el aspecto de las antigüedades. Swetha dirige
la empresa de consultoría de análisis “NS Analytics Unlimited”, que brinda servicios de
consultoría a varias empresas. Además de brindar servicios de consultoría, NS Analytics
también brinda capacitación a las empresas clientes para que puedan ser lo más autosuficientes
posible en términos de análisis. Su lema es "Nos hacemos redundantes construyendo
experiencia". NS Analytics ha sido contratado por Antiques in Modernity para analizar su gasto
en publicidad y también asesorarlos sobre la mejor manera de mejorar el ROI de su inversión
en publicidad.
“Nuestros productos son muy especiales. Mira este tocadiscos. Parece una antigüedad, y
en realidad puedes reproducir un disco de gramófono de los Beatles. Pero se puede utilizar
como altavoz Bluetooth; puede conectarse a su asistente doméstico como Amazon Echo o
Google Home; incluso se puede conectar a tu móvil. ¡Puede transmitir música desde este
tocadiscos a cualquier otro dispositivo, incluso en su patio trasero!” dijo Yajvin (Fig. 21.7).
“Algo similar sucede con nuestro antiguo teléfono de pared. Se puede utilizar como teléfono
con cable o como teléfono inalámbrico. Estamos en el proceso de rediseñarlo para que usted
puede llevar el auricular fuera de su casa y usarlo como teléfono. Pero volvamos a nuestro problema.
Como decía, invertimos mucho dinero en publicidad en diferentes canales. Necesitamos averiguar el
efecto de cada uno de estos canales. Entiendo que muchos de estos canales se complementan entre
sí en los mercados actuales. ¿Podemos aislar de alguna manera los efectos de cada uno, para que
nuestra inversión publicitaria pueda optimizarse? preguntó Yajvin.
Swetha respondió diciendo que hay muchos modelos que se pueden usar para abordar el
problema, pero tales modelos requieren grandes cantidades de datos confiables.
También dijo que cada uno de estos modelos puede dar resultados diferentes, y es necesario
comprender los supuestos involucrados en cada uno de estos modelos para poder elegir el que sea
más aplicable a un escenario en particular. Yajvin la puso en contacto con su director de información,
Skanda, para que Swetha pueda tener una idea del tipo de datos que está disponible con la empresa
y también explicarle sus requisitos de datos.
Skanda explicó los datos disponibles con ellos. “Dependemos principalmente de la publicidad en
línea. Invertimos una pequeña cantidad en los medios impresos, pero la mayor parte de nuestra
publicidad está en los sitios web de redes sociales, AdWords y similares. También recibimos una
buena cantidad de tráfico directo a nuestro sitio web. Dado que todas nuestras ventas son solo en
línea, tiene sentido que trabajemos de esta manera”, dijo Skanda. “Tenemos un sistema de seguimiento
de nuestros clientes potenciales a través de diferentes canales. Tratamos de recopilar la mayor
cantidad de datos, de manera confiable, como sea posible”.
Antigüedades en la Modernidad
Antiques in Modernity fue una empresa nueva, iniciada en Sunnyvale, California, por Yajvin y Skanda
hace 3 años. Yajvin se graduó de uno de los prestigiosos institutos técnicos de la India con
especialización en electrónica y luego realizó su maestría en administración de empresas en una
reconocida escuela de administración en Europa. Después de su MBA, trabajó como gerente de
desarrollo de productos en una empresa europea. Después de 5 años en la empresa, se mudó a San
José como gerente de marketing de una empresa de productos de software. Mientras se movía de
una empresa a otra en los siguientes 12 años, permaneció en la función de marketing.
762 V. Nagadevara
El hecho de que ambos se sintieran cómodos con el marketing basado en la web jugó un papel
importante en la toma de la decisión. También habían decidido utilizar la mayor cantidad posible
de publicidad en línea.
AiM utiliza anuncios gráficos en las redes sociales, especialmente en LinkedIn, Twitter y
Facebook. También utilizan Google AdWords para mostrar sus anuncios en función de las
cadenas de búsqueda utilizadas por los clientes potenciales. También realizan un seguimiento
de los clientes que llegan a su sitio a través de la búsqueda orgánica. Dado que sus productos
se venden solo a través de Internet desde su propio sitio web, la conversión final es cuando el
cliente realiza el pedido. Utilizan varios métodos para rastrear los canales desde los cuales los
clientes llegan a su sitio web.
Los datos
Durante su reunión, Skanda le prometió a Swetha que puede proporcionar detalles de todos y
cada uno de los embudos desde la primera visita a su sitio web, así como la referencia de un
cliente (o cliente potencial). Swetha sintió que no hay razón para mirar los embudos que están
incompletos, lo que puede o no conducir a la conversión en una fecha posterior. Solicitó datos
solo sobre los embudos que dieron como resultado la conversión final.
También hay muchos clientes habituales que escriben la URL directamente y acceden al sitio
web y realizan compras. Del mismo modo, hay algunos que compran artículos en su primera
visita al sitio web. Skanda le dijo que puede proporcionar detalles de cada embudo
correspondiente a todas y cada una de las conversiones. Consideró que esos datos detallados
podrían ser útiles porque AiM vende diferentes productos y los márgenes de ganancia son
diferentes para diferentes productos. Por otro lado, Swetha consideró que tal detalle no era
necesario porque los anuncios no son específicos de ningún producto en particular.
Incluso los anuncios gráficos que AiM crea sobre la marcha en función de AdWords o cadenas
de búsqueda, no son específicos del producto. El tema principal de estos anuncios es que sus
productos son de última tecnología, pero empacados como antigüedades. Tampoco son
realmente antigüedades. Por lo tanto, sugirió que Skanda resumiera los datos "en forma de
embudo". También sugirió que todos los canales de redes sociales se pueden agrupar en un
solo canal con el fin de realizar un análisis inicial. “Podemos profundizar en diferentes redes
sociales por separado en una fecha posterior. De hecho, podrá hacerlo usted mismo después
de que capacitemos a su gente”, dijo.
Finalmente, han acordado concentrarse en cuatro canales: redes sociales (Canal A),
AdWords (Canal B), búsqueda orgánica (Canal C) y directo (Canal D).
También se decidió mantener el orden real de los canales dentro de cada embudo. Cada
embudo debe leerse como la secuencia de los canales. Por ejemplo, ABCD implica AÿBÿCÿD.
Swetha explicó que el orden se vuelve importante para estimar la contribución de cada canal
bajo diferentes modelos. Luego estaba la cuestión de la métrica final. ¿La métrica final para la
conversión debería ser los ingresos, el margen de beneficio o simplemente la cantidad de
artículos vendidos? Actualmente, AiM está pasando por un importante ejercicio de cálculo de
costos, especialmente en términos de asignación de costos fijos/no variables a diferentes
productos. Se consideró que la opción del margen de beneficio no es apropiada hasta que el
Machine Translated by Google
Lecturas adicionales
Abhishek, V., Despotakis, S. y Ravi, R. (2017). Atribución multicanal: El punto ciego de la publicidad online. Recuperado
el 16 de marzo de 2018, de https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2959778 .
Fischer, T. (2018). ROI en las redes sociales: una mirada a los argumentos. Marketing de bases de datos y gestión de
estrategias de clientes, 16(3), 189–195. Tracy L. Tuten, Michael R. Solomon, marketing en redes sociales, Sage
Publishing.
Ganis, M. y Kohirkar, A. (2016). Analítica de redes sociales. Nueva York, Nueva York: IBM Press.
Gardner, J. y Lehnert, K. (2016). ¿Qué hay de nuevo en los nuevos medios? Cómo funcionan las redes multicanal con
los creadores de contenido. Business Horizons, 59, 293–302.
Hawn, C. (2017). Tómate dos aspirinas y tuiteame por la mañana: Cómo twitter, facebook y otros
las redes sociales están remodelando la atención médica. Asuntos de Salud, 28(2), 361.
Kannan, PK, Reinartz, W. y Verhoef, PC (2016). El camino hacia el modelo de compra y atribución: Introducción a la
sección especial. Revista Internacional de Investigación en Marketing, 33, 449–456.
WilliamRibarsky, DXW y Dou, W. (febrero de 2014). Análisis de redes sociales para la competencia
ventaja. Computadoras y Gráficos, 38, 328–331.
Zafarani, R., Abbasi, MA y Liu, H. (2014). Minería en redes sociales. Cambridge: Cambridge
Prensa Universitaria.
Machine Translated by Google
capitulo 22
Análisis de atención médica
e interpretación de datos, las nuevas tecnologías han dado lugar a una serie de nuevas aplicaciones.1
Por ejemplo, el análisis de datos permite la detección temprana de epidemias,2 la identificación de
moléculas (que desempeñará un papel sin precedentes en la lucha contra el cáncer3), y nuevos métodos
para evaluar la eficacia de los programas de vacunación.4 Si bien la capacidad de estas herramientas
para aumentar la eficiencia y la eficacia parece ilimitada, sus aplicaciones deben tener en cuenta tanto
sus limitaciones como su poder.
Si una cantidad suficiente de los datos pertinentes se pueden transmitir de otras maneras es una pregunta
clave que muchos investigadores están trabajando para responder.
La situación está cambiando rápidamente debido a la práctica de la telemedicina. La firma de
investigación de mercado Mordor Intelligence espera que la telemedicina, que ya es un mercado
floreciente, crezca a 66 600 millones de dólares para 2021, creciendo a una tasa de crecimiento anual
compuesta del 18,8 % entre 2017 y 2022.5 Las nuevas tecnologías portátiles pueden ayudar a los
cuidadores al recopilar datos durante períodos de tiempo mucho más mayor que una visita al consultorio
o una estadía en el hospital en una amplia variedad de entornos. Los algoritmos pueden usar estos datos
para sugerir cursos de acción alternativos y garantizar que no se pasen por alto síntomas nuevos o no
informados. Las tecnologías portátiles, como Fitbit o Apple Watch, pueden rastrear continuamente varios
factores relacionados con la salud, como la frecuencia cardíaca, la temperatura corporal y la presión
arterial con facilidad. Esta información se puede transmitir a médicos
1El artículo de Forbes de octubre de 2016 proporcionó muchos de los datos de esta introducción : https://
www.forbes.com/sites/mikemontgomery/2016/10/26/the-future-of-health-care-is-in- análisis de datos /
#61208ab33ee2 (consultado el 19 de agosto de 2017). 2https://malariajournal.biomedcentral.com/articles/
10.1186/s12936-017-1728-9 (consultado el 20 de agosto de 2017). 3http://cancerres.aacrjournals.org/
content/75/15_Supplement/3688.short (consultado el 20 de agosto de 2017). 4https://www.ncbi.nlm.nih.gov/
pmc/articles/PMC4287086 (consultado el 20 de agosto de 2017). 5https://www.mordorintelligence.com/
industry-reports/global-telemedicine-market-industry (consultado el 23 de agosto de 2017).
Machine Translated by Google
personal en tiempo real. Por ejemplo, las instituciones militares utilizan sensores montados en el
pecho para determinar los puntos en los que los soldados se fatigan y pueden sugerir opciones
tácticas basadas en esta información.
Si bien algunas tecnologías portátiles están a la vanguardia y, por lo tanto, a menudo son costosas,
la telemedicina puede usar hardware económico y resistente para facilitar los diagnósticos.
Los médicos pueden usar kits electrónicos como el Swasthya Slate,6 que se usa en clínicas
comunitarias en Nueva Delhi, para realizar pruebas de azúcar en la sangre y electrocardiogramas y
controlar la temperatura y la presión arterial de un paciente.7 En Kigali, Ruanda, una empresa de
salud digital Babylon está probando un servicio que permitirá a los pacientes hacer videollamadas a
los médicos en lugar de esperar en las filas de los hospitales. En economías que sufren grandes
cargas en la atención médica y escasez de profesionales capacitados, intervenciones como estas
pueden ayudar a ahorrar tiempo, dinero y vidas.
La aplicación adecuada de tales tecnologías puede evitar que la falta de experiencia del usuario
enturbie la recopilación o transmisión de datos. Normalmente, los médicos aprenden sobre los
síntomas físicos junto con las experiencias del paciente a través de interacciones cara a cara. Esto
añade un desfase entre la experiencia y su discusión, así como la interpretación subjetiva del paciente.
Su eficacia también depende de la capacidad del paciente para transmitir la información con precisión.
El registro directo de datos puede cerrar estas brechas asegurando que el médico reciba información
objetiva al mismo tiempo que comprende las circunstancias específicas del paciente. Esta transmisión
de información se puede combinar con elementos adicionales que incluyen cámaras web y software
de llamadas de voz en línea. Esto permite que los médicos y los pacientes permanezcan en contacto
con respecto a los diagnósticos sin la necesidad de que el paciente se desplace físicamente a un
hospital u oficina.
Por lo tanto, se hacen posibles nuevas métricas, se aumenta la precisión y se ahorra tiempo, mientras
que se reducen los costos. Además, estas soluciones pueden ayudar a brindar atención proactiva en
caso de emergencia médica.
Los beneficios del análisis de datos no se limitan solo al diagnóstico. El análisis de datos también
facilita el aprovechamiento de la tecnología para garantizar que los pacientes reciban diagnósticos de
manera oportuna y programen el tratamiento y las interacciones de seguimiento según sea necesario.
La analítica ya desempeña un papel clave en la programación de citas, la adquisición de medicamentos
y la garantía de que los pacientes no se olviden de tomar sus medicamentos.
La ventaja de utilizar técnicas de big data no se limita a la transmisión de datos utilizados para el
diagnóstico. El análisis de datos es clave para comprender los mecanismos fundamentales de las
funciones del cuerpo. Incluso en los casos en que se comprende bien la función física del cuerpo, los
grandes datos pueden ayudar a los investigadores a analizar las innumerables formas en que cada
individuo reacciona a los estímulos y al tratamiento. Esto puede llevar a un tratamiento más
personalizado y a una disminución de los efectos secundarios. Al analizar las interacciones específicas
entre los medicamentos y el cuerpo, el análisis de datos puede ayudar a ajustar las dosis, reducir los
efectos secundarios y ajustar las prescripciones caso por caso. Geno Germano,
6https://www.thebetterindia.com/49931/swasthya-slate-kanav-kahol-delhi-diagnostic-tests/ (consultado el 16
de julio de 2018). 7https: //www.economist.com/international/2017/08/24/en-los-paises-pobres-es-mas-facil-
que-nunca-ver-un-medico (consultado el 15 de septiembre de 2018).
Machine Translated by Google
El expresidente del grupo Global Innovative Pharma Business de Pfizer dijo en 2015 que los médicos podrían
(en un futuro cercano) usar datos sobre el ADN de los pacientes para generar tratamientos específicos y
personalizados y consejos de salud que podrían ahorrar tiempo y garantizar mejores resultados. 8
La capacidad de analizar múltiples flujos de datos relacionados en tiempo real se puede aplicar para crear
simulaciones del cuerpo humano. El uso de tales simulaciones permite a los investigadores realizar
experimentos y recopilar información virtualmente, sin dolor y a bajo costo.
Al construir modelos artificiales de todas o algunas partes del cuerpo, las técnicas de big data pueden
aprovechar el poder computacional para analizar diferentes tratamientos. Iniciativas como el Virtual Physiological
Human Institute9 tienen como objetivo reunir diversas técnicas y enfoques de modelado para obtener una
comprensión mejor y más holística del cuerpo y, a su vez, impulsar el análisis y la innovación.
Los análisis se utilizan en el estudio y la mejora de las operaciones de atención médica para mejorar el
bienestar del paciente, aumentar el acceso a la atención y eliminar los desperdicios. Por ejemplo, al analizar
los tiempos de espera y el comportamiento de los pacientes, los científicos de datos pueden sugerir políticas
que reduzcan la carga de los médicos, liberen recursos valiosos y garanticen que más pacientes reciban la
atención que necesitan cuando y donde la necesitan. Las técnicas de simulación que predicen el tráfico de
pacientes pueden ayudar a las salas de emergencia a prepararse para un mayor número de visitas,10 mientras
que los sistemas que rastrean cuándo y dónde ingresan los pacientes facilitan que las enfermeras y los
administradores asignen camas a nuevos pacientes.11 Las tecnologías modernas también pueden ayudar en
el prestación de atención de seguimiento, es decir, después de que el paciente haya salido del hospital. El
software y el hardware que rastrean síntomas físicos importantes pueden detectar patrones de desviación y
alertar a pacientes y cuidadores.
Al hacer coincidir dichos patrones con las historias de los pacientes, pueden sugerir soluciones e identificar
complicaciones. Al recordarles a los pacientes las citas de seguimiento, pueden reducir la rehospitalización.
También se necesitan análisis para guiar el uso de tecnologías de la información relacionadas con la
actualización de los registros de los pacientes y la coordinación de la atención entre los proveedores a través
del tiempo o las ubicaciones. Las tecnologías como los dictáfonos y los diarios digitales tienen como objetivo
recopilar y preservar los datos de los pacientes de manera conveniente. El análisis cuidadoso de estos datos
es clave cuando se trabaja para utilizar estas tecnologías para reducir los esfuerzos redundantes y eliminar
malentendidos cuando la atención se transfiere de un proveedor a otro.
Hay muchas aplicaciones de análisis relacionadas con la detección de peligros para la salud y la
propagación de enfermedades: Los métodos de big data ayudan a las aseguradoras a aislar tendencias en
enfermedades y comportamientos, lo que les permite ajustar mejor las primas de riesgo al riesgo de un comprador individual.
8https://www.forbes.com/sites/matthewherper/2015/02/17/how-pfizer-is-using-big-data-to power-
patient-care/#7881a444ceb4 (consultado el 21 de agosto de 2017). 9http://www.vph-institute.org
(consultado el 1 de septiembre de 2017). 10http://pubsonline.informs.org/doi/10.1287/msom.2015.0573
(consultado el 21 de agosto de 2017). 11http://www.bbc.com/news/business-25059166 (consultado
el 21 de agosto de 2017).
Machine Translated by Google
perfil. Por ejemplo, un proveedor de seguros de salud con sede en EE. UU.12 ofrece Nest Protect,13 una alarma
de humo y un monitor de monóxido de carbono a sus clientes y también ofrece un descuento en las primas de
seguro si instalan estos dispositivos. Las aseguradoras utilizan los datos generados por estos dispositivos para
determinar la prima y también para predecir reclamaciones.
El proveedor de información LexisNexis rastrea las variables socioeconómicas14 para predecir cómo y cuándo
enfermarán las poblaciones. Ogi Asparouhov, científico de datos en jefe de LexisNexis, sugiere que el estilo de
vida socioeconómico, el empleo del consumidor y los datos de las redes sociales pueden agregar mucho valor a
la industria de la salud.
C
El uso de Google Trends los datos, es decir, el historial de búsquedas en Internet, en la
investigación sobre atención de la salud se multiplicó por siete entre 2009 y 2013. Esta investigación involucra
una amplia variedad de diseños de estudio que incluyen análisis causales, nuevas estadísticas descriptivas y
15
métodos de vigilancia (Nuti et al. 2014). Google Brain, un proyecto de investigación de Google, utiliza
aprendizaje técnicas
automático de
para
predecir los resultados de salud a partir de los datos médicos de un paciente.16 El seguimiento de los patrones
meteorológicos y su conexión con las epidemias de gripe y resfriado está bien documentado. El programa Atlas of
Health and Climate17 de la Organización Mundial de la Salud es un ejemplo de la colaboración entre las
comunidades metrológicas y de salud pública.
Mediante la recopilación de diversos tipos de datos y el uso de poderosas herramientas analíticas, las
aseguradoras pueden predecir mejor el fraude, determinar los cursos de acción apropiados y regular los
procedimientos de pago. Un estudio de caso completo (Seguro Ideal) se incluye en el Cap. 25 que describe cómo
se pueden usar los análisis para crear reglas para clasificar las reclamaciones en aquellas que se pueden resolver
de inmediato, aquellas que necesitan más discusión y aquellas que deben ser investigadas por una agencia
externa.
Estas técnicas, sin embargo, no están exentas de desafíos. Históricamente, la heterogeneidad de los datos
en el cuidado de la salud y las preocupaciones sobre la privacidad han sido importantes obstáculos en la industria.
Diferentes médicos y enfermeras pueden registrar datos idénticos de diferentes maneras, lo que dificulta el
análisis. La extracción de datos de sensores como rayos X y ultrasonidos y máquinas de resonancia magnética
sigue siendo un desafío técnico continuo, porque la calidad de estos sensores puede variar enormemente.18
Las técnicas de big data en el cuidado de la salud también suelen depender de datos en tiempo real, lo que
ejerce presión sobre los sistemas de tecnología de la información para entregar datos de manera rápida y confiable.
A pesar de estos desafíos, se espera que las técnicas de big data sean un impulsor clave del cambio
tecnológico y la innovación en este sector en las próximas décadas. El resto de este capítulo discutirá
en detalle el uso de datos y técnicas de simulación en centros médicos académicos (AMC) para
mejorar el flujo de pacientes.
Las demandas de mayor capacidad y costos reducidos en entornos ambulatorios crean la necesidad
de una estrategia coherente sobre cómo recopilar, analizar y usar datos para facilitar las mejoras del
proceso. Específicamente, esta nota se enfoca en el desempeño del sistema relacionado con los
flujos de pacientes en clínicas ambulatorias en centros médicos académicos que programan pacientes
por citas. Describimos formas de mapear estas visitas a medida que mapeamos procesos,
recolectamos datos para describir formalmente los sistemas, creamos simulaciones de eventos
discretos (DES) de estos sistemas, usamos las simulaciones como un laboratorio virtual para explorar
posibles mejoras del sistema e identificamos propuestas como candidatas para implementación.
Cerramos con una discusión de varios proyectos en los que hemos utilizado nuestro enfoque para
comprender y mejorar estos sistemas complejos.
2.1 Introducción
A partir de 2016, la Ley del Cuidado de Salud a Bajo Precio (ACA, por sus siglas en inglés) extendió
el acceso a la cobertura de seguro médico a aproximadamente 30 millones de estadounidenses que
anteriormente no tenían seguro, y esa expansión de la cobertura está vinculada a entre 15 y 26
millones de visitas adicionales de atención primaria al año (Glied y Ma 2015; Beronio et al. otros
2014). Además, se espera que la cantidad de personas mayores de 65 años en los EE. UU. aumente
de 43,1 millones en 2012 a 83,7 millones para 2050 (Ortman et al. 2014). Este aumento en el número
de estadounidenses asegurados, junto con el crecimiento anticipado en el tamaño de la población
mayor de 65 años, se correlacionará con la creciente demanda de servicios de atención médica.
Al mismo tiempo, Medicare y otros pagadores se están alejando del antiguo modelo de “tarifa por
servicio” hacia esquemas de “pago combinado” (Cutler y Ghosh 2012). Según estos arreglos, a los
proveedores se les paga una suma global para tratar a un paciente o población de pacientes. Esto
fija los ingresos relacionados con el paciente y significa que estos pagos solo se pueden aplicar a los
costos fijos si los costos variables son menores que el pago. Esperamos que el surgimiento continuo
de esquemas de pago combinado acelere el cambio gradual del tratamiento hospitalario a la
prestación de atención a través de entornos ambulatorios que ha estado ocurriendo durante más de
20 años.
En consecuencia, una parte desproporcionada del crecimiento de la demanda se procesará a través
de clínicas ambulatorias, en lugar de camas de hospital. Esta evolución también se considera una de
las estrategias clave necesarias para ayudar a acercar el costo de la atención médica en los EE. UU.
a los costos experimentados en otros países desarrollados (Lorenzoni et al. 2014).
Machine Translated by Google
Un factor de complicación adicional es que la prestación de atención médica en los EE. UU. a
menudo se entremezcla con la enseñanza y la capacitación de la próxima generación de proveedores
de atención. En 2007, se realizaron aproximadamente 40 millones de visitas ambulatorias a hospitales
universitarios conocidos como centros médicos académicos (AMC) (Hing et al. 2010). La inclusión del
componente de enseñanza dentro del proceso de atención aumenta dramáticamente la complejidad
de cada visita del paciente. El modelo clásico de una visita ambulatoria en la que una enfermera lleva
al paciente a una sala de examen y el médico ve al paciente y luego sale de la clínica no es una
descripción suficiente del proceso en el AMC. Agregar un médico residente o becario (aprendiz) al
proceso introduce pasos para las interacciones entre el aprendiz y el paciente, así como las
interacciones entre el aprendiz y el médico tratante (asistente). Estos pasos adicionales aumentan los
tiempos de flujo, la cantidad y los niveles de recursos desplegados y la congestión del sistema (Boex
et al. 2000; Franzini y Berry 1999; Hosek y Palmer 1983; Hwang et al. 2010). Los retrasos agregados
son fáciles de entender cuando se considera el hecho de que el aprendiz generalmente tarda más
que el asistente en completar la misma tarea y muchos entornos de enseñanza exigen que tanto el
aprendiz como el asistente pasen tiempo con cada paciente en el horario de la clínica (Williams et al.
2007; Taylor et al. 1999 ; Sloan et al. 1983).
Para hacer más concreto el resto de nuestra discusión, introduzcamos una unidad de análisis
representativa. Los datos asociados con esta unidad se tomarán de una combinación de clínicas que
hemos estudiado, pero no pretende ser una representación completa de
Machine Translated by Google
cualquier unidad en particular. Considere un paciente con una cita para ver al asistente en una clínica
dentro de un AMC. Trabajaremos con una simulación de eventos discretos (DES) de este proceso. DES
es el enfoque de crear un modelo matemático de los flujos y actividades presentes en un sistema y usar
este modelo para realizar experimentos virtuales que buscan encontrar formas de mejorar el rendimiento
medible (Benneyan 1997; Clymer 2009; Hamrock et al. 2013; Jun et al. . 1999). En la Fig. 22.1 se
presenta una captura de pantalla de dicho DES y se duplicará como un mapa de proceso simplificado.
Por simplificado, queremos decir que varios de los bloques que se muestran en la figura en realidad
envuelven varios bloques que manejan los detalles del modelo. Las versiones de este y otros modelos
similares junto con ejercicios enfocados en su análisis y uso están vinculados a este capítulo.
Tenga en cuenta que la figura también contiene una muestra de entradas y salidas del modelo de la
simulación en sí. Discutiremos varias de estas métricas en breve.
En esta representación, un bloque crea unidades de trabajo (pacientes) de acuerdo con un
programa de citas. El bloque denominado “Llegada” combina estas horas de cita con una variable
aleatoria que refleja la impuntualidad del paciente para obtener las horas de llegada reales. Una vez
creado, los pacientes pasan al Paso 1. Justo encima del Paso 1, mostramos un bloque que sirve como
cola en caso de que los recursos del Paso 1 estén ocupados. En el Paso 1, el paciente interactúa con
el personal de la recepción. Etiquetaremos este paso como "Registro" con el entendimiento de que
puede incluir la recopilación de datos y tal vez alguna educación del paciente. En el Paso 2, una
enfermera lleva al paciente a una sala de examen, recopila datos sobre los signos vitales y hace
algunas preguntas sobre el estado del paciente. Etiquetaremos este paso como "Vitales". En el Paso 3,
un aprendiz revisa el registro del paciente y entra a la sala de examen para interactuar con el paciente.
Etiquetamos este paso como "aprendiz". En el Paso 4, el alumno sale de la sala de examen e interactúa
con el asistente. Etiquetamos este paso como "Enseñar". Durante este tiempo, el aprendiz puede
presentar información del caso al asistente y la pareja analiza los próximos pasos, los posibles
problemas y la necesidad de información adicional. En el Paso 5, el aprendiz y el asistente ingresan a
la sala de examen e interactúan con el paciente. Etiquetamos este paso como "Asistir". Después de
este paso, el aprendiz, el asistente y la sala son "liberados", lo que significa que son libres de ser
Machine Translated by Google
asignado al siguiente paciente. Finalmente, el paciente regresa a la recepción para "Salir". Este paso
puede incluir el cobro del pago y hacer una cita para una visita futura.
Gran parte del desarrollo temprano de las universidades orientadas a la investigación en los EE. UU.
fue impulsado por la necesidad de investigación relacionada con el cuidado de la salud (Chesney 1943).
En consecuencia, cuando se trabaja con médicos y otros profesionales de la salud en el AMC, ya existe
un punto de partida conveniente para la discusión. La investigación en la mayor parte de la atención
médica aborda preguntas mediante ensayos aleatorios o implementaciones piloto. Por lo general, se
centran en experimentos formales cuidadosamente diseñados y realizados en entornos clínicos o de
laboratorio. Este enfoque de investigación basado en experimentos ha demostrado ser altamente
efectivo y muchos lo consideran la mejor manera de producir resultados basados en evidencia sobre
cuestiones médicas relacionadas con temas que incluyen la eficacia de un nuevo medicamento o la
eficiencia de una nueva técnica. Una forma de obtener la aceptación de los profesionales en el AMC es
adoptar un enfoque muy similar a los problemas relacionados con el flujo de pacientes.
Al mismo tiempo, la investigación de operaciones (OR) ha tenido una larga historia de uso de
herramientas para mejorar los procesos de prestación de servicios. OR emplea un paradigma de
investigación de modelado predictivo que utiliza ecuaciones matemáticas, lógica informática y
herramientas relacionadas para pronosticar las consecuencias de elecciones de decisiones particulares
(Sainfort et al. 2005). Por lo general, esto se hace en abstracción sin un experimento formal. Este
enfoque permite que la consideración de opciones alternativas se evalúe y compare rápidamente para
ver cuáles tienen más probabilidades de producir los resultados preferidos. Muchas áreas tradicionales
de quirófano prevalecen en la gestión clínica. Estos temas incluyen
Machine Translated by Google
programación de citas (Cayirli et al. 2006), problemas de lista de enfermeras (Burke et al. 2004),
problemas de asignación de recursos (Chao et al. 2003), planificación de la capacidad (Bowers and
Mold 2005) y problemas de enrutamiento (Mandelbaum et al. 2012 ). ).
Dada esta confluencia de enfoques y necesidades, parece natural que aquellos que trabajan
para mejorar los procesos de atención médica empleen técnicas de OR como DES para realizar
experimentos virtuales controlados como parte del proceso de mejora. Sin embargo, cuando uno
mira más de cerca, encuentra que el historial de implementaciones de resultados basados en
hallazgos de OR en AMC es bastante pobre. Por ejemplo, una revisión de más de 200 artículos que
usaron DES en entornos de atención médica identificó solo cuatro que incluso afirmaron que el
comportamiento del médico cambió como resultado (Wilson 1981).
Una revisión más reciente encontró solo una instancia de una publicación que incluía un cambio
documentado en el desempeño de la clínica como resultado de una intervención motivada por
simulación (van Lent et al. 2012).
Esto plantea una pregunta importante: dado que claramente hay un interés activo en usar
modelos DES para mejorar el flujo de pacientes y hay mucho talento trabajando para que esto
suceda, ¿qué podemos hacer para usar esta técnica de una manera que resulte en un cambio real?
en el desempeño de la clínica? Prácticamente cualquier libro de texto de administración de
operaciones proporcionará una lista de factores necesarios para tener éxito en los proyectos de
mejora de procesos, como involucrar a todos los interesados desde el principio, identificar un
campeón del proyecto, establecer objetivos claros, dedicar los recursos necesarios, etc. (Trusko et
al. 2007). Sin embargo, queremos centrar esta discusión en dos elementos adicionales que son un
poco más sutiles y, según nuestra experiencia, a menudo marcan la diferencia entre el éxito y el
fracaso cuando se trabaja en clínicas ambulatorias en el AMC.
Primero, encontrar un problema importante no es suficiente. Es sumamente importante pensar
en términos de encontrar la pregunta correcta que también aborde el problema subyacente. Como
agentes o consultores externos, no estamos en condiciones de pagar dinero adicional a los profesores
y al personal para implementar cambios para mejorar el sistema. Necesitamos una forma de pago
diferente para motivar su participación. Una gran ventaja del modelo AMC es que podemos
aprovechar el hecho de que los médicos también son investigadores dedicados.
Por lo tanto, podemos usar la promesa de publicaciones en lugar de un pago en efectivo para inducir
la participación.
En segundo lugar, necesitamos encontrar la combinación correcta de técnicas. Los experimentos
y la recopilación de datos resuenan con los investigadores médicos. Sin embargo, la traducción de
"laboratorio" a "clínica" está llena de factores de confusión fuera del control del médico. Por otro lado,
las técnicas OR pueden aislar una sola variable o factor, pero el modelado por sí solo no mejora un
sistema, y las presentaciones matemáticas que se sienten completamente abstractas no resuenan
entre los profesionales. El aspecto único de nuestro enfoque es combinar herramientas OR con
experimentos "clínicos". Esto permite a los médicos proyectarse en el modelo de una manera que es
más destacada de lo que podrían ser las ecuaciones subyacentes. La idea clave es que existe valor
en encontrar una forma de fusionar las herramientas de quirófano con las metodologías de la
investigación médica para generar hallazgos útiles que realmente se implementarán para mejorar el
flujo de la clínica.
Machine Translated by Google
Teniendo en cuenta estos antecedentes, necesitamos un enfoque sistemático para describir, analizar y predecir
mejoras en el rendimiento en función de los cambios que se pueden realizar en estos sistemas. Para hacer esto,
necesitamos lograr al menos seis cosas, que forman la declaración de nuestro método:
1. Describa los procesos que brindan atención y/o servicio a los pacientes de manera relevante.
2. Recopilar datos sobre tiempos de actividad, flujos de trabajo y comportamiento de los agentes clave.
3. Crear un DES del sistema en estudio.
4. Experimente con sistemas reales y virtuales para identificar y probar posibles
cambios.
5. Desarrollar métricas de rendimiento de interés tanto para los pacientes como para los proveedores de atención.
6. Predecir cambios en las métricas que se derivan de cambios en el proceso.
Ahora pasamos a proporcionar un poco más de detalles sobre cada uno de estos pasos.
Paso 1: Descripción del proceso
Mucho se ha escrito sobre el mapeo de procesos en entornos de atención médica (Trusko et al. 2007; Trebble
et al. 2010). En muchos casos, la actividad de mapeo de procesos en sí misma sugiere múltiples cambios que
pueden mejorar el flujo de procesos. Sin embargo, algunas ideas relacionadas con las complicaciones específicas
de la atención médica de esta actividad merecen discusión.
Quizás la forma más obvia de desarrollar un mapa de procesos es pedir primero a los agentes del sistema que
describan el flujo de trabajo. Hemos descubierto que esto es absolutamente necesario y sirve como un excelente
punto de partida, pero nunca es suficiente. Los agentes del sistema a menudo proporcionan descripciones engañosas
del flujo del proceso. En muchos casos, los médicos no son plenamente conscientes de lo que hace el personal de
apoyo para que el proceso funcione, y los aprendices y el personal a menudo tienen mucho cuidado de no contradecir
a los médicos más experimentados. Para obtener descripciones de procesos de alta calidad, debemos recopilar
información imparcial de múltiples niveles de la organización. Idealmente, esto incluirá personal de apoyo, enfermeras,
pasantes y asistentes. En algunos casos, otros administradores también son valiosos, especialmente si hay un
gerente de departamento o alguna otra persona que recopila y reporta datos de desempeño de manera rutinaria. Es
ideal tener a todos estos agentes trabajando en el desarrollo de un mapa de procesos como grupo. Sin embargo, si
esto no se puede hacer, es aún más vital recopilar cuidadosamente información sobre los flujos de proceso desde
tantos ángulos diferentes como sea posible.
En segundo lugar, hemos encontrado que no importa cuánta información sobre el proceso se haya recopilado,
siempre se requiere la observación directa de agentes externos que trabajan en el proceso de mejora del proceso.
Todavía tenemos que encontrar una descripción del proceso creada por agentes internos que esté completamente
de acuerdo con nuestras observaciones. Los profesionales de la salud (comprensiblemente) anteponen la atención
al paciente a cualquier otra consideración.
En consecuencia, hacen excepciones a los flujos de procesos normales de forma rutinaria sin pensarlo dos veces.
Como resultado, su comportamiento diario casi siempre incluirá varias sutilezas que no recuerdan cuando se les
pregunta sobre el flujo del proceso.
Machine Translated by Google
Hemos utilizado cuatro formas de descubrir esta información. En primer lugar, se puede preguntar a los
agentes dentro del sistema cuánto tiempo lleva un paso del proceso. Esto es útil como punto de partida y
puede ser suficiente en algunos casos excepcionales. Por otro lado, interrogar a los agentes sobre los tiempos
de actividad es problemático porque la mayoría de la gente piensa en términos de promedios y les resulta difícil
medir las varianzas. Esto solo se puede hacer después de que se disponga de un número suficiente de
observaciones.
También hemos utilizado un segundo enfoque en el que los cuidadores registran los tiempos durante las
visitas de los pacientes. Por ejemplo, en una clínica, adjuntamos un formulario a cada registro de paciente
recuperado durante cada sesión clínica. En el Paso 1, el personal de la recepción registra la hora de llegada
del paciente y la hora de la cita. Luego, la enfermera registra las horas de inicio y finalización del Paso 2 y así
sucesivamente. Este enfoque se puede automatizar mediante el uso de ayudas como teléfonos o aplicaciones
para iPad, cuando corresponda. Sin embargo, este enfoque introduce varios problemas. El registro de datos
interrumpe el flujo normal y no es posible convencer a los participantes de que el registro de datos se compara
en importancia con la atención al paciente.
Como consecuencia, vemos repetidamente instancias en las que los proveedores se olvidan de registrar los
datos y luego intentan "completarlos" más tarde en el día cuando las cosas están menos agitadas. Esto produce
conjuntos de datos en los que los tiempos medios pueden ser estimaciones razonables, pero las estimaciones
de las varianzas simplemente no son confiables.
Un tercer enfoque para la recopilación de datos que se usa a menudo en los AMC es utilizar observadores
pagados para registrar las marcas de tiempo. Este enfoque puede generar información altamente confiable
siempre que el proceso no sea demasiado complejo y el observador pueda colocarse físicamente para tener
líneas de visión que hagan que este método sea práctico. Este enfoque es común en los AMC porque casi
siempre están conectados a una universidad más grande y hay mano de obra de relativamente alta calidad y
bajo costo disponible en forma de estudiantes o voluntarios. Si bien hemos utilizado esta técnica con éxito en
múltiples ocasiones, no está exenta de problemas. En primer lugar, los observadores deben ser discretos. Esto
se hace mejor asignándolos a espacios específicos. Si el personal viaja mucho, esto se vuelve problemático.
Por ejemplo, una clínica de oncología radioterápica que estudiamos tenía salas y equipos en varios pisos, por
lo que el seguimiento se volvió bastante complejo. En segundo lugar, las partes que atienden a los pacientes
saben que están siendo observadas. Muchos investigadores informaron mejoras significativas en el flujo de
procesos utilizando este enfoque, solo para descubrir que después de que los observadores se fueron, el
sistema volvió a su forma anterior de funcionamiento y se perdió la mejora documentada.
Machine Translated by Google
También hemos utilizado un cuarto enfoque para la recopilación de datos. Muchos hospitales y clínicas
están equipados con sistemas de localización en tiempo real (RTLS). Los AMC grandes a menudo se
diseñan para incluir esta capacidad porque los dispositivos y equipos de rastreo en cientos de miles de
pies cuadrados de espacio simplemente no son prácticos sin alguna asistencia tecnológica. Las
instalaciones de estos sistemas generalmente implican colocar sensores en los techos o pisos de los
espacios relevantes. Estos sensores captan señales de transmisores que se pueden incrustar en
"etiquetas" o "insignias" que usan los artículos o las personas que se rastrean. Cada sensor registra
cuando una etiqueta entra dentro del rango y nuevamente cuando sale de esa área. Cuando se asignan
números de etiqueta únicos a cada cuidador, se pueden generar informes detallados al final de cada día
que muestren cuándo se movió una persona o equipo de un lugar a otro.
Este enfoque ofrece varias ventajas espectaculares. No interfiere con el proceso de atención, el costo
marginal de su uso es prácticamente cero y como estos sistemas están siempre funcionando, los períodos
de observación pueden comenzar y terminar según sea necesario.
Para concluir, debemos destacar tres factores clave en el proceso de recopilación de datos: (1) la
recopilación de datos debe realizarse de manera que no interfiera con la prestación de la atención; (2) se
necesitan auditorías del sistema de recopilación de datos para garantizar la precisión; y (3) se debe cubrir
un período de tiempo suficiente para eliminar cualquier efecto de la "novedad" de la recopilación de datos
y su impacto posterior en los comportamientos de los agentes.
Paso 3: Cree un DES del sistema A menudo
hemos encontrado útil crear modelos DES de los sistemas bajo estudio tan pronto como sea posible
en el proceso. Este puede ser un proceso costoso en el que se requiere una gran cantidad de recopilación
de datos y la construcción del modelo puede ser un gasto no trivial.
Otras herramientas, como el mapeo de procesos y la teoría de colas, se pueden aplicar con mucho menos
esfuerzo (Kolker 2010). Sin embargo, hemos encontrado repetidamente que estas herramientas son
insuficientes para el análisis que se necesita. Debido a que las variaciones involucradas en los tiempos
de actividad pueden ser extremadamente altas en el cuidado de la salud, las distribuciones de las métricas
de interés son hallazgos importantes. En consecuencia, el análisis básico del proceso rara vez es
suficiente y, a menudo, engañoso.
Los modelos de colas transmiten mucho mejor la importancia de la variabilidad. Sin embargo, muchas
suposiciones comunes de estos modelos se violan rutinariamente en entornos clínicos, incluido que
algunos tiempos de procesamiento no se distribuyen exponencialmente, que los tiempos de procesamiento
a menudo no tienen la misma distribución y que si las llegadas se basan en citas, los tiempos entre
llegadas son no distribuida exponencialmente.
Sin embargo, ninguno de estos problemas plantea el mayor desafío para aplicar análisis de procesos
simples o modelos de colas en clínicas ambulatorias. Considere dos cuestiones adicionales. Primero, los
resultados básicos del análisis de procesos o modelos de colas son solo promedios que aparecen en
estado estacionario. Una clínica no comienza el día en un estado estable, comienza en un estado vacío.
Se necesita algún tiempo para alcanzar el estado estacionario. Sin embargo, si se grafican los tiempos
de espera promedio de una clínica a lo largo del tiempo, se ve rápidamente que el sistema puede necesitar
docenas o incluso cientos de casos para alcanzar el estado estable. Claramente, una clínica con un
médico no programará cientos de pacientes para ese recurso en una sola sesión. Por lo tanto, los
resultados de estado estacionario a menudo no son informativos.
Machine Translated by Google
En segundo lugar, si los tiempos de actividad y/o la lógica que define el flujo de trabajo cambian en
respuesta al tipo de trabajo o al estado del sistema, entonces los resultados del análisis de procesos simples
o los modelos de cola se vuelven inválidos. Hemos documentado tales prácticas en múltiples clínicas que
hemos estudiado (Chambers et al. 2016; Conley et al. 2016). En consecuencia, lo que se necesita es una
herramienta que pueda dar cuenta de todos estos factores simultáneamente, hacer predicciones sobre lo que
sucede cuando cambia algún elemento del sistema y brindarnos información sobre la distribución más amplia
de resultados, no solo un medio para los sistemas en constante. estado. DES es una herramienta con las
capacidades necesarias.
Se justifica aquí un breve comentario sobre la inclusión de tiempos de actividad en los modelos DES.
Hemos utilizado dos enfoques distintos. Podemos seleccionar un tiempo de actividad al azar de una colección
de observaciones. Alternativamente, podemos ajustar una distribución a los datos de tiempo de actividad
recopilados. Hemos encontrado que ambos enfoques funcionan satisfactoriamente. Sin embargo, si el conjunto
de datos es lo suficientemente grande, recomendamos tomar muestras directamente de ese conjunto.
Esto genera resultados que son más fáciles de defender ante los estadísticos y más creíbles para los
profesionales.
Paso 4: Experimentos de campo y virtuales Es
en este punto que entra en juego el uso de experimentos, y fusionamos la metodología OR de DES con
los métodos experimentales de la investigación médica. La lógica subyacente es que proponemos un
experimento que involucre algún cambio en el proceso que creemos que alterará uno o más parámetros que
definen el comportamiento del sistema. Podemos usar el DES para predecir resultados si nuestra propuesta
funciona. En otros casos, si tenemos evidencia de que el cambio propuesto funciona en algunas configuraciones,
podemos usar el DES para describir cómo ese cambio afectará las métricas del sistema en otras
configuraciones. La construcción de estos experimentos es el “arte” de nuestro enfoque. Es esta creación la
que conduce a resultados publicables y crea ideas novedosas.
También es fundamental tener en cuenta las consecuencias no deseadas. Por ejemplo, agregar salas de
examen a menudo se promociona como una forma de reducir los tiempos de espera. Sin embargo, esto
también hace que el espacio relevante sea más grande, aumentando los tiempos de viaje, así como la complejidad de
Machine Translated by Google
flujos de recursos. Esto debe tenerse en cuenta antes de declarar que las salas añadidas realmente
mejoraron el rendimiento. Puede mejorar el rendimiento en una dimensión mientras lo degrada en otra.
El modelado DES ha demostrado repetidamente ser invaluable en esta etapa. Una vez que se
crea un modelo DES, es fácil simular una gran cantidad de sesiones clínicas y recopilar datos sobre
una amplia gama de métricas de rendimiento. Con un poco más de esfuerzo, también se puede
configurar para recopilar datos sobre el uso de horas extra o tiempos de espera dentro de las salas
de examen. Además, los modelos DES se pueden configurar para que los pacientes tomen diferentes
caminos o se extraigan tiempos de actividad de diferentes distribuciones según el estado del sistema.
Finalmente, hemos encontrado útil que los modelos DES recopilen datos sobre subgrupos de pacientes
según el estado del sistema porque muchos cambios en los parámetros del sistema afectan a
diferentes grupos de manera diferente.
Paso 5: Métricas de interés Un
adagio famoso afirma: "Si no puedes medirlo, no puedes administrarlo". Por lo tanto, centrarse en
las mediciones elimina la ambigüedad y limita los malentendidos. Si todas las partes están de acuerdo
con una métrica, es más fácil para ellos compartir ideas sobre cómo mejorarla. Sin embargo, esto
plantea una pregunta importante: ¿en qué métricas queremos centrarnos?
Al tratar con esta pregunta, los pasos 4 y 5 de nuestro método se entrelazan y no pueden pensarse
de manera puramente secuencial. En algunos entornos, necesitamos métricas novedosas para
adaptarse a un experimento, mientras que en otros entornos, los resultados inesperados de los
experimentos sugieren métricas que no habíamos considerado antes.
Tanto los pacientes como los proveedores están preocupados por el rendimiento del sistema, pero
sus diferentes perspectivas crean compensaciones complejas. Por ejemplo, los investigadores a
menudo han encontrado que el aumento del tiempo cara a cara con los proveedores sirve para
mejorar la experiencia del paciente (Thomas et al. 1997; Seals et al. 2005; Lin et al. 2001), pero un
aumento en el tiempo de espera degrada esa experiencia (Meza 1998; McCarthy et al. 2000; Lee et
al. 2005). Es posible que el paciente no comprenda completamente lo que está haciendo el proveedor
de atención, pero siempre puede comprender que es preferible más atención y que esperarla no es
productivo. Dado un nivel fijo de recursos, los aumentos en el tiempo presencial dan como resultado
una mayor utilización del proveedor, lo que a su vez aumenta los tiempos de espera de los pacientes.
En consecuencia, el deseo del paciente de aumentar el tiempo de atención y reducir el tiempo de
espera crea una tensión natural y sugiere que las métricas de interés casi siempre incluirán tanto el
tiempo de atención como el tiempo de espera.
Considere un paciente que observamos recientemente. Este paciente llegó 30 minutos antes a
una cita y esperó 20 minutos antes de ser conducido a la sala de examen. Después de ser conducido
a la habitación, el paciente esperó 5 min antes de ser visto por una enfermera durante 5 min. Luego,
el paciente esperó 15 min antes de ser visto por el residente. Luego, el aprendiz habló con el paciente
durante 20 minutos antes de salir de la habitación para discutir el caso con el asistente. Luego, el
paciente esperó 15 min antes de ser visto por el residente y el asistente juntos. El asistente habló con
el paciente durante 5 minutos antes de ser llamado para tratar un problema de otro paciente. Esto
tomó 10 minutos. Luego, el asistente regresó a la sala de examen y habló con el paciente durante
otros 5 minutos. Después de eso, el paciente se fue. Al sumar estas duraciones, vemos que el
paciente estuvo en la clínica durante aproximadamente 100 minutos. El paciente esperó 20 min en la
sala de espera. Sin embargo, el paciente también pasó 45 min en el examen.
Machine Translated by Google
1. Puntualidad del
paciente 2. Tiempo pasado en la sala de espera antes de la hora de la cita
3. Tiempo pasado en la sala de espera después de la hora de la cita 4.
Tiempo de espera en la sala de examen 5. Proporción del tiempo del ciclo
pasado con un proveedor de atención 6. Proporción del tiempo de ciclo
pasado con el asistente
El mensaje clave aquí es que las métricas de interés pueden ser específicas del problema que
se busca abordar y deben reflejar los matices del proceso implementado para brindar los servicios
involucrados.
Paso 6: Predecir el impacto de los cambios en
el proceso Incluso después de realizar un experimento en un entorno, descubrimos que es
extremadamente difícil predecir cómo afectarán los cambios a un sistema diferente simplemente
observando el mapa del proceso. Esta es otra área donde DES resulta bastante valioso.
Por ejemplo, digamos que nuestro experimento en la Clínica A muestra que al cambiar el proceso
de alguna manera, el tiempo para el paso de Atención se reduce en un 10 %. Luego, podemos
modelar este cambio en un entorno clínico diferente utilizando un DES de ese entorno para predecir
cómo se reflejará la implementación de nuestro cambio sugerido en las métricas de rendimiento de
esa clínica en el futuro. Este enfoque ha demostrado ser vital para obtener la aceptación necesaria
para facilitar un experimento más formal en el nuevo entorno o para motivar la implementación en
una unidad donde no se lleva a cabo un experimento formal.
Nuestro trabajo ha incluido una colección de experimentos que han llevado a mejoras en el sistema
para escenarios como el que se muestra en la figura 22.1. Pasamos ahora a una discusión de
algunos de estos esfuerzos para proporcionar contexto e ilustraciones de nuestro enfoque. La
Figura 22.1 incluye un proceso de llegada bajo un sistema de citas. Esto es seguido rápidamente
por actividades que involucran al aprendiz y/o enfermera y/o asistente.
Finalmente, el sistema espera dar cuenta de todas estas cosas cuando busca un horario optimizado.
Discutimos algunos de estos temas a su vez.
Proceso de
llegada Nos estamos centrando en las clínicas que establecen un horario de citas definido.
Una complicación obvia es que algunos pacientes no se presentan, lo que significa que no se
presentan a la cita. En trabajos anteriores se han citado tasas de ausencia de hasta el 40%
(McCarthy et al. 2000; Huang 1994). Sin embargo, también hay un problema más sutil de pacientes
que llegan muy temprano o muy tarde, y esto es mucho más difícil de explicar. Los primeros
trabajos en este espacio se refirieron a esto como “impuntualidad” del paciente (Bandura
Machine Translated by Google
1969; Blanco y Pike 1964; Alexopoulos et al. 2008; Fetter y Thompson 1966; Tai y Williams 2012; Perros
y Frier 1996). Nuestro enfoque se ha utilizado para abordar dos preguntas interrelacionadas: ¿La
impuntualidad del paciente afecta el desempeño de la clínica y podemos afectar la impuntualidad del
paciente? Para abordar estas preguntas, llevamos a cabo un experimento simple. Los datos sobre la
impuntualidad de los pacientes se recogieron durante un período de seis meses. Encontramos que la
mayoría de los pacientes llegaron temprano, pero la impuntualidad de los pacientes osciló entre -80 y +20.
En otras palabras, algunos pacientes llegaron hasta 80 minutos antes, mientras que otros llegaron 20
minutos tarde. Se realizó una intervención que constaba de tres elementos. En los recordatorios enviados
por correo a cada paciente antes de su visita, se indicó que a los pacientes que llegaran tarde se les
pediría que reprogramaran la cita.
Todos los pacientes fueron llamados en los días previos a la visita y se repitió el mismo recordatorio por
teléfono. Finalmente, se colocó un letrero que explicaba la nueva política cerca del mostrador de registro.
Luego se rastreó la impuntualidad 1, 6 y 12 meses después.
Otras métricas de interés fueron los tiempos de espera, el uso de horas extra y la proporción de pacientes
que se vieron obligados a esperar para ser atendidos (Williams et al. 2014).
Este seguimiento prolongado se consideró necesario porque algunos pacientes solo visitaron la clínica
una vez por trimestre y, por lo tanto, el efecto completo de la intervención no pudo medirse hasta después
de varios trimestres de implementación. Para garantizar que los cambios en el desempeño de la clínica
estuvieran relacionados solo con cambios en la impuntualidad, necesitábamos una forma de controlar los
cambios en el horario de citas que ocurrieron durante ese período de tiempo. Nuestra respuesta a este
problema fue crear un DES de la clínica, utilizar los tiempos de actividad reales en el DES y considerar
distribuciones antiguas versus nuevas de la impuntualidad de los pacientes, asumiendo un horario fijo.
Esto nos permitió aislar el impacto de nuestra intervención.
Antes de la intervención, el 7,7% de los pacientes llegaban tarde y la tardanza promedio de esos
pacientes era de 16,75 min. Después de 12 meses, estas cifras se redujeron a 1,5% y 2 min,
respectivamente. El porcentaje de pacientes que llegaron antes de la hora de su cita pasó del 90,4% al
95,4%. La proporción que llegó con al menos 1 minuto de retraso se redujo del 7,69 % al 1,5 %. El rango
de impuntualidad disminuyó de 100 a 58 min. El tiempo promedio para completar la sesión se redujo de
250,61 a 244,49 min. Por lo tanto, se eliminaron alrededor de 6 minutos de operaciones de tiempo extra
de cada sesión. La probabilidad de completar la sesión a tiempo aumentó del 21,8% al 31,8%.
Nuestro uso de DES nos permitió crear métricas de rendimiento que aún no se habían explorado. Por
ejemplo, notamos que los beneficios del cambio no fueron los mismos para todos los pacientes. Los
pacientes que llegaron tarde vieron caer su tiempo de espera promedio de 10,7 a 0,9 min. Aquellos que
llegaron un poco antes vieron aumentar su tiempo de espera promedio en aproximadamente 0,9 minutos.
Finalmente, para aquellos que llegaron muy temprano, su tiempo de espera no se vio afectado. En
resumen, encontramos que la impuntualidad del paciente puede verse afectada y altera el desempeño de
la clínica, pero esto tiene consecuencias tanto intencionadas como no intencionadas.
Es más probable que la sesión de la clínica termine a tiempo y se reducen los costos de horas extra.
Sin embargo, gran parte del beneficio en términos de tiempos de espera lo obtienen los pacientes que
todavía insisten en llegar tarde.
Tiempos de procesamiento de los
médicos Históricamente, casi todas las investigaciones sobre clínicas ambulatorias suponían que los
tiempos de procesamiento no estaban relacionados con el cronograma o si la clínica funcionaba a tiempo. Es
Machine Translated by Google
este de hecho el caso? Para abordar esta pregunta, analizamos datos de tres entornos clínicos. Una era
una clínica de bajo volumen que albergaba a un solo médico, otra era una clínica de volumen medio en un
AMC que tenía un asistente trabajando en cada turno junto con dos o tres aprendices, y la última era un
servicio de alto volumen que tenía múltiples asistentes trabajando simultáneamente (Chambers et al. 2016).
Clasificamos a los pacientes en tres grupos: Los pacientes del Grupo A eran aquellos que llegaron
temprano y fueron colocados en la sala de examen antes de la hora programada para su cita. Los
pacientes del grupo B fueron aquellos que también llegaron temprano, pero fueron colocados en la sala
de examen después de la hora de su cita, lo que indica que la clínica estaba congestionada. Los pacientes
del grupo C fueron aquellos que llegaron después de la hora de su cita. La pregunta principal era si el
tiempo promedio de procesamiento para los pacientes del Grupo A era el mismo que para los pacientes
del Grupo B. También teníamos preguntas sobre cómo esto afectaba el desempeño de la clínica en
términos de tiempos de espera y tiempos de finalización de la sesión.
En la clínica de bajo volumen con un solo médico, los tiempos de procesamiento promedio y los errores
estándar (entre paréntesis) fueron 38,31 (3,21) para el Grupo A y 26,23 (2,23) para el Grupo B. En otras
palabras, el médico se movió más rápido cuando la clínica estaba retrasado Se han encontrado resultados
similares en otras industrias, pero esta fue la primera vez (hasta donde sabemos) que esto se demostró
en clínicas ambulatorias.
En la clínica de volumen medio, los valores relevantes fueron 65,59 (2,24) y 53,53 (1,97). Nuevamente,
el sistema funcionó más rápido para el Grupo B que para el Grupo A. Tenga en cuenta que la caída en los
tiempos promedio es de aproximadamente 12 minutos en ambas configuraciones. Esto sugiere que el
hallazgo es sólido, lo que significa que ocurre en un grado similar en entornos similares (pero no idénticos).
Además, recuerde que la clínica de volumen medio incluyó pasantes en el flujo del proceso. Esto sugiere
que la forma en que el sistema obtuvo este aumento de velocidad podría ser diferente. De hecho, nuestros
datos muestran que la cantidad de tiempo promedio que el asistente pasó con el paciente no fue más de
12 minutos para empezar.
Por lo tanto, sabemos que no fue solo el comportamiento de los asistentes lo que hizo que esto sucediera.
El AMC debe estar usando a los aprendices de manera diferente cuando las cosas se retrasan.
En la clínica de alto volumen, los valores paralelos fueron 47,15 (0,81) y 17,59 (0,16).
Aquí, vemos que la caída en los tiempos de procesamiento es mucho más dramática de lo que vimos
antes. Nuevamente, el mensaje es que los tiempos de procesamiento cambian cuando el sistema está
bajo estrés y la magnitud del cambio implica que múltiples partes están involucradas para que esto suceda.
En retrospectiva, esto parece totalmente razonable, pero el alcance de la diferencia sigue siendo bastante
sorprendente.
Como vimos en la sección anterior, hay una consecuencia no deseada de este comportamiento del
sistema en lo que respecta a los grupos de pacientes. Los pacientes que llegan temprano deben ayudar a
la clínica a cumplir con el cronograma. Esto puede no ser así porque estos pacientes reciben tiempos de
procesamiento más largos. Por lo tanto, sus tiempos de ciclo son más largos. Los pacientes que llegan
tarde tienen tiempos de espera más cortos y tiempos de procesamiento más cortos. Por lo tanto, sus
tiempos de ciclo son más cortos. Si los tiempos de ciclo más cortos se perciben como un beneficio, esto
parece una recompensa injusta por la tardanza del paciente y puede explicar por qué nunca desaparecerá por completo.
Machine Translated by Google
Recopilamos datos sobre los tiempos de actividad en ambos entornos. Dados estos tiempos,
podríamos sembrar modelos DES de ambas clínicas y comparar resultados. Dentro del DES,
podríamos considerar ambos entornos como si tuvieran el mismo horario de citas. Si consideramos
las dos configuraciones usando el cronograma establecido para el AMC, vemos que el tiempo de
ciclo promedio en el AMC fue de 76,2 min y esto incluyó un tiempo de espera promedio de 30,0
min. El tiempo medio necesario para completar un programa completo fue de 291,9 min.
Si se hubiera utilizado el mismo horario en el modelo de práctica privada, el tiempo de ciclo
promedio sería de 129,1 min y el tiempo de espera promedio sería de 83,9 min.
La capacidad del AMC era claramente mayor que en el modelo de práctica privada. Esto es
interesante porque los tiempos de flujo en el entorno de la práctica privada con el horario que se
optimizó para ese entorno fueron mucho más bajos. Resulta que el tiempo total de procesamiento
para cada paciente fue mayor en el AMC, pero la capacidad fue mayor. Esto se explica usando
procesamiento paralelo. En el entorno de AMC, el asistente pasó tiempo con un paciente, mientras
que los aprendices trabajaron simultáneamente con otros pacientes. Pudimos realizar un
experimento virtual cambiando el número de alumnos en el modelo DES. Descubrimos que tener
un aprendiz creó un sistema con tiempos de ciclo que eran mucho mayores que el modelo de
práctica privada. El uso de dos aprendices produjo tiempos de ciclo que eran casi iguales. El uso
de tres aprendices creó los tiempos de ciclo reducidos que notamos en la práctica. El uso de más
de tres aprendices no produjo ningún beneficio adicional porque ambas clínicas tenían solo tres
salas de examen disponibles. Esto nos permitió comentar sobre el número óptimo de alumnos
para una clínica determinada.
El uso de DES también destacó un resultado menos obvio. Resulta que el tiempo de espera en
este sistema fue particularmente sensible al tiempo que se tomó en el paso que etiquetamos como
"Enseñar". Este es el tiempo que el pasante pasa interactuando con el asistente después de
interactuar con el paciente. De hecho, encontramos que reducir este tiempo en 1 min sirvió para
reducir el tiempo de espera promedio en 3 min. Para comprender este fenómeno, recuerde que
cuando el aprendiz y el asistente están discutiendo el caso mientras el paciente espera en la sala
de examen durante 1 minuto, los tres recursos más ocupados del sistema (el aprendiz, el asistente
y la sala de examen) se encuentran simultáneamente. ocupado durante ese tiempo. Por lo tanto,
no sorprende que los tiempos de espera sean sensibles a la duración de esta actividad, aunque el
grado de esta sensibilidad sigue siendo revelador.
Preprocesamiento
Dado que los tiempos de espera son extremadamente sensibles a los tiempos de enseñanza,
creamos un experimento diseñado para alterar la distribución de estos tiempos. en vez de tener la
Machine Translated by Google
El aprendiz revisa el caso después de colocar al paciente en la sala de examen y luego tiene la
primera conversación sobre el caso con el asistente después de que el aprendiz interactúa con el
paciente, podemos notificar tanto al aprendiz como al asistente con anticipación qué paciente verá
cada aprendiz. De esa manera, el pasante puede revisar el archivo antes de que comience la sesión
y tener una conversación con el asistente sobre lo que debe suceder cuando llegue el paciente.
También creamos una plantilla para guiar el flujo y el contenido de esta conversación. Nos referimos
a este enfoque como "preprocesamiento" (Williams et al. 2015).
Programación cíclica
Teniendo en cuenta los trabajos mencionados anteriormente, un hallazgo que ocurrió
repetidamente fue que la forma en que el alumno participaba en el proceso tenía un gran impacto
en el rendimiento del sistema y la forma en que se hacía a menudo dependía del estado. Recuerde
que descubrimos que el sistema encuentra formas de moverse más rápido cuando la clínica está
atrasada. Cuando un médico trabaja solo, esto se puede hacer simplemente proporcionando menos
tiempo cara a cara a los pacientes. Cuando el sistema incluye un aprendiz, hay una respuesta
adicional disponible en la que el asistente o el aprendiz pueden ser eliminados del proceso para uno
o más pacientes. Nuestra experiencia es que los médicos creen firmemente que el primer enfoque
produce grandes ahorros y se oponen firmemente al segundo.
Nuestra observación directa de múltiples clínicas produjo algunas ideas relacionadas con estos
temas. Omitir el asistente no ahorra tanto tiempo como la mayoría de los asistentes piensan porque
el alumno es más lento que el asistente. Además, el asistente se involucra en más de estos casos
de lo que parece darse cuenta. Muchos asistentes se sienten obligados a "al menos saludar" a los
pacientes incluso cuando los pacientes no están realmente en su horario, y estas visitas a menudo
resultan ser más largas de lo esperado. Con respecto al segundo enfoque, hemos notado una gran
variación en términos de qué tan dispuesto está el asistente a omitir al aprendiz de un caso. Algunos
casi nunca lo hacen, mientras que otros lo hacen con bastante frecuencia. En una clínica que
estudiamos, encontramos que el aprendiz fue omitido de aproximadamente el 30% de los casos en
el horario de la clínica. Si se hace esto, podría explicar por qué una clínica de volumen medio o alto
dentro del AMC podría reducir los tiempos de ciclo después de atrasarse en mayor medida que la
clínica de bajo volumen.
Machine Translated by Google
puede lograr. Esto se puede hacer instruyendo al aprendiz para que maneje un caso mientras el asistente maneja
otro y haciendo que el asistente excluya al aprendiz de uno o más casos en un esfuerzo por ponerse al día con el
horario de la clínica.
Tener en cuenta estos problemas al crear un programa de citas nos llevó a la noción de programación cíclica.
La idea es que el calendario de citas se pueda dividir en varios subconjuntos que se repiten. Etiquetamos estos
subconjuntos como "ciclos". En cada ciclo, incluimos un paciente nuevo y un paciente que regresa programado
para llegar al mismo tiempo. Un tercer paciente está programado para llegar a la mitad del ciclo.
Si ambos pacientes llegan al comienzo del ciclo, dejamos que el aprendiz comience a trabajar en el nuevo paciente
y el asistente se encarga del paciente que regresa sin que el aprendiz esté involucrado. Esto se consideró
aceptable porque se argumentó que la mayor parte del aprendizaje proviene de las visitas a nuevos pacientes. Si
solo llega uno de los dos pacientes, se utiliza el proceso estándar.
Las herramientas de análisis de procesos producen algunos resultados sobre los tiempos de ciclo promedio
en esta configuración, pero dado que los tiempos de espera están correlacionados en serie, queremos una
descripción mucho más clara de cómo se relaciona el tiempo de espera de cada paciente con el de los siguientes pacientes.
Considerar el problema utilizando un modelo de colas es extremadamente difícil porque la distribución relevante
de los tiempos de actividad depende del estado y el número de ciclos es pequeño. En consecuencia, los resultados
de estado estacionario son engañosos. El estudio de este enfoque dentro de un DES reveló que el promedio de
realización, los tiempos de espera y los tiempos de ciclo se reducen significativamente con nuestro enfoque cíclico
y el alumno participa en una mayor proporción de los casos programados.
3 Conclusión
Si bien se ha invertido una gran cantidad de tiempo, esfuerzo y dinero para mejorar los procesos de atención
médica, los problemas involucrados han demostrado ser muy difíciles de resolver. En este trabajo, nos enfocamos
en un sector pequeño pero importante del espacio del problema: el de las clínicas basadas en citas en los centros
médicos académicos. Una fuente de dificultad es que el campo médico favorece un enfoque basado en el diseño
experimental, mientras que muchas herramientas de quirófano son más matemáticas y abstractas. En consecuencia,
uno de nuestros mensajes centrales es que aquellos que trabajan para mejorar estos sistemas deben encontrar
formas de cerrar esta brecha mediante la combinación de técnicas. Cuando se hace esto, se puede avanzar y los
conocimientos generados se pueden difundir más ampliamente. Nuestro uso de DES se basa en herramientas de
mapeo de procesos con las que la mayoría de los gerentes están familiarizados y facilita experimentos virtuales
que son más fáciles de controlar y usar para generar métricas cuantitativas susceptibles a los tipos de pruebas
estadísticas que los médicos investigadores aplican de manera rutinaria.
Sin embargo, seríamos negligentes si no enfatizáramos el hecho de que los enfoques basados en datos rara
vez son suficientes para lograr el cambio deseado. Los hospitales en los AMC suelen ser entornos muy politizados
con una cultura jerárquica. Este hecho puede generar múltiples obstáculos que ninguna cantidad de "procesamiento
de números" podrá superar. Un aspecto no tan sutil de nuestro método es que normalmente involucra involucrarnos
en el proceso durante algunos períodos de tiempo e interactuar
Machine Translated by Google
repetidamente con las partes involucradas. Hemos iniciado muchos proyectos no mencionados
anteriormente porque no dieron como resultado una acción real. Cada proyecto que ha tenido
éxito involucró muchas horas de trabajo con profesores, médicos, personal y técnicos de varios
tipos para recopilar información y obtener nuevas perspectivas. Hemos visto a docenas de
investigadores realizar análisis de datos mucho más impresionantes en grandes conjuntos de
datos utilizando herramientas que eran más poderosas que las empleadas en estos ejemplos,
solo para terminar con un análisis maravilloso que no está vinculado a ninguna implementación.
Cuando tratamos con profesionales de la salud, a menudo recordamos el viejo adagio: “A nadie
le importa cuánto sabes. Quieren saber cuánto te importa”. Si bien creemos que la metodología
descrita en este capítulo es útil, nuestra experiencia sugiere fuertemente que el ingrediente
secreto para hacer que estos proyectos funcionen es la atención prestada a los médicos,
profesores y especialmente al personal involucrado que finalmente hace que el sistema funcione.
Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están
disponibles en www.allaboutanalytics.net.
Ejercicios
Introducción
Versiones simplificadas de varios modelos a los que se hace referencia en la Secc. 22.2.5 de
la lectura se puede considerar para explorar los temas discutidos allí. Estos modelos DES se han
desarrollado en ExtendSim versión 9.0.19 Las versiones completas del software subyacente
están disponibles a través del proveedor, y se ofrece una variedad de modelos de precios académicos.
disponible. También hay disponible una amplia variedad de textos y herramientas para ayudar al
usuario potencial con detalles de las capacidades del software, incluidos Strickland (2010) y
Laguna y Marklund (2005). Sin embargo, los modelos utilizados en esta lectura son bastante
simples de construir y se pueden adaptar fácilmente a otros paquetes según el lector (o el
instructor) lo crea conveniente. Para facilitar la exposición y encajar con el cuerpo principal de la
lectura, presentamos ejercicios correspondientes a los escenarios descritos anteriormente. Se
proporcionan sugerencias en el archivo de palabras Sugerencias para la solución (consulte el
sitio web del libro) que deberían ayudar a realizar los ejercicios. Los ejercicios permiten al lector
explorar las muchas ideas dadas en el capítulo paso a paso.
Un modelo básico con impuntualidad del
paciente Los proveedores de servicios en muchos entornos utilizan un sistema de citas para
gestionar la llegada de clientes/trabajos. Sin embargo, la suposición de que el calendario de citas
se seguirá estrictamente rara vez se justifica. El primer modelo (Modelo 1; consulte el sitio web
del libro) presenta un flujo de proceso simplificado para una clínica hipotética e incorpora un
programa de citas. El modelo facilita cambios en la variable aleatoria que define la puntualidad
del paciente. En resumen, los pacientes llegan en algún momento desplazado de su hora de cita.
Ajustando los parámetros que definen la distribución de esta variable, podemos representar el
comportamiento de llegada. Puede modificar este modelo para abordar las siguientes preguntas:
Ej. 22.1 Describa el desempeño de la clínica si todos los pacientes llegan a tiempo.
Ex. 22.3 Explique cómo crearía un experimento (en una clínica real) para descubrir cómo cambia
este comportamiento y cómo afecta el desempeño de la clínica.
Ex. 22.4 Explique cómo modificaría el Modelo 1 para informar los resultados de grupos de
pacientes como aquellos con impuntualidad negativa (llegadas tempranas), aquellos con
impuntualidad positiva (llegadas tardías) y aquellos con horarios de citas cerca del final de la
sesión clínica.
Ex. 22.5 El DES asume que el paciente con la cita más temprana siempre es atendido primero,
incluso si llegó tarde. ¿Cómo modificaría este modelo si el sistema "espera" a los pacientes que
llegan tarde hasta cierto límite, "w" minutos en lugar de ver al siguiente paciente tan pronto como
el servidor esté libre?
Un Modelo Académico con Distribuciones del Tiempo de
Enseñanza El flujo del proceso dentro del centro médico académico (AMC) difiere del Modelo
1 en que incluye pasos y recursos adicionales necesarios para la misión docente del hospital. El
análisis de procesos simple es útil en estas configuraciones para ayudar a identificar el recurso
de cuello de botella y usar la administración de ese recurso para mejorar el rendimiento del
sistema. Sin embargo, estos modelos simples no pueden dar cuenta completamente del impacto
de la congestión del sistema dado este flujo más complejo. Por ejemplo, a menudo se agrega
tiempo de inactividad porque un recurso se ve obligado a esperar la disponibilidad de otro.
Machine Translated by Google
El uso de un DES de tales sistemas puede ser particularmente valioso porque facilita varias formas de
análisis de sensibilidad que pueden producir conocimientos novedosos sobre estos temas. Use el Modelo 2
(consulte el sitio web del libro) del AMC para abordar las siguientes preguntas: Ej. 22.6 ¿Cómo responden
los valores promedio de tiempo de ciclo, tiempo de espera y tiempos de preparación a los cambios en el
tiempo de aprendizaje?
Ex. 22.7 Describa el vínculo entre la utilización de los pasantes en este sistema y la cantidad de tiempo que
pasan con los pacientes. ¿Cuánto de su tiempo ocupado no se explica por tareas de valor agregado?
Ex. 22.8 Describa el vínculo entre el número de aprendices y la utilización de otros recursos clave en el
sistema.
Ex. 22.9 Explique cómo crearía un experimento (en una clínica real) para descubrir cómo cambiar el proceso
educativo está relacionado con la productividad de los residentes.
Ex. 22.10 ¿Cómo alteraría el Modelo 2 para que refleje un nuevo enfoque de la formación de los pasantes
destinado a aumentar la parte de su tiempo que agrega valor al paciente?
Tiempos de procesamiento dependientes
del estado La experiencia con muchos sistemas de servicios respalda la noción de que el proveedor de
servicios puede estar motivado para "acelerar" cuando el sistema está ocupado. Sin embargo, el sentido
común también sugiere que esto no es sostenible para siempre. Con estos hechos en mente, es importante
pensar cómo podemos medir este comportamiento y cómo podemos monitorear las consecuencias no
deseadas de tal enfoque. Teniendo esto en cuenta, el Modelo 3 (consulte el sitio web del libro) incluye una
reducción de los tiempos de procesamiento para los asistentes cuando el sistema está ocupado. Considere
este modelo para abordar las siguientes preguntas: Ej. 22.11 ¿Cómo cambian los valores promedio del
tiempo de ciclo, el tiempo de espera y el intervalo de tiempo cuando la atención se vuelve más rápida en un
sistema ocupado?
Ex. 22.12 En lugar de reducir el tiempo presencial, considere agregar salas de examen al sistema. ¿Existe
alguna evidencia producida por el DES que sugiera que un enfoque es mejor que el otro?
Ex. 22.13 Describa la comparación entre tiempos de procesamiento decrecientes cuando el sistema está
ocupado y tiempos de procesamiento cambiantes para todas las configuraciones.
Ex. 22.14 Explique cómo crearía un experimento (en una clínica real) para explorar cómo este comportamiento
afecta el flujo de pacientes y la calidad del servicio. ¿Qué factores adicionales necesita controlar?
Ex. 22.15 ¿Cómo modificaría el Modelo 3 para separar los efectos del comportamiento del paciente (incluida
la impuntualidad) de los efectos del comportamiento del médico (incluidos los cambios en los tiempos de
procesamiento)?
Programación cíclica
Es probable que el personal que crea un programa de citas esté a favor de tener una plantilla simple
para consultar cuando los pacientes solicitan horarios de citas. En consecuencia, existe un valor administrativo
en tener una lógica que sea fácil de explicar e implementar. Nuevamente, esto es más difícil de hacer en el
AMC ya que el flujo del proceso es más complejo.
Vuelva al uso del Modelo 2 y modifíquelo según sea necesario para abordar las siguientes preguntas:
Machine Translated by Google
Ex. 22.16 Estudiar el calendario de citas existente. Desarrolle el "mejor" programa si no hay variabilidad
a considerar. (Puede suponer que los tiempos de actividad promedio siempre se realizan).
Ex. 22.17 ¿Cómo funciona su horario cuando se agrega la impuntualidad del paciente y cómo ajustará
su horario para tener esto en cuenta?
Ex. 22.18 Suponiendo que los pacientes son siempre perfectamente puntuales y que solo el tiempo de
atención es variable, busque un horario que funcione mejor que el desarrollado en el ejercicio 22.16.
Ex. 22.19 Explique cómo crearía un experimento (en una clínica real) para explorar formas de reducir
esta variabilidad. ¿Qué factores adicionales necesita controlar?
Ex. 22.20 ¿Cómo modificaría el Modelo 2 para incluir problemas adicionales, como ausencias de
pacientes, emergencias, interrupciones del trabajo y programación de acceso abierto?
Conclusión
Es importante señalar que los modelos DES son solo una herramienta que se puede aplicar para
desarrollar una comprensión más profunda del comportamiento de los sistemas complejos. Sin
embargo, agregar este enfoque a la “caja de herramientas” del gerente o consultor de la clínica debería
proporcionar amplios beneficios y apoyo para ideas sobre cómo hacer que estos sistemas satisfagan
mejor las necesidades de todas las partes interesadas.
Referencias
Alexopoulos, C., Goldman, D., Fontanesi, J., Kopald, D. y Wilson, JR (2008). paciente modelo
llegadas a clínicas comunitarias. Omega, 36, 33–43.
Bandura, A. (1969). Principios de modificación de conducta. Nueva York, NY: Holt, Rinehart y
Winston.
Benneyan, JC (1997). Una introducción al uso de la simulación por computadora en el cuidado de la salud: espera del paciente
caso de estudio. Revista de la Sociedad para los Sistemas de Salud, 5(3), 1–15.
Beronio, K., Glied, S. & Frank, R. (2014) J Behav Health Serv Res. 41, 410. https://doi.org/ 10.1007/s11414-014-9412-0 Boex,
JR, Boll, AA, Franzini, L., Hogan, A., Irby, D., Meservey, PM, Rubin, RM, Seifer, SD y Veloski, JJ (2000). Medición de los
costos de la educación en atención primaria en el ámbito ambulatorio. Medicina Académica, 75(5), 419–425.
Bowers, J. y Mould, G. (2005). Atención ambulatoria y planificación de la capacidad ortopédica. Cuidado de la salud
Ciencias de la administración, 8(1), 41–47.
Burke, EK, De Causmaecker, P., Berghe, GV y Van Landeghem, H. (2004). El estado del arte de las listas de enfermeras.
Revista de programación, 7(6), 441–499.
Cayirli, T., Veral, E. y Rosen, H. (2006). Diseño de sistemas de programación de citas para
servicios de atención ambulatoria. Ciencias de la gestión de la atención médica, 9(1), 47–58.
Chambers, CG, Dada, M., Elnahal, SM, Terezakis, SA, DeWeese, TL, Herman, JM y Williams, KA (2016). Cambios en los
tiempos de procesamiento de los médicos en respuesta a la congestión clínica y la puntualidad del paciente: un estudio
retrospectivo. Abierto BMJ, 6(10), e011730.
Chao, X., Liu, L. y Zheng, S. (2003). Asignación de recursos en sistemas de servicios multisitio con
flujos de clientes entre sitios. Ciencias de la gestión, 49(12), 1739–1752.
Chesney, AM (1943). El Hospital Johns Hopkins y la Escuela de la Universidad John Hopkins de
Medicina: una crónica. Baltimore, MD: Prensa de la Universidad Johns Hopkins.
Machine Translated by Google
Clymer, JR (2009). Ingeniería basada en simulación de sistemas complejos (Vol. 65). Nueva York, NY: John Wiley & Sons.
Conley, K., Chambers, C., Elnahal, S., Choflet, A., Williams, K., DeWeese, T., Herman, J. y Dada, M. (2018). Uso de un sistema
de ubicación en tiempo real para medir el flujo de pacientes en una clínica ambulatoria de oncología radioterápica, Oncología
radioterápica práctica.
Cutler, DM y Ghosh, K. (2012). El potencial de ahorro de costos a través de episodios combinados
pagos Revista de Medicina de Nueva Inglaterra, 366(12), 1075–1077.
Fetter, RB y Thompson, JD (1966). Tiempo de espera de los pacientes y tiempo de inactividad de los médicos en el ámbito
ambulatorio. Investigación de servicios de salud, 1(1), 66.
Franzini, L. y Berry, JM (1999). Un modelo de construcción de costos para evaluar el costo total de un programa de residencia
en anestesiología. Revista de la Sociedad Estadounidense de Anestesiólogos, 90(1), 257–268.
Glied, S. y Ma, S. (2015). ¿Cómo afectará la Ley del Cuidado de Salud a Bajo Precio el uso de los servicios de atención médica?
Nueva York, NY: Commonwealth Fund.
Hamrock, E., Parks, J., Scheulen, J. y Bradbury, FJ (2013). Simulación de eventos discretos para organizaciones de salud: una
herramienta para la toma de decisiones. Revista de Gestión de la Atención Médica, 58(2), 110.
Hing, E., Hall, MJ, Ashman, JJ y Xu, J. (2010). Encuesta de atención médica ambulatoria del hospital nacional: resumen del
departamento de pacientes ambulatorios de 2007. Informes de estadísticas nacionales de salud, 28, 1–32.
Hosek, JR y Palmer, AR (1983). Costos docentes y hospitalarios: El caso de la radiología. Diario
de Economía de la Salud, 2(1), 29–46.
Huang, XM (1994). Actitud del paciente ante la espera en una consulta externa y sus aplicaciones.
Investigación de gestión de servicios de salud, 7(1), 2–8.
Hwang, CS, Wichterman, KA y Alfrey, EJ (2010). El costo de la educación residente. Diario
de Investigación Quirúrgica, 163(1), 18–23.
Jun, JB, Jacobson, SH y Swisher, JR (1999). Aplicación de simulación de eventos discretos en clínicas de atención médica: una
encuesta. Revista de la Sociedad de Investigación Operativa, 50(2), 109–123.
Kaplan, RS y Anderson, SR (2003). Costeo basado en actividades controlado por el tiempo. SSRN 485443.
Kaplan, RS y Porter, ME (2011). Cómo resolver la crisis de costos en el cuidado de la salud. Harvard Business Review, 89(9),
46–52.
King, M., Lapsley, I., Mitchell, F. y Moyes, J. (1994). Necesidades y prácticas de costos en un entorno cambiante: el potencial de
ABC en el NHS. Gestión y responsabilidad financiera, 10(2), 143–160.
Kolker, A. (2010). Teoría de colas y simulación de eventos discretos para el cuidado de la salud: desde procesos básicos hasta
sistemas complejos con interdependencias. En Abu-Taieh, E. y El Sheik, A. (Eds.), Manual de investigación sobre tecnologías
y aplicaciones de simulación de eventos discretos (págs. 443– 483). Hershey, Pensilvania: IGI Global.
Laguna, M. y Marklund, J. (2005). Modelado, simulación y diseño de procesos de negocio. Upper Saddle River, Nueva Jersey:
Pearson Prentice Hall.
Lee, VJ, Earnest, A., Chen, MI y Krishnan, B. (2005). Predictores de asistencias fallidas en un centro ambulatorio multiespecialidad
utilizando bases de datos electrónicas. Investigación de servicios de salud de BMC, 5(1), 1.
van Lent, WAM, VanBerkel, P. y van Harten, WH (2012). Una revisión sobre la relación entre simulación y mejora en hospitales.
Informática médica y toma de decisiones de BMC, 12(1), 1.
Lin, CT, Albertson, GA, Schilling, LM, Cyran, EM, Anderson, SN, Ware, L. y Anderson, RJ (2001). ¿Es la percepción de los
pacientes del tiempo que pasan con el médico un factor determinante de la satisfacción del paciente ambulatorio? Archivos
de Medicina Interna, 161(11), 1437–1442.
Lorenzoni, L., Belloni, A. y Sassi, F. (2014). Gasto en atención médica y política de salud en los EE. UU. versus otros países de
la OCDE que gastan mucho. The Lancet, 384 (9937), 83–92.
Mandelbaum, A., Momcilovic, P. y Tseytlin, Y. (2012). En el enrutamiento justo desde los departamentos de emergencia a las
salas de hospital: colas QED con servidores heterogéneos. Ciencias de la gestión, 58(7), 1273–1291.
Machine Translated by Google
McCarthy, K., McGee, HM y O'Boyle, CA (2000). Tiempos de espera y no asistencia a consulta externa como indicadores
de calidad. Psicología, Salud y Medicina, 5(3), 287–293.
Meza, JP (1998). Tiempos de espera del paciente en el consultorio de un médico. The American Journal of Managed Care,
4(5), 703–712.
Moses, H., Thier, SO y Matheson, DHM (2005). ¿Por qué tener centros médicos académicos?
sobrevivió. Revista de la Asociación Médica Estadounidense, 293(12), 1495–1500.
Nuti, SV, Wayda, B., Ranasinghe, I., Wang, S., Dreyer, RP, Chen, SI y Murugiah, K.
(2014). El uso de las tendencias de Google en la investigación del cuidado de la salud: una revisión sistemática. PLoS
One, 9(10), e109583.
Ortman, JM, Velkoff, VA y Hogan, H. (2014). Una nación que envejece: la población de mayor edad en el
Estados Unidos (págs. 25–1140). Washington, DC: Oficina del Censo de EE. UU.
Perros, P. y Frier, BM (1996). Una auditoría de los tiempos de espera en la consulta externa de diabéticos: papel de la
puntualidad de los pacientes y el nivel de personal médico. Medicina diabética, 13(7), 669–673.
Sainfort, F., Blake, J., Gupta, D. y Rardin, RL (2005). Investigación de operaciones para los sistemas de prestación de
servicios de salud. Informe del panel WTEC. Baltimore, MD: Centro Mundial de Evaluación de Tecnología, Inc..
Seals, B., Feddock, CA, Griffith, CH, Wilson, JF, Jessup, ML y Kesavalu, SR (2005).
¿Más tiempo pasado con el médico reduce la insatisfacción de la clínica de padres debido a los largos tiempos de
espera? Revista de Medicina Investigativa, 53(1), S324–S324.
Sloan, FA, Feldman, RD y Steinwald, AB (1983). Efectos de la docencia en los costes hospitalarios.
Revista de Economía de la Salud, 2(1), 1–28.
Strickland, JS (2010). Simulación de eventos discretos mediante ExtendSim 8. Colorado Springs, CO: Simulation Educators.
Tai, G. y Williams, P. (2012). Optimización de la programación de citas de pacientes en clínicas utilizando una técnica
novedosa de modelado de llegada de pacientes. Métodos y programas informáticos en biomedicina, 108(2), 467–476.
Taylor, DH, Whellan, DJ y Sloan, FA (1999). Efectos de la admisión a un hospital docente sobre el costo y la calidad de la
atención para los beneficiarios de Medicare. Revista de Medicina de Nueva Inglaterra, 340(4), 293–299.
Thomas, S., Glynne-Jones, R. y Chait, I. (1997). ¿Vale la pena la espera? una encuesta de satisfacción de los pacientes con
una consulta externa de oncología. Revista Europea de Atención del Cáncer, 6(1), 50– 58.
Trebble, TM, Hansi, J., Hides, T., Smith, MA y Baker, M. (2010). Mapeo de procesos del viaje del paciente a través de la
atención médica: una introducción. Diario médico británico, 341 (7769), 394–397.
Trusko, BE, Pexton, C., Harrington, HJ y Gupta, P. (2007). Mejorar la calidad de la atención médica y
costo con seis sigma. Upper Saddle River, Nueva Jersey: Financial Times Press.
Blanco, MJB y Pike, MC (1964). Los sistemas de citas en las consultas externas y el efecto
de la impuntualidad de los pacientes. Atención médica, 133–145.
Williams, JR, Matthews, MC y Hassan, M. (2007). Diferencias de costos entre hospitales académicos y no académicos: un
estudio de caso de procedimientos quirúrgicos. Temas hospitalarios, 85(1), 3–10.
Williams, KA, Chambers, CG, Dada, M., Hough, D., Aaron, R. y Ulatowski, JA (2012).
Uso del análisis de procesos para evaluar el impacto de la educación médica en la prestación de servicios para el dolor:
un experimento natural. Revista de la Sociedad Estadounidense de Anestesiólogos, 116(4), 931–939.
Williams, KA, Chambers, CG, Dada, M., McLeod, JC y Ulatowski, JA (2014). Puntualidad del paciente y rendimiento clínico:
observaciones de un centro de dolor de práctica privada con base académica: un estudio prospectivo de mejora de la
calidad. Abierto BMJ, 4(5), e004679.
Williams , KA , Chambers , CG , Dada , M , Christo , PJ , Hough , D , Aaron , R y Ulatowski , J .
R. (2015). Aplicación de los principios JIT a la educación de los residentes para reducir los retrasos de los pacientes: un estudio
piloto en una clínica del dolor de un centro médico académico. Medicina del dolor, 16(2), 312–318.
Wilson, JCT (1981). Implementación de proyectos de simulación por computadora en el cuidado de la salud. Diario de
la Sociedad de Investigación Operacional, 32(9), 825–832.
Machine Translated by Google
capitulo 23
Análisis de precios
1. Introducción
Una de las decisiones más importantes que debe tomar una empresa es el precio de sus productos.
En su forma más simple, esto equivale a indicar un número (el precio) para un solo producto.
Pero a menudo es mucho más complicado que eso. Varios mecanismos de fijación de precios, como precios
dinámicos, promociones, paquetes, descuentos por volumen, segmentación, licitación y precio propio, se
implementan generalmente para aumentar los ingresos, y este capítulo está dedicado al estudio de tales
mecanismos. La optimización de precios e ingresos se conoce con diferentes nombres en diferentes dominios,
como gestión de ingresos (RM), gestión de rendimiento y análisis de precios. Una definición formal de la gestión
de ingresos es el estudio de cómo una empresa debe establecer y actualizar las decisiones sobre precios y
disponibilidad de productos en sus diversos canales de venta para maximizar su rentabilidad. Hay varias
frases clave en esta definición: las empresas no solo deben fijar sino también actualizar los precios; por lo tanto, la
fijación de precios debe ser dinámica y depender de muchos factores, como la competencia, la disponibilidad de
inventario y los pronósticos de demanda actualizados. Las empresas no solo fijan los precios, sino que también
toman decisiones sobre la disponibilidad de productos; en otras palabras, las empresas pueden dejar de ofrecer
ciertos productos a un precio determinado
K. Talluri
Imperial College Business School, South Kensington, Londres, Reino Unido
Correo electrónico: kalyan.talluri@imperial.ac.uk
S. Seshadri )
(Gies College of Business, University of Illinois at Urbana-Champaign, Champaign, IL, EE. UU.) Correo
electrónico: sridhar@illinois.edu
(como el cierre de asientos con tarifas bajas en las aerolíneas) u ofrecer solo ciertos surtidos en
ciertos canales. Las empresas pueden ofrecer diferentes productos a diferentes precios a través de
los canales de venta: ¡el precio en línea de ciertos productos puede ser más bajo que el precio
minorista!
La aplicación de análisis de gestión de precios e ingresos en la gestión empresarial comenzó
en la década de 1970. Operadores de aerolíneas como British Airways (entonces British Overseas
Airways Corp.) y American Airlines comenzaron a ofrecer tarifas diferenciadas para esencialmente
los mismos boletos. El pionero de esta técnica, llamada gestión del rendimiento, fue Bob Crandall.
Crandall, quien finalmente se convirtió en director ejecutivo de American Airlines, encabezó una
revolución en el precio de los boletos de avión, pero su impacto se sentiría en todas las industrias.
Las cadenas hoteleras, como Marriott International, y los servicios de paquetería, como United
Parcel Service, lo han utilizado con gran eficacia.
Estas técnicas solo se han vuelto más refinadas en las décadas posteriores. La llegada de los
grandes datos ha revolucionado el grado en que la analítica puede predecir patrones de demanda
de los clientes, ayudando a las empresas a adaptarse a las tendencias más rápido que nunca. Las
cadenas minoristas como Walmart recopilan petabytes de datos diariamente, mientras que las
aplicaciones móviles como Uber se basan en big data para proporcionar el marco para su modelo
de negocios.
Sin embargo, incluso en su forma más simple (un mecanismo simple de publicación de precios), la fijación de precios es complicada.
Si lo establece demasiado bajo o demasiado alto, está perdiendo ingresos. Por otra parte, puede
resultar imposible determinar el precio correcto, ya sea antes o después de la venta.
La analítica ayuda; de hecho, hay pocas otras áreas donde los datos y el análisis se combinan tan
bien para ayudar al gerente. Esto se debe a que la fijación de precios se trata inherentemente de
datos, números y optimización. Hay muchos factores no observables, como la disposición a pagar
y las necesidades de un cliente, por lo que el modelado juega un papel fundamental. Aquí también,
nos limitamos en general a los modelos de monopolio, incorporando, siempre que sea posible,
precios competitivos y características del producto, pero no modelamos explícitamente reacciones
y equilibrios estratégicos. Cubrimos el modelado de la optimización de precios que, por necesidad,
implica el modelado del comportamiento del cliente y la optimización restringida.
Por ejemplo, uno podría considerar qué clientes compran a qué hora qué productos en una tienda
determinada de un minorista de alimentos. Luego, uno podría modelar su sensibilidad al precio, surtido de
productos y paquetes de productos. Estos datos se pueden combinar con la información del sistema de
planificación de inventario para establecer precios. El segundo bloque de construcción refleja el hecho de
que el precio debe depender de la disponibilidad. Por lo tanto, las limitaciones de capacidad juegan un
papel importante en la optimización de precios. Además, podría haber otras restricciones simples, como la
disponibilidad de inventario, la estructura de rutas de una aerolínea, restricciones de red que equiparan el
flujo de entrada y el inventario con los flujos de salida, y el consumo y el cierre del inventario. Se utilizan
restricciones más esotéricas para modelar el comportamiento de cambio del cliente cuando se le presenta
una selección de productos o incluso el comportamiento estratégico de los clientes en previsión de un
descuento o aumento de precio.
¿Qué tipo de preguntas ayuda a responder RM? Hemos proporcionado una lista parcial de la siguiente
manera:
• Una cadena hotelera quiere pautas sobre cómo diseñar productos para diferentes segmentos de clientes.
El precio no es la única característica distintiva. Por ejemplo, los hoteles venden la misma habitación
con diferentes productos y a diferentes precios, como sin reembolso, se requiere pago por adelantado,
reembolso completo, desayuno incluido, acceso al salón ejecutivo incluido, etc.
• El dueño de un club de salud quiere saber si las ganancias aumentarán si establece diferentes precios en
diferentes momentos y para diferentes clientes. • A un fabricante de automóviles que licita por el
suministro de una flota de automóviles le gustaría saber cómo presentar una oferta para un contrato en
función de la información de ofertas anteriores, la competencia actual y otros factores para maximizar
la rentabilidad esperada.
• Una cadena minorista necesita decidir cuándo y cuánto descontar los precios de un artículo de moda
durante una temporada de venta para maximizar los ingresos esperados. • En un hotel céntrico, los
viajeros de negocios reservan más cerca de la fecha de estancia que los viajeros de ocio. Los viajeros de
ocio son más sensibles a los precios que los viajeros de negocios. El gerente del hotel tiene que decidir
cuántas habitaciones reservar para los viajeros de negocios. • El gerente de un hotel tiene que
determinar cómo fijar el precio de una estadía de un solo día frente a una estadía múltiple.
estancia de un día
• Una agencia de alquiler de coches tiene que decidir si es rentable transportar coches desde
de un lugar a otro anticipándose al aumento de la demanda.
• Una franquicia de baloncesto quiere explorar precios diferenciales. Quiere evaluar si cobrar diferentes
precios para diferentes días, diferentes equipos y diferentes horas del día aumentará los ingresos. •
¿Cómo funciona la libertad de poner tu propio precio (inventado por Priceline)?
El profesional de análisis reconocerá la oportunidad de emplear casi todas las herramientas del conjunto
de herramientas de análisis para resolver estos problemas. En primer lugar, los datos son necesarios con
la granularidad correcta y de diferentes fuentes, incluidos los puntos de venta y los sistemas de reservas,
las encuestas y las conversaciones en las redes sociales. También se requiere información sobre ofertas y
precios competitivos. Se deben recopilar datos no solo sobre ventas, sino también sobre ausencias y
cancelaciones. Muchas veces, las reservas se hacen en grupos.
Estas reservas tienen sus propias características para registrar. En segundo lugar, estos datos deben
organizarse de manera que revelen patrones y tendencias, de modo que los gerentes de ingresos,
Machine Translated by Google
los gerentes de producto y los gerentes de operaciones pueden coordinar sus acciones para cambiar la
oferta y la demanda. En tercer lugar, la demanda debe pronosticarse a futuro y en todos los niveles del
mercado. Algunos sistemas recientes afirman incluso predecir la demanda con una granularidad de un
solo cliente. Las soluciones óptimas de RM de precios y disponibilidad de productos deben estar
disponibles en un formato aceptable para vendedores, agentes, casas de subastas, etc. Por lo tanto,
RM requiere información, sistemas, tecnologías y capacitación, así como acción disciplinada para tener
éxito.
En el resto del capítulo, brindamos un vistazo a las técnicas de RM más utilizadas. Estos incluyen
control de capacidad, overbooking, precios dinámicos, pronósticos para RM, procesos utilizados en RM
y RM de red. Concluimos con sugerencias para lecturas adicionales.
2 teoría
Los factores que afectan el precio son los siguientes:
1. La naturaleza del producto o servicio (características, entrega, condiciones de venta, canal) y las
alternativas competidoras (tanto directas como indirectas)
2. Valoración de los clientes sobre el producto, necesidades y comportamiento de compra
El lector habrá notado que no incluimos los costos. Esto se debe a que en este capítulo no analizamos
la fijación de precios basada en el costo simple, como las reglas de margen de beneficio (p. ej., un
margen del 10 %), no porque no se practique (de hecho, tal vez sea la metodología más popular debido
a su simplicidad), sino porque porque no hay mucho que decir sobre reglas tan simples. Más bien, nos
concentramos en la fijación de precios basada en el mercado que establece el precio en función de los
productos y la competencia y lo que el consumidor está dispuesto a pagar. El costo juega un papel
como límite inferior del precio, pero la decisión real es establecer el margen por encima del costo en
función del mercado, las características del producto y las preferencias del cliente.
Sea p el precio (de un solo producto) y D(p) la demanda a ese precio (asumiendo que todas las demás
características se mantienen iguales). La optimización de ingresos consiste en encontrar el precio p que
maximiza R(p) = pD(p), y la optimización de beneficios consiste en maximizar (p ÿ c)D(p) cuando c es el
costo de producir una unidad.
D(p) se denomina función de demanda y es natural suponer que disminuye a medida que
aumentamos el precio. También se acostumbra suponer que tiene alguna forma funcional, digamos
Machine Translated by Google
D(p) = a ÿ pb o D(p) = apb donde a y b son los parámetros del modelo que estimamos en base a
los datos observados.
Ejemplo: supongamos que, según los datos, estimamos que la demanda de un determinado
producto es D(p) = 35,12 ÿ 0,02p (es decir, se supone que la demanda tiene una forma lineal D(p)
= a ÿ pb, donde calibramos a = 35,12 y b = 0,02). El problema de optimización de ingresos es
maximizar p × (35.12 ÿ 0.02p). A partir del cálculo (tomar la derivada de la función de ingresos y
establecerla en 0, por lo que 35.12 ÿ 2 × 0.02p = 0, y resolverla para p), obtenemos que el precio
35,12
es pÿ == 878.
óptimo 2×0,02
En esta sección, analizamos el control de la venta de inventario cuando los clientes pertenecen a
diferentes tipos o, utilizando la terminología de marketing, segmentos. Se supone que los
segmentos tienen diferente disposición a pagar y también diferentes preferencias en cuanto a
cuándo y cómo compran. Por ejemplo, un cliente de negocios de una aerolínea puede preferir
comprar cerca de la fecha de salida, mientras que un cliente de ocio planifica con mucha
anticipación y desea una reserva de vuelo garantizada. La motivación original de la administración
de ingresos fue un intento de asegurarnos de reservar suficiente inventario para el cliente comercial
que llega tarde y que paga más, y al mismo tiempo continuar vendiendo a un precio más barato al
segmento de ocio sensible al precio.
Asumimos que creamos productos con restricciones de venta (como compra anticipada
requerida o no cancelaciones o estadía de fin de semana), y etiquetamos cada uno de estos
productos como clases de reserva o simplemente clases. Todos los productos comparten el mismo
inventario físico (como las habitaciones del hotel o los asientos de un vuelo). En la práctica, varios
productos RM pueden agruparse en clases por conveniencia operativa o limitaciones del sistema
de control. Si tal es el caso, el precio asociado a una clase es una aproximación o un promedio de
los productos de esa clase.
De ahora en adelante, asumimos que cada solicitud de reserva es para una sola unidad de
inventario.
Comenzamos con la suposición de comportamiento del cliente más simple, la suposición de clase
independiente : cada segmento se identifica con un solo producto (que tiene un precio fijo) y los
clientes compran solo ese producto. Y si ese producto no está disponible para
Machine Translated by Google
venta, entonces no compran nada. Dado que los segmentos se identifican uno a uno con las clases,
podemos etiquetarlos como clientes de clase 1, clientes de clase 2, etc.
El objetivo del modelo de optimización es encontrar límites de reserva (la cantidad máxima de unidades
del inventario compartido que estamos dispuestos a vender a ese producto) que maximicen los ingresos.
Consideremos primero el modelo de dos clases, donde la clase 1 tiene un precio más alto que la clase
2, es decir, f1 > f2, y las reservas de la clase 2 son las primeras. El problema sería trivial si los clientes que
pagan más son los primeros, por lo que el núcleo del problema es decidir un "nivel de protección" para los
últimos que pagan más y, alternativamente, un "límite de reserva" sobre cuándo detener las ventas. los
clientes de clase 2 que pagan menos.
Digamos que tenemos un inventario de r0. Primero hacemos pronósticos de la demanda para cada
clase, digamos basados en la demanda histórica, y representamos los pronósticos de demanda por Dj , j =
1, 2.
¿Cuántas unidades de inventario debe proteger la empresa para los clientes de clase 1 que llegan más
tarde, pero de mayor valor? La empresa sólo tiene una idea probabilística de la demanda de clase 1 (el
problema sería nuevamente trivial si conociera con certeza esta demanda).
La empresa tiene que decidir si necesita proteger r unidades para los clientes de clase 1 que llegan
tarde. Venderá la r-ésima unidad a un cliente de clase 1 si y solo si D1 ÿ r, por lo que el ingreso marginal
esperado de la r-ésima unidad es f1P (D1 ÿ r). Intuitivamente, la empresa debería aceptar una solicitud de
clase 2 si y solo si f2 excede este valor marginal o, de manera equivalente, si y solo si
El lado derecho de (23.1) es decreciente en r. Por lo tanto, habrá un nivel de protección óptimo para la
clase 1, denotado rÿ tal que aceptamos la clase 2 si la capacidad
1 , la remanente
capacidad remanente
excede rÿ yes
la rÿ
rechazamos
o menos. si
1 1
Formalmente, rÿ satisface
1
En la práctica, suele haber muchos productos y segmentos, así que considere n > 2 clases.
Continuamos con el supuesto de clases independientes y que la demanda de las n clases llega en n
etapas, una para cada clase en orden de ingresos con el segmento que paga más, la clase 1, que llega
más cerca del tiempo de uso del inventario.
Deje que las clases se indexen de modo que f1 > f2 > ··· > fn. Por lo tanto, la demanda de clase n (el
precio más bajo) llega en la primera etapa (etapa n), seguida por la demanda de clase n-1 en la etapa n-1,
y así sucesivamente, con la clase de precio más alto (clase 1) llegando a la etapa n-1. última etapa (etapa
1). Dado que existe una correspondencia uno a uno entre etapas y clases, indexamos ambas por j .
Describimos ahora un método heurístico llamado método de ingreso marginal esperado por asiento
(EMSR). Este método heurístico se usa porque resolver el problema de clase n de manera óptima es
complicado. El método heurístico funciona de la siguiente manera:
Machine Translated by Google
j
Sj = Dk,
k=1
y dejar que el ingreso promedio ponderado (esta es la parte heurística) de las clases
1,..., j, denotado f¯ j , definido por
j
= k=1j fkE[Dk]
f¯j _ , (23.3)
k=1 E[Dk]
fj+1 .
PAGS (Sj > rj ) = (23.4)
f¯ j
rj = ÿ + zÿ,
j j es la varianza de la
demanda agregadak=1
en la
ÿketapa
es la media
j + 1 y yz ÿ2
= ÿ1(1
= donde
ÿ fj+1/f¯
ÿ= k=1 p2k
j ) y ÿ1(·)
es el inverso de la cdf normal estándar Se repite este cálculo para cada j .
El método heurístico EMSR es muy popular en la práctica ya que es muy simple de
programa y es robusto con un rendimiento aceptable (Belobaba 1989). uno puede hacer
el cálculo con bastante facilidad usando Excel, ya que tiene funciones integradas para el normal
distribución y su inversa.
2.3 Sobreventa
Hay muchas industrias donde los clientes primero reservan el servicio y luego lo usan
luego. Algunos ejemplos son hoteles, aerolíneas, restaurantes y autos de alquiler. Ahora, cuando
un cliente reserva algo para uso futuro, sus planes pueden cambiar en el
mientras tanto. Una cancelación es cuando el cliente cancela explícitamente la reserva,
y una ausencia es cuando no notifican a la empresa pero simplemente no se presentan en el
horario previsto para el servicio. Lo que haga el cliente depende de la reserva.
Machine Translated by Google
políticas Si existe un incentivo como la devolución parcial o total del importe, los clientes tienden a
cancelar. Si no hay reembolso, simplemente optarán por no presentarse.
El overbooking es una práctica de tomar más reservas que capacidad, anticipando que una
cierta fracción de los clientes cancelaría u optaría por no presentarse. Esto lleva a una mejor
utilización de la capacidad, especialmente en días de alta demanda cuando el valor marginal de
cada unidad de inventario es muy alto. La empresa, sin embargo, tiene que estar preparada para
manejar un cierto número de clientes a los que se les niega el servicio a pesar de que han pagado
por el producto y tienen un contrato de reserva. En muchas industrias, los beneficios de una mejor
utilización de la capacidad dominan el riesgo de denegar el servicio, y el overbooking se ha
convertido en una práctica común.
Las empresas controlan el overbooking estableciendo un límite superior sobre cuánto
overbooking (llamado límite de overbooking). Por lo general, a medida que se acercan al tiempo de
uso del inventario (por ejemplo, la salida de un vuelo), tienen una mejor idea de la demanda y
reducen el riesgo de exceso de reservas si parece haber una gran demanda con pocas cancelaciones.
La figura 23.1 muestra la dinámica de una evolución típica del límite de overbooking. A medida que
se acerca la fecha de uso y la empresa teme que podría terminar negando el servicio a algunos
clientes, reduce el límite de sobreventa hacia la capacidad física más rápido (incluso puede ser
menor que la cantidad actual de reservas disponibles también, para evitar nuevas reservas). ).
Sea CDB el costo de un abordaje denegado, es decir, el costo estimado de negar el servicio a un
cliente que tiene una reserva (que, como mencionamos anteriormente, incluye compensación, pérdida
de buena voluntad, etc.). Sea Cu el costo de oportunidad de la capacidad infrautilizada, que
generalmente se toma como el ingreso esperado por una unidad de inventario. El límite de
overbooking que tenemos que decidir entonces es ÿ>C, donde C es la capacidad física.
Para simplificar, asumimos lo peor y que la demanda excederá el límite de overbooking, es decir,
seremos conservadores al establecer nuestro límite. Sea N el número de ausencias/cancelaciones.
Como no estamos seguros del número de cancelaciones o ausencias, lo modelamos como una
variable aleatoria, digamos como una variable aleatoria binomial con parámetros ÿ,p donde p es la
probabilidad de cancelación o ausencia. Entonces, el número de clientes que realmente se presentan
viene dado por ÿ ÿ N (se supone, de forma conservadora, que la demanda de recuperación es
siempre hasta ÿ).
A continuación, planteamos el problema como la siguiente decisión marginal: ¿Deberíamos
quedarnos en el límite actual ÿ o aumentar el límite a ÿ + 1, continuando con el supuesto de que la
demanda es alta y también superará ÿ + 1? Pueden ocurrir dos eventos mutuamente excluyentes: (1)
ÿ ÿN<C. En este caso, al subir el límite en 1, aumentaríamos nuestra ganancia, o en términos de
costo, en ÿCu. (2) ÿ ÿ N ÿ C, e incurrimos en un costo de CDB.
Entonces, el costo esperado por incremento unitario de ÿ es
Tenga en cuenta que esta cantidad comienza siendo negativa (cuando ÿ = C) como P r(ÿ ÿ N ÿ
C) = 0 en ese punto, pero a medida que aumentamos ÿ, disminuye y el riesgo de CDB aumenta.
Eso nos dice que podemos aumentar la ganancia siempre que sea negativa, pero incurrir en un costo
si es positiva, y la mejor decisión es detenerse cuando esta cantidad sea 0. Esto da como resultado
una buena ecuación para determinar el ÿ óptimo,
Con
PAGS r(ÿ - norte ÿ C) = .
Con + CBD
Si dejamos que S(ÿ) sea el número de personas que se presentan, una vista alternativa es que Cu
necesitamos establecer ÿ tal que P
r(S(ÿ) ÿ C) = Si no se presenta con Cu+CDB . probabilidad p.
p, Entonces
muestra binomial
también seguir
establezca una
tal distribución
conÿprobabilidad
que 1ÿ
(escribiendo en términos de ÿ para adaptarse a los cálculos de Excel)
Con
PAGS r(S(ÿ) ÿ C) = 1 ÿ .
Con + CBD
Machine Translated by Google
Ejemplo (Fig. 23.2): Digamos Cu = $150 y CDB = $350. Para calcular el límite de
overbooking, primero calculamos el ratio crítico:
Con 150
= = 0,3.
Con + CBD 500
La fijación dinámica de precios es una versión de la gestión de ingresos, más simple en cierto sentido,
pero que también requiere una estrecha supervisión. Por lo general, no hay productos virtuales
explícitos dirigidos a diferentes segmentos.1 Más bien, la empresa cambia el precio del producto con
el tiempo a medida que observa cambios en los muchos factores que afectarían la demanda: como el
tiempo mismo (por ejemplo, porque los clientes de mayor valoración vienen después de los clientes
de menor valoración), el clima, la combinación de clientes y la competencia.
En los últimos años, la fijación dinámica de precios ha adquirido tres sabores distintos: aumento de precios,
como lo practican Uber, Lyft y las empresas de servicios públicos; reajuste de precios, o fijación de precios
basada en la competencia, tal como lo practican los vendedores en el mercado de Amazon; y, por último, la
fijación de precios de descuento o aumento, en la que los precios disminuyen gradualmente (como en el comercio
minorista de moda) o aumentan (como en las aerolíneas de bajo costo) a medida que se acerca una fecha límite.
Esta es la más nueva y quizás la más controvertida de las prácticas dinámicas de fijación de precios. La razón
económica subyacente es sólida y razonable. Cuando hay más demanda que oferta, se debe aumentar el precio
para despejar el mercado; básicamente, el bien o servicio se asigna a quienes más lo valoran. Cuando se les
pide que juzguen la justicia de esto, la mayoría de los consumidores no tienen ningún problema con este principio,
por ejemplo, pocos consideran que las subastas son injustas.
Sin embargo, cuando se aplica a artículos o servicios cotidianos comunes, muchos consumidores se
indignan. Esto se debe a muchas razones: (1) No hay transparencia sobre cómo se mueven los precios para
equilibrar la oferta y la demanda. (2) A medida que los precios suben cuando un gran número de personas lo
necesitan, se quedan con la sensación de que se les está subiendo el precio cuando más necesitan el servicio.
(3) El artículo o servicio es esencial o vital, como un servicio farmacéutico o de ambulancia. Uber fue pionera en
la introducción de aumento de precios en una industria acostumbrada a un sistema de precios fijos regulados
(precisamente para brindar transparencia y evitar el aumento de precios y también para evitar las molestias de la
negociación). Si bien las reacciones iniciales2 han sido predecibles, en unos pocos años se ha convertido en un
hecho de la vida. Esto muestra la importancia de que una empresa crea en la lógica económica de la fijación
dinámica de precios y se apegue a la práctica a pesar de la resistencia del público. Por supuesto, los
consumidores deben encontrar valor en el servicio en sí mismo, ya que los precios son más bajos que las
alternativas (como el servicio de taxi regular) durante las horas de menor actividad, con el tiempo los consumidores
se dan cuenta de la importancia y la necesidad de los precios dinámicos.
Un segundo fenómeno que se ha apoderado recientemente se llama "cambio de precio" que se utiliza en los
mercados de comercio electrónico como Amazon.com. Es esencialmente una fijación de precios dinámica
impulsada por la competencia.
Muchas plataformas de comercio electrónico venden productos de marca que son idénticos a los que venden
otros vendedores. El papel del vendedor en toda la cadena de suministro es poco más que almacenar y enviar,
ya que el fabricante maneja las garantías. El servicio juega un papel importante, pero muchos de los vendedores
tienen reseñas y calificaciones similares y, a menudo, el precio es la principal motivación del cliente para elegir a
un vendedor sobre otro, ya que la plataforma de comercio electrónico elimina todos los costos de búsqueda.
Sin embargo, los precios fluctúan, siendo a menudo misteriosas las razones. Algunas explicaciones posibles
son las creencias de las empresas sobre su propio atractivo (en términos de calificaciones, revisiones y
confianza) en comparación con otras y sus posiciones de inventario: una empresa con inventarios bajos puede
querer reducir las ventas aumentando los precios. Otra posible razón es que las empresas evalúan los perfiles
de los clientes que compran en diferentes momentos del día y días de la semana. Una persona que compra
tarde en la noche definitivamente no es una comparación de compras dentro de una tienda física, por lo que se
reduce el conjunto de competidores.
Tenga en cuenta que un sitio de comercio electrónico normalmente tendría más variables a las que fijar el
precio, como la ubicación y el perfil del cliente anterior, pero un vendedor en un mercado como Amazon o eBay
solo tiene información limitada y tiene que recopilar la información de la competencia extrayéndola. sitio web o
de fuentes externas.
La revisión de precios se refiere a herramientas automatizadas, a menudo simplemente basadas en reglas,
que cambian el precio debido a movimientos o inventario de la competencia. En el ejercicio al final de este
capítulo se dan ejemplos de tales reglas.
La reducción de precios es una táctica común en las tiendas de abarrotes y en la venta minorista de moda.
Aquí, el valor del producto en sí mismo se deteriora, ya sea físicamente debido a la vida útil limitada o como en
la industria de la moda y la electrónica de consumo, a medida que se introducen nuevas colecciones o
productos. Las rebajas en la moda tienen una motivación algo diferente de las rebajas de los productos frescos.
En el comercio minorista de moda, los productos no se pueden reponer dentro de la temporada debido a los
largos ciclos de ventas, mientras que para los alimentos frescos, la fecha de caducidad reduce el valor del
producto porque se introducen artículos más frescos al mismo tiempo.
El precio de descuento, como su nombre lo indica, comienza con un precio inicial y luego, gradualmente en
varios puntos durante el ciclo de vida del producto, reduce el precio. Las reducciones de precios son a menudo
en forma de 10% de descuento, 20% de descuento, etc., y algunas veces coordinadas con las ventas
anunciadas. Al final de la temporada o en una fecha prescrita, el producto se retira del estante y se vende a
través de canales secundarios a un precio muy reducido, a veces incluso por debajo del costo. Este precio final
se denomina valor de salvamento.
Las decisiones operativas son cuánto descontar y cuándo. Hay varias restricciones y reglas comerciales
que se deben respetar al rebajar, la más común es que una vez descontado, no podemos volver a subir el
precio (esto es lo que distingue el precio rebajado de las promociones). Otros limitan la cantidad y las cantidades
de descuento.
cambiando cuando los clientes con valoraciones más altas llegan más cerca de la fecha límite (el
tipo y la combinación de clientes pueden estar cambiando o incluso para el mismo cliente, su
incertidumbre sobre el producto puede resolverse).
Por razones de practicidad, tratamos de mantener los modelos de demanda simples. Al fin y al
cabo, de nada servirían elaborados modelos de comportamiento de la demanda si no podemos
calibrarlos a partir de datos y optimizar en base a ellos. En cualquier caso, los modelos más
complicados no significan necesariamente que predigan mejor la demanda y, a menudo, son más
difíciles de gestionar y controlar.
En esta sección, nos concentramos en tres modelos simples de cómo se explica la demanda
en función del precio. Los tres se basan en la idea de una población potencial que está
considerando comprar nuestro producto. El tamaño de esta población es M. Tenga en cuenta que
M puede variar según el día, el día de la semana o la hora del día. Fuera de este mercado
potencial, una cierta fracción compra el producto. Modelamos la fracción en función del precio y
posiblemente también de otros atributos.
Sea D(p) la demanda en función del precio p.
donde a y b son parámetros que estimamos a partir de los datos. Si hay varios productos, la
demanda de uno puede afectar al otro. Podemos modelar la demanda en presencia de
múltiples productos como
Es decir, la demanda del producto i es una función no solo del precio de i, sino también de los
precios de los otros productos, pj , j = i. Los parámetros ai, bi y bij deben estimarse a partir de
los datos.
Este modelo puede generar problemas en los extremos ya que no hay garantía de que la
fracción esté entre 0 y 1.
D(p) = M(apb).
bij
D(pi) = M(ai p ). yo
Machine Translated by Google
Esto generalmente se estima tomando los logaritmos naturales en ambos lados, por lo que se vuelve lineal
en los parámetros. Sin embargo, este modelo debe manejarse con cuidado en la optimización, ya que puede
dar resultados extraños; esencialmente, cuando estamos optimizando tanto los ingresos como las ganancias,
el problema puede volverse ilimitado.
• Modelo de elección de la demanda: En el modelo de elección, se supone que cada cliente hace una elección
entre los productos disponibles. El siguiente a veces se denomina modelo logit multinomial (MNL),
huevo+carne
D(pi) = METRO
1 + eaj+bjpj ,
donde e representa la base del logaritmo natural. Tenga en cuenta que este modelo tiene muchos menos
parámetros que el modelo aditivo o multiplicativo y, naturalmente, limita la fracción para que siempre se
encuentre entre 0 y 1. Esta es la gran ventaja de este modelo.
Mostramos en los ejercicios cómo se pueden utilizar estos modelos para la optimización de precios.
El estudio de caso sobre el modelo de elección de aerolíneas (ver el Capítulo 26), tiene un ejercicio detallado
sobre la estimación y el uso de modelos de elección para la optimización de precios y el diseño de productos.
La fijación de precios para cada producto dirigido a un segmento, como se indica en el art. 2.2.1, y controlar
cuánto se vende a cada precio requiere que controlemos cuántas reservas se han realizado para cada producto
y cerrar ventas a ese precio siempre que vendamos lo suficiente.
Entonces, la secuencia es (1) pronosticar la demanda de cada producto RM para un día específico y luego
(2) optimizar los controles dados los pronósticos y (3) controlar las ventas en tiempo real para cada producto
para que no excedan los límites de reserva para ese producto.
A continuación enumeramos las principales formas de control utilizadas en las industrias de RM. Debido a
las limitaciones de los sistemas de distribución que se diseñaron hace muchos años, el resultado de nuestro
paso de optimización debe ajustarse a estas formas.
• Asignaciones anidadas o límites de reserva: todos los productos de RM que comparten inventario se clasifican
primero en algún orden, generalmente por su precio.3 Luego, la capacidad restante se asigna a estas clases,
pero las asignaciones están "anidadas", por lo que la clase más alta tiene acceso a todo el inventario
asignado a una clase inferior. Por ejemplo, si quedan 100 asientos a la venta y hay dos clases, Y y B,
considerando Y
3Como mencionamos anteriormente, es común agrupar diferentes productos bajo una “clase” y tomar un precio
promedio para la clase. En la industria de las aerolíneas, por ejemplo, los productos, cada uno con un código de
base de tarifa (como BXP21), se agrupan en clases de tarifas (representadas por un alfabeto, Y, B, etc.)
Machine Translated by Google
una clase más alta, entonces un ejemplo de una asignación anidada sería Y100 B54. Por
ejemplo, si llegaran 100 Y clientes, los controles permitirían la venta a todos ellos. Si 60 B
clientes aparecieran, solo 54 podrían comprar.
Se dice que B tiene una asignación o un límite de reserva de 54. Otra terminología que se utiliza
es protecciones (anidadas): se dice que Y tiene (en este ejemplo) una protección de 46 asientos.
• Precios de oferta: por razones históricas, la mayoría de los sistemas RM de aerolíneas y hoteles
funcionan con asignaciones anidadas, ya que muchos sistemas de distribución global (como
Amadeus o Sabre) se estructuraron de esta manera. Muchos de estos sistemas permiten una
pequeña cantidad de límites (10 a 26), por lo que cuando la cantidad de productos RM supera
esta cantidad, de alguna manera deben agruparse para ajustarse a la cantidad permitida por el sistema.
El control del límite de reserva es perfectamente adecuado cuando se controla un solo
recurso (como un solo tramo de vuelo) de forma independiente (independiente de otros vuelos
de conexión, por ejemplo), pero encontramos sus limitaciones cuando aumenta la cantidad de
productos que utilizan ese recurso, digamos a más que el tamaño del inventario. Considere la
red RM, donde los productos son itinerarios, y podría haber muchos itinerarios que utilizan un
recurso (un tramo de vuelo): la agrupación de los productos a priori se vuelve complicada y
desordenada (aunque se ha intentado, a veces llamado anidamiento virtual).
Una forma de control más natural y apropiada, especialmente para la red RM, es una forma
de control de precio de umbral llamada control de precio de oferta . Cada recurso tiene asociado
un número no negativo llamado precio de oferta. Un producto que utiliza una combinación de
recursos se vende si el precio del producto supera la suma de los precios de oferta de los
recursos que utiliza el producto. Los precios de oferta se actualizan con frecuencia a medida que
llega nueva información o cuando se vende el inventario. La siguiente sección ilustra el cálculo
de los precios de oferta.
Digamos que una aerolínea usa Chicago como centro. Ofrece itinerarios desde la costa este de los
EE. UU., como Nueva York y Boston, hasta ciudades del oeste, como Los Ángeles y San Francisco. Los
pasajeros que vuelan de Nueva York a Chicago incluyen aquellos que viajan directamente a Chicago y
también aquellos que viajan vía Chicago a Los Ángeles, San Francisco, etc. La empresa no puede tratar
la reserva del vuelo de Nueva York a Chicago de forma independiente, sino que debe considerar el
impacto en el resto de la red ya que reduce la capacidad para futuros clientes que deseen viajar a Los
Ángeles y San Francisco.
De manera similar, existen interacciones intertemporales cuando consideramos problemas de
estadías de varias noches, por ejemplo, un automóvil o una habitación de hotel cuando se alquila por varios días.
Por lo tanto, el problema del alquiler de automóviles del lunes afecta al problema del alquiler de automóviles
del martes y así sucesivamente. Otros ejemplos de administración de ingresos de la red incluyen reservas
de carga que consumen capacidad en más de un par de OD o campañas publicitarias de televisión que
usan espacios publicitarios en múltiples programas y días.
Gestión subóptima de un recurso de red a la vez: es fácil demostrar que no es óptimo gestionar cada
recurso por separado. Considere una situación en la que el tomador de decisiones sabe que el vuelo de
la ciudad A a B, con una tarifa publicada de 100, estará relativamente vacío, mientras que el vuelo de
conexión de B a C, con una tarifa de 200, estará bastante lleno. Algunos pasajeros solo quieren viajar de
A a B, y hay otros que quieren volar de A a C. Ambos usan el tramo AB. En este caso, ¿cuál será el orden
de preferencia para reservar un pasajero de A a B frente a uno que quiere viajar de A a C y paga 275?
Intuitivamente, quitaríamos 200 de 275 y valoraríamos el valor de este pasajero para la aerolínea en el
tramo AB como solo 75. Por lo tanto, los ingresos totales podrían no ser un buen indicador de valor. En
este ejemplo, la asignación del 275 según la distancia entre A–B y B–C también podría ser incorrecta si,
por ejemplo, las distancias son iguales. Las asignaciones basadas en la utilización o el precio de alguna
clase de tarifa mediana también serían inapropiadas.
Por lo tanto, cualquier fórmula que asigne el valor a diferentes tramos del itinerario debe considerar tanto
la rentabilidad de cada tramo como la probabilidad de ocupar el asiento.
Un ejemplo para ilustrar un enfoque inductivo: considere un ejemplo simple en el que, como se indicó
anteriormente, hay un vuelo de la ciudad A a la ciudad B y un vuelo de conexión de B a C. Las tarifas de
ida son 200 y 200, mientras que la tarifa de A a C es 360. Queda exactamente un asiento en cada tramo
de vuelo. Suponga, como se hace típicamente al establecer el problema de optimización, que el tiempo es
discreto. Está numerado al revés, de modo que el tiempo n indica que quedan n períodos de tiempo antes
de que tenga lugar el primer vuelo. Además, se supone que la probabilidad de que llegue más de un
cliente en un período de tiempo es insignificante. Por lo tanto, o no llega ningún cliente o llega un cliente.
Nos dan que quedan tres períodos de tiempo para ir. En cada periodo, la probabilidad de que un cliente
quiera viajar de A a B es 0,2, de B a C es 0,2 y de A a C es 0,45; por lo tanto, existe una probabilidad de
cero llegadas igual a 0,15. En este ejemplo, las probabilidades de llegada son las mismas en cada período.
Es fácil cambiar los porcentajes con el tiempo. ¿Cuál debería ser la política de reserva de la aerolínea con
un asiento disponible en cada vuelo?
Machine Translated by Google
Este problema se resuelve mejor a través de la inducción hacia atrás. Defina el estado del
sistema como (n, i, j), donde n es el período e i y j los números de asientos no vendidos en las
patas AB y BC.
Considere el estado (1, 1, 1). En este estado, en el último período, la decisión óptima es
vender a cualquier cliente que llegue. El pago esperado es 0,4 × 200 + 0,45 × 360 = 242.
Escribimos el valor en este estado como V (1, 1, 1) = 242. El pago esperado en el estado (1, 0,
1) o (1, 1, 0) es 0,2 × 200 = 40. Escribimos V (1, 0, 1) = V (1, 1, 0) = 40. Para completar, podemos
escribir V (n, 0, 0) = 0.
Cuando faltan dos períodos, la decisión es si vender a un cliente o esperar. Considere el
estado (2, 1, 1) y el valor de estar en este estado, V (2, 1, 1).
Obviamente, es óptimo vender a un cliente de AC. Algunos cálculos son necesarios para saber
si debemos vender a un cliente AB o BC:
Si llega un cliente AB: Si vendemos, obtenemos 200 + V (1, 0, 1) (de vender el asiento a un
cliente BC si llega en el último período) = 240. Esperando obtiene V (1, 1, 1) = 242. Por lo
tanto, es mejor no vender.
Si llega un cliente BC: Similar al caso anterior, es mejor esperar.
Si llega un cliente AC: Vender. Obtenemos 360.
Así, V (2, 1, 1) = 0,4 × 242 + 0,45 × 360 + 0,15 × V (1, 1, 1) = 295,1.
Podemos calcular V (2, 1, 0)(= V (2, 0, 1)) = 0,2 × 200 + 0,8 × V (1, 1, 0) = 72.
En el periodo 3, en el estado (3, 1, 1), es óptimo vender si llega un cliente AC.
Si llega un cliente AB (o BC), al vender obtenemos 200 + V (2, 0, 1)(o V (2, 1, 0)) = 272. Esto
es menor que V (2, 1, 1) . Por lo tanto, es mejor esperar.
Esto completa el análisis.
Enfoque de Precio de Oferta: Recuerde el control de precio de oferta de la Secc. 2.6. La regla
de operación es aceptar un itinerario si su tarifa excede la suma de los precios de oferta en cada
tramo utilizado por el itinerario, si queda suficiente capacidad. Se puede pensar que los precios
de oferta representan el valor marginal de las unidades de capacidad restantes.
Pero, ¿cómo calculamos estos precios de oferta? Se han propuesto y analizado muchos
enfoques heurísticos diferentes, tanto en la literatura académica como en la práctica (véanse,
por ejemplo, las referencias al final de este capítulo). Estos van desde la resolución de modelos
de optimización como un programa lineal determinista (DLP), un programa lineal estocástico
(SLP) y versiones aproximadas del programa dinámico (DP) ilustrado anteriormente hasta una
variedad de heurísticas. (La advertencia habitual es que el uso
Machine Translated by Google
de los precios de oferta de esta manera no tiene por qué dar lugar a los ingresos esperados óptimos.
Tomemos, por ejemplo, la regla de decisión que derivamos usando el programa dinámico con tres
períodos para el final y un asiento disponible en cada tramo de vuelo. Necesitamos dos precios de
oferta (uno por tramo) de modo que cada uno sea mayor que la tarifa del tramo sencillo pero su
suma sea menor que la tarifa de los tramos combinados. Por tanto, necesitamos precios b1 y b2
tales que b1 > 200, b2 > 200, b1 + b2 ÿ 360. Esos valores no existen.)
En este capítulo, ilustramos el enfoque DLP como es práctico y es utilizado por hoteles y
aerolíneas para resolver el problema. Para ilustrar el enfoque, primero usaremos una notación
general y luego proporcionaremos un ejemplo específico. Tenemos un conjunto de productos,
. El
indexados por i = 1 a I Si el producto i usa el recurso j, sea
conjunto aij = 1 si está
de recursos no 0.etiquetado
Sea Ri el como
ingreso
j = obtenido
1aJ.
por la venta de una unidad del producto i. Sabemos
capacidad quej es
del recurso la demanda deldemanda
Cj . Aquí, la productoyi los
es Di y la son
ingresos
deterministas.
En el contexto de una aerolínea, los productos serían los itinerarios, los recursos serían los
tramos de vuelo, el coeficiente aij = 1 si el itinerario i usa el tramo de vuelo j sino 0, la capacidad
sería el número de asientos no vendidos del recurso j, y el ingreso sería la tarifa del producto i.
En un hotel que está planificando sus asignaciones de habitaciones para la próxima semana, el
producto podría ser una estadía que comience un día y finalice otro día, como el ingreso el lunes y
la salida el miércoles. El recurso será una noche de habitación.
La capacidad será el número de habitaciones no vendidas para cada día de la semana. El coeficiente
aij = 1 si el producto i requiere permanecer el día j (por ejemplo, una persona que se hospeda los
lunes y martes utiliza una unidad de capacidad en cada noche de habitación). El ingreso será el
precio cobrado por la estancia completa del producto i. Para un problema de alquiler de autos,
reemplace la noche de la habitación con el alquiler de autos para cada día de la semana. Tenga en
cuenta que es posible que dos productos utilicen el mismo conjunto de recursos pero tengan un
precio diferente. Ejemplos de estos incluyen alguna combinación de habitación vendida con/sin
desayuno, permitir o no permitir la cancelación, aceptar el pago por adelantado o al final de la estancia, etc.
El problema es decidir cuántas reservas acepta Xi de cada producto i.
El problema de optimización general se puede enunciar de la siguiente manera (DLP):
máximo RiXi
X
yo = 1 a yo
St
aijXi ÿ Cj , j = 1 a J, (23.5)
i
Xi ÿ Di, i = 1 a I, (23.6)
Xi = 0, 1, 2,..., yo
Aquí, las restricciones (23.5) aseguran que no vendamos más reservas que la capacidad en cada
vuelo (en promedio); Las restricciones (23.6) aseguran que el número de reservas para un itinerario
sea menor que la demanda de ese itinerario (media de la demanda:
Machine Translated by Google
recuerda que esto es solo una aproximación). El valor de este problema de optimización
de hecho, puede demostrarse que es un límite superior del ingreso máximo esperado.
Los siguientes datos son necesarios para resolver este problema: Las demandas tienen que ser
pronóstico. El aforo del que se disponga dependerá del número de reservas
que ya han sido aceptados y tienen que ser computados. Los precios pueden ser
algo desconocido porque fluctúan dependiendo de las condiciones del mercado y
los tratos que se van a negociar. El DLP requerirá estimaciones de la esperada
precio. Además, se supone que no hay cancelaciones. también se supone
no hay no-shows y no se permite el overbooking. Algunas variaciones de la
El DLP básico tiene en cuenta estos factores.
Lunes 7 12 17 17 6 4 9 5 1 12
martes 17 3 10 2 7 4 8 1 1 22
miércoles 2 19 15 3 3 4 2 4 2 31
jueves 15 11 0 20 9 0 6 0 0 24
Viernes 20 0 0 9 0 0 4 0 0 15
Machine Translated by Google
Hay 45 variables de decisión en este problema. Las capturas de pantalla de los datos, las variables de
decisión (amarillo) y la configuración de Excel Solver se muestran en las Figs. 23.3 y 23.4.
Resolviendo este problema como un programa lineal o LP (elija lineal y no negativo
en Solver), obtenemos la solución que se muestra en la Fig. 23.5.
Machine Translated by Google
Noche de estancia 1 2 3 1 2 3 1 2 3
Lunes ABIERTO ABIERTO CERRADO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO
Martes CERRADO CERRADO CERRADO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO
Miércoles CERRADO CERRADO CERRADO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO
Jueves CERRADO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO
Viernes ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO ABIERTO
Tabla 23.5 Martes noche Producto Ingresos totales Ingresos del martes
análisis de recurso único
Lunes 125 2 noches 250 150
que a pesar de que la clase de tarifa de $150 para estadía de 1 noche está abierta el jueves, el LP
solución no acepta toda la demanda. Por lo tanto, el precio de la oferta es válido solo para pequeñas
cambio en la capacidad disponible. Además, es posible que necesitemos volver a conectarnos al
problema de recurso único para determinar los límites de reserva para diferentes clases de tarifas.
Para ver esto, considere solo el recurso llamado Martes. Uso de varios productos diferentes
el recurso del martes. Restando el precio de oferta para los otros días del total
ingresos, llegamos a los ingresos del martes que se muestran en la tabla 23.5.
Con base en esta tabla, podemos inferir que el DLP también puede proporcionar valor relativo
de diferentes productos. Esto se puede usar en el problema de un solo recurso para obtener el
límites de reserva. También podemos agrupar productos en diferentes cubos antes de usar el
algoritmo de límite de reserva. Productos con ingresos del martes mayores o iguales a
300 puede ser el cubo más alto; el siguiente segmento pueden ser aquellos con ingresos entre
200 y 250; el resto está en el balde más bajo.
Usos y limitaciones de los precios de oferta para Network Revenue Management: existen
Hay muchos usos prácticos de los precios de oferta. En primer lugar, el enfoque cambia
el enfoque de la previsión al nivel del producto y lejos del recurso único
nivel. Por lo tanto, el tomador de decisiones genera pronósticos de demanda para 1 noche y 2-
la noche se queda por separado en lugar de la previsión para la noche del martes. Los precios de oferta
puede ayudar en la planificación de rutas, cambiar la capacidad si hay cierta flexibilidad disponible, ejecutar
Machine Translated by Google
3 Lectura adicional
Hay varios textos dedicados a la optimización de ingresos. El libro de Robert Cross (2011) es uno
de los primeros dedicados al arte y la ciencia de la gestión de ingresos en un estilo popular.
Muchas ideas discutidas en este capítulo y muchas más encuentran un lugar en el libro. El libro
de Robert Phillips (2005) y el libro de Talluri y Van Ryzin (2006) contienen una introducción al
tema a nivel de posgrado. Además, hemos tomado prestadas ideas de los artículos enumerados
al final del capítulo (Bratu 1998; Lapp y Weatherford 2014; Talluri y van Ryzin 1998; Williamson
1992). El sitio web de INFORMS Revenue Management and Pricing Section4 contiene varias
referencias útiles. Finalmente, hay un Journal of Revenue and Pricing Management5 que está
dedicado al tema.
Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están
disponibles en www.allaboutanalytics.net.
Ejercicios
Ex. 23.1 (Nivel de protección) Una aerolínea ofrece dos clases de tarifas para asientos de clase
económica en su vuelo del lunes por la mañana: una clase se vende a $400/boleto y otra a
$160/boleto. Hay 225 asientos económicos en el avión. La demanda de asientos con tarifa de $400
(también llamada tarifa completa) tiene una media de 46, una desviación estándar de 16. Suponga que
sigue una distribución normal. La demanda de asientos más baratos tiene una distribución exponencial
con una media de 177. Un asiento se puede vender a cualquier clase. Además, se puede suponer que
la demanda de las dos clases de tarifas es independiente entre sí. La principal restricción es que los
boletos más baratos deben comprarse con 3 semanas de anticipación.
(a) ¿Cuántos asientos protegería para los clientes de la clase de $400? (b) El
pronóstico para los pasajeros de clase más económica ha cambiado. Ahora se supone que es menos
de 190 con una probabilidad de 1. ¿Cuántos asientos protegería para los clientes de tarifa completa
dada esta información? (c) Regrese al problema original. Suponga que los asientos no vendidos a
veces pueden venderse en el último minuto a $105. ¿Qué efecto tendrá esto en el nivel de protección
(protegerá más o menos asientos o la misma cantidad de asientos)? ¿Por qué? (d) ¿Cambiará su
respuesta original si las demandas de las dos clases no son independientes entre sí? Explique su
respuesta si es posible usando un ejemplo.
Ex. 23.2 (Precio de la Oferta) Por favor, consulte los datos en la hoja de Excel Opera.xls (disponible
en el sitio web). La pregunta también se da en la hoja de cálculo. Se reproduce a continuación. Todos
los datos están disponibles en la hoja de cálculo.
Realice el siguiente análisis basado en los datos de la ópera. Se le proporciona la reserva
acumulativa para 1 año para dos clases de boletos. Suponga que el teatro de ópera vende dos tipos de
boletos para sus asientos de piso. El primero se vende a $145 y el boleto no es reembolsable. El
segundo es por $215 pero reembolsable. El teatro de la ópera tiene 245 asientos en el piso. Estos datos
se dan en dos hojas en la hoja de cálculo.
Puede verificar (o asumir) que el patrón de reserva es el mismo para la mayoría de los días.
Esto se debe a que hemos normalizado un poco los datos y nos hemos deshecho de los picos y valles.
El patrón de reserva se da 14 días antes del concierto en adelante. La entrada final muestra cuántas
personas se presentaron realmente al concierto cada día.
Aquí hay una muestra de los datos para asientos de $145:
ÿ1 0 1 2 3
30/11/2011 143 143 133 124 116
Por ejemplo, hoy es 30 de noviembre de 2011. Para esta fecha, 116 personas habían reservado
asientos con 3 días para el final, 124 con 2 días para el final, 133 con 1 día para el final y 143 la noche
anterior al concierto. Finalmente, 143 personas se presentaron el 30 de noviembre que fue el día del
concierto.
Hemos creado un pronóstico de la demanda de los dos tipos de asientos para los próximos diez
días, del 1 de diciembre al 10 de diciembre. Hemos utilizado el método aditivo para estimar la recolección
(PU).
(En este método, calculamos la diferencia entre los asientos promedio vendidos y los asientos
reservados con 1, 2, 3, . . . días para el final. Esa es la PU con 1, 2, 3, . . . días para el final).
Vea las filas 40–44 en la primera hoja de la hoja de cálculo para el pronóstico.
Machine Translated by Google
(b) Determine cuántos asientos vender a cada precio durante los próximos 10 días. Tú tienes
para configurar un programa lineal para hacer esto.
(c) Comente su solución. (¿Cómo usar los precios sombra? ¿Qué revelan los precios sombra? ¿Qué es
necesario para implementar la solución?) (d) Basándose en los datos, ¿puede dar algún consejo
sobre cómo determinar el nivel de overbooking? Proporcione, si es posible, un ejemplo utilizando los
datos y cualquier suposición necesaria del nivel de overbooking y cómo será utilizado por usted en
la optimización.
Ex. 23.3 (Modelo elegido) Daisy tiene una pequeña tienda en la zona rural de Indiana. Los clientes que
vienen tienen que comprar en su tienda o manejar millas para ir a otro lado. ¡Ha oído hablar de la
optimización de ingresos! Siempre se preguntaba a qué ritmo los clientes engullían sus chocolatinas y
siempre se preguntaba si les estaba fijando el precio correcto. Los tres más vendidos son Milky Way,
Starburst y Coconut Bar. Al preguntar amablemente a algunos de sus variados pero confiables clientes,
estima que su disposición a pagar es de alrededor de $2.20, $2.60 y $2.00 por los tres tipos de barras de
chocolate. La varianza parece ser de alrededor de 0,10 para cada uno de estos valores de disposición a
pagar. Actualmente, cobra $2.00 por cualquiera de las barras de chocolate. Por lo general, 100 clientes
visitan su tienda todos los días.
(a) Estime las ventas e ingresos promedio actuales de Daisy. (b) Daisy
quiere realizar una promoción en su tienda dando un 10% de descuento en un tipo de barra a los clientes.
¿Qué barra debería descontar? (c) ¿Cuál debería ser el precio uniforme óptimo de Daisy para los
tres tipos de barras de chocolate?
¿Recomendarías el cambio de precio?
Sugerencia: use el modelo MNL de su elección. En este modelo, se supone que los clientes son
homogéneos. Tienen una utilidad subyacente Ui para el producto i. Cada producto tiene un precio de pi,
i=1, 2,...,n. La probabilidad de que compren el producto i viene dada por los siguientes cálculos:
ÿ(varianza ÿ 6)
metro =
Pi
Ex. 23.4 (Precio dinámico) Mike es el gerente de administración de ingresos en el Hotel Marriott en 49th
St., Manhattan, Nueva York. Está contemplando cómo responder a las solicitudes de última hora de los
clientes de "cómpralo ahora". En este canal de ventas, los clientes pueden ofertar un precio por una
habitación y Mark puede tomarlo o esperar la próxima oferta. Los clientes no son estratégicos (en el
sentido de que no juegan a esperar para ofertar). marca tiene
Machine Translated by Google
observó que normalmente recibe como máximo una solicitud cada hora. El análisis indica que recibe
una solicitud en una hora con una probabilidad de 0,2. Está mirando las últimas 3 h de la decisión antes
de que se cierre la reserva para el día siguiente. Por ejemplo, si la reserva se cierra a la medianoche,
él está mirando las solicitudes entre las 9 y las 10 p. m., las 10 y las 11 p. m. y las 11 y la medianoche.
Los clientes piden una tarifa baja o una tarifa alta.
Por lo general, la mitad pide una habitación por $100 y el resto por $235 (que es la tarifa publicada).
Ayude a Mark a estructurar sus pensamientos y proponga una regla de decisión para aceptar o
rechazar ofertas. Puede ser útil pensar que con 3 h para el final puede vender como máximo tres
habitaciones, con 2 h para el final puede vender como máximo dos habitaciones y con una hora para el
final puede vender como máximo una habitación. (Por lo tanto, puede regalar el exceso de habitaciones
a cualquier precio más allá de estos números, etc.) Use el ejemplo de programación dinámica.
Ex. 23.5 (Exceso de reservas) La Sra. Dorothy Parker es la directora de admisiones en Winch ester
College, que es una pequeña universidad de artes liberales. El colegio tiene una capacidad de admitir
200 estudiantes al año. Las aulas son pequeñas y la universidad quiere mantener un límite estricto. La
demanda es sólida con más de 800 solicitudes el año anterior, de las cuales se ofreció un lugar a 340
estudiantes de forma continua y se cumplió el objetivo de 200 admisiones.
(a) ¿Qué datos debe recopilar la Sra. Parker para tomar una decisión sobre cuántos
estudiantes para admitir más allá del límite de 200?
(b) ¿Podemos suponer que el costo de quedarse corto por parte de un estudiante es el valor de 4 años
de los ingresos por matrícula? Argumentar por qué o por qué no.
(c) ¿Cuál es el costo de aceptar a un estudiante por encima del límite de 200? Explique cómo Ud.
se me ocurrió tu número.
(d) La Sra. Parker decidió, después de algunos análisis, que la pérdida de ingresos de un estudiante
era de $100 000 y que el costo de tener más estudiantes que la capacidad es el siguiente:
201 $10,000
202 $22,000
203 $40,000
204 $70,000
205 $100,000
206 $140,000
Machine Translated by Google
Admitido Apareció
200 200
200 195
200 197
200 190
200 192
200 183
Ex. 23.6 (Optimización de rebajas) Xara es una tienda minorista especializada en ropa de moda
que se enfoca en el segmento grande y alto del mercado. Este año, está vendiendo aproximadamente
12 000 SKU, y cada SKU está clasificado por tamaños. Los precios iniciales de cada artículo
generalmente los establece la casa matriz, pero una vez que el envío llega a las tiendas, los gerentes
de tienda tienen la libertad de rebajar los artículos según las ventas. Los gerentes de las tiendas se
evalúan en función de los ingresos totales que generan, por lo que se entiende que intentarán
maximizar los ingresos.
La demanda de la nueva línea de jeans se estimó con base en las compras históricas de la
siguiente manera:
(a) Con base en el pronóstico de la demanda, ¿cuál debería ser el precio inicial de los jeans y
cuántos deberían producirse?
Machine Translated by Google
(b) El gerente de la tienda en Portal de l'Angel en Barcelona obtuvo un envío inicial de 300 jeans, calculados como la
demanda esperada en esa tienda.
Después de un tiempo, notó que los jeans se vendían particularmente lento. Todavía tenía un stock de 200
artículos y ya habían pasado 2 meses de la temporada, por lo que es probable que se haya calculado mal el
mercado potencial para el área de la tienda. ¿Debería marcar hacia abajo? Si es así, por cuánto? (Sugerencia:
con base en la demanda esperada que se calculó inicialmente para la tienda, debe derivar la curva de demanda
de la tienda).
Ex. 23.7 (Repricer) Meanrepricer.com ofrece una opción de regla compleja en la que puede establecer precios de
acuerdo con los siguientes criterios:
regla
Aquí hay algunas reglas de muestra. Discuta su razón de ser (si la hay) y qué tan efectivos son.
(a) Si nuestro precio por el Producto A es 100 y el precio de nuestros competidores por el Producto A es $100, entonces
el revaluador seguirá adelante y reducirá nuestro precio en un 20% (es decir, de $100 a $80).
(b) En caso de que la valoración media de sus competidores sea inferior a 3, la condición elegida indicará al repricer
que aumente su precio en dos unidades. (c) Reglas secuenciales, cuando se implemente la primera regla aplicable:
(i) Reducir nuestro precio en dos unidades si el precio del producto de nuestros competidores está dentro de un
rango de 300 a 800 unidades.
(ii) Aumentar nuestro precio en dos unidades si el precio del producto de nuestros competidores está dentro de un
Rango de 500 a 600 unidades.
Referencias
Lapp, M. y Weatherford, L. (2014). Gestión de ingresos de la red de aerolíneas: consideraciones para la implementación.
Journal of Revenue and Pricing Management, 13(2), 83–112.
Phillips, RL (2005). Optimización de precios e ingresos. Palo Alto, CA: Stanford University Press.
Talluri, K. y van Ryzin, GJ (1998). Un análisis de los controles de precio de oferta para los ingresos de la red
administración. Ciencias de la gestión, 44(11), 1577–1593.
Machine Translated by Google
Talluri, KT y Van Ryzin, GJ (2006). La teoría y práctica de la gestión de ingresos (Vol. 68).
Nueva York: Springer.
Williamson, EL (1992). Control de inventario de asientos en la red de aerolíneas: Metodología e ingresos
impactos (Tesis doctoral, Instituto Tecnológico de Massachusetts).
Machine Translated by Google
capitulo 24
Análisis de la cadena de suministro
yao zhao
1. Introducción
Y. Zhao )
(Universidad de Rutgers, Newark, NJ, EE. UU.
Correo electrónico: yaozhao@business.rutgers.edu
824 Y. Zhao
Amazon, Apple y Samsung) disfrutaron de una ventaja sostenible y a largo plazo sobre su competencia
(Simchi-Levi et al. 2008; Sanders 2014; Rafique et al. 2014).
Los dos objetivos son difíciles de lograr porque las cadenas de suministro son muy complejas
sistemas Podemos atribuir parte de esta complejidad a lo siguiente:
Afortunadamente, las cadenas de suministro son ricas en datos, como datos de punto de venta (POS)
de puntos de venta, datos de inventario y envío de sistemas de logística y distribución, y datos de
producción y calidad de fábricas y proveedores. Estos conjuntos de datos de gran volumen, de alta
velocidad y en tiempo real, si se utilizan de manera efectiva a través del análisis de la cadena de
suministro, pueden brindar abundantes oportunidades para que las empresas realicen un seguimiento de
los flujos de materiales, diagnostiquen las interrupciones del suministro, pronostiquen las tendencias del
mercado y optimicen los procesos comerciales para la reducción de costos y el servicio. mejora. Por
ejemplo, el análisis descriptivo y de diagnóstico puede descubrir problemas en las operaciones actuales
y proporcionar información sobre las causas fundamentales; el análisis predictivo puede proporcionar
previsiones sobre posibles problemas y oportunidades que aún no se han realizado; y, por último, el
análisis prescriptivo puede optimizar las cadenas de suministro para equilibrar las compensaciones entre
la rentabilidad y los requisitos de servicio al cliente.
El análisis de la cadena de suministro está floreciendo en todas las actividades de una cadena de
suministro, desde la compra hasta la entrega. La encuesta de Deloitte Consulting (2014) muestra que las
cuatro principales capacidades de la cadena de suministro están todas relacionadas con el análisis. Son
herramientas de optimización, previsión de demanda, planificación empresarial integrada y colaboración
de proveedores, y análisis de riesgos. El Estudio de megatendencias de operaciones globales de
Accenture (2014) demostró los resultados que las empresas lograron mediante el uso de análisis, incluida
una mejora en el servicio al cliente y el cumplimiento de la demanda, tiempos de reacción más rápidos y
efectivos a los problemas de la cadena de suministro y un aumento en la eficiencia de la cadena de suministro.
Este capítulo primero proporcionará una descripción general de las aplicaciones de análisis en la gestión
de la cadena de suministro y luego mostrará la metodología y el poder del análisis de la cadena de
suministro en un estudio de caso sobre entrega (es decir, distribución integrada y planificación logística).
Es relativamente fácil ver que una mejor predicción, hacer coincidir la oferta y la demanda a
un nivel más granular, eliminar el desperdicio a través de la planificación del surtido y una mejor
gestión de categorías pueden reducir el inventario sin afectar los niveles de servicio. Un ejercicio
de pensamiento simple mostrará que si un minorista puede planificar las ventas por hora y obtener
entregas por hora, entonces puede minimizar su inventario requerido. De hecho, un minorista
logró hacer eso: “Rakuten” apareció en una serie de televisión sobre las empresas más
innovadoras de Japón (Ho 2015). El enfoque en los vendedores y el excepcional servicio al cliente
parece haber valido la pena. En 2017, Forbes incluyó a Rakuten entre las empresas más
innovadoras con ventas superiores a los $7 mil millones y una capitalización de mercado de más
de $15 mil millones.1 El análisis de datos puede lograr resultados similares, sin necesidad de
planificación y entrega por horas, y puede hacerlo no solo en el comercio minorista, sino también
en el abastecimiento global mediante la detección de patrones y la predicción de cambios en los mercados de prod
Claramente, los gerentes de la cadena de suministro tienen que mantener y actualizar una base
de datos para cientos de proveedores en todo el mundo sobre su capacidad disponible,
cronograma de entrega, problemas de calidad y operaciones, etc. para obtener de la mejor fuente.
En la gestión del transporte, no es necesario mirar más allá de FedEx y UPS para el uso de datos
y análisis para dominar la logística de la cadena de suministro en cada etapa, desde la recogida
hasta la entrega en el último tramo (Szwast 2014). Además, hay grandes movimientos de
productos básicos hacia y desde países de Asia, como China, Japón y Corea, que implican
planificación a largo plazo, abastecimiento, adquisición, logística, almacenamiento, etc., muchos
de los cuales implican regulaciones y cumplimiento que simplemente no se puede llevar a cabo
sin las herramientas proporcionadas por el análisis de la cadena de suministro (reunión del G20 de 2014).
La cadena de suministro es un excelente lugar para aplicar análisis para obtener una ventaja
competitiva debido a la incertidumbre, la complejidad y el papel importante que desempeña en la
estructura general de costos y la rentabilidad de casi cualquier empresa. Los siguientes ejemplos
destacan algunas áreas clave de aplicaciones y herramientas útiles.
826 Y. Zhao
en la cadena de suministro. Estos incluyen los más obvios, como los niveles de inventario, los
programas de producción y la planificación de la fuerza laboral (especialmente para las industrias de servicios).
Los menos obvios son el establecimiento de objetivos de ventas, la planificación del capital de trabajo
y la planificación de la capacidad del proveedor (Cap. 4, Vollmann et al. 2010). Varias técnicas
utilizadas para el pronóstico se tratan en el Cap. 12 sobre “Análisis de pronósticos”.
Un ejemplo notable del uso de la previsión es el de Rue La La, un minorista de moda de ventas
flash con sede en EE. UU. (Ferreira et al. 2015) que obtiene la mayor parte de sus ingresos de artículos
nuevos a través de numerosos eventos de ventas a corto plazo. Una observación clave hecha por los
gerentes de Rue La La fue que algunos de los artículos nuevos se agotaron antes de que terminara el
período de ventas, mientras que otros tenían un excedente de inventario sobrante. Uno de sus mayores
desafíos fue predecir la demanda de artículos que nunca se vendieron y estimar las ventas perdidas
debido a los desabastecimientos. Analytics fue útil para superar estos desafíos. Desarrollaron modelos
mediante los cuales se analizaron y clasificaron las tendencias y los patrones de la demanda en
diferentes estilos y rangos de precios, y se identificaron los factores clave que tenían un impacto en las
ventas. Con base en la demanda y las ventas perdidas estimadas, el inventario y los precios se
optimizan conjuntamente para maximizar las ganancias.
capitulo 18 on retail analytics tiene más detalles sobre su enfoque de previsión y gestión de inventario.
En el futuro, las empresas han comenzado a predecir la demanda a nivel de cliente individual. De
hecho, la predicción personalizada se está volviendo cada vez más popular en el comercio electrónico
con ejemplos notables de Amazon y Netflix, que predicen la demanda futura y hacen recomendaciones
para clientes individuales en función de su historial de compras. Varias aplicaciones móviles ahora
pueden ayudar a rastrear la demanda a nivel de usuario (Pontius 2016). Un ejemplo del desarrollo,
implementación y uso de una aplicación de este tipo se puede encontrar en la remota India
(Gopalakrishnan 2016). Como parte del programa Swachha Bharat (India limpia) del primer ministro, el
gobierno indio autorizó subsidios para la construcción de retretes en las aldeas. Una organización de
voluntarios llamada Samarthan ha creado una aplicación móvil que ayuda a seguir el progreso de la
demanda de construcción de baños a través de varias agencias y etapas. La aplicación ha ayudado a
descongestionar la provisión de baños.
La planificación y el control del inventario en su forma más simple implica decidir cuándo y cuánto
ordenar para equilibrar la compensación entre la inversión en inventario y los niveles de servicio. Los
niveles de servicio se pueden definir de muchas maneras, por ejemplo, la tasa de cumplimiento mide
el porcentaje de demanda satisfecha dentro de la ventana de tiempo prometida. La inversión en
inventario a menudo se mide por la rotación de inventario, que es la relación entre el costo anual de
los bienes vendidos (COGS) y la inversión promedio en inventario. Los estudios han demostrado que
existe una correlación significativa entre la rentabilidad general de la fabricación y la rotación de
inventario (Sangam 2010).
Machine Translated by Google
Su uso de la solución SAP HANA2 con procesamiento en memoria en tiempo real y compresión de bases de
datos fue un activo importante para mejorar los resultados.
Uno de los mayores desafíos para los gerentes de la cadena de suministro es gestionar las interrupciones. Es
importante predecir posibles interrupciones y responder a ellas rápidamente para minimizar su impacto. La
interrupción de la cadena de suministro puede tener un impacto significativo en el desempeño corporativo. En
un nivel muy alto, las empresas afectadas por las interrupciones de la cadena de suministro tienen un
rendimiento de las acciones entre un 33 % y un 40 % más bajo en relación con su punto de referencia y sufren
una volatilidad un 13,5 % más alta en los precios de las acciones en comparación con el año anterior en el que no hubo
828 Y. Zhao
ruptura. Las interrupciones pueden tener un impacto negativo significativo en la rentabilidad: una
interrupción típica podría provocar una caída del 107 % en los ingresos operativos, un 7 % menos de
crecimiento de las ventas y un 11 % más de costos (Hendricks y Singhal 2015).
Las interrupciones de la cadena de suministro pueden ser causadas por eventos incontrolables,
como desastres naturales, o eventos controlables, como errores provocados por el hombre. Una mejor
información y análisis pueden ayudar a predecir y evitar errores provocados por el hombre. Por
ejemplo, una empresa naviera que enfrentaba desafíos de visibilidad incompleta de la red implementó
una tecnología de cadena de suministro que les brindaba una vista perfecta del sistema.
La tecnología permitió a los gerentes obtener detalles de envío y tomar medidas preventivas o
correctivas en tiempo real. En este ejemplo, el análisis prescriptivo también podría haber brindado un
mejor apoyo a las decisiones para que los gerentes evalúen y comparen varias opciones y acciones.
Los beneficios de una mayor eficiencia, operaciones más confiables y una mejor satisfacción del
cliente podrían haber ayudado en la expansión de su base de clientes y crecimiento comercial (Hicks
2012).
Connected Cows es un ejemplo ampliamente informado de tecnología que se utiliza para ayudar
a los agricultores a monitorear mejor su ganado (Heikell 2015). Las vacas son monitoreadas por
bienestar las 24 horas del día. Esta tecnología no solo ayuda a cuidar mejor al ganado, sino también
a reducir las interrupciones en la producción de las lecherías.
Connected Cows ayuda a los granjeros a determinar qué vacas están enfermas y a tomar medidas
oportunas para cuidarlas hasta que recuperen la buena salud con un efecto mínimo en la producción.
Se puede aplicar un concepto similar a otros activos de una organización donde la creación de activos
conectados puede generar información valiosa y proporcionar las acciones preventivas o correctivas
necesarias que minimizan las interrupciones de la cadena de suministro.
Todos los ejemplos antes mencionados han tenido datos históricos considerables que ayudaron a
identificar las interrupciones de la cadena de suministro y la evaluación de riesgos. A veces, este no
es el caso, y pueden ocurrir eventos raros como el huracán Katrina, epidemias y apagones importantes
debido a incendios. Dichos eventos tienen un alto impacto pero baja probabilidad sin muchos datos
históricos y, por lo tanto, no se puede utilizar el enfoque tradicional. El documento de revisión de HBR
(Simchi-Levi et al. 2014) ha abordado este problema mediante el desarrollo de un modelo que evalúa
el impacto de tales eventos en lugar de su causa. En estos casos extremos, la estrategia de mitigación
toma el centro del escenario. Visualizan toda la cadena de suministro como un diagrama de red con
nodos para el proveedor, el centro de transporte, el centro de distribución, etc., donde la característica
central es el tiempo de recuperación (TTR): “el tiempo que le llevaría a un nodo en particular estar
completamente restaurado a la funcionalidad después de una interrupción”. Mediante la optimización
lineal, el modelo elimina un nodo a la vez para determinar el tiempo de respuesta óptimo y genera el
índice de rendimiento (PI) para cada nodo. Hay muchos beneficios para este enfoque; lo que es más
importante, los gerentes obtienen una comprensión profunda de la exposición al riesgo de cada nodo.
Posteriormente, el riesgo se puede categorizar como alto, medio y bajo, y se pueden iniciar las
acciones prescriptivas correspondientes. Este modelo también representa algunas de las dependencias
entre los nodos y los cuellos de botella. Hay ciertos casos en los que el gasto total es bajo pero el
impacto general de la disrupción es significativo: el gasto en válvulas de un fabricante de automóviles
(Ford) es bajo; sin embargo, la interrupción del suministro de estos componentes provocaría el cierre
de la línea de producción. Esta metodología fue utilizada por Ford Motor Company para evaluar su
exposición a las interrupciones de la cadena de suministro.
Machine Translated by Google
El precio y la oferta de los productos básicos pueden fluctuar significativamente con el tiempo.
Debido a esta incertidumbre, se vuelve difícil para muchas empresas que dependen de los productos
básicos como materia prima para garantizar la continuidad del negocio y ofrecer un precio constante
a sus clientes. Las organizaciones que usan análisis para identificar indicadores macroeconómicos
e internos pueden hacer un trabajo más efectivo al predecir hacia dónde podrían ir los precios. Por
lo tanto, pueden aislarse a través de inversiones en inventario y compras de contratos futuros y de
largo plazo. Por ejemplo, un fabricante de azúcar puede protegerse de los choques de oferta y
demanda mediante múltiples acciones, como subcontratar la producción a largo plazo, comprar
futuros en los mercados de productos básicos y comprar a plazo antes de que suban los precios.
830 Y. Zhao
Nuestro estudio de caso se estableció en 2010, cuando VASTA era uno de los proveedores de servicios
inalámbricos más grandes de los EE. UU. y muy conocido por su red nacional confiable y su excelente servicio
al cliente. En el año fiscal de 2009, VASTA sufrió una importante cancelación de inventario debido a la
obsolescencia de los teléfonos móviles. En ese momento, VASTA tenía un inventario de teléfonos por un valor
aproximado de $ 2 mil millones en su red de distribución de EE. UU., con una mayoría en más de 2000 tiendas
minoristas. Para abordar este desafío, la compañía estaba pensando en cambiar su actual estrategia de
inventario de "empuje", en la que el inventario se mantenía principalmente en las tiendas, hacia una estrategia
de "atracción", en la que el inventario de teléfonos se retiraría de las tiendas a tres centros de distribución. (DC)
y las tiendas servirían alternativamente como salas de exposición. Los clientes que visiten las tiendas podrán
experimentar la última tecnología y realizar pedidos, mientras que sus teléfonos se entregarán en sus hogares
durante la noche desde los centros de distribución de forma gratuita. La estrategia de extracción se había
utilizado antes en productos electrónicos de consumo (p. ej., Apple), pero VASTA y otros proveedores de
servicios inalámbricos de EE. UU. aún no la habían intentado (Zhao 2014a, b).
A partir de 2010, el mercado de servicios inalámbricos de EE. UU. tenía 280 millones de suscriptores con
ingresos de $ 194 mil millones. Con una población de aproximadamente 300 millones en los EE. UU., el
crecimiento del mercado y los ingresos se estaban desacelerando a medida que el mercado se saturaba cada
vez más. Como resultado, la industria estaba pasando del modelo comercial de "crecimiento" que perseguía el
crecimiento de los ingresos a un modelo de "eficiencia" que maximizaba la eficiencia operativa y la rentabilidad.
La industria de servicios inalámbricos de EE. UU. estaba dominada por unos pocos jugadores importantes.
Ofrecieron tecnología y productos similares (teléfonos móviles) de los mismos fabricantes, pero compitieron
por nuevos suscriptores en función del precio, la calidad de los servicios, la confiabilidad, las velocidades de la
red y la cobertura geográfica. VASTA fue un jugador importante con las siguientes fortalezas:
• Servicios y productos con precios más altos que los promedios de la industria debido a la mayor
costos de operacion
El principal desafío al que se enfrentó VASTA fue su rentabilidad, especialmente en los costos de inventario.
La rotación de inventario de VASTA fue de 28,5 por año, muy baja en comparación con lo que lograron Verizon
y Sprint Nextel (alrededor de 50 a 60 rotaciones por año). Los teléfonos tienen un ciclo de vida corto de
aproximadamente 6 meses. Una inversión de inventario de $2 mil millones en su sistema de distribución planteó
una responsabilidad y un costo significativos para VASTA debido al riesgo de obsolescencia. En las siguientes
secciones, analizaremos la propuesta de cambio de VASTA utilizando datos de muestra y métricas.
Machine Translated by Google
Para mantener su estatus como líder del mercado, VASTA debe mejorar su rentabilidad sin sacrificar la
satisfacción del cliente. VASTA había estado utilizando la estrategia de "empuje", que abasteció por completo
sus más de 2000 minoristas abastecidos para satisfacer la demanda de los clientes.
Las tiendas tenían alrededor del 60% del inventario de $2 mil millones, mientras que los centros de distribución
tenían alrededor del 40%.
La empresa estaba pensando en cambiar el modelo de distribución de "push" a "pull", lo que llevó el
inventario de vuelta a los centros de distribución. Las tiendas se convertirían en salas de exposición y los
pedidos de los clientes se transmitirían a un centro de distribución que luego completaría los pedidos a través
de un envío urgente al día siguiente. Las figuras 24.1 y 24.2 representan las dos estrategias. En estos gráficos,
un círculo representa una tienda y un triángulo representa el almacenamiento de inventario.
Las estrategias de “push” y “pull” representan dos soluciones extremas a un problema comercial típico en la
planificación integrada de distribución y logística, es decir, el posicionamiento estratégico del inventario. Las
preguntas clave son las siguientes: ¿Dónde colocar el inventario en el sistema de distribución? ¿Y cómo afecta
todos los aspectos del sistema, desde el inventario hasta el transporte y el cumplimiento hasta la satisfacción
del cliente?
Claramente, las estrategias tendrán un impacto significativo no solo en el inventario sino también en el
envío, el cumplimiento del almacén, la introducción de nuevos productos y, lo que es más importante, la
satisfacción del consumidor. La compensación se resume en la Tabla 24.1.
Si bien la estrategia de empuje permitió a VASTA atraer mejor a los clientes, la estrategia de extracción
tuvo la ventaja significativa de reducir el inventario y facilitar la introducción rápida de nuevos teléfonos, lo que
a su vez redujo el costo y el riesgo de obsolescencia del inventario. Sin embargo, la estrategia de extracción
requería un costo de envío y cumplimiento de almacén más alto que la estrategia de inserción. Además, VASTA
tuvo que renovar las tiendas para convertirlas en salas de exhibición y volver a capacitar a la fuerza laboral de
sus tiendas para adaptarse al cambio.
Fig. 24.1 Modelo de distribución antiguo de VASTA. Fuente: Notas de clase, “VASTA Wireless—Push vs.
Estrategias de distribución de extracción”, por Zhao (2014b)
Machine Translated by Google
832 Y. Zhao
Fig. 24.2 Nuevo modelo de distribución propuesto por VASTA. Fuente: Notas de la conferencia, “VASTA Wireless— Push
vs. Pull Distribution Strategies”, por Zhao (2014b)
ventajas Contras
clientes
Intuitivamente, la elección de estrategias de atracción frente a estrategias de empuje debe ser específica del producto.
Por ejemplo, la estrategia de extracción puede ser ideal para productos costosos y de bajo volumen (alta incertidumbre)
debido a su costo de envío y cumplimiento relativamente pequeño, pero a su alto costo de inventario. Por el contrario, la
estrategia de empuje puede ser ideal para productos económicos y de alto volumen (baja incertidumbre). Sin embargo, sin
un análisis cuantitativo (cadena de suministro), no podemos estar seguros de qué estrategia usar para los productos
costosos y de alto volumen y los productos económicos y de bajo volumen; tampoco podemos estar seguros del impacto
financiero resultante.
Evaluaremos las estrategias push y pull para cada producto en cada tienda para determinar qué estrategia funciona mejor
para la combinación producto-tienda desde una perspectiva de costos. Para este propósito, consideraremos el costo total
descargado del producto
Machine Translated by Google
i en la tienda j, Cij, que es la suma del costo del inventario de la tienda, ICij; costo de envío,
SCij; y costo de cumplimiento de CD, FCij:
donde hi es la tasa de costo de mantenimiento de inventario para el producto i (por unidad de inventario por unidad
de tiempo) e Iij es el nivel de inventario promedio del producto i en la tienda j.
El costo de envío está representado por
donde sj es la tasa de costo de envío (por unidad) incurrido por la demanda generada por la tienda
j y Vij es el volumen de ventas por unidad de tiempo del producto i en la tienda j. Bajo la
estrategia de empuje, sj es el costo unitario de envío para reponer el inventario en la tienda j por el
DC; bajo la estrategia pull, sj es el costo unitario de envío para entregar los teléfonos a
clientes individuales de los centros de distribución.
834 Y. Zhao
Para calcular los costos, como el inventario de la tienda, el envío y el cumplimiento de DC (por ejemplo,
recolección y empaque) costo para cada combinación producto-tienda, necesitamos estimar
la tasa de costo de mantenimiento de inventario, hola; la tasa de costo de envío, sj; y el costo de cumplimiento
función, f(Vij). Usaremos un conjunto de datos de ventas (o demanda,
equivalente) y datos de inventario en todas las capas del sistema de distribución de VASTA para
60 semanas Un período será igual a 1 semana porque el inventario tanto en las tiendas como en
Los DC se revisan semanalmente.
Tasa de costo de inventario:
Costo de mantenimiento de inventario por semana = costo de capital por semana + costo de depreciación por
semana
flete de 2 días. La tarifa exprés al día siguiente suele ser 2,5 veces la tarifa de envío de 2 días;
con un descuento por volumen del 40%, llegamos a un promedio de $2.88/unidad. Tabla 24.4
resume las tarifas de envío.
Costo de cumplimiento de CD: los centros de distribución incurren en diferentes costos para la recolección por lotes
y empaque en relación con la recolección y empaque de unidades debido a las economías de escala. Para
DC de VASTA, la selección de la primera unidad de un producto cuesta en promedio $1.50. si mas
más de una unidad del producto es recolectada al mismo tiempo (recolección por lotes), entonces el
el costo de recoger cualquier unidad adicional es de $0.1. Ignoraremos el costo de embalaje tal como es.
insignificante en relación con el costo de recolección.
Valor promedio del producto: $500 • • Valor promedio del producto: $200
Jalar Empujar
Bajo la estrategia de empuje, las tiendas se reabastecen semanalmente. Deja que Vij sea
el volumen de ventas semanal. Debido a la recolección por lotes, el costo de cumplimiento semanal para
el producto i y la tienda j es
Bajo la estrategia pull, cada demanda generada por una tienda debe ser satisfecha
(elegido) individualmente. Por lo tanto, el costo de cumplimiento para el producto i y la tienda j es
Promedio Promedio
Volumen de ventas semanal Inventario disponible
(unidad) (unidad)
836 Y. Zhao
Tabla 24.6 Ahorros para teléfonos “hot-smart” entre estrategias pull y push
alto volumen y
caro (caliente-inteligente) Jalar Empujar
(Iij) (Iij)
Costo de inventario $99.52 $2388.46
(Iij × él = 5 × $19,90) (Iij × él = 120 × $19,90)
Volumen de ventas semanal 99 99
(Vij) (Vij)
Costo de envío $1188 $285.12
( vij × sij = 99 × $12/ unidad) ( vij × sij = 99 × $2,88/ unidad)
costo de cumplimiento $ 148,50 $11.30
Tabla 24.7 Ahorros para teléfonos con "funciones calientes" entre las estrategias pull y push
alto volumen y
económico (característica caliente) Jalar Empujar
(Iij) (Iij)
Costo de inventario $39.81 $875.77
(Iij × él = 5 × $7,96) (Iij × él = 110 × $7,96)
Volumen de ventas semanal 102 102
(Vij) (Vij)
Costo de envío $1224 $293.76
( vij × sij = 102 × $12/ unidad) ( vij × sij = 102 × $2,88/ unidad)
costo de cumplimiento $153.00 $11.60
(Vij × $1,50 = 102 × $1,50) ($1,50 + (Vij ÿ 1)*0,1
= $1,50 + 101*0,1)
Coste total $1416.81 $1181.13
– ÿ19,95%
Ahorros
Cuadro 24.8 Ahorros para teléfonos “inteligentes en frío” entre las estrategias de atracción y promoción
( vij × sij = 2,5 × $12/ unidad) ( vij × sij = 2,5 × $2,88/ unidad)
costo de cumplimiento $3.75 $1.65
Tabla 24.9 Ahorros para teléfonos con “características frías” entre las estrategias de extracción y de inserción
( vij × sij = 7,3 × $12/ unidad) ( vij × sij = 7,3 × $2,88/ unidad)
costo de cumplimiento $10.95 $2.13
Tabla 24.10 Ahorros para todos los tipos de teléfonos entre estrategias pull y push
838 Y. Zhao
Jalar Empujar
= $55,000
Total 68 – –
$1,927,500
• T: el período de revisión •
D(T): la demanda durante el período de revisión: • E[D(t)]
= ÿ: la media de la demanda durante el período de revisión • STDEV[D(t)] = ÿ: la
desviación estándar de la demanda durante el período de revisión
La tienda utiliza una política de inventario de existencias base que ordena suficientes unidades para
elevar el inventario (disponible más pedido) a un nivel objetivo S al comienzo de cada período.
La probabilidad de satisfacer toda la demanda en este período solo a través del inventario de la tienda
es ÿ (ÿ se denomina nivel de servicio Tipo 1). Suponiendo que D(t) sigue una distribución normal,
Normal(ÿ, ÿ), y el tiempo de entrega es insignificante (como ocurre en el caso de VASTA), entonces
S = m + zás, (24.7)
x2 1
donde ÿ(x) = eÿ ÿ 2ÿ 2 es la función de densidad de probabilidad normal estándar.
La demanda esperada de la tienda satisfecha por el inventario de la tienda es
840 Y. Zhao
Debido a que el nivel de inventario al comienzo del período es S, el inventario disponible promedio
durante el período se puede aproximar mediante
S + NO
yo = . (24.11)
2
Usando ÿ como la variable de decisión, podemos calcular el costo total de descarga por Eq.
(24.1),
Para identificar la estrategia óptima, resolveremos el siguiente problema de optimización no lineal para el
producto i en la tienda j. Es decir, encontraremos el ÿij (0 ÿ ÿij ÿ 1) tal
que el costo total Cij se minimiza
Min0ÿÿij ÿ1Cij .
De manera similar, los resultados para los productos de bajo volumen se representan en la figura 24.4. los
la estrategia pull funciona mejor para el teléfono inteligente frío, mientras que una estrategia híbrida es la
Lo mejor para el teléfono con funciones frías.
Machine Translated by Google
Fig. 24.3 Comparación entre estrategias push y pull para teléfonos calientes
• La estrategia de extracción es mejor tanto para los teléfonos inteligentes calientes como para los fríos.
• Para teléfonos básicos, es mejor usar una estrategia híbrida (consulte la Tabla 24.14).
842 Y. Zhao
Fig. 24.4 Comparación entre estrategias push y pull para teléfonos fríos
Hasta ahora, nuestro análisis se enfoca en el costo total descargado, que es más pequeño con la estrategia
de extracción que con la estrategia de inserción. A pesar de esta rentabilidad, sigue existiendo una cuestión
fundamental: ¿Aceptarán los clientes la estrategia de extracción? Más específicamente, ¿los clientes estarán
dispuestos a esperar a que sus teléfonos celulares favoritos sean entregados en su puerta durante la noche
desde un centro de distribución?
Un análisis de los datos de ventas en línea muestra que en el año 2010, uno de cada tres clientes compró
teléfonos celulares en línea. Si bien este hecho implica que una gran parte de los clientes pueden estar
dispuestos a esperar la entrega, no está claro cómo los dos tercios restantes de los clientes pueden responder
a la estrategia de extracción. Tampoco está claro cómo estructurar la entrega para minimizar el costo de envío
sin dejar de ser aceptable para la mayoría de los clientes. Las opciones de entrega disponibles incluyen lo
siguiente:
Diferentes opciones tienen costos significativamente diferentes e implicaciones de satisfacción del cliente;
deben probarse en diferentes segmentos de mercado y regiones geográficas. Para garantizar la satisfacción
del cliente, VASTA había decidido comenzar con la opción 1 para todos los clientes.
Machine Translated by Google
A pesar de los costos de renovación y los gastos de capacitación, las salas de exhibición pueden
disfrutar de múltiples ventajas sobre las tiendas desde una perspectiva de ventas. Por ejemplo, eliminar
el inventario puede ahorrar espacio para la exhibición de productos y, por lo tanto, mejorar las
experiencias de compra de los clientes. Las salas de exhibición pueden aumentar la variedad de
productos y facilitar una adopción más rápida de los teléfonos más nuevos y, por lo tanto, aumentar las
ventas. Finalmente, también pueden ayudar a reducir los daños y robos de inventario a nivel de tienda,
minimizando así la logística inversa.
La negociación con los transportistas debe equilibrar la tarifa de envío y las áreas geográficas
cubiertas, ya que una cobertura nacional integral puede requerir una tarifa de envío mucho más alta
que una cobertura regional. También se deben incluir en el contrato cuestiones importantes como los
daños por envío y la cobertura del seguro. La parte más difícil de la implementación es la transformación
de DC, especialmente dada la respuesta desconocida del mercado a la estrategia de extracción. Por lo
tanto, se llevó a cabo un plan de implementación de tres fases (consulte la Tabla 24.15) para
implementar lentamente la estrategia de extracción con el fin de maximizar el aprendizaje y evitar
errores importantes.
3.7 Epílogo
En 2011, VASTA implementó la estrategia pull en su sistema de distribución de EE. UU. Se utilizó
FedEx durante la noche. El inventario del sistema se redujo de $ 2 mil millones a $ 1 mil millones. Poco
después, otros proveedores de servicios inalámbricos de EE. UU. siguieron su ejemplo, y la experiencia
de compra de teléfonos celulares por parte del cliente cambió por completo en EE. En los años
posteriores, VASTA continuó afinando la estrategia pull en la estrategia híbrida y exploró múltiples
opciones de envío exprés según las preferencias de los clientes. VASTA sigue siendo uno de los líderes
del mercado en la actualidad.
Machine Translated by Google
844 Y. Zhao
En este capítulo, mostramos el poder del análisis de la cadena de suministro en la planificación integrada de
distribución y logística a través de un caso de negocios en la industria de servicios inalámbricos de EE. UU. La
empresa, VASTA, sufrió una ineficiencia de costos significativa a pesar de su excelente servicio al cliente.
Brindamos modelos, metodología y soporte de decisiones para que VASTA transforme su estrategia de
distribución de "empujar" a "atraer" y, finalmente, a "híbrido" para mejorar su rentabilidad sin sacrificar la
satisfacción del cliente. La transformación resultó en un ahorro de mil millones de dólares en inversión de
inventario y ayudó a la empresa a mantener su papel de liderazgo en un mercado cada vez más saturado.
Las cadenas de suministro son sistemas complejos y ricos en datos. Hemos demostrado que al combinar
creativamente dichos datos con análisis simples, podemos lograr los objetivos gemelos de eficiencia de costos
y satisfacción del cliente al mismo tiempo que generamos un impacto financiero significativo. Este capítulo
también revela tres ideas comerciales que uno debe tener en cuenta al emplear el análisis de la cadena de
suministro:
• Los objetivos conflictivos de rentabilidad y satisfacción del cliente son difíciles de resolver cualitativamente. El
análisis cuantitativo de la cadena de suministro es necesario para lograr el equilibrio.
• Pensamiento sistémico: las estrategias de distribución pueden tener un impacto significativo en todos los
aspectos de un sistema: inventario, envío, satisfacción del cliente, así como operaciones en la tienda y el
almacén. Debemos evaluar todos los aspectos del sistema y evaluar el impacto neto.
• Una talla no sirve para todos: debemos personalizar las estrategias para que se ajusten a las necesidades
específicas de los diferentes productos y puntos de venta (p. ej., tiendas).
Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están
disponibles en www.allaboutanalytics.net.
Ejercicios
Ex. 24.1 Reproducir el modelo básico y el análisis en la tienda representativa para la comparación entre las
estrategias push y pull.
Ex. 24.2 Reproducir el modelo avanzado y análisis sobre la estrategia híbrida para la tienda representativa.
Ex. 24.3 Para las tiendas de Nueva York y Los Ángeles, use los modelos básico y avanzado para averiguar qué
estrategia usar para cada tipo de producto y calcule el impacto del costo en relación con la estrategia de empuje.
Machine Translated by Google
Referencias
Estudio de megatendencias de operaciones globales de Accenture. (2014). Análisis de big data en la cadena de suministro: exageración
o aquí para quedarse? Dublín: Accenture.
Baljko, J. (3 de mayo de 2013). Apostando por la analítica como el próximo gran paso de la cadena de suministro. Recuperado el
30 de diciembre de 2016, de http://www.ebnonline.com/author.asp?section_id=1061&doc_id=262988
&itc=ticker_velocidad.
Sopa de mariscos. (2016). Cómo gestionar el efecto látigo en su cadena de suministro. Consultado en diciembre
30, 2016, de http://www.usanfranonline.com/resources/supply-chain-management/how-to manage-the-bullwhip-effect-on-your-
supply-chain/.
Bodenstab, J. (27 de enero de 2015). Recuperado el 30 de diciembre de 2016, de http://blog.toolsgroup.com/
es/multi-echelon-inventory-optimization-fast-time-to-benefit.
Chandrasekaran, P. (2014, 19 de marzo). Qué importancia tiene el big data para los mercados de materias primas. Recuperado
30 de diciembre de 2016, de http://www.thehindubusinessline.com/markets/commodities/how-big-data-is-relevant-to-commodity-
markets/article5805911.ece.
Columbus, L. (2016, 18 de diciembre) El estudio analítico de McKinsey de 2016 define el futuro
de aprendizaje automático. Recuperado el 30 de diciembre de 2016, de http://www.forbes.com/sites/
louiscolumbus/2016/12/18/mckinseys-2016-analytics-study-defines-the-future-machine learning/#614b73d9d0e8.
Consultoría Deloitte. (2014). Talento de la cadena de suministro de los hallazgos futuros del tercer suministro anual
encuesta en cadena. Recuperado el 27 de diciembre de 2016, de https://www2.deloitte.com/content/dam/
Deloitte/global/Documents/Process-and-Operations/gx-operations-supply-chain-talent-of-the future-042815.pdf.
Ferreira, KJ, Lee, BHA y Simchi-Levi, D. (2015). Análisis para un minorista en línea: Demanda
previsión y optimización de precios. Gestión de operaciones de fabricación y servicios, 18(1),
69–88.
Reunión de Ministros de Comercio del G20. (2014, 19 de julio). Cadenas globales de valor: Desafíos, oportunidades,
e implicaciones para la política. Recuperado el 30 de diciembre de 2016, de https://www.oecd.org/tad/
gvc_informe_g20_julio_2014.pdf.
Gilmore, D. (28 de agosto de 2008). Noticias de la cadena de suministro: ¿Qué es la optimización del inventario? Recuperado
30 de diciembre de 2016, de http://www.scdigest.com/assets/firstthoughts/08-08-28.php.
Gopalakrishnan, S. (22 de julio de 2016). Forma de la aplicación para rastrear la demanda del baño. Consultado el 30 de diciembre de 2016,
de http://www.indiawaterportal.org/articles/app-way-track-toilet-demand.
Heikell, L. (2015, 17 de agosto). Las vacas conectadas ayudan a las granjas a mantenerse al día con la manada. Noticias de Microsoft
Centro. Recuperado el 30 de diciembre de 2016 de https://news.microsoft.com/features/connected cows-help-farms-keep-up-
with-the-herd/#sm.00001iwkvt0awzd5ppu5pahjfsks0.
Hendricks, K. y Singhal, VR (junio de 2015). El efecto de las interrupciones de la cadena de suministro en el largo plazo
valor para el accionista, rentabilidad y volatilidad del precio de las acciones. Recuperado el 7 de enero de 2017, de
http://www.supplychainmagazine.fr/TOUTE-INFO/ETUDES/singhal-scm-report.pdf.
Hicks, H. (2012, marzo). Gestión de interrupciones en la cadena de suministro. Recuperado el 30 de diciembre de 2016, de
http://www.inboundlogistics.com/cms/article/managing-supply-chain-disruptions/.
Ho, J. (2015, 19 de agosto). Las diez empresas más innovadoras de Asia 2015. Consultado el 30 de diciembre de 2016 en http://
www.forbes.com/sites/janeho/2015/08/19/the-ten-most-innovativecompanys-in-asia- 2015/#3c1077d6465c.
Lee, HL, Padmanabhan, V. y Whang, S. (15 de abril de 1997). El efecto látigo en las cadenas de suministro.
Recuperado el 30 de diciembre de 2016, de http://sloanreview.mit.edu/article/the-bullwhip-effect-in supply-chains/.
O'Marah, K., John, G., Blake, B., Manent, P. (2014, septiembre). SCM World es el principal proveedor
informe del oficial de la cadena. Recuperado el 30 de diciembre de 2016, de https://www.logility.com/Logility/
archivos/4a/4ae80953-eb43-49f4-97d7-b4bb46f6795e.pdf.
Poncio, N. (2016, 24 de septiembre). Top 30 de gestión, control y seguimiento de inventario
aplicaciones Recuperado el 30 de diciembre de 2016 de https://www.camcode.com/asset-tags/inventory management-apps/.
Machine Translated by Google
846 Y. Zhao
Rafique, R., Mun, KG y Zhao, Y. (2014). Apple vs. Samsung: competencia en la cadena de suministro. Caso
estudiar. Newark, Nueva Jersey; Nuevo Brunswick, Nueva Jersey: Escuela de Negocios de Rutgers.
Sanders, NR (2014). Gestión de la cadena de suministro impulsada por big data: un marco para implementar análisis y convertir
la información en inteligencia. Upper Saddle River, NJ: Pearson Education, Inc..
Sangam, V. (2 de septiembre de 2010). Optimización de inventario. Blog mundial de la cadena de suministro. Consultado el 30
de diciembre de 2016.
Simchi-Levi, D., Kaminsky, F. y Simchi-Levi, E. (2008). Diseño y gestión de la cadena de suministro: conceptos, estrategias y
casos de estudio. Nueva York, NY: McGraw-Hill Irwin.
Simchi-Levi, D., Schmidt, W. y Wei, Y. (2014). Desde supertormentas hasta incendios en fábricas: gestión de interrupciones
impredecibles en la cadena de suministro. Harvard Business Review., 92, 96 Obtenido de https://hbr.org/2014/01/from-
superstorms-to-factory-fires-managing-unpredictable-supply chain-disruptions.
Szwast, S. (2014). Serie de documentos técnicos de salud de UPS 2014: gestión de la cadena de suministro. Recuperado el
30 de diciembre de 2016 de https://www.ups.com/media/en/UPS-Supply-Chain-Management Whitepaper-2014.pdf.
Vollmann, T., Berry, W., Whybark, DC y Jacobs, FR (2010). Sistemas de control y planificación de la fabricación para la gestión
de la cadena de suministro (6ª ed.). Noida: Tata McGraw-Hill Capítulos 3 y 4.
Willenbockel, D. (2012, septiembre). Eventos climáticos extremos y picos de precios de cultivos en un clima cambiante.
Recuperado el 7 de enero de 2017 de https://www.oxfam.org/sites/www.oxfam.org/files/rr extreme-weather-events-crop-
price-spikes-05092012-en.pdf.
Winckelmann, L. (2013, 17 de enero). HANA exitosa en misión al Grupo Eldorado en Moscú. Recuperado el 7 de enero de
2017 de https://itelligencegroup.com/in-en/hana-successful in-mission-to-the-eldorado-group-in-moscow.
Zhao, Y. (2014a). VASTA inalámbrico: estrategias de distribución push vs pull. Caso de estudio. Newark, Nueva Jersey;
Brunswick, Nueva Jersey: Escuela de Negocios de Rutgers.
Zhao, Y. (2014b). Notas de conferencias VASTA inalámbrico: estrategias de distribución push vs. pull. Newark, Nueva Jersey;
Brunswick, Nueva Jersey: Escuela de Negocios de Rutgers.
Zipkin, P. (2000). Fundamentos de la gestión de inventarios. Nueva York, Nueva York: McGraw-Hill Higher
Educación.
Machine Translated by Google
capitulo 25
Caso de Estudio: Seguro Ideal
1. Introducción
estándar. Los datos contradecían el índice de liquidación de reclamos de la empresa,1 que Sebastian
sabía que era más alto que el de sus rivales, y el índice de repudio de reclamos,2 que era más bajo
que el promedio de la industria. También observó que la liquidación de reclamaciones estaba
tardando más de lo esperado.
La jefa del departamento de reclamos de Ideal Insurance, Rachel Morgan, le dijo a Sebastian que
había una enorme escasez de mano de obra en el equipo de liquidación y agregó que no se enfocaba
en innovar y mejorar el proceso de investigación de reclamos. También le recordó a Sebastián que
había propuesto un departamento interno de analistas que podría ayudar a mejorar el proceso de
liquidación de reclamaciones y respaldar otras iniciativas de mejora. Sebastian prometió que revisaría
la propuesta, que se había presentado al equipo de recursos humanos de Adam Berger a principios
de año, y concertó una reunión con Rachel para la semana siguiente. También le pidió que se pusiera
en contacto con un experto en liquidación e investigación de siniestros para brindarle una revisión
detallada del desempeño y sugerir una hoja de ruta para los cambios.
2 La Industria de Seguros
1Ratio de liquidación de siniestros se calcula como el porcentaje de siniestros liquidados en un período sobre el
total de siniestros notificados en el mismo período. Cuanto mayor sea el índice de liquidación, mayor será la
satisfacción del cliente.
2La tasa de rechazo de reclamos se calcula como el porcentaje de reclamos rechazados (por información faltante
o incorrecta) en un período sobre el total de reclamos notificados en el mismo período.
Machine Translated by Google
industria aseguradora implica no sólo comprender la naturaleza de las empresas que operan en
el sector, sino también sus interconexiones con los mercados financieros.
Quizás la distinción más importante con respecto a las compañías de seguros es la naturaleza
de las pólizas escritas. Las empresas grandes (medidas por activos y cobertura geográfica) como
AXA y Prudential suelen tener una variedad de pólizas en cada segmento. Las empresas más
pequeñas, sin embargo, pueden limitarse a suscribir solo en los segmentos de vida o no vida.
Por lo tanto, las aseguradoras pueden optar por participar únicamente en siniestros relacionados
con automóviles, desastres o lesiones. Las empresas también pueden reasegurar las pólizas de
otras compañías de seguros: Swiss Re, Munich Re y Berkshire Hathaway se dedican a reasegurar
las pólizas de otras aseguradoras. Los resultados operativos de cualquier compañía de seguros
específica, por lo tanto, dependerán no solo de la geografía en la que opere, sino también del
tipo o tipos de pólizas que suscriba.
El seguro para un laico no es más que el negocio de compartir el riesgo. El proveedor de
seguros acepta compartir el riesgo con el titular de la póliza a cambio del pago de una prima de
seguro. Por lo general, un suscriptor evalúa el riesgo en función de la edad, las condiciones de
salud existentes, el estilo de vida, la ocupación, los antecedentes familiares, la ubicación
residencial, etc. y recomienda que se cobre la prima al cliente potencial.
El asegurado asegura su riesgo imprevisto mediante el pago de la prima y espera apoyo
financiero en caso de que se produzca el evento de riesgo.
El negocio de seguros depende para su supervivencia y rentabilidad de la distribución del
riesgo en una combinación y volumen adecuados y una planificación cuidadosa a largo plazo. La
prima colectiva se utiliza para cumplir con los reclamos presentados por los asegurados o se
invierte en activos a largo plazo con la expectativa de obtener ganancias significativas. Por lo
tanto, el proveedor de seguros tiene dos vías principales para obtener ganancias, a saber, las
ganancias de las operaciones centrales de distribución de riesgos y las ganancias de las
inversiones. Se ha observado que las ganancias de las operaciones centrales son generalmente
muy bajas o, a veces, incluso negativas; sin embargo, las ganancias generales son altas debido
a las estrategias de inversión seguidas por la empresa, como la inversión en valor, la gestión de
patrimonio y la diversificación global. La mayoría de las empresas de seguros tienen una entidad
de gestión de activos que gestiona la inversión de dicha prima cobrada. Los proveedores de
seguros también se protegen de las enormes pérdidas del negocio principal al trabajar con
reaseguradoras como Swiss Re y Berkshire Hathaway, que comparten los riesgos entre los proveedores de segu
3https://www.technavio.com/report/global-miscellaneous-global-health-insurance-market-2016- 2020
(consultado el 17 de agosto de 2018).
Machine Translated by Google
es probable que se duplique para 2025 (Singhal et al. 2016). Si bien EE. UU. ocupa el primer lugar
en ingresos brutos por primas suscritas, con más del 40 % de la participación de mercado, se espera
que el envejecimiento de la población y el aumento de los ingresos conduzcan a importantes
aumentos en la demanda de servicios de atención médica y seguros médicos en América Latina y
Asia. regiones del Pacífico en los próximos años. Las principales fuerzas impulsoras y los cambios
disruptivos en los mercados de seguros médicos y de salud se deben al aumento en el riesgo de
salud por el aumento de las enfermedades no transmisibles y las condiciones médicas crónicas, los
avances en la tecnología digital y las ciencias médicas emergentes, las suscripciones mejoradas y
los cambios en los entornos regulatorios, y aumento del consumismo y aumento del envejecimiento
de la población en las economías en desarrollo.
El seguro de salud representa miles de millones de dólares en gastos de las compañías de
seguros. Los Centros para el Control y la Prevención de Enfermedades estiman que alrededor del 15
% del gasto de las aseguradoras se destina a planes de atención médica.4 Es probable que los
avances en la tecnología de la atención médica se vean compensados por una mayor demanda. A
medida que la población sigue envejeciendo en los EE. UU., Europa y Japón, el gasto en este sector
seguirá siendo la piedra angular del negocio de los seguros en las próximas décadas.
La mayoría de los seguros de salud dividen el costo de la atención entre el titular de la póliza y la
aseguradora. Según el tipo de póliza y la naturaleza del tratamiento, esta división puede realizarse de
varias maneras. Algunas pólizas se pagan una vez que el gasto cruza cierto umbral, llamado
"deducible". Otros dividen el costo con el titular de la póliza en una proporción definida, llamada
"copago".
4 Procesamiento de reclamos
La velocidad está en el corazón del diseño de los procesos en una empresa de seguros de salud. Por
su definición, el seguro se requiere en situaciones que son imprevisibles. En el caso de los seguros
de salud, recibir el dinero que garantiza la póliza lo antes posible es vital para el tomador. Sin
embargo, esta restricción significa que el cronograma del procesamiento de reclamos debe ser
necesariamente lo más corto posible, lo que perjudica la capacidad de las compañías de seguros
para verificar los reclamos.
El proceso para reclamar un seguro de salud normalmente se desarrolla en varias etapas.
El contacto inicial entre la empresa y el titular de la póliza se realiza a través del centro de llamadas o
de la oficina/agente local. A menudo, este paso lo realiza una persona cercana al titular o el proveedor
de atención médica, porque el titular puede estar incapacitado.
El centro de llamadas de la firma obtiene y registra información básica del cliente, incluidos
detalles sobre el tipo de póliza que posee el titular, el hospital al que ha sido llevado el titular y la
lesión/enfermedad con la que el titular tiene
4Eynde, Mike Van Den, “Resumen del mercado de seguros de salud”, seminario web de liderazgo de salud
pública estatal, Deloitte Consulting LLP, 15 de agosto de 2013, URL: https://www.cdc.gov/stltpublichealth/
program/transformation/docs/health- resumen-de-seguros.pdf (consultado el 25 de mayo de 2017).
Machine Translated by Google
sido afligido. Armado con esta información, el empleado del centro de llamadas envía los detalles necesarios al
equipo de procesamiento de reclamos.
El equipo de procesamiento de reclamaciones es responsable de la primera línea de investigación de la
reclamación. Comprueban la cobertura y los gastos del asegurado, verifican el hospital y la red en la que ha estado
ingresado el cliente y solicitan comprobantes como facturas y recetas. Al hacerlo, el equipo clasifica el reclamo como
Genuino, Discutido o Investigado. Los casos genuinos se procesan sin más aclaraciones. Los casos de discusión se
envían a un equipo de recopilación de datos para recopilar más información y verificar los detalles. Los casos de
investigación se envían al equipo de investigación de reclamaciones y pueden tardar mucho tiempo en procesarse
(resolverse o rechazarse).
Actualmente, el equipo de procesamiento de reclamos de Ideal Insurance examina los siguientes puntos para
crear un puntaje de fraude:
Cada indicador tiene un peso asignado en base a la investigación previa y la experiencia del equipo de
investigación. El puntaje ponderado máximo es 40. Si el puntaje ponderado (o puntaje de fraude) de un reclamo es
mayor a 20, entonces el equipo de procesamiento de reclamos envía los reclamos al equipo de investigación para
investigar un posible fraude. Si el puntaje de fraude está entre 16 y 20, entonces el equipo de procesamiento de
reclamos busca datos adicionales del equipo de recopilación de información y del proveedor de servicios de atención
médica. Las reclamaciones con puntajes de fraude menores o iguales a 15 se consideran genuinas y se envían al
equipo de liquidación para el pago al titular de la póliza o al proveedor del servicio.
La investigación de reclamos requiere que las empresas verifiquen una serie de detalles que los corroboren. Para
asegurarse de la naturaleza genuina del reclamo, los investigadores verifican los tipos de medicamentos recetados,
los años de historial del paciente y la naturaleza específica de la dolencia. Dependiendo de si el tipo de fraude
sospechado es duro o blando, los investigadores pueden optar por examinar diferentes niveles de datos. Si bien el
fraude leve podría identificarse demostrando de manera concluyente que ciertos tipos de tratamiento no eran
apropiados para la enfermedad diagnosticada, el fraude fuerte necesitaría patrones más grandes y complejos para
descubrirse.
Los procesos de siniestros más largos y complicados son un arma de doble filo para las compañías de seguros.
A medida que aumenta el número de denuncias que se investigan en profundidad, la
Machine Translated by Google
la probabilidad de errores de inclusión y exclusión disminuye. Sin embargo, investigar una gran cantidad
de reclamos requiere tiempo, recursos y riesgos, lo que provoca demoras a los clientes genuinos.
Un reclamo se complica aún más si el titular de la póliza decide presentar una demanda judicial debido
a la demora o al rechazo. Aunque puede crear presión para un arreglo rápido, proporcionando un
argumento sólido para minimizar la demora/rechazo, una demanda por sí sola no significa necesariamente
que la reclamación sea genuina. El litigio es una herramienta crucial e importante para las compañías de
seguros. Dado que el seguro de salud es vital para la mayoría de los clientes, la decisión de clasificar un
reclamo como fraude puede potencialmente abrir la puerta a una gran cantidad de demandas. Estas
demandas pueden ser en nombre de clientes individuales o de una gran cantidad de clientes. Por lo
general, es responsabilidad de la empresa justificar su opinión de que una reclamación es fraudulenta.
Debido a que los estándares legales para el fraude pueden ser diferentes de los estándares internos de la
empresa, garantizar que la empresa pueda ganar tales casos puede resultar complicado.
Además, los costos judiciales en sí mismos pueden ser prohibitivos. La empresa puede tener que seguir
reglas diferentes según lo prescrito por la ley del país respectivo. Una gran cantidad de casos o casos
pendientes durante mucho tiempo también pueden dañar la reputación de la empresa.
Evitar tales desafíos es la mejor apuesta. También es importante no retroceder en los litigios cuando la
ocasión lo exija para evitar que posibles estafadores se aprovechen de la empresa.
5Agencia para la Investigación y la Calidad de la Atención Médica (AHRQ). 2014. Guía de partes interesadas.
https://www. ahrq.gov/sites/default/files/publications/files/stakeholdr.pdf (consultado el 17 de agosto de 2018).
Machine Translated by Google
10. Proveedores de servicios de asistencia de terceros (TPA): los TPA son los mediadores entre los
proveedores de seguros y los clientes o consumidores que ayudan a proporcionar información a
los aseguradores y ayudan a procesar sin problemas las reclamaciones cuando se presentan.
Ayudan en el proceso de recopilación de información de los proveedores de seguros y en la
presentación de reclamaciones por parte de los clientes.
11. Agentes o bancos: el proveedor de servicios de seguros contrata a los agentes/empleados para vender
varios productos o colabora con instituciones financieras como bancos y proveedores externos para
realizar ventas cruzadas de productos de seguros a su base de clientes existente.
La compañía de seguros actúa como un gran coordinador entre los diferentes actores. Las
aseguradoras ayudan a interpretar las leyes y reglamentos. Conocen los medicamentos, los efectos
secundarios, los programas de tratamiento y los procedimientos. Recopilan datos sobre tarifas y costos
de diferentes servicios en diferentes lugares. También proporcionan información y servicios afines a los
clientes. Por ejemplo, procesan directamente las facturas y pagan los hospitales una vez aprobado el
trámite. En muchos sentidos, se necesita una industria de seguros fuerte y competitiva para coordinar
tantos intereses diferentes.
El fraude de seguros es una de las mayores fuentes de delitos de cuello blanco en el mundo, lo que
significa que también se dedica un esfuerzo policial significativo a rastrearlo y eliminarlo.
Sin embargo, dados los recursos policiales limitados y un universo de delincuencia que abarca mucho
más que la variedad de cuello blanco, el fraude de seguros duros perpetrado por delincuentes
organizados tiende a ser el foco de atención de la aplicación de la ley. Esto deja el fraude duro
desorganizado y una plétora de fraude suave para permanecer dentro del alcance de las compañías de
seguros.
Machine Translated by Google
La industria de seguros de salud no es más inmune al fraude que cualquier otro subsector de seguros.
Los expertos estiman que alrededor del 6 % del gasto mundial en atención médica se pierde por fraude
cada año.6 En un mundo en el que los gobiernos, las organizaciones no gubernamentales y las
corporaciones gastan billones de dólares en atención médica, esto equivale a decenas de miles de millones
perdidos por empresas criminales. Solo en los EE. UU., se estima que el fraude causa alrededor de 80 000
millones de USD en pérdidas anuales a la industria, y el fraude por daños a la propiedad representa 32 000
millones de USD.7 Estas cifras no incluyen el fraude perpetrado en Medicare y Medicaid.
El fraude de seguros de salud es un acto de proporcionar información engañosa o falsa a una compañía
de seguros de salud en un intento de que paguen a un titular de la póliza, a otra parte o a la entidad que
presta los servicios (PAIFPA 2017). Un suscriptor individual puede cometer fraude de seguro médico al:
Los proveedores de salud pueden cometer actos fraudulentos (PAIFPA 2017) al:
• Facturar por servicios, procedimientos y/o suministros que nunca se brindaron • Cobrar por
servicios más costosos que los realmente brindados • Realizar servicios innecesarios con el fin de
obtener ganancias financieras • Tergiversar tratamientos no cubiertos como una necesidad médica
• Falsificar el diagnóstico de un paciente para justificar pruebas, cirugías u otros procedimientos •
Facturar cada paso de un solo procedimiento como si fuera un procedimiento separado • Cobrar a un
paciente más del copago acordado según los términos de la aseguradora • Pagar “sobornos” por
referencia de vehículo motorizado víctimas de accidentes para recibir tratamiento • Pacientes que
reclaman falsamente costos de atención médica • Individuos que utilizan documentos falsos/robados/
prestados para acceder a la atención médica
Abordar el fraude es fundamental para la industria, especialmente cuando el fraude se vuelve cada vez
más complejo. Por su naturaleza, el fraude de seguros es difícil de detectar, ya que su objetivo es ser
indistinguible de las reclamaciones de seguros genuinas. En cada uno de los casos anteriores, identificar el
fraude que se ha perpetrado puede ser un proceso laborioso, que consume tiempo y esfuerzo. Dado que el
gasto en atención médica puede ser repentino, urgente e inesperado, verificar si hay fraude puede ser un
proceso complicado. Las empresas deben equilibrar sus limitaciones financieras con la realidad de las
situaciones de atención médica.
Según una estimación de la Asociación Nacional contra el Fraude en el Cuidado de la Salud de EE. UU.
(NHCAA),8 el 3 % de todo el gasto en atención médica se pierde debido al fraude en la atención médica (LexisNexis
6“El desafío del fraude en el cuidado de la salud”, Red mundial contra el fraude en el cuidado de la salud. http://
www.ghcan. org/global-anti-fraud-resources/the-health-care-fraud-challenge/ (consultado el 12 de junio de 2017).
7http://www.insurancefraud.org/statistics.htm (consultado el 12 de junio de 2017).
8Los desafíos del fraude en la atención médica. https://www.nhcaa.org/resources/health-care-anti-fraud
resources/the-challenge-of-health-care-fraud.aspx (consultado el 17 de agosto de 2018).
Machine Translated by Google
2011). El fraude financiero, incluida la facturación ilegal y las reclamaciones falsas, es el tipo más común
de fraude de seguros de salud y, por lo general, está relacionado con aspectos de la organización y la
gestión de la información de salud (Fundación AHIMA 2010). Las herramientas y técnicas de minería de
datos y el análisis predictivo, como la red neuronal, el razonamiento basado en la memoria y el análisis
de enlaces, se pueden utilizar para detectar fraudes en los datos de reclamaciones de seguros (Bagde y
Chaudhary 2016).
El fraude en la atención médica conduce a tarifas de primas más altas, mayores gastos para los
consumidores y cobertura reducida. Aumenta el costo para los empleadores por proporcionar seguro
médico a sus empleados, lo que afecta el costo de hacer negocios. Además de las pérdidas financieras,
las actividades fraudulentas conducen a la explotación y exposición de las personas a procedimientos
médicos innecesarios e inseguros, que pueden tener efectos secundarios devastadores para la salud.
Detectar el fraude de seguros de salud es un proceso largo y complicado que cuesta a las empresas
tiempo, esfuerzo, dinero y la buena voluntad de sus clientes.
La tecnología moderna y el software estadístico han ayudado a reducir este costo, pero sigue siendo una
carga importante para los recursos de los departamentos de servicio al cliente en todo el mundo. Las
estrategias y actividades de gestión y protección contra fraudes de seguros médicos pueden incluir
"mejorar la calidad de los datos, crear una cultura centrada en los datos y aplicar análisis de datos
avanzados" .
9Deloitte (2012), Reducción del fraude de reclamos: un problema transversal de la industria. http://deloitte.wsj.com/cfo/
files/ 2012/10/reducing_claims_fraud.pdf (consultado el 17 de agosto de 2018).
Machine Translated by Google
7 El negocio de Ideal
sistema actual. La sensación era que estaba algo limitado debido a un “enfoque burocrático”.
Hicieron sus propios controles, a menudo descubriendo fraudes de reclamos identificados
como Genuinos por el sistema actual. Rachel discutió lo mismo con el personal de mayor rango
para comprender la causa raíz. El argumento dado fue que "la madurez de los datos es vital
para descubrir un patrón de fraude y, por lo tanto, volvemos a analizar los reclamos (incluso si
se identifican como Genuinos) cuando se ingresa más información en la base de datos".
Además, su experiencia sugirió que es difícil descubrir el fraude suave profesional que
generalmente se identifica solo mediante un análisis exhaustivo o si hay alguna pista de una
parte interesada externa o al realizar un análisis de red de otros reclamos de fraude.
Rachel quería comentarios sobre los procesos actuales y contrató a un consultor
independiente para examinar 100ÿ000 reclamos de los datos históricos de reclamos. El
consultor, con la ayuda de un equipo de investigación, realizó un examen exhaustivo de las
reclamaciones proporcionadas y las clasificó como fraude o no fraude. De los 100 000 reclamos
investigados por el consultor, identificó 21 692 como reclamos potencialmente fraudulentos y
78 308 como reclamos genuinos. La comparación de estos resultados con los registros de
liquidación anteriores de 100 000 reclamaciones mostró que más del 90 % de estas
reclamaciones fraudulentas no fueron identificadas por el sistema automatizado existente.
Los reclamos de más de 6657 clientes se retrasaron debido al proceso de investigación
sugerido por el sistema actual. El costo promedio de un reclamo es de alrededor de US$5000
mientras que el costo de una investigación es de aproximadamente US$500. El costo de la
investigación se dividió en partes iguales entre el costo de la mano de obra interna y el costo
externo de obtener información específica sobre la reclamación. Por lo tanto, de manera
conservadora, Rachel estimó que investigar un reclamo genuino conduce a una pérdida de
US$500 y aumenta la insatisfacción del cliente debido a la demora en la liquidación. También
reduce la eficiencia del equipo de investigación. La liquidación de una posible reclamación
fraudulenta conduce a una pérdida de US$5000 en promedio y afecta negativamente el precio
de la prima y la eficacia del equipo de suscripción.
El equipo de gestión discutió el informe con su equipo de liquidación de reclamaciones y
buscó su consejo sobre cómo mejorar los procesos. Se recopilaron varias sugerencias
excelentes, como monitorear cada etapa del proceso en lugar de todo el proceso, marcar
problemas que el sistema actual pasa por alto y usar datos de reclamos similares anteriores
para verificar el reclamo. El equipo de liquidación de reclamaciones también sugirió contratar a
un profesional de análisis para crear un modelo predictivo de fraude utilizando técnicas
avanzadas de ciencia de datos. Explicaron que esto no solo ayudaría a identificar correctamente
posibles reclamos de fraude, sino también a optimizar los esfuerzos de los equipos de
investigación y liquidación de reclamos. También mencionaron que su competidor más cercano
había establecido recientemente un departamento de análisis, que estaba ayudando en varios
aspectos del negocio, como la realización de análisis de fraude, la predicción de reclamos, la
revisión de las partes interesadas en la lista negra, la suscripción efectiva y el desarrollo de
productos personalizados.
Machine Translated by Google
Rachel recurrió a Raghavan, un empleado reciente que se había graduado con una maestría
en análisis de negocios de una famosa escuela en el centro sur de la India. Raghavan tenía
experiencia en análisis específicamente en el dominio de seguros. Se le encargó contratar
profesionales y supervisar el proyecto: construir un modelo predictivo para identificar posibles
reclamos fraudulentos a partir de los reclamos de seguros de salud informados. Esta solución,
sintieron Rachel y Sebastian, ayudará no solo a reducir las pérdidas por fraude, sino también a
mejorar la eficiencia y la satisfacción del cliente y reducir el ciclo de liquidación de reclamaciones.
Los pensamientos iniciales de Raghavan fueron ofrecer una solución analítica robusta que
mejoraría el proceso de identificación de reclamos fraudulentos en el sitio de Ideal sin invertir
mucho tiempo y esfuerzo en el campo en la etapa inicial. Los posibles reclamos de fraude se
pueden investigar de manera más rigurosa, mientras que los reclamos genuinos se pueden resolver
rápidamente al mismo tiempo. Cooptó a Caroline Gladys, quien también se había graduado
recientemente en análisis de una de las principales escuelas de negocios, que había estado
trabajando con el equipo de inteligencia comercial y ahora quería cambiarse al equipo de análisis
avanzado. Raghavan le brindó la oportunidad de trabajar en esta prueba de concepto y brindar
una solución.
Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están disponibles en
www.allaboutanalytics.net.
Apéndice 1
Nota: Todos los montos están en US$ y las fechas en formato d-mmm-aaaa. Los datos de identidad como
el número de póliza, el número de reclamo y los detalles del hospital están enmascarados para mantener la privacidad de los datos.
Machine Translated by Google
Apéndice 2
Referencias
Fundación AIMA. (2010). Un estudio sobre el fraude y el abuso en la atención de la salud: implicaciones para los profesionales
manejo de la información de salud. Recuperado el 15 de septiembre de 2018, de https://www. ahimafoundation.org/
downloads/pdfs/Fraud%20and%20Abuse%20-%20final%2011-4-10.pdf.
Bagde, PR y Chaudhary, MS (2016). Análisis del mecanismo de detección de fraude en salud
seguro utilizando técnicas de minería de datos estadísticos. Revista Internacional de Ciencias de la Computación
y Tecnologías de la Información, 7(2), 925–927.
LexisNexis. (2011). Doblando la curva de costos: control de fraude empresarial impulsado por análisis. Recuperado
15 de septiembre de 2018, de http://lexisnexis.com/risk/downloads/idm/bending-the-cost-curve analytic-driven-enterprise-
fraud-control.pdf.
Autoridad de Prevención del Fraude de Seguros de Pensilvania (PAIFPA). (2017). Fraude de seguros de salud. Recuperado
15 de septiembre de 2018, de http://www.helpstopfraud.org/Types-of-Insurance-Fraud/Health.
Singhal S, Finn P, Schneider T, Schaudel F, Bruce D y Dash P (2016). Global
pagadores privados: una industria de crecimiento de un billón de euros. Nueva York: McKinsey and Company Obtenido
el 15 de septiembre de 2018 de http://healthcare.mckinsey.com/sites/default/files/
Global%20private%20payors%20%28updated%29.pdf.
Machine Translated by Google
capitulo 26
Estudio de caso: Aerolínea AAA
1. Introducción
Steven Thrush, director de ingresos de AAA Airline Corp, estaba preocupado por su empresa. La
industria de las aerolíneas, impulsada por la fuerte demanda y los bajos precios del petróleo, había
experimentado un auge durante los últimos años. Sin embargo, la creciente competencia había
comenzado a presionar las operaciones de AAA. Los sentimientos cambiantes del mercado y un
mercado cada vez más complicado habían hecho que viajar a la mayoría de los destinos en los EE.
UU. dependiera para la mayoría de los clientes de una serie de factores contrastantes.
Además, el auge de las aerolíneas de bajo costo y los sitios web de comparación de boletos en
línea ejercieron una enorme presión a la baja sobre los precios de los boletos, reduciendo los
márgenes de las empresas y obligándolas a investigar nuevas vías de crecimiento para mantener su
rentabilidad.
Thrush acababa de regresar de una conferencia centrada en la aplicación de la ciencia y el análisis
de datos en la industria del transporte de pasajeros. En la conferencia, investigadores y profesionales
hablaron sobre el rápido avance de los grandes datos y su poder para comprender y predecir el
comportamiento de los clientes. Thrush captó que los grandes datos
El estudio de caso está escrito por Agrawal, Deepak; Kollipara, Hemasri; y Mamidipudi, Soumithri bajo
la dirección del profesor Sridhar Seshadri. Nos gustaría agradecer a Coldrena et al. (2003) y Garrow
(2010) quienes son la inspiración para desarrollar este estudio de caso.
podría ayudar a su empresa a avanzar hacia nuevos modelos que tuvieran en cuenta una vertiginosa
gama de factores para tomar mejores decisiones.
Cuando Linda James, la jefa de planificación de rutas de la compañía, se acercó a él para preguntarle
sobre la viabilidad de lanzar un vuelo Nueva York-Boston, Thrush pensó inmediatamente en emplear los
modelos de elección del cliente de los que había oído hablar para comprender la propuesta. Le pidió a su
equipo de datos que usara la base de datos de la compañía de sus clientes para comprender la cuestión
de qué tan bien recibido sería un nuevo vuelo de Nueva York a Boston. Sabía que para responder a esa
pregunta, el equipo también tendría que investigar muchos más problemas, como qué tipo de fijación de
precios sería más eficiente, qué tipo de avión sería más eficiente y cuál sería la mejor manera de llegar a
nuevos clientes que de otro modo no podrían. volar AAA.
Thrush sabía que decidirse por el enfoque correcto del problema sería la mejor manera de brindar el
mejor servicio posible a los clientes y maximizar las ganancias de su empresa.
AAA Airline Corp se fundó en 2005, en medio de un cambio radical en la industria de viajes.
A medida que crecía la penetración de Internet y los sitios web de comparación de precios se volvían
cada vez más populares, AAA vio una oportunidad para que un operador de bajo costo capitalizara el
mayor enfoque de los clientes en los precios.
Al igual que muchos operadores fundados a raíz del auge en línea, la filosofía de AAA era competir
únicamente en función del precio. En lugar de enfocarse en vuelos y necesidades regionales específicas,
la filosofía de AAA era identificar y llenar los vacíos en el mercado y, al hacerlo, crear un nicho para sí
misma. Si bien la mayoría de sus vuelos operaban en un sistema hub-and-spoke desde el Aeropuerto
Logan de Boston, la compañía no era reacia a operar rutas de punto a punto que son el sello distintivo de
las aerolíneas de bajo costo en todo el mundo.
El método inicial de AAA para identificar qué rutas eran rentables se basaba en una combinación de
investigación de mercado e intuición. El equipo de administración original de AAA estaba formado
principalmente por veteranos de la industria provenientes de Massachusetts, y todos estaban bien
familiarizados con las necesidades de los clientes locales. La profunda experiencia de AAA en su mercado
inicial la ayudó a sobrevivir donde muchos de sus rivales fracasaron, lo que la impulsó a expandir su
oferta y planificar un crecimiento más ambicioso.
Para 2016, el tamaño de la flota de AAA había aumentado considerablemente, lo que provocó la
preocupación de Thrush con respecto a sus próximos pasos. La historia de AAA significaba que tenía
acceso a una gran base de datos de sus propios clientes, que hasta ahora había estado utilizando para
pronosticar la demanda futura y los patrones de tráfico. Sin embargo, Thrush deseaba saber qué nuevas
herramientas se podrían utilizar y qué conjuntos de datos se podrían encontrar para analizar el mercado
y ayudar a la empresa a avanzar en la nueva era de los viajes aéreos comerciales.
Machine Translated by Google
La industria de las aerolíneas de EE. UU. tenía una capacidad de más de 1,1 millones de millas de
asientos disponibles (contando tanto para vuelos nacionales como internacionales) en 2016 y es la
geografía más grande para viajes aéreos en todo el mundo. El sector suministra casi 3500 millas de
asientos disponibles, una medida de la capacidad de carga, por persona en América del Norte, más del
doble que la industria en Europa.
Los efectos de la Ley de Desregulación de Aerolíneas de 1978 todavía se sienten hoy.
Antes de la Ley, las compañías aéreas estadounidenses estaban estrictamente restringidas por la Junta
de Aeronáutica Civil, que era responsable de aprobar nuevas rutas y precios.
La Junta podría otorgar inmunidad antimonopolio a los acuerdos entre transportistas si considerara que
es de interés público. Esto dio lugar a una situación en la que las aerolíneas competían únicamente en
el servicio a bordo y en los horarios y la frecuencia de los vuelos.
Los transportistas heredados (aerolíneas fundadas antes de la desregulación) pueden ofrecer un
mejor servicio y beneficios, como esquemas de lealtad, como resultado del entorno en el que operaban
cuando se fundaron. Las aerolíneas como estas tienden a tener aviones más grandes y operan en un
sistema radial, lo que significa que sus vuelos se basan en gran medida en un solo aeropuerto.
Después de que se desreguló la industria, las aerolíneas quedaron libres para decidir qué rutas
volar y qué precios ofrecer. Nuevas aerolíneas de bajo costo como AAA ingresaron al mercado y
cambiaron el paradigma por el cual funcionaban las empresas de la industria, lo que obligó a las
aerolíneas de servicio completo a adaptarse. Desde 1978, más de 100 aerolíneas se han declarado en
bancarrota1, lo que subraya la naturaleza tumultuosa de la industria.
La proliferación de Internet no fue menos perturbadora para las industrias de las aerolíneas y los
viajes. Los clientes pudieron más que nunca comparar vuelos, y su capacidad para discriminar entre
una multitud de opciones con solo tocar una tecla dejó a las empresas de todo el mundo luchando por
mantenerse al día. Esto significó que empresas como AAA se vieron obligadas a utilizar modelos cada
vez más complicados en sus intentos de comprender y predecir la demanda de los clientes y, al mismo
tiempo, realizar un seguimiento de sus costos.
Thrush sabía que el sistema de radios y ejes de AAA ayudaba a mantener bajos los costos y
permitía que la aerolínea transportara una gran cantidad de pasajeros. Sin embargo, también sabía que
los aeropuertos centrales se veían especialmente afectados por el aumento del número de pasajeros
que los utilizaban, lo que significaba que la presión sobre su personal y sus operaciones aumentaba a
diario. El factor de ocupación nacional de la industria, la fracción de asientos disponibles que se
vendieron, aumentó del 66 % en 1995 al 85 % en 2016.2 Las ASM nacionales aumentaron un 29 % en
el mismo período a 794 282. Sin embargo, el tamaño y la capacidad de los aeropuertos centrales no
habían aumentado en consonancia con este crecimiento explosivo de pasajeros debido a restricciones
financieras, ambientales y de propiedad.
Hasta ahora, la industria de las aerolíneas había abordado el problema de poder suministrar a
sus clientes los vuelos que necesitaban buscando alianzas estratégicas y acuerdos de código
compartido. Las aerolíneas que formaban parte de la misma alianza acordaron unir sus recursos
acordando estar ubicadas en las mismas terminales en los aeropuertos centrales, operar vuelos bajo
la bandera de más de una aerolínea y ofrecer privilegios a los miembros de los programas de lealtad
de otros miembros. Al hacerlo, las empresas se aseguraron de no tener que operar y volar todas las
rutas que demandaban sus clientes.
“Necesitamos considerar si tiene sentido abandonar nuestro sistema de radios y ejes. Nuestros
rivales que usan rutas de punto a punto se están comiendo la demanda, y estoy seguro de que los
pasajeros están notando el tipo de colas que se están acumulando en los aeropuertos más grandes”,
dijo James a Thrush.
La industria de las aerolíneas utiliza tres tipos principales de datos para interpretar el entorno en el
que opera: datos de demanda, como reservas y emisión de boletos; suministrar datos, como horarios;
y datos operativos, como retrasos, cancelaciones y registros. Thrush descubrió que los científicos
de datos usaban estas bases de datos para descubrir las preferencias de los viajeros y comprender
su comportamiento.
Los datos de demanda en la industria provienen de las bases de datos de reservas y emisión de
boletos, y detallan una gran cantidad de factores que afectan a los clientes al reservar vuelos, y
tienen en cuenta exactamente qué información está disponible para los clientes en el momento de
su compra. Por lo general, se puede acceder a los datos de suministro para que los clientes puedan
identificar los vuelos, pero las principales fuentes de la industria son los horarios y las guías
proporcionadas por la Guía oficial de aerolíneas (OAG). Estas guías recopilan información que
incluye el origen, el destino, la duración del viaje y el kilometraje para vuelos individuales a nivel
mundial.3 Los datos sobre el estado operativo de los vuelos generalmente están disponibles de
forma gratuita, aunque a menudo no son granulares. AAA, al igual que sus competidores, mantuvo
registros detallados de datos operativos para detectar patrones de ineficiencia. Además, el
Departamento de Transporte de EE. UU. mantiene un banco de datos que contiene el 10% de todos
los boletos aéreos en el país.4 El banco de datos proporciona información detallada sobre boletos,
itinerarios y viajes y está disponible gratuitamente para fines de investigación.
Thrush se reunió con John Heavens, un científico de datos y consultor de viajes de aerolíneas, para
investigar más sobre la posibilidad de utilizar modelos de datos avanzados para comprender y
pronosticar el comportamiento de los clientes.
Heavens le dijo a Thrush que los viejos modelos probabilísticos/de series de tiempo de la
industria se habían vuelto demasiado obsoletos. Los modelos de elección de decisiones logit
multinomiales fueron las herramientas principales de la industria para comprender la demanda de
los consumidores. Estos modelos desglosaron los itinerarios asignando valores de utilidad a cada
vuelo e intentando determinar qué factores eran más valiosos para los clientes. Al observar los
factores que afectaron las elecciones de los clientes para cada par de origen-destino, Thrush podría
predecir con confianza hacia dónde viajarían los clientes a continuación.
Sin embargo, Heavens también le dio a Thrush una tercera opción. “Incluso los modelos de
decisión-elección se están volviendo obsoletos y ahora nos estamos moviendo en nuevas
direcciones”, dijo. El consultor señaló que los modelos MNL de la industria eran esencialmente de
naturaleza lineal y no podían tratar con factores que estaban correlacionados. Además, su rígida
necesidad de entrada de datos significaba que no podían predecir la demanda de nuevas rutas y
nuevos mercados.
En cambio, Heavens apuntó a la investigación pionera en inteligencia artificial como la
vanguardia de una variedad de nuevas herramientas tecnológicas que podrían usarse para predecir
la demanda futura. Técnicas como los bosques aleatorios, las máquinas potenciadoras de gradientes
y las redes neuronales artificiales pudieron producir mejores resultados fuera de la muestra sin
sacrificar la bondad de ajuste dentro de la muestra. Si bien estas técnicas carecían de la legibilidad
y la simplicidad de los modelos MNL, finalmente fueron más eficientes.
Después de que le presentaran los modelos, Thrush supo que tenía que tomar una decisión difícil.
Pasar a nuevos métodos de análisis tenía claras ventajas, pero la importante inversión en tiempo y
esfuerzo debía justificarse. La capacitación y contratación de empleados y la realización de análisis
continuos serían una carga para los recursos de la empresa.
Thrush miró a Hari Veerabhadram, el miembro más nuevo de su equipo, para que le explicara
exactamente qué modelos son los más adecuados para comprender las preferencias de los clientes.
Hari sabía que tenía que explicar cómo funcionaban los modelos. Empezó a pensar qué variables
de los modelos usaría y cuáles serían las más importantes. Sabía que sería crucial explicar por qué
determinadas variables eran las más importantes y qué modelo predecía mejor las preferencias de
los clientes.
A la gerencia siempre le gusta la prueba visual del análisis. Por lo tanto, sintió que tendría que
explicar y comparar los modelos tanto estadísticamente (error cuadrático medio, varianza porcentual
explicada por el modelo, etc.) como a través de métodos de visualización (ajuste previsto frente a
real, entrenamiento frente a resultados de validación, etc.) .
Machine Translated by Google
Zorzal le dijo a Veerabhadram que comenzara mirando los itinerarios en los que AAA
se estaba quedando atrás de sus competidores. ¿Había patrones? ¿Qué mercados hicieron
¿AAA se encuentra fuera de los tres primeros? ¿AAA necesitaba hacer algo diferente? Veer abhadram sabía
que tendría que recomendar cambios en las operaciones de AAA
y comenzó a pensar en cómo usar los datos a su disposición.
Veerabhadram comenzó a explorar los datos disponibles (consulte la Tabla 26.1 para obtener más detalles)
procedente de la base de datos interna de la empresa y de proveedores de datos de terceros. Él
notó que los datos de ventas están en el nivel de itinerario para múltiples aerolíneas, pero no en
nivel de cliente o transaccional. Los datos consisten en 1885 origen-destino distinto
(OD) pares con todos los itinerarios posibles en las rutas respectivas (par OD). Cada fila
es un itinerario para un par de OD dado y proporciona información adicional como
Machine Translated by Google
Aerolínea B 11.907 14
Aerolínea C 4463 5
Aerolínea D 12.593 15
Aerolínea F 3185 4
Aerolínea G 12,226 15
Aerolínea H 5231 6
Directo 454 1
5Consulte el sitio web para descargar los datos (versión csv y excel).
Machine Translated by Google
La segunda prioridad de Thrush fue comprender qué itinerarios tienen vacíos que AAA podría llenar.
“Nuestro negocio se basó en volar entre lugares que nadie sabía que necesitaban más vuelos. ¿Adónde
crees que tenemos que ir ahora? le preguntó a Veerabhadram.
Thrush le dijo que la flota de AAA actualmente consta de 120 hélices, 40 jets y 100 aviones de línea
principal, todos los cuales estaban en servicio. Veerabhadram decidió que elegiría las cinco mejores rutas
sin servicio para recomendárselas a Zorzal. También comenzó a considerar qué rutas AAA tendría que
descontinuar para comenzar nuevos vuelos.
¡Al final de estas discusiones, el cuaderno de Veerabhadram estaba lleno! Él decidió
para empezar con las siguientes preguntas:
• Ajustar un modelo de elección del cliente a los datos proporcionados y analizar si las características, la
complejidad del modelo y el tamaño de los datos fueron adecuados para responder a las preguntas
comerciales.
• Identifique las variables de importancia y asegúrese de que tengan un sentido comercial sólido.
Pensó que probaría MNL y otras técnicas. • Identificar las rutas
actualmente sin servicio y recomendar las cinco mejores rutas sin servicio en las que la aerolínea puede
introducir un nuevo itinerario para aumentar los ingresos. • Identificar los pares de OD donde AAA
Airline no se encuentra entre los tres primeros en términos de
cuota de mercado y luego:
– Analizar las ofertas de las tres principales aerolíneas en estos pares de OD.
– Recomendar cambios en las características del itinerario para mejorar la cuota de mercado.
– Sugiera posibles rutas que la aerolínea podría descartar y explique por qué.
Todos los conjuntos de datos, códigos y otros materiales a los que se hace referencia en esta sección están
disponibles en www.allaboutanalytics.net.
Referencias
Coldrena, GM, Koppelmana, FS, Kasturirangana, K. y Mukherjee, A. (2003). Modelado de cuotas agregadas de
itinerarios de viajes aéreos: desarrollo del modelo Logit en una importante aerolínea de EE. UU. Revista de
Gestión del Transporte Aéreo, 9, 361–369.
Garrow, LA (2010). Modelado de elección discreta y demanda de viajes aéreos: teoría y aplicaciones.
Nueva York: Routledge.
Machine Translated by Google
capitulo 27
Estudio de caso: Soluciones InfoMedia
Hui Zhang acababa de regresar de un taller sobre deportes y análisis de medios. Uno de los
oradores describió la convergencia de los medios y cómo afectó su negocio de transmisión en
un período de tiempo muy corto. Al escuchar a otros mencionar el mismo conjunto de
posibilidades y con su propia experiencia en la industria que cambia rápidamente, Zhang estaba
convencido de que un número cada vez mayor de televidentes, si aún no lo han hecho, "cortarán
el cable" y se mudarán. desde las plataformas de visualización tradicionales. Fue este
pensamiento el que Zhang tenía en el fondo de su mente cuando leyó un informe que predecía
que la audiencia se estaba fragmentando: cada vez más canales especializados estaban
atacando programas y horarios tradicionales. Además, el informe mencionó que la publicidad en
Internet superaría a la televisión y los medios impresos en tamaño y gasto en los próximos 5
años. A Zhang le preocupaba que las nuevas tecnologías amenazaran la posición que su
empresa había construido en el segmento de publicidad televisiva.
Si bien todavía se esperaba que se gastaran millones de dólares en publicidad en la
televisión tradicional y los canales de cable, los cambios en los hábitos de audiencia y la
demografía seguramente cambiarían los presupuestos para dirigirse a diferentes audiencias a
través de canales dedicados. Además, la estrategia de agrupación seguida por las empresas de
televisión por cable permitió a la audiencia navegar rápidamente de un programa a otro. El
cambio en la asignación de recursos de los gastos publicitarios aún no se había producido debido al debate en c
S. Padmanabhan
Nueva York, NY, EE. UU.
Zhang pensó que la ciencia de datos podría ayudar a aclarar estas preguntas. ¡Comprender
cómo usar las nuevas herramientas analíticas seguramente sería la clave para la rentabilidad!
Como director de estrategia publicitaria de InfoMedia Solutions, el trabajo de Zhang consistía en
identificar cambios en el mercado y la tecnología. Para comprender las formas en que su empresa
podría usar mejor las herramientas a su disposición, Zhang se acercó a Luke Gershwin, jefe de
análisis de InfoMedia. Le preguntó a Gershwin qué herramientas de análisis de datos podría usar
InfoMedia para dirigirse mejor a la audiencia en la televisión. “Sin una estrategia clara centrada en
la tecnología, temo que cualquier intento de cambiar la forma en que funciona nuestro negocio
publicitario podría fallar”, dijo Zhang.
1 Soluciones InfoMedia
El primer problema que enfrentó Zhang fue el problema que todos los anunciantes tenían que
abordar: la duplicación. Transmitir un anuncio (anuncio) diez veces sería muy eficiente si fuera visto por
diez personas diferentes. Sin embargo, si una sola persona los viera diez veces, el alcance del anuncio
sería mucho menor. Para medir el alcance de manera efectiva, Zhang tendría que dar cuenta
correctamente de las impresiones duplicadas y redundantes que eran inevitables en su línea de negocio.
Alcance-1 midió la cantidad de veces que un espectador único vio el anuncio al menos una vez.
Zhang también sabía que la mayoría de los clientes no cambiarían de opinión con respecto a un
nuevo producto la primera vez que escucharan sobre él. Para crear una imagen en la mente del cliente
sobre un producto, Zhang tendría que llegar al mismo cliente varias veces. Por lo tanto, el problema de
duplicación de Zhang era similar a un problema de Ricitos de oro: muy pocas impresiones no darían
como resultado una venta exitosa, pero demasiadas serían un desperdicio e ineficientes. Identificar
cómo entregar la cantidad correcta de impresiones para maximizar el alcance sería el núcleo de la
solución que necesitaba de Gershwin.
2 Alcance en Publicidad
Zhang calculó los GRP (puntos de calificación brutos) calculando en términos porcentuales el
número de impresiones realizadas en una audiencia objetivo en relación con el tamaño de la audiencia.
Por ejemplo, si los espectadores vieron un anuncio 120 millones de veces y el tamaño de la audiencia
objetivo es de 60 millones, esto se traduce en (120/60×100) = 200 GRP. Los intervalos de tiempo que
eran más largos, los espacios durante las horas pico o en programas populares podrían crear más
impresiones y, por lo tanto, un mayor alcance. no vino nada
Machine Translated by Google
libre; un intervalo de tiempo que pudiera ofrecer más alcance sería más costoso. Por lo tanto, Zhang
tendría que equilibrar el costo de transmitir los espacios con el alcance que esos espacios podrían
brindarle, al comprender a su público objetivo. El alcance 1, -3, -5 y -7 se definieron en términos
porcentuales o en el número total de espectadores únicos que vieron el anuncio al menos una, tres,
cinco y siete veces. En el ejemplo anterior, podrían ser 45, 30, 15 y 7 millones de espectadores o 75
%, 50 %, 25 % y 11,66 %. Obviamente, el alcance no excederá el tamaño de la población. Alcance-1
será el más grande seguido del resto.
Se sabía que los alcances 1, 3, 5 y 7 eran una función creciente cóncava de los anuncios
publicitarios, lo que quiere decir que a medida que aumentaba el número de anuncios publicitarios,
aumentaba el alcance, pero la tasa de ese aumento para el mismo aumento en puntos estaba
disminuyendo. En un mundo ideal, Zhang podría comprar exactamente la cantidad de espacios en
los que la tasa de disminución del alcance multiplicada por “un valor en dólares por alcance” se
equilibrara con la tasa de aumento en los espacios por un “valor en dólares de un lugar”. ” Gershwin
pensó que se podía descubrir la relación entre los anuncios publicitarios y el alcance mediante la simulación.
Además de la complicación, un enfoque multiplataforma necesitaría estimar el alcance a través
de múltiples canales o medios. Esto significaba que la función utilizada para calcular el alcance
tendría múltiples entradas para realizar un seguimiento.
Adivinar el objetivo adecuado de los anuncios publicitarios resultaría complicado. La solución de
Gershwin tendría que ayudar a resolver este problema de manera más eficiente si fuera a mejorar
los resultados de InfoMedia.
3 Galletas de Gallo
Zhang ya tenía un cliente en mente para la primera prueba del nuevo enfoque.
Rooster Confectionery, un fabricante de galletas y cereales, quería lanzar una nueva marca de
galletas recubiertas de chocolate. La directora de operaciones de Rooster, Joni Fernandez, le había
dicho a Zhang que quería enfocarse en un público objetivo más joven (grupo de edad de 20 a 35
años) con el producto, exactamente el tipo de cliente que cambiaría a diferentes vías de consumo de
medios. Zhang sintió que si el enfoque de Gershwin pudiera ayudar a optimizar la campaña de
Rooster Biscuits, sería un buen augurio para el uso de técnicas novedosas.