Está en la página 1de 110

Parte III La dinámica del crecimiento

El crecimiento y la diferenciación son fundamentales para las empresas, las sociedades y


todos los sistemas vivos. Todos los procesos de crecimiento y diferenciación se generan
mediante una retroalimentación positiva.
El crecimiento de una población o un negocio, la propagación de enfermedades
infecciosas y la adopción de innovaciones y nuevas ideas son impulsados por
retroalimentaciones que se refuerzan a sí mismas. El capítulo 9 analiza el crecimiento
"en forma de S", desarrollando una serie de modelos para representar infecciones,
enfermedades de varios tipos y una amplia gama de procesos de difusión de la
innovación, como el crecimiento del mercado de nuevos productos, el capítulo 10 analiza
la dependencia de la ruta, que surge en la presencia de retroalimentaciones positivas
que diferencian progresivamente a una población en subconjuntos de ditt, la
dependencia de la ruta y la retroalimentación positiva ayudan a explicar cómo ciertos
productos y empresas llegan a dominar sus industrias y cómo los sistemas pueden
engancharse a una ruta en particular, incluso cuando todas las rutas son inicialmente
igualmente atractivas.
9
Crecimiento en
forma de S:
epidemias,
Difusión de la
innovación y
crecimiento de nuevos
productos
Todo lo que sube debe converger,
—Flannery O Connor
Como se vio en el capítulo 8, la retroalimentación positiva crea un crecimiento
exponencial. Pero no real la cantidad puede crecer para siempre. Cada sistema
inicialmente dominado por retroalimentaciones positivas finalmente se acerca a la
capacidad de carga de su entorno. Como los límites de enfoque de crecimiento, hay una
transición no lineal desde el dominio por alimentación positiva de vuelta al dominio por
retroalimentación negativa. Bajo ciertas condiciones, el resultado es Crecimiento en
forma de S, donde la población en crecimiento se acerca suavemente al equilibrio.
Este capítulo muestra que se puede modelar un crecimiento en forma de S, con
aplicaciones a la difusión de las innovaciones. la propagación de enfermedades
infecciosas y virus informáticos, el crecimiento del mercado de nuevos productos, entre
otros. Una variedad de importantes y Se introducen y analizan modelos de crecimiento en
forma de S ampliamente utilizados. el uso de estos modelos para la previsión se discute, y
las extensiones a los modelos son presentado. Los casos examinados incluyen la
propagación de la enfermedad de las vacas locas y el VIH y el crecimiento de los
mercados de productos de alta tecnología como computadoras y consumidores servicios
como televisión por cable.

9.1 Modelado del Crecimiento en Forma de S


El modelo de población no lineal desarrollado en el capítulo 8 es bastante general. La
población en el modelo puede ser cualquier cantidad que crezca en un entorno fijo, por
ejemplo, el número de adoptantes de una innovación, el número de personas infectadas
por una enfermedad, la fracción de cualquier grupo que se adhiere a una idea o comprar
un producto, etc. Si la población es impulsada por retroalimentación positiva cuando es
pequeña en relación con sus límites, entonces el comportamiento resultante será un
crecimiento en forma de S, siempre que no haya retrasos significativos en las
retroalimentaciones negativas que restringen a la población. Si hay retrasos en la
respuesta de la población a la capacidad de carga que se aproxima, el comportamiento
será un crecimiento en forma de S con sobre impulso y oscilación; si la capacidad de
carga es consumida por la población en crecimiento, el comportamiento se sobrepasará y
colapsará (ver capítulo 4). Por el contrario, siempre que observe un sistema que ha
experimentado un crecimiento en forma de S, sabrá que inicialmente el comportamiento
estuvo dominado por ciclos de retroalimentación positiva, pero a medida que el sistema
creció, hubo un cambio no lineal hacia el dominio por retroalimentación negativa.
9.1.1 Crecimiento Logístico
Como se ilustra en el ejemplo de crecimiento poblacional no lineal del capítulo 8, la tasa
de crecimiento fraccional neto de la población P debe caer desde su valor inicial, pasar
por cero cuando la población es igual a la capacidad de carga C y volverse negativa
cuando P> C. En consecuencia, la gráfica de fase de la tasa neta de natalidad debe tener
una forma aproximadamente como un cuenco invertido: la natalidad neta es cero cuando
la población es cero, aumenta con el aumento de la población hasta un máximo, cae a
cero en la capacidad de carga y continua caída, volviéndose cada vez más negativa,
cuando la población excede la capacidad de carga. Sin embargo, hay un número infinito
de curvas de tasa de natalidad neta fraccionarias y, por lo tanto, diagramas de fase, que
satisfacen estas restricciones generales. Un caso especial importante de crecimiento en
forma de S se conoce como crecimiento logístico o crecimiento de Verhulst, en honor a
François Verhulst, quien publicó por primera vez el modelo en 1838 (véase Richardson
1991). El modelo de crecimiento logístico postula que la tasa de crecimiento poblacional
fraccional neta es una función lineal (con pendiente descendente) de la población. Es
decir,
Tasa Neta de Natalidad=g ( P ,C ) P=g (1- {P} over {C} )
Donde g (P, C), la tasa de crecimiento fraccional, es una función de la población y la
capacidad de carga y g" es el crecimiento fraccionario máximo (la tasa de crecimiento
fraccional cuando la población es muy pequeña). El modelo logístico se ajusta a los
requisitos para el crecimiento en forma de S: la tasa de crecimiento neto fraccional es
positiva para P <C, cero cuando P = C y negativa para P> C. El modelo logístico tiene
algunas características adicionales. Reordenamiento de la ecuación (9-1) da

( P
Tasa de natalidad neta=g∗ 1− P=g∗P –
C ) g∗P2
C
El primer término g*P es un proceso de retroalimentación positiva lineal estándar de
primer orden; el segundo término, -g*P/C, es no lineal en la población y representa la
retroalimentación negativa cada vez más fuerte causada por el acercamiento de la
población a su capacidad de carga.

¿Cuándo alcanza la tasa de crecimiento neta su máximo? En el modelo logístico, la tasa


de natalidad neta dada por la ecuación (9-2) es una parábola invertida que pasa por cero
en los puntos P = 0 y P = C. Debido a que una parábola es simétrica alrededor de su pico,
la tasa de natalidad neta máxima ocurre cuando
C
Pinf =
2
donde Pinf es el valor de la población donde la tasa de crecimiento neto es máxima y, por
lo tanto, el punto de inflexión en la trayectoria de la población. 1La tasa máxima de
crecimiento neto + se produce precisamente a la mitad de la capacidad de carga. La
Figura 9-1 traza la tasa de crecimiento fraccional, la gráfica de fase y el comportamiento
en el dominio del tiempo para el modelo logístico. El modelo logístico es importante por
varias razones. Primero, muchos procesos de crecimiento en forma de S pueden
aproximarse bien mediante el modelo logístico, a pesar de la restricción de que el punto
de inflexión ocurre precisamente en C / 2. En segundo lugar, el modelo logístico se puede
resolver analíticamente. Por último, el modelo logístico, aunque intrínsecamente no
lineal, se puede transformar en una forma lineal en los parámetros para que pueda
estimarse mediante la técnica de regresión más común, los mínimos cuadrados ordinarios
(ver sección 9.3.1).
9.1.2 Solución analítica de la ecuación logística
Aunque no es lineal, el modelo logístico que se muestra en la ecuación (9-1) se puede
resolver analíticamente. Primero separe las variables, luego integre:

Reorganizando el lado izquierdo da.

Integrando ambas partes

donde c es una constante. Dado que por definición P (t) = P (0) cuando t = 0
Tomando rendimientos exponenciales

que se puede reorganizar como

_______________________________________________________________________
1
La tasa neta máxima de natalidad, y por lo tanto el punto de infección en la población,
ocurre cuando

Resolviendo para P se obtiene Pinf =C /2

FIGURA 9-1
El modelo logístico Arriba: La tasa
de crecimiento fraccional disminuye
linealmente a medida que crece la
población. Medio: La gráfica de
fase es una parábola invertida,
simétrica alrededor de (P / C) 0.5.
Abajo: la población sigue una curva
en forma de S con punto de
inflexión en (P / C) = 0.5; la tasa de
crecimiento neto sigue una curva en
forma de campana con un valor
máximo de 0,25 ° C por período de
tiempo. El eje del tiempo se escala
de modo que 1 unidad = 1 / g *, con
el punto de inflexión centrado en el
tiempo h = 0.
o de manera equivalente

donde h es el momento en que la población alcanza la mitad de su capacidad de carga;


estableciendo P (h) = 0.5C en la ecuación (9-10) y despejando h, se obtiene h = In [(C / P
(0)) - 1] / g *. Ecuaciones (9-9) y (9-10) son dos formas de la solución analítica de la
ecuación para el crecimiento logístico dada por la ecuación (9-1).

9.1.3 Otros modelos de crecimiento comunes


Debido a su simplicidad y manejabilidad analítica, el modelo logístico es el modelo de
crecimiento en forma de S más utilizado. Sin embargo, existen muchos otros modelos de
crecimiento en forma de S. Estos modelos relajan el supuesto restrictivo de que la tasa de
crecimiento fraccional disminuye linealmente en la población. En general, estas curvas
de crecimiento no son simétricas.

Cuando m = 2, el modelo de Richards se reduce a la logística. Otros valores de m hacen


que la tasa de crecimiento fraccional no sea lineal en la población (intente esbozar la tasa
de crecimiento fraccional como una función de la población para diferentes valores de
m). La solución del modelo de Richards es

donde k es un parámetro que depende de la población inicial en relación con la capacidad


de carga.
Un caso especial del modelo de Richards es la curva de Gompertz, dada por el modelo de
Richards en el límite cuando m = 1. Tenga en cuenta que mientras que la ecuación (9-12)
no está definida cuando m = 1

por lo que se da la curva de Gompertz por

En el modelo de Gompertz, la tasa de crecimiento fraccional disminuye linealmente en el


logaritmo de la población, y la tasa de crecimiento máxima ocurre en P / C = 0.368. Otro
modelo de crecimiento de uso común se basa en la distribución de Weibull:
9.1.4 Prueba del Modelo Logístico
Para ilustrar el uso del modelo logístico, considere los ejemplos de crecimiento en forma
de S en la Figura 4-9. La Figura 9-2 muestra el resultado de ajustar el modelo logístico a
los datos de crecimiento de girasoles. El modelo logístico de mejor ajuste coincide
razonablemente bien con los datos de girasoles, aunque subestima el crecimiento en el
primer mes y lo sobreestima después. Estas diferencias sugieren que podría obtenerse un
mejor ajuste mediante el uso de un modelo de crecimiento diferente, como el modelo de
Richards, en el que la tasa de crecimiento fraccional no es lineal en la población. La
sección 9.3.1 proporciona ejemplos adicionales
9.2 Dinámica de la Enfermedad: Modelo de Epidemias
Las epidemias de enfermedades infecciosas a menudo exhiben un crecimiento en forma
de S. El número acumulado de casos sigue una curva en forma de S mientras que la tasa
de aparición de nuevos casos aumenta exponencialmente, alcanza su punto máximo y
luego disminuye a medida que termina la epidemia. La figura 9-3 muestra el curso de
una epidemia de influenza en una escuela con barba inglesa en 1978. La epidemia
comenzó con un solo estudiante infectado (paciente cero). La gripe se transmite por
contacto y por inhalación de aerosoles cargados de virus que se liberan cuando las
personas infectadas tosen y estornudan. La gripe se propagó lentamente al principio, pero
a medida que más y más estudiantes se enfermaban y se volvían infecciosos, el número
de infectados crecía exponencialmente. Debido a los espacios reducidos y, por lo tanto, a
la alta tasa de exposición, alrededor de dos tercios de la población finalmente se
enfermaron y la epidemia terminó debido al agotamiento del grupo de personas
susceptibles. La figura 9-3 también muestra el curso de una epidemia de peste en
Bombay en 1905-6. El comportamiento es bastante similar, a pesar de las diferencias en
el marco temporal, la mortalidad y otros aspectos de la situación. El patógeno no tiene
por qué ser un agente biológico; las epidemias de virus informáticos siguen una dinámica
similar.
9.2.1 Un Modelo Simple de Enfermedad Infecciosa
La figura 9-4 muestra un modelo simple de enfermedad infecciosa. La población total de
la comunidad o región representada en el modelo se divide en dos categorías: los
susceptibles a la enfermedad, S, y los que son infecciosos, I (por esta razón el

FIGURA 9-2
El crecimiento de
girasoles y el
mejor ajuste
modelo logístico

modelo se conoce como el modelo SI). A medida que las personas se infectan, pasan de
la categoría susceptible a la categoría infecciosa. El modelo SI invoca una serie de
supuestos simplificadores; la sección 9.2.2 desarrolla un modelo más realista. Primero,
FIGURA 9-3
Dinámica de la enfermedad
epidémica Arriba:
Epidemia de influenza en
un internado inglés, del 22
de enero al 3 de febrero de
1978. Los datos muestran el
número de estudiantes
confinados a la cama por
influenza en cualquier
momento (la población de
individuos sintomáticos).
Fuente: British Medical
Journal, 4 de marzo de 1978,
p. 587.

Abajo: Epidemia de peste,


Bombay, India 1905-6. Los
datos muestran la tasa de
mortalidad (muertes /
semana).
Fuente: Kermack y McKendrick (1927, p. 714). Para un análisis más detallado de ambos casos,
véase Murray (1993).

FIGURA 9-4
Estructura de un modelo
simple de una epidemia Se
omiten los nacimientos, las
muertes y la migración, por
lo que la población total es
una constante y las personas
permanecen infecciosas
indefinidamente. 1914
liendre

se ignoran los nacimientos, las muertes y la migración. En segundo lugar, una vez que
las personas se infectan, siguen siendo infecciosas indefinidamente, es decir, el modelo se
aplica a infecciones crónicas, no a enfermedades agudas como la influenza o la peste. El
modelo SI contiene dos bucles, el bucle de contagio positivo y el bucle de agotamiento
negativo. Las enfermedades infecciosas se propagan cuando aquellos que son infectados
entran en contacto y transmiten la enfermedad a aquellos que son susceptibles,
aumentando aún más la población infecciosa (el bucle positivo) y, al mismo tiempo,
agotando el grupo de susceptibles (el negativo). círculo). La población infecciosa I crece
por la tasa de infección IR mientras que la población susceptible S disminuye por ella:

donde N es la población total de la comunidad e I, es el número inicial de personas


infecciosas (un número pequeño o incluso un solo individuo). Para formular la tasa de
infección, considere el proceso por el cual las personas susceptibles se infectan. Las
personas de la comunidad interactúan a un cierto ritmo (la Tasa de contacto, c, medida en
personas contactadas por persona por período de tiempo, o 1 / período de tiempo). Por lo
tanto, la población susceptible genera encuentros de Sc por período de tiempo. Algunos
de estos encuentros son con personas contagiosas. Si las personas infecciosas interactúan
al mismo ritmo que las personas susceptibles (no se les pone en cuarentena ni se les
confina en cama), entonces la probabilidad de que cualquier encuentro seleccionado al
azar sea un encuentro con un individuo infeccioso es I / N. No todos los encuentros con
una persona infecciosa resultan en una infección. La infectividad, i, de la enfermedad es
la probabilidad de que una persona se infecte después del contacto con una persona
infecciosa. Por lo tanto, la tasa de infección es el número total de encuentros Sc
multiplicado por la probabilidad de que cualquiera de esos encuentros sea con una I / N
de un individuo infeccioso multiplicada por la probabilidad de que un encuentro con una
persona infecciosa resulte en una infección:

La dinámica se puede determinar observando que, sin nacimientos, muertes o migración,


la población total es fija:

Aunque el sistema contiene dos poblaciones, en realidad es un sistema de primer orden


porque una de las poblaciones está completamente determinada por la otra. Cambiando N
- en (9-18) se obtiene I por S

La ecuación (9-20) es idéntica a la ecuación (9-1), la tasa neta de natalidad en el modelo


logístico. Una epidemia, en este modelo, crece exactamente como una población en un
entorno fijo. La capacidad de carga es la población total, N. En el modelo SI, una vez
que un individuo infeccioso llega a la comunidad, cada persona susceptible
eventualmente se infecta, con la tasa de infección siguiendo una curva en forma de
campana y la población total infectada siguiendo el patrón clásico en forma de S de la
curva logística (Figura 9-1). Cuanto mayor sea la tasa de contacto o mayor la
infectividad, más rápido avanza la epidemia. El modelo SI captura la característica más
fundamental de las enfermedades infecciosas: la enfermedad se propaga a través del
contacto entre individuos infectados y susceptibles. Es la interacción de estos dos grupos
lo que crea los bucles positivos y negativos y la no linealidad responsable del cambio en
el dominio del bucle a medida que se agota la población susceptible. La no linealidad
surge porque las dos poblaciones se multiplican juntas en la ecuación (9-18); se necesita
tanto una persona susceptible como una infecciosa para generar un nuevo caso.
9.2.2 Modelado de Infección Aguda: El Modelo SIR
Si bien el modelo SI captura el proceso básico de infección, contiene muchos supuestos
simplificadores y restrictivos. El modelo no representa nacimientos, muertes o
migración. Se asume que la población es homogénea: se asume que todos los miembros
de la comunidad interactúan al mismo ritmo promedio (no existen subculturas o grupos
que permanezcan aislados de los demás en la comunidad o cuyo comportamiento sea
diferente al de los demás). La enfermedad no altera el estilo de vida de las personas: se
supone que los infecciosos interactúan al mismo ritmo que los susceptibles. No hay
posibilidad de recuperación, cuarentena o inmunización. Todas estas suposiciones se
pueden relajar. La población susceptible puede desagregarse en varias subpoblaciones
distintas, o incluso representarse como individuos distintos, cada uno con una tasa
específica de contacto con otros. Se puede agregar una población adicional para
representar individuos en cuarentena o vacunados. Se pueden agregar las tasas de
natalidad y muerte. Se pueden agregar eventos aleatorios para simular la naturaleza
aleatoria de los contactos entre susceptibles e infecciosos. La característica más
restrictiva y poco realista del modelo logístico aplicado a las epidemias es la suposición
de que la enfermedad es crónica y que los individuos afectados permanecen infecciosos
indefinidamente. En consecuencia, una vez que incluso un solo individuo infeccioso
llega a la comunidad, todos los susceptibles eventualmente se infectan. Si bien la
suposición de una infección crónica es razonable para algunas enfermedades (por
ejemplo, el herpes simple), muchas enfermedades infecciosas producen un período de
infecciosidad y enfermedad agudas, seguido de la recuperación y el desarrollo de
inmunidad o de la muerte. La mayoría de las epidemias terminan antes de que todos los
susceptibles se infecten porque las personas se recuperan más rápido de lo que surgen
nuevos casos. Kermack y McKendrick (1927) desarrollaron un modelo aplicable a estas
enfermedades agudas. El modelo contiene tres poblaciones: la población susceptible, S,
la población infecciosa, I, y la población recuperada, R (figura 9-5). Conocido desde
hace mucho tiempo como el modelo SIR, la formulación de Kermack-McKendrick se usa
ampliamente en epidemiología. Aquellos que contraen la enfermedad se vuelven
infecciosos durante un cierto período de tiempo, pero luego se recuperan y desarrollan
inmunidad permanente. La suposición de que las personas se recuperan crea una
retroalimentación adicional: el ciclo de recuperación negativo. Cuanto mayor sea el
número de KOR infecciosos
FIGURA 9-5 Estructura del modelo epidémico SIR
Las personas permanecen infectadas (y enfermas) por un tiempo limitado, luego se
recuperan y desarrollan inmunidad.

individuos, mayor será la tasa de recuperación y menor será el número de personas


infecciosas restantes. Todos los demás supuestos del modelo SI original se mantienen 2.
La población susceptible, como en el modelo SI, se reduce por la tasa de infección. La
población infecciosa ahora acumula la tasa de infección menos la tasa de recuperación
RR y la población recuperada R acumula la tasa de recuperación:

La población susceptible inicial es la población total menos el número inicial de


infecciosos y los individuos inmunes y recuperados inicialmente. La tasa de recuperación
se puede modelar de varias formas. En el modelo SIR, se supone que la duración media
de la infectividad, d, es constante y se supone que el proceso de recuperación sigue un
proceso de retroalimentación negativa de primer orden:
La duración media de la infecciosidad, d, representa la duración media del tiempo que las
personas son infecciosas. La suposición de que la tasa de recuperación es un proceso de
primer orden significa que no todas las personas se recuperan exactamente después del
mismo tiempo, sino que una determinada población de individuos infecciosos disminuirá
exponencialmente, y algunas personas se recuperan rápidamente y otras más lentamente
". La tasa de infección se formula exactamente como en el modelo SI de la ecuación (9-
18).
___________
2
En el modelo SIR la población recuperada a menudo se denomina "Eliminaciones" y la tasa de recuperación se
denomina tasa de eliminación. Muchas aplicaciones del modelo interpretan la tasa de eliminación como la suma de los
que se recuperan de la enfermedad y los que mueren a causa de ella. Sin embargo, esta interpretación es incorrecta, ya
que los que mueren reducen la población total, mientras que en el modelo SIR la población total es constante. La
agregación de muertes y recuperaciones en un solo flujo de extracciones y un solo stock de extracciones acumuladas
suele justificarse con el argumento de que la mortalidad suele ser una pequeña fracción de la población total. Incluso
cuando esto es cierto, es una mala práctica de modelado agregar a los vivos con los muertos, ya que su comportamiento
suele ser bastante diferente. En este caso, quienes se recuperan continúan interactuando con las poblaciones restantes
susceptibles e infecciosas, mientras que los que mueren generalmente no lo hacen.

9.2.3 Comportamiento del Modelo: El Punto de Inflexión


A diferencia de los modelos considerados hasta ahora, el sistema ahora es de segundo
orden (hay tres valores, pero como suman una constante, solo dos son independientes).
Sin embargo, todavía es posible analizar su dinámica cualitativamente. Primero, a
diferencia del modelo SI, ahora es posible que la enfermedad se extinga sin causar una
epidemia. Si la tasa de infección es menor que la tasa de recuperación, la población
infecciosa disminuirá. A medida que caiga, también lo hará la tasa de infección. Por lo
tanto, la población infectada puede reducirse a cero antes de que todos contraigan la
enfermedad. ¿En qué circunstancias la introducción de un individuo infeccioso a la
población provocará una epidemia? Intuitivamente, para que ocurra una epidemia, la tasa
de infección debe exceder la tasa de recuperación; si es así, la población infecciosa
crecerá, lo que dará lugar a más casos nuevos. Si, si bien cada persona es infecciosa,
transmiten la enfermedad a exactamente una persona más, entonces la reserva de
infecciosos se mantendrá constante, ya que la tasa de infección se compensaría con la tasa
de recuperación. Por lo tanto, para que ocurra una epidemia, cada infeccioso debe, en
promedio, transmitir el caso a más de una persona antes de recuperarse. La cuestión de si
ocurrirá una epidemia es realmente una cuestión sobre qué circuitos de retroalimentación
son dominantes cuando la enfermedad llega a una comunidad. Si el ciclo de contagio
positivo domina los ciclos de recuperación y agotamiento, entonces la introducción de un
solo individuo infeccioso a una comunidad desencadena una epidemia. La tasa de
infección superará la tasa de recuperación, lo que hará que la tasa de infección aumente
aún más, hasta que el agotamiento del grupo de susceptibles finalmente limite la
epidemia. Sin embargo, si el ciclo positivo es más débil que el negativo, no se producirá
una epidemia, ya que las personas infecciosas se recuperarán en promedio más rápido de
lo que surgen nuevos casos. El número de casos nuevos creados por cada infectivo antes
de su recuperación y, por tanto, la fuerza de los diferentes bucles, depende de la duración
media de la infección y del número de casos nuevos que genera cada infectivo por
período de tiempo. Cuanto mayor sea la tasa de contacto o la infectividad de la
enfermedad, más fuerte será el lazo positivo. Asimismo, cuanto mayor es la fracción de
la población total susceptible a la infección, más débil es el ciclo de agotamiento.
Finalmente, cuanto más largo sea la duración media de la infección, cuanto más débil es
el ciclo de recuperación negativa y más probabilidades hay de que se produzca una
epidemia.

______
3
Si bien la suposición de que las extracciones son de primer orden es razonable en el modelo SIR simple, el curso de
muchas enfermedades es más complejo y el retraso entre la infección y la eliminación a menudo no es exponencial (si
un grupo estuviera infectado a la vez, la tasa de eliminación sería ser pequeño inicialmente, luego construir un pico
antes de disminuir). El Capítulo 11 analiza cómo se pueden modelar en profundidad diferentes tipos de retrasos y
muestra cómo los modeladores pueden seleccionar formulaciones robustas para retrasos que coincidan con los datos de
diferentes distribuciones.

Para cualquier población dada de susceptibles, existe una combinación crítica de


frecuencia de contacto, infectividad y duración de la enfermedad lo suficientemente
grande como para que el bucle positivo domine los bucles negativos. Ese umbral se
conoce como el punto de inflexión. Por debajo del punto de inflexión, el sistema es
estable: si la enfermedad se introduce en la comunidad, puede haber algunos casos
nuevos, pero en promedio, la gente se recuperará más enconada de lo que se generen
nuevos casos. La retroalimentación negativa domina y la población es resistente a una
epidemia. Pasado el punto de inflexión, domina el bucle positivo. El sistema es inestable
y una vez que llega una enfermedad, se puede propagar como un incendio forestal, es
decir, por retroalimentación positiva, limitada solo por el agotamiento de la población
susceptible.
La figura 9-6 muestra una simulación del modelo en el que el sistema ha superado con
creces el punto de inflexión. La población de la comunidad es de 10,000 e inicialmente
todos son susceptibles a la enfermedad. En el momento cero, un solo individuo
infeccioso llega a la comunidad. La duración media de la infección es de 2 días y la
infectividad es del 25%. La frecuencia de contacto promedio es de seis personas por
persona por día. Por tanto, cada infectivo genera 1,5 nuevos casos por día y una media de
tres nuevos casos antes de que se recuperen. Por tanto, el bucle positivo domina y la
epidemia se propaga rápidamente. La tasa de infección alcanza su punto máximo a más
de 2000 personas por día alrededor del día nueve, y en su punto máximo más de una
cuarta parte de la población es infecciosa. La población susceptible cae rápidamente y es
este agotamiento de nuevos casos potenciales lo que detiene la epidemia. Para el décimo
día, el número de susceptibles restantes es tan bajo que el número de casos nuevos
disminuye. La población infecciosa alcanza su punto máximo y cae a medida que las
personas se recuperan más rápido de lo que surgen nuevos casos. La población
susceptible sigue cayendo, aunque a un ritmo cada vez más lento, hasta que finaliza la
epidemia. En menos de 3 semanas, un solo individuo infeccioso provocó una epidemia
masiva que involucró a casi toda la comunidad. Tenga en cuenta que algunas personas
afortunadas nunca contraen la enfermedad. A diferencia del modelo de infección crónica
en el que todos eventualmente contraen la enfermedad, en el modelo SIR la epidemia
termina antes de que la población susceptible caiga a cero. Sin embargo, cuanto más
fuerte es el ciclo positivo, menos susceptibles quedan al final de la epidemia. También
tenga en cuenta que, a diferencia del modelo logístico, el comportamiento no es
simétrico: la población infecciosa aumenta más rápido de lo que disminuye.
4
Los modelos SI y SIR se formularon originalmente como sistemas deterministas que representan la tasa de contacto promedio
y se abstraen de los encuentros individuales entre miembros de la población. Tenga en cuenta que la formulación determinista
es un supuesto de modelado, apropiado en algunas situaciones y no apropiado en otras (particularmente, cuando las
poblaciones son pequeñas o la varianza en la distribución de tasas de contacto, infectividad y tiempo de recuperación es
grande). Los modelos se generalizan fácilmente para incorporar encuentros estocásticos, infectividad y recuperación, ya sea
agregando variación aleatoria a las ecuaciones de tasas del modelo SIR o representando a los miembros de la población como
individuos discretos y especificando reglas de decisión para su interacción (un modelo basado en agentes). La incorporación
de estos efectos aleatorios significa que habrá una distribución de posibles resultados para cualquier conjunto de parámetros.
La marcada frontera entre una epidemia y la estabilidad definida por el punto de inflexión en los modelos deterministas se
convierte en una distribución de probabilidad que caracteriza la probabilidad de que ocurra una epidemia para cualquier tasa
promedio de interacción, infectividad y recuperación. Asimismo, los modelos SI y SIR asumen una población homogénea y
bien mezclada, mientras que en realidad a menudo es importante representar subpoblaciones y la difusión espacial de una
epidemia. Para modelos espaciales de la propagación de enfermedades y otros refinamientos, ver Murray (1993).

Para ilustrar el punto de inflexión, la Figura 9-7 muestra la población susceptible en


varias simulaciones del modelo con diferentes tasas de contacto. Los otros parámetros
son idénticos a los de la Figura 9-6. En el punto de inflexión (dos contactos por persona
por día), el número de casos nuevos que genera cada infeccioso mientras que el
infeccioso es simplemente igual a uno (2 contactos por persona por día * 0,25 de
probabilidad de infección * 2 días de infectividad). Los contactos a una tasa inferior a
dos por persona por día no causan una
FIGURA 9-6
Simulación de una
epidemia en el
modelo SIR La
población total es
de 10,000. La tasa
de contacto es de 6
por persona por día,
la infectividad es de
0,25 y la duración
promedio de la
infectividad es de 2
días. La población
infecciosa inicial es
1 y todas las demás
son inicialmente
susceptibles.0

FIGURA 9-7
Dinámica epidémica
para diferentes tasas de
contacto La tasa de contacto se anota en cada curva; todos los demás parámetros son
como en la Figura 9-6.

epidemia. Cuando la tasa de contacto se eleva por encima del umbral crítico de dos, el
sistema se vuelve inestable y se produce una epidemia. Cuanto mayor es la tasa de
contacto, más fuerte es el ciclo de contagio positivo en relación con el ciclo de
recuperación negativo y más rápido avanza la epidemia. Además, cuanto más fuerte es el
ciclo positivo, mayor es la población que finalmente contrae la enfermedad. Cualquier
cambio que aumente la fuerza de los bucles positivos producirá resultados similares. Un
aumento de la infectividad refuerza el bucle positivo y tiene un impacto idéntico al
aumento de la frecuencia de contacto. Un aumento en la duración del período infeccioso
debilita el ciclo de recuperación y también empuja al sistema más allá del punto de
inflexión.

DESAFÍO: EXPLORAR EL MODELO SIR


Simule el modelo sir bajo varias combinaciones de parámetros. ¿Qué determina si se
producirá una epidemia? ¿Qué determina la fracción de la población que permanece sin
infectar en equilibrio? ¿Por qué?

El punto de inflexión exacto en el modelo SIR se puede calcular fácilmente. Para que
ocurra una epidemia, la tasa de infección debe exceder la tasa de recuperación:

o de manera equivalente,

En la ecuación (9-26), el producto de la tasa de contacto y la infectividad es el número de


contactos infecciosos por período de tiempo que genera cada persona infecciosa. Al
multiplicar por la duración media de la infección, d, se obtiene la relación adimensional
cid, conocida como número de contacto. Sin embargo, no todos estos contactos serán con
susceptibles, por lo que no todos darán como resultado un nuevo caso. El número de
contactos infecciosos que realmente resultan en la infección de una persona susceptible
depende de la probabilidad de que los infecciosos encuentren susceptibles. Suponiendo
que la población es homogénea, la probabilidad de encontrar un susceptible está dada por
la prevalencia de susceptibles en la población, S / N. La expresión cid (S / N) también se
conoce como tasa de reproducción de la epidemia. Por lo tanto, la ecuación (9-26) define
el punto de inflexión o umbral en el que se produce una epidemia en una población y se
conoce como el teorema del umbral en epidemiología. Tenga en cuenta que el número de
contacto puede ser grande si la infectividad es alta o si la duración de la infección es
prolongada. La duración del período infeccioso para enfermedades como el sarampión y
la varicela es muy corta, cuestión de días, pero estas enfermedades tienen un alto número
de contactos porque se transmiten fácilmente a través del contacto casual. Por el
contrario, la tasa de contacto y la infectividad del VIH son mucho más bajas (el VIH no
se puede transmitir a través del contacto casual, sino solo a través del contacto sexual o el
intercambio de sangre o productos sanguíneos). Sin embargo, el número de contacto para
el VIH es alto entre quienes se involucran en conductas de riesgo porque la duración de la
infección es muy larga. El período de incubación antes del desarrollo de los síntomas
clínicos del SIDA es de unos 10 años (ver sección 9.2.7).
La figura 9-8 muestra cómo el punto de inflexión depende de los parámetros. La curva es
el límite entre regímenes estables e inestables. A la izquierda de la curva, el sistema es
estable y no hay epidemia porque la infectividad, la tasa de contacto, la duración de la
infección y la fracción de susceptibles en la población son demasiado bajas. A la derecha
de la curva, el sistema es inestable y hay una epidemia.
9.2.4. Inmunización y Erradicación de la Viruela
La existencia del punto de inflexión (ecuación (9-26)) significa que, en teoría, es posible
erradicar completamente una enfermedad. La erradicación no requiere una vacuna
perfecta y una inmunización universal, sino sólo la condición más débil de que la tasa de
reproducción de la enfermedad caiga y permanezca por debajo de uno para que surjan
nuevos casos a una tasa menor que los casos antiguos se resuelven. La población de
personas infecciosas disminuirá entonces, reduciendo aún más la tasa de infección, hasta
que la población esté libre de enfermedades. Para muchas enfermedades, es difícil o
imposible lograr o mantener esta condición debido a la alta infectividad, la existencia de
reservorios de la enfermedad fuera de la población humana (como en la malaria o la
enfermedad de Lyme, ambas con huéspedes animales), o la rápida afluencia de personas
susceptibles a través de los nacimientos, la migración o el deterioro de la inmunidad. La
viruela, sin embargo, es diferente. La viruela fue una vez una de las enfermedades más
mortales y endémicas en todo el mundo. La infectividad de la viruela es alta, pero la
duración de la infección es corta. Los supervivientes adquirieron inmunidad de larga
duración. Lo que es más importante, el virus de la viruela no puede sobrevivir fuera de
un huésped humano; no hay animales ni otros reservorios que alberguen el virus. Estas
condiciones significaron que el desarrollo de una vacuna eficaz, desplegada de manera
suficientemente amplia, podría reducir la tasa de infección por debajo de la tasa de
recuperación y eliminar el virus, incluso si no todas las personas pudieran ser
inmunizadas. La historia de la erradicación de la viruela es bien conocida: Edward
Jenner desarrolló la primera vacuna eficaz en 1796. A pesar del éxito de la vacuna de
Jenner, se necesitaron muchos años para que se aceptara la vacunación; La viruela seguía
siendo una de las principales causas de muerte a principios del siglo XX. En la década de
1950, debido a las mejoras en los programas de salud pública y en la eficacia y vida útil
de la vacuna, la viruela

FIGURA 9-8
Dependencia del punto de inflexión del número de contacto y la población susceptible
había sido erradicado en la mayor parte
del mundo industrializado. A mediados
de la década de 1960, la Organización
Mundial de la Salud (OMS) coordinó una
vigorosa campaña mundial para rastrear la enfermedad, inmunizar a los susceptibles y
poner en cuarentena a los enfermos. El último caso conocido de origen natural se
informó en 1977 en Somalia. En 1978, un virus de la viruela se escapó de un laboratorio
de investigación en Inglaterra y provocó dos casos, uno mortal. Desde entonces no se
han reportado más casos y, en uno de los mayores triunfos en la historia de la medicina,
las naciones del mundo declararon en 1980 que la viruela había sido erradicada de la
tierra, Casi. Durante la Guerra Fría, tanto Estados Unidos como la Unión Soviética
mantuvieron reservas del virus de la viruela como parte de sus programas de guerra
biológica. Aunque ambas naciones firmaron la Convención de Armas Biológicas de
1972 que prohíbe las armas biológicas y la investigación de la guerra biológica,
continuaron manteniendo sus reservas de viruela y la Unión Soviética continuó la
investigación de la guerra biológica en violación de la Convención. Si bien estas
existencias de viruela se mantienen en los laboratorios de biocontención de mayor
seguridad, existe una preocupación natural de que el virus pueda escapar,
accidentalmente, a través del terrorismo o en la guerra. Un panel de la OMS, después de
un largo y a veces enconado debate, recomendó en 1994 que todas las existencias
estadounidenses y rusas del virus fueran destruidas para junio de 1999. Sin embargo,
muchos analistas creen que los terroristas o naciones como Irak y Corea del Norte pueden
haber contraído la viruela de la ex Unión Soviética. Debido a que las personas ya no
reciben vacunas contra la viruela, y debido a que la inmunidad conferida por la
vacunación infantil decae, gran parte de la población mundial de hoy es susceptible. La
liberación de viruela de estas poblaciones podría desencadenar una pandemia masiva. En
respuesta, el presidente Clinton ordenó que se conservaran las existencias de viruela de
Estados Unidos para la investigación, y la OMS suspendió su intento de declarar la
destrucción de las existencias de viruela.

DESAFÍO
La Eficacia de los programas de inmunización La ecuación (9-26) y la Figura 9-8
muestran cómo la vulnerabilidad de una población a una epidemia depende de los
parámetros del modelo SIR. Muchas enfermedades infecciosas son muy contagiosas y no
es posible reducir el número de contacto. La inmunización, cuando hay vacunas
disponibles, puede ser muy eficaz no solo para proteger a los individuos inmunizados
sino también para mover a toda una población por debajo del punto de inflexión. Por
ejemplo, la poliomielitis prácticamente ha desaparecido en países con sólidos programas
de salud pública y la OMS espera erradicarla en todo el mundo en unos pocos años.
1. Efectividad de la inmunización.
Se estima que el número de contacto para la poliomielitis es aproximadamente de 5 a 7
(Fine 1993). ¿Qué fracción de la población debe vacunarse para garantizar que no se
produzca una epidemia? Suponga que la vacuna es 100% efectiva. Considere ahora el
sarampión y la tos ferina (tos ferina), enfermedades cuyos números de contacto se
estiman entre 12 y 18 (Fine 1993). ¿Qué fracción de la población debe vacunarse para
garantizar que no se produzca una epidemia? ¿Qué fracción se debe vacunar si la vacuna
tiene solo un 90% de efectividad? ¿Por qué persisten el sarampión y la tos ferina
mientras la polio se ha eliminado eficazmente? Luego, simule el modelo SIR con los
parámetros de la Figura 9-6 (c 6, i = 0.25, d = 2, N = 10,000), pero suponga que el 50%
de la población tiene ha sido inmunizado (establezca la población recuperada inicial en la
mitad de la población total). ¿Cuál es el efecto sobre el curso de la epidemia? ¿Qué
fracción de la población debe ser inmunizada para prevenir una epidemia?
2. Efectividad de la cuarentena.
Examinar la eficacia de la cuarentena como política para prevenir una epidemia. Para
hacerlo, modifique el modelo SIR para incluir un stock de individuos en cuarentena.
(i) Suponga que las personas se ponen en cuarentena solo después de que presentan
síntomas, por lo que la tasa de cuarentena (la tasa de entrada a la población en
cuarentena) fluye de la población infecciosa a la población en cuarentena. Formule la
tasa de cuarentena de la siguiente manera. Suponga que se necesita un cierto período de
tiempo, denominado Tiempo de cuarentena, para identificar a las personas infecciosas y
trasladarlas a un área de cuarentena. Además, suponga que solo una fracción de la
población infecciosa, denominada Fracción en cuarentena, se identifica como infecciosa
y desea o puede ser puesta en cuarentena. Asegúrese de que su formulación para la tasa
de cuarentena sea dimensionalmente consistente. Suponga que los individuos en
cuarentena se recuperan de la enfermedad con la misma duración promedio de
infectividad que los que no están en cuarentena.
(ii) Las personas en cuarentena no están completamente alejadas del contacto con el resto de
la población (durante una epidemia de viruela en el Boston del siglo XVIII, por ejemplo,
los enfermos fueron puestos en cuarentena pero aún se les permitió asistir a la iglesia los
domingos). Modifique la ecuación de la tasa de infección para incluir la posibilidad de
que las personas en cuarentena entren en contacto con personas susceptibles a una cierta
tasa, que se denomina Tasa de contacto en cuarentena. Suponga que la infectividad de
los individuos en cuarentena es la misma que la de otros infecciosos. ¿Cómo altera la
adición de una población de individuos en cuarentena la estructura de retroalimentación
del modelo SIR?
9.2.5 Inmunidad colectiva
En el mundo real, una población es desafiada repetidamente por la exposición a
diferentes enfermedades. Los individuos infecciosos, portadores involuntarios de la
enfermedad, pueden llegar de otras comunidades. La propagación de la peste negra en
Europa del siglo 14 se aceleró por las extensas redes comerciales con otras regiones, la
alta tasa de viajes de peregrinos, y por la huida de los aterrorizados y sin saberlo
infectados a las ciudades aún no expuestas. Las personas susceptibles también pueden
entrar en contacto con otros reservorios de la enfermedad, como agua potable
contaminada (como en el cólera) o animales (la peste bubónica no solo se transmite de
persona a persona, sino por pulgas que transmiten el bacilo de la peste de ratas infectadas
a personas). Algunos patógenos mutan y cruzan la llamada barrera de las especies,
saltando de los reservorios animales a las poblaciones humanas (como ocurre en la gripe
y probablemente ocurrió con el VIH, brotes del virus del Ébola y, aparentemente, con la
enfermedad de las vacas locas por encefalopatía espongiforme bovina (EEB)). Si la tasa
de contacto, la infectividad y la duración de la infección son lo suficientemente pequeñas,
el sistema está por debajo del punto de inflexión y estable. Tal situación se conoce como
inmunidad de oído (Fine 1993) porque la llegada de un individuo infectado no produce
una epidemia (aunque algunos individuos desafortunados pueden entrar en contacto con
cualquier llegada infecciosa y contraer la enfermedad, el grupo como comunidad está
protegido). Sin embargo, los cambios en la tasa de contacto, la infectividad o la duración
de la enfermedad pueden empujar a un sistema más allá del punto de inflexión.
La Figura 9-9 muestra cómo los cambios en la tasa de reproducción pueden cambiar
drásticamente la respuesta de una población a la exposición. En la simulación, la
población es desafiada cada 50 días por la llegada de un solo individuo infectado. La
población, la infectividad y la duración de la infección son idénticas a las de la Figura 9-6
(10.000,0,25 y 2 días, respectivamente). Sin embargo, se supone que la tasa de contacto
aumenta linealmente con el tiempo, comenzando en cero. La tasa de contacto puede
aumentar a medida que crece la densidad de población o a medida que los cambios en la
estructura social o las prácticas culturales ponen a las personas en contacto más frecuente.
La rápida urbanización de la revolución industrial, por ejemplo, aumentó la tasa de
contacto y la incidencia de epidemias para muchas enfermedades.
Durante los primeros 500 días, la tasa de reproducción (el número de nuevos casos
generados por cada infeccioso antes de la recuperación) es menor, dominan los bucles
negativos y el sistema está por debajo del punto de inflexión. No hay epidemia: cada 50
días llega un individuo infeccioso, pero cualquier persona infectada por esta persona se
recupera antes de que pueda reemplazarse en el grupo de infecciosos. La población goza
de inmunidad colectiva. En el día 500 se cruza el punto de inflexión. Ahora el bucle de
cognación domina, y la siguiente persona infecciosa en llegar desencadena una epidemia.
La epidemia termina después de que la población susceptible cae lo suficiente como para
que los bucles de agotamiento y recuperación domine el ciclo de contagio. Para el día 600
la disminución en
La población susceptible reduce la tasa de reproducción por debajo de uno y los bucles
negativos dominan una vez más el bucle de contagio positivo. Aunque las personas
infectadas continúan llegando a intervalos de 50 días, el sistema se ha vuelto estable
nuevamente. Sin embargo, la tasa de contacto sigue aumentando, aumentando la fuerza
del bucle de contagio. En el día 800, el bucle de contagio es cada vez más dominante. La
llegada de la siguiente persona infecciosa desencadena otra epidemia. Dado que hay aún
menos susceptibles esta vez, es un poco más leve. Para el día 1000, el agotamiento de la
reserva susceptible ha superado una vez más el circuito de contagio y la tasa de
reproducción cae por debajo de uno. La comunidad es una vez más resistente a la
epidemia, hasta que la tasa de contacto aumenta lo suficiente como para empujar la tasa
de reproducción por encima de una nuevamente, desencadenando la tercera ola de
infección.
En este sencillo ejemplo, las epidemias periódicas surgen del supuesto aumento constante
de la tasa de contacto. De hecho, se observan sucesivas oleadas de epidemias para
muchas enfermedades infecciosas, quizás la más notablemente el sarampión. Antes de la
introducción de la inmunización masiva en la década de 1960, las naciones
industrializadas como los Estados Unidos y el Reino Unido experimentaron epidemias de
sarampión de gran amplitud aproximadamente cada 2 años. Debido a los programas de
inmunización, la amplitud de los ciclos se reduce mucho hoy en día, pero la tendencia
hacia las olas cíclicas de sarampión persiste. En contraste con el ejemplo anterior, la tasa
de contacto para el sarampión permanece razonablemente constante. El carácter cíclico
de las epidemias surge de la interacción de la inmunidad colectiva con el crecimiento de
la población. Cada epidemia aumenta la fracción inmune de la población lo suficiente
como para conferir inmunidad de rebaño, previniendo otra epidemia al año siguiente. Sin
embargo, durante este tiempo la población de susceptibles aumenta a medida que nacen
los niños. Eventualmente, la fracción susceptible de la población aumenta lo suficiente
como para empujar al sistema más allá del punto de inflexión nuevamente, y comienza la
próxima epidemia. El modelo SIR puede ampliarse fácilmente para incluir la estructura
de edad de la población, incluidos los nacimientos y las defunciones (véase el capítulo
12). Con parámetros realistas, estos modelos generan una oscilación persistente en la
incidencia de la enfermedad a medida que el sistema circula repetidamente por encima y
por debajo del punto de inflexión.
La tasa de reproducción de una enfermedad infecciosa no es únicamente una cuestión de
virulencia y otros atributos biológicos del patógeno. Está fuertemente influenciado por las
estructuras sociales y la infraestructura física de una comunidad. La tasa de contrato
obviamente representa la naturaleza de la estructura social en la comunidad: la tasa de
contacto en las comunidades rurales con bajas densidades de población es menor que la
de las poblaciones altamente urbanizadas. La infectividad de una enfermedad está
determinada sólo parcialmente por factores biológicos. El contacto casual y la inhalación
pueden propagar la influenza, mientras que el VIH solo se puede contraer a través del
intercambio de sangre u otros fluidos corporales (un factor biológico). Pero la
infectividad también se ve fuertemente afectada por las prácticas sociales y las políticas
de salud pública, como la disponibilidad de agua limpia, la prevalencia del lavado de
manos o la frecuencia del uso del condón.
9.2.6 Más Allá del Punto de Inflexión: Enfermedad de las Vacas Locas
La epidemia de EEB o enfermedad de las vacas locas en Gran Bretaña durante la década
de 1990 ilustra cómo los cambios en las estructuras técnicas y sociales pueden empujar a
una población más allá del punto de inflexión. Antes de la epidemia, la incidencia de la
EEB y las enfermedades neurológicas degenerativas relacionadas, como la tembladera
(en ovejas) y la enfermedad de Cruetzfeldt-Jacob (ECJ, en humanos) era extremadamente
baja. Pero entre 19885 y 1997, se confirmaron aproximadamente 170.000 casos de EEB
en el Reino Unido, y se estimó que casi un molino de ganado vacuno de una población
total de ganado de unos 11 millones estaba infectado (Prusiner 1997). La EEB, la
tembladera y la ECJ destruyen progresivamente y, en la actualidad, de forma irreversible
el tejido cerebral; Los síntomas incluyen temblor incontrolable, desorientación, pérdida
de la función motora y cognitiva, y finalmente la muerte.
La causa de la EEB sigue siendo objeto de debate. La mayoría de los científicos creen
que la EEB es causada por priones, proteínas anormales que se supone que se replican a
pesar de que no contienen ADN o ARN. El biológico Stanley Prusiner recibió el Premio
Nobel de 1997 por su trabajo pionero (y aún controvertido) sobre priones (véase Prusiner
1997 para más detalles sobre priones y EEB). Otros creen que la EEB, la tembladera y la
ECJ son causadas por un tipo de virus aún no detectado y posiblemente nuevo.
Dado que no se considera que la EEB sea directamente transmisible de un animal a otro,
la retroalimentación positiva sobre el contagio no existía en las prácticas tradicionales de
cría de animales. ¿Cómo surgió entonces la epidemia? Para reducir los costos en las
últimas décadas, los productores de ganado comenzaron a complementar las dietas de su
heard con harina de carne y huesos (MBM) preparada a partir de los despojos del ganado
sacrificado, incluidas ovejas, vacas, cerdos y pollos. Para reducir aún más los costos, se
introdujo un nuevo proceso para la preparación de MBM a fines de la década de 1970. El
nuevo proceso implicó temperaturas más bajas para convertir los despojos en gránulos de
alimento y dejó más grasa en el producto. Se cree que este cambio permitió que la EEB
entrara en la población bovina del Reino Unido a través de MBM hecho de ovejas
infectadas con tembladera. En su búsqueda de menores costos, la industria ganadera
convirtió sus rebaños de herbívoros a caníbales involuntarios y creó una vía para que el
ganado infectado "entrara en contacto" con susceptibles, cerrando así el ciclo de contagio.
La práctica de alimentar con MBM al ganado aumentó drásticamente la tasa de
reproducción de la EEB en la población bovina y la empujó muy por encima del punto de
inflexión. Además, mientras que la mayoría de las enfermedades se comunican solo por
contacto cercano entre individuos infectados y susceptibles, de modo que las epidemias
tienden a localizarse geográficamente, MBM se distribuyó por todo el Reino Unido, lo
que permitió que un solo animal infectado transmitiera la EEB a otros a cientos de
kilómetros de distancia.
La epidemia (Figura 9-10) se propagó rápidamente, mucho más rápido que el
conocimiento médico de la misma o las reacciones de las autoridades de salud pública. A
mediados de la década de 1980, los funcionarios de salud pública británicos sabían que
había una nueva enfermedad que afectaba a la industria ganadera. La EEB fue
identificada por primera vez como la culpable no fue hasta 1986. Hubo un nuevo retraso
de varios años antes de que el Reino Unido prohibiera el uso de MBM como suplemento
alimenticio. Debido a el largo retraso en la incubación, sin embargo, se confirmó que los
casos continuaron aumentando hasta 1992, disminuyendo solo a medida que se
destruyeron los animales en rebaños infectados. Para entonces, sin embargo, la carne de
vacuno británica estaba prohibida por la Unión Europea y rechazada en todo el mundo.
Peor aún, muchos científicos temen que la EEB se haya transmitido de la carne de res o
leche contaminada a la población humana. En 1998, se habían identificado 23 casos
confirmados y hasta una docena de posibles casos de una nueva variante de la ECJ, todos
en el Reino Unido o Francia. La nueva variante, a diferencia de la ECJ tradicional, afecta
principalmente a los jóvenes. Debido a que la ECJ tiene un tiempo de incubación muy
largo (años a décadas), aún no se sabe si estos casos de nvCJD representan un grupo
aislado o los primeros casos de una epidemia humana causada por el consumo de carne
de vacuno contaminada con EEB. Muchos científicos temen que la EEB haya pasado del
ganado a la población humana y ahora pueda comenzar a propagarse a través del
intercambio de productos sanguíneos. En julio de 1998, el gobierno del Reino Unido
autorizó a su Servicio Nacional de Salud a importar plasma sanguíneo de naciones
aparentemente libres de EEB después de que se descubriera que dos de las víctimas de
nvCDJ eran donantes de sangre, lo que podría amenazar la integridad de los suministros
de sangre del Reino Unido y las vacunas preparadas a partir de productos sanguíneos.

DESAFIO: Ampliación del modelo SIR


El modelo SIR, por útil que sea, invoca una serie de supuestos restrictivos. Al igual que el
modelo SI de infección crónica, el modelo Sir no incorpora nacimientos, muertes o
migraciones; asume que la población es homogénea; no distingue entre la persona
eliminada de las poblaciones infecciosas por recuperación y el desarrollo de inmunidad o
por muerte; y asume que la inmunidad es permanente.
Lo más importante es que el modelo asume que no hay un período de incubación. Las
personas infectadas con una enfermedad tienen una latencia o período de incubación. Las
personas infectadas con una enfermedad en el modelo SIR se vuelven infecciosas de
inmediato. En realidad, la mayoría de las enfermedades tienen una latencia, o período de
incubación, y las personas se vuelven infecciosas antes de exhibir cualquier síntoma de
enfermedad. Las personas expuestas a la varicela se vuelven altamente infecciosas varios
días antes de la aparición de los síntomas, unos 14 a 21 días después de la exposición
inicial. Muchas personas infectadas con hepatitis A comienzan a presentar síntomas
aproximadamente un mes después de la infección, pero se vuelven altamente infecciosas
aproximadamente 2 semanas antes. El período de incubación promedio para el VIH (el
tiempo entre la infección con el VIH y el desarrollo del SIDA) para los adultos que no
reciben tratamiento es de aproximadamente 10 años. El período de latencia entre la
infección y la aparición de los síntomas de la hepatitis C es aún más largo, con un
promedio de quizás 15 años. Se espera que unos cuatro millones de personas estén
infectadas con hepatitis C en los Estados Unidos, y aunque el 15% se recupera
espontáneamente, en muchos otros casos la enfermedad finalmente produce daño
hepático irreversible y, a menudo, fatal. La hepatitis C se transmite por intercambio de
productos sanguíneos, pero rara vez a través del contacto sexual.
Modificar el modelo SIR desagregando el stock de individuos infecciosos en dos
categorías: Infecciosos Asintomáticos e Infecciosos Sintomáticos. La tasa de infección
mueve a las personas de la categoría susceptible a la población infecciosa asintomática,
es decir, las personas que están infectadas con la enfermedad pero que aún no presentan
ningún síntoma. Después del período de incubación, las personas comienzan a exhibir
síntomas (generalmente mientras permanecen infecciosas) y pasan a la categoría
infecciosa sintomática. Supongamos que la velocidad a la que las personas se enferman
es un proceso de primer orden con un período de incubación promedio constante.
Las personas susceptibles pueden contraer la enfermedad al entrar en contacto con
infecciosos sintomáticos o asintomáticos. La tasa de contacto y la infectividad de los
individuos asintomáticos y sintomáticos a menudo difieren. Una vez que las personas se
enferman (se vuelven sintomáticas) a menudo reducen su tasa de contacto con el mundo
exterior, ya sea para evitar infectar a otros o simplemente porque están demasiado
enfermos para seguir su rutina normal. Los individuos asintomáticos, por el contrario,
generalmente no saben que están infectados, no presentan ningún síntoma y continúan en
contacto con otros a su ritmo normal. Del mismo modo, la infectividad de una
enfermedad antes de la aparición de los síntomas es a menudo diferente de la infectividad
después de que aparecen los síntomas. En el sarampión, por ejemplo, las personas son
más infecciosas desde 5 días antes hasta 5 días después de la aparición de la erupción
característica. Modificar la formulación de la tasa de infección para capturar la diferente
tasa de contacto e infectividades de las poblaciones infecciosas sintomáticas y
asintomáticas.
Ejecute el modelo para una enfermedad hipotética con un período de incubación similar a
la varicela. Debido a que el período de incubación de la varicela es de 14 a 21 días,
supongamos un promedio de 18 días. Supongamos que la duración promedio de la
enfermedad es de 4 días. Establezca la tasa de contacto para infecciosos asintomáticos a
cuatro por persona por día. Supongamos una población inicial de 10.000, todos los cuales
son inicialmente susceptibles excepto una persona infecciosa asintomática.
Ejecute el modelo y describa los resultados. ¿Cómo afecta la inclusión de un período de
incubación a la dinámica? Para cuando el 1% de la población presenta síntomas, ¿qué
fracción de la población susceptible permanece sin infectar? ¿Cuántos susceptibles
quedan para cuando el 10% de la población se ha enfermado? ¿Cuál es el impacto de un
período de incubación en la efectividad de la cuarentena? Puede simular una política de
cuarentena perfecta estableciendo la tasa de contacto para la población sintomática en
cero o incluir la estructura de cuarentena desarrollada anteriormente. Explorar la
respuesta de la epidemia a diferentes tiempos de incubación e infectividades. ¿Cuál es el
efecto de un largo período de incubación en el curso de una epidemia y la capacidad de
una población para disfrutar de inmunidad colectiva?
Análisis de políticas: Inmunización justo a tiempo
Evaluar la efectividad de una política de "vacunación justo a tiempo (JIT)", es decir,
vacunar a las personas solo después de que aparezca evidencia de una epidemia. Muchas
personas solo se vacunan contra la gripe cuando creen que la gripe en su área es
particularmente grave ese año. Del mismo modo, algunas vacunas son tan caras en
relación con la incidencia de la infección que no se administran de forma rutinaria.
Cuando se atacan enfermedades previamente desconocidas, las vacunas no se pueden
hacer hasta después de que la enfermedad emerge y se identifica. La aparición de nuevos
virus informáticos conduce a esfuerzos frenéticos por parte de los programadores para
encontrar contramedidas, pero las "vacunas" resultantes no están disponibles hasta
después de que se identifique el virus, La prohibición del gobierno británico sobre el uso
de MBM como suplemento alimenticio para el ganado es aproximadamente equivalente a
una política de inmunización JIT. La prohibición redujo el número de contactos
infecciosos al eliminar el vector EEB de la dieta del ganado en riesgo solo después de que
la evidencia científica de que MBM era la fuente de la epidemia se volviera lo
suficientemente convincente, y la protesta pública lo suficientemente grande, para superar
la resistencia política de la industria ganadera.
Para modelar una política de vacunación JIT, cree una tasa de inmunización que
transfiera a las personas de la población susceptible a una nueva población, la población
inmunizada. (Mantener a la población inmunizada separada de la población recuperada
hace que sea fácil determinar cuántas personas finalmente contraen la enfermedad).
Formular la tasa de inmunización para que el programa de vacunación se implemente
solo después de que se haya diagnosticado un cierto número de casos:

La tasa de inmunización (la tasa real a la que las personas desarrollan inmunidad contra la
vacuna) difiere de la tasa de vacunación por la efectividad de la vacuna. Una vez que se
implementa el programa, se necesita una cierta cantidad de tiempo, el Tiempo para
implementar la vacuna, para llevar a cabo el programa. El programa de vacunación solo
puede llegar a una fracción de la población también. Tenga en cuenta que debido a que
los susceptibles no pueden distinguirse de los infecciosos asintomáticos o las poblaciones
recuperadas, toda la población tendría que ser inmunizada (con la posible excepción de
los infecciosos sintomáticos para quienes la vacunación no sería efectiva). En
consecuencia, los costos del programa dependen del número total de vacunados. Sin
embargo, aquellos que ya se han recuperado de la enfermedad permanecen inmunes, por
lo que permanecen en el grupo de individuos recuperados. La formulación también asume
que la vacuna es efectiva para aquellos que ya han sido infectados, por lo que no hay
flujo de la población infecciosa asintomática a la población inmunizada.
Para probar la efectividad de un programa de inmunización JIT, haga las suposiciones
sólidas de que una vacuna con una efectividad del 100% está disponible y que la fracción
de la población vacunada es del 100%. Además, supongamos que toda la población puede
ser vacunada en solo 2 días, una vez que se haya alcanzado el umbral y se haya tomado la
decisión de implementar la vacuna. Estas condiciones son poco probables de lograr en
realidad, la compra proporciona una prueba sólida del potencial de las estrategias de
vacunación JIT para abordar la enfermedad infecciosa aguda.
Explore la efectividad de la política de vacunación JIT ejecutando el modelo para varios
umbrales, comenzando con un umbral del 5% de la población total. ¿Qué fracción de la
población total finalmente contrae la enfermedad? ¿Cómo se compara eso con el caso sin
vacunación JIT? ¿Qué pasaría si el umbral fuera solo el 1% de la población total (100
casos)? ¿Cuál es la efectividad de la vacunación JIT cuando la vacuna es solo 95%
efectiva, solo el 80% de la población está inmunizada, y si es probable que el retraso en el
despliegue de la vacunación sea efectivo y aquellas situaciones en las que será ineficaz?
Asegúrese de considerar los determinantes sociales y biológicos del cumplimiento de un
programa de vacunación de choque.

9.2.7 Modelización de la Epidemia del VIH/SIDA


Hasta ahora, las enfermedades hipotéticas examinadas han sido infecciones agudas
altamente infecciosas (similares a la varicela o el sarampión) que generan epidemias
rápidas y de corta duración. En el transcurso de una epidemia de este tipo, es razonable
suponer que la tasa de contacto y otros parámetros son constantes: la epidemia se
desarrolla demasiado rápido para que se materializaran cambios significativos en el
comportamiento de las personas o para que la investigación sobre prevención o
tratamiento llegue a buen término. Estos supuestos no son apropiados para enfermedades
como el VIH/SIDA donde el tiempo de incubación es largo. La figura 9-11 muestra la
incidencia y mortalidad del SIDA en los Estados Unidos desde 1984 hasta 1996; La
Figura 9-12 muestra la prevalencia del SIDA entre los adultos en los Estados Unidos.
Los datos muestran cambios importantes en la dinámica de la epidemia en los Estados
Unidos. La incidencia del SIDA clínico (indicado por la curva SIDA-OI en la Figura 9-
11) creció constantemente hasta aproximadamente 1995 y ha disminuido
significativamente desde entonces. La mortalidad sigue de cerca la incidencia y exhibe
una disminución aún mayor. La disminución de la inmortalidad supera a la de la
incidencia debido al desarrollo de terapias que incluyen AZT y, lo más importante, los
llamados cócteles multi-fármacos o HAART (terapia antirretroviral altamente activa). La
incidencia general ha disminuido debido a una reducción en los nuevos casos
transmitidos por contacto homosexual masculino y el intercambio de agujas por parte de
los usuarios de drogas intravenosas (la incidencia entre las mujeres y debido al contacto
heterosexual seguía aumentando mientras escribía esto). Nótese que incluso antes de la
introducción de HAART, sin embargo, el crecimiento de la epidemia no era puramente
exponencial, como se esperaría si la tasa de contacto o infectividad fuera constante. En
cambio, la tasa de crecimiento fraccional de la incidencia del SIDA disminuyó a medida
que la epidemia se extendía.
A pesar de los grandes avances en los tratamientos, la mejora de las perspectivas para la
epidemia del VIH en las naciones ricas es solo una parte de la historia. Todavía no existe
una vacuna efectiva, y la efectividad a largo plazo y los efectos secundarios de HAART
siguen siendo desconocidos. Más importante aún, HAART es extremadamente costoso y,
en muchas naciones, simplemente no está disponible. La incidencia de la infección por el
VIH a nivel mundial sigue aumentando y en muchas naciones hace tiempo que pasó el
punto de crisis. La escala de la epidemia es casi imposible de comprender. La OMS
estimó que en 1997 aproximadamente una parte de toda la población de Zimbabue estaba
infectada con el VIH; se estima que la incidencia en gran parte de África y algunos otros
países en desarrollo supera el 10%. Diez millones de personas ya han muerto de SIDA en
el África subsahariana, y sin cambios drásticos en el acceso al tratamiento y los
medicamentos, se prevé que mueran 20 millones de personas más. La mortalidad y la
morbilidad por VIH y SIDA en muchas de estas naciones han abrumado los sistemas de
atención de la salud. La OMS estima que en 1990 había menos de 200 hospitales y 1400
médicos en todo Zimbabue, una nación de más de 11 millones de habitantes. La
esperanza de vida está cayendo. A pesar de la disminución de la mortalidad relacionada
con el SIDA en algunas de las naciones ricas del mundo, la pandemia del VIH/SIDA está
lejos de terminar. La OMS informó de que en 1998 el SIDA era la cuarta causa de muerte
en todo el mundo, frente a la séptima en 1997.

5
A pesar del esfuerzo masivo y el trabajo cuidadoso de los CDC, los datos son altamente inciertos y se
ajustan de varias maneras para superar varias limitaciones en el sistema de vigilancia y notificación de los
Estados Unidos. Las definiciones de SIDA han cambiado a lo largo de los años a medida que ha mejorado
la comprensión de la enfermedad. Los datos sobre la incidencia y la prevalencia del VIH son aún menos
completos y fiables. Se insta a los lectores a consultar los informes completos de vigilancia del VIH/SIDA
y las referencias que figuran en los mismos para obtener más detalles.

Para interpretar los datos y desarrollar un modelo, es útil revisar la naturaleza y el curso
del VIH y el SIDA. La progresión del VIH/SIDA se puede dividir aproximadamente en
las siguientes categorías: Después de la infección inicial con el VIH, el virus se replica
rápidamente, estimulando una respuesta inmune que incluye la producción de anticuerpos
específicos del VIHI. La prueba clínica común para el VIH no detecta la presencia del
virus dentro, sino más bien los anticuerpos que indican la presencia de suficiente virus
para desencadenar la respuesta inmune. Hay un retraso de varias semanas a 6 meses antes
de que el cuerpo produzca suficientes anticuerpos para producir un resultado positivo de
una prueba de VIH. Antes de la seroconversión (el punto en el que una persona infectada
comienza a dar positivo), las personas infectadas pueden transmitir el virus a otros, pero
no darán positivo. Después de la seroconversión, hay un largo período de latencia durante
el cual no hay síntomas clínicos. La duración del período de incubación varía
ampliamente. Se estima que el período de incubación medio es de 10 años en adultos
previamente sanos, aunque es más corto para niños, ancianos y aquellos con problemas
de salud previos (Cooley, Myers y Hamill 1996). Eventualmente, el virus compromete el
sistema inmunológico tan severamente que el paciente comienza a sufrir una amplia
gama de infecciones oportunistas como la neumonía por pheumocystis y el sarcoma de
Kaposi, que conducen al diagnóstico de SIDA.
Antes del desarrollo de HAART, la tasa de mortalidad era extremadamente alta.
Alrededor del 93% de todos los diagnosticados antes de 1986 en los Estados Unidos
habían muerto a finales de 1996. El tiempo medio de supervivencia desde el momento del
diagnóstico, en ausencia de tratamiento con HAART, es de aproximadamente 10 a 12
meses, aunque, al igual que con la incubación, los tiempos de supervivencia varían
ampliamente6. La efectividad a largo plazo de HAART aún se desconoce. Si bien puede
reducir la carga viral por debajo de los niveles detectables en algunos pacientes, HAART
lo hace

6
La literatura clínica y epidemiológica sobre el VIH/SIDA es enorme y evoluciona rápidamente. Una buena
fuente de información y referencias está disponible en el sitio web HIV InSite desarrollado por la
Universidad de California en San Francisco, <http://ivinsite.ucsf.edu>
no eliminar completamente el VIH del cuerpo (Cohen1998). Las personas que descubren
que son VIH + pueden comenzar HAART y otros tratamientos antes de la aparición de
los síntomas y es más probable que alteren su comportamiento. No todos los que están en
riesgo se hacen la prueba, por supuesto, por lo que la primera indicación de que son VIH
+ viene cuando desarrollan síntomas de SIDA.
Desafío: Modelización del VIH/SIDA
A. Stock y estructura actual de la epidemia de VIH/SIDA.
Sobre la base de la descripción anterior, desarrolle un diagrama de stock y flujo que
presente la progresión de los individuos desde susceptibles a través de las diversas etapas
de la infección por VIH y el SIDA. Incluya un stock de muertes acumuladas. En el
modelo SIR se supone que la población es homogénea, una suposición muy pobre para
modelar HIVIAIDS. Muchos modelos epidemiológicos de VIH/SIDA desagregan a la
población en varias categorías que representan los diferentes modos de transmisión
(principalmente contacto heterosexual de contacto homosexual y uso de drogas
intravenosas), así como el género, la edad, el estado socioeconómico, la región y tal vez
otras categorías. Estos grupos se superponen e interactúan, creando una intrincada
estructura de retroalimentación y un modelo muy complejo. A los efectos de este desafío,
no desagregue a la población. Después de desarrollar un único modelo agregado, puede
considerar la desagregación para capturar los diferentes comportamientos de riesgo y sus
interacciones.

7
Hay docenas de modelos epidemiológicos publicados de VIH/SIDA y otras enfermedades de transmisión
sexual. Los buenos puntos de partida incluyen Anderson (1994), Garnett y Anderson (1996). Heidenberger
y Roth (1998), y Roberts y Dangerfield (1990). Todo mayo-junio de 1998 el número de Interfaces (28[3])
se dedicó a modelar el SIDA, incluidas cuestiones de política como la aguja intercambios, desarrollo de
vacunas y detección del VIH

B. Estructura de retroalimentación de la epidemia del VIH/SIDA


Una vez que haya desarrollado el stock y el mapa de flujo, agregue la estructura de
retroalimentación para las tasas siguiendo los supuestos del modelo SIR extendido
anterior, incluida la tasa de infección, la tasa de seroconversión, la tasa de diagnóstico de
SIDA y la tasa de mortalidad.
A lo largo del período de tiempo para el desarrollo de la epidemia de SIDA, los
parámetros del modelo SIR, como la tasa de mortalidad y la tasa de contacto entre los
susceptibles y las diversas categorías de individuos con VIH, no pueden considerarse
constantes. Modifique su diagrama causal para incorporar retroalimentaciones que usted
cree que son importantes. Asegúrese de considerar lo siguiente:
1.- La tasa media de contacto puede disminuir a medida que las personas tomen
conciencia del riesgo del VIH y de las formas en que se puede transmitir; es decir,
algunas personas pueden reducir o abstenerse del uso de drogas intravenosas o de
contacto sexual.
2.- La infectividad de los contactos depende del comportamiento de las personas. Las
prácticas sexuales más seguras y el uso de agujas limpias por parte de los usuarios de
drogas intravenosas pueden reducir la infectividad de los contactos que ocurren. El uso de
prácticas sexuales más seguras y agujas limpias a su vez depende de la conciencia de las
personas sobre el riesgo de infección por el VIH y sus consecuencias y de la
disponibilidad de información y recursos sobre estas prácticas. A su vez, la disponibilidad
de información sobre el sexo seguro y la importancia de la limpieza con agujas, junto con
los condones y las agujas limpias, depende de las actitudes sociales y los programas de
salud pública en los medios de comunicación, las escuelas y otras organizaciones
comunitarias.
3-. La investigación y el desarrollo de tratamientos como haart pueden reducir la tasa de
mortalidad. La disponibilidad de estos tratamientos depende de la medida en que son
reembolsables a través del seguro de salud y de la voluntad de las personas de hacerse la
prueba del VIH, Muchas personas no están dispuestas a hacerse la prueba incluso si saben
que están en riesgo, por temor, frecuentemente fundadas, de que puedan ser
estigmatizadas, incluida la posibilidad de que pierdan sus trabajos, hogares y amigos.
Al representar los cambios en el comportamiento de las personas (por ejemplo, los
cambios en las tasas de contacto y la infectividad), considere cómo las personas pueden
darse cuenta de la existencia, la gravedad y los riesgos del VIH y los diferentes
comportamientos. ¿Leen The New England Journal of Medicine u obtienen su
información a través del boca a boca o el conocimiento personal de alguien que sufre de
SIDA? ¿Cómo juzgan las personas el riesgo de infección y las consecuencias de la
infección? Las personas son mucho más propensas a contraer el resfriado común que el
VIH, pero un resfriado no inspira el temor que el VIH hace. ¿A qué fuentes de
información está expuesta la gente común y qué tan persuasivas son para inducir cambios
en el comportamiento? ¿Cuál es el papel de las actitudes sociales hacia los
comportamientos a través de los cuales se puede transmitir el VIH? ¿Cuál es el papel de
las políticas gubernamentales? Asegúrese de considerar los retrasos de tiempo en los
comentarios que identifique.
Utilice su diagrama causal para explicar la dinámica de la epidemia de SIDA en los
Estados Unidos. En particular, explique, en términos de la estructura de retroalimentación
del sistema, por qué la tasa de crecimiento fraccional de la epidemia cayó en los primeros
años. Explique la disminución de la incidencia a partir de 1995 y la disminución aún más
pronunciada de la mortalidad. Explique por qué el número de personas que viven con el
SIDA sigue aumentando (Figura 9-12).
Los tratamientos como HAART tienen la promesa de convertir la infección por VIH de
una sentencia de muerte a una infección crónica con baja mortalidad. Según su diagrama,
¿qué cambios en el comportamiento podrían surgir como efecto secundario del desarrollo
de HAART? ¿Cómo podrían afectar estos cambios a la tasa de contacto o a la
infectividad? ¿Aumentarían o disminuirían estas retroalimentaciones la incidencia de la
infección por VIH? Explicar. ¿Cuáles son las implicaciones para la salud pública de
tratamientos exitosos como HAART?
C. Simulación de la epidemia del VIH/SIDA.
Desarrolle un modelo formal de la epidemia de VIH/SIDA basado en la estructura que
identifica anteriormente. Para hacerlo, deberá utilizar una serie de funciones conductuales
no lineales (por ejemplo, para capturar la forma en que las percepciones de riesgo alteran
la tasa de contacto o la infectividad). Las directrices para el desarrollo de tales funciones
no lineales se encuentran en el capítulo 14. Trabaje (al menos inicialmente) con una sola
estructura de flujo y stock agregado, y no desagregue su modelo en subpoblaciones.
Simule su modelo bajo al menos dos condiciones: (1) asumiendo que no hay cambio de
comportamiento y ninguna mejora en los tratamientos y (2) incluyendo los comentarios
que identificó en la parte B que podrían conducir a cambios en la tasa de contacto, en la
infectividad y en la mortalidad. Explicar los resultados. Pruebe las recomendaciones de
políticas que identificó en la parte B. Analice las implicaciones de las políticas.

9.3 La Difusión de la Innovación como Infección: Modelando Nuevas Ideas y Nuevos


Productos
La difusión y adopción de nuevas ideas y nuevos productos a menudo sigue patrones de
crecimiento en forma de S. ¿Cuáles son los feedbacks positivos que generan el
crecimiento exponencial inicial de una innovación exitosa, y cuáles son los feedbacks
negativos que imitan su crecimiento? Considere la propagación de la televisión por cable
(Figura 4-9). El crecimiento de la población de suscriptores de televisión por cable no
puede explicarse por el nacimiento de hijos de subscriptores de cable existentes, aunque
la descendencia de los televidentes pesados tiende a crecer para ser adictos a la televisión.
¿Cuáles son entonces los bucles positivos responsables del crecimiento de la industria del
cable?
La propagación de rumores y nuevas ideas, la adopción de nuevas tecnologías y el
crecimiento de nuevos productos pueden verse como epidemias que se propagan por la
alimentación positiva, ya que aquellos que han adoptado la innovación "infectan" a los
que no lo han hecho. El concepto de retroalimentación positiva como motor de adopción
y difusión es muy general y puede aplicarse a muchos dominios del contagio social (por
ejemplo, la estructura de retroalimentación de la epidemia de cocaína descrita en la
sección 7.3). Un rumor se extiende como los que lo han escuchado se lo dicen a los que
no lo han hecho, que luego pasan a contarlo a otros. Las nuevas ideas se propagan a
medida que aquellos que las creen entran en contacto con aquellos que no las creen y las
persuaden a adoptar la nueva creencia. Los nuevos creyentes a su vez persuaden a otros.
A medida que los primeros en adoptar la nueva tecnología y los primeros compradores de
un nuevo producto exponen a sus amigos, familiares y conocidos a él, algunos son
persuadidos a probarlo o comprarlo ellos mismos. En todos estos casos, aquellos que ya
han adoptado el producto, idea o tecnología entran en contacto con aquellos que no lo han
hecho, exponiéndolos a él e infectando a algunos de ellos con la idea, o el deseo de
comprar el nuevo producto y aumentando aún más la población de adoptantes. Cualquier
situación en la que las personas imiten el comportamiento, las creencias o las compras de
los demás, cualquier situación en la que las personas se suban al carro, describe una
situación de retroalimentación positiva por contagio social. Por supuesto, una vez que la
población de posibles adoptantes se ha agotado, la tasa de adopción (infección) cae acero.
En el caso de la televisión por cable, los factores importantes en un escriba doméstico
(suponiendo que el cable esté disponible en la comunidad) incluyen el boca a boca
favorable de aquellos que ya se suscriben y experiencias positivas al ver el cable en las
casas de amigos y familiares. Las personas escuchan sobre programas solo disponibles en
cable y sienten que deben suscribirse para estar a la moda y estar bien informados entre
sus compañeros en la escuela o en el lugar de trabajo. Además, las personas pueden
suscribirse para mantenerse al día con los Jones, es decir, para mantener o mejorar su
estatus (o su percepción de su estatus) entre sus grupos. Todos estos canales de
conciencia y motivaciones para la adopción crean retroalimentaciones positivas análogas
al bucle de contagio en el modelo epidémico básico.

La figura 9-13 adapta el modelo epidémico de la IS (sección 9.2.1) al caso de difusión de


la innovación. La población infecciosa ahora se convierte en la población de adoptantes,
A-aquellos que han adoptado la nueva idea o comprado el nuevo producto. La población
susceptible se convierte en el grupo de adoptantes potenciales, P. Los adoptantes y los
adoptantes potenciales se encuentran entre sí con una frecuencia determinada por la tasa
de contacto, c. A diferencia de las enfermedades infecciosas, los encuentros de boca en
boca que pueden conducir a la adopción pueden ocurrir por teléfono, correo, correo
electrónico u otros medios remotos y no requieren proximidad física. Al igual que en las
enfermedades infecciosas, no todos los encuentros producen infecciones. La proporción
de contactos que son lo suficientemente persuasivos como para inducir al adoptante
potencial a adoptar la innovación se denomina aquí la fracción de adopción y se denota i
(Dado que la fracción de adopción es análoga a la infectividad de una enfermedad en el
modelo epidémico)
Las ecuaciones para el modelo de difusión de innovación simple son idénticas a las del
modelo SI de infección crónica descrito en 9・2・1. Usando la terminología de la Figura
9-13, el modelo es
La interpretación es la misma que en el modelo SI. Las personas de la comunidad
relevante entran en contacto a una tasa de c personas por persona por día. La tasa total a
la que los contactos son generados por el grupo de adoptantes potenciales es entonces cP,
La proporción de adoptantes en la población total, A / N, da la probabilidad de que
cualquiera de estos contactos sea con un adoptante que pueda proporcionar el boca a boca
sobre la innovación. Finalmente, la fracción de adopción, i, es la probabilidad de
adopción dado un contacto con un adoptador. Como antes, estas ecuaciones constituyen
un ejemplo del modelo de crecimiento logístico discutido en la sección 9.1.1. El
comportamiento del modelo es el clásico crecimiento en forma de S de la curva logística
(Figura 9-1)
9.3.1 El modelo logístico de difusión de la innovación:
La difusión de muchos productos nuevos sigue aproximadamente trayectorias logísticas.
Como ejemplo, la Figura 9-14 muestra las ventas de la minicomputadora VAX 11/750 de
Digital Equipment Corporation en Europa (Modis 1992). La serie VAX fue una línea
muy exitosa de minicomputadoras. Se vendían por alrededor de $ 100,000 a S150,000
por unidad, dependiendo de qué periféricos (como unidades de cinta) se incluyeran, un
excelente valor en comparación con los mainframes de la época. Los clientes típicos eran
grandes empresas, organizaciones de investigación y universidades, que los usaban para
aplicaciones de procesamiento de datos y para apoyar la computación científica y de
ingeniería en laboratorios de I + D, departamentos de desarrollo de productos e
investigación académica. El 1l/750 se introdujo en 1981. Las ventas siguen el clásico
ciclo de vida del producto en forma de campana, alcanzando su punto máximo a
mediadosde1984. El producto fue retirado del mercado alrededor de 1989. Las ventas
acumuladas siguen un camino en forma de S. Dado que la vida útil del VAX es larga en
comparación con el horizonte temporal del ciclo de vida del producto, es razonable
suponer que pocas unidades se descartaron antes de 1989, cuando el producto se retiró del
mercado. Por lo tanto, las ventas acumuladas son una buena medida de la base instalada.
Para ajustar el modelo de difusión de productos logísticos a los datos de ventas de VAX,
supongamos la población total N = ventas acumuladas para 1989 (aproximadamente 7600
unidades). El parámetro restante del modelo, que representa el producto de la tasa de
contacto una adopción
fracción (ci), se puede estimar fácilmente mediante regresión lineal. En primer lugar,
recuerde de la ecuación (9-8) que la solución a la ecuación logística se puede expresar
(utilizando los nombres de las variables para el modelo de diferencia de innovación
anterior) como

(9-33)
donde A es el número de adoptantes (la base instalada), A 0 es la base instalada inicial, N
es el equilibrio total o el valor final de los adoptantes, y g 0 es la tasa de crecimiento
fraccional inicial de la base instalada, que en el momento inicial cuando hay muy pocos
adoptantes es igual al número de contactos infecciosos (ci). Tomando el registro natural
de ambos lados,

(9-34)
produce una relación que es lineal en los parámetros y puede estimarse por mínimos
cuadrados ordinarios. Tenga en cuenta que dado que N− A=P (la diferencia entre la
población total y el número de adoptantes es el número de adoptantes potenciales), la
ecuación (9-34) se puede escribir de manera más intuitiva en función de la proporción de
adoptantes a adoptantes potenciales (A / P):
La ecuación 9-34) o (9-35) se conoce como la transformación logística (o simplemente,
logit). La Figura 9-15 muestra la transformación logit de los datos de ventas de VAX,
junto con la regresión lineal estimada. Los datos son casi lineales, lo que indica una
excelente correspondencia con el modelo logístico. Los paneles inferiores de la Figura 9-
15 comparan la curva logística estimada con los datos de ventas y base instalada.
Si bien el modelo de difusión de la innovación logística se ajusta bastante bien a los datos
de ventas de VAX, la estimación del modelo fue retrospectiva: se utilizó todo el historial
de ventas y el método de estimación requirió el conocimiento del valor final de la base
instalada. Sin embargo, en la mayoría de las situaciones comerciales, los clientes quieren
conocer la ruta de crecimiento probable prospectivamente, cuando no se conoce el
potencial del mercado, para que puedan decidir si el mercado será lo suficientemente
grande como para justificar la entrada y planificar la estrategia para la adquisición de
capacidad, los precios, el marketing, etc. Una forma de ajustar el modelo de crecimiento
logístico a los datos previos a la saturación es estimar la tasa a la que la tasa de
crecimiento fraccional disminuye con el crecimiento de la población. Recordemos de la
ecuación (9-1) que la tasa de crecimiento fraccional del modelo logístico disminuye
linealmente a medida que la población crece. La Figura 9-16 muestra la tasa de
crecimiento fraccional en los suscriptores de televisión por cable en los Estados Unidos,
junto con el mejor ajuste lineal (calculado por mínimos cuadrados ordinarios), Como se
esperaba, la tasa de crecimiento fraccional disminuye a medida que crece la población,
aunque hay una variación considerable en torno al mejor ajuste lineal. La senda de
crecimiento logístico que implican estos parámetros se ajusta bien a los datos hasta 1994
y predice un máximo de unos 74 millones de hogares suscritos al cable, alcanzado poco
después de 2010.
Hay, sin embargo, una considerable incertidumbre en esta predicción. En primer lugar,
hay 1s incertidumbre con respecto a la tasa de crecimiento fraccional lineal más
adecuada. La tasa de crecimiento fraccional real varía sustancialmente en torno al mejor
ajuste, otros parámetros para la línea recta se ajustarán casi tan bien, pero producirán
grandes diferencias en el número máximo de suscriptores y el tiempo hasta la saturación.
En segundo lugar, se estimó la mejor opción para el período 1969-1994; antes de 1969 la
tasa de crecimiento fraccional era mucho mayor. Esto es típico de los procesos de
crecimiento: la tasa de crecimiento fraccional al principio de la historia de un nuevo
producto o innovación es a menudo muy alta ya que la población de adoptantes es muy
pequeña (y, por supuesto, cuando se introduce un nuevo producto, la tasa de crecimiento
para el primer período de informe es infinita). Por lo tanto, cambiar el período histórico
durante el cual se estima el modelo logístico cambiará los parámetros de mejor ajuste y el
pronóstico. En tercer lugar, el modelo logístico supone una disminución lineal en la tasa
de crecimiento fraccional a medida que la población crece. Sin embargo, no existe una
base teórica convincente para la linealidad. Otras formas para la curva de tasa de
crecimiento fraccional producirán predicciones muy diferentes. Para ilustrar, la Figura 9-
17 muestra los datos de televisión por cable contra el mejor ajuste de las curvas logística
y de Gompertz (ecuación (9-14). La curva de Gompertz2 se ajusta tanto a los datos como
a la curva logística, pero sugiere un crecimiento continuo a casi 150 millones de
suscriptores en 2020, el doble del nivel final previsto por el modelo logístico.

9.3.2 Punto de proceso: ajuste histórico y validez del modelo


El modelo logístico es ampliamente utilizado para explicar y predecir la difusión de
innovaciones, el crecimiento de las poblaciones y muchos otros fenómenos. Marchetti
(1980) y Modis (1992), entre muchos otros, han ajustado la curva logística a una amplia
gama de datos, desde las composiciones de Mozart hasta la construcción de catedrales
góticas. La curva logística puede ajustarse razonablemente bien a los datos para una
amplia gama de procesos de crecimiento. Pero no debe utilizar el modelo logístico, ni
ningún modelo, como un procedimiento de ajuste de curvas para la previsión de caja
negra (atheoretica l). El modelo logístico a menudo funciona bien porque incluye los dos
procesos de retroalimentación fundamentales para cada crecimiento.
proceso: un bucle positivo que genera el período inicial de crecimiento acelerado y
retroalimentación negativa que hace que el crecimiento se desacelere a medida que se
acerca la capacidad de carga. Cualquier sistema que crezca por retroalimentación positiva
debe incluir estos dos tipos de bucles, acoplados de forma no casi; cualquier modelo de
crecimiento debe caracterizarse por una tasa decrecimiento fraccional que, en última
instancia, disminuya a cero a medida que la población se acerca a su capacidad de carga.
Sin embargo, como se discutió anteriormente, el modelo logístico hace suposiciones
restrictivas sobre la naturaleza del proceso de crecimiento. Los defensores del modelo
logístico a menudo presentan evidencia selectivamente para mostrar qué tan bien se
ajusta el modelo a ciertos datos, pero omiten los muchos otros procesos de crecimiento
para los que no lo hace. Las mismas consideraciones se aplican a todos los demás
modelos de crecimiento de ecuaciones individuales, como la familia Richards o Weibull.
La capacidad del modelo logístico para adaptarse a una amplia gama de procesos de
crecimiento también ilustra varias lecciones importantes sobre la validez de los modelos
en general. En primer lugar, el contraste entre los pronósticos de los modelos logísticos y
de Gompertz para el caso de la televisión por cable que se muestra en la Figura 9-17
muestra que los diferentes modelos de difusión pueden producir predicciones muy
diferentes al tiempo que se ajustan a los datos igualmente bien. La capacidad de ajustar
los datos históricos no proporciona, por lo tanto, una base sólida para seleccionar entre
hipótesis alternativas sobre la naturaleza o la fuerza de las diferentes retroalimentaciones
que podrían ser responsables de la dinámica de un sistema.
En segundo lugar, obtener más datos no resuelve el problema. La estimación de los
parámetros de diferentes modelos de crecimiento, y por lo tanto la trayectoria de
crecimiento, mediante técnicas econométricas requiere un conjunto lo suficientemente
largo de datos de series temporales para proporcionar estimaciones de parámetros
estables y discriminar entre los diferentes modelos de crecimiento. En una revisión de los
modelos de difusión de la innovación para el pronóstico de ventas de nuevos productos,
Mahajan, Muller y Bass (1990) señalan que "para cuando se hayan desarrollado
suficientes observaciones para una estimación confiable, es demasiado tarde para usar las
estimaciones con fines de pronóstico". Para cuando la televisión por cable haya
progresado lo suficiente como para discriminar entre los modelos logísticos y Gompertz
(y posiblemente otros), gran parte del ciclo de vida de difusión habrá pasado que el
modelo ya no será útil. Los pronósticos muy diferentes de la difusión del cable se generan
40 años después de la introducción del cable, después de que aproximadamente la mitad
de los hogares en los Estados Unidos ya lo habían adoptado, y mucho después de la
entrada en la industria de competidores formidables.
En tercer lugar, un propósito principal del modelado es diseñar y probar políticas para
mejorar. Para hacerlo, el cliente debe tener confianza en que el modelo responderá a las
políticas de la misma manera que lo haría el sistema real. Ajustar la curva logística (o
cualquier modelo) a un conjunto de datos no identifica los procesos de retroalimentación
específicos responsables de la dinámica. La capacidad de un modelo para ajustarse a los
datos históricos por sí sola no proporciona ninguna información sobre si su respuesta a
las políticas será correcta.
Para ilustrarlo, tenga en cuenta que el modelo logístico, como todos los modelos de
crecimiento de primer orden, supone que la población adoptante o la base instalada se
mueve constantemente hacia arriba. El número de adoptantes nunca puede disminuir. Sin
embargo, la historia de los nuevos productos y las nuevas tecnologías está repleta de
innovaciones cuyo patrón de aparición es el auge y la caída o la fluctuación. Es fácil
imaginar escenarios creíbles en los que, por ejemplo, el uso de la televisión por cable
disminuya, incluido el aumento de los precios, la disminución de la calidad de la
programación, el aumento de la competencia de nuevas tecnologías, como las
transmisiones digitales por satélite e Internet, e incluso una disminución en la
visualización de la televisión (bueno, tal vez esto último no sea creíble). Sin embargo, el
modelo logístico, y todos los modelos de primer orden, nunca pueden generar nada más
que crecimiento. Estos modelos no incluyen la rica estructura de retroalimentación
necesaria para generar patrones más complejos y realistas, como el rebasamiento y la
oscilación o el rebasamiento y el colapso.
La difusión de la innovación generalmente implica muchas retroalimentaciones positivas
que impulsan el crecimiento además del boca a boca (ver el capítulo 10 para ejemplos).
Por ejemplo, la disponibilidad de software de terceros es un poderoso impulsor del
atractivo del producto para las computadoras. A su vez, los desarrolladores de terceros
escribirán software para aquellas plataformas que creen que tienen el mayor potencial de
mercado. Por lo tanto, cuanto mayor sea la base instalada de un particular.
Capítulo 9 Crecimiento en forma de S: epidemias, difusión de la innovación y
crecimiento de nuevos productos 331
computadora (como el VAX), cuanto más software se escribirá para ella, más atractivo se
vuelve para los clientes potenciales y más grande será la base instalada. El bucle de
disponibilidad de software positivo (y muchos otros) puede estimular el crecimiento al
igual que el bucle de boca en boca. Debido a que estos otros bucles positivos se omiten
en el modelo simple de difusión de la innovación, las estimaciones estadísticas de la
fuerza del bucle de boca en boca reflejarán el impacto de todos los bucles positivos que
contribuyen al crecimiento. La importancia del boca a boca se sobreestimará en gran
medida, mientras que al mismo tiempo se asume que la fuerza de todos los bucles
omitidos es cero. El modelo indicaría que una buena política para estimular el
crecimiento temprano del mercado sería fortalecer el boca a boca (por ejemplo,
patrocinando conferencias o contratando líderes de opinión clave como portavoces). Sin
embargo, la mejor política puede ser estimular la disponibilidad de software asociándose
con desarrolladores externos. Tal modelo no producirá recomendaciones de política
confiables a pesar del excelente ajuste histórico. Un modelo puede ajustarse
perfectamente a los datos por las razones equivocadas.
¿Es difícil enfatizar demasiado las implicaciones para los modeladores y los clientes? La
capacidad de un modelo para replicar datos históricos no indica, por sí sola, que el
modelo sea útil. Y el hecho de no replicar los datos históricos no significa necesariamente
que un modelo deba ser descartado. La utilidad de un modelo no puede juzgarse solo por
el ajuste histórico, sino que requiere que el modelador decida si la estructura y las reglas
de decisión del modelo corresponden a la estructura real y las reglas de decisión
utilizadas por las personas reales con suficiente fidelidad para el propósito del cliente.
Para hacerlo, el modelador y el cliente examinen los supuestos del modelo en detalle,
realicen estudios de campo de la toma de decisiones y exploren la sensibilidad de los
resultados del modelo a los supuestos alternativos plauSibles (entre otras pruebas).
Determinar si un modelo proporciona una base sólida para la toma de decisiones nunca es
solo una cuestión de pruebas estadísticas o ajuste histórico, sino que es esencial e
inevitablemente un juicio de valor que el modelador y el cliente deben hacer.
Desafortunadamente, los clientes y modeladores con frecuencia le dan demasiado peso al
ajuste histórico. Juzgar la idoneidad de la estructura del modelo, su robustez y su
sensibilidad a las suposiciones lleva tiempo, mientras que el ajuste histórico se puede
demostrar rápidamente. Los gráficos que muestran un ajuste cercano entre los datos y el
modelo son dramáticos y convincentes. Los clientes son influenciados con demasiada
facilidad por tales gráficos y por impresionantes tablas de R 2 y otras estadísticas. Los
modeladores, incluso cuando saben mejor, con demasiada frecuencia hacen demasiado
hincapié en las estadísticas que muestran qué tan bien sus modelos se ajustan a los datos
para persuadir a la audiencia de que el fuerte ajuste histórico del modelo significa que
debe ser correcto.
No debe concluir de esta discusión que el ajuste histórico no es importante o que no
necesita comparar sus modelos con los datos numéricos. Por el contrario, comparar la
salida del modelo con los datos numéricos es una forma poderosa de identificar
limitaciones o fallas en las formulaciones del modelo. Pero hay una profunda diferencia
entre el uso de datos históricos para identificar fallas para que sus modelos puedan
mejorarse y el uso del ajuste histórico para afirmar la validez de su modelo. En este
último caso, mostrar qué tan bien se ajusta el modelo a los datos es una maniobra
defensiva diseñada para proteger a un modelo y al modelador de las críticas y sella al
cliente, y al modelador, del aprendizaje. En el primer caso, el ajuste histórico se utiliza
para encontrar problemas y estimular el aprendizaje. El examen del ajuste histórico debe
ser parte de un proceso más amplio de pruebas y mejora del modelo diseñado para
producir un modelo adecuado para el diseño de políticas y la toma de decisiones (véase el
capítulo 21).
9.3.3 El modelo de difusión de graves
Uno de los defectos del modelo logístico de difusión de la innovación es el problema de
la puesta en marcha. En la logística (y los otros modelos de crecimiento simple, incluido
el Richards y familias de Weibull), cero es un equilibrio: el modelo logístico no puede
explicar el génesis de los adoptantes iniciales. Antes de la introducción de la televisión
por cable, el número de suscriptores de cable era cero; antes de las primeras ventas de la
minicomputadora VAX, la base instalada era cero. Cuando comienzan los procesos de
crecimiento, la alimentación positiva respaldos dependiendo de la base instalada están
ausentes o débiles porque no hay o sólo unos pocos adoptantes, el crecimiento inicial es
impulsado por otras retroalimentaciones fuera de los límites de los modelos de difusión
simple. Hay varios canales de conciencia que puede estimular la adopción cuidadosa de
nuevas innovaciones además del boca a boca y los efectos de retroalimentación
relacionados que dependen del tamaño de la población de adoptantes. Éstos incluyen
publicidad, informes de los medios y esfuerzos de ventas directas.
Frank Bass (1969) desarrolló un modelo para la difusión de innovaciones que supera el
problema de inicio. El modelo de difusión de graves se ha convertido en uno de los
modelos más populares para el crecimiento de nuevos productos y se utiliza ampliamente
en marketing, estrategia, gestión de tecnología y otros campos. Bass resolvió el problema
de inicio lema asumiendo que los adoptantes potenciales se dan cuenta de la innovación a
través de fuentes de información externas cuya magnitud y capacidad de persuasión son
aproximadamente constante en el tiempo.
El modelo de Bass original se introdujo principalmente como una herramienta para
pronosticar ventas de nuevos productos, y Bass no especificó la naturaleza de las
retroalimentaciones en el nivel operacional. La retroalimentación positiva generalmente
se interpreta como el boca a boca (exposición social e imitación) y las fuentes externas de
conciencia y adopción generalmente se interpretan como el efecto de la publicidad (la
Figura 9-18 muestra la retroalimentación estructura del modelo con esta interpretación) ".
En la Figura 9-18, la tasa de adopción total es la suma de las adopciones resultantes de
boca a boca (e implícitamente otras reacciones positivas impulsadas por la población de
adoptantes o la base instalada del producto) y adopciones resultantes de anuncios y
cualquier otra influencia externa. Se formulan las adopciones de boca en boca
exactamente como en el modelo de difusión de la innovación logística (ecuación (9-31)).
Bass asumió la probabilidad de que un adoptante potencial adopte como resultado de
exposición a una determinada cantidad de publicidad y el volumen de publicidad y otros
Las influencias externas de cada período son constantes. Por lo tanto, las influencias
externas hacer que una fracción constante de la población de posibles adoptantes adopte
cada vez por periodo. Por lo tanto, la tasa de adopción, AR, es
AR= Adopción de la publicidad + Adopción del boca a boca(9−36)
Adopción de la publicidad=aP(9−37)

donde el parámetro a, efectividad publicitaria, es la tasa de adopción fraccionada de la


publicidad (1 / período de tiempo).
Se supone que las dos fuentes de adopción son independientes. Recopilación de términos,
el modelo se puede expresar de forma más compacta como:
AR=aP+ ciPA /N (9-39)
Cuando se introduce una innovación y la población de adoptantes es cero, la única fuente
de adopción serán las influencias externas como la publicidad. El efecto publicitario será
mayor al comienzo del proceso de difusión y disminuirá constantemente a medida que el
grupo de adoptantes potenciales se agota.
9.3.4 Comportamiento del modelo de bajo
El modelo de Bass resuelve el problema de puesta en marcha del modelo de difusión de
la innovación logística porque la tasa de adopción de la publicidad no depende de la
población de usuarios. Cuando se introduce la innovación o el nuevo producto, la tasa de
adopción consiste en su totalidad en personas que aprendieron sobre la innovación a
partir de fuentes externas de información, como la publicidad. A medida que disminuye
el grupo de adoptantes potenciales mientras crece la población de adoptantes, la
contribución de la publicidad a la tasa de adopción total disminuye mientras que aumenta
la contribución del boca a boca. Pronto, el boca a boca domina y el proceso de difusión se
desarrolla como en el modelo de difusión logística.
Como ejemplo, considere nuevamente los datos de ventas de VAX 11/750 (Figura 9-14).
Para modelar el ciclo de vida del producto VAX con el modelo de difusión logística fue
necesario 1o Iniciar la simulación después de la introducción del producto, de modo que
hubiera una base instalada distinta de cero. Una mirada de cerca a la Figura 9-15 muestra
que el modelo logístico puro subestima las ventas durante el primer año y medio y
sobreestima las ventas en el pico, consistente con la hipótesis de que las adopciones
iniciales fueron estimuladas no de boca en boca u otras reacciones positivas, sino de
fuentes externas de conciencia, como los esfuerzos de marketing. La Figura 9-19
compara el comportamiento del modelo de Bass con el modelo de difusión logística y los
datos de ventas de VAX. Como en la simulación del modelo logístico, se supone que la
población total N es 7600 unidades. La efectividad de la publicidad, a, y el número de
contactos que resultan en la adopción del boca a boca, ci, se estimaron por regresión en
0.011 por año y 1.33 por año, respectivamente. La contribución de las ventas de
publicidad a las ventas totales es pequeña después del primer año, como se ve en el panel
inferior de la Figura 9-19. No obstante, este modesto cambio en la estructura de
retroalimentación del proceso de difusión mejora la capacidad para ajustar los datos de
ventas, tanto en los primeros 2 años como en el pico. Más importante aún, la inclusión del
efecto publicitario resuelve el problema de inicio del modelo logístico.
El modelo de Bass es una extensión significativa y útil del modelo logístico básico de
difusión de la innovación. El modelo en sí. o variantes del mismo, es ampliamente
aplicable a una amplia gama de fenómenos de difusión y crecimiento, y existe una
extensa literatura que aplica el modelo de Bass y modelos relacionados a la difusión de la
innovación y la venta de nuevos productos (ver, por ejemplo, Mahajan, Muller y Bass
1990 y Parker 1994 para revisiones)

Desafío: Criticando el modelo de difusión de graves


Aunque el modelo Bass a menudo funciona bien, el modelo invoca una serie de supuestos
estrictos. Enumere todas las suposiciones del modelo de graves que pueda. Incluir
supuestos explícitos en la formulación del modelo y supuestos que son sólo implícitas,
especialmente las relativas a la agregación y la frontera del modelo (en particular efectos
y retroalimentaciones omitidos del modelo).
Desafío: Ampliación del modelo de bajo
Como se señaló anteriormente, el modelo de Bass supone que el tamaño total del
mercado (población total, N) es constante. En general, la población de una comunidad o
el número de hogares en un mercado crece con el tiempo a través de nacimientos,
muertes y migración. En el contexto de innovaciones con ciclos de vida muy cortos (p.
Ej., La última generación de videojuegos) o enfermedades agudas como el sarampión, el
supuesto de una constante opresión es razonable. Pero para las innovaciones o
enfermedades cuyos ciclos de vida se prolongan durante muchos años (por ejemplo, la
difusión de la televisión por cable o la epidemia del SIDA), el crecimiento de la
población puede ser significativo.
A. Revisar el modelo de Bass para incorporar el crecimiento en el tamaño del
mercado total.
Suponga que el tamaño de la población total es un stock incrementado por una Tasa de
aumento de la población neta que agrega los nacimientos, las muertes y la migración neta
(es fácil, pero no necesario, representar las tasas explícitas de natalidad, muerte y
migración neta por separado; véase el capítulo 12). La Tasa de Incremento de la
Población Neta viene dada por la población total y la Tasa de Incremento Neto
Fraccional, que se puede asumir constante. Ahora debe decidir cómo se reparte el
aumento de la población entre los adoptantes potenciales y los adoptantes. La suposición
más simple es que todos los aumentos en el tamaño de la población se suman al grupo de
posibles adoptantes. Recordando (nat todas las personas o los hogares de la población son
adoptantes potenciales o reales, reformule la población adoptiva potencial como P = N -
A. Aunque la población adoptiva potencial es una población, está totalmente determinada
por la población total y la población adoptiva y así se puede representar como una
variable auxiliar.
Aplique su modelo extendido a la industria de la televisión por cable. La unidad de
adopción de la televisión por cable no es el individuo, sino los hogares (y posiblemente
negocios). La industria de la televisión por cable en los Estados Unidos comenzó a
principios de la década de 1950. En ese momento, el número de hogares era de unos 40
millones. A fines de la década de 1990, había casi 100 millones de hogares, una tasa de
crecimiento promedio de formación de hogares de aproximadamente 1,9% / año.
Seleccione parámetros para la efectividad de la publicidad y el boca a boca que
reproduzcan aproximadamente el patrón de adopción del cable (Figura 9-16). No es
necesario hacer coincidir los datos exactamente; un ajuste aproximado es suficiente.
Explore la sensibilidad del modelo a diferentes tasas de crecimiento de la población.
¿Cuál es el impacto del tamaño de población variable en la dinámica?
B. Respuesta del tamaño total del mercado al precio.
En la mayoría de los mercados, solo una fracción de la población total adoptará alguna
vez una nueva innovación. La fracción de la población que alguna vez podría adoptar
depende típicamente de los beneficios de la innovación en relación con su costo (su
precio y otros costos asociados, por ejemplo, costos de cambio, costos de activos
complementarios, costos de capacitación, etc .; ver Rogers 1995) . Las innovaciones no
son estáticas: sus beneficios a menudo aumentan con el tiempo a medida que la
investigación y el desarrollo de productos conducen a mejoras en las características, la
funcionalidad, la calidad y otros atributos del atractivo del producto. De manera similar,
el precio de los nuevos productos a menudo cae significativamente con el tiempo a través
de curvas de aprendizaje, economías de escala y otros Teedbacks (ver capítulo 10).
Modifique el modelo que desarrolló en la parte A para incluir el efecto del precio del
producto en el tamaño del grupo de adoptantes potenciales. Suponga que la población de
adoptantes potenciales es una fracción de la población total, menos el número actual de
adoptantes:
P=Fracción Dispuestaa Adoptar∗N − A (9-40)
donde, en general, la Fracción Dispuesta a Adoptar depende de lo atractivo de la
innovación o producto (sus beneficios en relación con los costos):
Fraccióndispuesta a adoptar=f ( Atractivo de lainnovación) (9-41)
Para mantener el modelo simple, asuma que la única característica de la innovación que
varía es el precio. Una suposición simple es que la curva de demanda del producto es
lineal. Para el caso de la televisión por cable, suponga que la demanda es una función
lineal del costo mensual (ignore los cargos de instalación). Dado que casi todos los
hogares estadounidenses tienen televisión, suponga que la fracción dispuesta a adoptar
sería del 100% cuando el cable es gratuito y bajaría a cero si el costo fuera de $ 200 al
mes.
Para probar el modelo, suponga que el precio es exógeno. Primero, ejecute el modelo con
precio constante a un valor inicial de $ 100/mes . Para centrarse únicamente en la
dinámica del efecto precio, suponga que la Tasa de incremento neto fraccional para la
población total es cero. Dado que el precio es constante, la población total debe ser
constante y el modelo se reduce a la formulación original de Bass. Simula tu modelo para
comprobar que se comporta correctamente cuando el precio es constante.
Ahora pruebe el impacto de la variación de precios asumiendo que el precio del cable cae
con el tiempo. Primero, pruebe el efecto de una caída repentina en el precio, por ejemplo,
$ 25/mes . Pruebe la caída de precios en diferentes puntos del ciclo de vida de la difusión.
C. ¿Su modelo es robusto?
Por lo general, los precios caen durante el ciclo de vida de un producto nuevo o una
innovación exitosa. Pero los modelos deben ser robustos y comportarse adecuadamente
en todas las circunstancias potenciales, no solo en el comportamiento histórico o
esperado. Una forma común e importante de probar la robustez es la prueba de
condiciones extremas (capítulo 21). En una prueba de condiciones extremas, se supone
que una entrada a un modelo adquiere repentinamente valores extremos. El modelo debe
seguir comportándose adecuadamente incluso si ese valor extremo nunca surgirá en la
realidad. Por ejemplo, la destrucción repentina de todo el inventario en un modelo de una
empresa de fabricación debe forzar la tasa de envío inmediatamente a cero. Si los envíos
no caen a cero, el modelador (y el cliente) saben inmediatamente que hay un defecto en el
modelo. Como prueba de condiciones extremas en su modelo, aumente repentinamente el
precio a un número muy grande (como $ 1 millón por mes). Si los precios subieran tanto,
¿qué le pasaría a la población potencial de adopción? suscriptores” Implementar el
aumento de precio en varios puntos del ciclo de vida. ¿Tu modelo se comporta
adecuadamente? ¿Qué problema o problemas revela la prueba? Proponga, implemente y
pruebe revisiones que corrijan cualquier problema que identifique.
D. Interacción de la difusión y la curva de aprendizaje.
Los precios de muchos productos y servicios nuevos caen con el tiempo a medida que el
aprendizaje, las economías de escala y otros efectos reducen los costos y se intensifican la
competencia. Haga que el precio del producto sea una parte endógena de la estructura del
modelo incorporando una curva de aprendizaje. Las curvas de aprendizaje o experiencia
capturan la forma en que los productores, distribuidores y otros en la cadena de valor
aprenden a producir a costos más bajos a medida que ganan experiencia. se supone que
disminuirá a medida que aumente la experiencia acumulada con el producto o servicio.
En un entorno de fabricación, la experiencia acumulada suele sustituirse por la
producción acumulada. En una industria de servicios, la experiencia acumulada podría
representarse mejor como dependiente del número acumulativo de transacciones y
dependerá de la población adoptante y del número de transacciones que cada adoptante
genere por período de tiempo. Por lo general, los costos unitarios caen en un porcentaje
con cada duplicación de experiencia. Reducciones de costes del 10% a El 30% por
duplicación de la experiencia acumulada se ha documentado en una amplia variedad de
industrias (ver, por ejemplo, Teplitz 1991; Gruber 1992; Argote y Epple 1990). Para
incorporar una curva de aprendizaje en su modelo de difusión de la innovación, Primero
suponga que las reducciones de costos se transfieren completamente al precio:
El exponente c determina qué tan fuerte es la curva de aprendizaje y debe ser negativo
(los costos disminuyen a medida que aumenta la experiencia acumulada). Para
representar una curva de aprendizaje en la que los costos caen un 30% por cada
duplicación de experiencia, para establecer: c=log 2 ( 0,7 ) ≅−0,5112

Pruebe su modelo para una empresa de fabricación hipotética que presenta un nuevo
producto de consumo duradero en el año 2000. El producto tiene un alto mercado
potencial. Configure los siguientes parámetros: Suponga que el 100% del total población
de 100 millones de hogares comprará el producto si es gratis pero esa demanda cae a cero
si el precio es de $ 2500 por unidad. Establecer el precio inicial a $ 2000 / unidad, y
establezca la experiencia inicial en 10 millones de unidades (reflejando aprendizaje
obtenido en productos y prototipos anteriores). Investigación sobre el consumidor
duraderos muestra que los ciclos de vida típicos del producto duran desde
aproximadamente un año hasta el mismo tiempo como 20 años o más (Parker 1994),
dependiendo del costo, los beneficios, el tamaño, probabilidad, novedad y otros atributos
del producto, junto con el papel de activos complementarios y otra infraestructura (las
computadoras no son valiosas sin software; una televisión es inútil sin programación la
gente quiere reloj y redes u operadores de cable para distribuirlo). Para capturar el rango,
definir los siguientes dos escenarios para la difusión del producto: a Lento escenario, en
el que el producto de la tasa de contacto y la fracción de adopción (ci) es 1.0 / año, y un
escenario Rápido, en el que el producto de la tasa de contacto y la fracción de adopción ci
es 3.0 / año. Suponga para ambos escenarios que el 1% de la El grupo de adoptantes
potenciales comprará como resultado de la publicidad por año.
Antes de ejecutar su modelo, dibuje un diagrama causal que muestre la estructura de
retroalimentación creada por la curva de aprendizaje y cómo interactúa con la estructura
de difusión. Sin simulación, esboce la dinámica que espera para la fracción del mercado
dispuesta a adoptar, la población de adoptantes potenciales, la tasa de adopción y la
población de adoptantes. También esboce el camino de los ingresos que espera. Suponga
que el producto se compra, no se alquila, e ignore los ingresos que pueden derivarse de la
venta de servicios o productos de posventa a los adoptantes (los ingresos dependen solo
de la tasa de adopción y el precio).
Antes de dibujar la dinámica que sigue, ejecute el modelo para los casos Rápido y Lento.
Describe la dinámica y compárala con tus estimaciones intuitivas. Experimente con
diferentes fortalezas para la curva de aprendizaje en relación con el proceso de difusión.
¿Cómo interactúan los procesos de difusión y las curvas de aprendizaje para determinar el
crecimiento de un nuevo producto? ¿Cuáles son las implicaciones de una difusión muy
rápida para los ingresos, la planificación de la capacidad y el desarrollo de nuevos
productos? ¿Qué implicaciones extrae para la estrategia (precios, adquisición de
capacidad y marketing)?
9.3.5 Modas y Tendencias: Modelando el Abandono de una Innovación
El modelo de difusión de Bass es análogo al modelo SI de infección crónica. Todos
eventualmente adoptan el producto y los adoptantes nunca abandonan la innovación o
descontinúan el uso del producto. Estos supuestos son apropiados para algunas
innovaciones, pero no se aplican a la enorme categoría de modas y modas.
Una moda pasajera, por definición, implica la adopción temporal de una nueva idea o
producto, seguida de su abandono. En una moda pasajera, aquellos que adoptan tarde o
temprano (generalmente antes) dejan de usar el producto y ya no generan el boca a boca
que podría llevar a una mayor adopción. Aunque muchos baby boomers usaban chaquetas
Nehru o vestidos de abuela en la década de 1960, trajes de ocio de poliéster o zapatos con
plataforma de colores del arco iris en la década de 1970, y trajes de poder con corbatas
amarillas o hombreras en la década de 1980, hoy en día son pocos los que los usan. y la
moda, por supuesto, son comunes en la industria de la confección, pero también surgen
en casi todos los demás dominios, desde muebles para el hogar, destinos de vacaciones,
cocinas, automóviles e inversiones hasta estilos en las artes y la música, las teorías
académicas en las ciencias y las humanidades, y nuevas palabras de moda y gurús en
estrategia corporativa, teoría organizacional y consultoría de gestión.
El modelo Bass no puede capturar la dinámica de las modas en parte porque los
adoptantes nunca dejan de utilizar la innovación. Además, debido a que la tasa de
contacto y la fracción de adopción son constantes, es tan probable que los primeros
adoptantes infecten a los posibles adoptantes como los que acaban de comprar el
producto. Sin embargo, para muchas innovaciones (no solo modas pasajeras), la
propensión de las personas a generar el boca a boca y su entusiasmo y capacidad de
persuasión varían con el tiempo. Por lo general, el boca a boca decae a medida que las
personas se habitúan a la innovación. Aquellos que han adoptado recientemente una
nueva idea o han comprado un nuevo artículo son mucho más propensos a hablar de ello
que aquellos que han adoptado la innovación hace mucho tiempo, incluso si continúan
usándola. La plomería interior difícilmente puede considerarse una moda pasajera, sin
embargo, la gente no se apresura a decirle a sus amigos lo maravillosos que son los
inodoros con cisterna.
En la década de 1980, Selchow y Righter vendieron decenas de millones de copias del
juego Trivial Pursuit, las ventas se dispararon cuando Trivial Pursuit se convirtió en uno
de los productos más populares en el mercado de los juguetes y los juegos. El boom se
alimentó en gran medida del boca a boca y la exposición social, ya que la gente lo jugaba
en las casas de sus amigos. Sin embargo, después de unos años, las ventas se
desplomaron. Gran parte de la disminución se puede atribuir al conocido bucle de
saturación del mercado: el juego tuvo tanto éxito que la empresa agotó el grupo de
personas que aún no habían comprado una copia. Pero la desvanecida novedad del juego
también fue un factor. La población de adoptantes sigue siendo grande en el sentido de
que muchas personas todavía poseen una copia de Trivial Pursuit. Sin embargo, la
mayoría de estas copias se encuentran en áticos y armarios. La población de adoptantes
activos, aquellos que todavía juegan y generan contactos de boca en boca con otros, es
pequeña.
La interrupción del uso y la decadencia del boca a boca pueden incorporarse fácilmente
en el marco de difusión de la innovación al desglosar la población de adoptantes en
diferentes categorías, cada una de las cuales representa diferentes grados de uso y
propensiones a generar el boca a boca. La extensión más simple del modelo es dividir la
población total de adoptantes en dos categorías, Adoptantes activos y Adoptadores
anteriores. La tasa de interrupción (la tasa a la que los adoptantes activos se convierten en
antiguos adoptantes) depende de la duración promedio del uso de la innovación (el
supuesto más simple es que la tasa de interrupción es un proceso de primer orden). El
boca a boca y, por lo tanto, la tasa de adopción se generaría solo por la población de
adoptantes activos
El modelo revisado es análogo al modelo epidémico SIR. Ahora solo los adoptantes
activos (análogos a la población infecciosa) generan el boca a boca que podría inducir
una adopción adicional. Los antiguos adoptantes son análogos a la población de
individuos recuperados. Habiendo comprado el producto, pero ya no lo usan activamente,
los antiguos adoptantes ya no son infecciosos para los demás y también son inmunes a la
reinfección: la exposición a la publicidad o el boca a boca de los adoptantes activos no
inducirá a los baby boomers de edad avanzada a comprar otro traje de ocio. "
La idea clave del modelo de epidemia SIR es el concepto del punto de inflexión: la
exposición a individuos infecciosos no producirá una epidemia si las personas se
recuperan y desarrollan inmunidad más rápido de lo que pueden infectar a otras. De
manera similar, es posible que las nuevas innovaciones no se arraiguen incluso si generan
un boca a boca positivo porque los adoptantes activos interrumpen el uso más rápido de
lo que persuaden a otros a adoptar. Aunque los consumidores ansiosos adoptan una
cantidad angustiosamente grande de modas extrañas y productos inútiles que sin pensar
permiten que los especialistas en marketing manipulen sus gustos, muchos más no logran
afianzarse.
En el modelo SIR, el punto de inflexión se define mediante una tasa de reproducción de
uno. 'La tasa de reproducción es el número de casos nuevos generados por cada
infeccioso antes de la recuperación y se define por el producto del número de contacto (el
número de contactos infecciosos generados por cada infeccioso antes de la recuperación)
y la probabilidad de contactar a un individuo susceptible (ecuación (9-26)). Usando la
terminología de
En el marco de difusión de la innovación, la tasa de reproducción es el producto del
número de contactos persuasivos de boca en boca generados por cada adoptante activo
antes de la interrupción y la probabilidad de encontrar un adoptante potencial:

donde c es la tasa de contacto, i es la fracción de adopción, d es la duración promedio del


uso activo de la innovación, P es la población de adoptantes potenciales y N es la
población total. Si la tasa de reproducción es mayor que uno, la retroalimentación
positiva de boca en boca domina el sistema y nace una moda. La moda termina cuando el
grupo de posibles adoptantes cae lo suficiente como para llevar la tasa de reproducción
por debajo de uno. Si la tasa de reproducción es inferior a uno, el boca a boca positivo
está dominado por las reacciones negativas y no habrá epidemia de adopción.
Sin embargo, a diferencia del modelo SIR, la adopción en el marco de difusión de la
innovación de Bass también surge de la publicidad y otras influencias externas. En el
modelo simple de Bass, la efectividad de la publicidad es una constante, lo que implica
que el presupuesto publicitario es constante en el tiempo. Incluso cuando el sistema está
por debajo del punto de inflexión, todos eventualmente adoptarán la innovación (aunque
puede llevar mucho tiempo).
En el mundo real, la publicidad es cara y no persiste indefinidamente. "El plan de
marketing para la mayoría de los productos nuevos incluye una cierta cantidad para una
campaña publicitaria inicial y otros esfuerzos de marketing iniciales. Si el producto tiene
éxito, se puede respaldar más publicidad con los ingresos que genera el producto. Sin
embargo, si el producto no despega, el presupuesto de marketing pronto se agota y las
fuentes externas de adopción caen. La publicidad no es exógena, como en el modelo
Bass, sino que forma parte de la estructura de retroalimentación del sistema. Hay un
punto de inflexión para las ideas y los nuevos productos tanto como para las
enfermedades.
9.3.6 Compras de reemplazo
El modelo de difusión de Bass a menudo se describe como un modelo de primera compra
porque no captura situaciones en las que el producto se consume, descarta o actualiza,
todo lo cual conduce a compras repetidas.
Una forma popular de modelar el comportamiento de compra repetida es asumir que los
adoptantes regresan a la población de posibles adoptantes cuando su primera unidad se
descarta o se consume. La velocidad a la que se descarta el producto y, por lo tanto, la
velocidad a la que las personas pasan de la población de adoptantes al grupo de posibles
adoptantes depende del número de adoptantes y de la vida media del producto (Figura 9-
20). Modelar la demanda de reemplazo de esta manera es análogo al Joss de la inmunidad
a una enfermedad. Ahora, en lugar de caer a cero, la población de adoptantes potenciales
se repone constantemente a medida que los adoptantes descartan el producto y vuelven a
ingresar al mercado (Figura 9-21). La tasa de adopción (tasa de ventas de un producto)
aumenta, alcanza su punto máximo y cae a una tasa que depende de la vida media del
producto y de los parámetros que determinan la tasa de adopción. Los descartes
significan que siempre hay una fracción de la población en el grupo de clientes
potenciales. Al variar la vida útil del producto y la fuerza de la retroalimentación de boca
en boca, la tasa de difusión, incluida la altura del pico de ventas y la profundidad del
busto cuando el mercado se satura, puede variar. El modelo que se muestra en la Figura
9-20 asume un proceso de descarte de primer orden, pero se puede modificar fácilmente
para representar cualquier distribución de descartes alrededor de la vida media del
producto utilizando retrasos de orden superior (capítulo 11).
Debido a que aquellos que descartan el producto vuelven a ingresar al grupo de clientes
potenciales, son tratados exactamente como compradores por primera vez y deben pasar
por otro proceso para tomar conciencia y ser persuadidos para comprar el producto a
través de la publicidad o el boca a boca. el producto es tan largo y los atributos del
producto cambian tanto en este lapso que la experiencia previa es en gran medida
irrelevante y las decisiones de compra repetidas son razonablemente similares a las
decisiones de compra iniciales. Pero para la mayoría de los productos, el cliente ya tomó
la decisión de continuar usando el producto y simplemente compra uno nuevo. En tales
casos, las decisiones de compra inicial y repetida deben representarse por separado, como
se muestra en la Figura 9-22. Aquí el proceso de adopción se separa del flujo de compras.
“La tasa de ventas totales la suma de las compras iniciales y las compras repetidas. La
tasa de repetición de compras es el producto de la cantidad de adoptantes y la cantidad
promedio de unidades compradas por cada adoptante por período de tiempo. La figura 9-
23 muestra el comportamiento típico del modelo.
9.4 Resumen
El crecimiento "en forma de S" surge a través de la interacción no lineal de ciclos de
retroalimentación positiva y negativa. Cualquier cantidad en crecimiento puede
considerarse como una población que crece en un nicho ecológico con cierta capacidad
de carga. El crecimiento "en forma de S" surge cuando la capacidad de carga es fija y
cuando no hay retrasos significativos en la reacción de la tasa de crecimiento de la
población a medida que se acerca la capacidad de carga. “La estructura subyacente al
crecimiento en" forma de S "se aplica a una amplia gama de procesos de crecimiento, no
solo al crecimiento de la población. Estos incluyen la adopción y difusión de nuevas
ideas, el crecimiento de la demanda de nuevos productos, la difusión de información en
una comunidad y la propagación de enfermedades, incluidos patógenos biológicos y virus
informáticos.
Se introdujeron varios modelos analíticamente manejables de crecimiento en forma de S,
incluido el modelo de crecimiento logístico, el modelo epidémico SIR y el modelo de
difusión de Bass. Se desarrollaron importantes extensiones de los modelos básicos de
difusión de la epidemia y la innovación para ilustrar cómo los modeladores pueden
identificar los supuestos restrictivos de un modelo, tanto explícitos como implícitos, y
reformular el modelo para que sea más realista.
Los modelos logísticos, epidémicos y de difusión de la innovación se pueden ajustar a los
datos históricos y, a menudo, el ajuste es excelente. Sin embargo, aunque los modelos de
crecimiento no lineal, como los modelos logísticos y de Bass, se utilizan ampliamente y,
a menudo, se ajustan bastante bien a determinados conjuntos de datos, no debe utilizar
estos (ni ningún otro modelo) como cajas negras para la previsión.
Para crear modelos realistas y útiles de difusión de productos y adopción de innovación,
debe representar explícitamente la estructura de retroalimentación de la adopción y el
crecimiento, incluidas las fuentes de atractivo para la nueva idea o producto, la
competencia, la innovación técnica, los criterios de uso cambiantes y otros factores. que
influyen en la adopción y el crecimiento. Se han desarrollado muchos modelos de
dinámica de sistemas ricos y perspicaces de difusión de la innovación y se utilizan con
éxito para anticipar el crecimiento y diseñar políticas para el éxito (ver, por ejemplo,
Homer (1987) para un modelo de tecnologías médicas emergentes y Urban, Hauser y
Roberts (1990) para modelos de retroalimentación para el pronóstico previo al
lanzamiento de nuevos modelos de automóviles). El ajuste histórico de un modelo no
muestra que el modelo sea "válido". Muchos modelos, cada uno con diferentes
suposiciones sobre la estructura de retroalimentación y cada uno de los cuales genera
diferentes dinámicas, pueden ajustarse igualmente bien a cualquier conjunto de datos.
Base sus modelos en una investigación cuidadosa de las estructuras físicas e
institucionales y los procesos de toma de decisiones de los actores en el sistema y no
fuerce los datos en los supuestos de ninguna forma o modelo funcional preseleccionado.
Los modelos no deben utilizarse como ejercicios de ajuste de curvas utilizando datos
agregados. Solo los modelos que capturan la estructura causal del sistema responderán
con precisión a medida que cambien las condiciones y se implementen las políticas.
10. Dependencia del camino y Retroalimentación positiva
Porque a todo el que tiene, se le dará y le sobrará; pero al que no tiene, aun lo que tiene
le será quitado.
—Mateo XXV: 29
Este capítulo explora la dependencia de la trayectoria, un patrón de comportamiento en el
que pequeños eventos aleatorios al principio de la historia de un sistema determinan lo
último y el estado, incluso cuando todos los estados finales son igualmente probables al
principio. La dependencia de la trayectoria surge en sistemas cuya dinámica está
dominada por la retroalimentación positiva que puede crear dependencia de la trayectoria,
el papel de los eventos aleatorios al principio de la historia del sistema de dependencia de
la trayectoria y las formas en que un sistema dependiente de la trayectoria puede
engancharse a un equilibrio particular. Las teorías de retroalimentación de la dependencia
de la trayectoria y el bloqueo se desarrollan para una serie de ejemplos importantes en los
negocios, la tecnología y la economía.
10.1. Dependencia de la trayectoria.
¿Por qué los relojes van en el sentido de las agujas del reloj? ¿Por qué la gente en la
mayoría de las naciones conduce por la derecha? ¿Por qué el negocio de los diamantes en
Nueva York se concentra en el área alrededor de West 47th Street? ¿Por qué casi todos
los mecanógrafos aprenden la ineficiente distribución del teclado QWERTY? ¿Cómo
llegaron los procesadores de Microsoft Windows e lntel a dominar el mercado de las
computadoras personales? ¿Por qué hay tantos mercados en los que el ganador se lleva
todo en los que el éxito se acumula en el éxito, donde los ricos se hacen ricos y los pobres
se vuelven más pobres? ¿Y qué tienen que ver estas preguntas entre sí? Todos son
ejemplos de sistemas que muestran dependencia de la ruta. La dependencia de la
trayectoria es un patrón de comportamiento en el que el equilibrio final depende de las
condiciones iniciales y de los choques aleatorios a medida que evoluciona el sistema. En
un sistema dependiente de la trayectoria, los eventos pequeños e impredecibles al
principio de la historia del sistema pueden determinar de manera decisiva su destino final.
El eventual estado final de un sistema dependiente de la trayectoria depende del punto de
partida y de perturbaciones pequeñas e impredecibles al principio de su historia. Incluso
cuando todos los caminos son inicialmente igualmente atractivos, la simetría se rompe
por el ruido microscópico y las perturbaciones externas. Los procesos de
retroalimentación positiva luego amplifican estas pequeñas diferencias iniciales hasta que
alcanzan un significado macroscópico. Una vez que ha surgido un diseño o estándar
dominante, los costos de cambiar se vuelven prohibitivos, por lo que el equilibrio es auto
aplicable: el sistema se ha bloqueado.
El ancho exacto de un ferrocarril tiene poca importancia (dentro de amplios límites). Al
comienzo de la era del ferrocarril, ningún ancho de vía era mejor opción que otro. Sin
embargo, el ancho estándar utilizado en los EE. UU. Y la mayor parte del mundo es de
1,44 metros (4 pies y 8,5 pulgadas). ¿Cómo surgió esta convergencia? Los primeros
ferrocarriles, cada uno desconectado de los demás, utilizaban una amplia gama de
diferentes calibres (¡una de las primeras líneas usaba un calibre de 7 pies!). El material
rodante era específico para cada red y no se podía utilizar en líneas con un ancho
diferente. Pero a medida que las redes ferroviarias crecieron, la compatibilidad se volvió
cada vez más importante (cuando los anchos diferían, las mercancías transbordadas de
una línea a otra tenían que descargarse de un tren y recargarse en otro, lo que elevaba
enormemente los costes y ralentizaba la entrega). Vías ferroviarias que ofrecen
compatibilidad disfrutada a gran costo
ventaja ya que el mismo material rodante podría utilizar cualquier parte de la red. Poco a
poco, los ferrocarriles más pequeños adoptaron el ancho de vía utilizado por las redes
más grandes. El atractivo de ese indicador se incrementó aún más, formando una
retroalimentación positiva. Los ferrocarriles más pequeños que usaban anchos
incompatibles perdieron negocios o convirtieron su camino y material rodante para que
fueran compatibles. Pronto, un solo ancho de vía, con las inverosímiles dimensiones de
1,44 metros, emergió como el estándar dominante. En la década de 1860, los costos de
cambiar a otro calibre (se informa que Abraham Lincoln defendió 5 pies) eran
prohibitivos: el sistema se había ceñido al estándar.
Retroalimentaciones positivas similares son responsables de otros ejemplos de
dependencia de la ruta: cuantos más escritores de tipos con el teclado QWERTY se
vendieron, más personas aprendieron a escribir con ese diseño y las máquinas QWERTY
más exitosas se volvieron, mientras que los fabricantes de teclados alternativos perdieron
negocios. A medida que la participación de mercado de las computadoras Wintel crecía,
se escribía más software para esa plataforma y se desarrollaba menos para otras
plataformas y sistemas operativos. Cuanto más software estaba disponible para un
sistema operativo en particular, mayor era la demanda de computadoras compatibles con
ese sistema, aumentando la participación de mercado de Wintel aún más.
¿Qué hace que algunos sistemas muestren dependencia de la trayectoria, pero no otros?
La dependencia de la trayectoria surge en sistemas dominados por retroalimentación
positiva. La figura 10-1 ilustra la diferencia entre un sistema dominado por
retroalimentación negativa y un sistema dependiente de la ruta dominado por
retroalimentación positiva. Primero, imagina un cuenco de lados lisos. El punto más bajo
del cuenco es un equilibrio: una canica colocada allí permanecerá allí. El equilibrio es
estable: empujar la canica fuera del equilibrio crea una fuerza opuesta al desplazamiento.
Una canica cayó en cualquier parte del cuenco eventualmente se detendrá en la parte
inferior (aunque puede rodar un rato antes).
El equilibrio no depende de la trayectoria: la canica se detiene en el mismo lugar sin
importar dónde se deje caer y sin importar su velocidad inicial (mientras permanezca
dentro del cuenco, el equilibrio es solo localmente estable). Un equilibrio estable también
se llama atractor porque todos los puntos se sienten atraídos por él. Técnicamente, debido
a que el equilibrio es localmente y no globalmente estable, es un atractor solo para los
puntos dentro de su cuenca de atracción. La cuenca de atracción es el cuenco. Dentro de
él, todos los puntos conducen al atractor en la parte inferior. Fuera del cuenco, la
dinámica es diferente. El Mar Muerto y el Gran Lago Salado son ejemplos: Lluvia que
cae en cualquier lugar sobre estas cuencas hidrográficas termina en su salmuera salada.
La lluvia que cae sobre otras cuencas fluye hacia el mar.
FIGURA 10-1 La dependencia de la trayectoria surge en sistemas con equilibrios
localmente inestables
Izquierda: Un equilibrio localmente estable. El sistema está gobernado por una
retroalimentación negativa: el mayor desplazamiento de la pelota desde el equilibrio P *,
el mayor es el centro y equilibrio. Un lugar de la pelota en cualquier lugar del arco
finalmente llega a la parte inferior; perturbaciones que no afectan el equilibrio alcanzado.
Derecha: Equivalente localmente inestable. El sistema está gobernado por una
retroalimentación positiva: El mayor desplazamiento de la bola, el equilibrio en P *. La
más mínima perturbación provoca que la bola se convierta en un pico del pico. La
perturbación inicial determina el camino tomado por la bola y quizás el destino final: el
sistema depende del camino.

Ahora voltee el arco al revés. La parte superior del arco sigue siendo un equilibrio si el
mármol está equilibrado exactamente en la parte superior. Sin embargo, el equilibrio
ahora es inestable. La más leve perturbación hará que el mármol se mueva ligeramente
cuesta abajo. A medida que la pendiente aumenta, la fuerza descendente en el mármol
aumenta y aún se mueve más cuesta abajo, retroalimentación inactiva (el equilibrio es un
corrector termal o porque las trayectorias cercanas son forzadas a alejarse de él). A la
izquierda; un choque igualmente pequeño a la otra altura y se mueve más a la derecha.
Por supuesto, aunque el equilibrio en la parte superior del arco es localmente inestable, el
sistema debe ser globalmente estable. Pero la naturaleza dependiente de la trayectoria del
movimiento de la bola en el punto de equilibrio significa que puede detenerse en
cualquier parte del suelo, y los alcances de los puntos particulares dependen de esa
pequeña perturbación inicial.
Imagínese la lluvia cayendo cerca de la división continental de América del Norte. Dos
gotas de lluvia caen unas pocas pulgadas por parte, una justo al este de la división y otra
justo al oeste. La diferencia en los aterrizajes puede deberse a diferencias pequeñas e
inobservables en el viento cuando las dos gotas caen de las nubes. Aunque comienzan
solo en una parte, una termina en el Pacífico; la otra, a miles de millas en el Golfo de
México. Las diferencias microscópicas en las condiciones iniciales conducen a
diferencias macroscópicas en los resultados.
El arco invertido ilustra otra característica importante de los sistemas dependientes del
camino: bloqueo. Cuando la bola esté equilibrada en la parte superior del cuenco,
alcanzar el equilibrio. Las posiciones son igualmente probables. Usted puede influir en el
lugar donde se almacena el mármol con la luz de la luz para volver a empujarlo hacia el
otro lado. Cuanto más se ha movido la pelota y más rápido se ha movido, el
endurecimiento se ha alterado en su curso.
En los albores de la era del automóvil, no importaba en qué lado de la carretera condujera
la gente. Pero a medida que aumentaba la densidad del tráfico, crecía la importancia de
un estándar coherente. Cuanta más gente conducía, por un lado, más probable era que los
nuevos conductores de las regiones adyacentes condujeran por el mismo lado,
aumentando aún más el atractivo de ese lado, en un circuito positivo. La mayoría de las
naciones convergieron rápidamente a uno de los dos estándares, con Gran Bretaña y sus
colonias, junto con Japón y algunas otras naciones, eligiendo el volante a la izquierda,
mientras que la mayor parte del resto del mundo convergió al volante a la derecha.
Inicialmente, los suecos optaron por conducir por la izquierda, como en Gran Bretaña. A
medida que crecía el tráfico y el comercio con el resto de Europa y la industria
automotriz sueca buscaba aumentar las ventas en el mercado más grande del volante a la
derecha, se volvió cada vez más inconveniente y costoso para el sistema sueco estar en
desacuerdo con el estándar vigente en Europa y América del Norte. Al ver que el sistema
de carreteras y automóviles sueco se estaba bloqueando rápidamente, los suecos
diseñaron un cambio notable. A las 5 de la mañana del 3 de septiembre de 1967, toda la
nación comenzó a conducir por la derecha. La capacidad de Suecia para efectuar el
cambio sin problemas se debió en parte a una educación previa masiva y un enorme
esfuerzo de obras públicas para cambiar la señalización vial. Pero el éxito del cambio
también dependió del tamaño pequeño y la baja densidad de la población, tanto humana
como automovilística. En 1967, la población total de Suecia era menos de 8 millones, y
sólo había unos 2 millones de coches, o 46 personas y 12 automóviles por milla cuadrada.
La mayor parte del crecimiento de la población automotriz y la red de carreteras de
Suecia estaba por venir; la interrupción y los costos del cambio fueron pequeños en
comparación con el beneficio. Imagínese lo que costaría hoy cambiar del volante a la
izquierda a la derecha en Japón. Aunque Japón es sólo un 80% más grande que Suecia, a
mediados de la década de 1990 "albergaba alrededor de 126 millones de personas y 40
millones de automóviles, más de 870 personas y 275 automóviles por milla cuadrada". La
interrupción y el costo superarían con creces cualquier beneficio. Japón hace mucho que
se ha centrado en el volante a la izquierda.
Los sistemas que dependen de la ruta son más comunes de lo que muchos de nosotros
imaginamos. La elección de estándares como la forma de los enchufes eléctricos, la
ubicación del primer meridiano y la longitud del metro estándar en París son todos
arbitrarios, pero una vez que se acepta una elección dada, el sistema se ajusta a esa
elección, aunque otras alternativas eran igualmente atractivas desde el principio. La
dependencia de la ruta y el bloqueo son no restringido a sistemas económicos, técnicos o
humanos. Las moléculas orgánicas complejas como los aminoácidos y los azúcares en el
ADN pueden existir en dos formas diferentes, idénticas excepto que cada una es la
imagen especular de la otra. Estos enantiómeros se conocen como las formas L (levo o
zurdo) y 1) (dextro o diestro). La quiralidad (lateralidad) de los enantiómeros no importa
de forma aislada; las propiedades físicas de las moléculas de L y D son las mismas. Sin
embargo, las proteínas de prácticamente toda la vida en la tierra tienen levo quiralidad.
La retroalimentación positiva y el bloqueo son responsables. Así como no puede ponerse
un guante de mano derecha en su mano izquierda, las diferentes estructuras
tridimensionales de los dos tipos significan que los D-aminoácidos están físicamente
integrados. La mayoría de las reacciones químicas tienden a producir diferentes
enantiómeros en proporciones iguales, lo que lleva a muchos científicos a conjeturar que
los ácidos amino y nucleicos izquierdo y derecho eran igualmente comunes en la sopa
primordial de los océanos primitivos. Por casualidad, las proteínas que se convirtieron en
la base de la vida en la tierra se formaron a partir de aminoácidos zurdos. A medida que
los nuevos organismos evolucionaron a partir de sus ancestros zurdos, la red de la vida
zurda creció en magnitud y complejidad, mientras que cualquier forma diestra se
extinguió, la vida en la tierra ha permanecido encerrada en las formas zurdas desde
entonces.
10.2. Un Modelo Simple De Dependencia De La Ruta: El Proceso Polya.
Puede construir fácilmente un ejemplo simple y convincente de dependencia de ruta.
Imagina un frasco lleno de pequeñas piedras. Hay piedras negras y piedras blancas. Las
piedras se agregan al frasco de una en una. El color de la piedra que se agrega en cada
período se determina al azar. La probabilidad de seleccionar una piedra negra es igual a
la proporción de piedras negras que ya están en el frasco. Es esta última suposición la
que le da al sistema su carácter único y crea dependencia de la ruta. Suponga que el
frasco contiene inicialmente una piedra negra y una blanca. La probabilidad de que la
siguiente piedra que elija sea negra es entonces de 1/2. Supongamos que resulta ser
negro. Ahora hay dos piedras negras y una blanca en el frasco. La probabilidad de elegir
negras en el próximo sorteo es ahora de 2/3. Supongamos que es negro. Ahora 3/4 de las
piedras son negras. La preponderancia de piedras negras significa que es más probable
que se agreguen aún más piedras negras, y es probable que el frasco termine con más
piedras negras que blancas. Pero supongamos que en el primer sorteo se ha elegido una
piedra blanca. La probabilidad de sacar una piedra negra en la segunda ronda habría sido
de 1/3 en lugar de 2/3. Es probable que el frasco termine con más piedras blancas que
negras. La trayectoria del sistema, y la mezcla final de piedras en el frasco, depende de
su historia, de la secuencia particular de eventos aleatorios. La figura 10-2 muestra un
diagrama causal de este sistema, conocido como proceso Polya en honor a su inventor, el
matemático George Polya (1887-1985).
El sistema Polya contiene dos bucles de alimentación, uno positivo y otro negativo, para
cada tipo de cálculo. Cuanto mayor sea el número de piedras negras, mayor será la
posibilidad de agregar otra piedra negra (un bucle positivo). Al mismo tiempo, cuanto
mayor sea el número de piedras negras, mayor será el número total de piedras y, por lo
tanto, menor será el impacto de cualquier nueva piedra negra añadida al frasco en la
proporción de piedras negras (un bucle negativo).
La figura 10-3 muestra 10 simulaciones del proceso Polya. Cada uno tiene 200 períodos
de duración. Al principio, cada piedra añadida al frasco tiene una gran influencia en la
probabilidad de elegir la siguiente piedra (la primera piedra extraída determina si la
probabilidad de elegir una piedra negra es 2/3 o 13). El bucle positivo domina. Pero a
medida que aumenta el número de piedras, cada piedra nueva tiene un efecto cada vez
menor en las proporciones. El bucle positivo se debilita en relación con el bucle
negativo. Eventualmente, el número de puntas es tan grande que añadir otra piedra tiene
un efecto insignificante en la proporción de cada color en el frasco. Los bucles positivo y
negativo están exactamente equilibrados en ese punto. La proporción de cada color se
estabilizará entonces.

Por lo general, las piedras se agregarán en el futuro en la misma proporción que las que
ya están en el frasco. Pequeños eventos aleatorios en la historia del sistema lo inclinan
hacia un camino en lugar de otro. El equilibrio depende de la trayectoria. La
acumulación de piedras eventualmente bloquea el sistema en equilibrio en una proporción
particular de cada color. Para invertir la proporción de piedras negras de 2: 1 a 1: 2
cuando hay tres piedras en el frasco, es necesario sacar tres piedras blancas seguidas, un
evento con una probabilidad del 10% [P (Tres Piedras Blancas ¿=(1/3)(2/4 )(3/5)¿ .
Pero pasar de una proporción de 2: 1 a 1: 2 cuando hay 200 piedras negras y 100 blancas
requiere sacar 300 piedras blancas seguidas, un evento con una probabilidad muy
pequeña (8,3 X 10-8 para ser precisos).
Cuantas más piedras, es menos probable que se produzca un movimiento fuera de la
proporción actual: el sistema se fija en cualquier equilibrio que surja de su historia
temprana. Polya demostró que el proceso siempre convergerá en una proporción fija de
piedras negras, y que la proporción particular depende de la historia de los eventos
aleatorios a lo largo del camino. Polya también demostró el notable resultado de que la
distribución de las proporciones finales es uniforme, es decir, es igualmente probable que
la fracción final de piedras negras esté entre 0 y 1. La figura 10-4 muestra la distribución
de la proporción de piedras negras. después de 500 períodos en un conjunto de 10.000
simulaciones. La distribución es casi uniforme: todas las proporciones de piedras negras
son escasamente probables a largo plazo (véase Arthur 1994 para más ejemplos).
10.2.1. Generalización del Modelo: Procesos no Cercanos a Polya
El proceso Polya ilustra cómo se produce la dependencia de la trayectoria, pero es un
modelo muy especial con una serie de suposiciones restrictivas y poco realistas. Primero,
la dinámica depende del hecho de que los flujos están cuantificados: aunque las piedras
se agregan con probabilidades en proporción a su prevalencia en el frasco, cada piedra es
completamente negra o completamente blanca. Cada período debe cambiar la proporción
de cada color. En el caso de un frasco de piedras, imagínese llenar el frasco con pintura
blanca y negra mezclada en proporción al tono de gris actual del frasco. El tono de gris
nunca cambiaría, sin importar lo que fuera inicialmente (puede aproximar el tiempo
continuo, la situación de flujo continuo en el modelo que se muestra en la Figura 10-2
permitiendo que se agreguen piedras fraccionarias por período o reduciendo el paso de
tiempo entre períodos). En segundo lugar, la probabilidad de agregar un color en
particular es lineal en la proporción de ese color (Flyre 10-5). La función que define la
probabilidad de agregar una bola de un color dado se encuentra exactamente en la línea
de 45 °, por lo que cada punto de la línea es un equilibrio. Sin embargo, en general, las
reglas de decisión que determinan los flujos en los sistemas dependientes de la ruta son
funciones no lineales de las variables de estado. Si la probabilidad de agregar una piedra
de un color dado es una función no vinculada a la proporción con ese color, el número, la
ubicación y la estabilidad de los equilibrios y la dinámica cambian. Suponga que la
probabilidad de elegir una piedra negra se caracteriza por la función no lineal de la figura
10-6. El sistema ahora tiene solo tres equilibrios (puntos
donde la proporción de piedras negras y la probabilidad de agregar una piedra negra son
iguales): 0, 0.50 y 1. Los puntos cero y 100% son equilibrios: si el frasco es todo negro o
todo blanco, seguirá siéndolo. Asimismo, cuando la proporción de piedras negras es la
mitad, la probabilidad de elegir una piedra negra es la mitad, por lo que (en promedio) la
proporción de piedras permanece constante. Sin embargo, cuando la proporción de
piedras negras supera la mitad, la probabilidad de elegir negro aumenta más que
proporcionalmente, y cuando es menos de la mitad, cae más que proporcionalmente. El
equilibrio en 0.50 es inestable: si la primera piedra agregada es negra, la probabilidad de
agregar más piedras negras aumenta dramáticamente, moviendo el sistema (en promedio)
hacia el equilibrio estable en 100 piedras negras. De manera similar, si la primera piedra
es blanca, la probabilidad de sacar más piedras blancas aumenta drásticamente y el
sistema tenderá hacia el equilibrio estable de todas las piedras blancas. Por supuesto,
dado que el sistema es tocástico, a veces una corrida de un color moverá el estado del
sistema hacia atrás en la proporción 1: 1. La Figura 10-7 muestra 10 realizaciones del
proceso Polya no lineal que se muestra en la Figura 10-6. Todas las trayectorias se alejan
rápidamente de la relación inicial de I: 1, y después de 200 períodos, el frasco es casi todo
de un color u otro. Donde el proceso de Polya lineal tiene un número infinito de
equilibrios, este proceso no lineal tiene solo tres: de estos, solo dos son estables. Sin
embargo, el sistema sigue siendo fuertemente dependiente de la trayectoria: cuál de los
dos equilibrios estables domina depende enteramente de la historia de los eventos
aleatorios a medida que el sistema evoluciona. Al igual que el proceso lineal, el sistema
se bloquea en cualquier equilibrio que reincida en el bucle positivo, según lo determine la
probabilidad de eventos desde el principio. Observe la trayectoria en la Figura 10-7
(mostrada como una línea en negrita) donde el frasco es mayormente blanco al principio,
pero debido a una serie de piedras negras, la proporción se invierte después de
aproximadamente 30 períodos. Los retrocesos positivos entonces favorecen las piedras
negras, y el frasco pronto se bloquea en el equilibrio predominantemente negro. El
bloqueo es mucho más rápido y fuerte en el sistema no lineal. En el caso lineal, el
sistema tiene estabilidad neutra: cada punto es un equilibrio y ninguno de los puntos es
mejor que otro. En el ejemplo no lineal aquí, los dos equilibrios estables son atractores
fuertes. La retroalimentación positiva continúa dominando la dinámica incluso cuando
aumenta la proporción de un color determinado. Al igual que las dos gotas de lluvia que
caen a cada lado de la división continental, las trayectorias a cada lado del punto del 50%
son atraídas en promedio hacia uno de los puntos de equilibrio estable. El frasco termina
casi todo de un color: el ganador se lleva todo.

10.3. Dependencia De La Trayectoria En La Economía: VHS Versus Betamax


Las grabadoras de videocasete (VCRS) son omnipresentes en hogares, negocios y
escuelas. Puede comprar o alquilar videos en casi todos los centros comerciales y calles
principales. La industria cinematográfica obtiene ingresos significativos de la venta de
derechos de video, y muchas películas se hacen directamente para el mercado de videos
domésticos, sin disfrutar nunca del estreno en cines. Gran parte de este éxito depende del
formato común utilizado por la gran mayoría de VCRS, conocido como VHS, que
garantiza que las máquinas fabricadas por diferentes empresas sean compatibles entre sí y
con las cintas disponibles en el mercado. ¿Cómo se convirtió el VHS en el estándar?
VHS fue en realidad un recién llegado al mercado de las videocámaras domésticas. La
tecnología de grabación de vídeo doméstico alcanzó su mayoría de edad en 1975 cuando
Sony introdujo el sistema Betamax. Ofreciendo a la gente común la oportunidad de
grabar transmisiones de televisión y reproducir películas en la comodidad de sus propios
hogares, los VCRS pronto se convirtieron en el producto de electrónica doméstica más
candente de finales de la década de 1970 y de la de Carly en la de 1980 (Figura 10-8).
Como es común en la electrónica de consumo, los mayores volúmenes de producción, los
efectos de aprendizaje y la creciente competencia llevaron a enormes caídas de precios
para los VCRS incluso cuando aumentaron sus características y funcionalidad. La
demanda se disparó. En 1994, alrededor del 85% de los hogares estadounidenses poseían
al menos un VCR, y las ventas habían alcanzado 13 millones de unidades por año solo en
los EE. UU. La adopción de VCR en Europa y el resto del mundo siguió una dinámica
similar. Cuando los VCRS estuvieron disponibles por primera vez, un uso principal fue
el "cambio de tiempo": la grabación de transmisiones para reproducirlas en un momento
más conveniente. El cambio de hora también hizo posible avanzar rápidamente a través
de los comerciales. Sin embargo, dentro de unos años. el uso principal de VCRS se
convirtió en la reproducción de cintas pregrabadas: películas, videos musicales, cintas de
ejercicios, etc. Las ventas de cintas pregrabadas en los EE. UU. Se dispararon a más de
80 millones por año en 1994, y la industria del alquiler de videos despegó (Figura 10-8).
Los datos del mercado agregado de VCR ocultan la lucha por el dominio entre los
diferentes formatos de VCR. La tecnología Betamax patentada por Sony fue la primera
tecnología de video doméstico basada en casetes que llegó al mercado, unos 18 meses
antes que su principal rival, el estándar VHS lanzado por un consorcio de Matushita, JVC
y RCA (Cusumano, Mylonadis y Rosenbloom 1992). Aunque las tecnologías Betamax y
VHS cuestan aproximadamente lo mismo, las cintas y las máquinas no eran compatibles.
Los consumidores tenían que elegir qué estándar adoptar. El atractivo de cada formato
depende de varios factores, incluido el precio, la calidad de la imagen, el tiempo de
reproducción y las características de la máquina, como la capacidad de programación, la
facilidad de uso, el tamaño y el control remoto, entre otros. El factor determinante más
importante del atractivo de un producto es la compatibilidad. Para intercambiar cintas
con sus amigos y familiares, las personas debían tener máquinas compatibles. A medida
que aumentó la base instalada de máquinas de un formato dado, aumentó el atractivo de
ese formato para nuevos compradores potenciales, lo que a su vez incrementó la cuota de
mercado de ese formato e impulsó aún más la base instalada. Aún más importante, la
gente tendía a comprar máquinas compatibles con la más amplia selección de cintas
pregrabadas. Las tiendas de alquiler de videos optaron por almacenar cintas en el
formato más común, ya que se alquilaría con más frecuencia y generaría más ganancias.
Los estudios cinematográficos, a su vez, optaron por ofrecer sus películas en el formato
compatible con la tecnología más popular y los pedidos realizados por las tiendas de
videos. Estos comentarios positivos significan que el formato con la mayor base
instalada de máquinas, en igualdad de condiciones, será el más atractivo para los
consumidores y proveedores de contenido. Sin ser controladas por otros bucles o eventos
externos, estas retroalimentaciones positivas confieren una ventaja de participación de
mercado cada vez mayor al líder, hasta que un formato domina completamente el
mercado y el otro desaparece. Como se muestra en la Figura 10.9, esto es precisamente
lo que sucedió. A fines de la década de 1970, VHS había ganado una ventaja de
participación de mercado sobre Betamax. Pronto, la mayoría de las cintas pregrabadas
también aparecieron en el formato VIS. La participación de mercado y las ventas de
VHS continuaron creciendo mientras que la participación de Betamax se redujo
constantemente.
En 1988, el triunfo de VHS fue completo. Sony se vio obligada a abandonar la
tecnología Betamax para el mercado doméstico y en 1988 anunció que cambiaría su línea
de productos al formato VHS. El fuerte efecto de la compatibilidad sobre el atractivo del
producto explica cómo VHS logró rápidamente el dominio sobre Betamax, una vez que
logró un liderazgo en la participación de mercado y en la participación de la base
instalada.
Pero la existencia de fuertes efectos de red positivos y de compatibilidad no explica cómo
VHS logró ese liderazgo por primera vez. Una mirada de cerca a los datos en la Figura
10-9 muestra que desde su introducción hasta 1980, un período de 5 años, Betamax fue el
líder en participación de mercado. Como el primer producto en el mercado, Betamax
debería haber podido utilizar la red positiva y las retroalimentaciones de compatibilidad,
junto con las curvas de aprendizaje, las economías de escala y y otras retroalimentaciones
positivas que favorecen al líder temprano, para obtener una ventaja dominante y evitar
que los participantes posteriores tengan éxito. ¿Qué sucedió? En el modelo Polya de
dependencia de la trayectoria, los eventos aleatorios al principio de la historia de un
sistema pueden inclinar el sistema hacia un resultado. Como se ve en la Figura 10-7,
estos eventos aleatorios a veces pueden revertir la proporción de piedras de colores en el
frasco. Quizás el fracaso de Beta fue solo mala suerte; tal vez el azar llevó a una serie de
eventos a favor del VHS, destruyendo el liderazgo carly de Sony. Tal explicación es
insatisfactoria. A diferencia de la selección aleatoria de piedras en el proceso Polya, los
fabricantes de productos electrónicos no arrojaron monedas para determinar qué tipo de
VCR fabricar y los clientes no hicieron girar una rueda de la fortuna para decidir qué
formato comprar. Los choques aleatorios en un sistema dependiente de la trayectoria
representan eventos fuera de los límites del modelo, es decir, aquellos eventos para los
que no tenemos una teoría causal. Un objetivo del modelado es expandir los límites de
nuestros modelos para que cada vez más variaciones inexplicables en el comportamiento
de un sistema se resuelvan en la teoría. Hay muchas teorías para explicar cómo Betamax
perdió su liderazgo inicial. Klopfenstein (1989) señala que el VHS ofrecía una
reproducción más prolongada y un tiempo récord (originalmente, el tiempo de
reproducción del VHS era de 2 horas a 1 hora para Betamax; en 1988 la proporción era
de 8 horas para VHS a 5,5 horas para Betamax). El tiempo de juego más largo,
argumenta Klopfenstein, le dio a VHS la ventaja inicial. En contraste, Arthur (1994)
argumenta que Betamax tenía una imagen más nítida que VHS y en realidad era la
tecnología superior. Una ventaja de precio de VHS temprana es otra teoría, pero los
datos que la respaldan son débiles. Los datos de precios son difíciles de obtener, pero
sugieren que, si bien las máquinas VHS eran aproximadamente un 7% más baratas que
las máquinas Betamax en 1978, en realidad fueron más caras que las máquinas Beta en
los siguientes 3 años. El precio no parece ser un factor decisivo para explicar cómo VHS
superó a Betamax.
Cusumano, Mylonadis y Rosenbloom (1992) señalan las diferentes estrategias
comerciales empleadas por Sony y Matsushita. Sony, que buscaba sacar provecho de su
tecnología patentada, se mostraba reacia a conceder licencias de Betamax a otras
empresas. Por el contrario, JVC y su matriz Matsushita buscaron agresivamente socios
entre otros fabricantes, establecieron tarifas de licencia más bajas que Sony e incluso
retrasaron la introducción de VHS hasta que ellos y sus aliados pudieran acordar
estándares técnicos comunes. Matsushita también construyó VCRS vendidos bajo la
etiqueta de otras firmas, acelerando el aumento de producción. Matsushita obtuvo así
acceso a los canales de distribución de estas empresas y también obtuvo un mayor
volumen de producción que si hubieran mantenido su tecnología en propiedad.
Consecuentemente, Matsushita disfrutó de mayores economías de escala en distribución y
producción y ganó experiencia que lo hizo descender en la curva de aprendizaje más
rápidamente. El desarrollo de la industria de las cintas pregrabadas jugó un papel clave.
Antes de 1977, la mayoría de las cintas pregrabadas estaban destinadas al sector del
entretenimiento para adultos (similar a los primeros días de la web mundial). RCA, el
cliente más grande de Matsushita en los EE. UU., Buscó impulsar el mercado de videos
para la audiencia general y, por lo tanto, las ventas de videograbadoras ofreciendo dos
cintas VHS gratuitas con cada videograbadora que vendió. RCA también alentó a
empresas como Magnetic Video a invertir en equipos VHS para suministrar cintas
pregrabadas para el mercado estadounidense. La producción a gran escala de cintas
Betamax pregrabadas se retrasó aproximadamente un año (Cusumano, Mylonadis y
Rosenbloom 1992). Observe en la Figura 10-9 que la participación de VHS en la
producción de cintas pregrabadas en realidad excede la participación de VHS en la base
instalada hasta 1983, lo que aumentó aún más el atractivo de VHS para las tiendas de
alquiler de videos y los clientes.
10.4 Retroalimentación Positiva: El Motor del Crecimiento Corporativo
Los efectos de la red y los bienes complementarios que dominaron la evolución del
mercado de VCR son sólo dos de los muchos retroalimentadores positivos que pueden
impulsar el crecimiento de una empresa. Esta sección analiza algunas de las reacciones
positivas importantes que pueden hacer que una empresa crezca. Dado que la
dependencia de la trayectoria surge cuando las retroalimentaciones positivas dominan un
sistema, la prevalencia de bucles positivos en el crecimiento empresarial significa que el
potencial de dependencia de la trayectoria en la evolución de las empresas, las industrias
y la economía en su conjunto es grande. Los diagramas a continuación presentan los
bucles en un formato muy simplificado, centrándose en las ventas de una sola empresa en
una industria. Los diagramas no muestran explícitamente a los competidores, pero todas
las empresas de un mercado en particular están vinculadas a través de la competencia por
la participación de mercado y a través de los mercados de materiales y trabajo, los
mercados financieros, las redes de distribución, los medios de comunicación y el tejido
social en general. Los diagramas también omiten las numerosas reacciones negativas que
pueden detener el crecimiento de la empresa.
10.4.1 Conocimiento del Producto
¿Cómo se enteran los clientes potenciales de los productos de una empresa? Hay cuatro
canales principales: publicidad, esfuerzo de venta directa, boca a boca y atención de los
medios. Cada uno de estos canales crea retroalimentaciones positivas (Figuras 10-10 y
10-11). En la mayoría de las empresas, el presupuesto de publicidad (anuncios de apoyo,
ferias comerciales y similares) crece aproximadamente a medida que la empresa y los
ingresos crecen. Los presupuestos publicitarios más grandes tienen dos efectos: (1) más
clientes potenciales conocen el producto y eligen ingresar al mercado (bucle R1); (2) en
la medida en que la publicidad sea efectiva, es probable que más personas que estén al
tanto y en el mercado compren el producto ofrecido por la empresa (R2). Del mismo
modo, cuanto mayores son los ingresos de la empresa, mayor es el presupuesto de ventas.
Cuantos más representantes de ventas y mayor sea su habilidad y experiencia, más
llamadas pueden hacer, más tiempo pueden pasar con los clientes y más efectivas serán
sus llamadas, aumentando tanto la demanda total de la industria (R3) y la participación de
la demanda total ganada por la empresa (R4). Mientras que una empresa controla sus
presupuestos de publicidad y ventas, el boca a boca y la atención de los medios están en
gran parte fuera del control directo de la empresa (Figura 10-11). A medida que las
ventas aumentan la base instalada y el número de clientes que tienen experiencia con el
producto mayor, el boca a boca favorable aumenta la conciencia, incrementa la demanda
total (R5) y también persuade a más personas para que compren los productos de la firma
(R6). Un producto o empresa de moda también atraerá la atención de los medios, lo que,
si es favorable, estimula una mayor conciencia y aumenta aún más la cuota de mercado
(R7-9). Existen muchos procesos mediante los cuales una empresa o producto puede
volverse popular (popular) y atraer la atención de los medios no solicitada. El boca a
boca muy favorable puede estimular la cobertura de los medios, especialmente para
productos altamente innovadores
FIGURA 10-10 La publicidad y las ventas directas generan conciencia sobre el producto.
FIGURA 10-11 Cómo la palabra de boca y los informes de los medios de comunicación
crean un producto caliente.

que se ven bien en televisión. El rápido crecimiento de las ventas, los ingresos, las
ganancias o el precio de las acciones también puede atraer la atención de los medios y
convertir el producto en un fenómeno social. Amazon.com ofrece un ejemplo destacado
de finales de la década de 1990. La escasez de productos, y el aumento de precios, la
especulación y los disturbios que pueden crear, también atraen la atención de los medios.
La escasez es especialmente importante para crear la impresión de que un producto está
de moda por bienes de consumo como juguetes (ejemplos recientes incluyen Beanie
Babies y Furbies). Las imágenes de compradores frenéticos pisoteándose unos a otros
para conseguir el último Tickle Me Elmo la semana antes de Navidad pueden multiplicar
las multitudes en el centro comercial de manera exponencial. La fuerza de estos bucles
depende, por supuesto, del atractivo del producto; un producto excelente ofrecido a buen
precio será más fácil de vender y generará un boca a boca más favorable que un producto
de mala calidad y sobrevalorado. Cuál de estos canales de conciencia domina depende
del producto y del mercado en particular, y no todas las empresas utilizan los tres canales.
Las cadenas de comida rápida no tienen una fuerza de ventas directa y, en cambio,
dependen de la publicidad (y del boca a boca): los fabricantes de herramientas
especializadas enfocan sus recursos en el esfuerzo de ventas directas y publicitan mucho
menos. Los retrasos en el tiempo y la estructura de existencias y flujos de estos cuatro
canales de conciencia también difieren. Las demoras en iniciar y detener campañas
publicitarias son breves en relación con la creación de una fuerza de ventas competente y
capacitada. El boca a boca es débil cuando se lanza por primera vez un nuevo producto,
pero puede crecer rápidamente y dominar los…
FIGURA 10-12 Distribución de costos fijos en volumen más grande, precio más bajo y
volúmenes más grandes.

fuentes de información disponibles para el mercado, ya que el foco de luz de diámetro


base instalado tiende a arder muy brillante por un corto tiempo, luego se desvanece a
medida que la atención de los editores y la audiencia pasa al siguiente objeto de deseo.
Además, mientras que la fuerza de los bucles de publicidad y ventas directas están bajo el
control directo de la empresa, el boca a boca y los bucles de los medios no lo están. El
boca a boca (favorable y desfavorable) es difícil de controlar para una empresa, aunque
las empresas pueden estimular la comunicación entre clientes actuales y potenciales
patrocinando grupos de usuarios y conferencias y contratando líderes de opinión como
portavoces. De manera similar, aunque muchas empresas hoy en día son altamente
calificadas en las relaciones con los medios, no existe una manera segura de hacer que su
producto aparezca en un programa de revistas de la red o en una lista de sitios web
populares.
10.4.2 Costos de desarrollo unitarios
Muchos productos y servicios implican considerables costos iniciales de desarrollo y
adquisición de capacidad. Cuanto mayor sean las ventas de por vida esperadas del
producto, menor será el precio fijo por unidad, y el precio más bajo puede ser mientras se
logra el retorno de la inversión requerido (Figura 10-12). Los precios más bajos estimulan
la demanda de la industria (R10) y conducen a una mayor participación de ese total
(R11), impulsando las ventas y reduciendo aún más los costos fijos por unidad.
Cuanto mayor sean los costos iniciales del desarrollo de productos y la capacidad de
producción, más fuertes serán estos bucles. En un trabajo intensivo y en materiales como
la agricultura de subsistencia, los costos fijos son pequeños. En las industrias intensivas
en tecnología y conocimiento que implican un esfuerzo significativo en el desarrollo de
productos, se incurre en casi todos los costos antes de la producción de la primera unidad.
Desarrollar un nuevo automóvil o avión comercial cuesta varios miles de millones de
dólares; Todos los costos de diseño y desarrollo y todos los costos de capacidad,
herramientas, capacitación y mercadeo deben ser asumidos antes de que el trabajo uno
salga de la línea. Hay un dicho en la industria de los semiconductores que dice que
fabricar el primer chip cuesta unos pocos miles de millones, pero que el resto es gratis. El
desarrollo de software es el caso paradigmático: a medida que Internet se expande, el
costo marginal de distribución se acerca rápidamente a cero, mientras que los costos
iniciales de desarrollo aumentan.
Las industrias que impulsan la economía mundial se basan cada vez más en el
conocimiento y los costos iniciales capturan una parte cada vez mayor de los costos
totales de producción. En un mundo dominado por estos bucles positivos, las reglas
generales tradicionales para la fijación de precios ya no se aplican. Tenga en cuenta cómo
el costo fijo por unidad depende del volumen esperado. Cuando estos bucles dominan la
dinámica, las expectativas sobre el volumen de vida útil pueden ser muy autocumplidas.
Imagine dos empresas con costos idénticos lanzando productos idénticos al mismo
tiempo. Uno espera ganar aproximadamente la mitad de mercado y estima el potencial
del mercado de forma conservadora, creyendo que puede bajar los precios a medida que
aumenta el volumen. El otro espera ganar la participación dominante del mercado y cree
que los precios más bajos expandirán en gran medida la demanda total de la categoría.
Por lo tanto, la empresa agresiva fija precios mucho más bajos que la empresa
conservadora e incluso podría vender inicialmente con pérdidas. La empresa agresiva
gana la mayor parte del mercado, lo que le permite bajar los precios aún más, mientras
que la empresa conservadora encuentra que las ventas de su producto son decepcionantes.
Las expectativas de ambas empresas se cumplen y sus modelos mentales se refuerzan: la
empresa agresiva aprende que la fijación de precios bajos, incluso por debajo de los
costos unitarios actuales, puede conducir a un dominio del mercado y enormes ganancias,
mientras que los gerentes de la firma conservadora aprenden a ser aún más cautelosos
acerca de proyectar ventas; un ejemplo clásico de una profecía autocumplida (Merton
1948/1968).
Aunque no se muestra en el diagrama, las expectativas de volumen de por vida pueden
depender no sólo en las ventas actuales, sino también en las previsiones de la demanda
potencial de la industria, el mercado la investigación y el conocimiento sobre el
desarrollo de bienes complementarios. Muchas de estas otras posibles entradas a la
creencia de una empresa sobre el potencial del mercado también cerrar bucles positivos.
Los pronósticos de ventas de software aumentan a medida que los avances técnicos en
informática el hardware conduce a computadoras más rápidas y baratas; precios de
software más bajos, a su vez, estimular la demanda de hardware que ayude a hacer
realidad esa creencia.
10.4.3. Precio y Costo de Producción
Distribuir los costos iniciales de desarrollo en un volumen mayor no es la única forma de
reducir los costos unitarios. La figura 10-13 muestra los bucles positivos creados por las
economías de escala en la producción, las economías de alcance, las curvas de
aprendizaje y la innovación de procesos.

Las economías de escala difieren de los ciclos de costos de desarrollo discutidos


anteriormente. En muchas industrias, los costos unitarios caen a medida que aumenta la
escala de producción (al menos hasta cierto punto). Las fábricas de papel, las refinerías
de petróleo y las centrales térmicas más grandes suelen ser más eficientes que las más
pequeñas. Hay razones tanto termodinámicas como organizativas. Las calderas más
grandes (por ejemplo, en una central eléctrica de carbón) tienen una mayor relación de
volumen a área de superficie y, por lo tanto, mayor eficiencia térmica. Además, cada
fábrica de papel, refinería de petróleo y planta de energía requiere instrumentación,
sistemas de seguridad, capacidad logística para manejar materiales entrantes y salientes, y
otros f. ies; de manera similar, todas las empresas deben tener una cierta cantidad mínima
de personal administrativo y gastos generales. El costo de estas actividades generalmente
no aumenta tan rápidamente como el volumen de producción, por lo que las empresas
pueden bajar los precios a medida que crecen, lo que crea oportunidades para aumentar
aún más la escala de las operaciones (R12).

La oportunidad de realizar tales economías de escala mediante la consolidación de


funciones generales, administrativas y generales es un poderoso impulsor de fusiones y
adquisiciones (ver sección 10.4.8). Otra poderosa fuente de economías de escala surge de
la división del trabajo. Las organizaciones más grandes pueden permitirse dividir el
trabajo en tareas cada vez más especializadas. Ha sido observada durante mucho tiempo
(al menos desde la famosa discusión de Adam Smith sobre una fábrica de alfileres en The
Wealth of Nations) que la división del trabajo aumenta la productividad individual y
conduce a costos unitarios más bajos (ver sección 10.5).

Las economías de alcance (R13) surgen cuando una empresa puede compartir capacidad,
mano de obra, conocimientos técnicos y otros recursos entre múltiples líneas de
productos y unidades de negocio. Las empresas de televisión por cable pueden ofrecer
acceso a Internet de alta velocidad utilizando la misma red de cable con bajos costos de
capital incrementales. Los centros comerciales y los llamados asesinos de categoría en
suministros de oficina, juguetes, hardware y otros mercados minoristas redujeron
drásticamente los costos unitarios al ofrecer una amplia gama de productos bajo un techo
muy grande. Estos minoristas de "caja grande" también redujeron los costos de búsqueda
de sus clientes al ofrecerles una ventanilla única justo al lado de la autopista, lo que
aumentó el atractivo del producto y la participación de mercado a expensas de las tiendas
más pequeñas de Main Street ".
Las curvas de aprendizaje también crean bucles positivos que favorecen a la empresa
líder. Las curvas de aprendizaje (o experiencia) se han documentado en una amplia gama
de industrias, desde aviones comerciales hasta pollos de engorde (Teplitz 1991). La curva
de aprendizaje surge cuando los trabajadores y las empresas aprenden de la experiencia.
A medida que aumenta la experiencia, los trabajadores encuentran formas de trabajar más
rápido y reducir los errores. Por lo general, los costos unitarios de producción caen en un
porcentaje fijo cada vez que se duplica la experiencia de producción acumulada”. Por
ejemplo, los costos pueden caer un 30% con cada duplicación de la producción
acumulada. Las curvas de aprendizaje con una mejora del 10-30% por duplicación de
experiencia son típicas en muchas industrias. Los costos unitarios más bajos permiten
precios más bajos, aumentando tanto la participación de mercado como la demanda de la
industria (R14) e impulsando aún más las ventas.
Finalmente, cuanto más grande es la empresa, mayor es su inversión en investigación y
desarrollo, lo que lleva a innovaciones de proceso que reducen los costos (R15). Dicha
investigación puede incluir el desarrollo de herramientas más altamente automatizadas,
máquinas más confiables y un diseño de planta más eficiente. También puede incluir
capacitación en técnicas de mejora de procesos, como la gestión de la calidad total, que
mejoran la capacidad de los trabajadores para detectar y corregir las fuentes de defectos,
lo que aumenta la productividad y reduce los costos.
Los retrasos y la estructura de stock y flujo de las economías de escala y alcance difieren
de las curvas de aprendizaje y la mejora de procesos. Las economías de escala y alcance
dependen del volumen actual de ventas y la amplitud de las actividades de la empresa.
Una adquisición, por ejemplo, puede impulsar rápidamente la escala y el alcance. De
manera similar, si la empresa se contrae, sus economías de escala y alcance se pierden
rápidamente y las retroalimentaciones positivas se invierten, lo que acelera la
disminución del atractivo de la empresa. El aprendizaje práctico, la I + D y los resultados
de la mejora de procesos están integrados en el capital social, el conocimiento de los
trabajadores y las rutinas de la organización. Son más lentos de desarrollar. Y si las
ventas bajan, la experiencia acumulada y la productividad del proceso tienden a persistir,
decayendo mucho más lentamente (aunque, sin duda, los conocimientos y la experiencia
a menudo se pierden, dependiendo de cómo se reduzca la empresa).
10.4.4 Efectos de Red y Bienes Complementarios
Como lo ilustra la industria de VCR, la utilidad de un producto a menudo depende de
cuántos otros también lo estén usando (el efecto de red; R16 en la Figura 10-14) y de la
disponibilidad de productos compatibles para usar con él (el efecto del bien
complementario; R17).
La compatibilidad y los efectos de red aumentan el atractivo del producto y, por lo tanto,
expanden el tamaño total del mercado (al igual que el crecimiento de Internet hizo que la
propiedad de computadoras fuera más atractiva, lo que llevó a más personas a usar
Internet). Estos bucles tienden a favorecer al líder en participación de mercado dentro de
una industria, asumiendo que los productos de la competencia son incompatibles.
Además de las videograbadoras, el ejemplo clásico de estos bucles en las décadas de
1980 y 1990 fue la batalla por el control de los sistemas operativos de las computadoras
personales, particularmente el eclipse de la arquitectura Macintosh técnicamente superior
por parte de la plataforma Wintel.
Al igual que en el caso de los costos fijos (sección 10.4.2), la decisión de terceros de
producir bienes complementarios para un producto en particular depende de su
expectativa del potencial de mercado y, por lo tanto, de la rentabilidad esperada de esa
plataforma. Las empresas pueden moldear esas expectativas de diversas formas, incluido
el intercambio temprano de especificaciones técnicas con posibles desarrolladores
externos y los subsidios para la adopción de la plataforma.

Otras estrategias incluyen consorcios y empresas conjuntas con terceros (por ejemplo, la
formación por parte de Matsushita del consorcio VHS), la expansión horizontal y vertical
en los mercados de productos complementarios (por ejemplo, la compra de estudios
cinematográficos por parte de Sony para controlar el contenido y los medios de sus
productos de hardware). , o la compra de Lotus por parte de IBM), y distribución gratuita
de bienes complementarios (por ejemplo, la decisión de Netscape de regalar su navegador
web para estimular las ventas de su software de servidor, una estrategia que pronto imitó
Microsoft). En la industria del software, algunas empresas programan estratégicamente el
anuncio de nuevos productos para adelantarse a sus rivales e influir en los desarrolladores
externos, a veces incluso anunciando la disponibilidad cercana de una vaporera
(productos que aún no existen ni siquiera en forma de prototipo). Cuando la red y los
circuitos de bienes complementarios son fuertes, las expectativas sobre qué plataforma
triunfará en última instancia pueden ser muy autocumplidas.
10.4.5 Diferenciación de Productos
Otro conjunto de retroalimentaciones positivas surge de la capacidad de las empresas
para invertir en la diferenciación de productos (Figura 10-15). A medida que las empresas
crecen, pueden invertir más en actividades que mejoren el atractivo de sus productos para
los clientes. La mayoría de los productos se pueden diferenciar de los de la competencia
mediante características mejoradas, funcionalidad, diseño, calidad, confiabilidad e
idoneidad para las necesidades actuales y latentes de los clientes.

Las empresas también pueden invertir en un servicio superior y una infraestructura de


atención al cliente. En la medida en que estas inversiones aumenten el atractivo de los
productos a los ojos de los clientes, la empresa puede ganar participación de mercado,
aumentando los ingresos y permitiendo aún más inversiones en diferenciación (R18). Los
productos más capaces y útiles también aumentan la demanda total (R19). Por último, las
empresas que ofrecen productos claramente superiores a menudo pueden cobrar un
sobreprecio sin interrumpir el crecimiento. Los mayores márgenes posibilitados por tal
sobreprecio permiten a la empresa incrementar aún más su inversión en diferenciación
(R20).
Muchas empresas de alta tecnología participan en una carrera tecnológica en la que la
competencia se centra principalmente en la introducción más temprana del producto más
rápido y potente con la mayor cantidad de funciones. Pero la diferenciación no tiene por
qué centrarse en la tecnología y las características del producto. IBM siguió con éxito la
estrategia de diferenciación durante décadas y dominó la industria de las computadoras
desde sus inicios hasta la revolución de las computadoras personales en la década de
1980. Sin embargo, las inversiones en diferenciación de IBM se centraron en la
confiabilidad del producto y especialmente en el servicio y soporte al cliente. Tom
Watson, Jr., al igual que su padre, comprendió que el factor determinante más importante
del atractivo de un producto para su mercado central —los mandos intermedios en las
grandes corporaciones— era la tranquilidad. Especialmente cuando las computadoras y el
procesamiento de datos eran novedosos, en las décadas de 1950 y 1960, estas
organizaciones se mostraban reacias a invertir en informática a menos que estuvieran
seguras de que sería altamente confiable y que cuando algo salía mal podían arreglarlo
rápidamente.

IBM centró su estrategia de diferenciación en la calidad y confiabilidad del producto,


creando la organización de ventas y servicios más grande y receptiva del negocio. Su
éxito no solo le permitió ganar participación de mercado y aumentar el tamaño del
mercado de procesamiento de datos, sino también cobrar los precios más altos de la
industria. Otras empresas entraron en el negocio de mainframe, algunas creadas por
antiguos miembros de IBM (por ejemplo, Amdahl), pero nunca pudieron ganar mucha
participación de mercado, a pesar de que ofrecían precios más bajos por máquinas de
rendimiento comparable. IBM mantuvo su dominio de la industria de mainframe
invirtiendo continuamente grandes sumas en un mayor desarrollo y articulación de su
infraestructura de servicio y soporte, incluso mientras generaba un fuerte crecimiento de
las ganancias para sus accionistas. Por supuesto, si bien la estrategia de diferenciación de
IBM tuvo un éxito espectacular durante décadas, todos los bucles positivos
eventualmente encuentran límites, y la empresa tropezó gravemente en la década de 1980
cuando no pudo anticipar los cambios fundamentales en la industria de las computadoras
causados por la revolución de los microprocesadores y las computadoras personales.
10.4.6 Desarrollo de Nuevos Productos
El desarrollo de productos completamente nuevos es un motor central de crecimiento
para muchas empresas (Figura 10-16). Cuantos mayores sean los ingresos de una
empresa, mayor y más eficaz puede ser el esfuerzo de desarrollo de nuevos productos.
Los nuevos productos crean una nueva demanda, aumentando los ingresos y aumentando
aún más la inversión en el desarrollo de nuevos productos (R21). Y así como la
diferenciación permite a las empresas cobrar precios más altos, las empresas que traen
productos novedosos e importantes al mercado a menudo pueden imponer un sobreprecio
hasta que llegan los imitadores. Los precios más altos aumentan aún más los recursos
disponibles para financiar el desarrollo de más productos nuevos (R22), por lo que la
empresa puede mantenerse por delante de sus competidores.
Intel ha utilizado con éxito estos circuitos de desarrollo de nuevos productos para
defenderse de la competencia de los fabricantes de clones como AMD y Cyrix, que
desarrollan chips compatibles, pero más baratos que los de Intel. Intel invierte alrededor
del 10% de sus ingresos en I + D (más de $ 2,3 mil millones en 1997), lo que le permite
ofrecer el chip más rápido y compatible con PC en cualquier momento y conduce a un
mayor crecimiento de las ventas y más I + D. Los usuarios de computadoras hambrientos
de energía están dispuestos a pagar una prima sustancial por el chip más reciente, más
rápido y más poderoso.
Las empresas que más se benefician de los nuevos usos, las nuevas necesidades y los
bucles de primas de precios son las que mejor pueden identificar las necesidades latentes
de los clientes potenciales. Entienden lo que las personas aún no saben que quieren o
crean una necesidad que las personas no tenían antes, y luego lanzan al mercado
productos que satisfacen esas necesidades de manera rápida, efectiva y a bajo costo. La
capacidad para hacerlo no es simplemente una cuestión del presupuesto de I + D, sino
que depende del tamaño de la base instalada de usuarios y de la capacidad de la empresa
para recopilar y actuar sobre sus sugerencias. Es una competencia construida a lo largo
del tiempo a través de la experiencia y mediante la inversión en la mejora del proceso de
desarrollo de productos.
La fuerza de estos bucles también depende de la capacidad de proteger nuevos productos
innovadores de la imitación de los competidores. Las patentes ofrecen un método obvio
para proteger tales innovaciones y son fundamentales para el éxito de los ciclos de
desarrollo de nuevos productos en la industria farmacéutica, entre otros. Sin embargo, es
más importante la capacidad de debilitar la capacidad de los competidores para utilizar
los mismos bucles. Intel no solo cobra un sobreprecio por su último y más rápido chip,
sino que también utiliza los márgenes de estos chips de primera línea para reducir los
precios de los procesadores más antiguos a medida que, o incluso antes, los fabricantes de
clones llevan sus chips al mercado. Al reducir los precios de los chips más antiguos, Intel
limita los márgenes de los fabricantes de clones, lo que debilita su capacidad para utilizar
los circuitos de diferenciación positiva para erosionar el liderazgo de Intel.
10.4.7. El Poder del Mercado
Cuanto más grande es una empresa, más influencia tiene entre sus proveedores,
trabajadores y clientes. Este poder de monopolio anticuado permite a las empresas reducir
sus costos unitarios y sus precios, lo que lleva a una mayor participación de mercado y
ventas y aún más poder de negociación (R23-25 en la Figura 10-17).
Los beneficios del poder de monopolio no se reflejan solo en los costos unitarios de la
empresa. Los proveedores darán, o se verán obligados a dar, un trato preferencial a sus
grandes clientes en cuanto a plazos de entrega y cronogramas de pago, compartirán
conocimientos técnicos, responderán a las solicitudes de cambio de los clientes y
realizarán otras adaptaciones que den a la empresa una ventaja sobre sus rivales más
pequeños. que obtienen la peor parte en términos de atención y recursos del proveedor.
Para las empresas más pequeñas, los bucles positivos actúan como círculos viciosos. Las
grandes empresas a menudo pueden recibir un trato preferencial de sus canales de
distribución y clientes, como, por ejemplo, cuando las grandes empresas de productos de
consumo exigen el mejor espacio en las estanterías de los puntos de venta minorista.

De manera similar, cuanto mayor sea la participación de una empresa en el total de


empleos en una comunidad, menos oportunidades de empleo alternativo hay, por lo que
la rotación laboral puede disminuir, reduciendo los costos de capacitación. Las empresas
cuyos trabajadores no tienen fuentes alternativas de empleo no solo pueden pagar salarios
y beneficios más bajos, sino que también pueden ahorrar dinero escatimando inversiones
en salud y seguridad de los trabajadores. Los talleres clandestinos son demasiado
comunes en muchas industrias, incluida la industria de la confección, y no solo en las
plantas de zapatillas de Indonesia. La ciudad empresarial del siglo XIX fue la máxima
expresión de este proceso, donde, por ejemplo, una empresa siderúrgica o minera no solo
pagaba salarios bajos, sino que también era dueña de todas las viviendas y tiendas y
cobraba alquileres y precios exorbitantes. Los trabajadores a menudo se endeudaban
profundamente, atrapándolos en lo que equivalía a esclavitud de facto. Estas empresas
dominantes también utilizaron el beneficio adicional generado por su poder sobre los
trabajadores para contratar a Pinkerton y otras fuerzas de seguridad privadas para
reprimir los esfuerzos de organización o huelga (una estrategia que Andrew Carnegie
empleó eficazmente en sus acerías de Pittsburgh). Estas prácticas todavía existen hoy, en
la industria de la caña de azúcar, por ejemplo. Las grandes empresas también tienen los
recursos para importar trabajadores de otras regiones para garantizar el equilibrio de la
oferta y la demanda en el mercado laboral sigue favoreciendo al empleador, incluso a
medida que la empresa crece. En el siglo XIX, los barones ladrones llevaron trabajadores
chinos al oeste americano para mantener bajos los salarios mientras construían los
ferrocarriles; Hoy en día, las grandes empresas agrícolas importan trabajadores para
cosechar cultivos con bajos salarios.
10.4.8 Fusiones y Adquisiciones
El crecimiento puede ser impulsado por adquisiciones de empresas rivales (expansión
horizontal) y de proveedores y clientes (integración vertical). Cuanto más grande sea una
empresa, más capital puede recaudar para financiar fusiones y adquisiciones. Si las
adquisiciones consolidan la posición dominante de la empresa, las ganancias pueden
aumentar mediante el ejercicio del poder de monopolio sobre la mano de obra, los
proveedores y los clientes, lo que permite a la empresa comprar aún más de sus rivales
(R26 en la Figura 10-18). Si la integración vertical permite a la empresa reducir sus
costos, puede ganar más participación de mercado y estimular la demanda de la industria
y crecer aún más (R27). Las adquisiciones también pueden mejorar las economías de
escala y alcance o permitir que las empresas garanticen un flujo constante de productos
complementarios (secciones 10.4.3 y 10.4.4), un proceso importante en la convergencia
de las industrias del cine, la televisión, el entretenimiento y las noticias.
La compra de Disney de Capital Cities / ABC a mediados de la década de 1990 brindó a
ABC acceso a contenido para su programación de entretenimiento y, al mismo tiempo, le
dio a Disney acceso a las noticias y programas de revistas de ABC para comercializar sus
productos, junto con una red de estaciones de televisión para transmitir sus programas.
películas, videos y promociones especiales.

Por supuesto, la sinergia que a menudo se promociona como el fundamento de las


fusiones puede ser difícil de alcanzar. Muchas adquisiciones no logran reducir los costos
unitarios, estimular las economías de alcance o generar un poder de monopolio. Los
bucles negativos que surgen de culturas corporativas incompatibles, la sobre
centralización o la pérdida de enfoque pueden diluir las ganancias de la empresa
combinada y, en última instancia, llevar a la desinversión de las unidades comerciales
dispares.
La consolidación del dominio del mercado a través de la adquisición de rivales más
débiles ha sido durante mucho tiempo una estrategia común, más famosa a fines del siglo
XIX y principios del XX por los grandes fideicomisos como US Steel, Consolidated
Tobacco, Amalgamated Copper, American Smelting and Refining, Northern Valores y,
por supuesto, Standard Oil. En 1909, según la Oficina del Censo, el 44% de todos los
bienes en los EE. UU. Fueron fabricados por solo el 1% de las empresas industriales.
Muchos de ellos controlaban más de la mitad del mercado total en sus industrias. El ritmo
de fusión, adquisición,y la consolidación a fines del siglo XIX se superó solo en las
décadas de 1980 y 1990.El surgimiento de los fideicomisos a fines del siglo XIX provocó
una reacción violenta en la forma de la ley antimonopolio Sherman y los cazadores de
confianza como Teddy Roosevelt (ver, por ejemplo, Mowry 1958). Queda por ver si estas
mismas reacciones negativas surgirán una vez más en respuesta a la creciente
consolidación del poder de mercado en la economía mundial actual.
10.4.9 Calidad y Lealtad de la Fuerza Laboral
La capacidad de una empresa para ofrecer productos y servicios superiores depende del
compromiso, la habilidad, la experiencia y la calidad de sus empleados. Cuanto más
rentable sea una empresa, mayores serán los salarios y los beneficios que puede pagar
para contratar y retener a los mejores y más brillantes (R28 en la Figura 10-19). Y cuanto
más rápido crece una empresa, mayores son las oportunidades profesionales y la
seguridad laboral para los empleados (R29).

La fuerza del ciclo de la prima salarial ha aumentado considerablemente en los últimos


años a medida que las empresas, especialmente las empresas con brillantes perspectivas
de crecimiento, han recurrido cada vez más a las opciones sobre acciones como forma de
compensación. Los empleados cuya compensación está vinculada a la participación en las
ganancias o las acciones de la empresa a menudo trabajan más duro y durante más tiempo
que aquellos con un salario normal. Las opciones sobre acciones, las bonificaciones y la
participación en las ganancias permiten a las empresas contratar personas altamente
calificadas al tiempo que reducen los salarios base, liberando recursos adicionales que
pueden invertirse en fortalecer otras retroalimentaciones que impulsan el crecimiento,
como el desarrollo, la diferenciación o las adquisiciones de nuevos productos. A medida
que el crecimiento se acelera y el precio de las acciones se dispara, la empresa puede
pagar a la gente incluso menos por adelantado.
Las retroalimentaciones positivas en la Figura 10-19 son altamente no lineales. Se
necesitan muchos años para construir una fuerza laboral leal, capacitada y de alta calidad,
pero una empresa puede destruir esa capacidad muy rápidamente. Cuando el crecimiento
se estanca o la empresa se reduce, las oportunidades de avance y promoción desaparecen
rápidamente. Los mejores y más capaces son los primeros en irse, ya que tienen las
perspectivas más brillantes y las mejores oportunidades externas. La pérdida de estos
empleados por encima del promedio erosiona aún más la capacidad de la empresa para
ofrecer productos o servicios atractivos, lo que lleva a una mayor reducción y desgaste en
un círculo vicioso. Las empresas que dependen en gran medida de las opciones sobre
acciones son especialmente vulnerables a una desaceleración. Si las perspectivas de
crecimiento de la empresa se atenúan y el precio / ganancias cae, las opciones de las
personas pueden volverse inútiles, lo que lleva a demandas de una compensación en
efectivo más alta que roba los recursos necesarios para promover el crecimiento justo
cuando más se necesitan. Estos bucles positivos pueden acelerar la implosión de una
organización en declive.

IBM nuevamente proporciona un ejemplo. Durante décadas, el éxito de IBM le permitió


ofrecer excelentes salarios y beneficios, empleo de por vida de facto y excelentes
oportunidades de promoción. En consecuencia, la firma pudo reclutar lo mejor de la
cosecha y sus empleados fueron reconocidos por su lealtad y compromiso, cualidades que
fortalecieron en gran medida la capacidad de IBM para brindar el servicio y soporte que
sus clientes requerían. Cuando el auge de la computadora personal destruyó la industria
de mainframe y el crecimiento se estancó, las oportunidades de promoción se agotaron.
La contratación se desplomó. La empresa tuvo mucho menos éxito a la hora de atraer a
los mejores candidatos para los pocos trabajos nuevos que ofrecía. En un intento por
preservar la práctica de décadas de no despido, hubo varios programas de jubilación
anticipada, durante los cuales muchas personas importantes se fueron en busca de pastos
más verdes; sus salidas erosionaron aún más las capacidades de la organización. Incluso
estos generosos programas resultaron inadecuados y pronto comenzaron los despidos y
reorganizaciones masivas. La moral se hundió aún más y la productividad se deterioró a
medida que los empleados y gerentes trabajaban para proteger su trabajo o encontrar uno
nuevo, dejando menos tiempo y energía para el negocio ". La pérdida de lealtad,
experiencia y habilidad profundizó y prolongó la crisis.

10.4.10 El Costo del Capital


El crecimiento rentable conduce a mayores expectativas de ganancias futuras y un mayor
valor de mercado para la empresa. Cuanto mayor sea el valor de mercado y el precio de
las acciones, menor será el costo de obtener nuevo capital a través del mercado de valores
(Figura 10-20). De manera similar, aunque no se muestra en la figura, cuanto mayores
son las ganancias y el flujo de efectivo de una empresa y el valor de mercado más alto en
relación con el valor en libros, menor es el riesgo de incumplimiento, por lo que menor es
el costo de la deuda a medida que cae la prima sobre la tasa de interés preferencial. .
Cuanto menor sea el costo de capital, menores serán los costos de desarrollo y producción
de la empresa. Los costos más bajos aumentan aún más las ganancias y el flujo de caja, lo
que lleva a un valor de mercado aún más alto y un costo de capital aún más bajo (R30). A
medida que los costos unitarios más bajos permiten precios más bajos mientras se
mantienen márgenes de beneficio saludables, la participación de mercado y la demanda
de la industria aumentan, lo que lleva a un valor de mercado aún mayor y reduce aún más
el costo de capital (R31). Un menor costo de capital también permite a la empresa
aumentar su inversión en capacidad, I + D y desarrollo de nuevos productos,
infraestructura de servicio y soporte, recursos humanos, adquisiciones y otros recursos
que fortalecen los aspectos de las retroalimentaciones positivas que impulsan el
crecimiento (R32). Finalmente, a medida que los mercados de capitales respondan a la
mayor tasa de crecimiento de la empresa aumentando las expectativas de ganancias
futuras, el valor de mercado aumentará aún más, reduciendo aún más el costo de capital
(R33).

Estos bucles suelen ser bastante poderosos para las empresas de alta tecnología en rápido
crecimiento. Las ofertas públicas iniciales (OPI) de empresas de Internet a mediados de la
década de 1990 proporcionan un ejemplo. Muchas de estas empresas pudieron obtener un
capital sustancial a un costo relativamente bajo (es decir, vendiendo solo una pequeña
fracción de su capital) en relación con el riesgo, aunque muchas nunca habían ganado
dinero. Entre las empresas más establecidas que disfrutan de un rápido crecimiento,
muchas no pueden pagar dividendos, ya que los inversores prefieren dejar que la empresa
reinvierta sus ganancias en un crecimiento adicional.
Debido a que el valor de mercado de una empresa es bastante sensible a las ganancias
recientes y especialmente a las tasas de crecimiento, la fuerza de estos bucles puede
cambiar rápidamente. Una caída en las expectativas de crecimiento por cualquier motivo
(una desaceleración de las ventas, la entrada de un competidor fuerte al mercado) puede
reducir rápidamente el valor de mercado, bloqueando efectivamente a la empresa del
mercado de valores para obtener nuevo capital. A medida que el valor de mercado y el
flujo de efectivo caen en relación con las obligaciones actuales, aumenta el riesgo
percibido de deuda y el mercado de bonos requerirá una prima de riesgo más alta en
cualquier nuevo endeudamiento. Mientras estos bucles pueden dar a una empresa sana y
en crecimiento una ventaja aún mayor sobre sus rivales de crecimiento más lento y menos
rentables, pueden convertirse rápidamente en una espiral de muerte para una organización
en dificultades financieras.

10.4.11 Las Reglas del Juego


Cuanto más grande y exitosa sea una organización, más puede influir en el contexto
institucional y político en el que opera. Las grandes organizaciones pueden cambiar las
reglas del juego a su favor, conduciendo a más éxito y más poder. La figura 10-21
muestra el ciclo de regla de oro resultante R34. El bucle de tule dorado se manifiesta de
muchas formas. A través de contribuciones de campaña y cabildeo, las grandes empresas
y sus asociaciones comerciales pueden dar forma a la legislación y las políticas públicas
para otorgarles un trato fiscal favorable, subsidios para sus actividades, protección para
sus mercados, garantías de precios y exenciones de responsabilidad. A través de juntas
superpuestas, la puerta giratoria entre la industria y el gobierno y el control de los medios
de comunicación, las organizaciones influyentes y poderosas obtienen aún más influencia
y poder. En naciones sin una tradición de gobierno democrático, estos circuitos conducen
a oligarquías que se perpetúan a sí mismas, donde una élite muy unida controla una gran
parte de la riqueza y los ingresos de la nación mientras que la gran mayoría de la gente
permanece empobrecida (por ejemplo, Filipinas bajo Marcos, Indonesia bajo Suharto y
muchos otros). La élite se consolida aún más en el control subvencionando a la policía
militar y secreta y comprando armamento de alta tecnología y asistencia técnica del
mundo desarrollado para mantener a raya a las masas inquietas. Incluso en naciones con
fuertes tradiciones democráticas, estos circuitos positivos pueden superar los controles y
equilibrios diseñados para garantizar el gobierno de, por y para el pueblo.

10.4.12 Ambición y Aspiraciones


Otra poderosa retroalimentación positiva surge de las aspiraciones y ambiciones de los
fundadores y líderes de una empresa (Figura 10-22). Todas las organizaciones deben
elegir si comerse su semilla de maíz o plantarlo para buscar una cosecha aún mayor la
próxima temporada: las empresas pueden pagar sus ganancias a los accionistas en forma
de dividendos, o pueden invertir en un mayor crecimiento de la empresa. El curso que
tomen depende de sus aspiraciones de crecimiento. Las propias aspiraciones de
crecimiento suelen ser flexibles y se adaptan a los logros reales (véase el capítulo 13;
Cyert y marzo de 1963/1992; Forrester 1975b; Lant 1992).

Al revisar constantemente las aspiraciones hacia arriba, el liderazgo de una organización


puede crear una presión perpetua para lograr mayores logros. Muchos altos directivos
creen que la forma correcta de motivar a sus tropas es estableciendo objetivos ambiciosos
agresivos, metas que están muy por encima de los logros actuales (p. Ej., El concepto de
estrategia de Hamel y Prahalad de 1993 como estiramiento). A medida que la
organización responde y los logros reales aumentan, el listón se eleva aún más. Por lo
tanto, a las unidades de negocios se les asignan a menudo metas agresivas de crecimiento
de ganancias y ventas para el próximo año fiscal. Estos objetivos de alto nivel se traducen
luego en objetivos específicos para las actividades individuales dentro de cada unidad,
cada uno basado en el desempeño reciente pero ajustado por un factor de estiramiento.
Por ejemplo, es posible que se requiera que cada función en la unidad de negocios
reduzca los costos en un 15% el próximo trimestre mientras aumenta la cuota para cada
representante de ventas en un 20%.
El uso de porterías flotantes basado en el desempeño reciente más un factor de
estiramiento puede ser muy efectivo. Establecer metas frente a los logros reales a menudo
ayuda a las personas a alcanzar su máximo potencial. Los atletas buscan superar su mejor
marca personal o romper el récord más reciente; cuando el récord cae, la meta también
cambia. A medida que los estudiantes dominan un tema o concepto, se les asignan tareas
más difíciles. Los gerentes fijan sus miras en la próxima promoción. Los políticos aspiran
al próximo cargo más alto.
Pero existen peligros. Elevar las metas a medida que aumenta el logro significa que
siempre habrá tensión e insatisfacción, hambre de más. Esa hambre puede ser un
motivador poderoso, pero también puede llevar al agotamiento, la frustración y
sentimientos de insuficiencia (ver, por ejemplo, Homer 1985 para modelos de
agotamiento del trabajador bajo objetivos estrictos; ver también Simon 1982). Y puede
conducir a un comportamiento monomaníaco, en el que las personas sacrifican a sus
amigos, familiares y la ética en la búsqueda interminable del siguiente nivel.

La capacidad de los líderes para articular su visión y estimular los mejores esfuerzos de
sus empleados depende no solo de su carisma personal, sino también del tamaño de la
organización y la integridad de su cultura, tradiciones y folclore. i cuanto más grande es
la organización y menos cohesiva es su cultura, más difícil es para los líderes proyectar
sus metas y motivar a los empleados, lo que genera retroalimentaciones negativas que
pueden limitar la capacidad de ampliar los objetivos para generar crecimiento '°.
10.4.13 Creación de Sinergia para el Crecimiento Empresarial
Las secciones anteriores identificaron más de tres docenas de bucles positivos que pueden
impulsar el crecimiento de una empresa comercial. ¿Qué importancia tienen? Si estos
bucles son significativos, las empresas (o grupos industriales) más exitosos en explotarlos
deberían exhibir tasas de crecimiento, rentabilidad y cuotas de mercado
significativamente más altas que el promedio durante períodos de tiempo prolongados.
Las empresas en las que los bucles positivos operan como círculos viciosos deberían
generar rendimientos persistentemente más bajos. Sin embargo, la teoría económica
tradicional sugiere que los mercados están dominados por retroalimentaciones negativas:
si las ganancias en una industria fueran significativamente más altas que el promedio, las
empresas existentes expandirse y nuevas empresas entrarían en el mercado, expandiendo
la producción y presionando los precios hacia abajo hasta que las ganancias no fueran
más altas, en promedio, que en cualquier otra industria o para cualquier otra empresa
(sobre una base ajustada al riesgo).
Se ha estudiado intensamente la existencia de diferencias persistentes en la rentabilidad
entre empresas e industrias. Mueller (1977, 1986) examinó una gran muestra de las
empresas industriales más grandes de EE. UU. Y encontró tasas de ganancia
significativamente diferentes entre las empresas, incluso para empresas del mismo grupo
industrial, y que estas diferencias persisten durante períodos de tiempo muy largos (al
menos varias décadas).). Cubbin y Geroski (1987) documentan resultados similares para
empresas del Reino Unido y concluyen que "mientras que dos tercios de nuestra muestra
convergieron hacia un nivel de rentabilidad común, un núcleo sólido de empresas parece
capaz de mantener cierta independencia de las fuerzas del mercado de forma más o
menos indefinida". Mueller también examinó la dinámica de la rentabilidad.
Presumiblemente, si dominan las retroalimentaciones negativas de la economía
tradicional, las empresas cuyas ganancias están lejos del promedio en cualquier momento
(debido a choques transitorios) tenderían hacia el promedio, mientras que aquellas
cercanas al promedio tenderían a permanecer allí. Mueller descubrió todo lo contrario: las
empresas con rentabilidad promedio eran, con el tiempo, más propensas a migrar a
estados significativamente más altos o significativamente más bajos beneficios. Las
empresas con beneficios elevados tenían probabilidades más altas de lo esperado de
seguir generando beneficios elevados; era más probable de lo esperado que el desempeño
de las empresas con beneficios bajos siguiera siendo decepcionante. Estas dinámicas son
consistentes con los efectos diferenciadores y de desequilibrio de las numerosas
reacciones positivas discutido anteriormente.
¿Qué determina si los bucles positivos operarán como ciclos virtuosos que conducen al
crecimiento y una alta rentabilidad o como ciclos viciosos que atrapan a una empresa en
un ciclo de retroceso y baja rentabilidad que se refuerza a sí mismo? En las empresas más
exitosas, muchos de estos circuitos actúan de forma concertada, generando sinergias
sustanciales. Achi y col. (1995) examinaron el desempeño de las empresas de más rápido
crecimiento y más rentables en los Estados Unidos, los llamados tigres del crecimiento,
para ver si se podían identificar las reacciones que impulsaban su crecimiento. Definieron
un tigre de crecimiento como una empresa cuya tasa de crecimiento de ventas durante los
10 años anteriores fue tres veces mayor que el promedio del S&P 500 y que superó al
S&P 500 en rendimiento total para los accionistas durante los 5 años anteriores. En una
muestra de más de 1200 empresas, 97 cumplieron con estos criterios. No todos los tigres
del crecimiento eran pequeñas empresas emergentes: las ventas de 1994 oscilaron entre $
130 millones y $ 12.5 mil millones. Tampoco todas eran empresas de alta tecnología:
aunque el 28% de los tigres estaban en el sector de la informática (incluidos Intel,
Microsoft, Compaq, 3Com y Sun), el resto incluía empresas de industrias maduras de
baja tecnología como equipos industriales, servicios comerciales y financieros, venta al
por menor, distribución y venta al por mayor, indumentaria, moda y deportes, y atención
médica (por ejemplo, Nike, The Home Depot, US Healthcare, Williams-Sonoma, United
Asset Management, Werner Enterprises y Nautica). El crecimiento sostenido y la
rentabilidad no son simplemente una función de estar en una industria caliente (por
supuesto, las industrias calientes están calientes porque los bucles positivos que impulsan
su crecimiento son fuertes).
Los tigres del crecimiento generan una parte desproporcionada del crecimiento de la
economía en su conjunto. Si bien comprenden solo el 8% de las empresas de la muestra,
crearon el 15% del crecimiento total de las ventas, el 28% del crecimiento del empleo y el
47% del crecimiento de las ganancias. Un examen minucioso mostró que los tigres no
dependían de ningún circuito positivo único para impulsar su crecimiento, sino que
utilizaron con éxito muchas de las reacciones positivas mencionadas anteriormente para
crear sinergia. Microsoft es el caso paradigmático. Los costos de producir software son
costos de desarrollo casi en su totalidad iniciales, por lo que la reducción en los costos
unitarios a medida que el mercado del software se disparó es un motor de crecimiento
muy poderoso. De manera similar, la expansión de Microsoft de sistemas operativos a
aplicaciones, Internet, redes de noticias, publicaciones, computación automotriz y otros
mercados crea poderosas economías de escala y alcance. Microsoft también se beneficia
de las curvas de aprendizaje y de una inversión sustancial en la mejora de procesos
centrada en mejorar la evaluación de las necesidades del cliente y acelerar el desarrollo
de software. Invierte fuertemente en la diferenciación de productos y el desarrollo de
nuevos productos. La influencia financiera de Microsoft le permite adelantarse a la
competencia adquiriendo rivales y rivales potenciales, a menudo comprando nuevas
empresas de software e incorporando sus productos en las propias aplicaciones y sistemas
operativos de Microsoft. El poder de mercado de Microsoft le permite negociar precios y
acuerdos de distribución favorables con los fabricantes de computadoras. Su crecimiento
le permite contratar a los mejores programadores y gerentes y compensarlos con opciones
sobre acciones, lo que crea una fuerza laboral dedicada y productiva y libera recursos
para otras inversiones. El flujo de caja positivo de Microsoft y el elevado múltiplo
precio / ganancias redujeron su costo de capital muy por debajo del de rivales más débiles
y startups riesgosas. Y el crecimiento está fuertemente impulsado por las aspiraciones
expansivas de Bill Gates, una visión que, a través de un esfuerzo de relaciones públicas
bien financiado, ha articulado con éxito no solo dentro de Microsoft sino en la sociedad
en general a través de libros escritos por fantasmas y apariciones en los medios.
Sobre todo, el éxito de Microsoft se debe a la potente red y a los efectos de los bienes
complementarios. Estas retroalimentaciones operan a través de muchos canales,
vinculando la arquitectura de hardware y los sistemas operativos, los sistemas operativos
y aplicaciones, las aplicaciones y los usuarios, y el software y los programadores. Cuanto
mayor sea la base instalada de productos de Microsoft, más atractivas son las
computadoras compatibles con esos productos (con tecnología Intel y chips compatibles
con Intel). Cuantas más computadoras personales se venden con Intel Inside, mayor es la
base instalada de Microsoft. El más largo la base instalada de los sistemas operativos de
Microsoft, más software será desarrollado para esos sistemas por desarrolladores
externos, y cuanto más software de terceros haya, mayor será el atractivo de la plataforma
Wintel. Cuanto mayor sea el número de personas que utilizan las aplicaciones de
Microsoft, más importante es que otros tengan software compatible para intercambiar
documentos con colegas y amigos, por lo que mayor será el atractivo de las aplicaciones
de Microsoft. Y cuanto mayor sea la participación de Microsoft en la base instalada,
mayor será el número y la calidad de los programadores, el personal de soporte y los
gerentes de TI capacitados en esos sistemas, y los más escasos son los que están
familiarizados con otros sistemas operativos y aplicaciones.
Impulsado por estos comentarios positivos, Microsoft creció desde su fundación en 1975
a una empresa con ingresos en 1997 de $ 11,3 mil millones. En agosto de 1999, su
capitalización de mercado era de casi $ 500 mil millones; en comparación, General
Electric, con aproximadamente 7 veces más ingresos y 9 veces más empleados que
Microsoft, valía menos de $ 400 mil millones.
Bill Gates es bastante consciente de estos comentarios positivos y de su papel en su éxito
(Tabla 10-1).
Por supuesto, el crecimiento no puede continuar para siempre. En última instancia, a
medida que se acercan los límites del crecimiento, varias retroalimentaciones negativas
deben hacerse más fuertes hasta que superen los bucles positivos. Si Microsoft continúa
creciendo a su tasa histórica, sus ventas superarían el producto interno bruto de los
Estados Unidos en 2018, cuando Bill Gates tendrá solo 63 años, incluso si la economía de
los EE. UU. Sigue creciendo a su tasa histórica ".
Algunas de las reacciones negativas ya eran evidentes a mediados de la década de 1990.
La preocupación por la capacidad de Microsoft de utilizar los comentarios positivos que
impulsan el crecimiento para dominar el mercado del software llevó a sus competidores a
unirse para promover Java de Sun. Microsoft ha demostrado ser experto en mitigar estos
movimientos a través de lo que Bill Gates llama "adoptar y extender" las innovaciones de
sus competidores. Fue precisamente la preocupación por la capacidad de Microsoft de
adoptar y extender, de utilizar los bucles positivos para dominar la economía digital
emergente, lo que provocó la demanda antimonopolio del Departamento de Justicia de los
Estados Unidos en 1998 sobre la combinación de Internet Explorer de Microsoft con el
sistema operativo Windows.
No todas las reacciones positivas que pueden impulsar el crecimiento empresarial son
compatibles entre sí. Seguir la estrategia de diferenciación cobrando precios más altos en
función de la superioridad de sus productos y las capacidades de soporte entra en
conflicto con el uso de precios iniciales bajos para impulsar la economía de escala, la
curva de aprendizaje y los efectos de la red / bienes complementarios. Muchas empresas
de mucho éxito tropezaron cuando los bucles positivos que impulsaban el crecimiento en
su industria cambiaron, mientras que su estrategia no lo hizo. Por ejemplo, el fracaso de
Betamax de Sony puede atribuirse a un desajuste entre su estrategia y los bucles
dominantes en el mercado doméstico de VCR. Sony había seguido durante mucho tiempo
una estrategia que enfatizaba la diferenciación e innovación de productos, y los productos
de Sony generalmente tenían una prima de precio significativa en relación con los de la
competencia. La estrategia de Sony funcionó muy bien en mercados donde los estándares
ya estaban establecidos (como televisión, amplificadores estéreo y reproductores de
casetes), pero resultó ineficaz en un mercado donde los efectos de red y los activos
complementarios (la base instalada y la disponibilidad de cintas), en lugar de las
funciones. , la calidad o la reputación eran los determinantes más importantes del
atractivo del producto. Los gerentes y empresarios deben diseñar su estrategia de
crecimiento identificando los bucles positivos que probablemente sean más importantes
en sus mercados, más compatibles entre sí y más consistentes con las capacidades y
recursos que la empresa tiene o puede desarrollar.

10.5 Retroalimentación Positiva, Rendimientos Crecientes y Crecimiento Económico


Las numerosas retroalimentaciones positivas de las que se habla en el apartado 10.4 no
sólo impulsan el crecimiento de las empresas individuales, sino que potencian el
crecimiento de industrias enteras y de la economía en su conjunto. El reconocimiento de
que la retroalimentación positiva es el motor del crecimiento económico se remonta al
menos a La riqueza de las naciones de Adam Smith. Smith y los demás economistas
clásicos no dibujaron diagramas causales, pero las diversas retroalimentaciones se ven
claramente en sus escritos. Smith se centró en la división del trabajo como fuente
principal del crecimiento de la productividad. A medida que un proceso se divide en un
mayor número de operaciones rutinarias, la productividad aumenta porque la
especialización permite a las personas aprender más rápido, adaptar sus herramientas y su
capital a la tarea específica y eliminar el esfuerzo inútil que supone pasar de una
operación a otra. Smith señaló que "la división del trabajo está limitada por la extensión
del mercado", reconociendo la retroalimentación positiva por la que el crecimiento
económico permite una mayor especialización, que a su vez conduce a una mayor
productividad y a un crecimiento económico aún mayor.
Los economistas suelen referirse a estos bucles positivos como rendimientos crecientes.
El término denota una situación en la que la producción de un proceso aumenta más que
proporcionalmente a medida que crecen sus insumos, en contraste con la situación
habitual de rendimientos decrecientes, en la que la producción se satura a medida que
crecen los insumos (como en la agricultura, donde las cosechas están limitadas por la
extensión y la fertilidad de la tierra, independientemente de la cantidad de fertilizantes o
de mano de obra que se aplique). Además de Adam Smith, Alfred Marshall (en 1890) y
Allyn Young (en 1928), desarrollaron otras teorías tempranas de los rendimientos
crecientes; véase en Buchanan y Yoon, 1994, una excelente recopilación de trabajos
clave en la economía de los rendimientos crecientes). Entre los modelos formales que
incorporan retroalimentaciones positivas se encuentran los modelos de comercio
internacional de Paul Krugman (1979) y los modelos de crecimiento económico
endógeno de Paul Romer (1990).
Las implicaciones de la retroalimentación positiva se aplican no sólo a las naciones que
participan en el comercio internacional, sino también a cualquier entidad económica
distinta que pueda intercambiar bienes con otras, incluidas las regiones dentro de una
misma nación, las ciudades y pueblos dentro de una región, los barrios dentro de una
ciudad o incluso los miembros de una familia. Cuando las retroalimentaciones positivas
creadas por la división del trabajo, las economías de escala y de alcance, el aprendizaje a
través de la práctica, etc., son fuertes, la especialización y el comercio pueden
transformar rápidamente una geografía inicialmente idéntica en un paisaje muy variado
con centros especializados de la industria, como el valle del silicio o el distrito de los
diamantes de Nueva York.
Krugman, por ejemplo, señaló que, en la teoría económica tradicional del comercio,
dominada por rendimientos decrecientes (retroalimentaciones negativas), dos economías
idénticas no tendrían incentivos para comerciar, ya que los mayores costos de transporte
del comercio harían más eficiente que cada uno produjera los bienes que necesitan
localmente. Sin embargo, en presencia de una retroalimentación positiva, se vuelve
ventajoso para las dos economías comerciar, aunque tengan recursos, tecnologías y
preferencias de los consumidores idénticos. El resultado aparentemente paradójico surge
porque ambas economías pueden producir más si cada una se especializa en la
producción de una clase de bienes y comercia con la otra por el resto que desean: la
especialización aumenta la productividad y, por lo tanto, la producción total aumenta.
Curiosamente, en el caso de economías inicialmente idénticas, no importa qué
subconjunto de bienes elija producir cada uno mientras se especialicen; en la práctica, la
elección estaría determinada por eventos casuales al principio de la historia de las
relaciones comerciales, lo que conduciría a la dependencia de la ruta clásica analizada
anteriormente.
Romer demostró cómo el crecimiento de una economía en su conjunto podría surgir de
algunos de los bucles positivos descritos anteriormente, en particular los relacionados con
la investigación y el desarrollo, el aprendizaje a través de la práctica y otras inversiones
en capital humano. Los rendimientos crecientes surgen porque el conocimiento creado
por la investigación y desarrollo o la formación de los empleados, por ejemplo, no puede
mantenerse totalmente privado. Mientras que una máquina herramienta sólo puede
utilizarse en un lugar a la vez, los conocimientos sobre cómo diseñar una máquina-
herramienta puede ser utilizado por más de una empresa a la vez; los conocimientos no se
consumen por el uso como los bienes materiales. Por lo tanto, las inversiones de una
empresa en investigación y desarrollo y en formación, por ejemplo, no sólo benefician a
la empresa, sino que se extienden a otras empresas. En el lenguaje de la economía, estos
efectos indirectos crean externalidades, es decir, beneficios externos a la empresa. Estas
externalidades aceleran el crecimiento económico porque benefician a muchas personas
además de la empresa que realiza la inversión, aumentando el tamaño total del mercado y
reforzando aún más los numerosos bucles positivos que dependen de la escala de
actividad de una industria o región. Romer también demostró que, dado que las empresas
individuales generalmente no comprenden ni pueden aprovechar los beneficios que sus
inversiones en conocimiento crean para la economía en su conjunto, existe una tendencia
a que las empresas inviertan poco en capital humano e investigación y desarrollo.

10.6 ¿Se Encierra la Economía en Tecnologías Inferiores?


Una de las consecuencias de la dependencia de la trayectoria es que los sucesos aleatorios
al principio de la evolución de un sistema pueden empujarlo hacia una trayectoria u otra.
Estas perturbaciones aleatorias pueden ser pequeñas y pasar desapercibidas en su
momento, o incluso en retrospectiva. Pueden tratarse de sucesos fortuitos dentro de las
empresas del sector o de efectos indirectos de acontecimientos políticos, técnicos o
sociales no relacionados con el mundo en general. Las reacciones positivas amplifican las
diferencias entre los competidores hasta que uno de ellos se convierte en el estándar y
domina la industria. El éxito engendra éxito. A medida que surge el ganador, los costes
de cambiar de una norma a otra son cada vez mayores hasta que el sistema se bloquea en
ese equilibrio. El proceso de Polya, descrito en el apartado 10.2, muestra cómo la
dependencia de la trayectoria y el bloqueo pueden producirse cuando todos los equilibrios
son inicialmente igual de atractivos. No importa si conducimos por la derecha o por la
izquierda o si los relojes van en el sentido de las agujas del reloj o en sentido contrario,
siempre que todos elijamos la misma dirección. Más controvertida es la noción de que la
dependencia de la trayectoria puede llevar a la economía a bloquearse en el equilibrio, es
decir, en productos, tecnologías y formas de vida que son inferiores a otros que podrían
haberse elegido (véase, por ejemplo, Arthur 1994).
Si el factor determinante del atractivo del producto es la compatibilidad y la
disponibilidad de bienes complementarios (por ejemplo, videograbadoras, ordenadores
personales, teclados), entonces una empresa puede convertirse en líder del mercado,
aunque su tecnología sea inferior. Muchos sostienen que la industria del VCR constituye
un ejemplo de bloqueo de una tecnología inferior, señalando que el Betamax ofrecía una
calidad de imagen superior y es hoy el estándar de los equipos de video profesionales
(otros se centran en el mayor tiempo de reproducción del VHS para argumentar que,
después de top, era la tecnología superior). El sistema operativo Macintosh era
claramente superior al DOS de Microsoft y a las primeras versiones de Windows, pero
los sistemas de Microsoft se convirtieron en el estándar mientras el Macintosh perdía
constantemente cuota de mercado. El teclado QWERTY, inventado por Christopher
Sholes en la década de 1870, se considera inferior al teclado Dvorak de 1936 en términos
de tiempo de aprendizaje, velocidad de escritura, tasa de errores, equilibrio entre la mano
izquierda y la derecha y comodidad, y sin embargo casi todo el mundo sigue aprendiendo
la disposición QWERTY. El irracional sistema de medidas ingles con sus ples, yardas,
libras, galones y acres, es claramente inferior al sistema métrico, y sin embargo sigue
utilizándose en Estados Unidos.
La probabilidad de quedarse con una tecnología inferior aumenta con la fuerza de los
bucles positivos que confieren ventaja al líder del mercado, independientemente de los
atributos de la propia tecnología. Cuanto más fuertes sean los bucles de red,
compatibilidad, coste de desarrollo, poder de mercado y regla de oro, más probable será
que el ganador final venga determinado por factores no relacionados con la calidad, la
funcionalidad y las características del producto. La permanencia del teclado QWERTY se
debe a la gran importancia de los activos complementarios, en concreto, los
mecanógrafos formados en QWERTY. Los costes de cambio que supone volver a formar
a la enorme base instalada de mecanógrafos en el sistema Dvorak superan la ventaja de
éste, perpetuando el dominio del QWERTY.
La prevalencia de las retroalimentaciones positivas en la economía provoca
ocasionalmente el bloqueo de tecnologías inferiores. Pero la cuestión es bastante más
compleja. Las tecnologías evolucionan. Una tecnología inicialmente inferior puede ganar
la batalla por la cuota de mercado y emerger como un nuevo estándar, pero las mejoras
posteriores pueden superar sus deficiencias iniciales. Microsoft vuelve a poner un
ejemplo. El sistema operativo DOS era incuestionablemente inferior al Macintosh, pero
Microsoft se convirtió en el estándar de la industria mientras el Mac se marchitaba.
Microsoft pudo entonces imitar la interfaz gráfica del Mac, incorporando muchas de sus
características en el sistema operativo Windows. Las primeras versiones de Windows,
hasta la 3.1, seguían siendo claramente inferiores al Macintosh. Pero el dominio de
Microsoft le permitió invertir fuertemente en nuevas mejoras. Windows 95 y 98, a juicio
de muchos, cerraron la mayor parte de la brecha, y las nuevas innovaciones conducirán
sin duda a una funcionalidad aún mayor. Aunque la red y los bienes complementarios
llevaron a la industria del software a aferrarse a una tecnología que era inferior en ese
momento, el desarrollo de nuevos productos y los bucles de diferenciación borraron
gradualmente el déficit Por supuesto, el sistema operativo Macintosh habría evolucionado
presumiblemente a un ritmo mayor si hubiera ganado la batalla y se hubiera convertido
en el estándar. Es muy posible que los usuarios de ordenadores hubieran estado mejor si
la tecnología inicialmente superior hubiera ganado. No es posible responder a estas
preguntas de forma definitiva porque nunca podremos saber cuánto habrían mejorado los
perdedores.

Una cuestión más sutil es la coevolución de los gustos de las personas con la tecnología.
Las preferencias de las personas no son estáticas; evolucionan y cambian con la
experiencia. Sus gustos se adaptan a sus circunstancias. La cantidad de sal o de pimienta
picante que la gente considera apetecible, la cantidad de espacio personal que la gente
necesita, la cantidad de tiempo de ocio y el acceso a espacios abiertos que la gente desea,
todo ello varía mucho entre culturas. La habituación es un proceso poderoso.
Del mismo modo, la evaluación de una tecnología por parte de la gente puede variar a lo
largo del tiempo, aunque la propia tecnología no cambie. Muchos habitantes de las
ciudades viven más o menos felizmente en entornos más ruidosos, más atestados y más
contaminados que los que sus antepasados podían imaginar o tolerar. Nuestra evaluación
del atractivo y la conveniencia del conjunto de tecnologías y estructuras sociales en las
que se ha encerrado la sociedad moderna en los últimos 50 años difieren de la forma en
que las habríamos evaluado en 1950. Dado que las preferencias, los gustos y las normas
de las personas son maleables, la tecnología y nuestras valoraciones y reacciones ante ella
coevolucionan. Garud y Rappa (1994) muestran como esta coevolución dio forma a la
aparición de los implantes cocleares, una tecnología para proporcionar audición a los
sordos profundos. Las tecnologías rivales dieron lugar a nociones opuestas de lo que
significaría el éxito para los pacientes que recibieran la tecnología (por ejemplo, la
capacidad de decodificar el habla a un coste menor o de oír un espectro más amplio de
sonido a un coste mayor), lo que en última instancia afectó a las regulaciones y normas
gubernamentales para la tecnología.

10.7 Límites a Bloquear


El modelo de Polya y los ejemplos de dependencia de la trayectoria sugieren que los
sistemas dependientes de la trayectoria se fijan rápidamente en un equilibrio estable, que
luego persiste indefinidamente. La convención de las agujas del reloj se estableció en el
año 1500. El meridiano principal sigue estando situado en Greenwich, aunque el sol hace
tiempo que se puso en el Imperio Británico. Y el teclado QWERTY ha sido la perdición
de los estudiantes de mecanografía durante más de un siglo. ¿Están todos los sistemas
dependientes de la trayectoria perpetuamente atrapados en los equilibrios a los que les
conducen los acontecimientos fortuitos? ¿No hay escapatoria?
Hay muchos ejemplos en los que una norma dominante fue derrocada. Estas revoluciones
suelen producirse cuando el sistema en el que la norma es dominante se vuelve obsoleto o
es derrocado.
Los dinosaurios dominaron la Tierra durante millones de años, pero tras el impacto
catastrófico de un asteroide que provocó la extinción masiva de los reinos vegetal y
animal, los dinosaurios no volvieron a aparecer. El impacto destruyó el ecosistema en el
que los dinosaurios se habían convertido en la norma dominante. En términos del proceso
de Polya, el evento de extinción masiva eliminó la mayoría de las piedras (especies) del
frasco (nichos ecológicos disponibles), de modo que la selección de nuevas piedras (la
evolución de nuevas especies) volvió a estar fuertemente influenciada por eventos
aleatorios. La vida volvió a llenar el tarro, pero diferentes formas de vida se volvieron
dominantes, 14
En un proceso que Schumpeter bautizó como destrucción creativa, las depresiones
económicas pueden descongelar una economía que se ha aferrado a ciertas tecnologías.
Toda economía necesita tecnologías básicas de energía, transporte y comunicaciones. Un
conjunto de tecnologías e infraestructuras construidas en torno al carbón, el vapor, el
ferrocarril y el telégrafo dominaron el mundo industrializado a finales del siglo XIX y
principios del XX. La población y la industria se concentraban en grandes ciudades
rodeadas de granjas y bosques. El carbón tiene una densidad energética bastante baja y es
difícil de manipular, lo que favorece los modelos de asentamiento centralizados y los
medios de transporte como el ferrocarril y el barco de vapor. Las líneas de telégrafo se
tendían a menudo a lo largo del derecho de paso del ferrocarril, lo que reducía el coste de
la infraestructura y el mantenimiento. El conjunto carbón-vapor-ferrocarril-telégrafo
siguió siendo dominante hasta la Gran Depresión de los años treinta. La depresión llevó a
la quiebra a muchas de las empresas de estas industrias, su infraestructura física se
deterioró y el poder de sus dirigentes disminuyó.
Cuando la economía comenzó a recuperarse de la depresión en serio después de la
Segunda Guerra Mundial, las nuevas inversiones no recrearon y renovaron las antiguas
redes y tecnologías, sino que se centraron en un nuevo conjunto de tecnologías básicas.
La nueva economía de la posguerra se construyó en torno al petróleo, el gas natural y la
electricidad para la energía: la combustión interna y los motores eléctricos para la
potencia mecánica, los automóviles y los aviones para el transporte, y el teléfono, la radio
y la televisión para la comunicación. Surgieron los suburbios y los patrones de
localización industrial se volvieron menos centralizados. Estas tecnologías también se
reforzaron mutuamente: el craqueo catalítico permitió refinar el petróleo crudo para
convertirlo en gasolina a bajo coste: la gasolina es un combustible denso en energía y
fácil de manejar, adecuado para una gran flota de vehículos pequeños y patrones de
asentamiento descentralizados; los motores de combustión interna son lo suficientemente
pequeños y potentes como para utilizarlos en aviones, etc. Todas estas tecnologías se
inventaron mucho antes de la década de 1930, pero los costes del cambio eran
prohibitivos porque eran compatibles con el conjunto de tecnologías y estructuras
sociales existentes. A pesar de su gran potencial, los nuevos inventos no pudieron
alcanzar un uso generalizado hasta que la antigua infraestructura -física, social y política-
fue barrida por la Gran Depresión y la Segunda Guerra Mundial. La depresión y la guerra
funcionaron como un evento de extinción masiva que borró la base de las antiguas
tecnologías y las empresas que las dominaban. Al igual que las nuevas formas de vida
evolucionan después de cada extinción masiva, una economía nueva y diferente emerge
con la recuperación de cada gran depresión.
No es necesario que se produzcan grandes trastornos, como depresiones o guerras, para
descongelar un sistema que se ha encerrado en un determinado equilibrio. Los cambios
en la arquitectura tecnológica suelen socavar la base del dominio de una tecnología
concreta. El transistor dejó obsoletos los tubos de vacío, y ninguno de los líderes de la
industria de los tubos de vacío fue capaz de traducir su dominio en la antigua tecnología
en un papel de liderazgo en el mundo de los estados sólidos. Henderson y Clark (1990)
demuestran que las empresas dominantes (al menos en algunos sectores) rara vez
mantienen sus posiciones de liderazgo, o incluso sobreviven, después de tales cambios en
la arquitectura del producto. Los mismos bucles positivos que confieren una ventaja
acumulativa a una empresa mediante la creación de redes de competencias, relaciones y
conocimientos técnicos específicos de la tecnología y el mercado de la empresa también
crean una inercia y una rigidez que dificultan la adopción de una nueva tecnología radical
e incompatible (véase Sastry 1997).

Los cambios arquitectónicos que socavan el diseño dominante y las empresas dominantes
en una industria suelen surgir de las innovaciones creadas por esas mismas empresas. La
industria informática es otro ejemplo. Empresas como IBM y Digital Equipment
alcanzaron un enorme éxito gracias a la explotación de muchas de las reacciones
positivas descritas anteriormente, especialmente los bucles de diferenciación e
innovación (apartados 10.4.5 y 10.4.6). Al ofrecer un servicio y una asistencia superiores
(IBM) y productos técnicamente excelentes (Digital), estas empresas pudieron cobrar
precios comparativamente altos; a su vez, los altos márgenes proporcionaron los recursos
para seguir invirtiendo en diferenciación e innovación. Estas estrategias de diferenciación
funcionaron muy bien durante los primeros años de la industria informática, cuando los
costes de los ordenadores eran muy elevados, los volúmenes eran pequeños, los costes de
desarrollo y de capacidad eran una fracción modesta de los costes totales y los
ordenadores se utilizaban para un conjunto limitado de funciones especializadas en
centros de procesamiento de datos.
A medida que los ordenadores se abaratan, se generalizan y son más fáciles de usar, el
servicio y la asistencia técnica pierden importancia. Cuando la gente compra un nuevo
PC cada dos años para mantenerse al día con el progreso técnico, los términos de la
garantía y la capacidad de servicio son menos importantes; cuando las aplicaciones
utilizan una interfaz de apuntar y hacer clic, la formación y el apoyo son menos
importantes ya que los empleados se enseñan a sí mismos y entre sí. A medida que el
coste de fabricación disminuía mientras aumentaba la complejidad de los diseños, los
costes de desarrollo por adelantado eran cada vez más importantes. A medida que los
costes de computación disminuían, la informática se descentralizaba. En lugar de un
mainframe multimillonario secuestrado en una sala fría y limpia; los empleados tenían
ahora un ordenador en su mesa. La conexión en red y la compatibilidad se volvieron
mucho más importantes. La explosión del número de ordenadores en uso creó mercados
lucrativos para aplicaciones que indujeron a terceros a entrar en el mercado del software,
reforzando en gran medida la retroalimentación de los bienes complementarios y
reduciendo el control de los fabricantes de hardware sobre estos bienes complementarios
El propio éxito de la industria informática en la explotación de los bucles positivos de
innovación y diferenciación de productos hizo que estas retroalimentaciones se
debilitaran, destruyendo la eficacia de las estrategias que habían creado ese éxito. La
diferenciación se volvió cada vez menos importante, mientras que la compatibilidad y la
disponibilidad de los programas informáticos se volvieron cada vez más importantes. El
éxito en un mercado dominado por la compatibilidad, la disponibilidad de software y las
economías de escala requería precios agresivamente bajos para generar el volumen
necesario para compensar los altos costes de desarrollo y ganar la batalla por la cuota de
mercado. Los fabricantes de mainframes y miniordenadores como IBM, Digital
Equipment, Wang Laboratories, Data General y Prime Computer no supieron reconocer
el cambio en el dominio del bucle que ellos mismos habían contribuido a provocar. Estas
empresas se encontraron de repente con capacidades, recursos, estrategias y estructuras
de costes muy desajustados con los requisitos para el éxito. Mientras que en el pasado se
apoyaban en la retroalimentación positiva de la diferenciación para alcanzar un éxito cada
vez mayor, ahora estos bucles se convirtieron en espirales de muerte que conducían a un
colapso cada vez más rápido. Algunos de estos antiguos gigantes de la industria
sobreviven como meras sombras, mientras que muchos desaparecen por completo.

10.8 Modelización de la Dependencia de la Trayectoria y la Formación de Normas


Los procesos lineales y no lineales de Polya descritos anteriormente ofrecen ilustraciones
sencillas de sistemas dependientes de la trayectoria, pero no proporcionan modelos
realistas de dependencia de la trayectoria en sistemas económicos o sociales, como la
competencia entre Betamax y VHS o el triunfo de la arquitectura Wintel sobre el
Macintosh. Esta sección desarrolla un modelo sencillo de dependencia de la trayectoria
en la economía, un modelo con formulaciones más realistas para las reglas de decisión y
que puede elaborarse para incluir las numerosas retroalimentaciones positivas descritas
anteriormente.

10.8.1 Estructura del Modelo


La batalla por el dominio entre Betamax y VHS es típica de la formación de normas para
nuevos productos en mercados en los que la utilidad del producto depende del tamaño de
la base instalada y de la red de usuarios. Una máquina de fax no es útil Las máquinas de
fax solo resultan útiles cuando existe una red de otras máquinas compatibles Muchos
productos dependen de la disponibilidad de recursos complementarios: los ordenadores
personales no son útiles sin un software compatible; los automóviles no son útiles sin
redes de carreteras, gasolineras y otras infraestructuras aptas para el automóvil. En estos
mercados, el atractivo de un producto basado en un determinado estándar depende de su
base instalada, y la cuota de mercado dependerá del atractivo relativo de los distintos
estándares competidores. La figura 10-23 muestra la estructura de un modelo sencillo
para captar estas reacciones. El diagrama representa dos productos que compiten por ser
el estándar en un mercado. Se supone que los productos son incompatibles. Para que el
modelo sea lo más sencillo posible, sólo se representa explícitamente la retroalimentación
positiva más básica, a través de la base instalada. Los precios y otros determinantes del
atractivo del producto se excluyen deliberadamente. El reto que se plantea al final de esta
sección invita a ampliar el modelo para incluir estas variables y otros bucles importantes,
como el proceso por el que los desarrolladores de productos complementarios eligen qué
formato adoptar.
La base instalada de cada empresa se incrementa con las ventas del producto de cada una
de ellas (en las simulaciones siguientes se suponen dos empresas i = 1, 2, pero el modelo
puede acomodar cualquier número de empresas). Para simplificar, se supone que no hay
descartes ni compras repetidas, por lo que no hay salidas de la base instalada.

El índice de ventas de cada empresa es el producto de la demanda de la industria y su


cuota de mercado:

Por ahora, supongamos que la demanda de la industria es exógena y constante. En la


realidad, por supuesto, hay muchas reacciones a la demanda de la industria (sección
10.4).
La cuota de mercado viene determinada por el atractivo del producto de cada empresa en
relación con el atractivo de los productos de las demás. La formulación de la cuota de
mercado debe cumplir varios criterios. En primer lugar, la cuota de mercado debe
aumentar a medida que aumenta el atractivo del producto de la empresa y disminuir a
medida que aumenta el atractivo de los productos de los competidores. En segundo lugar,
la cuota de mercado debe estar acotada entre el O y el 100%. Por último, la suma de las
cuotas de mercado de todas las empresas debe ser igual al 100% en todo momento. Una
formulación útil que cumple estos requisitos es
Attractiveness of Product i
Market S h are Product i= (10-3)
Total Attractiveness of All Products

n
Total Attractiveness of All Products=∑ Attractiveness of Product j (10-4)
j=1
donde n es el número total de empresas. El atractivo total es la suma de los niveles de
atractivo de todos los productos del mercado.
¿Cómo debe especificarse el atractivo? El atractivo depende de una amplia gama de
variables, como el precio, la disponibilidad, la calidad, el servicio, las características, etc.
En este sencillo modelo, el atractivo global es el producto de dos términos: el efecto de la
compatibilidad sobre atractivo (el efecto red) y el efecto de todos los demás factores de
atractivo. La formulación agrega los efectos del precio, las características, la
disponibilidad, etc. en un único factor, que en este modelo sencillo se supone exógeno.

El efecto de la compatibilidad sobre el atractivo recoge los efectos de la red y la


compatibilidad: cuanto mayor sea la base instalada, mayor será el atractivo de ese
producto. La relación entre la base instalada y el atractivo tiene varias formas posibles.
Una de las relaciones más utilizadas viene dada por la función exponencial

En esta ecuación, el atractivo aumenta exponencialmente a medida que la base instalada


crece en relación con el Umbral de Efectos de Compatibilidad. El parámetro Sensibilidad
del atractivo a la base instalada controla la fuerza del efecto. El umbral es un factor de
escala que representa el tamaño de la base instalada por encima del cual los efectos de red
se vuelven importantes. La curva exponencial del atractivo es plausible: Cuando sólo
había dos teléfonos en Estados Unidos, la utilidad del teléfono no era muy grande para el
tercer comprador potencial, pero cuando había 100 millones, la utilidad del teléfono para
el siguiente comprador era mucho, mucho mayor. La función exponencial significa que el
atractivo aumenta a un ritmo creciente a medida que crece la base instalada. Cuanto
mayor es el umbral de los efectos de compatibilidad, mayor debe ser la base instalada
antes de que su efecto sobre el atractivo empiece a superar los efectos de otros factores de
atractivo.
Por ejemplo, Betamax, al ser el primer formato de VCR doméstico que llegó al mercado,
tenía una gran ventaja relativa en cuanto a base instalada en los primeros años. Sin
embargo, aunque al principio había muchas más máquinas Betamax que VHS, el efecto
de esta ventaja relativa era escaso: eran tan pocas las personas que tenían máquinas que la
compatibilidad aún no era un problema para la mayoría de los compradores potenciales.
Sin embargo, a medida que la base instalada crecía, la compatibilidad empezó a ser un
factor importante en la evaluación del atractivo del producto.
En este sencillo modelo, los demás factores de atracción son exógenos y se supone que
varían aleatoriamente en torno al valor neutro de uno:

Donde la función NORMAL (media, desviación estándar y semilla de ruido) toma


muestras de una distribución normal con una media y una desviación estándar
establecidas por el modelador. La semilla de ruido es diferente para cada producto para
garantizar que los efectos aleatorios de cada producto sean independientes.
La formulación de la cuota de mercado cumple los tres criterios de una buena
formulación. Cuanto mayor sea el atractivo de la empresa i, mayor será su cuota de
mercado. La cuota de mercado es nula si el atractivo de los productos de la empresa es
nulo y del 100% si los productos de los competidores son completamente poco atractivos.
La suma de las cuotas de mercado de todas las empresas será siempre igual al 100% para
cualquier número de empresas. Estas propiedades son válidas para cualquier función que
relacione los atributos del producto con el atractivo. Hay muchas formas de funciones de
atractivo individuales que son plausibles. La función exponencial utilizada aquí es
especialmente conveniente porque puede transformarse en una forma en la que las cuotas
de mercado pueden expresarse como una función lineal de los atributos del atractivo del
producto, lo que permite estimar las funciones de atractivo mediante técnicas de regresión
estándar. Cuando el atractivo del producto se especifica como el producto de funciones
exponenciales de cada atributo, la formulación de la cuota de mercado se conoce como
función logit, porque la cuota de mercado en función de los atributos del producto sigue
una curva logística.
El gráfico muestra la cuota de mercado de la empresa I en un mercado de dos empresas a
medida que varía su base instalada La base instalada de la empresa 2 se supone constante
e igual al umbral de los efectos de compatibilidad. El gráfico muestra la cuota de
mercado resultante de la empresa 1 para diferentes valores de la sensibilidad del atractivo
a la base instalada. En todos los casos, cuando las bases instaladas de los dos productos
son iguales (junto con todos los demás factores de atractivo), cada empresa recibe la
mitad del mercado. La cuota de mercado sigue la curva logística a medida que varía la
base instaurada. Obsérvese que el impacto manual de un aumento de la base instalada
sobre la cuota de mercado disminuye a medida que la base instalada es muy grande: una
vez que la cuota de mercado se aproxima al 100%, los nuevos aumentos del atractivo
tienen un efecto cada vez menor, ya que simplemente hay menos cuota de mercado
adicional que ganar. Cuanto mayor sea la sensibilidad del atractivo a la base instalada,
más aguda y pronunciada será la curva logística y más rápidamente se acercará la cuota a
sus valores extremos al variar la base instalada.

10.8.2 Comportamiento del Modelo


Para simular el modelo, los parámetros se fijaron como se indica en el cuadro 10-2. En
particular, la sensibilidad del atractivo a la base instalada se fija en 2, lo que representa un
modesto efecto de red. Si, al principio de la historia del mercado, la base instalada del
producto 1 es del 20% del umbral mientras que la del competidor es del 10%, la cuota de
mercado de la empresa 1 será sólo del 55%, aunque goce de una ventaja de 2:1 en base
instalada. Si el competidor tuviera el 100% del umbral mientras que la empresa 1 tuviera
el 200% (todavía una ventaja de 2:1), la cuota de mercado de la empresa I sería entonces
del 88%, lo que refleja el mayor impacto de una gran base instalada en el atractivo.

La simulación comienza con igualdad de condiciones: los parámetros de ambas empresas


son idénticos. La única diferencia entre las empresas se debe a las variaciones aleatorias
en el atractivo de cada producto debidas a otros factores. Se supone que estos efectos
aleatorios tienen una desviación estándar muy pequeña, de apenas el 1%.
La figura 10-25 muestra 20 simulaciones del modelo. Antes de la introducción de
cualquier variación aleatoria en el atractivo del producto, las dos empresas tienen el
mismo atractivo en general, y la cuota de mercado se mantiene en el equilibrio inicial del
50% Cuando comienzan los efectos aleatorios, en el momento cero, el efecto de red es
débil, por lo que la cuota de mercado fluctúa aleatoriamente en torno al 50%. Sin
embargo, a medida que la base instalada de cada empresa crece, la retroalimentación
positiva de la red gana en fuerza y amplifica cualquier pequeña ventaja en la base
instalada creada por los choques aleatorios en el atractivo del producto. A medida que la
ventaja de la base instalada de una empresa crece, la retroalimentación positiva de la red
gana aun más fuerza, impulsando aún más la cuota de mercado del líder hasta que la
cuota se acerca al 100%. Sólo hay dos equilibrios estables: el dominio completo del
mercado o la extinción. Teniendo en cuenta los parámetros de la simulación, el sistema se
bloquea en uno de estos equilibrios con bastante rapidez.

La figura 10-26 muestra la distribución de las cuotas de mercado de la empresa 1 en


varios momentos de una muestra de 5000 simulaciones. Antes del año 0, no hay efectos
aleatorios y el sistema está equilibrado en el equilibrio inestable del 50% de la cuota de
mercado. En el momento cero, los primeros choques aleatorios comienzan a perturbar el
sistema, pero las retroalimentaciones positivas aún no han comenzado a funcionar. La
cuota de mercado está muy concentrada entre el 49% y el 51%, y la distribución de las
cuotas de mercado es normal (en forma de campana). La distribución sólo varía
ligeramente durante los primeros años, incluso después de que empiecen a funcionar las
retroalimentaciones del sistema. En el año 4, la varianza de la distribución de las cuotas
de mercado ha aumentado considerablemente, pero la distribución sigue pareciendo
aproximadamente normal, con un único pico en el 50% de la cuota de mercado. En el año
6, la distribución se ha extendido aún más y ha comenzado a bifurcarse en dos modos. La
retroalimentación positiva de la red diferencia rápidamente a las dos empresas entre sí,
hasta que una gana el 100% del mercado y la otra es eliminada. En el año 10, la cuota de
mercado de la empresa ganadora en casi todas las simulaciones es superior al 95%.
El comportamiento del modelo es similar al proceso no lineal de Polya de la sección 10.2.
Sin embargo, el modelo relaja los supuestos restrictivos del modelo de Polya. En primer
lugar, el modelo se formula en tiempo continuo. En segundo lugar, donde el proceso de
Polya selecciona sólo una piedra por periodo, ya sea blanca o negra, aquí las ventas
totales se dividen en flujos simultáneos y continuos de ventas para cada producto.
Mientras que el proceso de Polya elige qué color añadir basándose en un único evento
aleatorio, el modelo aquí incluye múltiples fuentes de variación aleatoria en las
elecciones de los consumidores.
Y lo que es más importante, el atractivo de cada producto no depende del tamaño de la
base instalada en relación con la de otros productos, sino del tamaño absoluto de la base
instalada de cada producto En el proceso de Polya, la probabilidad de seleccionar un
color determinado depende únicamente de la proporción de piedras con ese color que ya
hay en el bote.
Esta suposición no es realista en el caso de los productos con efectos de compatibilidad y
de red. En primer lugar, es probable que los consumidores no conozcan la base instalada
de cada producto, y las reglas de decisión de los modelos no deberán utilizar información
que los responsables reales no tienen. En segundo lugar, la hipótesis de Polya significa
que el efecto de la compatibilidad sobre la cuota de mercado es el mismo para una
relación determinada de las bases instaladas de los distintos productos,
independientemente de la magnitud de la base instalada. Una ventaja de 2:1 en la base
instalada del VHS supondría la misma ventaja en la cuota de mercado tanto si la base
instalada fuera de 20 máquinas VHS por 10 Betamax como si fuera de 20 millones por 10
millones.
Las decisiones de las personas están influidas por la compatibilidad con las máquinas que
poseen otras personas de su red social. Cuanto mayor sea la base instalada de cada
producto, mayor será la probabilidad de que cualquier comprador potencial tenga amigos
y familiares que ya posean ese formato. Evidentemente, cuando la base instalada de
productos es muy baja, la compatibilidad no es todavía un factor para los posibles
compradores. A medida que la base instalada total crece y un mayor número de personas
con las que interactúa un comprador potencial tiene el producto, la compatibilidad se
vuelve progresivamente más importante. La formulación para el atractivo del producto
cumple este criterio porque depende del tamaño de la base instalada de cada producto
(escalado por el Umbral de Efectos de Compatibilidad). La función exponencial para el
atractivo reduce el efecto de las diferencias en la base instalada cuando la base instalada
total es muy pequeña y amplifica la diferencia a medida que la base instalada total crece.
En consecuencia, la fuerza de la retroalimentación positiva de la red aumenta a medida
que el mercado crece. Estos cambios en el dominio del bucle pueden ilustrarse
construyendo el diagrama de fases del modelo. El diagrama de fases muestra cómo la
cuota de mercado de un determinado producto depende de la cuota de ese producto en la
base total instalada. El diagrama de fase es análogo al diagrama de fase del Proceso no
lineal de Polya que se muestra en la figura 10-6. La fracción de la base instalada de un
determinado producto es análoga a la proporción de piedras de un determinado color que
ya están en el tarro. La cuota de mercado es análoga a la probabilidad de añadir una
piedra de un color determinado al tarro.
Al igual que en los gráficos de fase anteriores, los puntos fijos (puntos en los que el
gráfico de fase cruza la línea de 45) son la cuota de mercado de equilibrio (Figura 10-27).
Siempre que la curva que define la cuota de mercado se sitúe por encima de la línea de
45°, la cuota de mercado de la empresa 1 supera la cuota de la empresa I en la base
instalada, lo que hace que la cuota de la empresa I en la base instalada aumente. La
trayectoria del sistema fluye a lo largo de la curva de la cuota de mercado hacia la
derecha, hacia una mayor cuota de la base instalada, hasta que la cuota alcanza el
equilibrio en un punto fijo donde se encuentra con la línea de 45. Por el contrario, cuando
el diagrama de fase se sitúa por debajo de la línea 45, la cuota de mercado de la empresa I
es inferior a su cuota actual de la base instalada, por lo que su cuota de la base instalada
disminuirá. La trayectoria del sistema fluye a lo largo del diagrama de fases hacia la
izquierda hasta llegar a otro equilibrio en el que se encuentra la línea de 45°.
Dado que la cuota de la base instalada aumenta siempre que la cuota de mercado está por
encima de la línea de 45° y disminuye siempre que la cuota de mercado está por debajo,
la estabilidad de cualquier punto de equilibrio se determina fácilmente a partir del
diagrama de fases. Si la pendiente del diagrama de fases en uno de equilibrio es mayor
que 1, ese punto de equilibrio es inestable. Un ligero aumento de la cuota de base
instalada del producto provoca un aumento aún mayor de la cuota de mercado, lo que
aumenta la cuota de base instalada del producto y aleja progresivamente el sistema del
equilibrio. Una ligera disminución de la cuota de base instalada del producto provoca una
mayor caída de la cuota de mercado, reduciendo aún más la cuota de base instalada y
alejando el sistema de la izquierda, del punto de equilibrio. Cuando la pendiente del
diagrama de fase es superior a la unidad, la dinámica del sistema está dominada por las
retroalimentaciones positivas. Sin embargo, cuando la pendiente del diagrama de fase en
un punto de equilibrio es inferior a 1, un ligero descenso de la cuota del producto 1 en la
base instalada provoca un descenso menor de la cuota de mercado. Dado que la cuota de
mercado supera la cuota actual de la base instalada, la cuota de la base instalada
aumentará, elevando la cuota de mercado y haciendo que el sistema vuelva al punto de
equilibrio. Un aumento de la base instalada tiene un efecto compensatorio similar, ya que
la cuota de mercado aumenta menos que la base instalada, diluyendo la base instalada
hasta que el sistema vuelve al equilibrio original.
Cuando la pendiente del diagrama de fase es inferior a la unidad, la dinámica del sistema
está dominada por la retroalimentación negativa. Dado que, en general, el diagrama de
fase no es lineal, su pendiente varía, y a medida que lo hace, también lo hace la
importancia relativa de los bucles positivos y negativos en el sistema. Los puntos en los
que la pendiente del diagrama de fase se desplaza de menos de 1 a más de 1 marcan los
cambios en el predominio de los bucles de retroalimentación neta negativa a neta
positiva.
La figura 10-28 muestra el diagrama de fase para el modelo de cuota de mercado. El
gráfico de fase muestra la cuota de mercado de la empresa I en función de la proporción
del producto I en la base instalada total. Sin embargo, a diferencia del proceso no lineal
de Polya (Figura 10-6), la fuerza del bucle de efecto de red positivo crece a medida que
aumenta la base instalada total. Por lo tanto, la forma del diagrama de fase que relaciona
la cuota de mercado de la empresa I con su fracción de la base instalada total cambia a
medida que la base instalada total crece. La figura muestra cuatro de estas curvas, para
situaciones en las que la base instalada del competidor es, 0,10. 0.50. I. y 2 veces el
tamaño del umbral de efectos de compatibilidad. El sistema siempre tiene un equilibrio
en el que la cuota de mercado y la cuota de la base instalada total son del 50%. Sin
embargo, la forma de las curvas, así como el número y la estabilidad de los equilibrios,
cambian drásticamente a medida que el mercado crece.

Cuando la base instalada total de la industria es pequeña, el efecto de red es débil. La


curva de la figura 10-28 etiquetada como B₂ = 0,1 muestra cómo evoluciona la cuota de
mercado cuando la base instalada del competidor es sólo el 10% del umbral de los efectos
de compatibilidad. Cuando la base instalada es muy pequeña, el efecto de red es tan débil
que el equilibrio en el 50% de la base instalada es estable (el gráfico de fase cruza la
línea de 45° en el 50% de la cuota con una pendiente inferior a 1). En un rango amplio,
las perturbaciones aleatorias que afectan a la cuota de mercado se autocorrigen: en la
medida en que una perturbación aleja el sistema del 50%, la cuota de mercado se ajusta
para compensar, devolviendo gradualmente la base instalada a una proporción de 1:1.
Obsérvese que hay dos equilibrios adicionales: un punto inestable cuando la cuota de
base instalada es de aproximadamente el 90% y un punto estable cuando la cuota de base
instalada es del 100%.
Para dominar el mercado cuando la base instalada total es pequeña, la empresa I tendría
que tener al menos el 90% de la base instalada.
A medida que aumenta la base total instalada, el bucle del efecto red positiva se hace más
fuerte. La pendiente del diagrama de fases en el punto del 50% aumenta, y el punto de
equilibrio inestable en la cuota del 90% se desplaza hacia la izquierda. Cuando la base
instalada del competidor es la mitad del umbral (la curva denominada B2= 0,5), la
pendiente del diagrama de fases en el punto de equilibrio del 50% es casi igual a 1. En
este punto, el equilibrio inicial del 50% es biestable: la cuota de mercado se sitúa ahora
siempre por encima de la línea de 45°. Si la cuota de la base instalada de la empresa 1
disminuye, la cuota de mercado aumenta, compensando la perturbación y devolviendo la
cuota de la base instalada al 50%, pero un aumento de la base instalada provoca un
aumento aún mayor de la cuota, alejando el sistema del equilibrio del 50%. Si las
perturbaciones aleatorias dan inicialmente a la empresa 1 una pequeña ventaja en la base
instalada, la cuota de mercado tenderá a aumentar aún más hasta que la empresa 1
domine el mercado y alcance el equilibrio estable en el 100% de la base instalada.
Un mayor crecimiento de la base instalada total sigue aumentando la fuerza del bucle de
efecto de red positivo hasta que omina la dinámica del sistema. Cuando la base instalada
del competidor es igual al umbral (la curva etiquetada como B; = 1), la pendiente del
diagrama de fase en el equilibrio del 50% es mayor que 1, y el equilibrio del 50% es
inestable. Ahora hay dos equilibrios estables: uno al 100% de la base instalada y otro al
20% aproximadamente. Los bucles positivos dominan el sistema. La empresa que obtiene
la mayor cuota de la base instalada gana una parte aun mayor del mercado y empieza a
consolidar su dominio del sector, mientras que las que se encuentran con las cuotas más
pequeñas de la base instalada se quedan cada vez más atrás.
A medida que el crecimiento continúa, la fuerza del bucle positivo de la red aumenta aún
más, acelerando el ascenso del líder hacia el dominio. Cuando la base instalada del
competidor ha alcanzado el doble del umbral (la curva etiquetada como B, = 2), el gráfico
de fase es bastante pronunciado en torno al equilibrio del 50% y los dos equilibrios
estables se han acercado al 0 y al 100%. Los bucles positivos son ahora tan fuertes que la
fijación de un único estándar es bastante rápida y la posibilidad de que cualquier choque
o política aleatoria pueda revertir el resultado es insignificante.

10.8.3 Implicaciones Políticas


Los resultados del modelo tienen claras implicaciones para las empresas que tratan de
utilizar las reacciones positivas, como los efectos de red, para obtener una ventaja
decisiva en la cuota de mercado y eliminar a sus competidores. Cuando un nuevo
producto se introduce por primera vez en un mercado en el que no se han establecido
normas previas, es probable que el efecto de red sea bastante débil. La cuota de mercado
vendrá determinada principalmente por otros atributos del producto, como la calidad, el
precio, las características, etc. Durante este periodo, un participante tardío podría,
ofreciendo un producto superior, precios agresivos y empresas conjuntas con proveedores
de activos complementarios, y otros medios, superar la ventaja del primero en la base
instalada y tomar el liderazgo de la industria. Sin embargo, el margen de maniobra para
este tipo de acciones es limitado. A medida que el mercado crece, los efectos de red y la
disponibilidad de productos complementarios (por ejemplo, cintas pregrabadas
compatibles para videograbadoras, software compatible para ordenadores) adquieren
mayor importancia. Una empresa que se sitúa a la cabeza de la base instalada, de la
disponibilidad de activos complementarios y de la percepción de que es el líder del
mercado es probable que obtenga una ventaja en la cuota de mercado que le lleve a
obtener más ganancias en una profecía que se auto cumple. A medida que la base
instalada crece y los efectos de la red se hacen más fuertes, la posibilidad de que un
participante tardío pueda superar la ventaja del primero disminuye rápidamente, tanto
porque la base instalada total está creciendo (lo que requiere que el advenedizo venda
más unidades) como porque la compatibilidad se convierte en un determinante cada vez
más importante de las decisiones de compra de los clientes (lo que da más ventaja al líder
actual).
Estas dinámicas describen lo que ocurrió en la industria del VCR y ayudan a explicar por
qué Sony, como primera empresa, no pudo convertir su ventaja inicial en dominio del
mercado a pesar del gran número de reacciones positivas que conferían una ventaja
acumulada al líder. Cuando se introdujo el VHS, la base instalada de videograbadoras era
tan pequeña que la compatibilidad aún no era un problema para la mayoría de los
clientes. Otros atributos del atractivo del producto dominaban en la decisión de compra.
Mientras que Sony, con la esperanza de monopolizar el formato que creía que se
convertiría en el estándar de la industria, mantuvo un estricto control de la tecnología,
restringiendo así su disponibilidad y manteniendo el precio relativamente alto, Matsushita
decidió licenciar el VHS de forma amplia y barata. El consorcio VHS, a pesar de ser el
más tardío en entrar en el mercado, fue capaz de hacerse con la mayor cuota de mercado
justo en el momento en que el crecimiento de las ventas totales se disparó y superó
rápidamente la ventaja inicial de la base instalada de Betamax. El VHS se convirtió en el
líder en el momento en que los estudios cinematográficos empezaron a emitir películas
para el mercado del video doméstico. Una vez que los estudios cinematográficos
decidieron producir cintas para el mercado doméstico, la compatibilidad se convirtió en el
atributo dominante del atractivo en la decisión de compra de la mayoría de los clientes, y
los estudios cinematográficos optaron por emitir cintas en el formato más frecuente. La
estrategia de Matsushita le dio el liderazgo en la cuota de las cintas VHS justo en el
momento en que la compatibilidad se convirtió en algo fundamental. Aunque Sony
intento contraatacar bajando los precios y fomentando la producción de cintas formato
Betamax, la oportunidad se había cerrado. El crecimiento de la base instalada había
reforzado tanto los efectos de red que la ventaja del VHS no podía ser superada. El
destino de Betamax estaba sellado.

10.9 Resumen
La dependencia de la trayectoria es un fenómeno común en los sistemas naturales y
humanos. La dependencia de la trayectoria surge en sistemas dominados por la
retroalimentación positiva. Incluso cuando todos los caminos son inicialmente igual de
atractivos, la simetría se rompe por el ruido microscópico y las perturbaciones externas.
Las retroalimentaciones positivas amplifican entonces estas pequeñas diferencias
iniciales hasta alcanzar una importancia macroscópica. Una vez que ha surgido un diseño
o estándar dominante, los costes de cambiar se vuelven prohibitivos, por lo que el
equilibrio se auto fortalece: el sistema se ha bloqueado. El bloqueo persiste hasta que un
cambio arquitectónico o una gran perturbación externa dejan obsoleto el diseño
dominante. Un amplio abanico de reacciones positivas impulsa el crecimiento de las
empresas. La evidencia sugiere que la rentabilidad de las empresas individuales y la
evolución de la economía en su conjunto están fuertemente influenciadas por estos bucles
positivos y muestran un comportamiento dependiente de la trayectoria, Las empresas de
éxito son capaces de reforzar varios de los bucles positivos que pueden impulsar el
crecimiento para crear sinergias que conduzcan al éxito acumulado.
La dependencia de la trayectoria en la economía es común porque el crecimiento de las
empresas está impulsado por una serie de retroalimentaciones positivas. Estas reacciones
implican economías de escala, aprendizaje, efectos de red, poder de mercado y muchos
otros procesos. Las empresas más exitosas son capaces de crear sinergias utilizando
conjuntos de estas retroalimentaciones para crear una estrategia mutuamente coherente.
Sin embargo, el éxito con un conjunto de estos bucles positivos puede conducir a la
inercia y la rigidez que impiden que una empresa que domina en un régimen mantenga su
dominio cuando cambia el entorno técnico, económico, político o social.

También podría gustarte