Está en la página 1de 18

Administración Financiera para Contadores

Riesgo e incertidumbre en Finanzas de Empresas


Síntesis introductoria

Primer Cuatrimestre 2010

Gustavo F. Antuña

Facultad de Ciencias Económicas y Estadística


Universidad Nacional de Rosario
Riesgo e Incertidumbre en Finanzas de Empresas
Síntesis introductoria de su tratamiento
Gustavo Fabián Antuña

Una mínima desviación de la verdad,


se multiplica luego en mil veces.
Aristóteles, Del cielo

Introducción
Las decisiones financieras básicas a tomar en una empresa, una vez definidos los objetivos
de la misma, pasan por:
. las inversiones (decidir su emprendimiento, monto y oportunidad)
. el financiamiento (integración y mantenimiento del capital a invertir y su amortización)
. los dividendos (si no fueron considerados parte del financiamiento)
. la administración del capital de trabajo

En cualquier caso, siempre que se realice un análisis intertemporal (dinámico) basado en la


Teoría del Valor, de Gerard Debreu, la valoración pasará por considerar la siguiente
función:
n

 1  k 
Ft
VA  t
t a

donde si a=1, el VA es VAB (valor actual bruto) y si a=0, el VA es VAN (valor actual
neto), puesto que la serie incluye en la sumatoria la inversión inicial (o F 0); los Ft (flujos
de fondo de cada período) aparecen en principio como valores determinados de alguna
manera y si el análisis busca determinar rendimientos, resultará de interés trabajar en el
cálculo de k.

Certeza y riesgo

Los conceptos de certeza y riesgo, juntamente con el de incertidumbre, que se verá luego,
resultan la base del análisis buscado. Existe certeza toda vez que se conocen los resultados
que surgirán del juego de las variables analizadas (cuyos valores también resultan dados).
Bajo condiciones de certeza puede asegurarse que cualquier VAN positivo indica
incremento de la riqueza y consecuentemente sella una decisión. Tal es el principio
perseguido como objetivo de las finanzas: maximizar el VAN. 1

Pero analizando el mundo real en cuanto a la ocurrencia de eventos futuros se entenderá


que el comportamiento de las variables no está asegurado.

Para modelar la incertidumbre de los negocios pueden utilizarse diversos métodos, que
varían en esencia y complejidad, debiendo prestar atención a un concepto: el de riesgo.
Riesgo es el grado de incertidumbre en torno a la ocurrencia de un resultado.2

1
En condiciones de certeza resulta obvio el rendimiento esperado, puesto que será el resultado de la razón
utilidad sobre inversión, por lo que en términos de optimización resultará imposible maximizar resultado alguno.
En tales circunstancias resulta lógico enunciar que el VAN será siempre 0, puesto que la tasa k será por
conocimiento igual a TIR. Para el trabajo, no obstante, puede considerarse el resultado de un VAN positivo como
excedente de las pretensiones del inversor (ver concepto de plusvalía en Teoría del Valor).
2
Riesgo e incertidumbre son conceptos diferentes. Incertidumbre es el desconocimiento sobre eventos futuros, es
ignorancia de los valores que pueden tomar las variables de un modelo, mientras que riesgo es una medida de la
incertidumbre.

Gustavo Fabián Antuña | 2


Bajo situaciones de riesgo se conocen sólo parcialmente los valores de algunas o todas las
variables. El comportamiento de las mismas pasa a ser aleatorio, pudiendo asumir
múltiples resultados, aunque sobre cada uno de ellos puede estimarse una probabilidad.

Debe tenerse en cuenta que el riesgo es un elemento que puede modelarse para la ecuación
de VA a través de algunos de sus componentes (tasa, flujos de fondos o vida económica) o
considerándolos a todos integralmente con técnicas de simulación o estrategia. En
particular no se tratará el tema de modelación de tasas de rendimiento requerido, que
compete al ámbito de los modelos específicos de “fijación de precios de activos de capital
(CAPM)”, “fijación de precios por arbitraje (APT)” y “costo combinado de capital propio
y ajeno (WACC)”.

El caso especial de la incertidumbre

En incertidumbre la ignorancia sobre las probabilidades de los valores de las variables es


absoluta3. Vista en términos de riesgo puede asumirse que, en incertidumbre, quien decide
no quiere o no puede definir las probabilidades de los distintos eventos de una misma
variable. Más allá de la discusión filosófica sobre la razón de análisis de situaciones de
incertidumbre, existen criterios que permiten trabajar en tal sentido:
a- criterio de Laplace
b- criterio maximin
c- criterio maximax
d- criterio minimax

Para Laplace una situación de incertidumbre es un caso especial de riesgo en el cual las
probabilidades de ocurrencia de cada evento son iguales. Tal el principio que asume: si
una variable tiene cuatro estados posibles, entonces la probabilidad de ocurrencia de cada
uno en incertidumbre (recuérdese que quien decide la desconoce) es del 25%. Esta regla,
que puede resultar de utilidad en algunos casos, será inaceptable en otros. El hecho de que
quien decide desconozca las probabilidades no implica que los estados diferentes tengan
iguales chances de ocurrir.

El criterio maximin es un procedimiento casi pesimista para la toma de decisiones. Por


maximin cada estado es evaluado considerando los resultados que se obtendrían bajo las
peores circunstancias, es decir, cada valor de la variable será el mínimo posible asociado
con un estado particular. Luego, quien decide, escoge el valor máximo de los resultados
mínimos (de allí el nombre del criterio).

Maximin se utiliza en situaciones donde la persona que planifica considera inaceptable


cometer un error. Quien decide elige lo mejor posible en el peor de los casos. Pero este
criterio, en extremo conservador, no siempre resulta aplicable en decisiones de inversión.

En contraposición al pesimismo mencionado, está el criterio maximax, que evalúa cada


estado de la variable según lo mejor que pudiera pasar. Se decidirá por la alternativa que
proporcione el máximo valor de los resultados máximos. La crítica de este procedimiento
es la misma (pero obviamente con los justificativos opuestos) que la realizada al maximin.

El criterio minimax introduce al análisis el concepto de costo de oportunidad. Cualquier


sujeto que decide desea elegir la opción que minimice su costo de oportunidad, pero no
sabe cual de los estados de cada variable ocurrirá. Si así fuera, conocería la distribución
probabilística y podría minimizarlo. No conociéndola, es normal el uso conservador del

3
Debe diferenciarse el concepto de incertidumbre del de ignorancia, donde se desconocen los valores posibles de
las variables.

Gustavo Fabián Antuña | 3


criterio minimax, seleccionando aquella alternativa que mejor funcione para el peor costo
de oportunidad.

Este criterio (minimax) sirve de base para el análisis que se verá en Teoría de Juegos.

En los tres últimos casos (maximin, maximax y minimax), el resultado puede variar, hecho
que sólo resulta analizable por la diversidad de riesgo asumible (aversión al riesgo) de
cada inversor.

Cada situación de incertidumbre puede ser evaluada por personas o en situaciones


diferentes. Tomar una decisión en torno a los ahorros de toda la vida, llevaría a la persona
que evalúa a adoptar el más conservador de los criterios (maximin), pero optar por un
primer empleo sería resultante de una decisión minimax.

Modelos determinísticos y modelos probabilísticos


Los componentes del VA (F y k) son valores esperados y no ciertos, por lo que sus
resultados serán consecuencia de valores aleatorios de dichas variables. Al construir un
modelo simbólico que permita evaluar una decisión financiera, deben diferenciarse dos
tipos diferentes:
a- modelos determinísticos
b- modelos probabilísticos

Para evaluar resultados a priori considerando la falta de certeza, pueden utilizarse en


principio métodos empíricos simples (que permiten construir modelos determinísticos),
como la modificación de los criterios de evaluación, el análisis de hipótesis extremas o el
de sensibilidad.

En dichos casos, los datos pertinentes al análisis se corrigen o analizan con rigor
estadístico pero asignando factores “ciertos” que permiten hallar un único VA o considerar
más de un escenario y actuar en consecuencia.

Los modelos determinísticos utilizan los conceptos de programación lineal, optimización


restringida y optimización no lineal 4.

Pero no siempre resultará útil el uso simple de modelos empíricos. Cuando las variables
importantes deben considerarse enteramente aleatorias, es necesario remitimos a la teoría
de las probabilidades, cuyo propósito fundamental es permitir el uso de lo que se conoce
sobre eventos simples para calcular probabilidades de eventos inciertos más complejos.

Así el mundo de la empresa deberá modelarse siguiendo una de dos opciones estocásticas
(modelos probabilísticos):

. Teoría de decisiones: analiza el resultado de cada situación como consecuencia de una


acción individual (decisión) dependiente de otras acciones de terceros agentes sobre las
cuales no se tiene control y que resultan independientes de la decisión tomada.

. Teoría de juegos: analiza los resultados secuenciales (definiendo estrategias) producto de


las decisiones cruzadas (dependientes) de dos o más partes con intereses individuales
comunes y capacidad racional similar

4
Los conceptos referidos pueden estudiarse de textos de matemáticas y resultan de aplicación en la construcción
de planillas de cálculo, facilitando la comprensión de muchas de sus funciones.

Gustavo Fabián Antuña | 4


Modelos empíricos
Haciendo uso de las herramientas matemáticas antes descritas, estos modelos tienen la
particularidad de resolver una gran cantidad de situaciones administrativas de diverso
grado de complejidad, resultando de fácil comprensión y simple o poco complicada
elaboración. La información que requieren puede obtenerse o elaborarse sin grandes
cálculos.

Enumerar modelos es una tarea estéril, puesto que su creación resulta individual y en
consecuencia existirán tantos como se desee crear. Sin embargo, los más utilizados en
términos generales son:
a- Modificación de los criterios de evaluación
b- Hipótesis extremas
c- Análisis de sensibilidad

Se describen los mencionados a continuación.

Modificación de los criterios de evaluación

Las variables de la ecuación de VA pueden analizarse independientemente modificando


sus valores de acuerdo a criterios que consideren el riesgo a tomarse en cuenta.

Así los componentes k y F resultarán modificados considerando que:


. k es la tasa de descuento requerida como rendimiento mínimo en el proyecto que busca
evaluarse, pudiendo ajustarse por distintas consideraciones que se explican más abajo.
. F son flujos esperados que pueden alterarse según el grado de aversión al riesgo de la
persona que evalúa la inversión.

El componente n pierde valor relativo en la ecuación cuanto mayor se hace, habida cuenta
de que se trata del exponente de un factor de descuento en una sumatoria de términos de
una progresión geométrica, menor resulta el aporte al VA objetivo buscado.

a- Variaciones de la tasa de actualización

Debe recordarse que:


k  f i, ,  , ,  

donde k resulta una función de diversos factores, entre los que se encuentran la tasa natural
de interés, la expectativa de inflación, la preferencia por la liquidez, la prima por riesgo,
etc.

Los valores que arrojan dichos factores pueden variar con el tiempo de modo que:

k i  f ii ,  i , i , i ,  i 

donde ahora el subíndice i indica el período que busca analizarse a tal tasa k.

Con esta especificación, puede ahora construirse un nuevo modelo para la determinación
del VA, tal como se indica:


Ft
VA  t
t a
 1  k 
i 1
i
t

Gustavo Fabián Antuña | 5


El valor de k cambiará según el proyecto del cual se trate, respetando los límites que fija el
mercado (del cual quien evalúa no debiera apartarse demasiado) en la siguiente expresión:

k  i 

donde i es la tasa libre de riesgo y  es la prima por riesgo, determinándose k para cada
período y para cada proyecto de acuerdo a alguno de los métodos de cálculo conocidos.

b-Modificación de los flujos de fondos con coeficientes 

Cada FF es una partida calculada para un período diferente, pero dicha partida no está
exenta de error. Sin embargo, si se calculara un coeficiente que relacionara el riesgo de
obtener el FF del período con la certeza de que éste ocurra, podría aplicarse tal factor a
cada flujo para estimar un FF corregido a condiciones de certeza.

El método funciona calculando la mejor estimación de F para cada período y


multiplicando su valor por un coeficiente t que resulta función del riesgo asociado a la
ocurrencia de F del período t, siendo 0

El coeficiente se obtiene de la relación entre una suma cierta de dinero y una suma
incierta, que puede asumirse como el F del período, de manera que resulte indiferente para
quien decide esperar para la obtención del flujo incierto, que obtener una suma cierta
obviamente inferior a la primera.

$ *t
t 
Ft

donde $* es una suma cierta de dinero en cada período, de valor inferior al F de igual
período t, siendo  en consecuencia un factor menor a 1.

El grado de aversión al riesgo y el período t analizado determinará el valor de . A mayor


aversión y mayor período menor será el coeficiente  y viceversa.

El criterio de VA será entonces:


n
Ft   t
VA   1  k
t a f t
donde kf es la tasa libre de riesgo que actualiza F ajustados a la certeza.

Si se buscara analizar la tasa interna de retorno (TIR) bastaría con igualar a 0 la ecuación
de VA y despejar k.

n
Ft   t
VA   1  TIR 
t 0
t
0

La TIR obtenida se compara entonces con la tasa de interés libre de riesgo a los efectos de
decidir, considerando que ambas resultan tasas libres de riesgo, habida cuenta de la
cuantificación que se hace del mismo en los flujos de fondos.

Pese a la simplicidad de expresión del método, el mismo presenta dificultades en la


determinación de la prima de riesgo a asignar a la tasa de actualización y del coeficiente
sobre bases objetivas.

Gustavo Fabián Antuña | 6


Hipótesis extremas

El método consiste en pronosticar valores máximos, medios y mínimos para cada una de
las variables básicas que determinan los flujos de fondo (Ft).

Recordemos que:

Ft  f p, q, v, CF, t, d, , ,  

donde p, q, v, etc son variables que respetan comportamientos propios y / o representan


funciones que a su vez dependen de otras variables, incluso con vínculos entre ellas que
las hacen dependientes parcialmente.

Si centramos el análisis de la función de VA en la k, podemos hallar la TIR de cada estado


determinado para la variable Ft y consecuentemente enunciar los rendimientos esperados
para cada una de las alternativas.

Si se busca seleccionar uno de dos o más proyectos de inversión mutuamente excluyentes,


por ejemplo, puede aplicarse este criterio.

Tendremos una representación gráfica como sigue:

TIR Proy. A

Proy. B

Hipótesis
Mínima Media Máxima

Si se busca seleccionar uno de los dos proyectos mutuamente excluyentes (A o B), la


decisión no resulta difícil, puesto que en cualquier circunstancia A tiene mejor rendimiento
esperado que B.

Pero observemos el siguiente caso:

TIR Proy. A

Proy. B

Hipótesis
Mínima Media Máxima

Gustavo Fabián Antuña | 7


La selección de una alternativa en este segundo caso se complica siguiendo el mismo
razonamiento que se describiera en párrafos anteriores.

Ahora, la medida de rendimiento a través de k (TIR para nuestro ejemplo) se torna un


valor de análisis más complejo. La decisión quedará supeditada a la actitud del inversor
frente a situaciones inciertas. Es el grado de aversión al riesgo llevará a que se opte:
a- por el proyecto A, siempre que el individuo tenga mayor propensión al riesgo,
esto es, que sea más liberal (u optimista) y vea con mayores posibilidades la
ocurrencia de las hipótesis de máxima.
b- Por el proyecto B, siempre que su conducta sea la opuesta, es decir, que se trate
de un individuo más conservador (con mayores reparos, pesimista).

Puede retomarse en este análisis las premisas de la TIR, recordando que el individuo más
arriesgado jerarquiza proyectos por este método y no por el de VA.

Como ventaja, este método muestra más de un valor para cada variable del proyecto,
hecho que lleva el análisis hacia la consideración del carácter aleatorio de los componentes
de las funciones, permitiendo analizar más de una medida de rendimiento y dando una idea
aproximada del riesgo asociado a la inversión.

Presenta sin embargo, la dificultad de preparar un cuadro para todos los posibles valores
que pueden asumir las variables.

El método, comentado para interpretación con TIR, también puede elaborarse como
modelo para el análisis de VA.

En su forma general, este método se denomina “pronóstico a tres niveles” y prácticamente


se aplica siguiendo el siguiente procedimiento:
a- determinación de los flujos de fondos (F) para cada una de las tres hipótesis:
a. la serie de sucesos más probable o hipótesis media
b. la serie de sucesos pesimista o hipótesis mínima
c. la serie de sucesos optimista o hipótesis máxima
b- cálculo del VAN de cada una de esas series
c- ponderación de cada VAN por la probabilidad de ocurrencia que el individuo que
decide establece debe asignársele
d- sumatoria de los tres VAN ponderados para representar el valor actual de la
inversión, teniendo en cuenta el riesgo asociado al proyecto.

Análisis de sensibilidad

El análisis de sensibilidad consiste en estudiar los cambios que se producen en el


rendimiento de una inversión (o en su VA) como consecuencia de variaciones en los
valores de variables intervinientes (determinantes de flujos de fondos o en su caso de tasas
de rendimiento).

Al “sensibilizar” las variables del modelo creado (VA) se buscan los puntos extremos
(críticos) que cada componente tiene, para evaluar los resultados de la función objetivo.

Ft  f p, q, v, CF, t, d, , ,  

k  f i, ,  , ,  

Si se sensibiliza una variable cualquiera de F o k, matemáticamente tendremos, para la


variable p en F:

Gustavo Fabián Antuña | 8


F pq

p p  v q  CF  d    t  U   

El factor determinado indicará cuál es el grado de sensibilidad de F respecto de p. Pero de


la misma manera puede analizarse la sensibilidad en función de q, de v, etc. Todos los
valores estimados para estos factores pueden calcularse independientemente unos de otros
o vinculándolos, en cuyo caso el cálculo exige mayores conocimientos algebraicos.

Un coeficiente (factor) de sensibilidad siempre resultará comparable con la unidad. Si el


coeficiente es uno, la variación (sensibilidad) de la función a cambios en la variable
independiente es directa, esto es se altera en idéntica proporción. Cuanto más se aleja de
este parámetro hacia arriba, mayor es la sensibilidad, y cuanto más se acerca al cero,
menor resulta la misma.

Del mismo modo que para el análisis de sensibilidad del VA, podemos trabajar sobre la
sensibilidad de los rendimientos esperados de la inversión, en cuyo cayo la variable en
función de la cual se derivará el VA será k.

Este análisis se utiliza a menudo para comprobar la elasticidad de un modelo simple


generado para situaciones que no lo son tanto. Metodológicamente el proceso que se sigue
en la práctica es el siguiente:
a- Se parametriza un modelo para lograr resultados (por ejemplo VA o TIR) en base
a sistemas de ecuaciones que vinculan linealmente variables de entrada
(independientes) como precio o cantidad, con variables de salida (dependientes)
como ventas, utilidades o flujos de fondos.
b- Se genera una primera solución (cálculo de resultados objetivos) con valores
estimados normales (esperados medios).
c- Se inician las pruebas de sensibilidad con valores críticos para cada variable, en
forma independiente y / o conjunta, verificando cuáles son los nuevos resultados.
d- En base a los cálculos obtenidos se infieren conclusiones sobre los límites
admisibles en los desvíos de los valores esperados medios de cada variable.

Matemáticamente este análisis permite fijar grados de sensibilidad (variabilidad) de los


resultados frente a los cambios aleatorios de las variables que los determinan. Su
utilización se hace viable tanto para modelos estáticos como para los dinámicos.

Modelos estocásticos

Concepto e importancia de la función utilidad

En una situación bajo riesgo se demostrará que el criterio de maximizar el VA puede


producir resultados inaceptables. Supóngase que quien decide analiza una opción que tiene
los siguientes resultados esperados:
a- gana $ 1.000.000 con una probabilidad de 0.01
b- pierde $ 10.000 con una probabilidad de 0.99

El valor esperado del flujo, si se realiza la inversión será:


F = -10.000 x 0.99 + 1.000.000 x 0.01 = 100

Si, de lo contrario, no se realiza, será:


F = 0 x 0.99 + 0 x 0.01 = 0

Gustavo Fabián Antuña | 9


Olvídese la temporalidad de F, y supóngase que F = VA. Bajo este análisis el valor de F (o
VA, en nuestro ejemplo) se maximiza optando por la realización de la inversión. Ahora,
¿realizaría alguien tal inversión?

Ahora, el ejemplo opuesto. Supóngase que se decide si debe o no contratar el seguro


contra colisión de un automóvil. El seguro tiene el costo de una prima que se contrapone a
la opción de correr con costos ante el riesgo de un accidente eventual. Puede cualquiera
estar seguro de que la prima que se paga a la compañía de seguros es mayor que el costo
esperado de los daños a causa de una colisión (la aseguradora obtiene ganancias), y sin
embargo se acepta sin dudar.

Estos ejemplos, sin embargo, no rechazan el concepto de maximización del VA. Adaptar
este concepto a decisiones bajo riesgo solo exige reconocer que los rendimientos en $ no
siempre reflejan con exactitud el “aspecto atractivo” de los resultados posibles. Pregúntese
si estaría dispuesto a ganar o perder $ 0,10 por lanzar una moneda (seguramente la
mayoría respondería que si). Pero pregúntese ahora si haría lo mismo por $ 10.000 (la
mayoría diría que no). ¿Por qué la diferencia, si el valor esperado de ambos casos es el
mismo? La aversión al riesgo define las cosas: la pérdida de $ 0.10 se compensa con la
ganancia de $ 0.10, más no ocurre lo propio con $ 10.000, perder $ 10.000 puede
significar mucho más que ganarlos.

En modelos estocásticos se manejará este comportamiento con una función que mide el
aspecto atractivo del dinero, llamándola función de utilidad (entendiendo a la utilidad
como una medida de satisfacción).

Utilidad

$
100 350 600

La figura anterior muestra una típica función adversa al riesgo, que presenta dos
características esenciales:
a- es no decreciente, puesto que más dinero siempre es por lo menos igual de
atractivo que menos dinero
b- es cóncava. Un enunciado equivalente es que la utilidad marginal del dinero es no
creciente

Otras funciones de utilidad, correspondientes a individuos con propensión al riesgo


(estarían dispuestos a pagar para asumir mayor riesgo) o con indiferencia al riesgo (la de
aquellos que actuarían indistintamente frente al riesgo) son las que se muestran a
continuación:

Gustavo Fabián Antuña | 10


Utilidad Utilidad

$ $
Propensión al riesgo Indiferencia al riesgo

El concepto de función utilidad dará lugar a las posibilidades de trabajo con los modelos
que se pasan a exponer, aunque en esta síntesis se saltee ex profeso la metodología para su
creación. Una función utilidad puede expresarse como sigue:

 
ux   u w  x g  1   uw  x b 

Las funciones creadas pueden analizarse sensibilizando las variables que la componen o a
través del armado y posterior plegado (resolución) de un árbol de decisiones secuenciales.

Simulación de Montecarlo

“La experiencia es el mejor maestro”, es una aseveración cierta, pero desgraciadamente su


costo (en tiempo y dinero) es demasiado alto. Por ello la simulación encuentra tanta
motivación: debe conformar una manera rápida y económica de adquirir conocimientos
que sólo la experiencia podría reemplazar. Quizás este modelo sea la expresión más
acabada de la Teoría de Decisiones.

La idea básica de la simulación es la construcción de un dispositivo experimental, o


simulador, que “actúa como” (simula) el sistema (función o funciones) bajo análisis en
ciertos aspectos importantes de una manera rápida y redituable.

El objetivo de la Simulación de Montecarlo consiste en crear un “modelo” en el que se


pueda obtener información sobre acciones alternativas posibles por medio de la
experimentación.

Bajo análisis cuantitativo, la simulación es la experimentación basada en un modelo


matemático, cosa que comparte con la optimización (por ejemplo mediante programación
lineal). Debe aclararse, sin embargo, que ambos conceptos son muy diferentes, por el
papel que toman las variables en los dos enfoques:
a- en un modelo de optimización, los valores de las variables de decisión son
resultados; el modelo proporciona un conjunto de valores para las variables de
decisión que maximiza (o minimiza) el valor de la función objetivo5

5
Debe recordarse que para optimizar una función de utilidad se busca despejar las variables (hallar sus extremos)
igualando a 0 la derivada primera de la función en cada variable, identificando su carácter (máximo o mínimo)
por el signo de la derivada segunda de la función original en tal variable (negativo o positivo en cada caso
respectivamente).

Gustavo Fabián Antuña | 11


b- en un modelo de simulación, los valores de las variables de decisión son entradas.
El modelo evalúa la función objetivo en relación con un conjunto particular de
valores.

Si bien ya se acordó que por ser simplificaciones simbólicas de la realidad se pueden


incluir en un modelo tantas especificaciones (número de variables, restricciones,
distribuciones de probabilidad, etc.) como se deseen, el modelo de simulación de
Montecarlo considera originalmente las siguientes nueve variables:
a- monto de la inversión requerida
b- valor residual de la inversión
c- tamaño del mercado
d- tasa de crecimiento del mercado
e- participación en el mercado
f- precio de venta
g- costos operativos
h- costos fijos
i- vida útil del proyecto

La secuencia operativa que sigue el modelo es la siguiente:


a- estimar la distribución de probabilidades de cada variable del sistema
b- simular cada variable: el proceso consiste en asignar al azar un valor de cada
variable dentro de su función de distribución de probabilidad
c- calcular la TIR o el VAN con los valores seleccionados para cada una de las
variables
d- reiterar las anteriores dos etapas un número suficiente de veces como para
considerar válida la distribución de los resultados (deberá presentar una
distribución normal)
e- agrupar en escalones razonables los resultados obtenidos
f- calcular la distribución de frecuencia de los distintos escalones
g- calcular el valor esperado de la TIR o el VAN y su dispersión

Con los resultados obtenidos (con método probabilístico), la decisión a tomar resultará
más acertada desde el punto de vista matemático – estadístico que en cualquiera que se
hubiese tomado por optimización (en métodos determinísticos).

Resulta clara la necesidad de contar para estos procesos con los medios técnicos necesarios
a efectos de cumplir suficientemente la secuencia operativa (sobre todo en la enorme
cantidad de reiteraciones de procesos estocásticos).

En la construcción de cualquier modelo que vaya a ser sometido a simulación, resulta


importante fijar las condiciones de todas las variables, a efectos de obtener un resultado
analizable.

Hasta aquí el razonamiento seguido fue, partiendo de la certidumbre de la función de


VAN, pasar a considerar el riesgo en los componentes de las funciones F, n y k, y ajustar
el modelo construido en forma empírica, o más aún, considerando las probabilidades de
cada factor, hacerlo en forma estocástica (Modelo de Simulación).

Si se avanza un poco más en el razonamiento, puede verse que la realidad puede resultar
modelable como un juego, en el cual los participantes toman decisiones (definidas por un
análisis de estrategias), afectando con ello las respuestas (decisiones) de cada uno de los
demás. Para modelar tal dinamismo e interdependencia, debe remitirse el análisis a la
Teoría de los Juegos.

Gustavo Fabián Antuña | 12


Teoría de Juegos

La Teoría de Juegos es un tipo de análisis matemático orientado a predecir cuál será el


resultado cierto o el más probable de una disputa entre dos o más individuos, es un
conjunto de razonamientos circulares que permiten examinar el comportamiento
estratégico de jugadores que interactúan buscando maximizar utilidades y sabiendo que
cualquier otro participante resulta racional. Dichos razonamientos (axiomas) se aplican a
situaciones de riesgo o de incertidumbre (en las cuales el jugador decide como si no
hubiera oponente).6

En esencia es una técnica para tomar decisiones en situaciones de conflicto sobre la base
de la construcción de una matriz formal 7 que permite comprender el conflicto y sus
posibles soluciones.

Su aplicación es apropiada para problemas donde quienes toman las decisiones no poseen
un control completo de los factores que influyen en el resultado, y donde se presentan
influencias y determinaciones mutuas en las actuaciones recíprocas de los individuos
involucrados.

La teoría de juegos tiene una relación muy lejana con la estadística, pero su objetivo no es
el análisis del azar o de los elementos aleatorios, sino el de los comportamientos
estratégicos de los jugadores.

Es importante entender que:


a- el análisis de teoría de juegos lleva a la definición de estrategias y por ende
implica la especificación de decisiones secuenciales que quedan sujetas a las
tomadas por terceros participantes
b- se requiere tipificar la “conducta” de cada jugador, de manera que pueda saberse
de forma probable o cierta, de qué manera se comportará
c- la solución matemática de puede buscar resolviendo problemas presentados en
forma de:
a. matriz de pago (o pay off matriz)
b. árboles de decisión (o de resultados sucesivos)
c. curvas de reacción
d- quienes participan en el “juego” lo hacen en competencia egoísta y en forma
racional (inteligentemente)
e- el número de jugadores es finito
f- el objetivo de la estrategia a definir es la maximización de una función de utilidad
(aquella que convierte los pagos en bienestar)

6
La Teoría de Juegos comienza con trabajos de Zermelo (1913), quien muestra que juegos como el ajedrez son
resolubles. Borel (1921) y Von Neumann (1939) en la década de 1920 estudian los equilibrios en juegos de suma
cero, es decir en juegos en los que lo que gana un oponente lo pierde su rival. Pero el primer avance importante
ocurre veinte años después, con la publicación del libro Theory of games and economic behaviour, de Neumann y
Mongenstern, en 1944, que divulgó una formalización general de juegos en su forma extendida y normal,
introdujo el concepto de estrategia en juegos extensivos y propuso aplicaciones. En la década de 1950, en
Princeton, Luce y Raiffa (1957) difunden resultados en un libro introductorio, Kuhn (1953) trabajó en definir el
concepto de información en juegos, Shapley (1953) permitió establecer una forma de atacar los juegos
cooperativos (aquellos en que los jugadores pueden establecer acuerdos para actuar en forma mancomunada), y
finalmente Nash (1950), quien definió el concepto de equilibrio que lleva su nombre, lo que permitió extender la
teoría a juegos no cooperativos más generales que los de suma cero. Entre 1960 y 1980, Harsanyi (1967)
extendió la teoría de juegos a juegos de información incompleta, es decir, aquellos en que los jugadores no
conocen todas las características del juego (por ejemplo no saben lo que obtienen los otros jugadores como
recompensa). Ante la multiplicidad de equilibrios de Nash, muchos de los cuales no eran soluciones razonables al
juego, Selten (1975) definió el concepto de equilibrio perfecto en el sub juego para juegos de información
completa y una generalización para el caso de juegos de información incompleta.

7
La matriz de pago no es la única técnica utilizable. Otras alternativas son las curvas de reacción y los árboles de
decisión secuenciales.

Gustavo Fabián Antuña | 13


g- la regla de oro del análisis de juegos es “cada jugador buscará su máximo
bienestar posible”
h- la solución de un juego es la combinación de ganancias o pérdidas que da el juego
con certeza o alta probabilidad a los jugadores

Se mencionarán brevemente algunos conceptos importantes:

a- Una matriz de pago es una tabla de doble entrada. Los puntos matriciales
definidos por las combinaciones de decisiones representan los posibles resultados
del juego. El primer componente de cada par de números es el pago que recibe el
jugador indicado en la columna si el resultado se ubica en la combinación que
define al punto matricial.

B, estado 1 B, estado 2
A, estado 1 +1, -1 +4, -4
A, estado 2 -3, +3 -1, +1

b- En una matriz de pago pueden buscarse soluciones para A y para B. Analizando


las mismas en Teoría de Juegos, John Nash (1950) definió el equilibrio que lleva
su nombre y demostró su existencia en todos los juegos no cooperativos. En un
equilibrio de Nash, la estrategia de cada jugador es una mejor respuesta ante las
estrategias de los otros jugadores. Un equilibrio en estrategias dominantes es
también un equilibrio de Nash.

c- Debe tenerse en cuenta que siempre los participantes buscarán su máximo


beneficio, independientemente del resultado para el oponente (su participación es
egoísta).

d- Resolver un juego es definir los mecanismos que marquen la forma en que


jugadores racionales jugarán el juego

e- Resultan de importancia otros conceptos, como el de juegos de suma cero (todo


aquel en que lo que gana un jugador lo pierde otro, es decir que la sumatoria de
pérdidas y ganancias da 0) o juegos de suma no cero (aquel en que lo ganado
por un jugador no necesariamente resulta perdido por otro, y viceversa), para el
análisis de soluciones diferentes, así como el de reiteración del juego, para la
definición de estrategias (libro de instrucciones que le dicen al jugador que
acción elegir).

f- Una estrategia que es mejor respuesta es lo mejor ante una determinada elección
de los demás jugadores. Una estrategia dominante es mejor respuesta ante todas
las estrategias de los demás.

g- Una estrategia puede ser pura o mixta. Una estrategia mixta es una distribución
de probabilidad sobre las mi estrategias del jugador i, que le asigna la
probabilidad i a que el jugador use su estrategia si. Una estrategia pura es un
caso especial de estrategia mixta en el que el jugador le asigna probabilidad 1 a
una de las estrategias.

h- La figura ramificada del árbol de decisión (o resultados sucesivos) representa los


caminos que puede tener un juego para un participante en función de sus propias
jugadas y las de su oponente. Valen los mismos conceptos que para matriz de
pago, aunque la solución aquí se plantea como la búsqueda de la mejor alternativa
encontrada tras el proceso de plegar el árbol de atrás hacia delante.

Gustavo Fabián Antuña | 14


(-2, 2, 0)
r
3
b

2 l (0, 1, 7)

R (5, 4, 4)
r
a
1 3

l (2, 1, 2)

L (-1, 5, 6)
1

1 (2, 0, 1)

Apéndice de Teoría de Juegos: El dilema del prisionero

Tucker diseñó el siguiente problema:

Dos sospechosos son apresados por la policía tras la ocurrencia de un crimen. En cuartos
separados y sin contacto alguno entre ellos dos comisiones independientes los interpelan y
hacen a ambos el siguiente planteo:
a- si cualquiera de ellos delata a su compañero y aquél no hace lo propio, se le
concederá la libertad al primero y la sentencia para el delatado será de 10 años de
prisión, pero
b- si ambos se delatan, ambos purgarán una sentencia de 9 años

Aún sin contactos que le permitan realizar acuerdos (cosa que la policía se encarga de
mantener), ambos sospechosos saben que, si ninguno de ellos delata al otro, ninguna
autoridad podrá mantenerlos encarcelados más de un año.

Si se construye una matriz de pagos con la información disponible se ve que:

B delata B no delata
A delata -9, -9 0, -10
A no delata -10, 0 -1, -1

Consideremos al sospechoso A. Si cree que su compañero B respeta sus promesas


anteriores y no confiesa, a él le conviene confesar y salir libre, antes que no confesar
(recordemos que sus intereses son egoístas y busca maximizar su función de utilidad –
bienestar). Si por el contrario piensa que B lo delatará, su mejor opción vuelve a ser
confesar, puesto que –9 es mejor alternativa que –10. Por lo tanto, no importando lo que
haga B, A está mejor confesando: es su estrategia dominante. Lo mismo ocurre con B, por
lo que el único equilibrio en estrategias dominantes es aquel en que ambos sospechosos

Gustavo Fabián Antuña | 15


confiesan. Es notable que a pesar que cooperando les habría ido mejor, ambos confiesan y
terminan peor.8

El dilema del prisionero es un juego de enorme importancia, ya que brinda una explicación
para las dificultades para establecer la cooperación entre agentes económicos, aplicándose
en cualquier situación en la que hacer trampa beneficia a las partes.

Claro que no siempre existe equilibrio en estrategias dominantes, porque no siempre los
jugadores disponen de las mismas, por lo que resulta importante encontrar otro concepto
de solución que sea aplicable a todo tipo de juegos. El problema de este tipo de equilibrio
es que puede haber múltiples equilibrios en un juego, lo que implica que es necesario
poder seleccionar entre ellos.

Hasta dónde es básica una noción de Teoría de Juegos

Este trabajo pretende ser una “síntesis del tratamiento” de riesgo e incertidumbre en
Finanzas de Empresas. Entonces cabe preguntarse hasta dónde llegar en el tratamiento de
esta Teoría.

El buen juicio y el destino final pensado para un curso de grado hacen que se deje aquí
este tema, no por haber llegado al final en la síntesis, sino porque su extensión ameritaría
el desarrollo de un ciclo completo (no de un tema dentro de un programa).

Queda para el interesado seguir buscando respuestas a los interrogantes abiertos y a los
que quedaron sin plantear, que no son pocos...

Conclusiones
El desarrollo de la actividad económica en la vida de quien toma una decisión de tal
carácter, exige comprender resultados a priori para poder optar. Generar modelos (léase
funciones o ecuaciones) presenta la exigencia de simplificar la realidad en pos de hacer
funcional matemáticamente la consecución de un objetivo.

En tal búsqueda, puede optarse por modelos existentes o generarse otros nuevos. Para los
expuestos, existe también la alternativa de modificar sus partes, complementándolos o
restándole complejidad.

¿Para qué tantas opciones de trabajo?

Cada método tiene sus limitaciones, sus bondades y sus puntos débiles, y se ajustará a
decisiones diferentes según la naturaleza y magnitud del caso, así como según la
disponibilidad de datos que tenga quien está a cargo de decidir.

La abundancia de opciones no hace otra cosa que reflejar la síntesis de una realidad: al
modelar se generan simplificaciones de la vida real según consideraciones individuales,
por lo que existirán tantas alternativas como deseen crearse.

8
Por supuesto que en la vida real confesar puede no ser dominante, ya que los amigos del sospechoso B pueden
castigar al sospechoso A por violar su palabra. Este no es un problema de la teoría de juegos, sino de nuestra
representación del juego. En este caso, el juego no es el que se mostró, ya que los pagos que recibe el jugador
(sospechoso) al confesar no son los que se muestran en la matriz. Probablemente la estrategia de confesar no sería
dominante en este juego modificado.

Gustavo Fabián Antuña | 16


Las alternativas expuestas son, por cierto, sólo una parte de las de mayor frecuencia de
uso, descritas en la bibliografía citada al final y / o utilizadas en ocasiones por el autor.

¿Cuándo utilizar cada modelo?

La utilización de cada modelo responde a una cuestión vinculada con los siguientes
aspectos:
a- magnitud del capital arriesgado en la decisión
b- número de variables identificables
c- conocimiento / ignorancia de la aleatoriedad de las variables
d- complejidad de las vinculaciones entre variables
e- riesgo del proyecto

Para aquellos casos en que resulte posible modelar una función susceptible de ser
maximizada, la optimización es un proceso matemático que arroja un valor susceptible de
analizarse para la toma de una decisión.

Pero en otras ocasiones, cuando se torne difícil o imposible obtener modelos analíticos,
por factores de complicación (como la demanda aleatoria), o si tales modelos sólo
predicen un comportamiento promedio (steady state), sin comprender la variabilidad
posible en las medidas de desempeño a corto plazo, existe una buena cantidad de sistemas
para PC que facilitan la tarea de aplicar modelos más complejos, como los basados en
teoría de decisiones o en teoría de juegos.

Herramientas que pueden utilizarse

Pensar en el trabajo de quienes, sin otros elementos que una pluma y un papel, hace más
de cien años, desarrollaron mucho de los fundamentos (cuando no todos) que permitieron
elaborar los modelos matemáticos que hoy se exponen, da lugar al asombro, y al respeto.

Afortunadamente, hoy se cuenta con un arsenal de herramientas que permiten elaborar


modelos que responden a funciones de alta complejidad, con altísimo número de
operaciones repetitivas, de modo que la tarea resulta más sencilla. Por ello también, la
obligación de trabajar más.

Una planilla de cálculo como Microsoft Excel o Lotus constituye una herramienta
fundamental. La misma es una matriz de grandes proporciones en la cual se pueden
establecer relaciones entre celdas respetando prácticamente todas las funciones
matemáticas y estadísticas conocidas. Pero lo realmente potente en este programa
aplicativo son sus “Herramientas” propias:
a- Buscar objetivo: con esta función puede solicitarse el valor de una variable
(celda) que satisface una relación respecto de otra
b- Solver: función que permite la búsqueda del valor de una o más variables (celdas)
con restricciones de igualdad / desigualdad u otras (que se indican especialmente)
para cumplir un objetivo de maximizar, minimizar o hallar un valor para otra
variable (celda)

Complementariamente los sistemas que se enuncian a continuación son aplicativos


independientes, entre muchos otros, que se corren sobre Excel y que permiten realizar
trabajos sobre modelos de riesgo e incertidumbre:
a- Crystal Ball
b- @Risk
c- Treeplan
d- GLP
e- MatLab

Gustavo Fabián Antuña | 17


Cierre
Esta síntesis persigue dos objetivos básicos:
1- introducir, y solo introducir, al lector en los métodos elementales (empíricos y
estocásticos) para modelar el riesgo (sin considerar la específica determinación
de la tasa de rendimiento requerida k)
2- motivar, a quien lo lea, a continuar a posteriori con el estudio de los temas que
en estas pocas hojas apenas se muestran y que, en el afán de abreviar, no se
desarrollan como realmente debiera.

Las breves nociones expuestas no son más que eso, apenas la punta (si es que merecen
adquirir semejante calificativo) del iceberg enorme que estos temas conllevan. Resulta
difícil desarrollar el contenido de tantos temas en tan poco espacio. Pero ese era el reto.

Si se alcanza el primer objetivo, entonces se habrá adquirido alguna noción de riesgo e


incertidumbre. El segundo objetivo será casi para realización personal. En cualquier caso,
el mérito es del tema, todo del tema.

Bibliografía
 Axelrod, R. (1984). The evolution of cooperation. New York: Basic Books

 Debreu, Gerard. (1973). Teoría del valor. Barcelona, Bosch, Casa Editorial.

 Eppen, Gould, Schmidt, Moore & Weatherford. (2000). Investigación de


operaciones en la ciencia administrativa – 5a Edición. México, Prentice Hall.

 Kauffman, Faure y Le Garff (1966). Los Juegos de Empresa. Buenos Aires:


Editorial Universitaria de Buenos Aires

 Koch, Richard (1995). El diseño de la estrategia en su empresa. Barcelona:


Ediciones Folio

 Osborne, Martín & Rubinstein, Ariel. (1994). A course in Game Theory.


Massachuset, Mit Press.

 Ross, Westerfield & Jaffe. (1996). Corporate Finance – Fourth Edition. Chicago,
Irwin.

 Sapag Chain, Nassir. (1997). Evaluación de Proyectos de Inversión. México,


Prentice Hall.

 Van Horne, James. (1997). Administración Financiera – Décima Edición.


México, Pearson Educación.

Gustavo Fabián Antuña | 18

También podría gustarte