Está en la página 1de 45

ANEXO

Conceptos Básicos de
Probabilidad y Estadística

INDICE TEMÁTICO

1. El enfoque clásico de la probabilidad.


2. El enfoque axiomático.
3. Variable aleatoria y distribución de probabilidad.
4. Distribuciones conjuntas de probabilidad.
5. Parámetros de las distribuciones de probabilidad.
6. Variables aleatorias continuas y sus distribuciones
de probabilidad.
7. Distribución Normal o Gaussiana.
8. Otras distribuciones de probabilidad usuales.
1. El enfoque clásico de la probabilidad
Cuando se analizan datos económicos o financieros desde un punto de
1
vista estadístico con el objeto de realizar inferencias , se considera que
los datos bajo análisis surgen de un proceso aleatorio, es decir, un
proceso azaroso. Sin embargo, el azar no domina totalmente la aparición
de los datos. Se supone que existen límites y regularidades estadísticas
que caracterizan al proceso.

Para ejemplificar qué es un proceso aleatorio supongamos un juego que


consiste en arrojar 2 dados (consideremos dos dados distintos, por
ejemplo uno rojo y el otro azul) y observar la suma de los números que
salen. El resultado del lanzamiento se puede explicitar mediante una
dupla de números o par ordenado2 que indique los valores obtenidos, por
ejemplo (1, 6) ó (2, 5).

Si contamos todos los resultados posibles encontraremos que son 36


(hay 6 posibles resultados del dado rojo para cada una de las 6 caras del
dado azul). Por otra parte, tal como está definido el juego, sólo nos
interesa la suma de los puntos de ambos dados y, desde este punto de
vista, los resultados (1, 6) y (2, 5) son equivalentes. Diremos, entonces,
que ambos constituyen el mismo evento 3 : obtener 7 puntos.

Retomando la idea de proceso aleatorio, observamos que no es posible


cualquier resultado, ya que los puntos en cada dado son sólo los
números enteros del 1 al 6. Estas limitaciones se trasladan a los eventos,
ya que la suma de los puntos sólo puede tomar los valores del 2 al 12.

Por otra parte, considerando cada dado individualmente, la aparición de


un resultado cualquiera del 1 al 6 es igualmente probable (supuestos
dados ideales, perfectamente equilibrados). Sin embargo, es fácil darse
cuenta de que la probabilidad de ocurrencia del evento “suma igual a 7”
(que puede surgir de los siguientes combinaciones: (1, 6), (2, 5), (3, 4),

1
Más adelante se explica el alcance técnico preciso del término inferencia en
estadística, por el momento considérese su significado usual: sacar una
consecuencia o deducir algo de otra cosa. (Diccionario RAE).
2
Se dice así de un par de números, en este caso enteros del 1 al 6, cuyo orden
importa, ya que el primer número consigna el resultado de un dado (por ejemplo,
el rojo) y el segundo, el del otro dado. Así (1,5) y (5,1) refieren a distintos
resultados.
3
También se suele referir como “suceso”.
(4, 3), (5, 2) y (6, 1)) es distinta de la que asociaríamos a la ocurrencia
del evento “suma igual a 2” (sólo posible cuando cada dado sale con 1).

Sin decirlo, estamos aquí asumiendo que la probabilidad de ocurrencia de


un determinado evento está relacionada con el número de posibles
resultados que lo determinan (los llamaremos resultados favorables)
relativo al número total de resultados posibles.

Éste, que estamos asumiendo implícitamente es uno de los enfoques en


la teoría de la probabilidad, denominado enfoque clásico y que le adjudica
a cada evento una probabilidad dada por:

Numero deResultados favorables al evento E


P(E) =
Numero de Resultados posibles

Donde P(E) se lee como: Probabilidad de ocurrencia del evento E.

Ejemplo 1: El enfoque clásico

Este enfoque le adjudicaría a la probabilidad de extraer al azar una carta


de copas de un mazo de barajas españolas un valor de 10 / 40 = 0,25, a
la de extraer un 7 de cualquier palo un valor 4 / 40 = 0,10 y a la de extraer
exactamente el 5 de oro un valor 1 / 40 = 0,025.

Supongamos el juego que consiste en tirar una moneda 2 veces. ¿Cuál


es la probabilidad de que salgan 2 caras?

De acuerdo al esquema que hemos presentado deberíamos cuantificar


los resultados posibles. Estos serían:
Ω = {(C,C) (C,S) (S,C) (S,S)} Cantidad de elementos: 4
Aquí, cara se indica con la letra C, ceca con la letra S y Ω (omega) es el
conjunto de resultados posibles, también llamado Espacio Muestral.

Y los casos favorables son:


F = {(C,C) } Cantidad de elementos: 1
Por lo tanto, la probabilidad calculada con el enfoque clásico será:

P [(C,C)] = 1 = 0,25
4
Es fácil ver que en todos los casos referidos se cumplen las siguientes 3
afirmaciones:

1) La probabilidad de que se obtenga alguno de los resultados


(cualquiera sea) es igual a 1, o sea, hay certeza, ya que siempre
se obtiene algún resultado.
2) La probabilidad de ocurrencia de un evento cualquiera nunca es
negativa. Se trata de un cociente entre cantidades no negativas,
donde el denominador nunca es cero, aunque el numerador
puede serlo.
3) Si dos eventos S 1 y S 2 son mutuamente excluyentes (no
pueden ocurrir simultáneamente), entonces la probabilidad de
que ocurra uno u otro es la suma de la probabilidad de ocurrencia
de uno más la probabilidad de ocurrencia del segundo, o sea:
P(S 1 ∪ S 2 ) = P(S 1 ) + P(S 2 ) (Aquí el símbolo ∪ debe leerse
como una o).

Esta última afirmación la ilustraremos en el siguiente ejemplo.

Ejemplo 2: Probabilidad de eventos mutuamente excluyentes

Supongamos en el juego ya explicado que consiste en tirar una moneda 2


veces. ¿Cuál es la probabilidad de que salgan 2 caras ó 2 cecas?
Fijémonos que ambos eventos son mutuamente excluyentes, es decir,
que la ocurrencia de uno de ellos implica la no ocurrencia del otro.

De acuerdo al esquema ya visto los resultados posibles son:


Ω = {(C,C) (C,S) (S,C) (S,S)} Cantidad de elementos: 4
y los casos favorables son:
F = {(C,C) (S,S) } Cantidad de elementos: 2
P [(C,C) ∪ (S,S)] = 1 = 0,50
2

Pero esta probabilidad podría haberse obtenido calculando


separadamente:
Probabilidad de que salgan 2 caras: P [(C,C)] = 1 = 0,25
4
Probabilidad de que salgan 2 cecas: P [(S,S)] = 1 = 0,25
4
Y luego, sumando ambas probabilidades:
P [(C,C) ∪ (S,S)] = P [(C,C) ] + P [(S,S)] = 1 + 1 = 1 = 0,50
4 4 2

2. El enfoque axiomático
En la moderna teoría de la probabilidad, las 3 afirmaciones mencionadas
más arriba se toman como punto de partida (axiomas) para construir una
teoría abstracta de la probabilidad que permite independizar dicho
concepto de los experimentos reales y trabajar con casos donde la
probabilidad de ocurrencia de cada resultado no sea igual para todos
ellos.

Para nuestro objetivo, que es la comprensión intuitiva y no formal ni


rigurosa de los conceptos estadísticos, conviene más el primer enfoque,
por lo que nos basaremos en él mientras no se presenten limitaciones o
inconvenientes.

Volviendo al ejemplo de los dados, lo aprovecharemos para ilustrar


algunos conceptos:

Experimento aleatorio: Es un proceso mediante el cual se obtiene una


observación de un fenómeno, o sea un resultado. Se denomina aleatorio
porque no se puede predecir cuál será el resultado aunque se lo repita
bajo las mismas condiciones. Ejemplo de un experimento aleatorio sería
arrojar dos dados y un ejemplo de resultado sería (1, 6).

Espacio muestral: Es el conjunto Ω de todos los resultados posibles


de un experimento aleatorio. En nuestro caso sería el conjunto de 36
posibles resultados:

Ω = {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 1), (2, 2), (2, 3), (2 4),
(2, 5), (2, 6), (3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6), (4, 1), (4, 2), (4, 3),
(4, 4), (4, 5), (4, 6), (5, 1), (5, 2), (5, 3), (5 4), (5, 5), (5, 6), (6, 1),
(6, 2), (6, 3), (6, 4), (6, 5), (6, 6)}

Evento: Es un subconjunto del espacio muestral. En nuestro caso,


definimos 11 eventos o lo que es lo mismo 11 subconjuntos al plantear
que lo que nos interesa es el valor de la suma de los puntos de ambos
dados:

E1 (2 puntos) = {(1, 1)}


E2 (3 puntos) = {(1, 2), (2, 1)}
E3 (4 puntos) = {(1, 3), (2, 2), (3, 1)}
E4 (5 puntos) = {(1, 4), (2, 3), (3, 2), (4, 1)}
E5 (6 puntos) = {(1, 5), (2, 4), (3, 3), (4, 2), (5, 1)}
E6 (7 puntos) = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}
E7 (8 puntos) = {(2, 6), (3, 5), (4, 4), (5, 3), (6, 2)}
E8 (9 puntos) = {(3, 6), (4, 5), (5 4), (6, 3)}
E9 (10 puntos) = {(4, 6), (5, 5), (6, 4)}
E10 (11 puntos) = {(5, 6), (6, 5)}
E11 (12 puntos) = {(6, 6)}

3. Variable aleatoria y distribución de probabilidad


Dado un experimento aleatorio y su correspondiente espacio muestral,
4
denominamos variable aleatoria a una función que relaciona cada
elemento del espacio muestral con un número real. Para entender en
forma más intuitiva el concepto, diremos que en el caso de nuestro
ejemplo lo que hacemos es asociar a cada resultado un valor real
coincidente con la suma de los puntos que exhiben las caras de los
dados. Así, por ejemplo, se asocia a todos y cada uno de los resultados
pertenecientes al evento E3 el valor 4 y así para todos. Para que sea
más evidente la lógica que hemos elegido para la asignación, podemos
bautizar a nuestra variable con el nombre “puntos obtenidos” y así,
confeccionar una tabla (Figura 1) donde volcamos estos datos.

Figura 1

4
Dado que el resultado del experimento es azaroso o aleatorio, el valor que toma
la función mencionada también lo es. De allí su nombre. A veces, se la llama
también Función Aleatoria.
De esta manera, en lugar de tener que trabajar con pares ordenados
podemos trabajar con números reales, cada uno de los cuales hace
referencia a un subconjunto de resultados de nuestro experimento.

Veremos cómo eso facilita enormemente el trabajo al resultar en una


notación sucinta, y sujeta a las leyes del álgebra de los números reales,
que es bien conocida y sencilla de operar. Es de destacar que la elección
de los valores que toma la variable aleatoria para los resultados
correspondientes a cada evento es completamente arbitraria.

Por ejemplo, si el experimento fuera tirar una moneda y ver si sale cara o
ceca, se les podrían asignar a dichos resultados (que también son los
eventos de interés en este caso) los números 0 y 1, respectivamente.
Pero también, con la misma legitimidad, se les podrían asignar otros
valores como -1 y 1; o quizás 0 y 10, etc.

En adelante, entonces, en lugar de referirnos a un evento, podemos


referirnos al valor de la variable aleatoria con la que hemos asociado a
los resultados que incluye. Así P [(1,3) ∪ (2,2) ∪ (3,1)] ≡ P(4) , donde el
símbolo ≡ debe leerse como “equivale a”.

Función de probabilidad: Es una función que le hace corresponder a


cada uno de los valores de una variable aleatoria, un valor de
probabilidad. Con esto agregamos una columna en el cuadro anterior,
haciendo corresponder a cada variable aleatoria una probabilidad de
ocurrencia. En nuestro ejemplo, ya habíamos decidido el criterio: era el
dado por la fórmula.

Numero deResultados favorables al evento E


P(E) =
Numero de Resultados posibles

Por lo tanto, nuestro cuadro quedaría como en la Figura 2:


Figura 2

Como puede fácilmente verificarse la suma de las probabilidades es (y


debe ser) igual a 1. Como ya se dijo, esta asignación de los valores de
probabilidad a los distintos valores de la variable aleatoria se denomina
Función de Probabilidad o también Distribución de Probabilidad. Es
una función que asigna a todos y cada uno de los valores de X un (y sólo
un) valor dentro del intervalo [0,1] de los números reales.

P(X) : X → R[0,1]

Para que la función de probabilidad esté bien definida los eventos que
corresponden a los distintos valores de la variable aleatoria deben ser
mutuamente excluyentes (si ocurre alguno no puede ocurrir otro) y
colectivamente exhaustivos (todos los eventos posibles deben estar
contemplados).

Representación gráfica de la distribución de probabilidad

Se utiliza un diagrama de barras donde en horizontal se consignan los


valores que puede tomar X, y a cada uno de ellos se le hace
corresponder una barra vertical cuya altura es proporcional a su
probabilidad asociada.
Figura 3

De esta manera, con la Función de Probabilidad o con su gráfica tenemos


una descripción estadística de un proceso que a pesar de estar regido
por el azar, tiene sus valores posibles y las probabilidades asociadas con
los mismos, claramente, delimitadas y descriptas.

Ejemplo 3: Otro juego con monedas

Para fijar ideas, vamos a encontrar el espacio muestral, la variable


aleatoria asociada a los resultados incluidos en el mismo y la función de
probabilidad del experimento consistente en arrojar 3 veces una moneda
y contabilizar la cantidad de caras obtenidas.

Espacio muestral:

Ω = {(C C C), (C C S), (C S C), (C S S), (S C C), (S C S), (S S C), (S S


S)}

Variable aleatoria asociada a los eventos:


Probabilidades asociadas a la variable aleatoria X (Distribución de
probabilidad)

Representación gráfica de la distribución de probabilidad

Figura 4

4. Distribuciones conjuntas de probabilidad


Supongamos analizar otra vez el juego consistente en tirar 2 veces una
moneda. Pero esta vez, pensemos en 2 grupos de apostadores. Por un
lado. un primer grupo interesado en la cantidad de caras que salen en las
2 tiradas. Por otro lado. un segundo grupo interesado solamente en saber
si sale cara en la primera tirada.
Aquí. tenemos el caso de un único experimento aleatorio (y. por lo
tanto. un único espacio muestral) que da lugar a dos distintas
particiones debido a dos distintas definiciones de los eventos de interés.
Cada definición de los eventos dará lugar a una distinta variable
aleatoria y cada variable aleatoria tendrá una distinta distribución de
probabilidad. En síntesis, si llamamos X a la variable aleatoria
“cantidad de caras” e Y a la variable aleatoria “cara en la primera tirada”,
podemos definir:

Espacio muestral (Común a X e Y)

Ω = {(C C), (C S), (S C), (S S)}

Eventos. Variables aleatorias y Distribuciones de Probabilidad

Para X = “Número de caras en las dos tiradas”

Para Y = “Cara en la primer tirada”

Estas probabilidades pueden representarse alternativamente en un


cuadro como el que sigue:

El cuadro es una tabla de doble entrada y por lo tanto las probabilidades


de cada celda deben entenderse como probabilidades conjuntas. Por
ejemplo, la probabilidad de que X sea igual a cero y, simultáneamente, Y
sea igual a cero la encontraremos en la celda ubicada en el cruce entre la
columna X = 0.y la fila Y = 0.

P(X = 0 ∩ Y = 0) = 1/ 4 (donde el símbolo ∩ debe leerse como “y”)

Obviamente, es imposible obtener cero caras en las dos tiradas y cara en


la primera tirada, como lo refleja el valor del cuadro correspondiente a
P(X = 0 ∩ Y = 1) = 0 , lo mismo que obtener dos caras en las dos tiradas y
ninguna cara en la primera : P(X = 2 ∩ Y = 0) = 0 .

Para obtener las probabilidades simples (también llamadas marginales,


no condicionales o incondicionadas, como veremos luego), por ejemplo,
P (X = 2), sólo se deben sumar las probabilidades conjuntas en las que
X=2 para todos los valores posibles de Y. Igualmente en el caso de las
probabilidades simples de la variable Y. Así:

P(X = 0) = P(X = 0 ∩ Y = 0) + P(X = 0 ∩ Y = 1) = 1/ 4 + 0 = 1/ 4

P(Y = 1) = P(X = 0 ∩ Y = 1) + P(X = 1∩ Y = 1) + P(X = 2 ∩ Y = 1)


P(Y = 1) = 0 + 1/ 4 + 1/ 4 = 1/ 2

Como en el cuadro, estas sumas se hacen a lo largo de una línea (fila o


columna), se acostumbra ubicar los valores resultantes al final de la
misma, o sea, en el margen del cuadro. Por lo que estas probabilidades
reciben el nombre de probabilidades marginales.

Probabilidad Condicional

Supóngase que el primer tiro sale cara. Una vez conocido este dato la
probabilidad de obtener 2 caras depende sólo de la segunda tirada ya
que los resultados posibles se reducen ahora a:
Ω ’ = {(C C), (C S} (espacio muestral relevante una vez conocido que
salió cara en la primera tirada).
Por lo tanto, ahora P(X=2) = P [(C, C)]=1/2.

Para no confundir esta situación con la situación inicial, se adopta una


terminología y una simbología específicas. A la probabilidad recién
calculada, se la denomina “Probabilidad condicional de X=2 dado que se
conoce que Y=1 “, y se simboliza como: P(X = 2 Y = 1) donde el
símbolo se lee como “dado que “.

Para obtener las probabilidades condicionales a partir del cuadro debe


considerarse que al conocerse el resultado de una de las variables
aleatorias, el cuadro queda reducido. Así si se conoce que en la primera
tirada salió cara (Y=1) el espacio muestral relevante queda reducido a
dicho renglón y se aplica, entonces, la llamada Regla de Bayes:

P(X ∩ Y)
P(X Y) =
P(Y)

que en este caso quedaría como:

P(X = 2 ∩ Y = 1) 1/ 4
P(X = 2 Y = 1) = = = 1/ 2
P(Y = 1) 1/ 2

Otro ejemplo sería el cálculo de la probabilidad de que la primera tirada


haya salido cara, dado que se conoce que hubo 2 caras en las dos
tiradas.

P(Y = 1 ∩ X = 2) 1/ 4
P(Y = 1 X = 2) = = =1
P(X = 2) 1/ 4

Resulta claro que si se conoce que salieron dos caras, hay certeza
(Probabilidad=1) de que en la primera tirada salió cara.

Ejemplo 4: Cálculo de probabilidades condicionales en el


juego de las 3 monedas

Calculemos las probabilidades conjuntas, marginales y condicionales en


el juego de las 3 monedas visto en el ejemplo 3. A la variable X
=”cantidad de caras”, le agregamos la variable aleatoria Y = “cara en la
primer tirada”.
El espacio muestral es el definido en dicho ejemplo, o sea:
Ω = {(C C C), (C C S), (C S C), (C S S), (S C C), (S C S), (S S C), (S S
S)}

Las probabilidades conjuntas y marginales pueden quedar


completamente definidas mediante un cuadro como el que se usó en el
ejemplo anterior:

Las probabilidades condicionales pueden calcularse con la regla de


Bayes, por ejemplo

P(Y = 1 ∩ X = 2) 1/ 4 2
P(Y = 1 X = 2) = = =
P(X = 2) 3/8 3

P(X = 1 ∩ Y = 0) 1/ 4 1
P(X = 1 Y = 0) = = =
P(Y = 0) 1/ 2 2

P(Y = 0 ∩ X = 3) 0
P(Y = 0 X = 3) = = =0
P(X = 3) 1/ 8

Independencia de dos variables aleatorias

Intuitivamente, se dice de dos eventos que son independientes si el


saber que uno ocurrió, no nos da ninguna información sobre si el otro ha
ocurrido o no. Más técnicamente, diremos que dos variables aleatorias
son independientes si, para todo evento X de la primera variable y para
todo evento Y de la segunda variable se cumple que:

P(X Y) = P(X) y P(Y X) = P(Y)


con lo cual estamos diciendo que el conocimiento del valor adoptado por
la otra variable, en ningún caso altera o modifica la distribución de
probabilidad correspondiente a la primera.

Esto tiene algunas consecuencias sobre el cálculo de las probabilidades.


Si se recuerda la regla de Bayes:
P(X ∩ Y)
Siempre que P(Y) ≠ 0 ; P(X Y) = y por lo tanto
P(Y)
P(X ∩ Y) = P(X Y) ⋅ P(Y)

Para el caso particular de dos variables aleatorias independientes, se


cumplirá que:

P(X ∩ Y) = P(X) ⋅ P(Y)

Se puede usar esta última relación como definición de independencia de


2 variables aleatorias con la ventaja de que no exige, como la primera
definición propuesta, la existencia de las probabilidades condicionales (o
sea que P (Y) o P(X) pueden ser iguales a cero).

Suele producirse confusión entre eventos independientes y eventos


mutuamente excluyentes. Nótese que si A y B son eventos mutuamente
excluyentes (o sea, que si ocurre uno no puede ocurrir el otro), el
conocimiento de que ocurrió A, por ejemplo, dice mucho sobre la
posibilidad de que ocurra B (dice que es imposible), por lo tanto, no son
eventos independientes.

Ejemplo 5: Independencia de variables aleatorias

En el juego de las dos monedas ya visto al tratar sobre probabilidades


conjuntas, habíamos definido dos variable aleatorias: X = “cantidad de
caras” e Y = “cara en la primera tirada”. ¿Son independientes?

Para ello, debería cumplirse que P(X ∩ Y) = P(X) ⋅ P(Y)


Esto se cumple en algunos casos:
1 1 1
P(X = 1 ∩ Y = 0) = P(X = 1) ⋅ P(Y = 0) = ⋅ =
2 2 4
1 1 1
pero no en otros: P(X = 0 ∩ Y = 1) = 0 ≠ P(X = 0) ⋅ P(Y = 1) = ⋅ =
4 2 8
Por lo tanto, las variables aleatorias X e Y no son independientes.

5. Parámetros de las distribuciones de probabilidad

Media o esperanza matemática de una variable aleatoria X

La media o esperanza matemática de una variable aleatoria X brinda


un valor medio de los valores de la misma y, por esta razón, se la
considera una medida de centralización, centralidad o posición. Nos
referiremos a ella mediante la letra griega µ (mu) o µ X (mu sub X)
cuando la llamemos media o con el símbolo E(X) (esperanza de X)
cuando la refiramos como esperanza matemática.

Técnicamente, la media es la suma ponderada de todos los valores


posibles de la variable. La ponderación es la probabilidad asociada a
cada valor de la variable. En notación matemática:

n
µ X = E(X) = ∑ X i ⋅ P(X i )
i =1
Esta es una notación abreviada para indicar una suma de n términos, en
la que el subíndice i recorre los valores de los números naturales desde 1
hasta n, según se indica debajo y arriba del símbolo de sumatoria (la
letra griega sigma, mayúscula).

El desarrollo de esta fórmula sería:

n
µ X = E(X) = ∑ X i ⋅ P(X i ) = X 1 ⋅ P(X 1 ) + X 2 ⋅ P(X 2 ) + ... + X n ⋅ P(X n )
i =1
Que en el caso de nuestro ejemplo de los dos dados arrojados queda:

 1   2   1 
µ X = E(X) = 2 ⋅   + 3 ⋅   + ... + 12 ⋅   = 7 (puntos)
 36   36   36 

Ejemplo 6: Media del juego de las 3 monedas

Aunque en el caso anterior E(X), coincida con el valor más probable (o


sea, el que tiene mayor probabilidad de ocurrencia, ver el cuadro de la
Función de probabilidad), en general, puede no ser así. Por ejemplo, en
el caso de la moneda arrojada al aire tres veces (Ejemplo 3):

 1 3 3  1
µ X = E(X) = 0 ⋅   + 1⋅   + 2 ⋅   + 3 ⋅   = 1,5 caras
8
  8
  8
  8

Sin embargo el valor 1,5 no es un valor admisible de la variable


aleatoria ni representa a ningún evento posible. Es por eso que, a
menudo, se sugiere pensar en la media o esperanza matemática de una
variable aleatoria como el centro de masa de la función de probabilidad
de la misma. Si imaginamos, en la representación gráfica de la
distribución de probabilidad del Ejemplo 3, el lugar donde debería
ubicarse el punto de balance de las barras, seguramente se elegiría el
punto correspondiente al valor 1,5.

Figura 5

Varianza de una variable aleatoria X

Es una medida de dispersión de los valores de la variable aleatoria X en


torno de su media µ x . Si los valores de X tienden a concentrarse
alrededor de la media, la varianza será pequeña, en tanto que si los
valores de X tienden a distribuirse lejos de la media, la varianza será
grande. Para referirnos a la varianza utilizamos la letra griega sigma
minúscula, elevada al cuadrado σ2X o en su caso la expresión Var(X) .
Técnicamente, la varianza es la suma ponderada del cuadrado de las
desviaciones de los valores de la variable aleatoria respecto del valor
esperado de la misma. Estos desvíos elevados al cuadrado se suman
ponderados por su probabilidad. Su fórmula matemática es:

n
σ2X = Var(X) = ∑ [X i − E(X i )] 2 ⋅ P(X i )
i =1
En nuestro ejemplo de los dados:

 1   2   1 
σ2X = Var(X) = (2 − 7)2 ⋅   + (3 − 7) ⋅   + ... + (12 − 7)2 ⋅   =
 36   36   36 
ˆ
= 5,83 (puntos al cuadrado)

Las unidades de la varianza no son las mismas que las de la variable


aleatoria. Por ejemplo, si la variable aleatoria es una variable
económica, un precio por ejemplo, se expresará en pesos, unidad que
compartirá con la esperanza o media, mientras que la varianza se
2
expresará en $ (pesos al cuadrado), lo cual no tiene un sentido intuitivo.
Por eso, se utiliza con mucha frecuencia una medida alternativa de
variabilidad: el desvío estándar, que se define como la raíz cuadrada
positiva de la varianza.

σ X = σ X 2 en nuestro ejemplo σ X = 2,42 (puntos)

Ejemplo 7: Varianza del juego de las 3 monedas

Calculemos la varianza y el desvío estándar de la variable aleatoria


“Cantidad de caras” desarrollado en el Ejemplo 3.

Varianza:

 1 3 3  1
σ2X = Var(X) = (0 − 1,5)2 ⋅   + (1 − 1,5) ⋅   + (2 − 1,5) ⋅   + (3 − 1,5)2 ⋅   =
8 8 8 8
´
2
= 0,75 (caras)
Desvío estándar:

σ X = σ X 2 = 0,75 = 0,86ˆ caras

Covarianza de dos variables aleatorias X e Y

La covarianza entre dos variables aleatorias mide de algún modo la


asociación entre las mismas, ya que evalúa en promedio la coincidencia
de realizaciones de las variables por encima y por debajo de la media.
Se habla, entonces, de distribución conjunta de las variables, en la idea
de que ambas miden alguna dimensión de un fenómeno que comparten.

Así, por ejemplo, un valor positivo de la covarianza de los retornos de dos


activos indicaría que ambos están afectados en cierta medida por los
mismos fenómenos, por ejemplo el auge o la declinación del ciclo
económico.

Inversamente, un valor nulo o muy pequeño de la covarianza indicaría


5
que evolucionan en forma independiente , mientras que también puede
darse el caso de que su dinámica sea inversa, por ejemplo, cuando un
activo tiene retornos por encima de su retorno medio, el otro está por
debajo. En este último caso, la covarianza sería negativa.

Para referirnos a la covarianza entre dos variables aleatorias X e Y,


utilizamos la letra griega sigma minúscula σ X Y o en su caso la expresión
Cov(X,Y)

Técnicamente, la covarianza es la suma ponderada del producto de las


desviaciones de los valores de la cada una de las variables aleatorias
respecto de su media. Estos productos de los desvíos se suman
ponderados por su probabilidad. Su fórmula matemática es:

n
σ XY = Cov(X,Y) = ∑ [X i − E(X i )] ⋅ [Y i − E(Y i )] ⋅ P(X i ,Y i )
i =1

5
En realidad, como la covarianza mide sólo un tipo de relación entre ambas
variables (la relación lineal), podría existir una relación no captada por la misma
(por ejemplo una relación cuadrática). Por eso, independencia y ausencia de
covarianza no son conceptos equivalentes. El primero implica al segundo, pero la
covarianza nula no implica independencia.
Ejemplo 8: Covarianza del juego de las dos monedas

Calculemos la covarianza de las variables aleatorias X e Y definidas para


el juego de las dos monedas, ya visto al tratar probabilidad conjunta.

Para cada variable aleatoria los cuadros correspondientes serían:

Con los datos, es fácil encontrar las esperanzas:


1 1 1 1 1 1
E(X) = 0 ⋅ + 1⋅ + 2 ⋅ = 1 cara y E(Y) = 0 ⋅ + 1⋅ = cara
4 2 4 2 2 2

y las varianzas :

Var(X) = 0,25 ⋅ (0 − 1)2 + 0,5 ⋅ (1 − 1)2 + 0,25 ⋅ (2 − 1)2 = 0,5 caras2 y


2 2 2
Var(Y) = 0,5 ⋅ (0 − 0,5) + 0,5 ⋅ (1 − 0,5) = 0,25 caras

mientras que la covarianza entre ambas variables aleatorias es:

σ XY = Cov(X, Y) =
= (0 − 1) ⋅ (0 − 0,5) ⋅ ( 0,25 ) + (1 − 1) ⋅ (0 − 0,5) ⋅ ( 0,25 ) + (2 − 1) ⋅ (0 − 0,5) ⋅ 0 +
+(0 − 1) ⋅ (1 − 0,5) ⋅ 0 + (1 − 1) ⋅ (1 − 0,5) ⋅ ( 0,25 ) + (2 − 1) ⋅ (1 − 0,5) ⋅ ( 0,25 ) =
= 0,125 + 0 + 0 + 0 + 0 + 0,125 = 0,25 caras 2
El valor positivo de la covarianza nos dice que un desvío positivo
respecto de la media en la variable X se asocia, o que en promedio se da,
con un desvío positivo respecto de la media en la variable Y.

Matriz de varianzas y covarianzas

La información de las variabilidades individuales y conjuntas de dos o


más variables aleatorias se suele resumir en la llamada matriz (cuadro)
de varianzas y covarianzas, denominada Σ (sigma mayúscula), que en el
caso de dos variables aleatorias X e Y sería:

 σ2 σ XY   0,5 0,25 
Σ XY =  X  que en nuestro caso sería Σ XY =  
σ YX
2
σ Y  0,25 0,25 

Por supuesto, como σ XY = σ YX el cuadro resulta simétrico respecto de la


diagonal.

Sin embargo, el número no resulta informativo de cuan fuerte es esta


relación directa entre las variables debido a que el valor numérico
obtenido está influenciado por los valores asignados a las mismas. Para
eliminar la influencia de los valores numéricos específicos que le fueron
asignados a la variable, se usa el coeficiente de correlación Corr(X,Y) ó
ρ X Y que se define como:
σX Y
ρX Y =
σ X2 ⋅ σ Y2

Este coeficiente toma valores entre 1 y -1. Cuando la correlación es


positiva y perfecta, vale 1. Cuando no hay correlación, toma el valor 0 y
cuando la correlación es total pero inversa toma el valor -1. En la práctica,
aparecen valores intermedios entre los valores extremos. En nuestro
ejemplo, y dado que σ2X = 0,50 y σ2Y = 0,25
0,25
ρX Y = = 0,707...
0,50 ⋅ 0,25

que es una correlación positiva que puede considerarse alta (más cerca
de uno que de cero). Como la varianza puede considerarse un caso
particular de covarianza (el caso de co variación de una serie consigo
σ XX σ X2
misma), se puede definir ρ X = ρ X X = = =1 y definir una
σ X2 ⋅ σ X2 σ X2
matriz de correlaciones de las variables X e Y como:
ρ ρ XY   1 0,707..
Ρ XY =  X  que en nuestro caso sería Ρ XY = 
ρYX ρ Y  0,707.. 1 

6. Variables aleatorias continuas y sus


distribuciones de probabilidad
Supongamos disponer de la distribución de probabilidades del retorno de
un activo, por ejemplo, acciones de un Banco Privado. En principio,
hemos tomado como valores posibles de la variable aleatoria los retornos
positivos del 1 % al 10 %, agrupados para poder representarlos sin cifras
decimales (el retorno 1 % agrupa todos los retornos desde 0 % hasta 1
%, el retorno 2 % agrupa todos los retornos superiores a 1 % pero que no
sobrepasan el 2 %, etc.). Supongamos una determinada distribución de
probabilidad para estos retornos, considerados una variable aleatoria,
como se indica en el gráfico.

Figura 6
Supongamos que luego hacemos un análisis más fino y obtenemos la
misma distribución de probabilidad pero permitiendo 1 cifra decimal.
Ahora, la cantidad de valores que puede tomar la variable aleatoria pasa
de 10 (1 % hasta 10 %) a 100 (0,1 % hasta 10,0 %).

La forma general de la gráfica no cambiará, pero las barras serán cada


vez más finas y a cada valor de la variable aleatoria le corresponderá un
valor menor de probabilidad, ya que la suma de las probabilidades
asignadas debe continuar siendo igual a uno (fíjese que la escala vertical
del cuadro cambia).

Figura 7

En el límite, cuando permitimos que cualquier valor real entre 0 y 10 se


presente, a cualquier valor determinado de la variable X (por ejemplo,
3,2475…%) le corresponderá un valor nulo de probabilidad. Sin embargo,
la forma de la distribución de probabilidades continuará siendo válida.

En este caso, estaríamos pasando de una variable aleatoria discreta a


una variable aleatoria continua. En el gráfico, marcamos la línea que
estaría indicando la distribución de la probabilidad para los valores de X:
Figura 8

La altura de la curva ya no representa la probabilidad de un valor


particular de la variable, ya que los rectángulos han devenido tan finos
que su ancho es nulo. La probabilidad de un valor dado cualquiera es
igual a cero. Lo que sí se puede medir es la probabilidad de que la
variable esté dentro de un intervalo determinado.

Por ejemplo, la probabilidad de que un retorno tome un valor entre el 5%


y el 8% está dada por la proporción del área bajo la curva entre los
puntos correspondientes a dichos valores de la variable aleatoria relativa
al total del área bajo la curva.

7. Distribución Normal o Gaussiana


La variable aleatoria continua más popular es la distribución normal o
Gaussiana (denominada así en honor al sabio alemán Carl Friedrich
Gauss). En la figura de más abajo, se representa una normal estándar, o
sea, una normal con media µ = 0 y varianza σ 2 = 1.
Figura 9

La curva representada se denomina Función de Densidad de


Probabilidad de la variable aleatoria X, y su fórmula, para el caso de una
distribución normal o Gaussiana con media genérica µ y desvío estándar
σ , viene dada por:

2
1  X −µ 
1 − 
2 σ 

f(X) = e
2π ⋅σ

Aquí µ y σ , la media y la varianza respectivamente, se denominan


parámetros de la distribución.

La esperanza matemática o media de la distribución ya no puede


n
calcularse con la fórmula antes mencionada µ = E(X) = ∑ X i ⋅ P(X i ) , ya
i =1
que existen infinitos valores de X y cada uno de ellos tiene probabilidad
nula. Se utiliza en su lugar una operación análoga de la suma, pero apta
para funciones continuas que se denomina integración. Así:

+∞
µ X = E(X) = ∫ X ⋅ f(X) dX
−∞
El lector no debe preocuparse por la resolución de la integral, sino más
bien por captar que el concepto de la esperanza matemática se mantiene.
Es una medida de centralización de la variable aleatoria X que se
obtiene como una “suma” de los valores de la misma ponderados por su
probabilidad de ocurrencia.

Igualmente, el cálculo de la varianza (y su raíz cuadrada el desvío


estándar) ahora se calculan mediante integrales.

+∞
σ 2X = ∫ (X − µ X ) 2 ⋅ f(X) dX
−∞

Las características salientes de la distribución normal son las siguientes:

• La variable aleatoria puede tomar valores desde - ∞ hasta ∞ .


• La densidad de probabilidad es simétrica, tiene forma de
campana y está centrada en el valor X = µ .
• Presenta puntos de inflexión (cambio de curvatura de cóncavo a
convexo) en coincidencia con los valores ( µ - σ ) y ( µ + σ ), de la
variable aleatoria X.

Hay un número infinito de distribuciones normales posibles, dependiendo


del valor de la media y el valor del desvío estándar. Conociendo dichos
parámetros queda indubitablemente especificada la distribución, toda vez
que en la expresión de la Función de Densidad sólo intervienen dichos
valores. Por ejemplo, en la Figura 10 se ha representado una distribución
normal con media µ = 8 y desvío σ = 3: N (8, 9).
Figura 10

Como puede verse en el gráfico, la media µ es una medida de posición


que nos indica el centro de la distribución. En la normal, por ser una
distribución simétrica y unimodal (con un solo pico) la media también
coincide con el modo (el valor de la variable aleatoria para el cual la
probabilidad es mayor) y con la mediana (valor de X que divide al área
en partes iguales). En la Figura 11, se representan dos normales con
distinta media y la misma varianza.

Figura 11
El desvío estándar σ , por su parte, es una medida de la dispersión o
variabilidad de la distribución. Cuando el desvío estándar σ es
relativamente chico, la distribución es delgada y alta, mientras que si σ
es relativamente grande, la curva es amplia y chata. En la figura, se
representan dos normales con la misma media y distinta varianza

Figura 12

Esto explica que, como veremos más adelante, el desvío estándar sea
utilizado en los estudios financieros como una medida del riesgo. En el
caso ilustrado en la figura para el mismo retorno medio (8 %), la curva
con σ = 3 presenta mucha mayor incertidumbre sobre el valor que
finalmente se observará.

Volviendo al tema del cálculo de probabilidades, como decíamos, la altura


de la curva ya no representa la probabilidad de un valor particular de la
variable, porque los rectángulos se han vuelto tan finos que su ancho es
nulo y la probabilidad de un valor dado cualquiera es igual a cero.

Lo que sí se puede medir es la probabilidad de que la variable esté dentro


de un intervalo determinado. Por ejemplo, la probabilidad de que la
variable tome un valor entre -1 y 1 está dada por el área bajo la curva de
densidad de probabilidad entre los valores – 1 y 1 de la variable
aleatoria. Por supuesto, el área bajo toda la curva (o sea entre - ∞ y +
∞ ) debe tomar un valor igual a uno, dado que representa toda la
probabilidad.
Por ejemplo, en la distribución normal que ya hemos ejemplificado ( µ = 8
y σ = 3), y suponiendo que la variable aleatoria describa un retorno
financiero, la probabilidad de tener un retorno mayor que 8 %, estará
dado por el área bajo la curva en el intervalo [8, ∞ ]. En este caso, por la
simetría de la distribución P(X ≥ 8) = 0,5 .

Figura 13

La distribución normal es una distribución exhaustivamente estudiada y


conviene retener alguna de sus características. Por ejemplo, el área bajo
la curva, es decir la probabilidad, para un intervalo ( µ - σ ) y ( µ + σ ), es
de 0,68 (o sea 68 %). En nuestro ejemplo, el intervalo sería [5%; 11%].
Por lo tanto, P(5 ≤ X ≤ 11) = 0,68 . También, por simetría,
P(5 ≤ X ≤ 8) = 0,34 y P(8 ≤ X ≤ 11) = 0,34 .
Figura 14

Cuando el intervalo abarca dos desvíos estándar a partir de la media, por


encima y por debajo de la misma, la probabilidad suma 95,45 %.

Si tomamos 3 desvíos estándar la probabilidad suma 99,73 %. Es decir,


que los retornos por encima y por debajo de tres desvíos estándar de la
media (en nuestro caso sería inferiores a – 1 % o superiores a 17 %
tienen probabilidad de ocurrencia prácticamente nula. Ésta es una de las
justificaciones para usar la distribución normal en variables que
claramente no pueden tomar valores extremos (muy bajos o muy altos).
Aunque la distribución los permite, la probabilidad que les asigna es
prácticamente nula.

Ejemplo 9: Distribución Normal de los retornos financieros

Supongamos que se ha determinado que los retornos de un cierto activo


financiero se distribuyen según una normal con media 3% y desvío 1,5%.

9.1 ¿Cuál es la probabilidad de obtener retornos de 4,5 % o más?

Para resolver, tomemos en cuenta que 4,5% es, en nuestro caso la media
µ más un desvío σ . Por lo tanto:

− Sabemos que el área total bajo la curva vale 1.


− Por simetría, el área desde la media hasta + ∞ es 0,5.
− Como sabemos, el área entre µ y µ + σ es 0,34.
− El área por encima de µ + σ será: 0,5 -0,34 = 0,16.

La probabilidad de obtener retornos del 4,5 % o más es del 16 %


9.2 ¿Cuál es la probabilidad de obtener retornos de 6 % o más?

Para resolver, tomemos en cuenta que 6 % es, en nuestro caso, la media


µ más dos desvíos σ . Por lo tanto:

− Como vimos, el área desde la media hasta + ∞ es 0,5.


− Cuando el intervalo abarca dos desvíos estándar a partir de la
media, por encima y por debajo de la misma, el área vale 0,9545.
− Por simetría, el área entre µ y µ + 2 σ es la mitad, o sea
0,47725.
− El área por encima de µ + 2 σ será : 0,5 -0,47725 = 0,02275 =
2,3 %

La probabilidad de obtener retornos del 6 % o más es del 2,3 %

El lector debería poder verificar que:

• La probabilidad de obtener retornos del 7,5% o más, es del


0,14%.

• La probabilidad de obtener retornos negativos es del 2,3 %

Otras características de las distribuciones continuas: Simetría


y Curtosis

Simetría

La simetría de la función normal respecto de la línea vertical trazada


sobre su media, es evidente. Existen otras distribuciones, sin embargo,
que no lo son y para cuantificar dicha asimetría, se utiliza un parámetro
que se denomina Coeficiente de Asimetría o Skewness. Su fórmula
matemática para el caso de una variable discreta X es:

n
∑ [X i − E(X i )] 3 ⋅ P(X i )
i =1
A(X) =
σ3

En el caso de las distribuciones continuas, existe una fórmula análoga


con integrales.
En el caso de la normal y cualquier otra distribución simétrica, A = 0. Si A
> 0 se dice que la distribución es asimétrica positiva. En este caso, las
desviaciones positivas respecto de la media (elevadas al cubo y
multiplicadas por sus respectivas probabilidades) priman sobre las
negativas. Los valores bajos de la variable tienen una densidad de
probabilidad bastante concentrada mientras que los valores altos tienen
una densidad de probabilidad muy distribuida (ver figura).

Figura 15

En el caso de la asimetría positiva, se cumple que: µ (media) > M (modo).


Si A < 0 (asimetría negativa), todo lo contrario y µ (media) < M (modo).
En la Figura 15, se muestra una distribución de probabilidad con
asimetría positiva.

Curtosis

La Curtosis (en inglés Kurtosis), por su parte, mide el apuntamiento de


la función de densidad de probabilidad. Su fórmula matemática para el
caso de una variable discreta X es:

n
∑ [X i − E(X i )] 4 ⋅ P(X i )
i =1
K(X) =
σ4
Una distribución con alta curtosis tiende a tener un pico bien distinguible
cerca de la media, declina rápidamente y tiene colas pesadas. Una
distribución con baja curtosis tiende a tener un valor máximo suave cerca
de la media en vez de un pico marcado.

En el caso de la distribución normal K = 3, por lo general, se suele


comparar la curtosis de las distribuciones de probabilidad con la curtosis
de la distribución normal.

Si K = 3 se dice que la distribución es mesocúrtica (tiene la misma


curtosis que la normal).

Si K > 3 la distribución es leptocúrtica (tiene mayor curtosis que la


normal). Este es el caso de interés en finanzas, dado que se ha verificado
una tendencia de los retornos de los activos a asumir una distribución de
probabilidad leptocúrtica.

Como dijimos, una distribución leptocúrtica se caracteriza por tener mayor


apuntamiento que una normal y a la vez colas de la distribución más
“pesadas”, es decir, con valores de probabilidad más altos que los de la
normal. En este caso, los valores muy alejados de la media tienen
asociados valores de probabilidad no despreciables.

Un ejemplo de distribución leptocúrtica es la distribución llamada t de


Student (ver figura).

Figura 16
Finalmente, si K < 3 se dice que la distribución es platicúrtica.

Nota: Algunos autores definen a la curtosis como: Curtosis = K – 3. En


este caso, un valor distinto de cero indicaría un apartamiento de la
normal.

Ejemplo 10: Generación de observaciones con distribución


normal estándar

EViews® tiene entre sus posibilidades la de generar números al azar


provenientes de distintas distribuciones conocidas.

Generaremos, por ejemplo, 1000 valores al azar extraídos de una


distribución normal estándar. Para hacerlo abrimos un nuevo archivo no
estructurado con 1000 observaciones mediante las instrucciones: File /
New / Workfile y en la ventana Workfile Create, seleccionamos como
estructura Unstructured-Undated y como rango 1000.

Figura 17

Para que el lector pueda reproducir el experimento debemos inicializar el


generador de números aleatorios tipeando en la ventana de comandos
rndseed 123456 y luego Enter (para acceder a la ventana de comandos,
si no se encuentra visible, seleccionar en el menú principal
Window/Command).

Luego, seleccionamos Quick /Generate Series... y, en la ventanilla, que


aparece escribimos:
r = nrnd

Figura 18

r indica el nombre de la serie que estamos generando, nrnd es la


instrucción de generación de números aleatorios tomados de la normal
estándar. El lector puede abrir desde el menú principal con Help/EViews
Help Topics la ventana de ayuda y en la solapa Buscar tipear nrnd. Le
aparecerá una hoja de ayuda (el único inconveniente puede ser el idioma)
que le explicará en detalle el uso del comando. En la parte inferior de la
página de ayuda al comando nrnd, encontrará bajo el nombre de Cross-
references (referencias cruzadas) un enlace (link) denominado
Statistical Distribution Functions. Este enlace lo llevará a la hoja de
®
ayuda con ese nombre donde verá la amplia capacidad de EViews para
generar números aleatorios de un variado menú de distribuciones de
probabilidad.

Volviendo a nuestro ejemplo, vemos la serie que se ha generado. En


primer lugar, verifiquemos que ha aparecido un nuevo objeto denominado
r en la ventana del archivo de trabajo y si lo abrimos haciendo doble clic
en el ícono vemos una hoja de cálculo con los valores generados.
Seleccionando View / Graph / Line vemos un gráfico de los datos.

Figura 19
Seleccionando View / Descriptive Statistics / Histogram and Stats,
veremos un histograma de los datos y los principales estadísticos
calculados a partir de los mismos.

Figura 20

Si analizamos este histograma vemos lo siguiente:

El gráfico de barras es campanular, replicando aproximadamente la forma


de la función de densidad de la normal, que es la distribución de origen.

− La media de los datos es muy aproximadamente igual a cero (mean =


- 0,004067).
− El desvío estándar de los datos es muy aproximadamente igual a uno
(std. dev. = 0,989490).
− El coeficiente de asimetría A es aproximadamente igual a cero
(skewness = 0,067239).
− El coeficiente de Curtosis es aproximadamente igual a 3 (Kurtosis =
2,887803).
− Los datos están confinados a un intervalo aproximadamente igual a [-
3, +3] (Maximum = 3,747901, Minimum =- 2,964238).
Ejemplo 11: Generación de observaciones con distribución
normal genérica

Si deseamos generar números aleatorios con una distribución normal con


media µ = 3 y desvío estándar σ = 1,5 (que denotamos como
N(3;1,5 2 ) , podemos aprovechar de la siguiente propiedad:

Propiedad: Si X es una variable aleatoria N (0,1), Y = a + b X es


N(a;b 2 )

por lo tanto, para generar valores correspondientes a una normal


N(3;1,5 2 ) , generamos una variable X ~ N (0,1) y hacemos Y = 3 + 1,5 *
X.

En nuestro caso, repetimos los pasos del ejemplo anterior y, en la casilla


de la ventana Generate Series by Equation, escribimos r2 = 3 + 1.5 * r.

Si observamos el histograma y los datos estadísticos de la serie que se


ha generado, vemos que hemos logrado nuestro cometido. La media es
aproximadamente 3 (mean = 2,993900) y el desvío estándar
aproximadamente 1,5 (std. dev. = 1,484235). También, el lector deberá
verificar la curtosis, la asimetría y el rango para convencerse de que los
datos simulados han sido extraídos de una normal como la deseada.

Figura 21
Ejemplo 12: Caracterización de datos empíricos

Ahora, intentaremos el camino inverso. Tomamos los datos reales de los


retornos de un activo y vemos su histograma, tratando de determinar de
qué tipo de distribución han sido extraídos. En cierto modo, estaríamos
suponiendo que los valores de los retornos han sido generados por un
proceso aleatorio, el cual trataremos de reconocer a partir de los datos de
que disponemos y que constituyen una muestra del mismo.

Utilizaremos el archivo precios.wf1 ubicado en el CD y analizaremos los


retornos del Banco Francés. Podemos generar la serie de retornos a
partir de la serie de precios (Serie FRAN en el archivo), seleccionando
Quick /Generate Series... e ingresando la fórmula r_fran = dlog(fran).

Yendo a la ventana del archivo de trabajo, con un doble clic en el ícono


de la serie R_FRAN recién creada podemos ver la serie.

Si elegimos View / Graph / Line, vemos un gráfico de los datos.

Figura 22

Luego, elegimos ver el histograma de los datos con View / Descriptive


Statistics / Histogram and Stats y tenemos:
Figura 23

Vemos que el histograma tiene forma campanular típica de la normal


(pero también de otras distribuciones de probabilidad). Claramente, la
curtosis es más alta que la correspondiente a una normal (6,37 versus 3
de la normal) y, además, el coeficiente de asimetría es un poco elevado,
mostrando asimetría negativa. El histograma muestra dos características
asociadas a la leptocurtosis. En primer lugar, una cima apuntada y, en
segundo lugar, valores muy alejados de la media (colas pesadas).

8. Otras distribuciones de probabilidad usuales


En los capítulos posteriores, se hará referencia a algunas distribuciones
importantes para el análisis estadístico, que surgen a partir de la
distribución normal y que son las siguientes:

2
Distribución Chi – cuadrado ( χ )

Si X 1 ,X 2 ,...,X n son variables aleatorias independientes, distribuidas


normalmente, con media cero y varianza uno, o sea X i iid N(0,1) para i=
1, 2,..., n, entonces, la variable aleatoria Y que surge de:
Y = X 12 + X 22 + ... + X n2 se distribuye como Chi – cuadrado con n grados
de libertad, o sea:
Y χ2 (n) . La distribución chi – cuadrado tiene un solo parámetro y sólo
se define para valores no negativos de Y.

Figura 24

Distribución t de Student

Es una distribución también derivada de la normal. Si X e Y son variables


aleatorias independientes, y X está distribuida normalmente con media
cero y varianza uno, mientras que Y está distribuida como chi – cuadrado,
con n grados de libertad, o sea: X N(0,1) y Y χ2 (n) , entonces, la
X
variable aleatoria T que surge de T = tiene la distribución t con n
Y /n
grados de libertad, o sea T t(n) .

La distribución t comparte algunas propiedades con la normal, como por


ejemplo su forma campanular, su simetría, etc. pero tiene mayor curtosis
para valores de n bajos, mientras que para n = 30 es casi asimilable a
una normal.
Figura 25

Debido a esta propiedad de la distribución de tener un exceso de


curtosis, tal como se observa en los histogramas, en los análisis
académicos se supone, muchas veces, que la distribución de los retornos
financieros sigue una distribución t.

Distribución F de Snedecor

Si dos variables V1 y V 2 son independientes y tienen distribuciones chi –


cuadrado con ν 1 y ν 2 grados de libertad respectivamente, la variable
V1 / ν 1
V= se distribuye con distribución F con ν 1 y ν 2 grados de
V2 / ν 2
libertad, o sea: V F(ν 1, ν 2 ) .
Figura 26

Como vemos, en este caso, la distribución tiene dos parámetros.

Ejemplo 13: Trabajo con distribuciones de probabilidad

Vamos a trabajar con las distribuciones de probabilidad aprovechando las


®
facilidades del programa EViews . Para hacerlo, abrimos el programa y
generamos un nuevo archivo llamado distribuciones.wf1 con:
File/New/Workfile... y elegimos 1000 datos no fechados.

Para que el lector pueda reproducir el experimento, debemos inicializar el


generador de números aleatorios tipeando en la ventana de comandos
rndseed 123456 y, Enter (para acceder a la ventana de comandos, si no
se encuentra visible, seleccionar en el menú principal
Window/Command).

Distribución normal

Generaremos varias variable normales con Quick/Generate Series... y


la fórmula x i = nrnd con i = 1, 2, 3, 4, 5. Una vez generadas deberíamos
chequear con View/Descriptive Statistics/Histogram and Stats la
forma general de la distribución, sus parámetros y, muy especialmente,
los test de normalidad (el test de Jarque-Bera) cuyo valor p debería ser
mayor que 0,05 en todos los casos. Otro chequeo es la independencia de
las series que podría constatarse, aproximadamente, mediante la baja
correlación entre ellas. Esto último lo comprobamos seleccionando todas
las series desde la ventana del archivo de trabajo y desplegando el
submenú con el botón derecho del mouse abrimos como Grupo. Luego,
con View/Descriptive Statistics/Common Sample disponemos de todos
las características de las series, incluso los tests de normalidad. También,
con View/Correlation/Common Sample, podemos verificar la matriz de
correlaciones, que nos muestra una baja correlación entre las mismas.

Figura 27

Ya que disponemos de 5 variables X distribuidas como normales


estándar (se dice así cuando la media es cero y al varianza uno),
podemos generar variables chi – cuadrado.

Generaremos chi_4 con las primeras tres normales mediante


Quick/Generate Series... y la fórmula:

chi_4 = x1^2 + x2^2 + x3^2 + x4^2

Para ver la distribución de la serie chi:4 generada intentando una chi-


cuadrado con 4 grados de libertad, hacemos doble clic en la serie y
vemos su histograma como vimos en los ejemplos anteriores. La forma
de la distribución es similar a la forma esperada (ver gráficos de la chi-
cuadrado).
Figura 28

La media teórica de una distribución chi-cuadrado es igual al número de


grados de libertad y su varianza es dos veces dicho número. Por lo tanto,
en nuestro caso, los valores teóricos son: µ=n=4 y
σ = 2 ⋅ n = 8 2,83 . Como vemos, nuestros datos empíricos
aproximan bien estos valores.

También, podemos hacer un test (prueba) estadístico. Todavía no hemos


visto qué significa esto, pero para poder volver sobre el tema una vez que
tengamos la teoría, hagamos View/Distribution/Empirical Distribution
Tests..., elijamos distribución chi-cuadrado (chi-square) y, si no ponemos
el número de grados de libertad, EViews® lo estima. Si lo ingresamos,
EViews® hace un test de correspondencia con la distribución teórica. En
el primer caso, se obtendrá un valor estimado de 3,930054 que es muy
similar al valor teórico y, en el segundo caso, la evidencia empírica llevará
a aceptar que se trata de una distribución chi-cuadrado. También, con
View/Distribution /Kernel Density Graphs...podemos obtener una
versión suavizada del histograma.
Figura 29

También, podemos generar una distribución t de Student con 4 grados de


libertad, mediante la generación de la variable t_4 = x5/@sqrt(chi_4/4).
Estaríamos aplicando la fórmula ya vista en la descripción de esta
distribución. El histograma de la serie generada es:

Figura 30

La media teórica de una distribución t es igual a cero y su varianza es


σ 2 = n / (n – 2). En nuestro caso, el valor teórico
sería: σ = 2 /(4 − 2) = 1,41 . Como vemos nuestros datos empíricos
aproximan estos valores.