Está en la página 1de 31

T.F.C.

Teorı́a de carteras:
Introducció n estadı́stica (*)

(*) esta presentación utiliza material de Ross et al., Brayley et al, y notas de Rodolfo Oviedo
Media muestral
s v = variable aleatoria
v h
ˆ
v
h 1 s = tamaño de muestra
s
Cada subíndice h se corresponde con
un elemento de la muestra.
La raya encima de la v indica media
(promedio).
El sombrerito indica que se trata de una
media muestral, y no poblacional.
3

La media muestral también puede expresarse del


siguiente modo:
m m = cantidad de distintos valores
Fv k k de v encontrados en la muestra
vˆ 
k 1

s F = frecuencia de cada valor de v


m (cantidad de veces que aparece
donde s   Fk un valor v en la muestra)
k 1
f = F/s = frecuencia relativa
m
vˆ   fk vk Cada subíndice k se corresponde
k 1
con un valor de la variable v.
Valor esperado
Cuando el tamaño de la muestra tiende a infinito, la
frecuencia relativa f tiende a la probabilidad p , y la
media muestral v tiende a la media poblacional o valor
esperado:
m
E(v)   pkv k (1)
k 1

A continuación, cuando nos resulte conveniente,


usaremos la notación v para el valor esperado
poblacional:
v  E(v)
5

Propiedades del valor esperado


1) El valor esperado de una constante por una variable
es igual a la constante por el valor esperado de la
variable:
E(cv )  c E(v) ó E(cv )  cv

donde c es una constante.


Demostración.
m m
E(cv )   pkc v k  c  pkv k  c E(v)
k 1 k 1

donde se usó (1) en la última igualdad.


2) El valor esperado de una sumatoria de variables es
igual a la sumatoria de los valores esperados de esas
variables.

 n  n  n  n
E   vi    E(vi ) ó E   vi    vi
 i 1  i 1  i 1  i 1
siendo n el número de variables.
Demostración
 n  m  n  m n n m n
E   vi     pk  vi k    pkv i k   pkv i k   E(vi )
 i 1  k 1  i 1  k 1 i 1 i  1 k 1 i 1
Varianza muestral
s

2 h 1
 (vh  v )2
ˆ (
σ v ) 
s
donde v  E(v) es la media poblacional, o también
m

 F (v k k v ) 2
m
  fk (vk  v )2
k 1
σˆ 2 (v) 
s k 1
8

Varianza y desvío estándar poblacionales


Cuando m tiende a infinito, la frecuencia relativa “f” se
asemeja a la probabilidad “p”, y la varianza muestral
tiende a la varianza poblacional σ 2  Var(v) :
m
σ 2 (v)   pk (vk  v )2
k 1

σ 2 (v)  E(v  v )2
La última igualdad, que es la que habitualmente se usa
como definición de varianza, deriva de simplificar la
igualdad anterior usando (1).
Por comodidad usaremos también la notación
 (v)  Var(v) para la varianza poblacional.
2

Desvío estándar poblacional


El desvío estándar poblacional  se define como la raíz
cuadrada positiva de la varianza poblacional 2 :

σ(v )  E(v  v )2
10
Covarianza muestral
La covarianza muestral se define como
s

 (x
h 1
h  x ) (yh  y )
ˆx ,y  ,
s
donde x y y son dos variables aleatorias distintas.
Alternativamente,
m

 F (x k k  x )(yk  y ) s
σˆ x ,y  k 1
  fh (xh  x )(yh  y )
s h1
12

Covarianza poblacional
Cuando el tamaño de la muestra tiende a infinito, la
frecuencia relativa fh tiende a la probabilidad ph , y la
covarianza muestral σˆ x,y tiende a la covarianza
poblacional σ x,y  Cov( x , y ) :
m
x,y   ph (xh  x ) (yh  y )
h1

x,y  E( x  x )(y  y )
Coeficiente decorrelación
La covarianza no sólo está afectada por el grado de
asociación de las variables sino también por la magnitud
de los desvíos de ambas.
Para quedarnos sólo con la interrelación de las variables
haciendo abstracción de la magnitud de sus desvíos,
relativizamos la covarianza por el desvío estándar de
ambas variables, con lo que se obtiene coeficiente de
correlación lineal:
 x,y
x,y  (2)
x y
45

Resulta muy intuitivo usarlo para juzgar sobre la el grado


de asociación de dos variables gracias a que cumple la
propiedad
1  x,y  1 .

Si x,y  1 , la relación es estrictamente lineal, de


pendiente positiva.
Si x,y  1 , la relación es estrictamente lineal y de
pendiente negativa.
Si x,y  0 , no existe una relación lineal.
El segundo y tercer gráfico de los siguientes muestra el
caso de correlaciones cuyo valor absoluto está entre
cero y uno.
16
Si x o y resulta ser una constante el desvío estándar de
esa variable es 0 y la covarianza entre x e y también es
0, por lo tanto x,y no está definida (indeterminación
0/0). Esto sucede en el gráfico central de la figura
anterior, en la que la variable representada en las
ordenadas es constante.
Despejando de (2), la covarianza entre dos variables
puede ser expresada como el producto del coeficiente
de correlación y los desvíos estándar de ambas variables.
x ,y  x ,y x y .
18

Interludio Matemático. Dos propiedades


 a1, 1 a1, 2 a1, 3    a1, n 
a a2, 2 a2, 3    a2, n 
n n  2, 1
1) 
i 1 j 1
ai , j  suma a3, 1

a3, 2 a3, 3 a3, n 

(3)
     
an , 1 an , 2 an , 3    an ,n 

Explicación
El primer término (para i  1 ) de la primera sumatoria es
n

a
j=1
1, j  a1, 1  a1, 2  a1, 3   a1, n , esto es, la primera fila

de la matriz.
El segundo término (para i  2 ) de la primera sumatoria
n
es a
j=1
2, j  a2, 1  a2, 2  a2, 3   a2, n , esto es, la segunda

fila de la matriz.
Y así sucesivamente para i  3,...,n . De esta forma, los
elementos de la doble sumatoria coinciden con los
elementos de la matriz.
20

2
 n
 n n
2)   bi    bi b j (4)
 i 1  i 1 j 1
En vista de la propiedad anterior y conociendo como se
expande el cuadrado de una suma, la propiedad anterior
resultará obvia para muchos.
Demostración
En la última igualdad de la siguiente expresión, se aplica
propiedad distributiva.
 b1  b2  b3   bn  
2

  b1  b2  b3   bn  b1  b2  b3   bn  (5)


 b1b 1 b1b 2 b1,b 3    b1bn 
b b b2b 2 b2,b 3    b2b n 
 2, 1
 suma  b3b 1 b3,b 2 b3,b 3    b2b n 
 
      
 bnb 1 bnb 2 bnb 3    bnb n 
Definiendo ai , j  bi b j y aplicando (3), el último miembro
de (5) es igual al segundo miembro de (4). Además, el
primer miembro de (5) equivale al primer miembro de
(4). Con lo cual, queda establecida la igualdad (4).
22

Propiedades de las varianzas y covarianzas


1) La covarianza de una variable consigo misma es la
varianza de dicha variable.
Cov(v ,v )  Var(v)

Demostración
Hemos definido Cov(x ,y )  E( x  x )(y  y )

Haciendo x  y  v , obtenemos

Cov(v ,v )  E(v  v )(v  v )  E(v  v )  Var(v)


2
2) x ,y  y ,x

Demostración
x ,y  E( x  x )(y  y )  E( y  y )( x  x )  y ,x

3) Para c1 y c2 constantes, Cov(c1v 1 , c2v 2 )  c1c 2 Cov(v1 , v2 )

Demostración
Cov(c 1v 1 , c2v 2 )  E ( c1v1  c1v1 )(c2v 2  c2v 2 )
 E c1 (v1  v1 ) c2 (v2  v2 )
c 1c 2 E (v1  v1 )(v2  v2 )  c1c2Cov (v 1 , v2 )
8) La varianza de una suma de variables (v 1  v    v )
2 n
es igual a la suma de las celdas de la siguiente matriz,
denominada matriz de (varianzas y) covarianzas :
25

j
i 1 2 3 … n
2
1  1,1 1,2 1,3 … 1,n
2
2 2,1  2,2
2,3 … 2,n
2
3 3,1 σ3,2  3,3 … 3,n

… … … … … …

n n ,1 n ,2 n ,3 … 
2
n,n

donde i , j  Cov(vi , v j ) y i2  Var(vi ) .


Obsérvese que en la diagonal tenemos las covarianzas
i , i de cada variable con sigo misma o, lo que es lo
mismo, la varianza  i2 de cada variable. La covarianza
entre dos variables distintas aparece dos veces en esta
matriz ya que i , j  j , i .

Atendiendo a (3), la presente propiedad puede


expresarse simbólicamente del siguiente modo:

 n  n n
Var   vi    σi , j (6)
 i 1  i=1 j=1
27

Agrupando las varianzas por un lado y las covarianzas


por el otro,

 n  n 2 n n
Var   vi    σi   σi , j
 i 1  i 1 i 1 j 1
j i

Si, por alguna razón, no se desea repetir σi , j y σ j , i , la


fórmula anterior puede modificarse:

 n  n 2 n n
Var   vi    i  2 i , j
 i 1  i 1 i 1 j 1
j i
9 ) La varianza de una suma de variables ponderadas
(variables multiplicadas por constantes: c 1v1, c2v2,…, cnvn)
es igual a la suma de las celdas de la siguiente matriz,
denominada matriz ponderada de varianzas y
covarianzas:
29

j
i 1 2 3 … n

1 c12 12 c1c 2 1,2 c1c 3 1,3 … c1c n σ1, n

2 c2c 1 2,1 c22 22 c2c 3 σ2,3 … c2c n 2, n

3 c3c 1 3,1 c3c 2 3,2 c32 32 … c3c n 3, n

… … … … … …

n cnc 1 n ,1 cnc 2 n ,2 cnc 3 n ,3 … c 


2
n
2
n
Obsérvese que en la diagonal tenemos ci ci σi  ci2 σi2 . La
sumatoria de las celdas puede expresarse
matemáticamente como el segundo miembro de la
siguiente expresión:

 n  n n
   ci vi    ci c j i , j
2

 i 1  i=1 j=1
Demostración.
Usando primero la propiedad 10 y luego la 3,
 n  n n n n
Var   ci v i    Cov  ci v i , c jv j    ci c j Cov  vi , v j 
 i 1  i=1 j=1 i=1 j=1
31

Separando la suma de las varianzas de la suma de las


covarianzas, obtenemos las siguientes expresiones
alternativas de la varianza de una suma ponderada de
variables:

 n  n 2 2 n n
σ 2   ci v i    ci σ i   ci c j σi , j
 i 1  i 1 i 1 j 1
j i

 n  n 2 2 n n
   ci v i
2
   ci i  2 ci c j i , j
 i 1  i 1 i 1 j 1
j i

También podría gustarte