Está en la página 1de 29

55

3. VARIABLES ALEATORIAS

3. 1. CONCEPTO DE VARIABLE
ALEATORIA.

En el Capítulo 1 vimos que la variable observada es una carac-


terística que se determina sobre los individuos. Como varía de un
individuo a otro y no se puede predecir su valor se dice que es una
variable aleatoria. También dimos el siguiente resumen y estudia-
mos la muestra de observaciones.
Pág. 3

Además hemos visto que la población de observaciones es el


conjunto hipotético de todos los posibles valores de la variable
aleatoria, correspondiente a toda la población de individuos.
En este capítulo estudiaremos la variable observada y la pobl a-
ción de observaciones. El objetivo es obtener, posteriormente, con-
clusiones biológicas aplicables a la población de individuo s cuando
se dispone de una muestra de observaciones.


Recordemos que el espacio de resultados de un experimento
aleatorio es el conjunto de todos los resultados posibles.
La población de observaciones tiene más información que el
Pág. 34
espacio de resultados del experimento que consiste en observar la
variable, porque los valores observados se pueden repetir con dis-
tinta frecuencia. En el espacio de resultados no aparecen las fre-
cuencias.
En el Ejemplo 2.1 presentamos varias variables aleatorias con
su correspondiente espacio de resultados. Entre ellas había varia-
56

bles cualitativas y cuantitativas. También observamos que una va-


riable aunque sea cualitativa, siempre puede codificarse de manera
que el resultado sea un número.
Hasta ahora sólo dimos la idea de qué es una variable aleato-
ria. Su definición formal es:

Si S es el espacio de resultados de un experimento aleatorio se


denomina variable aleatoria a la función que a cada elemento de S
Definición de varia- le asigna un número real. Si se llama X a la variable aleatoria
ble aleatoria
X: S  R tal que si s  S entonces X(s)  R

Analicemos algunos experimentos aleatorios.


Si se tira un dado y se observa el resultado, el espacio de resul-
tados es S = {1; 2; 3; 4; 5; 6}. La variable aleatoria es:
X = Número que sale cuando se tira un dado
Dado que la función X: S  R le asigna a cada elemento de
S, el mismo número, es la función identidad.
Siempre que el espacio de resultados sea un conjunto de nú-
meros la función que define la variable aleatoria es la función iden-
tidad.
Si el experimento consiste en tirar 2 monedas y C corresponde
al resultado “cara” y S a “sello o ceca”, el espacio de resultados es:
S = {CC; CS; SC; SS}
En S podemos definir la variable aleatoria
X = número de caras obtenidas al arrojar 2 monedas
La función X: S  R asigna los siguientes valores:
X(CC) = 2 X(CS) = 1 C(SC) = 1 X(SS) = 0
Luego, la variable aleatoria X toma los valores 0, 1; 2.

Por ejemplo, si el experimento consiste en administrar un tra-


tamiento a un paciente y después de una semana se observar si
mejoró, empeoró o sigue igual, el espacio de resultados es:
S = {mejoró; empeoró; sigue igual}
Si consideramos el resultado del tratamiento sobre un paciente,
es una variable cualitativa. Para definir la función que define la va-
riable aleatoria y obtener valores numéricos, se deben codificar los
resultados.
La función X: S  R asigna los siguientes valores:

X(mejoró) = 1 X(empeoró) = -1 X(sigue igual) = 0


Por lo tanto la variable aleatoria X toma los valores numéricos
1 ; -1 y 0.
En la práctica no nos interesa la variable aleatoria como función
sino que nos importan más los valores que toma la variable y cómo
se distribuyen.
57

Definición de reco- Se llama recorrido de una variable aleatoria X al conjunto de todos


rrido de una variable los valores que puede tomar X.
aleatoria

Si la variable aleatoria es cuantitativa, el espacio de resultados


es un conjunto de números y el recorrido coincide con el espacio de
resultados.
Así como en el Capítulo 1 estudiamos la muestra de observa-
ciones, ahora estudiaremos la población de observaciones.
Por ejemplo, si consideramos la variable aleatoria:
X: peso en kg de varones adultos
El recorrido y los valores de la población de observaciones son
los números reales positivos.
La población de observaciones es el conjunto de todos los val o-
res observados de la variable aleatoria. En ella, los números del
recorrido se repiten con distinta frecuencia. En este ejemplo hay
muchos valores 75, muy pocos 140 y muy pocos 40.
Todos los elementos del recorrido no son equiprobables. Es
más probable hallar un varón que pese 75 kg que uno que pese
140kg, o que otro que pese 40 kg.
Para describir una población de observaciones es necesario
asignar probabilidades a los distintos elementos del recorrido. Da-
remos varias definiciones:

Se llama función de distribución de una variable aleatoria X, a la


Definición de función función F X tal que:
de distribución de
F X: R  R
una variable aleatoria
para cada número real t es F X(t) = P(X  t)

En el ejemplo que vimos es F X(75) = P(X  75), indica la proba-


bilidad de que un varón adulto pese 75 kg o menos.
La función de distribución se utiliza frecuentemente para calcu-
lar probabilidades.

PROPIEDAD 3.1.
Si X es una variable aleatoria y F X es su función de distribución
entonces:
P(a < X  b) = F X(b) – F X(a)  (aR ; bR ; a < b)

Demostración:
Consideremos los sucesos:

 Pág. 43
A = { xR / x  a} ; B = { xR / x  b} ; C = { xR / a < x  b}.
A y C son sucesos mutuamente excluyentes por lo tanto usando
la definición axiomática de probabilidad es:
P(A  C) = P(A) + P(C)
58

Como A  C = B es:
P(B) = P(A) + P(C)
es decir:
P(X  b) = P( X  a) + P(a < X  b)
Si se despeja es:
P(a < X  b) = P(X  b) - P( X  a)
De acuerdo con la definición de función de distribución es:
F X(a) = P(X  a) y F X(b) = P(X  b)
Por lo tanto:
P(a < X  b) = F X(b) – F X(a) (c.q.d)
Si se tiene en cuenta la definición de variable aleatoria, el reco-
rrido siempre es un número y veremos que a las variables aleato-
rias las podemos clasificar en continuas y discretas. El tratamiento
que se da a cada una de ellas es distinto.

3. 2. VARIABLE ALEATORIA DISCRETA

Definición de varia- Una variable aleatoria discreta es aquella que su recorrido es un


ble aleatoria discreta conjunto finito o infinito numerable de números reales.

Veamos primero un ejemplo de variable aleatoria discreta cuyo


recorrido es un conjunto infinito numerable. Sea la variable aleato-
ria:
Y = número de glóbulos rojos en un mililitro de sangre
La variable aleatoria Y toma valores enteros: 1; 2 ; …. El reco-
rrido de esta variable aleatoria es el conjunto de números enteros
positivos. Como no hay un número máximo de glóbulos rojos, es un
conjunto infinito de números, pero es numerable porque los pode-
mos contar. Entonces la variable aleatoria Y es discreta.
Veamos ahora un ejemplo de variable aleatoria discreta cuyo
recorrido es un conjunto finito. Consideremos la variable aleatoria:
X = número de caras obtenidas al arrojar 2 monedas
La variable aleatoria X toma los valores 0 ; 1 ; 2. El recorrido de
esta variable aleatoria es el conjunto {0 ; 1 ; 2}. Como es un conjun-
to finito de números, la variable aleatoria es discreta.
Los tres elementos que tiene el recorrido no son igualmente
probables. Si calculamos las probabilidades sobre la base del es-
pacio de resultados del experimento, obtenemos:

P(X = 0) = P(SS) = 1/4

P(X = 1) = P(CS) + P(SC) = 1/2

P(X = 2) = P(CC) = 1/4


59

Para describir una variable aleatoria discreta, además de des-


cribir su recorrido hay que indicar la probabilidad de cada uno de
sus valores.
Si X es una variable aleatoria discreta, el recorrido de X lo ind i-
camos:
R X = {x 1 ; x 2 ; ; x n ; }

Si X es una variable aleatoria discreta cuyo recorrido es


R X = {x 1 ; x 2 ; ; x n ; }
se llama función de probabilidad de X a la función:
Definición de función
de probabilidad p: R X  R
tal que a cada valor del recorrido de X le asigna su probabilidad:

p(x i ) = P(X = x i )  xi  RX

EJEMPLO 3.1.
Calcular la función de probabilidad de la variable aleatoria
X = número de caras obtenidas al arrojar 2 monedas

Resolución:

Como vimos, el recorrido de la variable aleatoria X es:


R X = {0; 1; 2}
Para calcular la función de probabilidad utilizaremos los cálcu-
los de las probabilidades ya hechos. Así:

p(0) = P(X = 0) = 1/4

p(1) = P(X = 1) = 1/2

p(2) = P(X = 2) = 1/4


La función de probabilidad se puede representar en una tabla
en la que en la primera fila se colocan los valores del recorrido de
la variable aleatoria y en la segunda las respectivas probabilidades.


Valores x i 0 1 2
p(x i ) 1/4 1/2 1/4

Pág. 43 La función de probabilidad de una variable aleatoria discreta X


tiene las siguientes propiedades, que son consecuencia de la def i-
nición axiomática de probabilidad.
60

Si X es una variable aleatoria discreta cuyo recorrido es R X, la fun-


ción de probabilidad de X tiene las siguientes propiedades:
Propiedades de la 1) p(x i )  0  xi  RX
función

 p( xi )  1
de probabilidad
2)
x i R X

Hemos visto que la función de distribución de una variable ale a-


toria X es tal que si t es cualquier número real es F X(t) = P(X  t).
A continuación daremos un ejemplo de cómo se calcula la fun-
ción de distribución en el caso de que X sea una variable aleatoria
discreta.

EJEMPLO 3.2.
Calcular la función de distribución de la variable aleatoria
X = número de caras obtenidas al arrojar 2 monedas

Resolución:

Calculemos algunos valores de la función de distribución F X:

F X(0) = P(X  0) = P(X = 0) = p(0) = 1/4

F X(1) = P(X  1) = p(0) + p(1) = 1/4 + 1/2 = 3/4

La función de distribución está definida para todo número real y por


lo tanto debemos calcularla para todo t R. Analicemos cada tramo
por separado:

 Si t < 0 es F X(t) = P(X  t) = 0

 Si t = 0 es F X(0) = P(X  0) = p(0) = 1/4

 Si 0  t < 1 es F X(t) = P(X  0) = p(0) = 1/4

 Si t = 1 es F X(1) = P(X  1) = p(0) + p(1) = 1/4 + 1/2 = 3/4

 Si 1  t < 2 es F X(t) = P(X  1) = p(0) + p(1) = 1/4 + 1/2 = 3/4

 Si t = 2 es F X(2) = P(X  2) = p(0) + p(1) + p(2) = 1

 Si t > 2 F X(t) = P(X  t) = p(0) + p(1) + p(2) = 1

La función de distribución es:


61

 0 si t0
1 4 si 0  t  1

FX ( t )  
3 4 si 1  t  2
 1 si t2

La representación gráfica de la función de distribución es:


1,25

F(t)
1 [
El corchete puesto a la
izquierda de la línea
indica que ese punto 0,75 [
está incluido en el grá-
fico de la función
0,5

0,25 [

0
-1 0 1 2 t 3

A partir del ejemplo se pueden obtener las siguientes conclusiones


acerca de la función de distribución de una variable discreta.

Si X es una variable aleatoria discreta cuyo recorrido es


Cálculo de la función R X = {x 1 ; x 2 ; ; x n ; }, la función de distribución de X se calcula
de distribución de por:
una variable discreta FX (t )  P( X  t )  p(xi )
xi  t

Si X es una variable aleatoria discreta


 La función de distribución es una función no decreciente:
si a < b es F X(a)  F x(b)
 El gráfico de la función de distribución es una función esca-
lonada, que presenta los saltos en los puntos cuyas abscisas
Propiedades de la x i pertenecen al recorrido de X. Es constante entre dos pun-
función de distribu- tos consecutivos del recorrido de X. La magnitud de cada
ción de una variable salto es p(x i )
aleatoria discreta
 La función de distribución varía entre 0 y 1:
0  F X(t) 1  tR
 Se pueden calcular probabilidades utilizando la función de
distribución:
P(a < X  b) = F X(b) - F X(a)
62

3. 3. VARIABLE ALEATORIA CONTINUA

Hemos visto que entre dos puntos consecutivos del recorrido de


las variables aleatorias discretas siempre hay números reales que
no pertenecen al recorrido. Por el contrario una variable aleatoria
continua puede tomar cualquier valor y entre dos valores de la va-
riable siempre hay otros valores posibles. Definimos:

Definición de varia- Una variable aleatoria continua es aquella cuyo recorrido es el


ble aleatoria continua conjunto de números reales o un intervalo de números reales.

Por ejemplo, consideremos la variable aleatoria continua:


X = estatura, en m, de varones adultos
Si medimos la estatura de un varón y nos da 1,74 m, en reali-
dad estamos diciendo que su estatura real está entre 1,735 m y
1,745 m y no que su estatura sea exactamente 1,740000 m. Puede
haber dos varones cuya estatura real sea distinta y para ambos
medimos 1,74 m.
Todas las variables que se miden sobre una escala son varia-
bles continuas y cuando observamos un valor x siempre quiere d e-
cir que el verdadero valor está en un intervalo x  la mitad de la
mínima división de la escala.
Esto quiere decir que cualquier lectura de una variable aleatoria
continua es una aproximación al valor exacto que en la práctica no
podemos conocer. Los valores de variables aleatorias continuas se
registran siempre de una manera discontinua. La diferencia entre
dos valores consecutivos depende de la precisión del instrumento
con que se mide.
El recorrido de X puede ser el conjunto de números reales posi-
tivos o bien un intervalo de números reales entre una estatura co n-
siderada mínima posible y una máxima. Generalmente usaremos
todos los números reales o los positivos.
Por otra parte, la población de observaciones de X, es el con-
junto de todas las posibles estaturas de varones adultos. Pero no
todos esos valores se repiten con la misma frecuencia; hay muchos
más valores 1,75 que 1,50. Es más probable hallar un varón que
mida 1,74 m que uno que mida 1,50 m. Es decir, todos los elemen-
tos del recorrido no tienen la misma probabilidad.
Para definir completamente la población de observaciones,
además de dar sus valores (recorrido), hay que poder asignarles
una probabilidad. Una manera de visualizarla sería tomar una
muestra muy grande y efectuar un histograma. Para independizar-


nos de las escalas tomamos el histograma de áreas.
Para una variable aleatoria continua, dado que no se pueden
numerar los elementos del recorrido, no se puede definir una fun-
Pág. 29 ción de probabilidad como se hizo para las variables aleatorias di s-
cretas. Si queremos calcular la probabilidad de que un varón adulto
mida 1,74 m, deberemos calcular:
P (1,735 < X < 1,745)
Se necesita una función que, para cada valor x del recorrido,
permita calcular la probabilidad de que la variable aleatoria conti-
63

nua X tome valores en un intervalo alrededor de x. Esta función


6
deberá estar definida para todos los números reales y, a partir de
5 ella, se podrá calcular la probabilidad de que la variable aleatoria
4
tome valores en cualquier intervalo de números reales (a ; b). A
esta función se la llama función de densidad de probabilidad.
3
La podemos imaginar como el contorno del histograma de
2
áreas realizado a partir de una muestra aleatoria muy grande. Co-
1 mo el área debajo del histograma de áreas vale 1 y los intervalos
0
de clase son muy pequeños, el contorno se ve casi continuo y se
genera una curva continua tal que el área debajo de ella vale 1.
1,5

1,6

1,7

1,8

1,9
1,52
1,54
1,56
1,58

1,62
1,64
1,66
1,68

1,72
1,74
1,76
1,78

1,82
1,84
1,86
1,88

1,92
1,94
1,96
1,98

2,02
2
Estatura (m)

Histograma de áreas de 6

estatura de varones
adultos. 5

0
1,5

1,6

1,7

1,8

1,9
1,52
1,54
1,56
1,58

1,62
1,64
1,66
1,68

1,72
1,74
1,76
1,78

1,82
1,84
1,86
1,88

1,92
1,94
1,96
1,98

2,02
2
Estatura (m)

Si X es una variable aleatoria continua, se llama función de densi-


dad de probabilidad de X, a la función f: R  R que cumple las
siguientes propiedades:

 f(x)  0 xR


Definición de función
de densidad de pro- 
 f ( x) dx  1
babilidad 

 Si a y b son dos números reales tales que a < b, es:

b
P(a  X  b) =
 f ( x) dx
a

La primera condición indica que la función de densidad de pro-


babilidad es siempre positiva, es decir, su representación gráfica
está por encima del eje x.
La segunda dice que el área debajo de la gráfica y encima del
eje x, vale 1. Esto es lógico porque representa la probabilidad de
que la variable aleatoria tome cualquier valor real.
La tercera nos permite calcular la probabilidad de que la varia-
ble aleatoria tome valores entre a y b.
Como P(a  X  b) es la integral definida entre a y b de la fun-
ción de densidad de probabilidad, representa el área debajo de la
función, limitada por las rectas verticales que pasan por a y b.
64

Gráfico de una función


de densidad de proba-
bilidad.
El área debajo de la
curva vale 1.

Comparando las áreas sombreadas en el gráfico se puede de-


ducir que:
P(a  X  b) > P(c  X  d)
A partir de la definición de función de densidad de probabilidad
se deduce que la probabilidad en un punto es cero. En efecto;
a
P(X = a) =
 f ( x) dx  0
a

Esto quiere decir que en la práctica es imposible observar el va-


lor exacto. Por ejemplo, la probabilidad de que un varón adulto mi-
da exactamente 1,7400000 m es cero.
Como consecuencia de lo expuesto, se pueden enunciar las si-
guientes propiedades:

Si X es una variable aleatoria continua, son válidas las siguientes


propiedades:
Propiedades de las
variables aleatorias
 P(X = a) = 0
continuas
 P(a  X  b) = P(a < X  b) = P(a  X < b) = P(a < X < b)

EJEMPLO 3.3.
Hallar la función de densidad de probabilidad y la función de
distribución de la variable aleatoria X uniforme en el intervalo [a ;
b].

Resolución:

Para resolver este ejercicio es necesario dar la siguiente defini-


ción:
Si a y b son números reales tales que a < b. Se dice que una
Definición de distribu- variable aleatoria X tiene distribución uniforme en el intervalo
ción uniforme [a ; b] si su función de densidad de probabilidad es constante en el
intervalo [a ; b] y nula fuera de él.
65

De acuerdo con la definición, la función de densidad de proba-


bilidad de X es:
f(x) c si a  x  b
f (x)  
0 para otro x
c
Primero calcularemos la constante c. Para ello, de acuerdo con
la definición de función de densidad de probabilidad, debe ser:


 f ( x) dx  1
a b x



Calculamos la integral y resulta:


 b

 f ( x) dx   c dx  c xa  c  (b  a)
b

 a

Por lo tanto, c . (b-a) = 1 y es:


1
c
ba

Luego, la función de densidad de probabilidad de la variable


aleatoria X uniforme es:

 1
 si a  x  b
f ( x)  b  a

 0 para otro x

Cuyo gráfico es:

f(x)

1
___
(b-a)

Gráfico de la función
de densidad de proba-
bilidad de la variable
aleatoria X uniforme
en el intervalo [a ; b]

b x
a

Ahora debemos hallar la función de distribución, que de acuer-


do con su definición, para cada número real t es F X(t) = P(X  t).
Como la función de densidad de probabilidad está definida en tra-
mos, calcularemos la función de distribución en tres partes:
66

 Si t < a es
a a
F X(t) = P(X  t) =.
 f ( x) dx   0 dx 0
 

 Si a  t  b es:

F X(t) = P(X  t)=


t t
( t  a)
 f ( x) dx   (b  a) dx  (b  a)  x a  (b  a)
1 1 t
= 0+
a a

 Si t > b es:

F X(t) = P(X  t) =

b t
(b  a)
 x  ba 
1 1
=0+
 (b  a) 
dx  0 dx 
(b  a) (b  a)
1
a b
En consecuencia la función de distribución de la variable alea-
toria X uniforme es:

 0 si ta
 ( t  a)
FX ( t )   si a  t  b
 (b  a )
 1 si tb

El gráfico de esta función resulta:


1,5

F(t)

0,5

0
Gráfico de la función b t
a
de distribución de la
variable aleatoria X
uniforme en el interva- La función de distribución de una variable aleatoria continua es
lo [a ; b]. una función continua, a diferencia de la función de distribución de la
variable aleatoria discreta que es escalonada. Las demás propieda-
des son similares y en general, a manera de resumen, podemos
enunciar:
67

Si X es una variable aleatoria


 La función de distribución es una función no decreciente:
si a < b es F X(a)  F x(b)
 Si X es variable aleatoria discreta el gráfico de la función de
distribución es una función escalonada, que presenta los sal-
tos en los puntos cuyas abscisas x i pertenecen al recorrido
de X y es constante entre dos puntos consecutivos del reco-
rrido de X. La magnitud de cada salto es p(x i ).
Propiedades de la
función de  Si X es variable aleatoria continua el gráfico de la función de
distribución distribución es una función continua
 La función de distribución varía entre 0 y 1:
0  F X(t) 1  tR
lim FX ( t )  0 … … lim FX ( t )  1
t   t  

 Se pueden calcular probabilidades utilizando la función de


distribución:
P(a < X  b) = F X(b) - F X(a)  aR ; bR ; a < b

Hay tablas que dan los valores de la función de distribución de


algunas variables continuas. En estos casos para calcular probabi-
lidades no es necesario resolver integrales ya que se conoce la
función de distribución. Simplemente se utiliza la última propiedad:
P(a < X  b) = F X(b) – F X(a)
Es útil efectuar una representación gráfica para interpretar esta
manera de calcular probabilidades.
Sabemos que F X(t) es P(X  t) y que su interpretación gráfica es
el área debajo de la función de densidad de probabilidad, a la iz-
quierda del valor t y arriba del eje x.
La representación gráfica de F X(a), cualquiera sea la función de
densidad de probabilidad es:

El área sombreada es:


F X (a) = P(X  a)

La representación gráfica de F X(b) es:


68

El área sombreada es:


F X (b) = P(X  b)

Sabemos que P(a < X  b) es el área debajo de la función de


densidad de probabilidad, limitada por las rectas verticales que p a-
san por a y por b, que está sobre el eje x. Para calcularla debemos
restar las dos áreas anteriores.
El área sombreada es:
F X (b) – F X (a)
o bien
P(a < X  b)

En consecuencia P(a < X  b) = F X(b) – F X(a). Generalmente


cuando se quieren calcular probabilidades utilizando tablas que dan
la función de distribución se hace una representación gráfica para
interpretar la probabilidad deseada.

3. 4. VARIABLES ALEATORIAS
BIDIMENSIONALES – INDEPENDENCIA
DE VARIABLES ALEATORIAS

En los experimentos aleatorios que vimos hasta ahora, a cada


unidad experimental se le medía una única variable aleatoria. Sin
embargo, en muchos experimentos es necesario medir dos o más
variables aleatorias sobre una misma unidad experimental.
Supongamos que el experimento consiste en medir el peso y la
estatura de un varón adulto. Cada resultado consistirá de un par de
números. Si:
X = peso, en kg, de varones adultos
Y = estatura, en m, de varones adultos
Para cada varón adulto, decimos que medimos la variable
69

aleatoria bidimensional (X ; Y).


El espacio de resultados S será un conjunto de pares (x ; y) de
números reales positivos.
S = {(x ; y) / xR ; y R ; x > 0 ; y > 0}
En general, las variables aleatorias pueden ser continuas o dis-
cretas, pero únicamente estudiaremos las variables aleatorias bid i-
mensionales (X ; Y), en las que X e Y son ambas continuas.

Definición de varia- Una variable aleatoria bidimensional continua (X ; Y) es aquella


ble aleatoria bidi- cuyo recorrido es un subconjunto no numerable del plano de núm e-
mensional continua ros reales: R 2 = {(x ; y) / xR ; y R }.


Así como para una variable aleatoria cualquiera X la función de
distribución asigna a cada número real t la P(X  t), de la misma
manera se puede definir la función de distribución para variables
Pág. 57 aleatorias bidimensionales.

Se llama función de distribución de una variable aleatoria bidi-


Definición de función mensional continua (X ; Y), a la función F XY tal que
de distribución de
una variable aleatoria F XY : R2  R
bidimensional conti- para cada par de números reales (a ; b) es
nua
F XY (a ; b) = P(X  a ; Y  b)

P(X  a ; Y  b) significa la probabilidad de que ocurran simul-


táneamente los dos sucesos, es decir que ocurra el suceso inter-
sección: {X  a}  {Y  b}.
A la función de distribución de una variable aleatoria bidimen-
sional también se la llama función de distribución conjunta y se
la indica F XY .
Si (X ; Y) es una variable aleatoria bidimensional continua, las
variables aleatorias X e Y también son variables aleatorias conti-
nuas. Sus funciones de distribución F X y F Y se pueden obtener a
partir de la función de distribución conjunta F XY mediante un proce-
so de integración.

La noción de independencia de variables aleatorias es muy im-


portante en Bioestadística. Más adelante veremos que para aplicar
ciertos procedimientos estadísticos es necesario saber si las vari a-
bles utilizadas son o no independientes.
Generalmente se emplean razones biológicas para analizar la
independencia, por ejemplo, si X e Y son las variables aleatorias
X = peso, en kg, de varones entre 20 y 80 años
Y = estatura, en m, de varones entre 20 y 80 años
X e Y no son independientes, porque es lógico que cuando au-
menta la estatura también aumenta el peso.
70

En cambio si consideramos las variables


W = edad, en años, de varones entre 20 y 80 años
Y = estatura, en m, de varones entre 20 y 80 años
W e Y son independientes porque la estatura no cambia con la
edad en los varones entre 20 y 80 años. Si en cambio trabajásemos
en la población de niños, las variables estatura y edad no son ind e-


pendientes, ya que a medida que aumenta la edad también aumen-
ta la estatura.
En el Capítulo 1 se realizaron los gráficos de dispersión co-
Pág. 22 rrespondientes a estas variables sobre una muestra de 2000 varo-
nes adultos, en ellos se podía visualizar la independencia.
Generalmente cuando se quiere analizar si dos variables alea-


torias continuas son o no independientes se las representa en un
gráfico de dispersión para ver si hay alguna relación entre ellas.
Sin embargo, daremos la definición formal de independencia de
Pág. 51 dos variables aleatorias que es similar a la de sucesos indepen-
dientes

Si (X ; Y) es una variable aleatoria bidimensional continua, se dice


Definición de varia- que las variables aleatorias X e Y son independientes si y sólo
bles aleatorias inde- si:
pendientes
F XY (a ; b) = F X (a) . F Y (b)  (a ; b)  R 2

El concepto de independencia de dos variables aleatorias con-


tinuas se puede generalizar a un conjunto finito de variables aleato-
rias: X1 ; X2 ; ; Xn .
Se dice que las variables aleatorias continuas X1 , X 2 , Xn son
independientes si su función de distribución conjunta es el producto
de las funciones de distribución de todas las X i .

3. 5. ESPERANZA DE UNA VARIABLE


ALEATORIA

 Pág. 4
En el Capítulo 1 vimos medidas que permiten resumir datos de
una muestra siendo las más importantes la media y la varianza
muestrales. Ahora estudiaremos cómo resumir la información con-
tenida en la población de observaciones.
Como medida de posición utilizaremos la Media Poblacio-
nal (), que es la media de todos los valores de la población o de la
variable aleatoria X. También se la denomina Esperanza de la va-
riable aleatoria X por lo que se la indica E(X).
Como es imposible acceder a todos los valores de la población,
no se puede calcular la media poblacional y es necesario dar una
definición. Pero, no hay una única definición de esperanza sino que
hay una para las variables aleatorias discretas y otra para las va-
riables continuas.
71

3.5.1. ESPERANZA DE UNA VARIABLE


ALEATORIA DISCRETA
Consideremos como ejemplo un laboratorio farmacéutico que
fabrica 3 clases de comprimidos. El 60 % de los comprimidos pesa
120 mg, el 40% pesa 150 mg y el 20% pesa 180 mg.
Supongamos que tomamos una muestra de 120 comprimidos y
en ella hay 60 que pesan 120 mg; 40 que pesan 150 mg y 20 que
pesan 180 mg. El peso promedio de los comprimidos de la muestra
es:
60  120  40  150  20  180
x  168 mg
120
Otra manera de escribir la misma fórmula es:
x  0,60  120  0,40  150  0,20  180  168
El peso promedio de todos los comprimidos del laboratorio
tendría el mismo valor de 168 mg porque la proporción en la pobla-
ción es la misma que en la muestra. Veamos cómo podemos calcu-
lar este promedio. Consideremos la variable aleatoria
X = peso, en mg, de los comprimidos que fabrica el laboratorio.
El recorrido de X es:
RX = {120 ; 150 ; 180}
Como el recorrido es un conjunto finito, la variable aleatoria X
es discreta y su función de probabilidad es:

Valores x i 120 150 180


p(x i ) 0,60 0,40 0,20

La media poblacional, que llamamos , es el peso promedio de


todos los comprimidos que fabrica el laboratorio. La podemos cal-
cular como:
 = p(x1) . x1 + p(x2) . x2 + p(x3) . x3

Generalizando lo que vimos en este ejemplo, para una variable


aleatoria discreta se define:

Si X es una variable aleatoria discreta cuyo recorrido es


R X = {x 1 ; x 2 ; ; x n ; }
Definición de y su función de probabilidad es p(x i ) = P(X = x i )  xi  RX
Esperanza o media
de una variable alea- se define media de X o esperanza de X y se indica E(X) a:
toria discreta
E( X)   xi  p( xi )
x i R X
72

EJEMPLO 3.4.

 Pág. 59
Si X es la variable aleatoria definida en el Ejemplo 3.1, calcular
E(X).
X = número de caras obtenidas al arrojar 2 monedas

Resolución:

La función de probabilidad de X es:


Valores x i 0 1 2
p(x i ) 1/4 1/2 1/4
Aplicamos la fórmula que da la definición de media o espera n-
za:

E( X)   xi  p(xi )  0  1/ 4  1 1/ 2  2  1/ 4  1
x i R X

¿Cuál es el significado de E(X) en este ejemplo? Si se repite


muchas veces el experimento de arrojar dos monedas y en cada
tirada se observa el valor de X, el promedio de todos esos valores
se acercará a 1.
En el siguiente ejemplo vamos a justificar porqué se usa tam-
bién el nombre esperanza para la media poblacional.

EJEMPLO 3.5.
Una persona juega a la ruleta siempre apostando un peso a un
número. ¿Si juega muchas veces, cuánto espera ganar?
Resolución:

Consideremos la variable aleatoria:

X = ganancia, en pesos, obtenida por el jugador en una jugada

0 Si sale el número que apostó, el jugador recibe 35 pesos y por


1 2 3 lo tanto su ganancia es 35 pesos. Si no sale el número pierde el
4 5 6
peso que apostó, es decir su ganancia es (-1) peso. Por lo tanto el
recorrido de X es:
7 8 9
10 11 12 RX = {-1 ; 35}
13 14 15
Para hallar la función de probabilidad hay que saber que en la
16 17 18 ruleta hay 37 números que van del 0 al 36 y que todos tienen la
19 20 21 misma probabilidad de salir. La probabilidad de acertar es 1/37 y la
22 23 24
de no acertar es 36/37.
25 26 27 La función de probabilidad de X es:
28 29 30 -1 35
Valores x i
31 32 33
p(x i ) 36/37 1/37
34 35 36
Si aplicamos la fórmula para calcular E(X) es:
73

E( X)   xi  p(xi )  (1)  36 / 37  35  1/ 37  1/ 37


x i R X
Es decir que la ganancia esperada por el jugador, en cada ju-
gada, es (-1/37) pesos. Si juega muchas veces siempre perderá en
promedio (-1/37) pesos. En cambio la ganancia esperada del casino
será la opuesta, es decir (1/37) pesos en cada jugada. Como el
casino juega contra muchísimos jugadores y muchas veces, su ga-
nancia siempre será grande.
Sin embargo, a veces algunas personas ganan. Esto ocurre
cuando juegan un número relativamente pequeño de veces, que se
conoce como “racha ganadora”. Si juegan muchas veces a la larga
pierden, porque en promedio la ganancia es negativa.

3.5.2. ESPERANZA DE UNA VARIABLE


ALEATORIA CONTINUA
La definición de Esperanza de una variable aleatoria continua
se basa en su función de densidad de probabilidad y no en la fun-
ción de probabilidad como en las variables aleatorias discretas.

Si X es una variable aleatoria continua cuya función de densidad de


probabilidad es f(x), se define Esperanza de X y se indica E(X) a:

Definición de 
Esperanza o media
de una variable alea-
E( X)   x  f (x) dx

toria continua
La Esperanza de X también se conoce como media poblacional ().
Por lo tanto:
 = E(X)

EJEMPLO 3.6.
Hallar la esperanza de la variable aleatoria X uniforme en el i n-
tervalo [a ; b]


Resolución:
En el Ejemplo 3.3 vimos que la función de densidad de probabi-
lidad de la variable aleatoria X uniforme en el intervalo [a ; b] es:
Pág. 64
 1
 si a  x  b
f ( x)  b  a

 0 para otro x

Utilizando la definición de esperanza es:



E( X)   x  f (x) dx

Como la función de densidad de probabilidad está dividida en
74

f(x) tres partes, para calcular la integral también la tenemos que dividir
en tres partes:
1
 b
1 x2 
a b
(b-a) 1
E( X)   x  0 dx   x 
(b  a)
dx   x  0 dx  
(b  a) 2 
 a b a

  (b  a)
a b x

  b  a  (b  a) 
1 1 1 1
E( X)    b2  a2 
(b 2 – a2) = (b -a) . (b+a)
(b  a) 2 (b  a) 2 2
(b  a)
Es E( X) 
2
Como  es igual a E(X), en la distribución uniforme la media
poblacional  coincide con el valor medio del intervalo [a ; b].

3.5.3. PROPIEDADES DE LA ESPERANZA DE


UNA VARIABLE ALEATORIA
Las siguientes propiedades son válidas tanto para variables
aleatorias discretas como continuas.

Si X e Y son variables aleatorias y c es un número real (constante),


entonces:

1) E(c) = c

2) E(c X) = c E(X)

3) E(X + Y) = E(X) + E(Y)


Propiedades de la
Esperanza 4) Si X1 ; X2 ; ; Xn son variables aleatorias entonces:

n  n
E  Xi    E( Xi )
 
 i 1  i 1
5) Si X e Y son variables aleatorias independientes, entonces:
E(X . Y) = E(X) . E(Y)

No demostraremos estas propiedades, sino que nos limitare-


mos a dar una interpretación de ellas.
1) Indica que si la variable aleatoria es una constante c, su
media es la misma constante.
2) Indica que cuando se multiplica una variable aleatoria
por una constante c, su media queda multiplicada por
esa constante. Por ejemplo si :
X = peso, en kg, de conejos de laboratorio

Y = 1000 . X = peso, en g, de conejos de laboratorio

E(X) es el peso medio de los conejos expresado en kg.

E(Y) es el peso medio de los conejos expresado en g.


75

Es lógico que E(Y) = 1000 E(X)

3) Indica que la media de la suma de dos variables aleato-


rias es la suma de la media de una más la media de la
otra. Esta propiedad también es válida para la diferencia.
Así:
E(X - Y) = E(X) - E(Y)

4) Es una generalización de la propiedad anterior para la


suma de n variables aleatorias. Indica que la esperanza
de la suma de n variables aleatorias es la suma de las
esperanzas de cada una de ellas.

5) Esta propiedad sólo es válida si las variables aleatorias


son independientes. Indica que la esperanza del produc-
to de dos variables aleatorias independientes es el pro-
ducto de las esperanzas de ellas.

3. 6. VARIANZA DE UNA VARIABLE


ALEATORIA

Así como para resumir la información contenida en una muestra


necesitamos medidas de posición y de dispersión, en la población
ocurre lo mismo.
La media poblacional es un parámetro de posición de la pobl a-
ción, el parámetro que se utiliza para dar una medida de la dispe r-
sión de la variable alrededor de la media es la varianza poblacional.
La definición de esperanza era distinta para variables aleatorias
discretas y continuas, pero la definición de varianza es la misma,
no depende del tipo de variable.

Si X es una variable aleatoria, se llama Varianza de X a:

 
Definición de
Varianza de una va- Var(X) = E X  E( X)2
riable aleatoria
Frecuentemente se la indica como 2 .

La varianza siempre es un número positivo porque es la espe-


ranza del cuadrado de una variable.
Var(X) se expresa en las unidades de X elevadas al cuadrado.
Por eso en la práctica generalmente se utiliza la desviación está n-
dar, que es su raíz cuadrada y se expresa en las mismas unidades
que la variable aleatoria X.

Si X es una variable aleatoria se llama Desviación estándar de X a


Definición de la raíz cuadrada de su varianza.
desviación estándar
Generalmente se la indica como  y es:
de una variable
aleatoria
   2  Var ( X)
76

La varianza de una variable aleatoria no se calcula utilizando la


definición de varianza, sino el resultado de la siguiente propiedad:

PROPIEDAD 3.2.
Si X es una variable aleatoria cualquiera, entonces:
Fórmula de cálculo de
la varianza Var ( X)  E( X2 )  E( X)2

Demostración:
En la definición de varianza, para facilitar la notación, en lugar
de E(X) pondremos . Luego:


Var(X) = E X  2 
Si se desarrolla el cuadrado y se aplica la propiedad 3 de la es-
peranza es:

Var(X) = E(X 2 -2X+2) = E(X 2) + E(-2X)+ E(2)

Teniendo en cuenta que 2 y  son constantes y aplicando las


propiedades 1 y 2 de la esperanza es:
Var(X) = E(X 2) - 2  E(X)+ 2
Como E(X) = , es:
Var(X) = E(X 2) - 2 2 + 2 = E(X 2) - 2
Por lo tanto es:
Var ( X)  E( X2 )  E( X)2 (c.q.d)

A continuación veremos ejemplos de cómo se utiliza esta pro-


piedad para calcular la varianza de una variable aleatoria discreta y
de una continua.

EJEMPLO 3.7.
Calcular la varianza de la variable aleatoria:
X = número de caras obtenidas al arrojar 2 monedas


Resolución:
En el Ejemplo 3.1 vimos que la función de probabilidad de X es:
Pág. 59
Valores x i 0 1 2
p(x i ) 1/4 1/2 1/4

Para calcular la varianza de X empleamos la fórmula de cálculo


dada en la Propiedad 3.2


Var ( X)  E( X2 )  E( X)2
Del Ejemplo 3.4 sabemos que E(X) = 1. Ahora tenemos que
Pág. 72 calcular E(X 2 ):
77

E( X 2 )   x i2  p( x i )  0 2  1/ 4  12  1/ 2  22  1/ 4  3 / 2
x i R X

Por lo tanto, resulta:

Var ( X)  E( X2 )  E( X)2  3 / 2  12  1/ 2

EJEMPLO 3.8.
Calcular la varianza de la variable aleatoria X uniforme en el i n-
tervalo [a ; b]
Resolución:


Recordemos que en el Ejemplo 3.3 vimos que la función de
densidad de probabilidad de la variable aleatoria X uniforme es:

 1
Pág. 64  si a  x  b
f ( x)  b  a

 0 para otro x
Para calcular varianza de X empleamos la fórmula dada en la
Propiedad 3,2


Var ( X)  E( X2 )  E( X)2 (1)

La esperanza de X, calculada en el Ejemplo 3.6, es:


Pág. 73 (b  a )
E(X) = (2)
2
Hay que calcular E(X 2 )

a b 
1
  x
2 2 2 2
E( X )  x  0 dx  x  dx   0 dx
(b  a)
 a b

2
E( X ) 
1

x3 

b

1

b3  a3

 
b3  a3  (3)
(b  a) 3  (b  a) 3 3 (b  a)
a

Si reemplazamos (2) y (3) en (1), resulta:

Var ( X)  E( X 2 )  E( X)2 


b3  a3   (b  a)2
3 (b  a) 4
Si calculamos el cociente de polinomios, como se indica a la iz-
quierda, resulta:

b3  a3   (b  a)2  b2  ab  a2  b2  2ab  a2


b 3
a 3

 b 2  ab  a 2
Var ( X) 
3 (b  a) 4 3 4
(b  a)
4 b 2  4 ab  4 a 2  3 b 2  6 ab  3 a 2
Var ( X) 
12
78

b 2  2ab  a 2 (b  a)2
Var ( X)  
12 12

Las siguientes propiedades de la Varianza son válidas tanto p a-


ra variables discretas como para continuas:

Si X e Y son variables aleatorias y c es un número real (constante),


entonces:
1) Var(c) = 0
2) Var(c X) = c 2 Var(X)

Propiedades de la 3) Si X e Y son variables aleatorias independientes, entonces


Varianza Var(X + Y) = Var(X) + Var(Y)
4) Si X1 ; X2 ; ; Xn son variables aleatorias independientes, en-
tonces:
 n  n
Var   X i    Var ( X i )
 
 i 1  i 1

A continuación demostraremos las dos primeras propiedades


de la varianza y daremos una interpretación de las demás.
1) Indica que si la variable aleatoria es una constante c, su
varianza es cero.
Es fácil su demostración. Si se aplica la definición de va-
rianza y las propiedades de la esperanza, resulta:

   
Var(c) = E c  E(c )2  E (c  c )2  E(0)  0 .

2) Indica que cuando se multiplica una variable aleatoria


por una constante c, su varianza queda multiplicada por
esa constante elevada al cuadrado.
Su demostración es fácil. Si se aplica la definición de va-
rianza es:
 

Var (cX)  E cX  E(cX)2
Por la propiedad 2) de la esperanza, resulta:
Pág. 74
  
Var(cX)  E c( X  E( X))2  E c 2  X  E( X)2 

Var(cX)  c 2  E X  E( X)2 
Var(c X) = c 2 Var(X)
3) Esta propiedad sólo es válida si las variables aleatorias
son independientes. Indica que la varianza de la suma
de dos variables aleatorias independientes es la suma
de las varianzas de ellas.
Como aplicación de la propiedad 3) y de la propiedad 2)
resulta que si X e Y son variables aleatorias indepen-
dientes, Entonces:
Var(X - Y) = Var(X + (-Y)) = Var(X) + (-1) 2 Var(Y)
79

Es decir:
Var(X - Y) = Var(X) + Var(Y)
4) Es una generalización de la propiedad anterior para la
suma de n variables aleatorias independientes. Indica
que la varianza de la suma de n variables aleatorias in-
dependientes es la suma de las varianzas de cada una
de ellas.

3. 7. COVARIANZA DE DOS VARIABLES


ALEATORIAS – COEFICIENTE DE
CORRELACIÓN

Los parámetros que se utilizan para resumir la información de


una variable aleatoria unidimensional son la esperanza y la varian-
za. Si (X ; Y) es una variable aleatoria bidimensional, E(X) y Var(X)
resumen la información de la variable aleatoria X, y E(Y) y Var(Y)
resumen la información de la variable aleatoria Y. Pero además es
necesario dar una medida que de alguna manera exprese la rela-
ción que existe entre X e Y. Esa medida es un parámetro denomi-
nado Covarianza.

Si (X ; Y) es una variable aleatoria bidimensional se llama Cova-


Definición de rianza de X e Y y se indica Cov(X ; Y) a:
Covarianza de dos
Cov(X ; Y) = EX  E( X)  Y  E( Y)
variables aleatorias

Así como la varianza tiene una definición y luego para el cálculo


se utiliza una fórmula, para la covarianza, demostraremos la si-
guiente propiedad que nos da una fórmula para su cálculo:

PROPIEDAD 3.3.
La covarianza se puede expresar como:
Fórmula de cálculo de
la covarianza Cov(X ; Y) = E(X.Y) – E(X) . E(Y)

Demostración:
De acuerdo con la definición de covarianza es:
Cov(X ; Y) = EX  E( X)  Y  E( Y)
Se efectúa el producto:
Cov(X ; Y) = EX  Y  X  E( Y)  E( X)  Y  E( X)  E( Y)
Si se aplica la propiedad de esperanza de una suma es:
Cov(X ; Y) = EX  Y  EX  E( Y)  EE( X)  Y  EE( X)  E( Y)
Si se tiene en cuenta que E(X) y E(Y) son constantes es:
80

Cov(X ; Y) = EX  Y  E( X)  E( Y)  E( X)  E( Y)  E( X)  E( Y)
Luego:
Cov(X ; Y) = EX  Y  E( X)  E( Y) (c.q.d.)

Si X e Y son variables aleatorias, entonces:


1) Cov(X ; X) = Var (X)
2) Si X e Y son variables aleatorias independientes entonces
Propiedades de la
Covarianza Cov(X ; Y) = 0

3) Si X e Y son variables aleatorias cualesquiera


Var(X + Y) = Var(X) + Var(Y) + 2 . Cov(X ; Y)

Seguidamente demostraremos estas propiedades de la cova-


rianza.

1) La covarianza de una variable aleatoria con sí misma es la


varianza:
Cov(X ; X) = Var (X)
De acuerdo con la definición de covarianza es:

 

Cov(X ; X) = EX  E( X)  X  E( X)  E X  E( X)
2

La última expresión es la definición de varianza, por lo tan-


Pág. 75 to:
Cov(X ; X) = Var (X)


2) De acuerdo con la Propiedad 3.3 es:

Cov(X ; Y) = E(X.Y) – E(X) . E(Y)


Pág. 74
Por la Propiedad 5) de esperanza si X e Y son variables
aleatorias independientes, entonces:
E(X . Y) = E(X) . E(Y)
Entonces

Cov(X ; Y) = E(X.Y) – E(X).E(Y) = E(X).E(Y) - E(X).E(Y)


Cov(X ; Y) = 0
La recíproca de esta propiedad no es cierta, es decir, exis-
ten variables aleatorias que no son independientes y cuya
Pág. 75 covarianza es cero.

3) De acuerdo con la definición de varianza es:


Var(X+Y) = E X  Y  E( X  Y)2 
Se utilizan las propie- Por la propiedad 3 de la esperanza es:
dades de la esperanza

Var(X+Y) = E X  Y  E( X)  E( Y)2 
81

Si se reordena es:


Var(X+Y) = E ( X  E( X))  ( Y  E( Y))2 
Si se desarrolla el cuadrado es:


Var(X+Y) = E ( X  E( X))2  2( X  E( X)(Y  E( Y)  ( Y  E( Y)2 = 
  
= E ( X  E( X))2  2E( X  E( X)(Y  E( Y)  E ( Y  E( Y)2 
Se utilizan las defini- Var(X + Y) = Var(X) + 2 Cov(X ; Y)+ Var(Y)
ciones de varianza y
de covarianza Notar que si X e Y son variables aleatorias independientes,
es Cov(X ; Y) = 0 y resulta:
Var(X + Y) = Var(X) + Var(Y)
Que es la Propiedad 4 de la varianza.
A continuación introduciremos el concepto de coeficiente de co-
rrelación que utilizaremos en el Capítulo 9.

Si (X ; Y) es una variable aleatoria bidimensional tal que Var(X)  0


y Var (Y)  0, se llama Coeficiente de Correlación entre X e Y y se
Definición de
lo indica XY a:
Coeficiente de
Correlación Cov( X ; Y )
 XY 
Var ( X)  Var ( Y )

1) El coeficiente de correlación es un número sin unidades

2) El coeficiente de correlación varía entre (-1) y 1

-1  XY  1

3) El coeficiente de correlación no cambia si sobre X e Y se


efectúan transformaciones lineales.

4) Si X e Y son variables aleatorias independientes entonces


Propiedades del
Coeficiente de XY = 0
Correlación
5) Si Y es una función lineal de X, es decir si Y = a X + b con
2
a  0, entonces  XY  1.

Además si a > 0 es XY = 1 y si a < 0 es XY = -1

2
6) Si  XY  1, la variable aleatoria Y es una función lineal de X,
es decir, Y = a X + b con a y b números reales y a  0

La propiedad 3 indica que si en las variables aleatorias X e Y se


cambian las unidades mediante una transformación lineal, el coef i-
ciente de correlación no cambia.
82

La propiedad 4 es consecuencia de la propiedad 2 de la cova-


rianza, ya que si X e Y son variables aleatorias independientes es
Cov(X ; Y) = 0
La recíproca de esta propiedad no es cierta, es decir que si
XY = 0 las variables pueden ser o no independientes. Si XY = 0 se
dice que las variables X e Y no están correlacionadas.

 Pág.74y 78
Seguidamente demostraremos la propiedad 5.
Si Y = a X + b, utilizando las propiedades de la esperanza y de
la varianza es:
E(Y) = a E(X) + b y Var (Y) = a 2 Var (X)
Además
E(X.Y) = E[X.(aX+b)] = E[aX 2 + bX] = a E(X 2 ) +b E(X)

Si utilizamos la definición de coeficiente de correlación y la


Propiedad 3.3 es:

Cov( X ; Y ) E( X  Y )  E( X)  E( Y )
 XY  
Var ( X)  Var ( Y ) Var ( X)  Var ( Y )

Reemplazamos la variable Y y aplicamos los cálculos recién


efectuados, es:

a E( X 2 )  b E( X)  E( X)  a E( X)  b
 XY 
Var ( X)  a 2 Var ( X)

efectuando los cálculos es:

a E( X 2 )  b E( X)  a E( X)2  b E( X)
 XY 
 a 2  Var ( X)2

Como a 2  a es:

a E( X 2 )  a E( X)2 a E( X 2 )  E( X)2


 XY   
a Var ( X) a Var ( X)

Por la Propiedad 3.2 es Var ( X)  E( X2 )  E( X)2


Pág. 76
Por lo tanto es:
a
 XY 
a
Si se eleva al cuadrado es:
a2
 2XY   1 que es lo que queríamos probar.
2
a
a
Por otra parte si a es positivo es  XY  =1
a
a
si a es negativo es  XY  = -1
a
83

El coeficiente de correlación da una medida del grado de aso-


2
ciación lineal entre X e Y. Valores de  XY cercanos a 1 indican que
hay un alto grado de asociación lineal entre X e Y. En cambio valo-
2
res de  XY cercanos a 0 indican que no hay asociación lineal entre
las variables aleatorias X e Y, pero no indica que no estén relacio-
nadas de alguna otra manera.
Si XY > 0 los valores de Y aumentan a medida que aumentan
los valores de X y si XY < 0, los valores de Y disminuyen a medida
que aumentan los valores de X.

También podría gustarte