Está en la página 1de 18

Capítulo III

III Espacios muestrales bidimensionales

3.1. ESPACIOS MUESTRALES BIDIMENSIONALES

A veces es necesario definir el espacio muestral con dos o más variables conjuntas, porque la
experiencia que queremos modelizar da como resultado pares o n-uplas de valores asociados.
Por ejemplo, la altura y peso de las personas pueden ser conceptualizados como valores
asociados, a través de un espacio bidimensional.
Desarrollaremos la estadística en dos variables siendo que los conceptos en última instancia
sólo amplían los ya vistos para una sola. Sólo en contadas ocasiones usaremos más de dos
variables, pero no introduciremos con esto ningún concepto nuevo.
En dos variables, el espacio muestral es un plano.
Si llamamos a las coordenadas del plano VARx y VARy, cada punto de e ste plano (x, y) es un
resultado del espacio muestral.
Las variables podrán ser ambas continuas o ambas discretas o una continua y una discreta, y
con las debidas diferencias (probabilidad vs. densidad, integrales vs. sumatorias, etc.) las definiciones
y conclusiones que obtendremos para cada una serán equivalentes para las otras dos situaciones.
Sólo para reforzar el concepto repetiremos para v.a. discreta algunas definiciones y
conclusiones, que en general desarrollaremos para variable bicontinua. El lector las podrá extender a
las otras alternativas “mutatis mutandi”.

3.1.1. LA FUNCION DE DENSIDAD CONJUNTA (v.a. bicontinua)

Expresaremos con f[(VARx = x) (VARy = y)] la función densidad de las variables continuas
VARx y VARy. Geométricamente representa una superficie siempre positiva cuyo volumen encerrado
es 1.
Su escritura abreviada será f(x, y).
Las probabilidades ahora serán volúmenes (prisma bajo la superficie), y el diferencial
probabilidad será:
dP(x, y) = f(x, y) dx dy

Podremos ayudarnos en la comprensión con dos tipos de gráficos:


en perspectiva axonom étrica en el pla no (con curvas de nivel)
f (x , y )
VA R y

d
c
a b
VA R x
c a b VA R x
d
VA R y

Puede observarse en ambos el significado gráfico de la P[(a < VARx < b) (c < VARy < d)]

39
Estimación Bayesiana

3.1.2. FUNCION DE PROBABILIDAD CONJUNTA (v.a. bidiscreta)

Expresaremos con P[(VARx = x) (VARy = y)] la función de probab ilidad conjunta de las
variables discretas VARx y VARy.

Geométricamente representa una serie de puntos (representados por bastones) en el espacio,


serán siempre positivos y su suma deberá ser 1. Su escritura abreviada será P(x, y).
Podemos ayudarnos en la comprensión con dos tipos de gráficos:
en perspectiva axonom étrica en el pla no
P (x , y )
VA R y

VA R x
VA R x
VA R y

3.1.3. LA FUNCION DE DISTRIBUCION

Definiremos función de distribución a:


para v.a. bicontinuas:
x y

F [(VARx = x) (VARy = y )] = P[(VARx ≤ x ) (VAR y ≤ y )] = ∫ ∫ f ( x, y) dx dy


−∞ −∞

y para v.a. bidiscretas:


x y
F [(VAR x = x)  (VAR y = y )] = P[(VAR x ≤ x)  (VAR y ≤ y )] = ∑∑ P( x, y)
− ∞ −∞

su utilización es menos usual que en una variable y su concepto equivalente.

3.1.4. FUNCION MARGINAL

Definiremos función marginal de la variable VARx como


+∞ y = +∞
f (VAR x = x ) =
∫ f ( x, y ) dy ó P (VARx = x ) = ∑ P ( x, y )
y = −∞
−∞

Es importante entender el significado: es la aplicación de la fórmula de probabilidad total en


un espacio métrico bidimensional.
La integración (o sumatoria) respecto de una variable (por ejemplo VARy) implica la unión de
todos los resultados que incluyan el suceso VARx = x, con lo que se obtiene justamente f(VARx = x)
en variables continuas o P(VARx = x) en variables discretas. Es como “no tener en cuenta” la
variabilidad de VARy porque ya hemos incluido todas sus posibilidades. Es la “mezcla” en dos
espacios métricos. Es la función de densidad (de probabilidad) de la variable VARx.
Para una variable continua, gráficamente f(VARx = a) (para un valor particular a) es el área bajo
la curva f(a, y) intersección de la superficie f(x, y) con el plano x = a.

40
Capítulo III

La probabilidad P(x < VARx < x + dx) = f(VARx = x) dx que en el espacio muestral de VARx (el eje
VARx) está representado por el área diferencial, en el espacio conjunto (el plano) es el volumen de la
“rebanada” de la función conjunta entre x y x + dx.
f( x , y )
f ( VA R x = x )

P ( x < VA R x < x + d x )
y

3.1.5. FUNCION CONDICIONA

Definiremos función condicional

f ( x, y )
f (VARx = x / VAR y = y ) = f ( x / y ) = para v.a. continuas
f ( y)
P ( x, y )
P (VARx = x / VAR y = y ) = P ( x / y ) = para v.a. distretas
P( y)

Es el concepto de probabi lidad condicional aplicado a espacios métricos. Las expresiones


anteriores son en realidad una familia de funciones condicionales, donde y juega estadísticamente
como un parámetro.
Para cada valor de VARy (y), f(x/ y) es una función densidad de VARx.
Las funciones condicionales muestran cómo es la información respecto de la VARx bajo
condicionamiento de ocurrencia del suceso VARy = y.
“Mutatis mutandi”, quedan definidas función marginal para VARy:
f(VARy = y) = f(y) para v.a. continuas
P(VARy = y) = P(y) para v.a. discretas
familia de funciones condicionales VARy respecto valores particulares de VARx:
f(VARy = y/ VARx = x) = f(y/ x) para v.a. continuas
P(VARy = y/ VARx = x) = P(y/ x) para v.a. discretas
Representación gráfica: las funciones condicionale f(y/ x) son las líneas de corte de la función
conjunta f(x, y) con el plano VARx = x, “expandidas” hasta tener área 1 (lógico: son funciones de
densidad).

f (a, y )
De la definición: f ( y / a) =
f (a)

Siendo a un valor particular de VARx, dividimos la curva f(a, y) por su área f(a), de tal manera
que la nueva función f(y/ a) será una función de y con área 1.

41
Estimación Bayesiana

f (x , y )
f ( VA R x = x )
f ( VA R x = a , VA R y = y )
f ( VA R x = a ) = f (y / a )
f ( VA R x = a )

f ( VA R y = y )
a x

VA R y
y
f ( VA R x = a , VA R y = y )

La función marginal f(x) puede entenderse también como la esperanza matemática (respecto
de y) de la función condicional f(x/ y), o sea: f(x) = Ey[f(x/ y)] y también f(y) = Ex[f(y/ x)].
En realidad pueden definirse muchas familias condicionales en una variable; por ejemplo, VARx
condicional a {VARy > y} o a {VARy < y}, etc.
También puede definirse como función conjunta f(x, y/ A) siendo A cualquier suceso; por
ejemplo,
A = {{x < b} {c ≤ y < d}} o el que se nos ocurra.
El desarrollo de estas funciones condicionales no tendrá uso didáctico por lo que quedan
restringidas al caso particular de cada problema; el lector ya debería estar capacitado para su
desarrollo sin inconvenientes partiendo de la definición de condicionalidad.

3.1.6. ESPERANZA MATEMATICA EN DOS VARIABLES

Definiremos esperanza matemática con el mismo concepto que en una variable:

para v.a. continua:


+∞ +∞
E[ g ( x, y )] =
∫ ∫ g ( x, y) f ( x, y) dx dy
−∞ −∞

+∞ +∞
para v.a. discreta: E[ g ( x, y )] = ∑∑ g ( x, y) P( x, y)
−∞ −∞

Observe que si g(x, y) es solamente función de x o de y caemos en la definición en una variable,


porque, por ejemplo, si g(x, y) = h(x):
+∞ +∞ +∞ +∞
E[ g ( x, y ] = ∫∫
−∞ −∞
g ( x, y ) f ( x, y ) dx dy = ∫ ∫ h( x) f ( x, y) dx dy =
−∞ −∞
+∞ +∞  +∞


= h( x ) 
−∞ ∫ 

f ( x, y ) dy dx = h( x) f ( x ) dx = E[h( x)]

−∞   −∞

Casos particulares:
g(x, y) E[g(x, y)] Lectura
x µx media de x
y µy media de y
(x – µ x)2 σx 2
variancia de x
(y – µ y)2 σy 2
variancia de y
(x – µ x) (y – µ y) Cxy covarianza de x, y
+∞ +∞

Significado de la covarianza: siendo C xy = ∫ ∫ (x − µ


−∞ −∞
x ) ( y − µ y ) f ( x, y ) dx dy

42
Capítulo III

(x – µ x) es la distancia de un valor a la media x.


(y – µ y) es la distancia de un valor a la media y.
er er
Su producto es positivo en el 1 y 3 cuadrante (con ejes en las medias). f(x, y) es siempre
positiva o nula (ver gráfico).
er er
El producto que aparece en la integral “sumará” valores positivos del 1 y 3 cuadrantes y
do to
valores negativos del 2 y 4 cuadrantes; el total será positivo o negativo dependiendo de que la f(x,
y) se ubique preponderantemente en uno u otro sector.
f ( x , y ) de covaria ncia positiva f ( x , y ) de covaria ncia negativa
VA R ( x - x) VA R y
y

(y - )
y
y y

x VA R x x VA R x

3.1.7. MEDIAS CONDICIONALES

+∞

Por definición µ y / x = ∫ y f ( y / x) dy
−∞

Nótese que µ y/ x es una media de y para cada valor particular de x que da la media de la
variable VARy condicional a VARx = x, luego es una función h(x).
La línea definida por los puntos medios de las variables condicionales se denomina línea de
regresión.

Lógicamente hay dos líneas de regresión: µ x/ y y µ y/ x. Las líneas de regresión “acompañarán”


la f(x, y), serán sus valores centrales según cómo se mire en sus cortes f(x/ y) o f(y/ x).

En el caso de que las líneas de regresión fuesen rectas, la pendiente positiva implicará
covarianza positiva; la pendiente negativa, en cambio, covarianza negativa.
La covarianza nula (en el caso de regresiones lineales) implica dos rectas: una paralela al eje y:
la µ x/ y, y la otra paralela al eje x: la µ y/ x. O sea, en e ste caso todas las medias condicionales son
iguales y además iguales a la media µ x y µ y respectivamente.

3.1.8. EL COEFICIENTE DE CORRELACION

Dado que la covarianza tiene las unidades de las variables (proviene de función lineal de
ambas variables) lo mismo que las desviaciones estándar de cada una; el cociente entre estos
valores será adimensional: es el coeficiente de correlación ρ.

C xy
ρ=
σx σy

Puede demostrarse que ρ puede tomar valores de –1 a 1.

3.1.9. INDEPENDENCIA DE VARIABLES

Con el mismo concepto visto en espacios adimensionales

43
Estimación Bayesiana

independencia ⇔ P(A B) = P(A) P(B)

definimos que dos variables son independientes si:

f(x, y) = f(x) ⋅ f(y) ⇔ independencia


(función conjunta = producto de
marginales)

o lo que es lo mismo
f(x/ y) = f(x) (funciones condicionales = marginal)
o
f(y/ x) = f(y) (funciones condicionales = marginal)
Dejamos para el lector demostrar que si hay independencia, la Cxy = 0 (la covarianza es nula) y
por ende el coeficiente de correlación es nulo; aunque co varianza nula no implica necesariamente
independencia.
Gráficamente significa que los cortes en el sentido de x e y llevados a tener área 1 son
respectivamente iguales (funciones condicionales), e iguales además a la correspondiente marginal.
Siendo las funciones condicionales y marginales iguales, sus medias también lo son; luego, las
líneas de regresión son rectas perpendiculares entre sí, coincidentes con µ x y µ y.
Son respectivamente iguales también las variancias condicionales y marginales.
Desde luego que vale el razonamiento de siempre: en independencia, la información respecto
de la ocurrencia de algún suceso en una variable no modifica la información (función de densidad)
respecto de la otra; y viceversa, la no modificación (no información de condi cionamiento) implica
independencia.
Ejemplos:
a) VARIABLES ALEATORIAS BIDISCRETAS
Sea un juego consistente en extraer 3 bolillas de una urna con 2 blancas y 3 negras, luego de
lo cual se arroja una moneda tantas veces como bolillas negras se obtuvieron.
Describiremos con X la cantidad de bolillas negras en la extracción (en lugar de VARx, más
extenso, símbolo que no debe ser confundido con el valor genérico x de la variable) y con Y la
cantidad de caras.
Queda planteado un espacio muestral en dos dimensione s del que no conocemos la función
conjunta, pero podemos plantear en forma inmediata la función marginal P(X = x) y la familia de
 m
funciones condicionales P(X = x/ Y = y). Queda entonces, recordando que C( m, n ) =   son la
n 
combinaciones de m tomadas de a n:

  3  2 
   
  x  3 − x  para x = 1; 2; 3

P( x) =   5 
  3 
  
0 para x ≠ 1; 2; 3

Calculando para los valores de x = 1; 2 y 3 queda:


P(x = 1) = 0,30 P(x = 2) = 0,60 P(x = 2) = 0,10
En cambio, las funciones de probabilidad condicionales P(y/ x) serán:

44
Capítulo III

 x 
  0,5 para 0 ≤ y ≤ x (entero)
x
P ( y / x ) =  y 

0 para el resto de y

expresión que es válida sólo para el ahora parámetro x con valores 1; 2 ó 3.


De donde expresamos numéricamente las 3 funciones condicionales:

P(y/ x = 1) P(y/ x = 2) P(y/ x = 3)


P(y = 0/ x = 1) = 0,5 P(y = 0/ x = 2) = 0,25 P(y = 0/ x = 3) = 0,125
P(y = 1/ x = 1) = 0,5 P(y = 1/ x = 2) = 0,50 P(y = 1/ x = 3) = 0,375
P(y = 2/ x = 2) = 0,25 P(y = 2/ x = 3) = 0,375
P(y = 3/ x = 3) = 0,125

con medias

µ y/ x = 1 = 0,5 µ y/ x = 2 = 1 µ y/ x = 3 = 1,5
Luego, en forma genérica:

6 ⋅ 0,5 x
P ( x, y ) = P ( y / x) P( x ) =
5 ⋅ [(3 − x)!]2 ( x − y )! ( x − 1)! y!

válida para las v.a. x e y enteras tales que 0 ≤ y ≤ x ; x = 1; 2; 3 que no es más que el producto
ordenado de las probabilidades calculadas anteriormente y que gráficamente se representa de la
siguiente forma:
en perspectiva axonom étrica en el pla no
P (x, y) y
0,0125
3
0,15 0,0375
1 2 3 2
0
0,15 0,3 0,0375
1 x 1
2 0,15 0,15 0,0125
3 x
y 0 1 2 3

En el cuadro que sigue pueden verse las probabilidades marginal es como suma de filas y
columnas respectivamente: de acuerdo a la definición
i =3 i =3
P (Y = y ) = ∑ P ( X = i, Y = y )
i =1
P ( X = x) = ∑ P ( X = x, Y = i )
i =1

son las funciones de P unidimensionales de x e y:


P(X = x, Y = y) X=1 X=2 X=3 P(Y = y)
Y=0 0,15 0,15 0,0125 0,3125
Y=1 0,15 0,3 0,0375 0,4875
Y=2 0 0,15 0,0375 0,1875
Y=3 0 0 0,0125 0,0125
P(X = x) 0,3 0,6 0,1 1

variables cuyas medias y variancias son (aplicando definición en una o dos variables, es
indistinto):

45
Estimación Bayesiana

µ y = 0,9 µ x = 0,9
σ y2 = 2,79 σ x2 = 0,36
σ y = 1,67 σ x = 0,6

Las funciones de probabilidad condicionales P(x/ y) se obtienen dividiendo cada valor de una
fila por su suma (analice definición). Las funciones de probabilidad condicionales P(y/ x) se obtienen
dividiendo cada valor de una columna por su suma.

Observe que no hay independencia, porque P(Y = y) P(X = x) ≠ P(X = x, Y = y)


Las funciones condicionales P(X = x/ Y = y) y sus medias quedan:

µx/ y µx/ y
0,15 0
P( X = 1 / Y = 0) = = 0,48 P( X = 1 / Y = 2) = =0
0,3125 0,1875
0,15 0,15
P( X = 2 / Y = 0) = = 0,48 1,56 P( X = 2 / Y = 2) = = 0,8 2,77
0,3125 0,1875
0,0125 0,0375
P( X = 3 / Y = 0) = = 0,04 P( X = 3 / Y = 2) = = 0, 2
0,3125 0,1875
0,15 0
P( X = 1 / Y = 1) = = 0,3077 P( X = 1 / Y = 3) = =0
0,4875 0,0125
0,3 0
P( X = 2 / Y = 1) = = 0,6154 1,77 P( X = 2 / Y = 3) = =0 3,00
0,4875 0,0125
0,0375 0,0125
P( X = 3 / Y = 1) = = 0,0769 P( X = 3 / Y = 3) = =1
0,4875 0,0125

(en el último caso X deja de ser variable aleatoria, puesto que la información de Y = 3 no deja
más alternativa para X que tomar el valor 3).

La covarianza y el coeficiente de correlación serán:


y =3 x = 3
C xy = ∑∑ ( x − µ
y = 0 x =1
x) ( y − µ y ) P ( x, y ) = 0,18

C xy 0,18
ρ= = = 0,1796
σx σy 1,67 ⋅ 0,60

b) VARIABLES ALEATORIAS BICONTINUAS


En una competencia olímpica, consistente en correr una cierta distancia y luego nadar otra, la
función densidad conjunta de los tiempos empleados en ambas pruebas responde a la siguiente
expresión:

3
f ( x, y ) = ( x 2 y + x ) para 0 ≤ y ≤ 2 y 0 ≤ x ≤ 1
5

siendo la variable aleatoria X el tiempo para correr y la variable Y el tiempo empleado en nadar.
Note que conocer la función conjunta es conocer “todo” de las variables. Podremos calcular:
1) Las funciones marginales:
Del tiempo para la carrera:
2
3 6
f ( x) =
5 ∫
( x 2 y + x) dy = ( x 2 + x ) para 0 ≤ x ≤ 1
0
5

46
Capítulo III

Del tiempo empleado en natación:


1


3 1 3
f ( y) = ( x 2 y + x ) dx = y + para 0 ≤ y ≤ 2
5 5 10
0

2) Las “familias” de funciones condicionales:

f ( x, y ) 6 x 2 y + 6 x
f ( x / y) = = para 0 ≤ x ≤ 1
f ( y) 2y + 3

funciones de v.a. x paramétricas para valores de y comprendidos entre 0 y 2 (para cada valor
de y corresponderá un espacio muestral diferente y una función densidad diferente de variable x).
Con estas funciones tendremos las P de tener los tiempos x en carrera “sabiendo” que se tardó
un tiempo y en natación. En forma equivalente:

f ( x, y ) x2 y + x
f ( y / x) = = para 0 ≤ y ≤ 2
f ( x) 2( x 2 + x )

Con estas funciones tendremos las P de tener los tiempos y en natación “sabiendo” que se
tardó un tiempo x en carrera.
3) Medias condicionale
Por definición:
1
6x 2 y + 6 x 3y + 4
µx/ y = x ∫ 0
2y + 3
dx =
4y + 6

expresión de la media de la variable x condicional a un valor y (con validez únicamente para


valores 0 ≤ y ≤ 2 ). Es una línea de regresión.

Por ejemplo, para y = 1,5: µ x/ y = 1,5 = 0,79


De la misma forma:
2
x2 y + x 8x 2 + 6 x
µ y/ x = ∫ y 2( x
0
2
+ x)
dy =
6x2 + 6x

es la otra línea de regresión.


4) Media y variancia de las variables x e y.
Tenemos varias formas de calcular las medias de las variables:
a) a través de la función conjunta:
+∞ +∞
µ x = E ( x) = ∫ ∫ x f ( x, y) dx dy
−∞ −∞

b) con la función marginal:


+∞
µ x = E ( x) = ∫ x f ( x) dx
−∞

c) como esperanza matemática de las medias condicionales:

47
Estimación Bayesiana

+∞
µ x = E y (µ x / y ) = ∫µ
−∞
x/ y f ( y ) dy

2
3y + 4 1 3
Utilicemos esta última: µ x = E y (µ x / y ) = ∫ 4 y + 6 ( 5 y + 10 ) dy = 0,7
0

Sabiendo que σx2 = E(x2) – E(x)2 calculamos primero E(x2):


1 1

∫ ∫ 5 (x
6 2 6
E(x 2 ) = x2 ( x + x) dx = 4
+ x 3 ) dx = 0,54
5
0 0

Así obtenemos: σ x2 = E ( x 2 ) − E ( x) 2 = 0,54 − 0,49 = 0,05

Procedemos de la misma forma para la variable y:


2 2
y2 3y
∫ ∫
1 3 17
µ y = E( y) = y ( y + ) dy = ( + ) dy =
5 10 5 10 15
0 0

2 2
y3 3y2
∫ ∫
1 3 8
E( y2 ) = y 2 ( y + ) dy = ( + ) dy =
5 10 5 10 5
0 0

2
8  17 
σ y2 = E ( y 2 ) − E ( y ) 2 = −   = 0,316
5  15 

3.2. GENERACION DE VARIABLES A PARTIR DE LA FUNCION DE DISTRIBUCION EN DOS


DIMENSIONES

3.2.1. LA SUMA DE VARIABLES

3.2.1.1. LA SUMA DE VARIABLES BIDISCRETAS

Supongamos que en el problema de variables bidiscretas anterior definiéramos como ganancia


obtenida la cantidad de bolillas negras más la cantidad de caras obtenidas. Podríamos escribir:
S=X+Y
Pero atención: esta es una forma abreviada de escribir la suma de variables, no es una
expresión algebraica, puesto que ni S, ni X ni Y son un número particular. La forma amplia sería:
i=n 
i =n 

{S = s} = {( X = i ) (Y = s − i )} = {( X = s − i ) (Y = i )}
i =1 i =1

que lleva a:
i = +∞
P ( S = s) = ∑ P( X = i, Y = s − i )
i = −∞

Por ejemplo:

P (S = 3) = P ( X = 1, Y = 2) + P ( X = 2, Y = 1) + P ( X = 3, Y = 0) = 0 + 0,3 + 0,0125 = 0,3125

(los otros infinitos sumandos son nulos)


Operando en forma equivalente obtenemos la función de probabilidad P(S = s) :

48
Capítulo III

P(S = 1) = 0,15
P(S = 2) = 0,3
P(S = 3) = 0,3125
P(S = 4) = 0,1875
P(S = 5) = 0,0375
P(S = 6) = 0,0125
P(S = i) = 0 para i ≠ 1; 2; 3; 4; 5; 6
Note en el gráfico X, Y que hemos sumado para cada valor s todas las probabilidades
correspondientes a los resultados del espacio muestral ubicados en la recta x + y = s o sea y = –x + s
(recta a –45º con ordenada al origen s). Hemos obtenido la variable suma.
y
0,0125
3
0,15 0,0375
2
0,15 0,3 0,0375
1
S= 6
0,15 0,15 0,0125

0 1 2 3 x
S= 5
S= 0 S= 1 S= 2 S= 3 S= 4

3.2.1.2. LA SUMA DE VARIABLES BICONTINUA

Dada la función conjunta f(x, y) queremos generar la f(s) siendo S = X + Y. La generaremos a


través de la función de distribución.

El suceso {S ≤ s} ≡ { X = x, Y = y donde x + y ≤ s} ≡ { X = x, Y ≤ s − x} que gráficamente se vería:


y

y=s x
x
Luego, analíticamente, siendo Rec el recinto de integración, en este caso x + y ≤ s:
+∞ s − x
F ( S = s ) = P( S ≤ s) =
∫∫ f ( x, y) dx dy = ∫ ∫ f ( x, y) dy dx
Re c − ∞ −∞

Por supuesto, para hallar la f(s) no tenemos más que derivar esta última expresión.
Podemos interpretar la relación entre la función densidad conjunta y la función densidad de la
v.a. suma ( f(S = s) ds = P(s ≤ S ≤ s + ds) ) como una “rebanada” de la función conjunta f(x, y) cortada a
–45º en la posición s del eje S (ver gráfico).
y S
ds

s s+ d s x

49
Estimación Bayesiana

Ejemplo: retomando el ejemplo anterior de los tiempos en la competencia olímpica podemos


calcular el tiempo total empleado S. Será S = X + Y :

s s−x

∫ ∫ 5 (x
3
 2
y + x ) dy dx para 0 ≤ s ≤ 1

 01 0
s−x

∫ ∫ 5 (x
3
F ( S = s ) = P (S ≤ s ) =  2
y + x ) dy dx para 1 ≤ s ≤ 2
0 0
1 s −1 2 s− y

∫∫ ∫ ∫
3 2 3 2
( x y + x ) dy dx + ( x y + x) dx dy para 2 ≤ s ≤ 3
 5 5
0 0 s −1 0

que, desarrollando, queda:

 s5 s3
 + para 0 ≤ s ≤ 1
100 10
s
2
3s 7
F (S = s) =  + − para 1 ≤ s ≤ 2
 10 5 20 50
 s 3s 3 9 s 2 27 s 31
− 100 + 10 − 10 + 20 − 50 para 2 ≤ s ≤ 3

3.2.2. LA DIFERENCIA DE VARIABLES BICONTINUAS

De la misma forma que hemos obtenido la variable suma podemos obtener la variable
diferencia
D = Y – X. Observe que sólo debemos cambiar el recinto de integración; el concepto es el mismo.
Queremos calcular P(D ≤ d). El suceso {D ≤ d} es equivalente al suceso {X =x; Y = y donde y – x ≤ d}.
Despejando y tenemos que y ≤ d + x. Gráficamente:
y D=1 D =d
D=0
D = -1

1 x
La función distribución de la variable D será entonces:
+∞ d + x
F (D = d ) =
∫ ∫ f ( x, y) dy dx
−∞ −∞

3.2.3. EL PRODUCTO DE VARIABLES BICONTINUAS

De la misma forma podemos obtener el producto M = X ⋅Y. Aquí ya calculamos directamente el


recinto de integración:

 m
si x > 0 ⇒ y≤
x
y⋅x ≤ m ⇒ 
si x < 0 ⇒ m
y≥
 x

que en un gráfico toma la forma:

50
Capítulo III

M =m
x
M =m

Luego, analíticamente tenemos que:


0 +∞ +∞ m / x
F ( M = m) = ∫ ∫
−∞ m / x
f ( x, y ) dy dx + ∫ ∫ f ( x, y ) dy dx
0 −∞

expresión que es válida tanto para m positivo como negativo.

3.2.4. EL COCIENTE DE VARIABLES BICONTINUA

En este caso la variable Q está dada por Q = Y / X.

y si x > 0 ⇒ y ≤ q⋅x


≤q ⇒ 
x si x < 0 ⇒ y ≥ q⋅x

El recinto de integración es, entonces:


y Q=q

Luego, calculamos la función distribución como:


0 +∞ +∞ q⋅ x
F (Q = q ) = ∫ ∫ f ( x, y) dy dx + ∫ ∫ f ( x, y) dy dx
− ∞ q⋅ x 0 −∞

3.2.5. CASO GENERAL DE GENERACION DE VARIABLES

Ya estamos en condiciones de generalizar para una variable Z tal que z = g(x, y). Podremos
encontrar la F(x) integrando la f(x, y) en el recinto correspondiente a g(x, y) ≤ z.

y
= { g ( x, y ) z }

g (x, y ) = z

51
Estimación Bayesiana

3.2.6. CAMBIO DE VARIABLE EN DOS DIMENSIONES

Nótese que en el fondo cualquie ra de estas variables planteadas como una equivalencia de
sucesos en el espacio muestral correspondiente con el bidimensional X, Y puede ser pensado como
un cambio de variable.
Este cambio de variable en dos dimensiones puede establecerse directamente a través de las
funciones densidad con sólo definir la relación entre el recinto diferencial dx ⋅ dy y el recinto que nos
interese. Entonces, si tomamos funciones monótonas:
z = gz(x, y) w = gw(x, y)
la relación entre (x, y) y (z, w) será biunívoca, es decir, a cada valor del par (x, y) le corresponde
un valor de (z, w) y viceversa. Por lo tanto, se puede expresar el mismo sistema de ecuaciones pero
habiendo despejado z y w en función de x e y:
x = gx–1(z, w) y = gy–1(z, w)
Además, como los sucesos {X = x; Y = y} y {Z = z; W = w} son equivalentes:
f(z, w) dz dw = f(x, y) dx dy

de donde obtenemos la fórmula de cambio de variable bidimensional:

f ( x, y )
f ( z, w) =
J
x = g −x1 ( z , w); y = g −y1 ( z , w)

z ′x z ′y
donde J es el módulo del jacobiano y J =
w′x w′y

3.2.6.1. SUMA DE VARIABLES como cambio de variables en dos dimensiones

Haciendo z = x + y obtendremos f(z, w), donde, por conveniencia, tomamos w = x:

El módulo del jacobiano es J = z′x ′y – w′x z′y = 1 ⋅ 0 – 1 ⋅ 1 = 1

f ( X = x, Y = y )
Entonces: f ( Z = z, W = w) = = f ( X = w, Y = z − w)
1 y = z −w ; x= w

+∞ +∞
Luego f (Z = z) = ∫ f (Z = z,W = w) dw = ∫ f ( X = w, Y = z − w) dw
−∞ −∞

o sea, luego de encontrar la expresión de la función f(w, z), las marginales f(w) y f(z) serán,
respectivamente, las expresiones de la función f(x) (puesto que w = x) y de f(x + y) (puesto que z = x +
y).
Si hubiésemos utilizado, por ejemp lo, las expresiones z = x + y y r = x y, las respectivas
marginales f(z) y f(r) de la conjunta f(z, r) no serían más que las expresiones de las funciones de
densidad de las variables suma y producto.
En forma semejante se puede desarrollar cualquier relación entre x e y deseada.

3.2.6.2. ESPERANZA DE LA SUMA DE VARIABLES

Queda como ejercicio para el lector por aplicación de la definición de esperanza matemática
demostrar que:

52
Capítulo III

E(x + y) = E(x) + E(y) o sea, µ (x + y) = µ x + µ y

Es decir, la media de la suma es igual a la suma de las medias.


i=n i =n
genéricamente E (∑ xi ) = ∑ E ( xi )
i =1 i =1

También puede desarrollarse como ejercicio

σ (2x + y ) = E ([( x + y ) − ( µ x + µ y )] 2 ) = σ x2 + σ y2 + 2 C xy

O sea, la variancia de la suma de variables no es igual a la suma de las variancias (puede ser
mayor o menor según sea la covarianza Cxy positiva o negativa).
Únicamente con covarianza nula la variancia de la suma es la suma de las variancias; por
ejemplo en el caso que las variables sean independientes (que es una situación frecuente pero no es
la única posibilidad de tener Cxy = 0 ).

3.2.6.3. COMBINACION LINEAL DE VARIABLES IGUALES

i=n
Si X s = ∑ ai X i con los ai tanto positivos como negativos, resulta:
i =1

i =n
la media µ X s = ∑ ai µ X i
i =1

y si las variables son independientes, la variancia será


i =n
σ X2 s = ∑ ai2 σ X2 i (todos los sumandos positivos)
i =1

3.2.7. LAS VARIABLES MAXIMO, MINIMO (EXTREMOS) Y VALORES INTERMEDIOS

Propongamos el siguiente problema: sea VAR una variable aleatoria, la experiencia se repite 3
veces, en forma independiente (la variable correspondiente a cada una de ellas la llamaremos VAR1;
VAR2 y VAR3) y se toma como valor resultante el mayor de los tres: este valor corresponderá a una
nueva variable aleatoria que denominaremos VARmax.
La pregunta es: ¿cómo será la función de densidad de VARmax? Habrá que hacer corresponder
los sucesos en ambos espacios

P(VARmax = x) = P({VAR1 = x VAR2 ≤ x VAR3 ≤ x} 

 {VAR1 ≤ x VAR2 = x VAR3 ≤ x}  {VAR1 ≤ x VAR2 ≤ x VAR3 = x})


que, por igualdad de variables ( VAR1 = VAR2 = VAR3), independencia y disyunción de sucesos
resulta (para una variable continua):
f(VARmax = x) = 3 f(VAR = x) F (VAR = x) 2
expresión que puede generalizarse para n experiencias como:

f(VARmax = x) = n f(VAR = x) F (VAR = x) n – 1

De la misma forma podemos plantear para el mínimo:

P(VARmin = x) = P({VAR1 = x VAR2 ≥ x ... VARn ≥ x} 

 {VAR1 ≥ x VAR2 = x VAR3 ≥ x ... VARn ≥ x}  {...}  {...})

53
Estimación Bayesiana

que se transforma con las mismas condiciones anteriores en:

f(VARmin = x) = n f(VAR = x) (1 – F(VAR = x))n – 1

Por consideraciones equivalentes, el r-ésimo valor (valor intermedio r, de mayor a menor) de n


experiencias resulta:

 n − 1
f (VARint r = x) = n   f (VAR = x) F (VAR = x) n − r (1 − F (VAR = x)) r −1
 r − 1 

Nótese que para r = 1 corresponde a la función de máximo y para r = n a la de mínimo.


Ejemplo: si quisiéramos encontrar la función del máximo de 3 variables RND resultaría:

f(MAX = x) = 3 x2 0≤x≤1
cuya gráfica es:
f( M A X = x )
3
2 3x2

1
0 0
0 1 x
Observe el cambio con respecto a la experiencia individual uniforme, en el que resulta que
valores mayores son más probables, tal como era de esperar.

3.2.7.1. MAXIMO Y MINIMO EN VARIABLES BIDIMENSIONALES NO INDEPENDIENTES

Las expresiones encontradas anteriormente se desarrollan para el caso frecuente de variables


iguales e independientes. En caso de no cumplir estas condiciones, debemos conocer la f(x, y) y así
plantear la variable MAX(x, y) o MIN(x, y) como caso general.
El planteo probabilístico es igual:

F(MAX(x, y) = z) = P(MAX(x, y) ≤ z) = P( (VARx ≤ z VARy ≤ z) )


cuyo significado gráfico es:

VA R y y=x

y=z

x=z VA R x

como planteo directo por función de densidad

P(MAX(x, y) = z) = P({VARx = z VARy ≤ z}  {VARx ≤ z VARy = z})

que se transforma en:

f(MAX(x, y) = z) = f(VARx = z, VARy ≤ z) + f(VARx ≤ z, VARy = z)


cuyo significado gráfico es:

54
Capítulo III

VA R y

z + dz
z

z z + dz VA R x

Las funciones del mínimo, en cambio, resultan:

F(MIN(x, y) = z) = P(VARx ≤ z VARy ≤ z)


cuya gráfica es:

VA R y y=x

y=z

x=z VA R x

como planteo directo por función de densidad

P(MIN(x, y) = z) = P({VARx = z  VARy ≥ z} {VARx ≥ z  VARy = z})

que se transforma en:

f(MIN(x, y) = z) = f(VARx = z, VARy ≥ z) + f(VARx ≥ z, VARy = z)


cuyo significado gráfico es:
VA R y

z + dz
z

z z + dz VA R x

Ejemplo: retomemos el ejemplo de los tiempos en la olimpíada. Si nos proponemos encontrar la


función del tiempo máximo de etapa (sea ésta carrera o natación) debemos plantear:

f(MAX(x, y) = z) = f(VARx = z, VARy ≤ z) + f(VARx ≤ z, VARy = z)


resulta:

z 3 z

∫ ∫
3 2
 ( z 2 y + z ) dy + ( x z + x) dx para 0 < z ≤ 1
 5 5
10 0
 3
f ( MAX ( x, y ) ∫
= z ) =  ( x 2 z + x) dx
0 5
para 1 < z ≤ 2


0 para z < 0 ∨ z > 2

Desarrollando queda:

55
Estimación Bayesiana

1 4 9 2
 2 z + 10 z para 0 < z ≤ 1
 1 3
f (Z = z) =  z + para 1 < z ≤ 2
 5 10
0 para z < 0 ó z > 2


56

También podría gustarte