Está en la página 1de 24

INVESTIGACION EN TEORIA ESTADISTICA

ERIKA LORENA MUNOZ PACHECO Cod. 070200272010 CESAR AUGUSTO VEGA PENAGOS Cod. 070200222010

Docente ALFONSO SANCHEZ

UNIVERSIDAD DEL TOLIMA FACULTAD DE CIENCIAS MATEMATICAS CON ENFASIS EN ESTADISTICA 2012

CONTENIDO 1. Funciones de Distribucin Conjunta o 2. Funciones de Distribucin Bivariada o 3. Funciones de Distribucin Condicionales o 3.1 Funcin de Distribucion Condicional de Variables Aleatorias Discretas o 4. Distribucin Marginales o 5. Independencia 6. Valor Esperado Conjunto 7. Varianza Conjunta 8. Covarianza 9. Distribucin Condicionales o 10. Coeciente de Correlacin o

DISTRIBUCION CONJUNTA

1. Funciones de Distribucin Conjunta o Denicin o Se dice que x,y son dos variables aleatorias conjuntas cuando con cada punto de un espacio muestral hay asociados dos valores numricos; mas precisamente, un par de e variables aleatorias conjntas es una aplicacin de un espacio muestral S en R2 , (o u o en un subconjunto de R2 ) como lo veremos e las tablas que se muestran mas adelante. Ejemplo: La experiencia aleatoria consiste en lanzar un par de dados y sean las dos variables aleatrias: o t= suma de los puntajes de los dos dados. m= puntaje del dado de mayor puntaje. Sin embargo, si nos intereza calcular las probabilidades de sucesos en los que intervenga ambas variables aleatorias, por ejemplo:

t m + 2, t + m 6, etc.

Por denicin de variable aleatoria como asociacin de valores nmericos con los o o u puntos de un espacio muestral. Es claro que podemos denir sobre un mismo espacio muestral dos o mas variables aleatorias.

Punto del Espacio Muestral (d1 , d2 ) Valores Asociados (t, m) 1,1 1,2 1,3 1,4 1,5 1,6 2,1 2,2 2,3 2,4 2,5 2,6 3,1 3,2 3,3 3,4 3,5 3,6 2,1 3,2 4,3 5,4 6,5 7,6 3,2 4,2 5,3 6,4 7,5 8,6 4,3 5,3 6,3 7,4 8,5 9,6

Punto del Espacio Muestral (d1 , d2 ) Valores Asociados (t, m) 4,1 4,2 4,3 4,4 4,5 4,6 5,1 5,2 5,3 5,4 5,5 5,6 6,1 6,2 6,3 6,4 6,5 6,6 5,4 6,4 7,4 8,4 9,5 10,6 6,5 7,5 8,5 9,5 10.5 11,6 7,6 8,6 9,6 10,6 11,6 12,6

DISTRIBUCION BIVARIADA 2. Funcin de Distribucin Bivariada o o Denicin 1: o falta denicion................. falta tambn complementar.

Propiedades de la Funcin de Distribucin Conjunta Bivariada o o a. Montona no decreciente tanto en x como en y. o b. Continua a la derecha tanto en x como en y. c. Fxy (x, ) = Fxy (, y) = 0. d. Fxy (x, ) = Fx (x) Fxy (, y) = Fy (y) Fxy (, ) = 1

( )

Denicin 2: Funcin de Distribucin Bivariada Acumulada o o o Cualquier funcin que satisface todas las propiedades esta denida como funcin de o o distribucin bivariada acumulada sin referencia a cualquier variable aleatoria. o

DISTRIBUCION CONDICIONAL 3. Funciones de Distribucin Condicional o sea x y y variables aleatorias conjuntas que supondremos, por el momento discretas. Dada la informacin de que y =n, que podemos decir respecto a la distribucin de o o x? Esta distribucin recibe el nombre de distribucin condicional de x dado y ,como o o Fx/y (x; n) = (X x/Y = n)(1)

funciona esta que caracteriza totalmente la distribucin condicional. Alternativao mente, podemos caracterizar la distribucin por medio de la funcin de probabilidad o o condicional, gx|y (m; n) = (x = m|y = n)(2)

Para calcular explicitamente las probabilidades condicionales que aparecen en (1) y (2) simplemente aplicamos la ecuacion siguiente, obteniendo: f x (x; n) = y P (x x, y = n) = P (y = n)
mx

gxy (m, n) gy (n)

g x (m; n) = y

P (x = m, y = n) P (y = n) gxy (m, n) gy (n)

g x (m; n) = y

3.1 Funcin de Distribucion Condicional de Variables Aleatorias Discretas o Sean x,y variables aleatorias conjuntas discretas con funcin de densidad discreta o condicional de Y dado X = x denotado por:
y y fx(x) =

fX,Y (x,y) fx (x)

y Si Fx (x) > 0, donde fx (x) es densidad marginal de x evaluado sobre x f x ( x ) es indenida para fx (x) = 0 y similarmente si fY (y) > 0.

Alternativamente podemos caracterizar la distribucin por medio de la funcin de o o probabilidad condicional, x=m ) y=n

g x (x; n) = P ( y

En palabras se expresa diciendo que la funcin de probabilidad condicional de una o de las variables aleatorias es igual a la funcin de probabilidad conjunta dividida o por la funcin de probabilidad marginal de la variable dada, avaluada en el valor o dado.

DISTRIBUCION MARGINAL 4. Distribucines Marginales o Denicin 1: Distribucion marginal conjunta. o Es claro que, aunque x, y son variables aleatorias conjuntas, cada una de ellas in dividualmente considerada es uan variable aletoria con su distribucion individial de x o de y o a sus caracteristicas (funcion de reparticin, media, transformada, etc.) o usaremos siempre la palabra marginal : asi, hablaremos de la distribucin margio nal de x su funcion de reparticin marginal,etc. Un primer resultado respecto a las o distribuciones marginales es la que expresan las ecuaciones (***) en el cual puede enunciarse en palabras como sigue: la funcin de reparticion marginal de una de las variables aleatorias conjuntas se o obtiene, a partir de la funcin de reparticin conjunta haciedo tender a innito el o o argumento asociado con la otra variable aleatoria. Era de esperar que la distribucion conjunta determina un vocamente las distribuciones marginales. Sin embargo, el recipocro no es cierto,las dos distribuciones marginales no determinan la distribucion conjunta. Denicin 2: Densidad Marginal Discreta. o Si x,y son variables aleatorias conjuntas, entonces fx () y fy () son llamadas funcin o marginal discreta. Mas generalmente, decimos xi1 , ..., xim , son algun subconjunto de la variable aleatoria discreta conjunta x1 , x2 , ...., xk , entonces fxi1 ,...,xim (xi1 , ..., xim ) es tambien llamado una densidad marginal. Ejemplo. Una urna contiene 12 balotas de las cuales 3 son blancas, 3 negras y 6 de otro color. Se extraen al azar cuatro balotas y sea x el nmero de blancas y y en nmero u u de negras. Hallar la funcin de probabilidad conjunta de x, y y sus funcines de o o probabilidad marginales. Hallar tambien la probabilidad de que se extraigan tantas balotas blancas como negras. El espacio muestral de la experiencia aleatoria considerada incluye tantos puntos como maneras existen de seleccionar 4 objetos entre 12, esto es ( 12 ) = 495 puntos 4 equiprobables. Aplicacin que dene a x, y consiste en asociar con cada punto el nmero de balotas o u blancas y negras respectivamente que ese punto posee. Calculemos cuantas de las 495 selecciones incluyen m blancas, n negras ( y porsupuesto 4 m n de otro color), siendo m y n nmeros dados: u (0 m 3, 0 n 3, m + n 4).

3 3 Las m balotas blancas pueden seleccionarse de ( m ) maneras; las n negras, de ( n ) 3 3 6 6 maneras y las restantes de ( 4mn ) maneras, lo cual nos da ( m )( n )( 4mn ) combinaciones posibles. portanto:

( = m, y = n) = gxy (m, n) = x

1 3 3 6 ( )( )( ) 495 m n 4 m n

0m3 0n3 m+n4 Siquiendo un razonamiento similar, es facil ver que las funciones de probabilidad marginales estan dadas por: P ( = m) = gx (m) = x y, P ( = n) = gy (n) = y
1 ( 3 )( 9 ) 495 m 4m 1 ( 3 )( 9 ) 495 m 4m

0m3

0n3

En cuanto a la probabilidad suceso ( = y ), ella estar dada por: x a

( = y ) = x
k=0

gxy (k, k) = gxy (0, 0) + gxy (1, 1) + gxy (2, 2) =

1 65 159 ( + 3 3) = 495 2 495

Denicin 3: Funcin de Densidad de Probabilidad Marginal o o Si x,y son variables aleatorias continuas conjuntas, entonces fx () y fy () son llamadas funcin de probabilidad marginal. Mas generalmente, decimos xi1 , ..., xim , son o algun subconjunto de la variable aleatoria continuas conjunta x1 , x2 , ...., xk , entonces fxi1 ,...,xim (xi1 , ..., xim ) es tambien llamado una densidad marginal de m dimensiones con variable aleatoria (xi1 , ..., xim ).

10

INDEPENDENCIA 5. Independencia Se dice que las variables aleatorias X,Y son independientes si cualquier suceso denido a partir de X unicamente, es independiente de cualquier suceso denido a partir de Y unicamente. Teorema Si las variables aleatorias X,Y son independientes la distribucin condicional de o cualquiera de ellas coinciden con su distribucin marginal. o Demostracion Puesto que X,Y son independientes, se sigue que el suceso X x debe ser independiente al suceso Y = y ( o del suceso y Y y + y si Y es continua). Por tanto:

P (X x | Y = y) = P (X x)

P (X x | y Y Y + y) = P (X x)

Lo cual implica que:

F x (x, y) = Fx (x) y Es decir que la funcin de distribucion condicional es igual a la marginal y, por o tanto, las distribuciones correspondientes son identicas. Es claro que tambien la densidad condicional (o la funcin de probabilidad condio cional si se trata de una variable discreta) sera igual a la marginal correspondiente. Corolario Si las variables aleatorias x,y son independientes, su densidad conjunta (si la distribucin es continua), su funcin de probabilidad conjunta (si es discreta) o su o o densidad - funcin de probabilidad (si es discreto-continuo) es igual al producto o de las densidades marginales, de las funciones de probabilidad marginales o de la 11

densidad marginal por la funcin de probabilidad marginal, respectivamente. o En efecto, si en las ecuaciones

f x (x; y) = fx (x) y

g x (x; y) = gx (x) y

Reemplazamos los primeros miembros por sus equivalentes obtenemos, dependiendo del tipo de distribucin: o

fxy (x, y) = fx (x) fy (y) hxy (x, y) = fx (x) gy (y) gxy (x, y) = gx (x) gy (y) hxy (x, y) = gx (x) fy (y)

Que pueden reescribirse como:

fxy (x, y) = fx (x)fy (y)

gxy (x, y) = gx (x)gy (y)

hxy (x, y) = fx (x)gy (y) 12

hxy (x, y) = gx (x)fy (y)

La propiedad rec proca tambin es cierta segn lo establece el siguiente teorema. e u Teorema Si la densidad conjunta de dos variables aleatorias continuas, o la funcin de probao bilidad conjunta de dos variables discretas, o la densidad-funcin de probabilidad si o se trata de una distribucin discreto-continua, puede factorizarse en todo su rango o en dos funciones, la de una dependiente del primer argumento unicamente y la otra del segundo argumento unicamente, entonces las variables aleatorias son independientes y estas dos funciones (convenientemente normalizadas) son, precisamente, las dos densidades marginales, o las dos funciones de probabilidad marginales o la densidad marginal y la funcin de probabilidad marginal, respectivamente. o Tengamos en cuenta lo siguiente antes de la desmostracin del teorema. o

fxy (x, y) =

6e(2x+3y) si x 0, y 0; 0 de lo contrario;

podemos escribirla como el producto de (x) por (y) donde:

(x) =

6e2x si x 0; 0 de lo contrario;

(y) =

e3y si y 0; 0 de lo contrario;

13

El teorema nos garantiza que x,y son independientes y que los nucleos de sus densidades marginales son, precisamente, (x), (y).En efecto:

fx (x) =

2e2x si x 0; 0 de lo contrario;

fy (y) =

3e3y si y 0; 0 de lo contrario;

Demostracin o Demostraremos el teorema unicamente para el caso de variables continuas. Los otros dos casos se demuestran en forma muy semejante. Sean x,y variables aleatorias continuas cuya densidad es de forma:

fxy (x, y) = (x)(y)paratodox, y

Sabemos que: fx (x) =


(x)(y)dx = (y)

(x)dx = k2 (y)

El producto k1 k2 = sobre todo el plano. Por tanto,

(y)dy

(x)dx = 1 por coincidir con la integral de fxy (x, y)

fxy (x, y) = fx (x)fy (y)

Mostraremos ahora que x,y son independientes: Sea A un suceso denido a partir de x unicamente, B un suceso denido a partir de

14

y unicamente, y C la interseccin AB. o

p(C) = p(AB) =

fxy (x, y)dxdy =

fx (x)fy (y)dxdy

=
B

fy (y)dy
A

fx (x)dx = p(A)p(B)

Por lo tanto A y B son independientes, y la demostracin del teorema queda como pleta.

15

Propiedades Para las variables aleatorias discretas X y Y, si cualquiera de las propiedades siguientes es valida, entonces las demas tambien lo son y X y Y son independientes. 1. fxy (x, y) = fx (x)fy (y) para todo x,y.
y 2. f x (y) = fy (y) para todo x,y con fx (x) > 0

3. f x (x) = fx (x) para todo x,y con fy (y) > 0 y 4. P (X = x, Y = y) = fx (x) = fy (y) para toda (x,y) en el rango de X y Y. Observese que la independencia implicita que fxy (x, y) = fx (x)fy (Y ) para toda x,y.Si se encuentra un par de x y y para que el que la igualdad no sea valida, entonces X y Y no son independientes. Puede demostrarse que la independencia tambien implica que p(X A, Y B) = P (X A)P (Y B9) para cualesquiera conjuntos A y B.

16

6. Covarianza y Coeciente de Variacin o Cuando se denen dos o mas variables aleatorias en un espacio de probabilidad, resulta conveniente describir la forma en que varian en conjunto; es decir, es util medir la relacion y entre las variables. Una medidad comun de la relacin entre dos o variables aleatorias es la covarianza. covarianza: Para denir la covarianza es necesario describir el valor esperado de una funcin de dos variables aleatorias h(x,y). o Denicion E[h(x, y)] =
R R

h(x, y)fxy (x, y)

X,Y discretas;

h(x, y)fxy (x, y)dxdy X,Y continuas;

Es decir, E[h(x, y)] puede considerarse como el promedio ponderado de h(x, y) para cada punto del rango de (X,Y). El valor de E[h(x, y)] representa el valor promedo de h(x, y) que se espera en una serie larga de ensayos repetidos del experimento aleatorio. sea X y Y dos variables aleatorias denidas sobre el mismo espacio de probabilidad.La covarianza de X y Y notada como cov[X,Y] o X,Y , es denido como: cov[X, Y ] = E[(X X )(Y Y )] Desde que el valor esperado existay este indicado. Se puede obtener de la siguiente manera: cov[X, Y ] = E[(X X )(Y Y )] = E[XY ] X Y Demostracion: E[(X X )(Y Y )] = E[XY X Y Y X X Y ] = E[XY ] X E[Y ] Y E[X] + X Y = E[XY ] X Y

17

Coeciente de Correlacin o El coeciente de correlacin, denotado por p[x, y] o px,y de variable aleatoria x,y es o denido por

px,y =

cov[x, y] x y

Siempre que la cov [x, y], X Y Y existe y x > 0yy > 0 Teorema El coeciente de correacin esta comprendido entre 1y1 . o Demostracin o Sea t un nmero real cualquiera consideremos la esperanza de la funcin u o

u(x, y) = [(x x) t(y y )]2 2 E(u(x, y)) = E[(x x) 2t(x x)(y y ) + t2 (y y )2 ] = V (x) 2tC(x, y) + t2 V (y) u(x, y) no puede tomar valores negativos y, por tanto, su esperanza ser no negativa. a Es decir, que el trinomio de segundo grado en t

V (x) 2tC(x, y) + t2 V (y)

Debe ser mayor o igual que cero, cualquiera que sea t. Pero para que un trinomio a + 2bt + ct2 0 para cualquier t, es necesario ( y suciente) que b2 ac 0. Por tanto:

[C(x, y)]2 V (x)V (y) 0

18

O lo que es lo mismo, [C(x, y)] = [p(x, y)]2 1 V (x)V (Y ) Y por tanto,

1 p(x, y) 1

Propiedades Teorema Si a partir de las variables aleatorias x,y se denen dos nuevas variables u = ax + b, v = cy + d (a > 0, c > 0) entonces

p(u, v) = p(x, y)

Esta propiedad puede expresarse diciendo que el coeciente de correlacin es invao riante a los cambios de escala o de origen. Demostracin: o

p(u, v) =

E[(u u)(v v )] D(u)D(v)

Pero u u = (ax + b) (a + b) = a(x x) x

v v = (cy + d) (c + d) = c(y y ) y 19

Y ademas, D(u) = aD(X)

D(v) = cD(Y )

Entonces p(u, v) = E[ac(x x)(y y )] E[ac(x x)(y y )] = = p(x, y) acD(x)D(y) D(x)D(y)

Se puede ver el coeciente de correlacin como un grado de dependencia de las dos o variables aleatorias. No es totalmente cierto ya que puede darse el caso de que el coeciente valga cero y sin embargo las variables sean dependientes. Puede considerarse lo siguiente: a. Un coeciente de correlacin con valor absoluto alto (positivo o negativo) indica o que, si se conoce el valor de una de las variables, la otra queda casi determinada; tanto mas, cuando mas cercano a 1 est el coeciente de correlacin. e o b. Un coeciente de relacion positivo indica que, dado un valor alto de la primera variable, la segunda tiende a tener valores tambien altos y, reciprocamente, dado un valor bajo de la primera variable, la segunda tiende tener valores bajos. c. Un coeciente de correlacin negativo indica que, dado un valor alto de la primera o variable, la segunda tiende a tener valores bajos y, dado un valor bajo de la primera, la segunda tiende a tener valores altos. (En todo lo anterior, alto y bajo ha de entenderse, respecto a la media). Teorema Las variables aleatorias x,y tienen coeciente de correlacion igual a 1 en valor absoluto, si y solo si existen constantes a,b tales que la igualdad y = ax + b se cumple con probabilidad igual a 1( es decir si y ax + b ) Ademas, el coeciente de correlacin valdra +1 si a > 0y 1sia < 0. o

20

Demostracion Sea y ax + b; entonces y a + b y por tanto y y = a(x x) de lo cual se sigue x que

C(x, y) = E[a(x x)2 ] = aV (x) Ademas

V (y) = a2 V (x) Entonces

p(x, y) =

aV (x) V (x)a2 V (X)

a = |a|

+1 si a > 0; 1 si a < 0;

Rec procamente,sea

p2 (x, y) = 1 Introduzcamos dos variables aleatorias auxiliares

u= v=

x E(x) D(x) y E(y) D(y)

21

Para las cuales es claro que E(u) = E(v) = 0; D(u) = D(v) = 1

Por teorema p(u, v) = p(x, y) = 1

Ademas p(u, v) = C(u, v)

En consecuencia, V (u v) = 0sip(u, v) = 1oV (u + v) = 0sip(u, v) = 1

Entonces, si p(x, y) = 1, u v 0,

Es decir x E(x) y E(y) D(x) D(y)

Y si p(x, y) = 1, u + v 0

22

Es decir x E(x) y + E(y) D(x) D(y)

Con lo cual queda establecido que y E(y) D(y) [x E(x)] D(x)

Queda demostrado.

23

BIBLIOGRAFIA MOOD, Alexander McFarlane, 1913- Introduction to the theory of statistics. (McGraw-Hill series in probability and statistics) Bibliography: p. 1. Mathematical statistics. I. Graybill, Franklin A., joint author. II.Boes, Duane C., joint author. III. Title Probabilidad y estadistica aplicada a la ingenieria Segunda edicion. Douglas C. Montgomery Univerisidad Estatal de Arizona George C Runger Universidad Estatal de Arizona 2002 Editorial Limusa S Teoria de la probabilidad Juan Obregon Sanin 1984, Editorial Limusa

24