Está en la página 1de 22

1

Pablo Ramn Soria


Tema 1 Teora de la Probabilidad
1) Probabilidad de Laplace, Lgica o clsica: La probabilidad clsica se define como:
P(S) =
|S|
||
=
E
N
_
|S| =E ContiJoJ Jc succsos clcmcntolcs
Proccso quc oglutino toJos los posiblcs succsos
|| =Cantidad de posibles sucesos


Para pode aplicar la probabilidad clsica es necesario que todos los procesos sean equiprobables.

Ejemplos:
Dado d6
S ={porcs}={2,4,6}
={1,2,3,4,5,6}
P(S) =
|S|
||
=
3
6
=
1
2

Dos dados d6 suma
1 2 3 4 5 6
1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12
S ={7}
P(S) =
6
36
=
1
6


S ={2}
P(S) =
1
36


2) Probabilidad frecuencialista o emprica: Se basa en la toma de datos empricos durane un
cierto periodo de tiempo (Inicialmente no se conoce el problema:

Ejemplo: Lanzar una moneda al aire.
Diagrama veces lanzada-
Probabilidad de salir Cara. Por el
mtodo clsico la probabilidad debe ser el
50%.

Con pocos datos no coinciden los
resultados de la probabilidad clsica y los
de la frecuencialista, pero con un nmero
suficiente los resultados convergen.

3) Axiomtica y Propiedades de la probabilidad:
a. Definiciones:
i. Suceso elemental (s): suceso simple, indivisible.
ii. Suceso compuesto: conjunto de sucesos elementales.
iii. Suceso imposible: (conjunto vaco)
iv. Espacio muestral (): conjunto de sucesos posibles. Clasificacin:
1. Espacio muestral finito (o discreto): Es aquel en el que hay una
cantidad finita de sucesos, o es infinita pero no es numerable.
2. Espacio muestral infinito (o continuo): Es aquel en el que hay una
cantidad infinita de sucesos.

b. Operaciones de la teora de conjuntos:
i. Unin de conjuntos (A B):
ii. Interseccin de conjuntos (A B):
iii. Suceso complementario a A (A

):
iv. Diferencia de sucesos (A B):
v. Leyes de Morgan: _
S
1
S
2

=S
1

S
2

S
1
S
2

=S
1

S
2




0
0,5
1
0 5 10 15 20
Valores Y
Mtodos Estadsticos
Tema 1 Teora de la probabilidad 2 Ingeniera Industrial
2
Pablo Ramn Soria
vi. Concepto de Particin: Sean S
1
,S
2
,,S
n
0, estos sucesos forman una
particin del espacio muestral si cumplen las siguientes condiciones:
1. El conjunto de sucesos S
1
,S
2
,,S
n
son disjuntos o mutuamente
excluyentes, es decir, S

S
]
= i,] ;i ].
2. S
1
,S
2
,,S
n
son exhaustivos, es decir S

=0
n
=1


c. Axiomtica de la probabilidad: La probabilidad de un conjunto es una funcin "P" es la
funcin que opera sobre los sucesos de un espacio probabilstico asignando a cada
proceso un valor entre 0 y 1. Tal que:
P(A) 0
P(0) =1
P( A

k
=1
) = P(A

)
k
=1
A

son Jis]untos

d. Propiedades de la probabilidad:
P(A) =1P(A

)
P() =0
Si AcB P(A) P(B)
Si Ac0 P(A) 1
P(A B) =P(A) +P(B) P(A B)
P(A B C) =P(A) +P(B) +P(C) P(A B) P(B C)
P(A C) +P(A B C)

4) Mtodos de enumeracin:
a. Principio de multiplicacin: El conjunto total de combinaciones posibles entre dos
conjuntos cuales quiera E
1
={o
1
,b
1
,,n
1
};E
2
={o
2
,b
2
,,n
2
}de n
1
y n
2
nmero de
elementos respectivamente es la multiplicacin de ambos N =n
1
n
3
.

b. Tabla combinatoria: Sean un conjunto de elementos:
Sin repeticin Con repeticin

Con Orden

Permutacin

P
n
(N!) PR
n
=
N!
n
k
!


Todos
Variacin
I
N,n
=
N!
(N n)!


IR
N,n
=N
n




Subconjunto
Sin Orden

Combinacin

C
N,n
=[
N
n
=
N!
n!(N n)!

CR
N,n
=[
N +n 1
n

=
(N +n 1)!
n!(N 1)!


*n
k
es el factorial del nmero
de elementos de cada tipo que
hay en la permutacin con
repeticin.

5) Probabilidad condicional: Probabilidad de que ocurra un suceso A sabiendo que ha ocurrido B:
P(A|B) =
P(A B)
P(B)


6) Regla de la multiplicacin:
P(A
1
A
2
A
n
) =P(A
1
) P(A
2
|A
1
) P(A
3
|A
1
A
2
) P(A
n
|A
1
A
2
A
n-1
)


Mtodos Estadsticos
Tema 1 Teora de la probabilidad 2 Ingeniera Industrial
3
Pablo Ramn Soria
7) Independencia: Sean dos sucesos A y B tal que P(A) >0 y P(B) >0. Si los sucesos son
independientes:
P(A B) =P(A) P(B)
P(A|B) =P(A)

8) Teorema de la probabilidad total: Sea un conjunto de sucesos A
1
,A
2
,,A
n
tal que son
Exhaustivos (A

=0) y disjuntos (A

A
]
= i ]).
P(A
1
A
2
A
n
) =1
=P(A
1
) +P(A
2
) ++P(A
n
) P(A
1
A
2
)
_______
0
+P(A
1
A
2
A
3
)
___________
0
+
=P(A
1
) +P(A
2
) ++P(A
n
) =1

Sea un suceso diferente B contenido y distribuido en los otros sucesos A

. Entonces:
P(B) =P(B A
1
) +P(B A
2
) ++P(B A
n
)
P(B|A

) =
P(B A

)
P(B)

P(B) =P(A

)P(B|A

)
n
=1


9) Teorema de Bayes: Sea un suceso "S" incluido en un conjunto de sucesos A
1
,A
2
,,A
n
.
Entonces:
P(A
1
|S) =
P(A
1
S)
P(S)

1
Pablo Ramn Soria
Tema 2 Variable aleatoria
1) Variable aleatoria: caracterstica medible que puede tomar diferentes valores a lo largo del
tiempo. Tal que para cada valor se le tiene asignado una probabilidad.









2) Probabilidad inducida: P
x
(b). La probabilidad inducida para un cierto valor b de la recta real
es:
P
x
(b) =P{X
-1
(b)}={s 0| X(S) b} b B

3) Variable discreta: son aquellas variables que toman un nmero finito (o un nmero infinito
pero numerable) de valores.
a. Funcin de probabilidad: probabilidad de que una funcin X tome un valor x.
P(X =x)
P: [0,1]
x P(x) =P(X =x) =P
x
(x)

b. Funcin de distribucin: funcin que acumulativa de la funcin de probabilidad:
F(b) =P(X b)

Funcin Jc probobiliJoJ Funcin Jc Jistribucin

i. Propiedades de la funcin distribucin
1. P(x

) 0 x


2. P(x

) =1
3. A =(,x] P(X x) =F(x) =P(x

)
4. A =[o x b] P(o X b) = P(x

)
u<X<b


4) Variable continua: son aquellas variables que toman un nmero infinito (y no numerable) de
valores.
a. Funcin de densidad: funcin continua tal que en el intervalo de un suceso A se da que:
P(x A) =_ (x)Jx
A

i. Condiciones de la funcin densidad:
1. (x) 0
2. (x)Jx

-
=1
0,00
0,20
0,40
0,60
0,80
1,00
1 2 3 4 5
0,00
0,20
0,40
0,60
0,80
1,00
1 2 3 4 5
0
S
1

x
0

x
1

x
2

0
1
Mtodos Estadsticos
Tema 2 Variable Aleatoria 2 Ingeniera Industrial
2
Pablo Ramn Soria
b. Funcin de distribucin:
F(x) =P(X <x) = _ (t)Jt
x
-

i. Corolarios:
1. P(x =A) =P(o x o) = (x)Jx
u
u
=0 o
2. P(o <x <b) =P(o x b) =P(o x <b) =P(o <x b)
F(b) F(o) =_ (x)Jx
b
u

3. (x) =
P(x)
dx

--F(x) = (x)Jx
x
-


ii. Propiedades de la funcin distribucin:
1. F() =lim
x-
F(x) =P() =0.
2. F() =lim
x
F(x) =P(0) =1.
3. La funcin F(x)es montona no decreciente. Si x
1
<x
2
F(x
1
)
F(x
2
).
4. La funcin F(x)es continua por la derecha lim
s0
+
s0
F(x +e) =F(x).
5. La continuidad por la izquierda solo se cumple en puntos en los que
P(X =x) =0 P(X =x) =F(x) F(x
-
) x .

5) Punto ordinario y punto de salto:
a. Punto ordinario: son los puntos tales que X =x P(X =x) =F(x) F(x
-
) =0.
Pueden darse tanto en variable discreta como en continua (En la cual todos los puntos lo
son).
b. Punto de salto: son los puntos tales que X =x P(X =x) =F(x) F(x
-
) >0.
i. En la variable aleatoria discreta:
1. La funcin de probabilidad es nula en todo excepto en un conjunto
numerable de puntos de salto.
2. La funcin de distribucin es escalonada.
3.
c. Corolarios: Para la variable continua y discreta:
i. o P(x >o) =1 F(o)
ii. x
1
,x
2
x
1
x
2
se cumple que:
1. P(x
1
<x x
2
) =F(x
2
) F(x
1
)
2. P(x
1
x x
2
) =F(x
2
) F(x
1
) +P(X =x
1
)
3. P(x
1
<x <x
2
) =F(x
2
) F(x
1
) P(X =x
2
)
4. P(x
1
x <x
2
) =F(x
2
) F(x
1
) P(X =x
2
) +P(X =x
1
)

6) Momentos:
a. Esperanza matemtica: es el valor esperado de una funcin: E[g(x)]
Discreta:
E[g(x)] = g(x

)p(x

)
x
i


g(x

) :olor Jc g cn x


p(x

) probobiliJoJJc x


|g(x

)|p(x

) <
Continua:
E[g(x)] =_ g(x)(x)Jx

-



_ |g(x)|p(x)Jx

-
<

Mtodos Estadsticos
Tema 2 Variable Aleatoria 2 Ingeniera Industrial
3
Pablo Ramn Soria
b. Media de una variable aleatoria (p): esperanza matemtica en la que g(x) =x:
Discreta:
p =E[x] =x

p(x

)
x
i

Continua:
p =E[x] =_ x (x)Jx

-


c. Propiedades de la esperanza matemtica:
i. g(x) =c =ctc E[c] =2c
E[g(x)] =E[c] = c p(x

)
x
1

=c p(x

)
x
i

1
=c
ii. g(x) =c x E[c x] =c E[x]
E[c x] =_ c x (x)Jx

-
=c _ x (x)Jx

-
=c E[x]
iii. y =ox +b o,b ctc E[y] =oE[x] +b
iv. g(x)y (x) don funciones de la variable aleatoria x:
E[g(x) (x)] =E[g(x)] E[(x)]
|E[g(x) +(x)]| E[g(x)] +E[(x)]

d. Momento de una variable aleatoria: esperanza matemtica en la que:
g(x) =(x c)
k
c ctc ; k

i. Momento respecto "c": momento de orden k de una variable aleatoria x
respecto a un punto c: E|(x c)
k
]
Discreta:
E|(x c)
k
] =(x c)
k
p(x

)
x
i

Continua:
E|(x c)
k
] =_ (x c)
k
(x)Jx

-


ii. Momento de orden k respecto al origen: momento en el que c =0
Discreta:
o
k
=E|x
k
] =x
k
p(x

)
x
i

Continua:
o
k
=E|(x)
k
] =_ x
k
(x)Jx

-


iii. Momento de orden k respecto a su media: momento en el que c =p
Discreta:
p
k
=E[(x p)
k
] =(x p)
k
p(x
i
)
x
i

Continua:
p
k
=E[(x p)
k
] =_ (x p)
k
(x)Jx



e. Corolarios:
i. Todos los momentos de orden cero (k =0) son iguales a la unidad.
ii. o
1
=E[x
1
] =E[x] =p
iii. p
1
=E[(x E[x])
1
] =E[(x p)] =E[x] E[p] =p p =0
iv. La varianza:
o
2
=p
2
=E[(x E[x])
2
] =E[(x p)
2
] =E[x
2
+p
2
2xp]
=E[x
2
] +E[p
2
] E[2xp] =E[x
2
] +p
2
2p
2
=o
2
p
2
=o
2
o
1
2

v. Una distribucin de la variable aleatoria X, es simtrica respecto de su media
si se cumple:
V.A. Discreta
P(x p +o) =P(x p o)
V.A. Continua
(p +o) =(p o)


Mtodos Estadsticos
Tema 2 Variable Aleatoria 2 Ingeniera Industrial
4
Pablo Ramn Soria
vi. Para k se cumple:
p
k
=(1) [
k
i
p

o
k-
k
=0
; o
k
=[
k
i
p

p
k-
k
=0


7) Varianza de una funcin g(x) de la V.A. "x":
I(g(x)) =o
2
=E[(g(x) E[g(x)])
2
] =E[g(x)
2
] (E[g(x)])
2

V.A. Discreta
o
2
=E[(x p)
2
] =(x

p)
2
P(x

)
V.A. Continua
o
2
=E[(x p)
2
] =_ (x p)
2
(x)Jx

-


Desviacin tpica (o desviacin estndar de una funcin g(x)) de la V.A "x":
o =_I(g(x)) =o
2

Propiedades de la varianza:
o Sea C =ctc ;I(C) =0:
I(C) =E j(C E(C))
2
[ =E[(C C)
2
] =0

o Sea y =ox +b ; I(y) =o
2
I(x):
I(y) =I(ox +b) =E j((y) E[y])
2
[ =E j((ox +b) E[ox +b])
2
[
=E j((ox +b) (oE[x] +b))
2
[ =E[(o(x p) +b b)
2
]
=o
2
E[(x p)
2
] =o
2
I(x)

8) Centrado y tipificacin de una variable aleatoria: sea x V.A. con E[x] =p y I(x) =o
2

a. "y" ser variable centrada de "x": si siendo E[x] =0 =x p =x E[x]

b. "w" ser tipificada de "x": si _
E[w] =0
I[w] =1
_ w =
x-
c

E[w] =E j
x
o
[ =
1
o
E[x ] =
1
o
(E[x] E[]) =
1
o
() =0
I[w] =Ij
x
o
[ =_
1
o
]
2
I(x) +_
1
o
]
2
I() =
1
o
2
o
2
=1

9) Otros parmetros caractersticos de una distribucin de probabilidad:
a. Medidas de centralizacin: valores nicos que representan a todos los datos.
V.A Discreta V.A. Continua
Media (x )
E[x] =x

p(x

)
E[x] =_ x(x)Jx

-

Mediana (Hc)
F(Hc) =_
P(x Hc) =
1
2
P(x Hc) =
1
2
(Hc) =_
P(x Hc) =
1
2
P(x Hc) =
1
2

Moda(Ho) P(X =x

) P(X =x
]
)i ] (X =Ho) =HAX((x))

b. Medidas de posicin: distribucin de los datos en intervalos.
V.A Discreta V.A. Continua
Cuantiles de
orden p: X
p

F(X
p
-
) =P(X <X
p
) <p
F(X
p
) =P(X X
p
) p
F(X
p
) =p
Cuartiles
i =1,2,3
F(

-
) =P(X <

) <
i
4

F(

) =P(X

)
i
4

F(

) =
i
4



Mtodos Estadsticos
Tema 2 Variable Aleatoria 2 Ingeniera Industrial
5
Pablo Ramn Soria
Deciles
i =1,9
F(

-
) =P(X <

) <
i
10

F(

) =P(X

)
i
10

F() =
i
10



Percentiles
i =1,99
F(P

-
) =P(X <P

) <
i
100

F(P

) =P(X P

)
i
100

F(P

) =
i
100




HcJiono Hc P
50

5

2

Uso de los cuartiles: Diagrama de caja-bigote




c. Medidas de dispersin: condensacin (o dispersin) de los datos.
V.A. Discreta V.A. Continua
Rango o
recorrido
R =X
mux
X
mn
R =X
mux
X
mn

Varianza (o
2
) I(X) = o
2
=o
2
o
1
2
I(X) = o
2
=o
2
o
1
2

Desviacin (o)
o =I(X) o =I(X)
Coeficiente de
variacin de
Pearson (CV)

CI =
o
p


CI =
o
p


d. Medidas de forma: Comparacin de la representacin grfica con la distribucin
normal:
i. Coeficiente de asimetra (o Sesgo):
1. Si CA >0 la distribucin es asimtrica por la derecha. p Hc
2. Si CA =0 la distribucin es simtrica. p =Hc
3. Si CA <0 la distribucin es asimtrica por la izquierda. p Hc
CA =
p
3
o
3


ii. Coeficiente de apuntamiento (o Curtosis):
1. Si CAp >0 leptocurva
2. Si CAp =0 mesocurva
3. Si CAp <0 planicurva

Hin Hox
1

2

3

CAp =
p
4
o
4

Mtodos Estadsticos
Tema 2 Variable Aleatoria 2 Ingeniera Industrial
6
Pablo Ramn Soria
10) Funcin Caracterstica q
x
(t): sea una funcin g(x) =c
tx

x
(t) =E[c
tx
]
V.A. discreta

x
(t) =E[c
tx
] =c
tx
i
p(x


V.A. continua

x
(t) =E[c
tx
] =_ c
tx
(x)Jx

-


11) Funcin generadora (o generatriz) de momentos
x
(t):
x
(t) =E[c
tx
]
V.A. discreta

x
(t) =E[c
tx
] =c
tx
i
p(x


V.A. continua

x
(t) =E[c
tx
] =_ c
tx
(x)Jx

-



a. Propiedades:
i. Sea la V.A. x con
x
(t). Se puede obtener la funcin generatriz de momentos
de la variable y =ox +b:

(t) =E[c
t
] =E|c
t(ux+b)
] =E[c
bt
+c
utx
] =c
bt
E[c
utx
] =c
bt

x
(ot)

ii. Si existe
x
(t) entonces existe E[x
k
] k de modo general:
o
k
=E[x
k
] =

x
k)
|
t=0
=
o
k

x
(t)
ot
k
_
t=0
_
x

p(x

)
_ x
k
(x)Jx

-



Nos permite calcular lo mismo pero derivando en vez de integrando.

12) Propiedad reproductiva de algunas variables aleatorias: si dos V.A. x
1
y x
2
son funcin de
distribucin de dos parmetros 0
1
y 0
2

_

x
1
(t,0
1
)

x
2
(t,0
2
)
y =x
1
+x
2

Si x
1
y x
2
son independientes:

x
(t,0
1
+0
2
) =
x
1
(t,0
1
) +
x
2
(t,0
2
)


1
Pablo Ramn Soria
Tema 3 Variable Aleatoria Bidimensional y N-dimensional
1) Variable aleatoria Bidimensional:
a. Funcin de distribucin conjunta (de una V.A. Bidimensional): La funcin de
distribucin conjunta F(x,y) para cualquier punto de las V.A. X e , se define como>
F(o,b) =P(X o, b) =P((,o],(,b])
i. Propiedades:
F(,) =F(,y) =F(x,) =0
F(,) =1
F(x +
1
,y +
2
) F(x,y)
1
,
2
0
lim
h>0
h0
F(x +,y) =lim
h>0
h0
F(x,y +) =F(x,y)
Si o
2
o
1
y b
2
b
1
, entonces:
P(o
1
<x o
2
,b
1
<y b
2
) =
=F(o
2
,b
2
) F(o
2
,b
1
) F(o
1
,b
2
) +F(o
1
,b
1
)

b. Funcin de probabilidad/densidad conjunta (de una V.A. Bidimensional):
i. Funcin de probabilidad conjunta (V.A. Discreta):
p(x

,y

) =P
]
=P(x =x

,y =y

) =P((x =x

) (y =y

))

1. Propiedades de la funcin de probabilidad conjunta:
a. P{(x,y) A}= P(X =x

, =y
]
)
(x
i
,
]
)A

b. P
]
0 (x

,y
]
)
2

c. P(x

,y
]
)
]
=1


d. F(x,y) = P(x,y)

-
x
-

e. P(x

,y
]
) =F(x

,y
]
) F(x

-
,y
]
) F(x

,y
]
-
) +F(x

-
,y
]
-
)

ii. Funcin de densidad conjunta (V.A. Continua):
(x,y) =P(x =x

,y =y

)

1. Propiedades de la funcin de densidad conjunta:
a. P{(x,y) A}= (x,y)JxJy
A
x,y
b. (x,y) 0 x,y
c. (x,y)JxJy

-
=1
d. F(x,y) = (t,s)JtJs

-
x
-

e. (x,y) =

2
P(x,)
x


c. Distribuciones marginales: sea un dominio y una funcin definida en el:
(x,y) =]
g(x,y) si (x,y)
0 c.o.c.

V.A. discreta
P(x

) =P

=P(x

,y
]
)

]


P(y
]
) =P
]
=P(x

,y
]
)
x
i


V.A. Continua

1
(x) =_ (x,y)Jy

2
(y) =_ (x,y)Jx

-


Mtodos Estadsticos
Tema 3 Variable Aleatoria Bidimensional y N-dimensional 2 Ingeniera Industrial
2
Pablo Ramn Soria
d. Funcin de distribucin marginales:
V.A. discreta
F(x

) =F(x

,) =P(X x

,y )
= P(x

,y
]
)

]
x<x
i


F(y
]
) =F(,y
]
) =P(X ,y y
]
)
= P(x

,y
]
)
<
]
x
i


V.A. Continua
F
1
(x) =P(X x

,y )
=_ _ (x,y)Jy

-
x
-


F
2
(y) =P(X ,y y
]
)
=_ _ (x,y)Jx

-


e. Distribuciones condicionadas:
V.A. discreta
P(x

|y
]
) =
P(X =x

, =y
]
)
P( =y
]
)


P(y
]
|x

) =
P(X =x

, =y
]
)
P(x

)

V.A. Continua
(x|y) =
(x,y)

2
(y)


(y|x) =
(x,y)

1(x)


f. Variables aleatorias independientes: dos variables aleatorias X c son independientes
si:
p(x

|y
]
) =
P(x

,y
]
)
P(y
]
)
=P(x

) P(x

,y
]
) =P(x

) P(y
]
)

Siendo P(x

)y P(y
]
) funciones de probabilidad marginal.

2) Momentos de la V.A. Bidimensional:
a. Esperanza matemtica:
V.A. discreta
E[g(x,y)] =g(x

,y
]
)P(x

,y
]
)
]

V.A. Continua
E[g(x,y)] =g(x,y)(x,y)JxJy

2



b. Propiedades de la esperanza matemtica:
i. Sea C ctc E[C] =C
ii. Sea g(x,y) y C ctc E[C g(x,y)] =CE[g(x,y)]
iii. Sea (x,y) f.d.d. conjunta y g
1
(x,y),,g
n
(x,y)
E[g
1
(x,y) ++g
n
(x,y)]|(g
1
(x,y) ++g
n
(x,y))(x,y)]
]
=E[g
1
(x,y)] ++E[g
n
(x,y)]
iv. Sea X e Y variables aleatorias independientes:
E[g(x)(y)] =E[g(x)] E[(y)]

c. Moment de orden r y s con respecto al origen: o
s
=E[x

y
s
]
V.A. discreta
E[x

y
s
] =x

y
]
s
P(x

,y
]
)
]

V.A. Continua
E[x

y
s
] =x

y
s
(x,y)JxJy

2



Mtodos Estadsticos
Tema 3 Variable Aleatoria Bidimensional y N-dimensional 2 Ingeniera Industrial
3
Pablo Ramn Soria
d. Momentos de primer orden Respecto del origen:
i. p

=o
01
=E[x
0
y
1
] =E[y]
V.A. discreta
o
10
=x

P
]
]
=x

P
]
]

V.A. Continua
p
x
=x(x,y)JxJy

2
=_ x
1
(x)Jx




ii. p
x
=o
10
=E[x
1
y
0
] =E[x]
V.A. discreta
o
01
=y
]
P
]
]
=y
]
P



V.A. Continua
p

=y(x,y)JxJy

2
=_ y
2
(y)Jy




e. Momentos de segundo orden respecto al origen:
V.A. discreta
o
20
=E[x
2
] =x

2
P
]
]
=x

2
P
]
]

o
02
=E[y
2
] =y
]
2
P
]
]
=y
]
2
P


o
11
=E[xy] =x

y
]
P
]
]

V.A. Continua
o
20
=x
2
(x,y)JxJy

2
=_ x
2

1
(x)Jx


o
02
=y
2
(x,y)JxJy

2
=_ y
2

2
(y)Jy


o
11
=xy(x,y)JxJy

2



f. Momentos de orden r y s respecto a la media:
V.A. discreta
p
s
=[(x E[x])

(y E[y])
s
]P
]
]


V.A. Continua
p

=[(x E[x])

(y E[y])
s
]P
]
JxJy

2



g. Momentos de orden 1 respecto a la media:
V.A. discreta
p
10
=E[(x E[x])
1
] =(x E[x])P


p
01
= E[(y E[y])
1
] =(y E[y])P
]
]

V.A. Continua
p
10
=(x E[x])P
]
JxJy

2
=_ (x E[x])
1
(x)Jx


p
01
=(x E[x])P
]
JxJy

2
=_ (y E[y])
2
(y)Jy




h. Momentos de segundo orden respecto a la media:
o
x
2
=p
20
=E[(x E[x])
2
] =

=[(x E[x])
2
]P
]
]
=(x E[x])
2
P


=(x E[x])
2
P
]
JxJy

2
=_ (x E[x])
2

1
(x)Jx



Mtodos Estadsticos
Tema 3 Variable Aleatoria Bidimensional y N-dimensional 2 Ingeniera Industrial
4
Pablo Ramn Soria
o

2
=p
02
=E[(y E[y])
2
] =

=[(x E[x])
2
]P
]
]
=(x E[x])
2
P


=[(x E[x])
2
]P
]
JxJy

2
=_ (y E[y])
2

2
(y)Jy




i. Covarianza: medida de dispersin de conjunta de dos variables estadsticas.
Co:(x,y) =]
o
x
p
11
=E[(x E[x])(y E[y])] =

=[(x E[x])(y E[y])]P


]
]
=[(x E[x])(y E[y])]P
]
JxJy

2


3) Coeficiente de correlacin p:
p
x
=p =
o
x
o
x
2
o

2
=
o
x
o
x
o

=
E[(x E[x])(y E[y])]
E[(x E[x])
2
] E[(y E[y])
2
]
=
E[xy] E[x] E[y]
(E[x
2
] E[x]
2
)(E[y
2
] E[y]
2
)


a. Propiedades:
i. 1 p 1
ii. [Co:(x,y)]
2
o
x
2
o
x
2

iii. Si |p| =1 hay una relacin lineal y =ox +b:
o =p
o
x
o

_
p =1 o >0
p =1 o <0
; b =(p

pp
x
)
o
x
o


iv. x =y Co:(x,y) =o
x
2
=o

2
p
xx
=1 =p


v. Co:(x,y) =0 p
xx
=0

4) Variables aleatorias n-dimensionales (n>2):
Sea x =(x
1
,x
2
,,x
n
)
(x
1
,x
2
,,x
n
) 0 x =(x
1
,x
2
,,x
n
)
n

(x
1
,x
2
,,x
n
)Jx
1
Jx
n

-
=1
P[(x
1
,x
2
,,x
n
) B] =(x
1
,x
2
,,x
n
)Jx
1
Jx
n
B


a. Funcin de densidad marginal de la V.A. x
3
:

3
(x
3
) =_ _ (x
1
,x
2
x
3
)Jx
1
Jx
2

-


b. Funcin de densidad marginal de la V.A. Bidimensional (x
1
,x
2
):

1,2
(x
1
,x
2
) =_ (x
1
,x
2
,x
3
)

-
Jx
1


c. Independencia:
(x
1
,x
2
,x
3
) =
1
(x
1
)
2
(x
2
)
3
(x
3
)
P(x
1
,x
2
,x
3
) =F
1
(x
1
)F
2
(x
2
)F
3
(x
3
)


Mtodos Estadsticos
Tema 3 Variable Aleatoria Bidimensional y N-dimensional 2 Ingeniera Industrial
5
Pablo Ramn Soria
d. Esperanza matemtica:
E[g(x
1
,x
n
)] = _ g(x
1
,x
n
)(x
1
,,x
n
)Jx
1
Jx
n

n

p
x
1
=E[x
1
] = _ x
1
(x
1
,,x
n
)Jx
1
Jx
n

n
=_ x
1

x
1
(x
1
)Jx
1

-

o
x
1
2
=I(x
1
) =E[(x
1
E[x
1
])
2
] = _(x
1
E[x
1
])
2
(x
1
,,x
n
)Jx
1
Jx
n

n
=_ (x
1
E[x
1
])
2

x
1
(x
1
)Jx
1

-


i. Propiedades de la esperanza matemtica, varianza y covarianza:
1. Sean x
1
,x
2
,,x
n
I.A. ;E[x
1
+x
2
++x
n
] = w[x

]
n
1

2. Varianzas:
o
x
2
=o
20
o
10
2
E[(x E[x])
2
] =E[x
2
] E[x]
2

o

2
=o
02
o
01
2
E[(y E[y])
2
] =E[y
2
] E[y]
2


3. Covarianzas:
o
x
=E[(x E[x])(y E[y])] = =o
11
o
10
o
01


4. La matriz de covarianza:
X =_
o
11
o
1n

o
n1
o
nn
_

La diagonal son las varianzas o
nn
=o
n

La matriz es simtrica o
1n
=o
n1


5. I(x +y) ={csorrollo}=I(x) +I(y) +Co:(x,y)

e. Valor esperado y varianza de funciones lineales de V.A.: Sean
(x
1
,,x
n
) (y
1
,,y
n
) y E[x

] E|y
]
]. Se definen las funciones:
u
1
=o

n
=1
u
2
=b
]
y
]
m
]
1

E[u
1
] =o

E[x

]
n
=1

I(u
1
) =

2
I[x

]
n
=1
+o

b
]
Co:(x

,y
]
)
]
(i ])
o

2
I[x

]
n
=1
+2o

b
]
Co:(x

,y
]
)
]
(i >])

Co:(u
1
,u
2
) =o

b
]
Co:(x

,y
]
)
]



Mtodos Estadsticos
Tema 3 Variable Aleatoria Bidimensional y N-dimensional 2 Ingeniera Industrial
6
Pablo Ramn Soria
f. Consecuencias de la independencia de variables: Sean x c y I.A. independientes:
Co:(x,y) =0=E[xy] +E[x]E[y] E[xy] =E[x]E[y]
Cocicicntc Jc corrclocin p
x
=
o
x
o
x
o

=0
I(ox +by) =o
2
I(x) +b
2
I(y)
I_o

n
=1
_ =o

I(x

)
n
=1


g. Funcin generatriz de momentos de la suma de V.A. independientes: Sean x
1
,,x
n

independientes con
x
i
(t) =E[c
tx
i
] = c
tx
i
(x

)Jx

-
. Sea y = x

n
=1

(t) =E[c
t
] =c[c
tx
1
c
tx
n
] =__ c
tx
1
c
tx
n
(x
1
,,x
n
)Jx
1
Jx
n

n
=_c
tx
1

1
(x
1
)Jx
1
___________

x
i
(t)
_c
tx
n

n
(x
n
)Jx
n
___________

x
n
(t)

(t) =_
x
i
(t)
n
=1



5) Esperanza condicional: sea (x,y) una V.A. Bidimensional:
V.A. discreta
E[x|y] =x

P(x

|y
]
)



V.A. Continua
E[x|y] =_x(x|y)Jx

a. Proporciones relativas a la esperanza condicional:
E

|E[x|y]] =E

__x(x|y)Jx_ =__x
(x|y)Jx

2
(y)

2
(y)Jy =_x(x|y)Jx
E

|E[x|y]] =E[x]

1
Pablo Ramn Soria
Tema 4 Distribuciones Discretas
1) Distribucin degeneradas: x~cg(o)
P(x) =P(X =x) =]
1 x =o
0 c.o.c.

Propiedades:
p =o
o
2
=0

x
(t) =c
tu


2) Distribucin uniforme discreta: x~uJ(N)
P(x

) =P(X =x) =
1
N
i =1,2N F(x) =_
0 x <1
i
n
x i
1 x >N

Propiedades:
p =E[x] =
1
N
x

N
=1

o
2
=E[(x E[x])
2
] =E[x
2
] +E[x]
2
=i
2
1
N
N
=1
+_
1
N
]
2
i
N
=1


3) Distribucin Bernouilli: x~Bcr(p) _
p probobiliJoJ Jc quc x =1
q probobiliJoJ Jc quc x =0

q =1 p

=== P(x) = _
p x =1
1 p x =0


Propiedades:
p =E[x] =x

=0(1p) +1 p =p
o
2
=E[x
2
] +E[x]
2
=p p
2
=p(1p) =p q

4) Binomial: x~Bin(u,p). Sea _
n nmcro Jc cnsoyos Bcrnouilli InJcpcnJicntcs
p probobiliJoJ Jc xito Jc coJo cnsoyo Bcrnouilli

i =1,..,n

x

~Bcr(p)
x =x

n
=1

x contobilizo cl nmcro Jc cxitos

Ejemplo: si n =3:
P(X =2)
=P(x
1
=1,x
2
=1,x
3
=0) +P(x
1
=1,x
2
=0,x
3
=1)
+P(x
1
=0,x
2
=1,x
3
=1) =ppq +ppq +ppq =3p
2
q
Ejemplo: si n =5 P(X =2) =5p
2
q
3


Propiedades:
p =E[x] =E[ x

n
=1
] =E[x
1
] +E[x
2
] ++E[x
n
] =n p
Mtodos Estadsticos
Tema 4 Distribuciones Discretas 2 Ingeniera Industrial
2
Pablo Ramn Soria
o
2
=I(x) =I_x

n
=1
_ =I(x
1
+x
2
++x
n
)
=I(x

)
n
=1
+2Co: (x

,y
]
)
] _____________
nuIo po sc x
i
c
]
ndcpcndcntcs
=n I(x

) =npq
P(X =o) =[
n
x
p
x
(1 p)
n-x
u
x=1

P(X =k) =P( =n k) _
X~Bin(n,p)
~Bin(n,1 p)


x
(t) =(pc
t
q)
n


5) Distribucin Multinomial:
X~H(n,P
1
,P
2
,,P
k
) _
n n de ensayos independientes
P
1
Probrobabilidad de que el ensayo x
I
tome el resultado 1

P
k
Probrobabilidad de que el ensayo x
I
tome el resultado k

Propiedades
P
1
+P
2
++P
k
=1
x
1
+x
2
++x
k
=n
P(X
1
=x
1
,X
2
=x
2
,,X
k
=x
k
) =
n!
x
1
!x
2
!x
k
!
P
1
x
1
P
2
x
2
P
k
x
k


6) Binomial negativa:
a. De tipo I: En este caso lo desconocido es el nmero de ensayos Bernouilli independientes.
X es el nmero de fracasos (Tipo I), e es el nmero de ensayos totales (Tipo II)
X~Bincg
I
(r,p) _
P probobiliJoJ Jc cxito
r n Jc xitos prccstoblcciJos poro tcrminor cl cxpcrimcnto

P(X =x) =[
x +r 1
r 1
p

(q p)
x
=[
x +r 1
x
p

(q p)
x


x
(t) =E[c
tx
] =c
tx
p(x)

x=0
=
p

(1qc
t
)


p =E[x] =
x
i
(t)|
t=0
=
r(1p)
p

o
2
=E[x
2
] E[x]
2
=
x
ii
(t)|
t=0
[
x
i
(t)|
t=0
]
2
=
r(1 p)
p
2


b. De tipo II: Es una binomial negativa de tipo I realizando el cambio X = r
~Bincg
II
(r,p) _
P probobiliJoJ Jc cxito
r n Jc xitos prccstoblcciJos poro tcrminor cl cxpcrimcnto

P( =y) =[
1
r 1
p

(1p)
-

p

=E[] =E[X +r] =


r(1p)
p
+r =
r
p

o
2
=I() =I(X +r) =I(x) =
r(1p)
p
2

(t) =E[c
t
] =E[c
t
c
tx
] =c
t
E[c
tx
] =c
t
p

(1qc
t
)




Mtodos Estadsticos
Tema 4 Distribuciones Discretas 2 Ingeniera Industrial
3
Pablo Ramn Soria
7) Distribucin Pascal o Geomtrica: Es una particularizacin de la Binomial negativa, para
n =1
X~Po
I
(P)
X~0co
I
(P)
_ X~Bincg
I
(1,p)
~Po
II
(P)
~0co
II
(P)
_ ~Bincg
II
(1,p)

8) Poisson: Durante un determinado periodo de tiempo o espacio determina el n de sucesos que le
ocurrirn a un mismo sistema. X~Poi(z)
Propiedades:
P(X =x) =c
-x
z
x
x!

p =E[X] =z

x
(t) =c
x(c
t
-1)

o
2
=I(X) =z

9) Aproximacin de binomial por una Poisson:
X~Bin(n,p)
p =E[x] =np

~Poi(z)
p =E[] =z

Para hacer la aproximacin se hace:
lim
n
P(Bin(n,p) =X ) _
np =z
p =
z
n

Se considera una buena aproximacin cuando _
n 100
p 0.1


10) Hipergeomtrica:
n =Iomoo Jc lo mucstro
N =Iomoo Jc lo poblocin
=ContiJoJ Jc clcmcntos
coroctcristicos cstuJioJos
X~Eip(n,N,p) P(x) =
[

n
[
N
n x

[
N
n



Los valores de X estn acotados max(0,n N +) X min(n,)

11) Aproximacin de una hipergeomtrica por una Poisson: Se puede aproximar cuando se
cumple que n 0.05N, en tal caso:
X~Eip(n,N,)
~Bin(n,p) P =

N


12) Propiedades de algunas distribuciones discretas: sea =X
1
++X
n
independientes y tal
que

=
1
++
n
:
a. Distribucin degenerada: La suma de distribuciones degeneradas es una distribucin
degenerada tal que X

~cg(o

) ~cg(o

).
b. Distribucin Binomial: La suma de distribuciones binomiales es una binomial tal que
X

~Bin(n

,p) ~Bin(n

,p).
c. Distribucin Binomial negativa: La suma de distribuciones binomiales negativas es una
binomial negativa tal que X

~Bin(r

,p) ~Bin(r

,p).
d. Distribucin de Poisson: La suma de distribuciones Poisson es una Poisson tal que
X

~Poi(z

) ~Poi(z

).


1
Pablo Ramn Soria
Tema 5 Distribuciones Continua
1) Distribucin uniforme continua: X~u(o,b)
(x) =_
1
b o
si o x b
0 c.o.c.
F(x) =_
0 si x <o
x o
b o
si o x b
1 si x >b

x
(t) =E[c
tx
] =_ c
tx
(x)Jx

-
= =
c
bt
c
ut
(b o)
t

E[x] =_ x(x)Jx

-
=
o
x
(t)
ot
_
t=0
=
b +o
2

I(x) =E[x
2
] E[x]
2
=
(b o)
2
2


2) Distribucin normal: X~N(p,o)
(x) =
1
o2n
c
-
1
2
[
x-
c

2

x
(t) =E[c
tx
] =_ c
tx
(x)Jx

-
=c
_t+
c
2
t
2
2
]


Propiedad reproductica: sea X

~N(p

,o

)
=c +o
1
x
1
++z
n
x
n

E[] =c +o

I(y) =_o

2
o

2

~N_c +o

,_o

2
o

2
_

3) Distribucin normal tipificada (o estndar): X~N(0,1). Propiedades
Al ser p =0 p
k
=E[(x p)
k
] =E[x
k
] =o
k

Es simtrica respecto del origen. F(x) =P(X x) =P(X x)
Momentos de orden par o
2k
=
(2k)!
2
k
k!



4) Distribucin Gamma: X~0o(p,o) =y(p,o)
(x) =
o
p
(p)
x
p-1
c
-ux

x
(t) =E[c
tx
] =_1
t
o
]
-p

E[x] =
o
x
(t)
ot
_
t=0
=
P
o
E[x
2
] =
o
2

x
(t)
ot
2
_
t=0
=
P(P +1)
o
2
I(x) =
P
o
2


Funcin Gamma:
(p) =_ x
p-1
c
-x
Jx

0

Propiedades:
o (p) =(p 1)(p 1)
o (n) =(n 1)!

Propiedad reproductiva: sean x

~0o(p

,o)
=x

~0o [p

,o


Mtodos Estadsticos
Tema 5 Distribuciones Continuas 2 Ingeniera Industrial
2
Pablo Ramn Soria
5) Distribucin J i-cuadrado de Pearson: _
n
2
=0o [
n
2
,
1
2
.
No es simtrica.
Propiedad reproductiva: sean x

~_
n
i
2

Sea X =_
1
2
++_
n
2
]
p =n
o
2
=2n


Sea ~_
n
2
con un n , tenemos pues que
2y~N(2n 1,1)

6) Distribucin exponencial:
(x) =zc
-xx
x 0
F(x) =_ x(x)Jx
x
0
=1c
-xx

R(x) =1F(x) =1|1 c
-xx
] =c
-xx

x
(t) =
z
z t
_
E[x] =
1
z
o
2
=
1
z
2


En una exponencial se le llama vida media (0) a z
-1

Carencia de memoria:
P(x t +t
0
|x >t) =P(x >t
0
)

7) Distribucin t
n
(t de Student): sean ,X
1
,X
n
variables aleatorias independientes distribuidas
segn N(0,o). Tenemos que:
I =

_
X
1
2
++
X
n
2
n
~t
n
(t) =
[
n +1
2

n n[
n
2

_1+
t
2
n
_
-[
n+1
2


No posee funcin generadora de momentos:
p =0
o
2
=
n
n 2

Si n tiende a infinito (n >30) t
n
~N(0,1)

8) Distribucin F
n,m
(F de Snedecor): sean X
1
,,X
n
,
1
,,
m
variables aleatorias
independientes distribuidas segn N(0,o).
=
X
1
2
++X
n
2
n

1
2
++
m
2
m
~F
n,m

No posee funcin generadora de momentos:
p =
m
m2

o
2
=
2n
2
(n +m2)
n(m 2)(m 4)

F
n,m,u
=
1
F
m,n,1-u



1
Pablo Ramn Soria
Tema 7 Estimacin.
1) Introduccin: Sea una variable X distribuida de una forma cualquiera, con una (x) y una
F(x):
(x,0

)
F(x,0

)
JonJc 0

=(n,p)
P(X =x
1
;X =x
2
;X =x
3
) con (x
1
,x
2
,x
3
)~Bin(n,p)
Sea x una muestra aleatoria simple _
x
1
x
2
x
3
_
P(X =x
1
;X =x
2
;X =x
3
) =
Indcp
P(X =x
1
) P(X =x
2
) P(X =x
3
)

2) Concepto de estimador: Sea cualquier distribucin y un parmetro desconocido 0 (que puede
ser p,o,z ). Para conocerlo necesitamos una muestra aleatoria simple x =[x
1
,x
2
,,x
n
] y un
estadstico concreto (x ,S
2
,s
2
). El estimador es el estadstico concreto que hemos elegido para
poder obtener el parmetro 0 desconocido.
a. Propiedades del estimador:
i. Estimador centrado o insesgado:
E|0
`
] =0
Ejemplo:
0? p X~N(p,o) 0
`
=X

0 =p
0
`
=p =X

cstimoJorr usoJo poro


conoccr p (sc cxprcso cn n)


Si E[X

] =p diremos que el estimador de es un estimador centrado de



ii. Sesgado de un estimador:
o(0
`
) =E|0
`
] 0
o(p ) =E[x ] p =p p =0
o(o
2
) =E[S
2
] o
2
=
(n 1)
n
o
2
o
2
=
1
n
o
2


lim
n
E[S
2
] = lim
n
n 1
n
o
2
o
2
=
L
|
H
o
2

En este caso, el sesgo es 0 porque cuando n E[S
2
] =o
2
, por lo tanto es
insesgado. Esto es el estimador asintticamente insesgado.

b. Estimador de mnima varianza. Estimador Eficiente:
I(0
`
) 0
`
=x I(x)
Queremos una varianza mnima de un estimador insesgado.
crror cstonJor =o
0
=_Ej(0
`
E|0
`
])
2
[
Existir un estimador, estimador eficiente, que ser el que menor varianza tenga. Se
representa por 0
`
0
, tal que I(0
`
0
) I(0
`
).
Acotacin de Frechet-Cramer-Rao:
I(0)
1
n E __
o ln((x,0)
o0
]
2
_


Mtodos Estadsticos
Tema 7 Estimacin 2 Ingeniera Industrial
2
Pablo Ramn Soria
c. Error cuadrtico medio: error mnimo, se usa para distinguir la calidad de los
estimadores:
E.C.H =Ej(0
`
0)
2
[ = =I(0
`
) o(0
`
)
2


3) Mtodos de obtencin de estimadores:
a. Mtodo de los momentos: Sea una poblacin X con una funcin de
densidad/distribucin F(x,0
1
,0
2
,,0
p
) donde 0
1
,0
2
,,0
p
son desconocidos, para
obtener 0
1
,0
2
,,0
n
usamos las siguientes ecuaciones:
E[x
k
] =
1
n
x

k
k =1,,p

b. Mtodo de mxima verosimilitud: Sea una poblacin X con una funcin de
densidad/distribucin F(x,0
1
,0
2
,,0
p
) donde 0
1
,0
2
,,0
p
son desconocidos, sea
x =(x
1
,x
2
,,x
n
) una m.a.s., la funcin de verosimilitud (o de funciones de
probabilidad) se define como:
I(x,0
1
,0
2
,,0
p
) =_(x,0
1
,0
2
,,0
p
)
n
=1

Las ecuaciones de las que despejamos las 0
1
,0
2
,,0
p
son:
oIn|I(x,0
1
,0
2
,,0
p
)]
o0
k
=0 k =1,,p
i. Intervalo de confianza: _
P(0
I

0 0
S

) =1o
I
1-u
(0) =|0
I

,0
S

]

1. Intervalo bilateral:
P(0 <0
I

) =
o
2
=P(0 >0
S

)
2. Intervalo unilateral por la derecha:
P(0 <0
I

) =o
3. Intervalo unilateral por la izquierda:
P(0 >0
S

) =o
4)

También podría gustarte