P. 1
Estadística, definiciones

Estadística, definiciones

4.67

|Views: 49.831|Likes:
Publicado porJorge Romero
Este documento contiene definiciones y formulas de Estadística
Este documento contiene definiciones y formulas de Estadística

More info:

Categories:Types, School Work
Published by: Jorge Romero on Oct 23, 2008
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

12/05/2015

pdf

text

original

Definición 2.1 El conjunto de todos los resultados posibles de un experimento (estadístico, económico, etc.

) se llama espacio muestral 
y  se   suele   representar   por   el   símbolo  S.  Los   elementos   del   espacio   muestral   son   también   llamados   resultados 
elementales,   o  puntos   muestrales.   Algunos   textos  utilizan  los  símbolos     o    para  denotar   un  espacio  muestral. Φ ε  
Definición 2.2 Un evento es un subconjunto de un espacio muestral.
Definición  El evento A está contenido en el evento B, o B contiene a A, si cada punto muestral de A es también un punto muestral 
de B. Siempre que esto es cierto se escribirá
A⊂B , o B⊃A.
Definición Dos eventos A y B son iguales, A=B, si
A⊂By B⊂A.
Es decir, dos eventos son iguales si contienen exactamente los 
mismos puntos muestrales.
Definición El conjunto que no contiene elementos es llamado el conjunto vacio y denotado por ∅. El evento correspondiente 
para ∅, es llamado imposible.
Definición 2.3 El complemento de un evento A con respecto a S es el subconjunto de todos los elementos de S que no está en A. Es 
decir, el conjunto que contiene todos los puntos muestrales que no están el evento A será llamado el complemento de A 
y denotado A
C
,  se puede leer como no A, una notación alternativa para el complemento es A
'
o ¯A,
Definición 2.4 La intersección de dos eventos A y B, denotada mediante los símbolos AB o A∩B , es el evento que contiene a todos 
los elementos que son comunes a A  y a B. La definición de intersección puede ser extendida para el caso de eventos 
infinitos. De esta forma:
A
1
∩A
2
∩⋯∩A
n
también denotado como ∩
i=1
n
A
i
Definición 2.5 Dos eventos A y B son mutuamente excluyentes o disjuntos si   A∩B = Ø; es decir, si A y B no tienen elementos en 
común.
Definición 2.6 La unión de dos eventos A  y B, que se denota mediante
A∪B ,
es el evento que contiene todos los elementos que 
pertenecen a A o a B o a ambos. La definición de unión puede ser extendida para el caso de eventos infinitos. De esta 
forma:
A
1
∪A
2
∪⋯∪A
n
también denotado como ∪
i=1
n
A
i
Definición La diferencia A\B contiene todos los puntos muestrales que pertenecen a A pero no a B. Es claro que, S\a es lo mismo 
que  A
C
, algunas formulas pueden ser simplificadas introduciendo la operación diferencia de dos eventos:
A\B =  A∩B
C
.
1 DE 17 
Teorema Las operaciones definidas sobre eventos obedecen las siguientes leyes,
Idempotencia A∪A=A, A∩A=A.
Doble complemento ¦ A
c
)
c
=A ,
Absorción A∪B=B , si A∩B=A si A⊂B.
en particular A∪∅=A, A∪S=S , A∩∅=∅, A∩S=A.
estosignifica que ∅⊂A⊂S.
Conmutativa A∪B=B∪A, A∩B=B∩A.
Asociativa A∪¦ B∪C)=¦ A∪B)∪C , A∩¦ B∩C)=¦ A∩B)∩C.
Distributiva A∩¦ B∪C)=¦ A∩B)∪¦ A∩C) , A∪¦ B∩C)=¦ A∪B)∩¦ A∪C) .
Leyes de Morgan ¦ A
1
∪⋯∪A
n
)
c
=A
1
c
∩⋯∩A
n
c
; ¦ A
1
∩⋯∩A
n
)
c
=A
1
c
∪⋯A
n
c
.
Definición El producto cartesiano. Si A y B son conjuntos, entonces el producto cartesiano A x B esta definido como el conjunto de 
todos los pares ordenados (a,b) donde a∈A y b∈B.
Teorema 2.1
(regla   de   la   multiplicación  o   principio   fundamental   del   conteo).   Si A
1
y A
2
son   conjuntos   finitos,   que 
consisten   respectivamente   de k
1
y k
2
elementos,   entonces   el   producto   cartesiano A
1
x A
2
está   formado   de
k
1
⋅k
2
elementos. Esto es posible si una operación se puede llevar a cabo en k
1
formas, y si para cada una de éstas 
se puede realizar una segunda operación en k
2
formas.
Teorema 2.2 Regla de la multiplicación generalizada. Se puede definir el producto cartesiano para más de dos conjuntos. De esa 
manera, si A
1
, ... , A
n
son conjuntos, entonces el producto Cartesiano A
1
x A
2
x⋯x A
n
es el conjunto de todas las 
n­tuplas ¦a
1
, a
2
, ... , a
n
) con a
i
∈A
i
, i=1,2 ,... , n. Entonces   si   A
1
, ... , A
n
son   conjuntos   finitos,   con k
i
elementos pertenecientes a A
i
¦i=1,2,3 , ... , n) , entonces  A
1
x A
2
x⋯x A
n
contiene k
i
⋯k
n
elementos.
Corolario El número de pares ordenados (x,y) con
x≠y
que pueden ser formados de n elementos distintos en un conjunto de 
tamaño n es n(n­1).
Definición 2.7 Una permutación es un arreglo u ordenación de elementos de un conjunto.
Teorema 2.3 El número de permutaciones de n objetos distintos es n! formas,
n!=n ¦n−1) ¦ n−2)⋯3⋅2⋅1 .
Teorema 2.4 El número de permutaciones de n objetos distintos tomados de r a la vez es
P
r n
=
n!
¦ n−r)!
.
Teorema 2.5 El número de permutaciones de n objetos distintos arreglados en un círculo es ¦n−1)!.
2 DE 17 
Teorema 2.6 El número de permutaciones distintas de  n  cosas de las que n
1
son de una clase, n
2
de una segunda clase, ..., 
n
k
 de una k­ésima clase es 
n!
n
1
! n
2
! n
3
!⋯n
k
!
.
Teorema 2.7 El número de formas de partir un conjunto de  n  objetos en r  celdas con n
1
elementos en a primera celda, n
2
elementos en la segunda, y así sucesivamente, es 
¦
n
n
1
,n
2
, ... , n
r
)
=
n!
n
1
! n
2
!⋯n
r
!
.
donde n
1
+n
2
+⋯+n
r
=n.
Teorema 2.8 El número de combinaciones (formas de seleccionar objetos sin importar el orden) de n objetos distintos tomados de r 
a la vez es
¦
n
r
)
=
n!
¦ n−r)! r!
.
Definición 2.8 La probabilidad de un evento A es la suma de los pesos
1
 de todos los puntos muestrales en A. Se observa que,
0<P¦ A)<1, P¦∅)=0, y P¦ S)=1.
Teorema 2.9 Si   un  experimento  puede   tener   como  resultado  cualquiera  de  N  diferentes  resultados   igualmente   probables,   y  si 
exactamente n de estos resultados corresponden al evento A, entonces la probabilidad del evento A es
P¦ A)=
n
N
Teorema 2.10 Si A y B son cualesquiera dos eventos , entonces
P¦ A∪B)=P¦ A)+P¦ B)−P¦ A∩B)
Corolario 1 Si A y B son mutuamente excluyentes, entonces 
                                                                           
P¦ A∪B)=P¦ A)+P¦ B)
Corolario 2 Si  A
1
, A
2
, ... , A
n
 son mutuamente excluyentes, entonces
P¦ A
1
∪A
2
∪⋯∪A
n
)=P¦ A
1
)+P¦ A
2
)+⋯+P¦ A
n
)
Corolario 3 Si  A
1
, A
2
, ... , A
n
es una partición de un espacio muestral S, entonces
1 El peso (o probabilidad) es un número real en el intervalo [0,1], que evalúa la ocurrencia probabilística de un evento.
3 DE 17 
P¦ A
1
∪A
2
∪⋯∪A
n
)=P¦ A
1
)+P¦ A
2
)+⋯+P¦ A
n
)
=P¦ S)
=1
Teorema 2.11 Para tres eventos A, B y C,
P¦ A∪B∪C)=P¦ A)+P¦ B)+P¦C)−P¦ A∩B)−P¦ A∩C)−P¦ B∩C)+P¦ A∩B∩C) .
Teorema 2.12 Si A y A' son eventos complementarios, entonces
P¦ A)+P¦ A' )=1.
Definición 2.9 La probabilidad condicional de B, dado A, que se denota con
P¦ B

A) ,
se define como
P¦ B

A)=
P¦ A∩B)
P¦ A)
si P¦ A)>0   
Definición 2.10 Dos eventos A y B son independientes si y sólo si
P¦ B

A)=P¦ B) y P¦ A

B)=P¦ A)
De otra forma, A y B son dependientes.
Teorema 2.13 Si en un experimento pueden ocurrir los eventos A y B, entonces 
P¦ A∩B)=P¦ A) P¦ B∣ A)
Teorema 2.14 Dos eventos A y B son independientes si y sólo si
P¦ A∩B)=P¦ A) P¦ B)
Teorema 2.15
Si, en un experimento, pueden ocurrir los eventos A
1
, A
2
, ... , A
k
, entonces
P¦ A
1
∩A
2
∩A
3
∩⋯∩A
k
)=P¦ A
1
) P¦ A
2
∣ A
1
) P¦ A
3
∣ A
1
∩A
2
)⋯P¦ A
k
∣ A
1
∩A
2
∩A
3
∩⋯∩A
k−1
)
Si los eventos A
1
, A
2
, ... , A
k
son independientes, entonces
P¦ A
1
∩A
2
∩A
3
∩⋯∩A
k
)=P¦ A
1
) P¦ A
2
) P¦ A
3
)⋯P¦ A
k
)
Teorema 2.16
Si   los   eventos B
1
, B
2
, ... , B
k
constituyen   una   partición   del   espacio   muestral  S  tal   que P¦ B
i
)≠0 para 
i=1,2 , ... , k ,
entonces para cualquier evento A de S,
P¦ A)=

i=1
k
P¦ B
i
∩A)=

i=1
k
P¦ B
i
) P¦ A∣B
i
)
Teorema 2.17 (Regla de Bayes) Si los eventos B
1
, B
2
, ... , B
k
constituyen una partición del espacio muestral S donde P¦ B
i
)≠0
para i = 1,2,3,...,k, entonces para cualquier evento A en S tal que
P¦ A)≠0 ,
P¦ B
r
∣A)=
P¦ B
r
∩A)

i=1
k
P¦ B
i
∩A)
=
P¦ B
r
) P¦ A∣B
r
)

i=1
k
P¦ B
i
) P¦ A∣B
i
)
 para r = 1,2, ...,k.
Definición 3.1 Una variable aleatoria es una función que asocia un número real con cada elemento del espacio muestral.
4 DE 17 
Definición 3.2 Si un espacio muestral contiene un número finito de posibilidades o una serie interminable con tantos elementos como 
números enteros existen, se llama espacio muestral discreto.
Definición 3.3 Si un espacio muestral contiene un número infinito de posibilidades igual al número de puntos en un segmento de 
línea, se llama espacio muestral continuo.
Definición  Una  variable  aleatoria  se  llama  variable  aleatoria  discreta  si  se  puede  contar  su  conjunto  de  resultados  posibles. 
Cuando   una   variable   aleatoria   puede   tomar   valores   en  una   escala   continua,   se   le   denomina  variable   aleatoria 
continua.
Definición 3.4 El   conjunto  de  pares  ordenados
¦ x , f ¦ x))
es  una  función  de  probabilidad,   función  masa  de  probabilidad  o 
distribución de probabilidad de la variable aleatoria discreta X si , para cada resultado posible x,
1)  
f ¦ x)≥0.
2)  

x
f ¦ x )=1.
3)  
P¦ X=x)=f ¦ x) .
Definición 3.5 La distribución acumulada
F¦ x)
de una variable aleatoria discreta X con distribución de probabilidad f ¦ x) es
F¦ x)=P¦ X≤x)=∑
t ≤x
f ¦t ) para −∞x∞
Definición 3.6 La función
f ¦ x)
es una función de densidad de probabilidad para la variable aleatoria continua X, definida en el 
conjunto de números reales R, si
1) f ¦ x)≥0, para toda x ∈ℝ
2)

−∞

f ¦ x) dx=1.
3) P¦ aXb)=

a
b
f ¦ x ) dx.
Definición 3.7 La distribución acumulada
F¦ x)
de una variable aleatoria continua X con función de densidad
f ¦ x)
es
F¦ x)=P¦ X≤x)=

−∞
x
f ¦t ) dt para −∞x∞.
Definición 3.8 La función
f ¦ x , y)
es una  distribución de  probabilidad conjunta  o función  de masa  de probabilidad  de  las 
variables aleatorias discretas X y Y si
1)
f ¦ x , y)≥0 para todo ¦ x , y).
2)

x

y
f ¦ x , y)=1.
3)
P¦ X=x , Y=y)=f ¦ x , y) .
5 DE 17 
Para cualquier región A en el plano xy, P| ¦ X , Y )∈A¦ =

A

f ¦ x , y) .
Definición 3.9 La función
f ¦ x , y)
 es una función de densidad conjunta de las variables aleatorias continuas X y Y si
1)
f ¦ x , y)≥0 para toda ¦ x , y) .
2)

−∞


−∞

f ¦ x , y) dxdy=1.
3)
P| ¦ X , Y )∈A¦ =

A

f ¦ x , y ) dxdy
 
para cualquier región A en el plano xy.
Definición 3.10 Las distribuciones marginales de X sola y Y sola son
g ¦ x)=∑
y
f ¦ x , y) y h¦ y)=∑
x
f ¦ x , y)
para el  caso discreto, y
g ¦ x)=

−∞

f ¦ x , y) dy y h ¦ y)=

−∞

f ¦ x , y) dx
para el caso continuo.
Definición 3.11 Sean X y Y dos variables aleatorias, discretas o continuas. La distribución condicional de la variable aleatoria Y, dado 
que X=x, es 
f ¦ y

x)=
f ¦ x , y)
g ¦ x)
, g¦ x)>0.
De manera similar, la distribución condicional de la variable aleatoria X, dado que Y = y, es
f ¦ x

y)=
f ¦ x , y)
h ¦ x)
, h¦ y)>0.
Definición 3.12 Sean  X  y  Y  dos   variables   aleatorias,   discretas   o   continuas,   con   distribución   de   probabilidad   conjunta  f(x,y)  y 
distribuciones marginales g(x) y h(y), respectivamente. Se dice que las variables aleatorias X y Y son estadísticamente 
independientes si y sólo si
f ¦ x , y)=g¦ x) h¦ y)
para toda (x,y) dentro de sus rangos.
Definición 4.1 Sea X una variable aleatoria con distribución de probabilidad f(x). La media o valor esperado de X es
u=E¦ X )=

x
x f ¦ x)
si X es discreta, y
u=E¦ X )=

−∞

x f ¦ x) dx
6 DE 17 
si X es continua.
Teorema 4.1 Sea X  una variable aleatoria con distribución de probabilidad f(x). La media o valor esperado de la variable aleatoria 
g(x) es 
u
g¦ X )
=E| g¦ X) ¦=

g¦ x) f ¦ x )
si X es discreta, y
u
g¦ X )
=E| g¦ X) ¦=

−∞

g¦ x) f ¦ x) dx
si X es continua.
Definición 4.2 Sean  X  y  Y  variables  aleatorias  con  distribución  de  probabilidad  conjunta  f(x,y).   La  media  o  valor  esperado  de  la 
variable aleatoria g(X,Y) es
u
g¦ X ,Y)
=E | g¦ X , Y )¦ =

x

y
g ¦ x , y) f ¦ x , y)
si X y Y son discretas, y
u
g¦ X ,Y)
=E | g¦ X , Y )¦ =

−∞


−∞

g¦ x , y) f ¦ x , y) dxdy
si X y Y son continuas.
Definición 4.3 Sea X una variable aleatoria con distribución de probabilidad f(x) y media μ . La varianza  de X es
c
2
=E| ¦ X−u)
2
¦ =

x
¦ x−u)
2
f ¦ x )
si X es discreta, y
c
2
=E | ¦ X−u)
2
¦=

−∞

¦ x−u)
2
f ¦ x) dx
Si X es continua. La raíz cuadrada positiva de la varianza,  , se llama  σ desviación estándar de X.
Teorema 4.2 La varianza de una variable aleatoria X es
c
2
=E| X
2
¦ −u
2.
Teorema 4.3 Sea X una variable aleatoria con distribución de probabilidad f(x). La varianza de la variable aleatoria g(X), es
c
g¦ X)
2
=E
|
¦ g¦ X )−u
g¦ X )
)
2
¦
=

x
|
g ¦ x)−u
g ¦ x) ¦
2
f ¦ x)
si X es discreta, y
c
g¦ x)
2
=E
¦|
g¦ X )−u
g¦ X) ¦
2
¦
=

−∞

|
g ¦ x)−u
g ¦ x)¦
2
f ¦ x) dx
7 DE 1 7 
si X es continua.
Definición 4.4 Sean X y Y variables aleatorias con distribución de probabilidad conjunta f(x,y). La covarianza de X y Y es
c
XY
=E
|
¦ X−u
X
) ¦Y−u
Y
)
¦
=∑
x

y
¦ x−u
X
) ¦ y−u
Y
) f ¦ x, y)
si X y Y son discretas, y 
c
XY
=E
|
¦ X−u
X
) ¦Y−u
Y
)
¦
=

−∞


−∞

¦ x−u
X
)¦ y−u
Y
) f ¦ x , y) dxdy
Si X y Y son continuas.
8 DE 17 
Teorema 4.4
La covarianza de dos variables aleatorias X y Y con media u
X
y u
Y
, respectivamente, está dada por
c
XY
=E| XY¦ −u
X
u
Y
Definición 4.5
Sean  X  y  Y  variables   aleatorias   con  varianza c
XY
y  desviaciones   estándar c
X
y c
Y
, respectivamente.   El 
coeficiente de correlación X y Y es
¢
XY
=
c
XY
c
X
c
Y
Teorema 4.5 Si a y b son constantes, entonces
E¦aX+b)=aE¦ X)+b.
Corolario 1 Al hacer a = 0 , vemos que  E(b)= b.
Corolario 2 Al hacer b = 0, vemos que E(aX)= aE(X).
Teorema 4.6 El valor esperado de la suma o diferencia de dos o más funciones de una variable aleatoria X es la suma o diferencia de 
los valores esperados de las funciones. Es decir,
E| g¦ X)!h¦ X)¦ =E | g ¦ X)¦ !E | h ¦ X)¦
Teorema 4.7 El   valor  esperado  de  la  suma  o  diferencia  de  dos  o  más  funciones  de  las  variables  aleatorias  X  y  Y  es  la  suma  o 
diferencia de los valores esperados de las funciones. Es decir,
E| g¦ X , Y)!h ¦ X , Y ) ¦=E| g¦ X , Y) ¦!E| h¦ X , Y )¦
Corolario 3 Al hacer g¦ X , Y )=g ¦ X ) y
h ¦ X , Y )=h¦ Y) ,
vemos que
E| g ¦ X )!h ¦Y )¦=E| g ¦ X )¦ !E| h¦Y )¦
Corolario 4 Al hacer g¦ X , Y )=X y
h ¦ X , Y )=Y ,
vemos que
E¦ X !Y )=E¦ X)!E ¦Y )
Teorema 4.8 Sean X y Y dos variables aleatorias independientes. Entonces 
E¦ XY)=E¦ X) E¦Y )
Teorema 4.9
Si a y b son constantes, entonces c
aX+b
2
=a
2
c
X
2
=a
2
c
2
.
Corolario 1
Al hacer a = 1 vemos que c
X+b
2
=c
X
2
=c
2
.
Corolario 2
Al hacer b = 0, se observa que c
aX
2
=a
2
c
X
2
=a
2
c
2
.
Teorema 4.10 Si X y Y son variables aleatorias con distribución de probabilidad conjunta f ¦ x , y) , entonces
9 DE 17 
c
aX +bY
2
=a
2
c
X
2
+b
2
c
Y
2
+2 abc
XY
10 DE 17 
Corolario 1 Si X y Y son variables aleatorias independientes, entonces 
c
aX +bY
2
=a
2
c
X
2
+b
2
c
Y
2
Corolario 2 Si X y Y son variables aleatorias independientes, entonces 
c
aX −bY
2
=a
2
c
X
2
+b
2
c
Y
2
Corolario 3 Si X
1
, X
2
, ... , X
n
son variables aleatorias independientes, entonces
c
a1 X1 +a2 X 2+⋯+an Xn
2
=a
1
2
c
X1
2
+a
2
2
c
X 2
2
+⋯+a
n
2
c
Xn
2
Teorema 4.11 (Teorema   de   Chebyshev)   La   probabilidad   de   que   cualquier   variable   aleatoria  X  tome   un   valor   dentro   de  K 
desviaciones estándar de la media es al menos 1 –
1
k
2
. Es decir,
P¦u – k cXu+k c)≥1−
1
k
2
Definición 5.1
Distribución   uniforme   discreta    Si   la   variable   aleatoria  X  toma   los   valores x
1
, x
2
, ... , x
k
, con   idénticas 
probabilidades, entonces la distribución uniforme discreta ésta dada por
f ¦ x ;k )=
1
k
x=x
1
, x
2
, ... , x
k
Teorema 5.1 La media y la varianza de la distribución uniforme discreta f ¦ x ;k ) son
u=

i=1
k
x
i
k
y c
2
=

i =1
k
¦ x
i
−u)
2
k
Definición 5.2 Distribución binomial  Un experimento de Bernoulli puede tener como resultado un éxito con probabilidad p y un 
fracaso con probabilidad  q=1−p . Entonces la distribución de probabilidad de la variable aleatoria binomial X, el 
número de éxitos en n pruebas independientes, es 
b¦ x ; n , p)=
¦
n
x
)
p
x
q
n−x
x=0,1,2 , ... , n
Teorema 5.2 La media y la varianza de la distribución binomial b(x;n,p) son 
u=np y c
2
=npq
Definición 5.3 Distribución multinomial   Si una prueba dada puede conducir a los k resultados E
1
, E
2
,... , E
k
con probabilidades
p
1
, p
2
, ... , p
k
, entonces   la   distribución   de   probabilidad   de   las   variables   aleatorias X
1
, X
2
, ... , X
k
, que 
representan el número de ocurrencias para E
1
, E
2
, ... , E
k
en n pruebas independientes es
f ¦ x
1
, x
2
, ... , x
k
; p
1
, p
2
, ... , p
k
, n)=
¦
n
x
1
, x
2
, ... , x
k
)
p
1
x
1
p
2
x
2
⋯p
k
x
k
con 
11 DE 17 

i=1
k
x
i
=n y ∑
i=1
k
p
i
=1
Definición 5.3 Distribución hipergeométrica   La distribución de probabilidad de la variable aleatoria hipergeométrica X, el número 
de éxitos en una muestra aleatoria de tamaño n que se selecciona de N artículos de los que k se denominan éxito y N­k 
fracaso, es
h¦ x ; N , n , k)=
¦
k
x

N−k
n−x
)
¦
N
n
)
x=0,1,2... , n
Teorema 5.3 La media y la varianza de la distribución hipergeométrica h(x;N,n,k) son
u=
nk
N
y c
2
=
N−n
N−1
⋅n⋅
k
N
¦
1 –
k
N
)
Definición 5.4 Distribución  hipergeométrica  multivariada    Si  N  artículos   se   pueden   dividir   en  k  celdas A
1
, A
2
, ... , A
k
con 
a
1
, a
2
, ... , a
k
elementos,   respectivamente,   entonces   la   distribución   de   probabilidad   de   las   variables   aleatorias 
X
1
, X
2
, ... , X
k
, que  representan  el   número  de  elementos  que  se  seleccionan  de A
1
, A
2
, ... , A
k
en  una  muestra 
aleatoria de tamaño n, es
f ¦ x
1
, x
2
, ... , x
k
; a
1
, a
2
, ... , a
k
, N , n)=
¦
a
1
x
1
) ¦
a
2
x
2
)

¦
a
k
x
k
)
¦
N
n
)
con 

i=1
k
x
i
=n y ∑
i=1
k
a
i
=N
Definición 5.5 Distribución  binomial   negativa    Si   pruebas  independientes  repetidas  pueden  tener   como  resultado  un  éxito  con 
probabilidad  p  y  un  fracaso  con  probabilidad
q=1−p ,
entonces  la  distribución  de  probabilidad  de  la  variable 
aleatoria X, el número de la prueba en la que ocurre el k­ésimo éxito, es
b

¦ x ; k , p)=
¦
x−1
k −1
)
p
k
q
x−k
x=k , k +1, k+2,. ..
Definición Distribución geométrica  Si pruebas independientes repetidas pueden tener como resultado un éxito con probabilidad 
p y un fracaso con probabilidad  q=1−p , entonces la distribución de probabilidad de la variable aleatoria X, el 
número de la prueba en el que ocurre el primer éxito, es
g¦ x ; p)=pq
x−1
x=1,2,3,. ..
Teorema 5.4 La media y la varianza de una variable aleatoria que sigue la distribución geométrica son
u=
1
p
c
2
=
1−p
p
2
12 DE 17 
13 DE 17 
Definición 5.6 Distribución  de  Poisson    La  distribución  de  probabilidad  de  la  variable  aleatoria  de  Poisson  X,   que  representa  el 
número de resultados que ocurren en un intervalo dado o región específica que se denota con t, es
p ¦ x ;\t )=
e
−\t
¦\t )
x
x!
x=0,1,2 , ...
donde \ es el número promedio de resultados por unidad de tiempo o región.
Teorema 5.5 La media y la varianza de la distribución de Poisson p¦ x ;\ t)  tiene el valor \t
Teorema 5.6 Sea  X  una   variable   aleatoria   binomial   con   distribución   de   probabilidad
b¦ x ; n , p) .
Cuando
n -∞, p-0 y u=np
permanece constante,
b¦ x ; n , p)-p¦ x ;u)  
Definición Distribución Uniforme  La función de densidad de la variable aleatoria uniforme continua X en el intervalo [A,B] es
f ¦ x ; A, B)=
¦
1
B−A
A≤x≤B
0 en cualquier otro caso
¦
Teorema 6.1 La media y la varianza de la distribución uniforme son
u=
A+B
2
y c
2
=
¦ B−A)
2
12
Definición Distribución normal  La función de densidad de la variable aleatoria normal X, con media u y varianza c
2
es
n¦ x ;u, c)=
1
. 2n c
e

¦
1
2
)|
¦x−u)
c ¦
2
−∞x∞
Definición 6.1 La distribución de una variable aleatoria normal con media cero y varianza 1 se llama Distribución normal estándar
Teorema 6.2 Si X es una variable aleatoria binomial con media u=np y varianza c
2
=npq , entonces la forma limitante de la 
distribución de
Z=
X−np
.npq
conforme
n -∞,
es la distribución normal estándar
n ¦z ; 0,1) .
Definición 6.2 La función gamma se define como
I¦o)=

0

x
o−1
e
−x
dx para o>0
seenuncianalgunas propiedades:
I¦o)=¦o−1) I¦o−1) o>1
I¦ n)=¦ n−1)!
I
¦
1
2
)
=. n
14 DE 17 
15 DE 17 
Definición 6.3 Distribución Gamma   La variable aleatoria continua  X  tiene una distribución gamma, con parámetros  α  y β, si su 
función de densidad está dada por
f ¦ x)=
¦
1
ß
o
I¦o)
x
o−1
e
−x/ ß
x>0
0, en cualquier otrocaso
¦
cuando o>0 y ß>0 .
Definición 6.4 Distribución exponencial La variable aleatoria continua X tiene una distribución exponencial, con parámetro  β, si su 
función de densidad está dada por
f ¦ x)=
¦
1
ß
e
−x/ ß
x>0
0 cualquier otro caso
¦
cuando ß>0.
Teorema 6.3 La media y la varianza de la distribución gamma son
u=oß y c
2
=oß
2
Teorema 6.4 La media y la varianza de la distribución exponencial son
u=ß y c
2

2
Definición 6.5 Distribución ji cuadrada  La variable aleatoria continua X tiene una distribución ji cuadrada, con v grados de libertad, 
si su función de densidad está dada por
f ¦ x)=
¦
1
2
v/ 2
I¦v /2)
x
v
2
−1
e
−x/2
x>0
0 encualquier otro caso
¦
dondev es un enteropositivo.
Corolario La media y la varianza de la distribución ji cuadrada son
u=v y c
2 v
Definición 6.6 Distribución  logarítmica  normal   La variable  aleatoria  continua  X  tiene  una  distribución  logarítmica normal  si  la 
variable aleatoria Y = ln(X) tiene una distribución normal con media μ y desviación estándar σ. La función de densidad 
de X que resulta es
f ¦ x)=
¦
1
.
2nc x
e
−¦ ln¦ x)−u)
2
/¦2c
2
)
x≥0
0 x0
¦
Corolario La media y varianza de la distribución logarítmica normal son
E¦ X )=e
u+
c
2
2
y Var¦ X)=e
2 u+c
2
⋅¦e
c
2
−1)
16 DE 17 
Definición Distribución de Weibull  La variable aleatoria continua X tienen una distribución de Weibull, con parámetros α y β si su 
función de densidad está dada por
f ¦ x)=
¦
oß x
ß−1
e
−ox
ß
x>0
0 cualquier otrocaso
¦
donde o>0 y ß>0
Teorema 6.4 La media y la varianza de la distribución Weibull son
u=o
−1 /ß
I
¦
1+
1
ß
)
c
2
=o
−2/ ß
¦
I
¦
1+
2
ß
)

|
I
¦
1+
1
ß
) ¦
2
¦
POKER  Una baraja de poker consiste en 52 cartas arregladas en 4 palos de trece cartas cada uno. Hay trece valores nominales 
(2,3,4,5,6,7,8,9,10,sota,reina,rey,as) en cada palo. Los cuatro palos se llaman tréboles, espadas,corazones y diamantes. Los dos últimos 
son rojos y los primeros son negros. A las cartas que tienen el mismo valor nominal se les llama de la misma clase. Por definición poker 
significa seleccionar 5 cartas de la baraja.
17 DE 17 

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->