Está en la página 1de 45

Probabilidades

Los valores de probabilidad siempre se asignan en una escala de 0 a 1:


0 (cero) es la certeza de que el evento no ocurrir
Una probabilidad casi cercana a 1 indica que ocurrir
Otros valores entre 0 y 1 establecen grados de certeza de que el evento ocurrir
Espacio muestral: todos los resultados posibles identiicados! es un con"unto#
Punto muestral: se trata de cualquier resultado e$perimental particular encontrado dentro del espacio
muestral#
Evento: es aquel con"unto de puntos muestrales que caracterizan un suceso espec%ico#
Diagrama del rbol: dispositivo grico &til para visualizar un e$perimento de varias etapas y
enumerar resultados posibles#
Regla de conteo para experimentos de etapas mltiples: si un e$perimento se puede describir como
una sucesi'n de ( etapas) en las que *ay n
1
resultados posibles en la primera etapa) n
+
en la
segunda) etc#) la cantidad total de resultados e$perimentales es igual a (n
1
)(n
+
)###(n
k
) ) esto es) la
cantidad de resultados del e$perimento total es el producto de las cantidades de resultados en cada
etapa#
Regla de conteo para combinaciones: la cantidad de , ob"etos tomando n a la vez es
(
N
n
)
=
N !
n!(N n)!
en donde N !=N ( N1)(N+)###(+)(1)
n!=n(n1)(n+) ###(+)(1)
y 0!=1 ,ota: la notaci'n - .igniica actorial! por e"emplo) / actorial es
/- 0 (/)(1)(2)(+)(1) 01+0# Por deinici'n) 0- es igual a 1#
3equisitos bsicos para asignar probabilidades
1# Los valores de probabilidad que se asignan a cada resultado e$perimental (punto muestral)
deben ser entre 0 y 1# 4sto es) si 4
i
representa el resultado e$perimental i y P(4
i
) representa la
probabilidad de este resultado e$perimental) se debe cumplir
0P(E
i
)1 paratoda i
+# La suma de todas las probabilidades de resultados e$perimentales debe ser 1# .i un espacio
muestral tiene ( resultados e$perimentales) se debe cumplir
P(E
1
)+P(E
+
)+P( E
2
)+###+P( E
k
)=

P( E
i
)=1
Probabilidad por mtodo clsico: cuando se usa la *ip'tesis de resultados igualmente probables como
base para asignar probabilidades# 4"#: lanzar una moneda perectamente balanceada) donde la
probabilidad de obtener escudo es 0)/! y la de obtener corona es 0)/#
Probabilidades por mtodo de la frecuencia relativa: se trata de un m5todo e$perimental donde se
obtienen las probabilidades a posteriori# 4"#: lanzar una moneda equilibrada 100 veces) contar el
resultado de cada lanzamiento (o registrarlo)) y obtener las probabilidades de cada una de esas caras#
Probabilidades por el mtodo subjetivo: se trata de asignar arbitrariamente una probabilidad a un
evento#
Probabilidad de un evento: esta probabilidad es igual a la suma de las probabilidades de los puntos
muestrales en el evento# .iempre que podamos identiicar a todos los puntos muestrales de un
e$perimento y asignar las probabilidades correspondientes a los puntos muestrales) podemos aplicar la
deinici'n para calcular la probabilidad de un evento# .in embargo) en muc*os e$perimentos la
cantidad de puntos muestrales es tan grande) y la identiicaci'n de ellos) as% como la determinaci'n de
sus probabilidades asociadas) es demasiado tediosa) sino que imposible#
3elaciones bsicas de probabilidad
Complemento de un evento: dado un evento 6) el complemento se deine como el evento ormado por
todos los puntos muestrales que no estn en 6# 4n cualquier aplicaci'n de probabilidades) debe
suceder) ya sea el evento 6 o su complemento A
C
# 4n consecuencia)
P(A)+P( A
C
)=1) que eslo mismo que P( A)=1P( A
C
)#
Ley aditiva: la ley aditiva es &til cuando se tienen dos eventos) y se desea conocer la probabilidad de
que ocurra al menos uno de ellos# 4sto es) con los eventos 6 y 7 nos interesa conocer la probabilidad
de que suceda el evento 6) o el evento 7) o ambos# 6ntes de presentar la ley aditiva) necesitamos
analizar dos conceptos relacionados con la combinaci'n de eventos) 6 y 7) la uni'n de 6 y 7:
Unin de eventos: es el evento que contiene todos los puntos muestrales que pertenecen a 6 o a
7) o a ambos# .e representa con AB #
8ricamente:
Interseccin de eventos: es el evento que contiene los puntos muestrales que pertenecen
simultneamente 6 y a 7! 5sta se representa como AB #
8ricamente:
Ley aditiva para la unin de eventos no mutuamente excluyentes
P( AB)=P( A)+P(B)P( AB)
Eventos mutuamente excluyentes: se dice que dos eventos son mutuamente e$cluyentes si no
tienen puntos muestrales en com&n# 4sto es) los eventos 6 y 7 son mutuamente e$cluyentes si)
cuando ocurre uno) el otro no puede ocurrir) por eso) un requisito es que su intersecci'n no debe
contener puntos muestrales#
Ley aditiva para unin de eventos mutuamente excluyentes
P( AB)=P( A)+P( B)
Probabilidad condicional: con recuencia) la probabilidad de un evento se ve inluida por la
ocurrencia (o no presentaci'n) de otro evento relacionado# La notaci'n P( AB) se lee 9la
probabilidad de 6 dado 7:# La probabilidad condicional toma en cuenta la probabilidad con"unta) que
es la probabilidad de la intersecci'n de dos eventos#
Proailidad condicional
P(AB)=
P(AB)
P(B)
P(BA)=
P(AB)
P( A)
8ricamente:
Eventos independientes: dos eventos) 6 y 7) son independientes s%
P(AB)=P( A) o si P(BA)=P(B)
,ota: los eventos mutuamente e$cluyentes con probabilidades distintas de cero no pueden ser
independientes# ;e lo contrario) los eventos son dependientes#
Ley multiplicativa: mientras que la ley aditiva de la probabilidad se usa para determinar la
probabilidad de una uni'n entre dos eventos) la ley multiplicativa se usa para determinar la
probabilidad de una intersecci'n#
Ley multiplicativa para eventos dependientes
P( AB)=P( B)P( AB)
otami!n
P( AB)=P( A)P(BA)
,ota: no se debe conundir entre s% el concepto de eventos mutuamente e$cluyentes con el de
eventos independientes# ;os eventos cuyas probabilidades son distintas de cero no pueden ser de
manera simultnea mutuamente e$cluyentes e independientes entre s%# .i ocurre uno de los
eventos mutuamente e$cluyentes) la probabilidad de que suceda el otro se reduce a cero# Por eso)
son dependientes#
Ley multiplicativa para eventos independientes
P( AB)=P( A)P( B)
4sta &ltima ley permite determinar si dos eventos son independientes# 4sto es) 1) si
P( AB)=P( A)P( B) entonces 6 y 7 son independientes! +) si P(AB)P( A)P(B)
entonces 6 y 7 son dependientes#
eorema de !ayes: este teorema se basa en el teorema de las probabilidades totales) para conocer las
probabilidades de que suceda un evento espec%ico dentro de un con"unto de otros eventos similares#
"eorema de Bayes
P(A
i
B)=
P( A
i
)P( BA
i
)
P( A
1
)P(BA
1
)+P(A
+
)P( BA
+
)+###+P( A
n
)P( BA
n
)
<ariables aleatorias y distribuciones de probabilidad
"ariable aleatoria: sea . un espacio muestral sobre el que se encuentra deinida una unci'n de
probabilidad# .ea = una unci'n de valor real deinida sobre .) de manera que transorme los
resultados de . en puntos sobre la recta de los reales# .e dice entonces que = es una variable aleatoria)
es decir) porque involucra la probabilidad de los resultados del espacio muestral) y = es una unci'n
deinida sobre el espacio muestral) de manera que transorma todos los posibles resultados del espacio
muestral en cantidades num5ricas#
"ariable aleatoria discreta: se dice que una variable aleatoria = es discreta si el n&mero de valores
que puede tomar es contable (ya sea inito o ininito)) y si estos pueden arreglarse en una secuencia que
corresponde con los enteros positivos##
"ariable aleatoria continua: se dice que una variable aleatoria = es continua si sus valores consisten
en uno o ms intervalos de la recta de los reales#
#unci$n de probabilidad de la variable aleatoria %: sea = una variable aleatoria discreta) se llamar
a p(x)P( # =x) unci'n de probabilidad de la variable aleatoria =) si satisace las siguientes
propiedades:
1# p(x)0 para todos los valores de $ de =
+#

x
p( x)=1
#unci$n de distribuci$n acumulativa de la variable aleatoria %: la unci'n de distribuci'n
acumulativa de la variable aleatoria = es la probabilidad de que = sea menor o igual a un valor
espec%ico de $ y est dada por: $ (x)P( # x)=

x
i
<x
p( x
i
) #
6s%) en el caso de una variable aleatoria discreta =) est caracterizada por la unci'n de
probabilidad puntual p($)) y por la unci'n de distribuci'n acumulativa >($)) la que representa la suma
de las probabilidades puntuales *asta el valor $ de = inclusive#
La unci'n de distribuci'n acumulativa >($) de una variable aleatoria discreta es una unci'n no
decreciente de los valores de =) de tal manera que:
1# 0$( x)1 paracualquier x %
+# $ (x
i
)$ (x
&
)si x
i
x
&
%
2# P( # >x)=1$ ( x)
6dems) puede establecerse que para variables aleatorias de valor entero se tiene que:
1# P( # =x)=$ (x)$ (x1)%
/# P( x
i
# x
&
)=$ ( x
&
)$ (x
i
1)
4n el caso discreto) se asignan probabilidades positivas a todos los valores puntuales de la variable
aleatoria) pero la suma de todas ellas es uno a&n a pesar de que el con"unto de valores sea ininito
contable# Para el caso continuo) lo anterior no es posible# Por esta raz'n) la probabilidad de que una
variable aleatoria continua = tome un valor espec%ico $ es cero# La distribuci'n de probabilidad de una
variable aleatoria continua = est caracterizada por una unci'n ($) que recibe el nombre de unci'n
de densidad de probabilidad# 4sta unci'n ($) no es la misma unci'n de probabilidad que para el caso
discreto# ?omo la probabilidad de que = tome el valor espec%ico $ es cero) la unci'n de densidad de
probabilidad no representa la probabilidad de que =0$# @s bien) 5sta proporciona un medio para
determinar la probabilidad de un intervalo a# '
#unci$n de densidad de probabilidad de la variable aleatoria continua %: si e$iste una unci'n ($)
tal que
1# ( (x)0)<x<%
+#

+
( (x)dx=1) y
2# P(a# )=

( ( x)dx
para cualquiera a y b) entonces ($) es la unci'n de densidad de probabilidad de la variable
aleatoria continua =#
La unci'n de distribuci'n acumulativa de una variable aleatoria continua = es la probabilidad de
que = tome un valor menor o igual a alg&n valor $ espec%ico# 4sto es)
P( # x)=$ (x)=

x
x
( (t )dt ) en donde t es una variable artiicial de integraci'n#
;ado que para cualquier variable aleatoria continua =)
P( # =x)=

x
x
( (t )dt =0)
entonces
P( # x)=P( # <x)=$( x)
La distribuci'n acumulativa >($)) es una unci'n lisa no decreciente de los valores de la variable
aleatoria con las siguientes propiedades:
1# $ ()=0%
+# $ ()=1%
2# P(a< # <)=$ ()$(a)%
1#
d$( x)
dx
= ( ( x)
La propiedad de que la derivada de la unci'n de distribuci'n acumulativa es la unci'n de
densidad de probabilidad) es una consecuencia del teorema undamental del clculo integral#
Esperan&a matemtica de una variable aleatoria: el valor esperado de una variable aleatoria = es el
promedio o valor medio de = y est dado por:
E[ ) ( # )]=

x
)(x) p( x) si x es discreta* o
E[ )( x)]=

)( x) ( (x) dx si # es continua'
La esperanza de una variable aleatoria = no es una unci'n de = sino un n&mero i"o y una
propiedad de la distribuci'n de probabilidad de =# Por otra parte) el valor esperado puede no e$istir
dependiendo de si la correspondiente suma o integral no converge en un valor inito#
Propiedades de la esperan&a de una variable aleatoria:
1# 4l valor esperado de una constante c es el valor de la constante
E(c)=

c ( ( x)dx=c

( ( x)dx=c
+# 4l valor esperado de la cantidad a# + ) en donde a y b son constantes) es el producto de a
por el valor esperado de $ ms b#
E(a# +)=

(ax+) ( ( x)dx=a

x ( ( x) dx+

( ( x) dx=aE( # )+
2# 4l valor esperado de la suma de dos unciones g(=) y *(=) de = es la suma de los valores
esperados de g(=) y *(=)#
E[ )( # )++( # )]=

[ ) ( x)++( x)] ( ( x)dx=

)(x) ( ( x)dx+

+( x) ( (x)dx=E[ )( # )]+E[ +( # )]
'omentos de una variable aleatoria: son los valores esperados de ciertas unciones de =# Astos
orman una colecci'n de medidas descriptivas que pueden emplearse para caracterizar la distribuci'n
de probabilidad de = y especiicarla si todos los momentos de = son conocidos#
R(simo momento alrededor del cero: sea = una variable aleatoria# 4l rB5simo momento de =
alrededor del cero se deine por:
, r=E( #
r
)=

x
r
p(x) si # es discreta * o
, r=E( #
r
)=

x
r
( ( x)dx si # es continua'
4l primer momento alrededor del cero es la media o valor esperado de la variable aleatoria y se denota
por C! de esta manera se tiene que , r==E( # )#
R(simo momento central de %: sea = una variable aleatoria# 4l rB5simo momento central de = o el rB
5simo momento alrededor de la media de = se deina por:
r=E( # )
r
=

x
(x)
r
p( x) si # esdiscreta * o
r=E( # )
r
=

(x)
r
( ( x) si # es continua'
4l momento central cero de cualquier variable aleatoria es uno) dado que:

0
=E( # )
0
=E (1)=1
4l primer momento central de cualquier variable aleatoria es cero) dado que:

1
=E( # )=E( x)=0
4l segundo momento central:

+
=E( # )
+
* recibe el nombre de varianza de la variable aleatoria#
Puesto que:

+
=-ar ( # )=E( # )
+
-ar( # )=E( #
+
+=+
+
)
-ar( # )=E( #
+
)+
+
+
+
-ar( # )=,
+

+
*
la varianza de cualquier variable aleatoria es el segundo momento alrededor del origen menos el
cuadrado de la media# La varianza de una variable aleatoria es una medida de la dispersi'n de la
distribuci'n de probabilidad de 5sta# La ra%z cuadrada positiva de la varianza recibe el nombre de
desviaci'n estndar y se denota por D# 6 continuaci'n) se demostrar porqu5 la varianza de una variable
aleatoria $ es invariable
-ar (a# +)=E(a# +)
+
E
+
(a# +)
-ar (a# +)=E(a
+
#
+
++ab=+
+
)[ aE( # )+]
+
-ar(a# +)=a
+
E( #
+
)++ab4( # )+
+
a
+
E
+
( # )+ab4( # )
+
-ar( a# +)=a
+
E( #
+
)a
+
E
+
( # )
-ar(a# +)=a
+
[ E( #
+
)E
+
( # )]
-ar (a# +)=a
+
-ar( x)
Una medida que compara la dispersi'n relativa de dos distribuciones de probabilidad es el coeiciente
de variaci'n) que est deinido por: -=/ ) que e$presa la magnitud de la dispersi'n relativa de
dos distribuciones de probabilidad con respecto a su valor esperado#
4l tercer momento central

2
=E( # )
2
) est relacionado con la asimetr%a de la distribuci'n de probabilidad de =#
4n particular)

2
= ,
2
2,
+
++
2
Para las distribuciones de probabilidad que presentan un solo pico) si
2
<0 ) se dice que la
distribuci'n es asim5trica negativamente! si
2
>0 ) la distribuci'n es asim5trica positivamente! y si

2
=0 ) la distribuci'n es sim5trica#
Una medida ms apropiada de la asimetr%a) es el tercer momento estandarizado) dado por:

2
=
2
/(
+
)
2/ +
que recibe el nombre de coeiciente de asimetr%a# 4l coeiciente
2
es la medida de la asimetr%a de
una distribuci'n de probabilidad con respecto a su dispersi'n# Una dispersi'n de probabilidad es
asim5trica positiva) negativa o sim5trica si
2
>0 )
2
<0 ) o
2
=0 respectivamente) como se
muestra en la siguiente igura:
4l cuarto momento central

1
=E( # )
1
= ,
1
1,
2
+E
+
,
+
2
1
es una medida de qu5 tan puntiaguda es la distribuci'n de probabilidad y recibe el nombre de curtosis#
6l igual que el tercer momento) es preerible emplear el cuarto momento estandarizado)

1
=
1
/
+
+
como una medida relativa de la curtosis# .i
1
>2 ) la distribuci'n de probabilidad presenta un pico
relativamente alto y recibe el nombre de leptoc&rtica! si
1
<2 ) la distribuci'n es relativamente
plana y recibe el nombre de platic&rtica! y si
1
=2 ) la distribuci'n no presenta un pico muy alto ni
muy ba"o y recibe el nombre de mesoc&rtica#
eorema de C)ebys)ev: si una variable aleatoria tiene una varianza o desviaci'n estndar pequeFa)
esperar%amos que la mayor parte de los valores se agrupasen alrededor de la media# Por tanto) la
probabilidad de que una variable aleatoria tome un valor dentro de cierto intervalo alrededor de la
media es mayor que para una variable aleatoria similar con una desviaci'n estndar mayor#
?*ebys*ev propuso que la racci'n del rea entre dos valores sim5tricos alrededor de la media
est relacionada con la desviaci'n estndar# ?omo el rea ba"o la curva de distribuci'n de probabilidad
suma 1) el rea entre cualesquiera dos n&meros es la probabilidad de que la variable aleatoria tome un
valor entre estos n&meros#
"eorema de C+eys+ev. dada la proailidad de que una variale aleatoria # tome un valor de k
desviaciones est/ndar de su media es al menos 0102k3
P(k <# <+k )11/ k
+
4emostracin

+
=E[( # )
+
]

+
=

( x)
+
( ( x)dx

+
=

k
( x)
+
( ( x) dx+

k
+k
( x)
+
( ( x) dx+

+k

( x)
+
( (x) dx

k
( x)
+
( ( x) dx+

+k

(x)
+
( ( x)dx
;ado que la segunda de las tres integrales es no negativa) y que # k para cualquier
x+k ' # k para cualquier xk tenemos que ( # )
+
k
+

+
en ambas
integrales restantes se sigue que
+

k
k
+

+
( (x)dx+

+k

k
+

+
( (x)dx y que

k
( (x)dx+

+k

( ( x)dx1/ k
+
#
;e aqu% que:
P(k <# <+k )=

k
+k
( (x)dx11/ k
+
para (0+ el teorema establece que la variable aleatoria = tiene una probabilidad de al menos 1B
(1G+)H02G1 (I/J) de caer dentro de dos observaciones estndar de la media# 4s decir) tres cuarto o ms
de las observaciones de cualquier distribuci'n caen alrededor de + #
?ualquiera que sea la orma de la distribuci'n de los datos (e$cepto sim5trica):
al menos el I/J de los valores (poblaci'n) caern dentro de + desviaciones estndar respecto
de la media de la distribuci'n
al menos el KLJ de los valores (poblaci'n) caern dentro de 2 desviaciones estndar respecto
de la media de la poblaci'n
.olamente cuando la distribuci'n es sim5trica (insesgada):
apro$imadamente el EKJ de los datos (poblaci'n) se encuentran a una desviaci'n estndar
alrededor de la media de la distribuci'n
apro$imadamente el L/J de los datos (poblaci'n) se encuentran a + desviaciones estndar
alrededor de la media de la distribuci'n
apro$imadamente el LLJ de los datos (poblaci'n) se encuentran a 2 desviaciones estndar
alrededor de la media de la distribuci'n
;istribuciones de probabilidad: medias) varianzas y demostraciones
"ariable aleatoria: es una unci'n de valores reales deinida en un espacio muestral#
"ariable discreta: una variable aleatoria = de denomina discreta si puede adoptar solo una cantidad
inita o ininita contable (de enteros positivos) de valores distintos#
Distribuci$n de probabilidad de una variable discreta: se trata de las probabilidades de cada valor
de una variable aleatoria# Para denotar las variables aleatorias emplearemos may&sculas) como =) y
min&sculas como $) para representar valores particulares que pueda tomar una variable aleatoria# La
e$presi'n (=0$) puede leerse: el con"unto de todos los puntos de . a los que les asigna el valor $
mediante la variable aleatoria =#
La probabilidad de que = adopte el valor $) P(=0$)) se deine como la suma de las
probabilidades de los puntos muestrales de . que tienen asignado el valor $# 6qu% p($) es s'lo
una unci'n#
La distribuci'n de probabilidad para una variable discreta = puede representarse mediante una
'rmula) una tabla o una grica) que proporciona p($)0P(=0$) para toda $# Observe que
p(x)0 para toda $) pero la distribuci'n de probabilidad para una variable aleatoria discreta
asigna probabilidades dierentes de cero s'lo a una cantidad contable (o con"unto numerable) de
valores enteros y distintos# 4n caso de que a un valor de $ no se le asigne e$pl%citamente una
probabilidad positiva) debe entenderse que p(x)=0 #
?ualquier distribuci'n de probabilidades discreta debe satisacer lo siguiente:
0p(x)1 para toda $


x
p( x)=1 donde la sumatoria es sobre todos los valores de $ con una probabilidad de
cero#
.ea = una variable aleatoria discreta con unci'n de probabilidad p($)# 4ntonces) el valor
esperado de =) 4(=)) se deine como E( # )=

x
xp(x)% si p($) es una representaci'n e$acta
de la distribuci'n de recuencias de poblaci'n) entonces E( # )= es la media poblacional#
.ea = una variable aleatoria discreta con unci'n de probabilidad p($) y sea g(=) una unci'n
de valor real de =) entonces la siguiente e$presi'n da el valor esperado de g(=):
E[ )( # )]=

x
)( # ) p( x)
La varianza de una variable aleatoria = se deine como el valor esperado de ( # )
+
# 4s
decir) -ar( # )=E[( # )
+
] si p($) representa de manera e$acta la distribuci'n de
recuencias de una poblaci'n (para simpliicar la notaci'n supondremos que esto es verdad)!
entonces E( # )= ) -ar ( # )=
+
es la varianza de la poblaci'n) y es la desviaci'n
estndar de la poblaci'n#
Meoremas
1# La media o valor esperado de una cantidad no aleatoria c es igual a c#
a) .i = es una variable aleatoria discreta con unci'n de probabilidad p($) y c es una constante)
E(c)=c
+# 4l valor esperado del producto de una constante c por una unci'n de una variable aleatoria es
igual al producto de la constante por el valor esperado de la unci'n de la variable#
a) .i = es una variable aleatoria discreta con unci'n de probabilidad p($)) g(=) es una unci'n
de =) y c es una constante) entonces
E[ c)( # )]=cE [ ) ( # )]
2# La media o el valor esperado de una suma de unciones de una variable aleatoria = es igual a la
suma de sus respectivos valores esperados#
a) .ea = una variable aleatoria discreta) con unci'n de probabilidad p($)) y sean
)( # ) * )
+
( # ) *5* )
k
(# )* ( unciones de =# 4ntonces)
E[ )
1
( # )+)
+
(# )+###+)
k
(# )]=E [ )
1
( # )]+E[ )
+
( # )]+###+E [ )
k
( # )]
b) .i = es una variable aleatoria discreta con unci'n de probabilidad p($)) entonces
-ar ( # )=
+
=E[( # )
+
]=E( #
+
)
+
Prueba:

+
=E[ #
+
]=E( #
+
+ # +
+
)
E[ #
+
]=E( #
+
)E(+ # )+E(
+
)
E[ #
+
]=E( #
+
)+ E( # )+
+
E[ #
+
]=E( #
+
)+
+
+
+
E[ #
+
]=E( #
+
)
+
E[ #
+
]=E( #
+
)E( # )
+
Distribuci$n uniforme discreta: en esta distribuci'n e$iste igualdad de la probabilidad entre todos los
sucesos elementales posibles# Una variable aleatoria = tiene distribuci'n uniorme discreta si la unci'n
de probabilidad de = est dada por:
(
x
( # )= 1/ N para #=1)+)2 *### * N
0 de otra (orma
o equivalentemente por:
(
x
( x)=1/ N I
[1)+)2 *### * N]
(x)% donde el parmetro , es un entero positivo#
.u unci'n acumulada viene dada por:
$
x
( # )= 0 si x<0
[ x]
N
si x[ 1) N ]
1 si x>N
donde N=O es la parte entera de $#
.u media y su varianza son del tipo:
E( # )=
N +1
+
-ar( # )=
N
+
1
1+
Prueba:
E (# )=

x=1
N
x
1
N
=
1
N

x=1
N
x=
1/ N[ N (N +1)]
+
=
N +1
+
E( #
+
)=

x=1
N
x
+

1
N
=
1
N

x=1
N
x
+
=
1/ N[ N (N +1)(+,+1)]
E
=
( N+1)(+,+1)
E
-ar ( # )=E( #
+
)[ E( # )]
+
=
(N +1)(+,+1)
E

(N +1)
+
1
=
N
+
1
1+
3epresentaci'n grica
Distribuci$n de !ernoulli: esta distribuci'n se aplica a situaciones en las que un cierto atributo
aparece con probabilidad p y la ausencia de este mismo atributo con probabilidad (1p) # Un
e$perimento aleatorio cuyos resultados se clasiican en dos categor%as) 5$ito o racaso (E * $) )
respectivamente) se denomina ensayo de 7ernoulli# 4s importante aclarar que la clasiicaci'n de los
posibles resultados en 95$ito: o 9racaso: no implica que un 5$ito es lo deseable#
Una variable aleatoria = tiene distribuci'n de 7ernoulli si su unci'n de probabilidad est dada
por:
(
x
( x)=p
x
q
1x
para x=0)1
0 deotra (orma
o de orma equivalente:
(
x
( x)=p
x
q
1x
I
[ 0)1]
( x) donde 0< p<1 % q=1p
.u unci'n de distribuci'n acumulada est dada por:
$
x
( # )= 0 si x<0
1p si 0x<1
1 si x1
.u media y varianza son de la orma: E( # )=p -ar( # )=pq
Distribuci$n binomial: algunos e$perimentos consisten en la observaci'n de una serie de
e$perimentos id5nticos e independientes) cada uno de los cuales puede generar uno de dos resultados#
Un e$perimento binomial posee las siguientes caracter%sticas:
1# 4l e$perimento consta de un n&mero determinado) n) de ensayos id5nticos#
+# ?ada ensayo tiene dos resultados posibles# Llamaremos . a cada resultado e$itoso y > a cada
racaso#
2# La probabilidad de tener 5$ito en un ensayo es igual a alg&n valor p) y permanece constante de
un ensayo a otro# La probabilidad de un racaso es igual a q=(1p) #
1# La variable aleatoria ba"o estudio es =) el n&mero de 5$itos observados en n ensayos#
Para representar un cierto n&mero de 5$itos) utilizamos el s%mbolo r) y para representar el n&mero
total de intentos o de ensayos utilizamos el s%mbolo n#
Proailidad de r !xitos ennintentos=
n!
r ! ( nr)!
p
r
q
nr
La distribuci'n binomial tiene un valor esperado o medio () y una desviaci'n estndar
():
E( # )==np
n: n6merode ensayos
p: proailidad detener !xito
-ar( # )=
+
=npq
n: n6merode ensayos
p: proailidad detener !xito
q: 1p
Prueba:
E( # )=

x=0
n
x (
x
(x)=

x=0
n
x
n!
x! (nx)!
p
x
q
nx
=np

x=1
n
(n1)!
(x1)! (nx)!
p
x1
q
nx
sean y=x1 y m=n1) entones :
E( # )=np

y=0
m
(m)!
y ! (my)!
p
y
q
nx
=np
E( #
+
)=

x=0
n
x
+
( ( x)=

x=0
n
x
+ n!
x! (nx)!
p
x
q
nx
=

x=1
n
[ x( x1)+x]
n!
x ! (nx)!
p
x
q
nx
E( #
+
)=

x=1
n
x(x1)
n!
x ! (nx)!
p
x
q
nx
+

x=1
n
x
n!
x! (nx)!
p
x
q
nx
E( #
+
)=n(n1)p
+

x=+
n
(n+)!
(x+)! (nx)!
p
x+
q
nx
+np
.ean y=x+ y m=n+ ) entonces:
E( #
+
)=n( n1) p
+

y=0
m
m!
y ! (my)!
p
y
q
my
+np ) y dado quela sumatoria es igual a 1) resulta que:
E( #
+
)=n(n1) p
+
+np
;e esta orma) la varianza es:
-ar ( # )=E( #
+
)E( # )
+
=n(n1) p
+
+npn
+
p
+
-ar ( # )=n
+
p
+
np
+
+npn
+
p
+
=np(1p)=npq
Una variable aleatoria = se distribuye binomialmente si una unci'n de probabilidad de = est
dada por:
(
x
( x)=
(
n
r
)
p
r
q
nr
para r=0)1)+ *### * n
0 de otra (orma
o equivalentemente por:
(
x
( x)=
(
n
r
)
p
r
q
nr
I
[0) 1) +)### * n]
(x) donde 0< p<1) q=1p * y n var7aenlos enteros positivos
.u unci'n de distribuci'n acumulada est dada por:
0 si x<0
$
x
( # )=

x=0
[ x]
(
n
r
)
p
r
(1p)
nr
si 0x<n
1 si xn
donde N$O es la parte entera#
3epresentaci'n grica
p=0)/( sim!trica)
p<0)/(ses)o positivo)
p>0)/(ses)o ne)ativo)
Distribuci$n binomial *experimentos multinomiales+: un e$perimento binomial se convierte en
multinomial) si cada prueba tiene ms de dos resultados posibles# .i una prueba puede tener cualquiera
de los ( resultados posibles E
1
* E
+
* E
2
*5* E
k
! con probabilidad de p
1
* p
+
* p
2
* ### * p
k
# La
distribuci'n multinomial dar la probabilidad de que E
1
ocurra x
1
veces) E
+
ocurra x
+
veces) E
2
ocurra x
2
veces) y as%#
x
1
+x
+
+###+x
k
=n
( (x
1
+x
+
+###+x
k
% p
1
* p
+
* p
2)###
* p
k
% n)
1# 3esultados posibles:
n!
x
1
! x
+
! x
2
! ### x
n
!
+# .e multiplica por cada una de las probabilidades:
(
n!
x
1
! x
+
! ### x
n
!
)
p
1
x
1)
p
+
x
+
* ### * p
k
x
k
Distribuci$n de probabilidad geomtrica: la variable aleatoria con distribuci'n geom5trica se
relaciona con un e$perimento que comparte algunas de las caracter%sticas del e$perimento binomial#
Mambi5n se reiere a pruebas id5nticas e independientes) cada una de las cuales puede dar lugar a dos
clases de resultados: 5$ito o racaso# La probabilidad de 5$ito es igual a p y es constante de un ensayo a
otro# .in embargo) ms que el n&mero de 5$itos que se presentan en n ensayos) la variable aleatoria
geom5trica = es el n&mero del ensayo en el que ocurre el primer 5$ito# 6s%) el e$perimento consta de
una serie de ensayos que concluye con el primer 5$ito#
Una variable aleatoria = tiene una distribuci'n de probabilidad geom5trica si y solo si
p( x)=q
x1
p donde x=1) +) ### * n
.u media y varianza son de la orma:
E( # )==1/ P -ar ( # )=
1p
p
+
Prueba:
E( # )=

x=0

xq
x1
=p

x=0

xq
x1
d
dq
(q
x
)=xq
x1

d
dq [

x=1

q
x
]
=

x=0

xq
x1
E( # )=p

x=0

xq
x1
=p
d
dq
(

x=1

q
x
)
E( # )=p
d
dq
(
q
1q
)
=p
(
q
(1q)
+
)
=
p
p
+
=
1
p
Distribuci$n binomial negativa: una variable aleatoria con una distribuci'n binomial negativa surge
de un conte$to seme"ante al que conduce a la distribuci'n geom5trica# ;e nuevo) enocaremos nuestra
atenci'n en ensayos id5nticos e independientes) cada uno de los cuales da origen a uno de dos
resultados: 5$ito o racaso# La probabilidad p de 5$ito no var%a de un ensayo a otro# .i nos interesa el
n&mero de ensayos en el que se presenta el primer 5$ito) podemos recurrir a la distribuci'n geom5trica#
Pero) Pqu5 pasa si nos interesa conocer el n&mero de ensayo en el que ocurren el segundo) tercero o
cuarto 5$itosQ La distribuci'n que se usa cuando la variable aleatoria = es el n&mero de ensayo en el
que ocurre el rB5simo 5$ito (r 0 +) 2) 1) etc#) es la distribuci'n binomial negativa#
.e dice que una variable aleatoria = tiene una distribuci'n de probabilidad binomial negativa si y
solo si
p(x)=
(
x1
k1
)
p
k
q
xk
% x= k * k +1) k ++)### * k +n donder sonlos !xitos y xel n6mero de prueas
que producen!xitos k'
.u media y varianza son de la orma
E( # )=k / p -ar( # )=
k (1p)
p
+
Distribuci$n de probabilidad )ipergeomtrica: esta busca el n&mero de veces que cae una
observaci'n en una categor%a particular# ,o requiere independencia y se basa en el muestreo sin
reemplazo# 4l ob"eto que se somete a prueba se destruye y por lo tanto no se puede reemplazar la
muestra# .e interesa por la probabilidad de seleccionar $ 5$itos de los ( art%culos considerados 5$itos y
nx racasos) de los ,B( art%culos que se consideran racasos) cuando se selecciona una muestra
aleatoria de tamaFo n de , art%culos#
+( x % N % n% k )=
(
k
x
)(
Nk
nx
)
(
N
n
)
% x=0)1)+)2 * ### * n
.u media y varianza son de la orma
E( # )=
nk
N
-ar( # )=n
(
n
8
)

(
N k
N
)

(
Nn
N1
)
Relaci$n entre )ipergeomtrica y binomial: la relaci'n cuando n es ms pequeFa que ,) se puede
*acer una apro$imaci'n con la binomial#
8 / N=p ( par/metroinomial)
Distribuci$n de Poisson: la distribuci'n de Poisson se utiliza para describir ciertos tipos de procesos)
sucesos u ocurrencias en determinado intervalo de tiempo o espacio# 4ntre sus propiedades)
encontramos:
1# La probabilidad de una ocurrencia es igual en dos intervalos cualesquiera de igual longitud
+# La ocurrencia o no ocurrencia en cualquier intervalo es independiente de la ocurrencia o no
ocurrencia en cualquier otro intervalos
Una variable aleatoria = tiene distribuci'n de Poisson si la unci'n de probabilidad de = est dada
por:
(
x
( x)=
e

x
x !
para x=0)1)+ *### * n
0 de otra (orma
o equivalentemente por:
(
x
( x)=
e

x
x!
I
[ 0) 1) +) ### *n]
( x) ) donde >0 #
.u unci'n de distribuci'n acumulada est dada por:
$
x
( # )= 0 si x<0

x=0
[ x]
e

x
x !
si x0
.u media y varianza est dada por: E( # )== -ar ( # )=
La distribuci'n de Poisson proporciona un modelo adecuado para el estudio de muc*os en'menos
donde intervienen 9conteos:) como el n&mero = de eventos que ocurren en el espacio) tiempo y
volumen) donde representa el valor promedio de = por unidad de rea) tiempo) volumen) etc#
La distribuci'n de Poisson con =np es una apro$imaci'n conveniente de la distribuci'n binomial
de parmetros n y p) cuando n es muy grande y p es pequeFa#
La distribuci'n de Poisson puede ser una razonable apro$imaci'n de la binomial) pero s'lo ba"o ciertas
condiciones# Males condiciones se presentan cuando n es grande y p es pequeFa) esto es) cuando el
n&mero de ensayos es grande y la probabilidad binomial de tener 5$ito es pequeFa# La regla que
utilizan con ms recuencia los estad%sticos es que la distribuci'n de Poisson es una buena
apro$imaci'n de la distribuci'n binomial cuando n es igual o mayor que +0 y p es igual o menos a
0)0/# 4n los casos en que se cumplan estas condiciones) podemos sustituir la media de la distribuci'n
binomial (np) en lugar de la media de la distribuci'n de Poisson () ) de modo que la 'rmula
queda
P( # )=
( np)
x
e
np
x!
eorema de C)ebys)ev: .i = es una variable aleatoria con media inita y varianza
+
)
entonces para cualquier constante positiva k >0
P(# <k )1
1
k
+
o P(# k )
1
k
+
Distribuci$n de probabilidad de una variable aleatoria continua: .i = es cualquier variable
aleatoria) la unci'n de distribuci'n de =) que se denota >($)) se e$presa mediante $ (x)=P( # x)
para <x< #
Propiedades de una funci$n de distribuci$n: si >($) es una unci'n de distribuci'n) entonces
1# $ () lim
x
$ (x)=0
+# $ ()lim
9
$ (x)=1
2# >($) es una unci'n no decreciente de $# .i $
1
y $
+
son valores cualesquiera tales que $
1
R$
+
)
entonces $ (x
1
)$( x
+
)
.ea = una variable aleatoria con unci'n de distribuci'n >($)# .e dice que = es continua si la
unci'n de distribuci'n >($) es continua para <x< #
.i >($) es la unci'n de distribuci'n de una variable aleatoria continua =) entonces ($)) dada por
( (x)=
d$ (x)
dx
=$ , (x)
siempre y cuando e$ista la derivada) se conoce como unci'n de densidad de probabilidad para la
variable aleatoria =# 6s%) >($) se puede e$presar como:
$ (x)=

x
( (t )dt
Propiedades de la funci$n de densidad: si ($) es una unci'n de densidad) entonces
1# ( (x)0 paracualquier valor de x
+#

( (x)dx=1
.i la variable aleatoria = tiene una unci'n de densidad ($) y a ) entonces la probabilidad
de que = est5 en el intervalo Na)bO es
P(ax)=

( ( x)dx
4l valor esperado de una variable aleatoria continua = es
E( # )=

x( (x)dx siempre que existala inte)ral


.i g(=) es una unci'n de =) entonces el valor esperado de g(=) est dado por la e$presi'n
E[ )( # )]=

) ( # ) ( ( x)dx siempre y cuandoexistalainte)ral


La varianza se puede calcular despu5s de *aber determinado 4(=H)) as%:
E( #
+
)=

x
+
( (x)dx
Por tanto*
+
=-ar ( # )=E( #
+
)[ E( # )]
+
Distribuci$n de probabilidad uniforme: .i
1
<
+
) se dice que una variable aleatoria = tiene una
distribuci'n de probabilidad uniorme continua en el intervalo [
1)

+
] si y s'lo si la unci'n de
densidad de = es la siguientes
( (x)=
1

1
*
1
x
+
0) encualquier otro punto
.i
1
<
+
y = es una variable aleatoria distribuida uniormemente en el intervalo (
1)

+
) )
entonces
=E( # )=

1
+
+
+
y
+
=-ar ( # )=
(
+

1
)
+
1+
Prueba:
E( # )=

x ( (x)dx=

+
x
(
1

1
)
dx=
(
1

1
)
x
+
+

+

1
=

+
+

1
+
+(
+

1
)
=

+
+
1
+
E( #
+
)=

+
x
+
(
1

1
)
dx=
(
1

1
)
x
2
2

+

1
=

+
2

+
2
2(
+

1
)
=

+
+
+
1
+
+
+

1
2
-ar ( # )=E( #
+
)[ E( # )]
+
=

+
+
+
1
+
+
+

1
2

(
+
+
1
)
+
1
=
(
+

1
)
+
1+
Distribuciones de probabilidad continuas: ;istribuci'n uniorme de probabilidad: una variable
aleatoria = se distribuye uniormemente en el intervalo Na)bO si la unci'n de densidad de = est dada
por: (
x
( x)=
1
a
I
[ a *]
( x) donde <a<<#
6 (
x
( x) se le llama distribuci'n uniorme continua o rectangular# La unci'n de distribuci'n
acumulada en el caso continuo entre a y b es:
0 si x<a
$
x
( # )=
xa
a
si ax<
1 si x
La distribuci'n uniorme continua es &til cuando una variable aleatoria toma valores que estn
distribuidos igualmente en un intervalo inito! es decir) la probabilidad de que la variable aleatoria tome
un valor particular en cualquier subBintervalo de igual longitud es la misma#
.u media y su varianza) es decir) siendo $ una variable aleatoria distribuida uniormemente en el
intervalo Na)bO entonces:
E( # )=
a+
+
-ar( # )=
(a)
+
1+
Prueba
E( # )=

x
1
a
dx=
x3
+(a)

a
=

+
a
+
+(a)
=
a+
+
E(#
+
)=

x
+ 1
a
dx=
x
2
2(a)

a
=

2
a
2
2(a)
=

+
+a
+
+a
2
-ar( # )=E( #
+
)[ E( # )]
+
=

+
+a
+
+a
2

(a+)
+
1
=
(a)
+
1+
Distribuci$n normal: una variable aleatoria = se distribuye normalmente si su densidad est dada por:
( (x % *
+
)=
1
!+"
e

1
+
(
x

)
+
I
(*)
(x) donde << y >0#
;istribuciones no normales como la binomial o la Poisson tienden a la distribuci'n normal ba"o
ciertas condiciones: la binomial para valores grandes de n y ambos np y nq mayores que / y la
Poisson para valores grandes de #
.i = es una variable aleatoria distribuida normalmente entonces
E( # )= -ar( # )=
+
.i la variable aleatoria = tiene distribuci'n normal con E( # )= y -ar( # )=
+
) se le
denota: N (*
+
) #
Las reas ba"o la curva normal o la unci'n de densidad normal correspondiente a P(a<# <)
requieren el clculo de la siguiente integral deinida:
P(a< # <)=

1
!+"
e

1
+
(
x

)
+
dx
@ediante la transormaci'n :=
x

donde y son la media y la desviaci'n estndar


de =) respectivamente) la anterior probabilidad se puede calcular como:
P(a< # <)=P[
a

<:<

]=#(

)#(
a

) donde #(t )=

t
1
!+"
e

9
+
+
dt
Las transormaci'n S deinida por la 'rmula :=
x

se conoce como estandarizaci'n de =#


6 la variable S se le denomina variable aleatoria normal estndar) y a su unci'n de densidad)
distribuci'n normal estndar#
4sta unci'n de densidad es: #(t )=

t
1
!+ "
e

9
+
+
<9< #
La distribuci'n normal posee ciertas propiedades importantes que conviene destacar:
1# Miene una moda) que coincide con su media y su mediana
+# La curva normal es asint'tica al e"e de las abscisas
2# 4l rea total ba"o la curva es igual a 1
1# 4s sim5trica con respecto a su media
/# La distancia entre la media y los puntos de inle$i'n de la curva es igual a una desviaci'n
estndar
E# 4l rea ba"o la curva comprendida entre los valores situados a una desviaci'n estndar de la
media es igual a 0)EK+E
I# 4l rea ba"o la curva comprendida entre los valores situados a dos desviaciones estndar es de
0)L/11
K# La orma de la distribuci'n depende de los parmetros y # La media indica el centro
de gravedad de la distribuci'n de modo que al variar el valor de ) la grica se desplaza a lo
largo del e"e *orizontal# Por otra parte) la desviaci'n estndar determina el grado de
concentraci'n de la distribuci'n alrededor de la media
,proximaci$n de la binomial por la normal: la distribuci'n binomial B(n * p) se puede
apro$imar mediante una distribuci'n normal con media =np y varianza
+
=npq cuando n
es muy grande y ni p ni q estn muy pr'$imos a 0# La apro$imaci'n es muy buena en la prctica si
np>/ y nq>/ #
;ebemos tener en cuenta que estamos apro$imando a una variable discreta (binomial) mediante
una variable continua (normal)# Por esta raz'n) es necesario realizar una correcci'n llamada correcci'n
por continuidad#
3ecordemos que la probabilidad de que =0( es una binomial se pod%a representar mediante el rea
de una barra centrada en ( con altura igual P(=0() y base de anc*o igual a 1# 4s decir) como el rea de
k0)/ a k +0)/ # La correcci'n por continuidad establece que si = es la variable normal
N ( np* npq) que apro$ima la variable binomial) entonces:
P( # =k)$P( k0)/# k +0)/)
P(a# )$P(a0)/# +0)/)
donde a y b son enteros#
@uestreo y distribuciones muestrales
Poblaci$n: es el con"unto de todos los elementos de inter5s en un estudio#
'uestra: es un subcon"unto de la poblaci'n#
-bjetivo de la inferencia estad.stica: obtener inormaci'n acerca de una poblaci'n) partiendo de la
inormaci'n que contiene una muestra# 6qu%) los resultados de la muestra s'lo dan estimados (o
estimaciones) de los valores de las caracter%sticas de la poblaci'n#
Parmetro: es una caracter%stica num5rica de una poblaci'n#
Estad.stico: es una caracter%stica num5rica de una muestra#
ipos de muestreo:
;uestreo aleatorio o de proailidad: todos los elementos de la poblaci'n tienen la misma
probabilidad de ser escogidos para la muestra#
;uestreo de &uicio: aqu%) se emplea el conocimiento y la opini'n personal para identiicar a los
elementos de la poblaci'n que deben incluirse en una muestra#
La dierencia en ambos tipos de muestreo) es que el primero es ms riguroso que el segundo)
porque la aleatoriedad garantiza que no se someta un error o sesgo a la *ora de seleccionar la muestra)
y que eso termine sesgando al mismo tiempo las estimaciones realizadas#
/nidad de muestreo: se deine como el elemento base que se va a utilizar para realizar la selecci'n de
las unidades de estudio pertenecientes a la muestra#
.%mbolos de algunos parmetros y estimadores (o estad%sticos)
Parmetros en la poblaci'n 4stimadores en la muestra
, 0 tamaFo de la poblaci'n , 0 tamaFo de la muestra
0 media
%
x 0 media
P 0 proporci'n p 0 proporci'n
0 desviaci'n estndar s 0 desviaci'n estndar

+
0 variancia s
+
0 varianza
'uestreo aleatorio simple:
& Para polaciones (initas: una muestra aleatoria simple de tamaFo n) de una poblaci'n inita de
tamaFo ,) es una muestra seleccionada de tal manera que cada muestra posible de tamaFo n
tenga la misma probabilidad de ser seleccionada#
Un procedimiento para identiicar una muestra aleatoria simple a partir de una poblaci'n inita
es seleccionar uno por uno los elementos que constituyen a la muestra) de tal modo que cada
uno de los elementos que a&n quedan en la poblaci'n tengan la misma probabilidad de ser
seleccionados# 6l muestrear n elementos en esa orma) se satisar la deinici'n de una muestra
aleatoria simple de una poblaci'n inita#
Una orma de realizarlo) es enumerar prograsivamente los elementos de la muestra de 1 a n) y
utilizar la tabla de n&meros aleatorios para seleccionar los elementos de la muestra#
& Para polaciones in(initas: una muestra aleatoria simple de una poblaci'n ininita es aquella
que se selecciona en tal orma que se satisacen las siguientes condiciones:
1) cada elemento seleccionado proviene de la misma poblaci'n
+) cada elemento se selecciona en orma independiente
Estimaci$n puntual: para estimar el valor de un parmetro de poblaci'n se calcula una
correspondiente caracter%stica de la muestra) que se denomina estad%stico de la muestra o medida
muestral#
%x=

x
i
n
s=
!

( x
i

%
x)
+
n1
4n la estimaci'n puntual se usan los datos de la muestra para calcular un valor de un estad%stico de
la muestra que sirva como estimado de un parmetro de poblaci'n# ?ontinuando con la terminolog%a de
la estimaci'n puntual) se dice que
%
x es el estimador puntual de la media poblacional ) s es el
estimador puntual de la desviaci'n estndar poblacional) y que
%
p es el estimador puntual de la
proporci'n p poblacional# 6 los valores num5ricos obtenidos para
%
x ) s o
%
p en una determinada
muestra se les llama estimadores puntuales del parmetro#
Distribuciones de muestreo: se trata de la distribuci'n de los valores de un estimador (no parmetro)
que se construye a partir de distintas muestras# 6s%) cada estimador puede tener su propia distribuci'n
muestral# Mautol'gicamente) la distribuci'n de probabilidad de cualquier estad%stico de la muestra se
llama distribuci'n muestral del estad%stico#
Distribuci$n muestral de
%
x : la distribuci'n de probabilidad de todos los valores posibles de la
media de la muestra
%
x se llama distribuci'n muestral de la media de la muestra
%
x # 6s%) la
distribuci'n muestral de
%
x es la distribuci'n de probabilidad de todos los valores posibles de la
media de la muestra
%
x #
"alor esperado de
%
x : sean 4(
%
x ) el valor esperado de
%
x ) y la media de la poblaci'n de
donde se toma la muestra# .e puede demostrar que) para muestreo aleatorio simple) los dos valores son
iguales#
E( %x)=
E(
%
x)=el valor esperado dela variale aleatoria
%
x
=lamedia dela polacin
Desviaci$n estndar de
%
x : la desviaci'n estndar de la distribuci'n muestral de la media es
;esviaci'n estndar para poblaci'n inita ;esviaci'n estndar para poblaci'n ininita

%x
=
!
Nn
N1
(

!n
)

%x
=

!n

%x
=la desviacin est/ndar dela distriucinmuestral de
%
x
=la desviacinest/ndar de la polacin
n=el tama<odela muestra
N=el tama<ode la polacin
!
Nn
N1
=(actor decorreccin para polacin (inita
Una regla general para calcular la desviaci'n estndar de
%
x es:

%x
=

!n
siempre que: 1) la poblaci'n sea ininita) o bien
+) la poblaci'n sea inita y tambi5n el tamaFo de la muestra sea
menor o igual que el /J del tamaFo de la poblaci'n Besto es)
n
N
0#0/ B
4n los casos en que
n
N
>0#0/ se debe usar la 'rmula para poblaciones initas en el clculo de

%x
# ;ebido al papel que desempeFa
%x
en el clculo de los errores posibles) a
%x
se le conoce
como error estndar de la media#
eorema del l.mite central: cuando se desconoce la distribuci'n de la poblaci'n nos basamos en uno
de los teoremas ms importantes de la estad%stica) que es el teorema del l%mite central# Uno de sus
enunciados) aplicado a la distribuci'n muestral de
%
x es el siguiente:
al seleccionar muestras aleatorias simples de tamaFo n de una poblaci'n) la
distribuci'n muestral de la media de la muestra
%
x se puede apro$imar con
una distribuci'n normal de probabilidades) cuando el tamaFo de la muestra es
grande#
La prctica general de la estad%stica es suponer que para la mayor%a de las aplicaciones) la
distribuci'n muestral de
%
x se puede apro$imar mediante una distribuci'n normal de probabilidades
siempre que el tamaFo de la muestra sea de 20 o ms# 4n eecto) se supone que este tamaFo) de 20 o
ms satisace la condici'n de muestra grande del teorema del l%mite central# .iempre que la poblaci'n
tiene una distribuci'n normal de probabilidades) la distribuci'n muestral de
%
x es distribuci'n normal
de probabilidades para cualquier tamaFo de la muestra# ?uando la muestra aleatoria simple es pequeFa
(nR 20)) s'lo se puede considerar que la distribuci'n muestral de
%
x es normal si se supone que la
poblaci'n tiene una distribuci'n normal de probabilidades#
"alor prctico de la distribuci$n muestral de
%
x : siempre que se selecciona una muestra aleatoria
sencilla y se calcula el valor de la media
%
x de la muestra para estimar ) la media de la
poblaci'n) no podemos esperar que la media de la muestra sea e$actamente igual a la media de la
poblaci'n# 4l valor absoluto de la dierencia entre la media de la muestra
%
x y la media de la
poblaci'n es
%
x y se llama error muestral#
Un detalle a tomar en cuenta respecto al error estndar de la media
%x
=

!n
es que siempre que
aumenta el tamaFo de la muestra) disminuye el error estndar de la media (
%x
)) por lo que se
obtendr una mayor probabilidad de que la media de la muestra quede dentro de l%mites especiicados
respecto a la media de la poblaci'n#
Distribuci$n muestral de
%
p : la distribuci'n muestral de
%
p es la distribuci'n de probabilidades
de todos los valores posibles de la proporci'n muestral
%
p # Para determinar lo cercano que est la
proporci'n muestral
%
p de la proporci'n poblacional p) necesitamos comprender las propiedades de
la distribuci'n muestral de
%
p : su valor esperado) su desviaci'n estndar y la orma de su
distribuci'n#
"alor esperado de
%
p :
E(%p)=p
E(
%
p)=el valor esperadodela variale aleatoria
%
p
p=la proporcin polacional
Desviaci$n estndar de
%
p : la desviaci'n estndar de
%
p se llama error estndar de la proporci'n#
Tgual que en el caso de la media de muestra
%
x ) la desviaci'n estndar de
%
p depende de si la
poblaci'n es inita o ininita#
;esviaci'n estndar
%
p
Poblaci'n inita Poblaci'n ininita

%p
=
!
Nn
N 1 !
p( 1p)
n

%p
=
!
p(1p)
n
La dierencia entre las ecuaciones para poblaci'n inita e ininita se *ace despreciable si el tamaFo
de la poblaci'n inita es grande en comparaci'n con el tamaFo de la muestra# .eguiremos la misma
regla general que recomendamos para la media de muestra# 4sto es) si la poblaci'n es inita y
n
N
0#0/ ) usaremos
%p
=
!
p(1p)
n
# .in embargo) si la poblaci'n es inita y si
n
N
>0#0/ ) se
debe usar el actor de correcci'n para poblaci'n inita) como se indic'#
#orma de la distribuci$n muestral de
%
p : la distribuci'n muestral de
%
p se puede apro$imar con
una distribuci'n normal de probabilidades) siempre que el tamaFo de muestra sea grande# 4n el caso de
%
p ) se puede considerar que el tamaFo de muestra es grande cuando se cumplen las dos condiciones
siguientes:
1# np/
+# n(1p)/
"alor prctico de la distribuci$n muestral de
%
p : siempre que se selecciona una muestra aleatoria
simple y que el valor de la proporci'n de la muestra
%
p se usa para estimar el valor de la proporci'n
poblacional p) podemos predecir que *ay cierto error de muestreo# 4n este caso) el error de muestreo es
el valor absoluto de la dierencia entre el de la proporci'n muestral de
%
p y el de la proporci'n
poblacional de p# 4l valor prctico de la distribuci'n muestral de
%
p es que se puede usar para
proporcionar inormaci'n probabil%stica acerca del error de muestreo#
Propiedades de los estimadores puntuales: en vista de que se pueden emplear diversos estad%sticos de
muestra como estimadores puntuales de distintos parmetros poblacionales) usaremos la siguiente
notaci'n general en esta secci'n#
=el par/metro polacional deinter!s
'
=el estad7stico de muestraoestimador puntual de
La notaci'n U es la letra griega t*eta) y la notaci'n
'
se llama 9t*eta con sombrero:# 4n
general) U representa cualquier parmetro de poblaci'n) como la media poblacional) desviaci'n
estndar poblacional) proporci'n poblacional) etc#!
'
el estad%stico de muestra correspondiente)
como la media de muestra) la desviaci'n estndar de muestra y la proporci'n muestral#
6lgunas caracter%sticas de los estimadores son:
Inses)o: si el valor esperado del estad%stico de muestra es igual al parmetro poblacional que se
estima) se dice que ese estad%stico es un estimador insesgado del parmetro poblacional#
E(
'
)=
Por consiguiente) el valor esperado o media) de todos los valores posibles de un estad%stico de
muestra insesgado es igual al parmetro de poblaci'n que se estima#
E(iciencia: un estimador puntual es consistente si sus valores tienden a acercarse al parmetro
de poblaci'n conorme se incrementa el tamaFo de la muestra#
-tros mtodos de muestreo0
;uestreo aleatorio estrati(icado: primero se divide a la poblaci'n en grupos de elementos
llamados estratos) de tal manera que cada elemento en la poblaci'n pertenece a uno y s'lo a un
estrato# La base de ormaci'n de los estratos queda a discreci'n de quien diseFa la muestra) sin
embargo) los me"ores resultados se obtienen cuando los elementos dentro de cada estrato son
tan seme"antes como sea posible# ;espu5s de ormar estratos se toma una muestra aleatoria
simple de cada uno#
;uestreo por con)lomerados: se divide primero a la poblaci'n en con"untos separados de
elementos llamados conglomerados# ?ada elemento de la poblaci'n pertenece a uno y s'lo a un
grupo# 6 continuaci'n se toma una muestra aleatoria simple de los conglomerados# Modos los
elementos dentro de cada conglomerado muestreado orman la muestra# 4l muestreo de
conglomerados tiende a proporcionar los me"ores resultados cuando los elementos de los
conglomerados son *eterog5neos (desiguales)# 4n el caso ideal) cada conglomerado es una
versi'n representativa) en pequeFa escala) de toda la poblaci'n#
;uestreo sistem/tico: este se realiza identiicando con una tabla de n&meros al azar uno de los
tantos elementos enumerados previamente# Luego) se encuentra el actor de espaciamiento y de
nuevo se selecciona un n&mero que se encuentre entre 1 y el actor de espaciamiento) y as% se
empieza a contar elementos utilizando dic*o actor#
-tros datos importantes:
"eorema del l7mite central: si una poblaci'n cualquiera (continua o discreta) tiene media y
varianza inita
+
) la media muestral
%
x tendr una distribuci'n que se apro$ima a la
normal con media y varianza
+
/ n al aumentar n) tamaFo de la muestra#
Error est/ndar del promedio: la desviaci'n estndar de
%
x ) es decir) / !n ) se denomina
error estndar del promedio y se indica con
%x
# @ide la variabilidad de
%
x muestral) y
puede emplearse para medir la conianza que merece
%
x como estimador de #
Lmites de confianza de : se sabe por la teor%a estad%stica) que en una curva normal
estndar) el L/J central del rea ba"o la curva est entre B1#LE y V1#LE! por lo tanto) en la
distribuci'n de
%
x ) el L/J de los valores se encontrarn entre 1#LE
%x
y +1#LE
%x
#
La probabilidad de que
%
x asuma un valor en el intervalo 1#LE
%x
es 0)L/# 4sto puede
e$presarse simb'licamente en la siguiente orma:
P[1#LE
%x

%
x+1#LE
%x
]=0)L/
;e la e$presi'n anterior puede derivarse una 'rmula para el clculo de un intervalo de
conianza de L/J para #
1# .e tiene:
P[1#LE
%x

%
x+1#LE
%x
]=0)L/
+# 3estando :
P[1#LE
%x

%
x+1#LE
%x
]=0)L/
2# 3estando
%
x :
P[
%
x1#LE
%x

%
x+1#LE
%x
]=0)L/
1# @ultiplicando por B1 la desigualdad:
P[
%
x+1#LE
%x

%
x1#LE
%x
]=0)L/
/# O sea:
P[
%
x1#0E
%x

%
x+1#LE
%x
]=0)L/
#$rmula general para el clculo de los l.mites de confian&a:
L
i
=
%
x9
t

!n
L
1
=
%
x9
t

!n
L
+
=%x+9
t

!n
P[ L
1
L
+
]
donde:
1 : representa el grado de conianza que se tiene de que el intervalo contiene el valor
de la poblaci'n) y
9
t
: es un valor de z en la normal estndar) tal que entre 9
t
y 9
t
queda
comprendida (1)( del rea ba"o la curva
Para calcular 9
t
) se determina / + )
luego 1/ + ) y inalmente se obtiene el
valor de 9
t
consultando la tabla
acumulada de la normal estndar y
buscando el valor de z para el cual se
encuentra acumulada un (1/ +)( del
rea ba"o la curva#
#$rmula general para el clculo de una muestra0 n=
[
9
t

d
]
+
donde:
0 desviaci'n estndar de la poblaci'n
d=
%
x 0 discrepancia previsible o error m$imo de estimaci'n permitido
9
t
0 valor de z) normal estndar) para un nivel de conianza de (1)( #
ama1o de la muestra en poblaciones finitas: la 'rmula para el tamaFo de la muestra que se us'
anteriormente) se aplica a poblaciones ininitas o a poblaciones initas cuando se traba"a con reemplazo
o cuando n representa una racci'n despreciable de ,) es decir) siempre que el actor de correcci'n para
poblaciones initas
Nn
N1
sea cercano a uno# 6s%:
d=9
t

!n
d=9
t
!
Nn
N 1

!n
;espe"ando:
n=
(
9
t

d
)
+
1+
1
N
[(
9
t

d
)
+
1
]
.i n
0
=
(
9
t

d
)
+)
entonces : n=
n
0
1+
n
0
1
N
* y se puede reempla9ar por n=
n
0
1+
n
0
N
#actores determinantes del tama1o de la muestra: como acaba de verse) la 'rmula general para el
tamaFo de la muestra en muestreo simple al azar es:
n=
(
9
t

)
+
1+
1
N
(
9
t

d
)
+
4sta 'rmula revela que el tamaFo de la muestra depende de la variabilidad de la poblaci'n) de la
precisi'n deseada en las estimaciones) de la conianza que se desea tener y del tamaFo de la
poblaci'n#La importancia de estos actores no es igual en todos los casos# 4n primer lugar) se tiene que
cuando la poblaci'n es ininita o cuando la poblaci'n es grande y el cociente nG, simpliica y adopta la
e$presi'n muy conocida:
n
0
=
(
9
t

d
)
+
) la cual no depende de ,#
Una conclusi'n interesante es) por lo tanto) que al contrario de lo que generalmente se cree) el tamaFo
de la poblaci'n s'lo tiene importancia cuando la poblaci'n es pequeFa o cuando la muestra que se va a
obtener representa una proporci'n elevada de poblaci'n) o sea) cuando el actor de correcci'n
Nn
N1
es signiicativamente inerior a 1#
?abe seFalar) inalmente) que un actor muy importante en la i"aci'n del tamaFo de la muestra es el
costo# 4ste no aparece en la 'rmula antes mencionada) porque se trata de un elemento no estad%stico!
sin embargo) "uega un papel undamental y) en muc*os casos) es el actor que decide el tamaFo de la
muestra que se va a usar#
4n resumen) los actores determinantes del tamaFo de la muestra son:
a) <ariabilidad de poblaci'n (
+
)
b) 3ecursos econ'mico disponibles (costo)
c) Precisi'n deseada (d)
d) ?onianza que se quiere tener ( 1 )
e) MamaFo de la poblaci'n (,)
Estimaci$n en caso de proporciones: para esto) en primer t5rmino) una proporci'n es) en realidad) la
media de una variable W0)1X) o sea) de una variable #
i
que s'lo puede asumir esos dos valores#
La media de la variable #
i
ser%a:
=
#
N
=

#
i
N
=
N
1
N
=P
Puede apreciarse que la media de #
i
es igual a P# O sea) que cuando #
i
es una variable W0)1X) su
media equivale a la proporci'n de 1Ys (unos)) es decir) a la proporci'n de elementos que tienen la
caracter%stica de inter5s# ;e igual orma) si se tiene una muestra de n elementos) e interesa una variable
W0)1X) la media de la variable es igual a p:
%
x=
x
n
=

i=1
n
x
i
n
=
n
1
n
=p
.i una p es realmente un promedio) los principios de inerencia vistos para la media muestral
%
x le
son aplicables! la &nica duda que queda por aclarar es respecto a la distribuci'n probabil%stica de la
media muestral p) la cualrequerimos para poder evaluar la conianza de las inerencias#
Por la teor%a estad%stica sabemos que) cuando n es moderadamente grande y el valor de P no es muy
pequeFo) la distribuci'n del valor muestral p es bien apro$imada por una distribuci'n normal con
@edia P y <arianza
+
=P(1P)/ n # 4sta propiedad de p nos permite usar la curva normal) que ya
conocemos) para realizar inerencias acerca de la proporci'n poblacional P#
2ntervalo de confian&a para P:
1=0)L0
9
/+
=1#E1/
n=2/0
p=
+10
2/0
=0)E0
L
i
=p9
t
!
p(1p)/ n
L
i
=0)E01#E1/!(0)E0)0)10)/ 2/0
L
i
=0)E00)012
P[ 0)/EP0)E1]=0)L0
ama1o de la muestra para estimar P:
n=
(
9
t

d
)
+
=
(
9
t
!P)=
d
)
+
?uando se desconoce el valor de P) se utiliza P00)/ que *ace m$ima y) por lo tanto) produce el
valor m$imo de n requerido para cumplir las condiciones especiicadas para la muestra#
1=0)L/
9
/ +
=1#LE
d=0)0/
N=/000
n
0
=
(
1#LE)!0)/)0)/
0)0/
)
+
=(1L)E)
+
=2K1)1E*2K1
n=
n
0
1+
n
0
N
=
2K1
1+
2K1
/000
*2/I
Error estndar de p: la proporci'n P de la poblaci'n se estima por el valor muestral p=x / n )
donde n es el tamaFo de la muestra y x=

x
i
representa el n&mero de elementos en la muestra que
tienen la caracter%stica que interesa#

p
+
=
Nn
N 1
)
P(1P)
n
=
N n
N1
)
P)=
n
.i la poblaci'n es ininita o si el cociente n/ N es pequeFo) el actor de correcci'n
Nn
N1
es
cercano a 1 y puede despreciarse) y se obtiene:

p
+
=
p(1p)
n
=
p)q
n
q=(1p)
de lo que se concluye que el error estndar de una proporci'n p) basada en una muestra de tamaFo n) es

p
=
!
p)q
n
Estimaci$n puntual:
%
x=

x
n
s
+
=

x
+

[ (
x)
+
/ n
]
n1
p=
x
n
Estimaci$n por intervalos a partir de muestras pe3ue1as: cuando se investiga por muestreo una
poblaci'n) en la mayor%a de los casos se desconoce la desviaci'n estndar ) por lo que se *ace una
estimaci'n puntual con la desviaci'n estndar de la muestra s para eectos de calcular el error estndar
del estimador# 4sto puede realizarse porque s es un estimador de ) que re&ne los requisitos de
insesgado) de varianza m%nima) consistencia y suiciencia#
Una caracter%stica de
%
x es que su distribuci'n muestral es normal o apro$imadamente normal)
cuando n>20 y la desviaci'n estndar de la poblaci'n es conocida# .i es desconocida y se
estima con s) entonces
%
x tiene una distribuci'n t de .tudent para cualquier tamaFo de muestra#
Para tamaFos de muestra superiores a 20 la distribuci'n t de .tudent tiende a ser seme"ante a la normal
conorme n aumenta y por tanto es vlido asumir) para todos los eectos prcticos) que cuando
n>20 se puede utilizar la distribuci'n normal para estimar las probabilidades de la distribuci'n de la
media muestral se conozca o no la desviaci'n estndar de la poblaci'n#
?uando se van a utilizar los valores de t) se deben conocer dos aspectos: el nivel de conianza que se
est utilizando y los grados de libertad# Los grados de libertad se relacionan con la 'rmula con que se
calcula la desviaci'n estndar en la muestra:
s=
!

(x
%
x)
+
n1
donde:
s 0 desviaci'n estndar muestral
n1 0 grados de libertad
L.mites de confian&a con muestras pe3ue1as: en muestras pequeFas ( n<20 ) s'lo es posible
utilizar la t de .tudent en la estimaci'n por intervalos de la media# Para la estimaci'n por intervalos de
la proporci'n *abr que traba"ar directamente con la distribuci'n binomial#
L7mites de con(ian9a para la media con muestras peque<as
L=
%
xt
/ +
s
%x
La distribuci'n de t de .tudent te'ricamente s'lo es apropiada cuando la poblaci'n) de donde se
obtiene la muestra) tiene una distribuci'n normal# ?uando n>20 ) la necesidad de que la
poblaci'n sea normal disminuye! pero cuando n20 ) la necesidad de normalidad de la
poblaci'n aumenta conorme n disminuye#
;einiciones y 'rmulas
Espacio de acciones o espacio de decisiones: el con"unto de todas las acciones posibles que pueden
tomarse en un problema de estimaci'n se llama espacio de acciones o espacio de decisiones#
Estad.stico insesgado: se dice que un estad%stico
'
es un estimador insesgado del parmetro si
'

=E(
'
)=
Prueba: >
+
como estimador insesgado del parmetro
+

i =1
n
( #
i

%
# )
+
=

i=1
n
[( #
i
)(
%
# )]
+

i=1
n
( #
i

%
# )
+
=

i =1
n
( #
i
)
+
+(
%
# )

i=1
n
( #
i
)+n(
%
# )
+

i=1
n
( #
i

%
# )
+
=

i=1
n
( #
i
)
+
n(%x)
+
6*ora bien)
E( >
+
)=E
[

i=1
n
( #
i

%
# )
+
n1
]
E(>
+
)=
1
n1
[

i =1
n
E( #
i
)
+
n E(
%
x)
+
]
E(>
+
)=
1
n1
(

i =1
n

x
i
+
n
%x
+
)
.in embargo)

x
i
+
=
+
para i=1) +) 2) ### * n
y

%x
+
=

+
n
Por consiguiente)
E(>
+
)=
1
n1
(
n
+
n

+
n
)
=
+
Estimador eficiente: si se consideran todos los posibles estimadores insesgados de un parmetro )
el que tenga la variaci'n ms pequeFa se llama estimador ms eiciente de #
Estimaci$n por intervalo: es un intervalo de la orma
'

L
<<
'

U
) donde
'

L
y
'

U
dependen del
valor del estad%stico
'
para una muestra en particular y tambi5n de la distribuci'n muestral de
'
#
.i se *alla
'

L
y
'

U
tal que
P
(
'

L
<<
'

U )
=1
para 0<<1 ) entonces se tiene una probabilidad igual a 1 ) de seleccionar una muestra
aleatoria que producir un intervalo que contenga a # 4l intervalo
'

L
<<
'

U
) calculado a partir
de la muestra seleccionada) se llama entonces intervalo de conianza de (1)100( ) la racci'n
1 se denomina coeiciente de conianza o grado de conianza) y los e$tremos
'

L
y
'

U
reciben el nombre de l%mites de conianza superior e inerior#
2ntervalo de confian&a para 4 con conocida: si
%
x es la media de una muestra aleatoria
de tamaFo n de una poblaci'n con varianza conocida
+
) un intervalo de conianza de
(1)100( para est dado por
%
x9
/+

!n
<<
%
x+9
/+

!n
*
donde 9
/ +
es el valor z que delimita un rea de / + a su derec*a# 4s evidente que los valores de
las variables aleatorias
'

L
y
'

U
) deinidas en la 'rmula P
(
'

L
<<
'

U )
=1 ) son los l%mites
de conianza
'

L
=%x9
/ +

!n
y
'

U
=%x+ 9
/ +

!n
"eorema 0: si se utiliza
%
x como estimaci'n de ) podemos tener una conianza de
(1)100( de que el error no e$ceder 9
/ +

!n
"eorema ?: si se usa
%
x como estimaci'n de ) podemos tener (1)100( de
conianza de que el error no e$ceder una cantidad espec%ica e=
%
x cuando el tamaFo de
la muestra sea
n=
(
9
/ +

e
)
+
4sta 'rmula se aplica solo si conocemos la varianza de la poblaci'n de la cual seleccionamos
nuestra muestra# 6 alta de inormaci'n) podr%amos tomar una muestra preliminar de tamaFo
n20 que proporcione una estimaci'n de # ;espu5s) usando s como apro$imaci'n para
podemos determinar apro$imadamente cuntas observaciones se necesitan para brindar el
grado de precisi'n que se desea#
L.mites de confian&a unilaterales: se desarrollan de la misma orma que los intervalos bilaterales# .in
embargo) la uente es un enunciado de probabilidad unilateral que utiliza el teorema del l%mite central
P
(
% #
/ !n
<9

)
=1
4ntonces) es posible manipular el enunciado de probabilidad de orma muy a como se *izo
anteriormente) para obtener
P(>%x9

/ !n)=1
Una manipulaci'n similar de P
(
% #
/ !n
>9

)
=1 da P(<%x+9

/ !n)=1 #
?omo resultado) se obtienen los siguientes l%mites unilaterales superior e inerior#
L%mites de
conianza
unilaterales en !
desconocida
.i bar $ es la media de una muestra aleatoria de tamaFo n a partir de una
poblaci'n con varianza
+
) los l%mites de conianza unilaterales de
(1)100( para estn dados por
l%mite unilateral superior:
%x+9

/ !n
l%mite unilateral inerior: %x9

/ !n
El caso de desconocido: con recuencia intentamos estimar la media de una poblaci'n cuando se
desconoce la varianza# .i tenemos una muestra aleatoria a partir de una distribuci'n normal) entonces
la variable aleatoria
"=
%
x
s / !n
tiene una distribuci'n t de .tudent con n1 grados de libertad# 6qu% s es la desviaci'n estndar de
la muestra# 4n esta situaci'n en que se desconoce se puede utilizar M para construir un intervalo
de conianza de # 4l procedimiento es el mismo que cuando se conoce e$cepto en que
se reemplaza con s y la distribuci'n normal estndar se reemplaza con la distribuci'n t# Podemos
asegurar que
P(t
/ +
<" <t
/ +
)=1*
donde t
/+
es el valor t con nB1 grados de libertad) arriba del cual encontramos un rea de / + #
;ebido a la simetr%a) un rea igual de / + caer a la izquierda de t
/ +
# Z sustituyendo por M)
escribimos
P
(
t
/ +
<
%
x
s/ !n
<t
/ +
)
=1
6l multiplicar cada t5rmino en la desigualdad por s/!n ) y despu5s restar
%
x de cada t5rmino y
multiplicar por B1) obtenemos
P( %
xt
/ +
s/ !n<<
%
x+t
/ +
s/ !n)=1
Para nuestra muestra aleatoria particular de tamaFo n) se calculan la media
%
x y la desviaci'n
estndar s y se obtiene el siguiente intervalo de conianza de (1)100( para #
Tntervalo de
conianza de
! con
desconocida
.i bar $ y s son la media y la desviaci'n estndar de una muestra aleatoria de una
poblaci'n con varianza
+
desconocida) un intervalo de conianza de
(1)100( para es
%xt
/ +
s/ !n<<%x+t
/+
s/ !n
donde t
/+
es el valor t con v=n1 grados de libertad que de"a un rea de
/ + a la derec*a#
Los l%mites de conianza unilaterales calculados para con desconocida son como el lector
esperar%a) a saber:
%xt
/ +
s/ !n y %x+t
/ +
s/ !n
.on) respectivamente los l%mites superior e inerior de (1)100( # 6qu% t

es el valor de t que
tiene un rea a la derec*a#
Concepto de intervalo de confian&a de una muestra grande: con muc*a recuencia los estad%sticos
recomiendan que aun cuando no se pueda suponer la normalidad) con desconocida y n20 ) s
puede reemplazar a y utilizar el intervalo de conianza
%x9
/ +
s/ !n
Por lo general) 5ste se denomina como intervalo de conianza de muestra grande# La "ustiicaci'n yace
s'lo en la presunci'n de que con una muestra tan grande como 20 y la distribuci'n de la poblaci'n no
sesgada) s estar muy cerca de la real y) de esta manera) el teorema del l%mite central contin&a
siendo vlido# .e deber%a destacar que esto es s'lo una apro$imaci'n y que la calidad de este enoque
me"ora conorme el tamaFo de la muestra crece ms#
Error estndar de una estimaci$n puntual: *acemos una dierencia bastante clara entre los ob"etivos
de las estimaciones puntuales y las estimaciones del intervalo de conianza# Las primeras proporcionan
un s'lo n&mero que se e$trae de un con"unto de datos e$perimentales) y las &ltimas brindan un
intervalo) dados los datos e$perimentales) que sea razonable para el parmetro! es decir)
(1)100( de tales intervalos que se calculan 9cubren: el parmetro# La varianza de
%
x es

%x
+
=
+
/ n
;e esta orma) la desviaci'n estndar de
%
x o error estndar de
%
x es / !n # ;e esta manera
simple) el error estndar de un estimador es su desviaci'n estndar# Para el caso de
%
x ) el l%mite de
conianza que se calcula
%x9
/ +
/ !n * se escrie como %x9
/ +
e'e'(%x)
donde 9e#e#: es el error estndar# 4l punto importante a considerar es que el anc*o del intervalo de
conianza de depende de la calidad del estimador puntual a trav5s de su error estndar# 4n el caso
donde se desconoce y el muestreo es sobre una distribuci'n normal) s reemplaza a y se
incluye el error estndar estimado s/!n # ;e esta orma) los l%mites de conianza de son
L%mites de conianza
de para
desconocida
%xt
/ +
s/ !n=%xt
/ +
e'e' (%x)
2ntervalo de predicci$n: para una distribuci'n normal de mediciones con media desconocida y
varianza conocida
+
) un intervalo de predicci'n de (1)100( de una observaci'n utura
x
0
es
Tntervalo de predicci'n
para una observaci'n
utura: conocida
%x9
/+
!1+1/ n<x
0
<%x+9
/ +
!1+1/ n
donde 9
/ +
es el valor z que de"a un rea de / + a la derec*a
Tntervalo de predicci'n
de una observaci'n
utura:
desconocida
%xt
/ +
s !1+1/ n<x
0
<%x+t
/ +
s !1+1/ n donde t
/+
es el valor t con
v=n1 grados de libertad) que de"ar un rea de / + a la derec*a
/so de l.mites de predicci$n para detectar valores extremos: para nuestros prop'sitos es
conveniente observar un valor e$tremo como aquel en que la observaci'n proviene de una poblaci'n
con una media que es dierente de la que determina el resto de la muestra de tamaFo n que se estudia#
4l intervalo de predicci'n produce un l%mite que 9cubre: una sola observaci'n utura con probabilidad
1 ) si viene de la poblaci'n a partir de la cual se tom' la muestra# 4ntonces) una metodolog%a
para la detecci'n de valores e$tremos implica la regla de que una observaci'n es un valor e$tremo si
cae uera del intervalo de predicci'n calculado sin incluir la observaci'n cuestionable en la muestra#
L.mites de tolerancia: para una distribuci'n normal de mediciones con media y desviaci'n
estndar ) ambas desconocidas) los l%mites de tolerancia estn dados por bar xks ) donde ( se
determina de manera que se pueda asegurar con una conianza de (1)100( que los l%mites
dados contienen al menos la proporci'n 1 de las mediciones#
2ntervalo de confian&a para
1

+
4 con
1
+
y
+
+
conocidas: si
%
x
1
y
%
x
+
son las medias
de muestras aleatorias independientes de tamaFo n
1
y n
+
de poblaciones con varianzas conocidas

1
+
y
+
+
) respectivamente) un intervalo de conianza de (1)100( para
1

+
est dado
por
Tntervalo de conianza
para
1

+
) con

1
+
y
+
+
(
%
x
1
@
%
x
+
)9
/+
!

1
+
n
1
+

+
+
n
+
<
1

+
<(
%
x
1
+
%
x
+
)+9
/ +
!

1
+
n
1
+

+
+
n
+
donde 9
/ +
es el valor z que de"a un rea de / + a la derec*a#
4l grado de conianza es e$acto cuando las muestras se seleccionan de poblaciones normales# Para
poblaciones no normales) el teorema del l%mite central permite una buena apro$imaci'n para muestras
de tamaFos razonables#
/nidad experimental: es la parte del e$perimento que produce el error e$perimental y que es
responsable de la varianza de la poblaci'n que denominamos
+
#
"arian&as desconocidas: considere el caso donde se desconocen
1
+
y
+
+
# .i
1
+
=
+
+
=
+
)
obtenemos una variable normal estndar de la orma
9=
( % x
1
% x
+
)(
1

+
)
!

+
[(1/ n
1
)+(1/ n
+
)]
;e acuerdo con el teorema
+
+
=
( n1) s
+

i =1
n
( x
i
%x)
+

* con v=n1 )rados deliertad


las dos variables aleatorias
(n
1
1) s
+

+
y
(n
+
1)s
+

+
tienen distribuciones c*i cuadrada con n
1
+n
+
+ grados de libertad respectivamente# 6dems son
variables c*i cuadradas independientes) ya que las muestras aleatorias se seleccionan de orma
independiente# 4n consecuencia) su suma
-=
(n
1
1) s
1
+

+
+
(n
+
1) s
+
+

+
=
(n
1
1)s
1
+
+(n
+
1) s
+
+

+
con distribuci'n c*i cuadrada de v=n
1
+n
+
+ grados de libertad# ?omo se puede mostrar de las
e$presiones anteriores para z y v son independientes) se sigue que el estad%stico
"=
( % x
1
% x
+
)(
1

+
)
!

+
[
(1/ n
1
)+(1/ n
+
)
]
,
!
(n
1
1) s
1
+
+(n
+
1) s
+
+

+
(n
1
+n
+
+)
tiene la distribuci'n t con v
1
=n
1
+n
+
+ grados de libertad# .e puede obtener una estimaci'n puntual
de la varianza com&n desconocida
+
al reunir las varianzas muestrales# ;enotamos al estimador de
uni'n con >
P
+
y escribimos entonces
4stimador de uni'n
de la varianza
>
P
+
=
(n
1
1)>
1
+
+(n
+
1)>
+
+
n
1
+n
+
+
6l sustituir >
P
+
en el estad%stico M) obtenemos la orma menos inc'moda:
"=
( % x
1
% x
+
)(
1

+
)
>
P
!
(1/ n
1
)+(1/ n
+
)
Usando el estad%stico M) tenemos
P(t
/ +
<" <t
/ +
)=1
donde t
/+
es el valor t con n
1
+n
+
+ grados de libertad) por arriba del cual encontramos un rea
de / + # 6l sustituir para M en la desigualdad) escribimos
P
[
t
/ +
<
(
%
x
1

%
x
+
)(
1

+
)
>
P
!
(1/ n
1
)+(1/ n
+
)
<t
/+
]
=1
Tntervalo de
conianza
para
1

+
!
con
1
+
=
+
+
pero
desconocidos
.i
%
x
1
y
%
x
+
son las medias de muestras aleatorias independientes con tamaFos
n
1
y n
+
) respectivamente) de poblaciones apro$imadamente normales con
varianzas iguales pero desconocidas) un intervalo de conianza de (1)100(
para
1

+
est dado por
(
%
x
1

%
x
+
)t
/ +
>
P
!
1
n
1
+
1
n
+
<
1

+
<(
%
x
1

%
x
+
)+t
/ +
>
P
!
1
n
1
+
1
n
+
donde >
P
es la estimaci'n de uni'n de la desviaci'n estndar poblacional y
t
/+
es el valor t con v=n
1
+n
+
+ grados de libertad) que de"a un rea de
/ + a la derec*a#
4l procedimiento para construir intervalos de conianza para
1

+
con
1
=
+
= desconocidas
requiere la suposici'n de que las poblaciones son normales# ;esviaciones ligeras de la suposici'n de
varianzas iguales o de normalidad no alteran seriamente el grado de conianza de nuestro intervalo# .i
las varianzas poblacionales son considerablemente dierentes) a&n obtenemos resultados razonables
cuando las poblaciones son normales) dado que n
1
=n
+
# Por lo tanto) en un e$perimento planteado se
deber%a *acer un esuerzo para igualar el tamaFo de las muestras#
Tntervalo de
conianza para

+
!

1
+

+
+
y
desconocidas
.i
%
x
1
y >
1
+
y
%
x
+
y >
+
+
son las medias y las varianzas de muestras
aleatorias independientes de tamaFos n
1
y n
+
) respectivamente) de poblaciones
apro$imadamente normales con varianzas desconocidas y dierentes) un intervalo de
conianza apro$imado del (1)100( para
1

+
est dado por
(
%
x
1

%
x
+
)t
/ +
!
>
1
+
n
1
+
>
+
+
n
+
<
1

+
<(
%
x
1

%
x
+
)+t
/+
!
>
1
+
n
1
+
>
+
+
n
+
donde t
/+
es el valor t con
v=
(>
1
+
/ n
1
+>
+
+
/ n
+
)
[(>
1
+
/ n
1
)
+
/ (n
1
1)]+[(>
+
+
/ n
+
)
+
/(n
+
1)]
grados de libertad) que de"a un rea / + a la derec*a#
Tntervalo de
conianza para

4
=
1

+
!
para
observaciones
pareadas
.i
%
d y >
d
son la media y la desviaci'n estndar) respectivamente) de las
dierencias distribuidas normalmente de n pares aleatorios de mediciones) un intervalo
de conianza de (1)100( para
4
=
1

+
es
%
dt
/ +
>
d
/ !n<
4
<
%
d+t
/ +
>
d
/ !n
donde t
/+
es el valor t con v=n1 grados de libertad que de"' un rea de
/ + a la derec*a#
/na sola muestra *estimaci$n de una proporci$n+: un estimador puntual de la proporci'n P en un
e$perimento binomial est dado por el estad%stico P=x/ n ) donde = representa el n&mero de 5$itos
en n pruebas# Por lo tanto) la proporci'n de la muestra ' p=x / n se utilizar como el estimador
puntual del parmetro P#
.i no se espera que la proporci'n P desconocida est5 demasiado cerca de cero o de 1) podemos
establecer un intervalo de conianza para P al considerar la distribuci'n muestral de
'
P # 6l designar
un racaso en cada prueba binomial con el valor 0 y un 5$ito con el valor 1) el n&mero de 5$itos) $) se
puede interpretar como la suma de n valores que consisten s'lo de ceros y unos) y ' p es s'lo la media
muestral de estos n valores# ;e aqu%) por el teorema del l%mite central) para n suicientemente grande)
'
P est distribuida de orma apro$imadamente normal con media
'
P
=E(
'
P)=E( x/ n)=np/ n=p
y varianza

'
P
+
=
x /n
+
=

x
+
n
+
=
npq
n
+
=
pq
n
Por lo tanto) podemos asegurar que
P(9
/ +
<: <9
/ +
)=1
donde
:=
'
Pp
! pq/ n
)
y 9
/ +
es el valor de la curva normal estndar sobre la cual encontramos un rea de / + # 6l
sustituir para S) escribimos
P
(
9
/ +
<
'
Pp
! pq/ n
<9
/ +
)
=1
Tntervalo de
conianza de
p de una
muestra
grande
.i 'p es la proporci'n de 5$itos en una muestra aleatoria de tamaFo n) y ' q=1'p )
un intervalo de conianza apro$imado de (1)100( para el parmetro binomial p
est5 dado por 'p9
/+
!
'p ' q
n
< p< 'p+9
/ +
!
'p ' q
n
donde 9
/ +
es el valor z que de"a un
rea de / + a la derec*a
?uando n es pequeFa y la proporci'n desconocida p se considera cercana a 0 o a 1) el procedimiento
del intervalo de conianza que se establece aqu% no es coniable y) por lo tanto) no se deber%a emplear#
Para estar seguro) se requiere que tanto n'p como n' q sean mayores que o iguales a ># 4n caso
contrario) se apro$ima la distribuci'n binomial por la *ipergeom5trica#
"eorema A: .i ' p se utiliza como una estimaci'n de p) podemos tener una conianza de
(1)100( de que el error no e$ceder 9
/ +
!
'p' q/ n #
5elecci$n del tama1o de la muestra: determinar qu5 tan grande se requiere que sea una muestra) para
asegurar que el error al estimar p sea menor que una cantidad especiica de e! es decir) elegir n de
manera que 9
/ +
!
'p' q/ n=e #
"eorema B: si ' p se utiliza como estimaci'n de p) podemos tener una conianza de
(1)100( de que el error ser menor que una cantidad espec%ica e cuando el tamaFo de
la muestra sea apro$imadamente
n=
9
/ +
+
'p' q
e
+
4ste teorema es algo engaFoso) pues debemos utilizar ' p para determinar el tamaFo n de la
muestra! pero ' p se calcula a partir de la muestra# .i se puede *acer una estimaci'n cruda de
p sin tomar una muestra) podr%amos usar este valor para determinar n# 6 alta de tal estimaci'n)
podr%amos tomar una muestra preliminar de tamaFo n20 para proporcionar una estimaci'n
de p#
"eorema C: si ' p se utiliza como estimaci'n de p) podemos tener una conianza de al menos
(1)100( de que el error no e$ceder una cantidad espec%ica e cuando el tamaFo de la
muestra sea:
n=
9
/ +
+
1e
+
Dos muestras *estimaci$n de la diferencia entre dos proporciones+: considere el problema donde
deseamos estimar la dierencia entre dos parmetros binomiales p
1
y p
+
# Primero)
seleccionamos muestras aleatorias independientes de tamaFos n
1
y n
+
a partir de las poblaciones
binomiales con medias n
1
p
1
y n
+
p
+
y varianzas n
1
p
1
q
1
y n
+
p
+
q
+
) respectivamente)
despu5s determinamos los n&meros x
1
y x
+
de estudio) y ormamos las proporciones
' p=x
1
/ n y ' p=x
+
/ n # Un estimador puntual de la dierencia entre las proporciones) p
1
p
+
est dado por el estad%stico
'
P
1

'
P
+
# Por lo tanto) la dierencia de las proporciones muestrales)
' p
1
@ ' p
+
) se utilizar como la estimaci'n puntual de p
1
p
+
#
.e puede establecer un intervalo de conianza para p
1
p
+
al considerar la distribuci'n muestral de
' p
1
' p
+
# 6l elegir muestras independientes de las poblaciones) las variables
'
P
1
y
'
P
+
sern
independientes y) por ello) la propiedad reproductiva de la distribuci'n normal nos ayuda a concluir que
'
P
1

'
P
+
est distribuida de orma apro$imadamente normal con media

'
P
1

'
P
+
=p
1
p
+
y varianza

'
P
1

'
P
+
+
=
p
1
q
1
n
1
+
p
+
q
+
n
+
Por lo tanto) podemos asegurar que
P(9
/ +
<: <9
/ +
)=1
donde
:=
(
'
P
1

'
P
+
)( p
1
p
+
)
!
p
1
q
1
/ n
1
+p
+
q
+
/ n
+
9
/ +
es un valor de la curva normal estndar sobre la cual encontramos un rea de / + # 6l
sustituir para S) escribimos
P
[
9
/+
<
(
'
P
1

'
P
+
)( p
1
p
+
)
!
p
1
q
1
/ n
1
+ p
+
q
+
/ n
+
<9
/+
]
=1 #
Tntervalo de
conianza
de
p
1
p
+
de una
muestra
grande
.i ' p
1
y ' p
+
son las proporciones de 5$itos en muestras aleatorias de tamaFo n
1
y n
+
) respectivamente) ' q
1
=1 ' p
1
) y ' q
+
=1 ' p
+
) un intervalo de conianza
apro$imado de (1)100( para la dierencia de dos parmetros binomiales
p
1
p
+
est dado por
( ' p
1
' p
+
)9
/ +
!
' p
1
' q
1
n
1
+
' p
+
' q
+
n
+
< p
1
p
+
<( ' p
1
' p
+
) 9
/ +
!
' p
1
' q
1
n
1
+
' p
+
' q
+
n
+
donde 9
/ +
es el valor z que de"a un rea de / + a la derec*a#
/na sola muestra *estimaci$n de la varian&a+: si se e$trae una muestra de tamaFo n de una poblaci'n
normal con varianza
+
y se calcula la varianza muestral s
+
) obtenemos un valor del estad%stico
>
+
# 4sta varianza muestral calculada se usar como estimaci'n puntual de
+
# Por ello) el
estad%stico >
+
se llama estimador de
+
#
.e puede establecer una estimaci'n por intervalos de
+
utilizando el estad%stico
+
+
=
(n1)>
+

+
Podemos escribir entonces
P(+
1/+
+
<+
+
<+
/+
+
)=1*
donde +
1/+
+
y +
/ +
+
son valores de la distribuci'n c*i cuadrada con nB1 grados de libertad) que
de"an reas de 1/ + y / + ) respectivamente a la derec*a# 6l sustituir para +
+
) escribimos
P
[
+
1/ +
+
<
( n1)>
+

+
<+
/ +
+
]
=1
6l dividir cada t5rmino de la desigualdad entre (n1)>
+
y) despu5s) invertir cada t5rmino (lo
que cambia el sentido de las desigualdades)) obtenemos
P
[
(n1)>
+
+
/ +
+
<
+
<
(n1)>
+
+
1/ +
+
]
=1
Tntervalo
de conianza
para
+
.i s
+
es la varianza de una muestra aleatoria de tamaFo n de una poblaci'n normal)
un intervalo de conianza de (1)100( para
+
es
(n1)s
+
+
/ +
+
<
+
<
(n1)s
+
+
1/+
+
donde +
/ +
+
y +
1/+
+
son valores +
+
con v=n1 grados de libertad) que
de"an reas de / + y 1/ + ) respectivamente) a la derec*a#
Un intervalo de conianza de (1)D 100 para se obtiene al tomar la ra%z cuadrada de cada
e$tremo del intervalo para
+
#
Dos muestras *estimaci$n de la ra&$n de dos varian&as+: una estimaci'n puntual de la raz'n de dos
varianzas poblacionales
1
+
/
+
+
est dada por la raz'n s
1
+
/ s
+
+
de las varianzas muestrales# ;e aqu%)
el estad%stico >
1
+
/ >
+
+
se denomina estimador de
1
+
/
+
+
# .i
1
+
y
+
+
son las varianzas de las
poblaciones normales) podemos establecer una estimaci'n por intervalos de
1
+
/
+
+
usando el
estad%stico
$=

+
+
>
1
+

1
+
>
+
+
La variable aleatoria > tiene una distribuci'n > con v
1
=n
1
1 y v
+
=n
+
1 grados de libertad# Por
lo tanto) podemos escribir
P[ (
1/ +
(v
1)
v
+
)<$ < (
/ +
(v
1)
v
+
)]=1
donde (
1/+
(v
1)
v
+
) y (
/+
(v
1)
v
+
) son los valores de la distribuci'n > con v
1
y v
+
grados
de libertad) que de"an reas de 1/ + y / + ) respectivamente) a la derec*a# 6l sustituir para >)
escribimos
P
[
(
1/ +
(v
1)
v
+
)<

+
+
>
1
+

1
+
>
+
+
< (
/ +
(v
1)
v
+
)
]
6l multiplicar cada t5rmino en la desigualdad por >
+
+
/ >
1
+
) y despu5s invertir cada t5rmino (de nuevo
para cambiar el sentido de las desigualdades)) obtenemos
P
[
>
1
+
>
+
+
1
(
/ +
(v
1)
v
+
)
<

1
+

+
+
<
>
1
+
>
+
+
1
(
1/ +
(v
1)
v
+
) ]
=1
Los resultados del teorema
(
1
(v
1)
v
+
)=
1
(

(v
+)
v
1
)
nos permiten reemplazar la cantidad (
1/+
(v
1)
v
+
) por 1/ (
/+
(v
1)
v
+
) # Por lo tanto)
P
[
>
1
+
>
+
+
1
(
/ +
(v
1)
v
+
)
<

1
+

+
+
<
>
1
+
>
+
+
(
1/+
(v
+)
v
1
)
]
=1
Para cualquiera dos muestras aleatorias independientes de tamaFo n
1
y n
+
que se seleccionan de
dos poblaciones normales) la raz'n de las varianzas muestrales s
1
+
/ s
+
+
se calcula y se obtiene el
siguiente intervalo de conianza de (1)100( para
1
+
/
+
+
#
Tntervalo de
conianza
para

1
+
/
+
+
.i s
1
+
y s
+
+
son las varianzas de muestras independientes de tamaFo n
1
y n
+
)
respectivamente) de poblaciones normales) entonces un intervalo de conianza de
(1)100( para
1
+
/
+
+
es
s
1
+
s
+
+
1
(
/ +
(v
1)
v
+
)
<

1
+

+
+
<
s
1
+
s
+
+
(
/+
(v
+)
v
1
)*
donde (
/+
(v
1)
v
+
) es un valor con v
1
=n
1
1 y v
+
=n
+
1 grados de libertad
que de"a un rea de / + a la derec*a) y (
/+
(v
+)
v
1
) en un valor similar con
v
+
=n
+
1 y v
1
=n
1
1 grados de libertad#
.e obtiene un intervalo de conianza de (1)100( para
1
/
+
al tomar la ra%z cuadrada de
cada e$tremo del intervalo para
1
+
/
+
+
#
Prueba de *ip'tesis
6ip$tesis estad.stica: es una aseveraci'n o con"etura con respecto a una o ms poblaciones#
Rec)a&o de una )ip$tesis: simplemente implica que la evidencia de la muestra la reuta# Por otro lado)
el rec*azo signiica que *ay una pequeFa probabilidad de obtener la inormaci'n muestral observada
cuando) de *ec*o) la *ip'tesis es verdadera# La estructura de la prueba de *ip'tesis se ormular usando
el t5rmino *ip'tesis nula) el cual se reiere a cualquier *ip'tesis que deseamos probar y se denota con
E
0
# 4l rec*azo de E
0
conduce a la aceptaci'n de una *ip'tesis alternativa) que se denota con
E
1
# La E
1
representa la pregunta que ebe responderse) la teor%a que debe probarse) y por ello) su
especiicaci'n es muy importante# La *ip'tesis nula E
0
anula o se opone a E
1
y a menudo es el
complemento l'gico para E
1
#
Error tipo 2: el rec*azo de la *ip'tesis nula cuando es verdadera se llama error tipo T#
6pro$imaci'n a la prueba de *ip'tesis con probabilidad i"a del error tipo T
1# 4stablezca las *ip'tesis nula y alternativa
+# 4li"a un nivel de signiicancia i"o
2# .eleccione un estad%stico de prueba adecuado y establezca la regi'n cr%tica con base en

1# 6 partir del estad%stico de prueba calculado) rec*ace E


0
si el estad%stico de prueba
est en la regi'n cr%tica# ;e otra manera) no rec*ace E
0
/# Obtenga conclusiones cient%icas
Error tipo 22: no rec*azar la *ip'tesis nula cuando es alsa se llama error tipo TT#
"alor P: es el nivel (de signiicancia) ms ba"o donde es signiicativo el valor observado del estad%stico
de prueba#
Prueba de
signiicancia
(apro$imaci'n al
valor P)
1# 4stablezca las *ip'tesis nula y alternativa
+# 4li"a un estad%stico de prueba adecuado
2# ?alcule el valor P con base en los valores calculados del estad%stico de
prueba
1# Utilice el "uicio con base en el valor P y reconozca el sistema cient%ico
>'rmulas
E
F
<alor del estad%stico de
prueba
E
1
3egi'n cr%tica
=
0
:=
%
x
0
/ !n
%
conocida
<
0
>
0

0
9<9

9>9

9<9
/ +
o 9>9
/ +
=
0
t =
%
x
0
s / !n
% v=n1
desconocida
<
0
>
0

0
t <t

t >t

t <t
/ +
o t >t
/ +

+
=d
0
9=
( % x
1
% x
+
)d
0
!

1
+
/ n
1
+
+
+
/ n
+
%

1
y
+
conocida

+
<d
0

+
>d
0

+
d
0
9<9

9>9

9<9
/ +
o 9>9
/ +

+
=d
0
t =
( % x
1
% x
+
)d
0
>
P !
1/ n
1
+1/ n
+
%
v=n
1
+n
+
+

1
=
+
perodesconocida
>
P
+
=
(n
1
1)>
1
+
+(n
+
1)>
+
+
n
1
+n
+
+

+
<d
0

+
>d
0

+
d
0
t <t

t >t

t <t

+
o t >t

+
=d
0
t , =
( % x
1
% x
+
)d
0
!
>
1
+
/ n
1
+>
+
+
/ n
+
%
v=
(>
1
+
/ n
1
+>
+
+
/ n
+
)
+
(>
1
+
/ n
1
)
+
n
1
1
+
(>
+
+
/ n
+
)
+
n
+
1

+
y desconocida

+
<d
0

+
>d
0

+
d
0
t , <t

t , >t

t , <t
/+
o t , >t
/+

P
=d
0
oservaciones
pareadas
t =
%
dd
0
s

/ !n
% v=n1

P
<d
0

P
>d
0

-
d
0
t <t

t >t

t <t
/ +
o t >t
/ +
Pruebas de bondad de a"uste e independencia
Prueba de bondad de ajuste *poblaci$n multinomial+: la distribuci'n multinomial de probabilidad se
puede concebir como una ampliaci'n de la distribuci'n binomial para el caso de tres o ms categor%as
de resultados# 4n cada ensayo) intento o prueba de un e$perimento multinomial s'lo se presenta uno y
s'lo uno de los resultados# ?ada intento del e$perimento se supone independiente) y las probabilidades
de los resultados permanecen igual para cada prueba# La prueba de bondad de a"uste se basa en una
comparaci'n entre la muestra de los resultados oservados y los resultados esperados suponiendo que
la *ip'tesis nula es verdadera#
La prueba de bondad de a"uste se enoca *acia las dierencias entre las recuencias observadas y las
recuencias esperadas# Unas dierencias grandes entre las recuencias observadas y esperadas *acen
dudar que las proporciones supuestas de partes del mercado sean correctas# 4l que las dierencias entre
las recuencias observadas y las esperadas sean 9grandes: o 9pequeFas: es un asunto de que se deine
con ayuda del siguiente estad%stico de prueba#
Estad.stico de prueba para bondad de ajuste
+
+
=

i =1
k
( (
i
e
i
)
+
e
i
donde
(
i
0recuencia observada para la categor%a i
e
i
0recuencia esperada para la categor%a i
k 0cantidad de categor%as
,otas: el estad%stico de prueba tiene distribuci'n "i cuadrada con k1 grados de
libertad) siempre que las recuencias esperadas sean / o ms para todas las categor%as#
Resumen de la prueba de bondad de ajuste para la distribuci$n multinomial
1# 4nunciar las *ip'tesis nula y alternativa
E
0
: La poblaci'n se apega a una distribuci'n de probabilidad multinomial con
probabilidades espec%icadas para cada una de las k categor%as#
E
a
: La poblaci'n no se apega a una distribuci'n de probabilidad multinomial) con
probabilidades especiicadas para cada una de las k categor%as#
?' Momar una muestra aleatoria y anotar las recuencias observadas) (
i
para cada categor%a#
2# .uponiendo que la *ip'tesis nula es cierta) determinar la recuencia esperada) e
i
) en cada
categor%a) multiplicando la probabilidad de la categor%a por el tamaFo de la muestra#
1# ?alcular el valor del estad%stico de prueba#
+
+
=

i =1
k
( (
i
e
i
)
+
e
i
/# 3eglas de rec*azo:
?on el estad%stico de prueba: 3ec*azar E
0
si +
+
>+

+
?on el valor p: 3ec*azar E
0
si el valor p<
donde es el nivel de signiicancia para la prueba) y los grados de libertad son
k1 #
Prueba de independencia: la prueba de independencia utiliza el ormato de la tabla de contingencias)
y por esta raz'n a veces se le llama pruea de tala de contin)encias) o pruea con tala de
contin)encias# La 'rmula siguiente determina las recuencias esperadas de una tabla de contingencias
para la prueba de independencia#
#recuencias esperadas en la tabla de contingencias7 suponiendo independencia
e
i&
=
(total del ren)lni )(total dela columna & )
tama<ode lamuestra
4spec%icamente) el valor +
+
basado en las recuencias observadas y esperadas se calcula como
sigue
Estad.stico de prueba de independencia
+
+
=

i

&
( (
i&
e
i&
)
+
e
i&
donde
(
i&
0 recuencia observada para la categor%a en el rengl'n i y la columna & de la tabla
de contingencias#
e
i&
0 recuencia esperada para la categor%a en el rengl'n i y la columna & de la tabla de
contingencias) basada en la *ip'tesis de independencia#
,ota: con n renglones y m columnas en la tabla de contingencias) el estad%stico de
prueba tiene una distribuci'n "i cuadrada con (nB1)(mB1) grados de libertad) siempre y
cuando las recuencias esperadas sean / o ms para todas las categor%as#
Prueba de independencia0 resumen
1# Plantear las *ip'tesis nula y alternativa#
E
0
: La variable de columna es independiente de la variable de rengl'n#
E
a
: La variable de columna no es independiente de la variable de rengl'n#
+# Momar una muestra aleatoria y anotar las recuencias observadas para cada celda de la
contingencia#
2# 6plicar la ecuaci'n e
i&
=
(total del ren)lni )(total de la columna & )
tama<odela muestra
para calcular la
recuencia esperadas para cada celda#
1# 6plicar la ecuaci'n +
+
=

i

&
( (
i&
e
i&
)
+
e
i&
para calcular un valor de +
+
como
estad%stico#
/# 3egla de rec*azo:
?on el estad%stico de prueba: 3ec*azar E
0
si +
+
>+

+
?on el valor p: 3ec*azar E
0
si el valor p<
siendo el nivel de signiicancia para la prueba! si *ay n renglones y m columnas en
la tabla) *ay (n1)(m1) grados de libertad#
Prueba de bondad de ajuste *distribuciones de Poisson y normal+
4istriucin de Poisson
1# Plantear las *ip'tesis nula y alternativa#
E
0
: La poblaci'n tiene una distribuci'n de probabilidad de Poisson#
E
a
: La poblaci'n no tiene una distribuci'n de probabilidad de Poisson#
+# Momar una muestra aleatoria y
a) 6notar la recuencia observada) (
i
para cada valor de la variable aleatoria de
Poisson#
b) ?alcular la media del n&mero de ocurrencias #
2# ?alcular la recuencia esperada de ocurrencias) e
i
) para cada valor de la variable
aleatoria de Poisson# @ultiplicar el tamaFo de muestra mediante la probabilidad de Poisson
de ocurrencia para cada valor de la variable aleatoria de Poisson# .i *ay menos de /
ocurrencias esperadas para ciertos valores) combinar esos valores con los adyacentes y
reducir la cantidad de categor%as que sea necesario#
1# ?alcular el valor del estad%stico de prueba
+
+
=

i =1
k
( (
i
e
i
)
+
e
i
/# 3egla de rec*azo:
?on el estad%stico de prueba: 3ec*azar E
0
si +
+
>+

+
?on el valor p: 3ec*azar E
0
si el valor p<
donde es el nivel de signiicancia de la prueba) y *ay k+ grados de libertad#
4istriucin normal: la prueba de bondad de a"uste para una distribuci'n de probabilidad
normal se basa en el empleo de la distribuci'n "i cuadrada# 4n particular) se comparan las
recuencias observadas para varias categor%as de datos de una muestra con recuencias
esperadas de acuerdo con la *ip'tesis de que la poblaci'n tiene distribuci'n normal# ?omo la
distribuci'n de probabilidad normal es continua) debemos modiicar la orma de deinir las
categor%as y la de calcular las recuencias esperadas#
Pruea de ondad de a&uste a una distriucin normal. resumen
1# Plantear las *ip'tesis nula y alternativa#
E
0
: La poblaci'n tiene una distribuci'n de probabilidad normal#
E
a
: La poblaci'n no tiene una distribuci'n de probabilidad normal#
+# Momar una muestra aleatoria y
a) ?alcular su media y su desviaci'n estndar#
b) ;einir k intervalos de valores de tal orma que la recuencia esperada sea /)
cuando menos) para cada uno# Un buen m5todo consiste en usar intervalos de
igual probabilidad#
c) 6notar la recuencia observada de los valores de datos) (
i
) con cada
intervalo deinido#
2# ?alcular el n&mero esperado de ocurrencias) e
i
) para cada intervalo de
valores deinido en +(b)# @ultiplicar el tamaFo de la muestra por la probabilidad
de que una variable aleatoria normal est en el intervalo#
1# ?alcular el valor del estad%stico de prueba
+
+
=

i =1
k
( (
i
e
i
)
+
e
i
/# 3egla de rec*azo:
a) ?on el estad%stico de prueba: 3ec*azar E
0
si +
+
>+

+
b) ?on el valor p: 3ec*azar E
0
si el valor p<
c) donde es el nivel de signiicancia para la prueba y *ay k2 grados
de libertad#
6nlisis de varianza (6,O<6) y diseFo de e$perimentos
2ntroducci$n al anlisis de varian&a: el anlisis de varianza es un procedimiento estad%stico para
probar si las dierencias observadas en las tres medias de la muestra son lo suicientemente grandes
para rec*azar E
0
#
5upuestos para el anlisis de varian&a: para traba"ar con anlisis de varianza se requieren tres
supuestos
1# Para cada poblaci'n) la variable de respuesta est normalmente distribuida#
+# La varianza de la variable de respuesta) representada por
+
) es la misma para todas las
poblaciones#
2# Las observaciones deben ser independientes#
Perspectiva conceptual: si la variabilidad entre las medias) en este caso de anlisis de varianza) de las
muestras es 9pequeFa:) se respalda E
0
! si es 9grande:) se respalda E
a
# .i es verdadera la
*ip'tesis nula) podemos usar la variabilidad entre las medias de la muestra para determinar un estimado
de
+
# Primero) observe que si se satisacen las *ip'tesis para el anlisis de varianza) cada muestra
*abr provenido de la misma distribuci'n normal de probabilidad) con media y varianza
+
#
La estimaci'n de varianza entre tratamientos se basa en que la *ip'tesis nula sea verdadera# 4n
este caso) cada muestra proviene de la misma poblaci'n y s'lo *ay una distribuci'n de
%
x # 4n
general) cuando las medias de poblaci'n no son iguales) la estimaci'n entre tratamientos agrandar) o
sobreestimar) la varianza poblacional
+
#
La variaci'n dentro de cada una de las muestras tambi5n tiene un eecto sobre la conclusi'n a la
que se puede llegar en un anlisis de varianza# ?uando se toma una muestra aleatoria simple de cada
poblaci'n) cada una de las varianzas de la muestra es una estimaci'n insesgada de
+
# Por
consiguiente) podemos combinar las estimaciones individuales de
+
en una estimaci'n general) la
cual se denomina estimaci'n cominada) o dentro de tratamientos de
+
# ;ebido a que cada
varianza de la muestra produce una estimaci'n de
+
basada s'lo en la variaci'n dentro de cada
muestra) la estimaci'n de
+
dentro de tratamientos no se aecta si las medias poblacionales son
iguales# ?uando los tamaFos de muestra son iguales) se puede obtener la estimaci'n de
+
dentro de
tratamientos calculando la media de las varianzas de las muestras individuales#
3ecordemos que el m5todo entre tratamientos suministra una buena estimaci'n de
+
s'lo si la
*ip'tesis nula es verdadera! si 5sta es alsa) el m5todo entre tratamientos sobrestima
+
# 4l m5todo
dentro de tratamientos da una buena estimaci'n de
+
de
+
en cada caso# 6s%) si es verdadera la
*ip'tesis nula) las dos estimaciones tendrn magnitud seme"ante y su relaci'n se apro$imar a 1# .i la
*ip'tesis nula es alsa) la estimaci'n entre tratamientos ser mayor que la de dentro de tratamientos) y
su relaci'n ser grande# 4n la pr'$ima secci'n indicaremos lo grande que debe ser esa relaci'n para
rec*azar E
0
#
,nlisis de varian&a: prueba de la igualdad de k medias de poblaci'n: el anlisis de varianza se usa
para probar la igualdad de k medias poblacionales# La orma general de las *ip'tesis que se prueban es
E
0
:
1
=
+
=###=
k
E
a
: notodas las medias de polacin soni)uales )
donde

&
=mediade la & !sima polacin'
.upongamos que se toma una muestra aleatoria simple de tamaFo n
&
de cada una de las (
poblaciones o tratamientos# .ean
x
i&
=valor dela oservacin i parael tratamiento &
n
&
=n6merodeoservaciones parael & !simotratamientos
%
x
&
=media dela muestra del & !simo tratamiento
s
&
+
=varian9a dela muestra del &!simotratamiento
s
&
=desviacinest/ndar dela muestra del &!simotratamiento
Las 'rmulas de la media y la varianza del tratamiento & son la siguientes:
%
x
&
=

i =1
n
&
x
i&
n
&
s
&
+
=

i=1
n
&
( x
i&

%
x
&
)
+
n
&
1
La media general de las muestras) representada por %
%
x ) es la suma de todas las observaciones
dividida entre el n&mero total de observaciones# 4sto es)
%
%
x=

&=1
k

i =1
n
&
x
i&
n
"
donde
n
"
=n
1
+n
+
+###+n
k
.i el tamaFo de cada muestra es n) n
"
=kn ! en este caso) la ecuaci'n %
%
x=

&=1
k

i =1
n
&
x
i&
n
"
se reduce
a
%
%
x=

&=1
k

i =1
n
x
i&
nk
=

&=1
k

i =1
n
x
i&
/ n
k
=

&=1
k
%
x
&
k
4n otras palabras) cuando los tamaFos de las muestras son iguales) la media muestral general es
"ustamente el promedio de las medias de las k muestras#
Estimaci$n de la varian&a poblacional entre tratamientos: anteriormente se introdu"o el concepto de
una estimaci'n de
+
entre tratamientos y se mostr' c'mo calcularla cuando las muestras son del
mismo tamaFo# 6 esta estimaci'n se le llama cuadrado medio deido a tratamientos y la
representaremos por @.M3 (mean square due to treatments)# La 'rmula general para calcularla es
;>"G=

& =1
k
n
&
(
%
x
&
%
%
x)
+
k1
4l numerador en la anterior ecuaci'n se llama suma de cuadrados debida a tratamientos y se representa
por ..M3 (sum o squares due to treatments)# 4l denominador) (B1) representa los grados de libertad
asociados con la ..M3# Por consiguiente) el cuadrado medio debido a tratamientos se puede calcular
con la siguiente 'rmula:
?uadrado medio debido a tratamientos
;>"G=
>>"G
k1
donde
>>"G=

&=1
k
n
&
(
%
x
&
%
%
x)
+
.i es E
0
es verdadera) @.M3 suministra una estimaci'n insesgada de
+
# .in embargo) si
las medias de las k poblaciones no son iguales) @.M3 ya no es insesgado y en este caso sobrestima a

+
#
Estimaci$n de la varian&a poblacional dentro de tratamientos: a esta estimaci'n se le llama
cuadrado medio deido al error y se representa por @.4 (mean sqare due to error)# La 'rmula general
para calcularla es
;>E=

& =1
k
(n
&
1)s
&
+
n
"
k
6l numerador de esta ecuaci'n se le llama suma de cuadrados deida al error y se representa por
..4 (sum o squares due to error)# 4l denominador de @.4 representa los grados de libertad asociados
con ..4# 4n consecuencia) la 'rmula de @.4 se puede escribir como sigue:
?uadrado medio debido al error:
;>E=
>>E
n
"
k
donde
>>E=

&=1
k
(n
&
1) s
&
+
Observe que el @.4 se basa en la variaci'n dentro de cada uno de los tratamientos! no est
inluido por la validez de la *ip'tesis nula# 6s%) el @.4 siempre constituye una estimaci'n insesgada de

+
#
Comparaci$n de las estimaciones de la varian&a *la prueba #+: supongamos que la *ip'tesis nula es
verdadera# 4n este caso) @.M3 y @.4 proporcionan dos estimaciones insesgadas e independientes de

+
) o sea) que siguen una distribuci'n ># 6s%) si es verdadera la *ip'tesis nula y son vlidos los
supuestos del anlisis de varianza) la distribuci'n de @.M3G@.4 de la muestra es una distribuci'n >
con k1 grados de libertad en el numerador y n
"
k en el denominador#
.i las medias de las k poblaciones no son iguales) el valor de @.M3G@.4 ser e$agerado) porque
@.M3 sobrestima a
+
# Por consiguiente) rec*azaremos E
0
si el valor resultante de @.M3G@.4
parece ser demasiado grande para *aberse obtenido al azar de una distribuci'n > con k1 grados de
libertad en el numerador y n
"
k en el denominador# 4l valor de @.M3G@.4 que os *aga rec*azar
E
0
depende de ) el nivel de signiicancia# Una vez seleccionado se puede determinar un
valor cr%tico#
Prueba de la igualdad de k medias poblacionales
E
0
:
1
=
+
=###=
k
E
a
: notodas las medias polacionales soni)uales
4stad%stico de prueba
$=
;>"G
;>E
3egla de rec*azo
?on el estad%stico de prueba: 3ec*azar E
0
si $>$

?on el valor p: 3ec*azar E


0
si el valor p<
donde el valor de $

se basa en una distribuci'n > con k1 grados de libertad en el


numerador y n
"
k grados de libertad en el denominador#
abla de anlisis de varian&a *,8-",+: la suma de cuadrados asociada con la uente de variaci'n
llamada 9Motal: se llama suma de cuadrados del total (..M) total sum o squares)# 4stos resultados del
e"emplo sugieren que >>" =>>"G+>>E * y que los grados de libertad asociados con esa suma de
cuadrados del total son la suma de los grados de libertad asociados con la estimaci'n de
+
entre
tratamientos y los asociados con la estimaci'n de
+
dentro de tratamientos#
La 'rmula para calcular ..M) es
>>" =

&=1
k

i =1
n
&
(x
i&
%
%
x)
+
..M se puede dividir en dos sumas de cuadrados: la suma de cuadrados debida a tratamientos y la
debida al error# Observe tambi5n que los grados de libertad)que corresponden a ..M) que son n
"
1 )
se pueden dividir en los que corresponden a ..M3) que son k1 ) y los de ..4) que son n
"
k #
4l anlisis de varianza es un proceso de partici'n de la suma de cuadrados del total y sus grados de
libertad en dos uentes de variaci'n: tratamiento y error# 6l dividir la suma de cuadrados entre los
grados de libertad adecuados se obtienen las estimaciones de la varianza y el valor > que se usa para
probar la *ip'tesis de medias poblacionales iguales# ;ato aparte) la me"or estimaci'n de cuando
no se tiene) es la ra%z cuadrada de @.4#
Procedimientos de comparaci$n mltiple
;ierencia signiicativa m%nima) de >is*er: supongamos que el anlisis de varianza *a
proporcionado la prueba para rec*azar la *ip'tesis nula de iguales medias de poblaci'n# 4n este
caso podemos aplicar el procedimiento de la dierencia signiicativa m%nima (L.;: least
signiicant dierence) de >is*er) para determinar d'nde estn las dierencias#
4l procedimiento de >is*er se basa en el estad%stico de prueba t que e$plicamos para el caso de
dos poblaciones# La tabla siguiente muestra un resumen del procedimiento de >is*er#
Procedimiento de la dierencia signiicativa m%nima) de >is*er
E
0
:
i
=
&
E
a
:
i

&
4stad%stico de prueba
t =
%
x
i

%
x
&
!
;>E(
1
n
i
+
1
n
&
)
3egla de rec*azo
3ec*azar E
0
si t <t
/ +
o si t >t
/ +
donde el valor de t
/+
se basa en una distribuci'n t con n
"
k grados de libertad#
Procedimiento de la dierencia signiicativa m%nima (L.;) e >is*er) basado en el estad%stico de
prueba
%
x
i

%
x
&
E
0
:
i
=
&
E
a
:
i

&
4stad%stico de prueba
%
x
i

%
x
&
3egla de rec*azo al nivel de signiicancia
3ec*azar E
0
si
%
x
i

%
x
&
> L>4
donde
L>4=t
/ +
!
;>E
(
1
n
i
+
1
n
&
)
?uando los tamaFos de muestra son iguales) s'lo se calcula un valor de la dierencia menos
signiicativa#
Mambi5n se puede aplicar la dierencia menos signiicativa de >is*er para establecer una
estimaci'n del intervalo de conianza para la dierencia entre las medias de dos poblaciones# 4l
procedimiento es el siguiente:
4stimaci'n del intervalo de conianza de la dierencia entre dos medias poblacionales con el
procedimiento de la dierencia menos signiicativa (L.;) de >is*er
%
x
i

%
x
&
L>4
donde
L>4=t
/ +
!
;>E
(
1
n
i
+
1
n
&
)
y t
/+
se basa en una distribuci'n t con n
"
k grados de libertad#
.i el intervalo de conianza en la ecuaci'n
%
x
i

%
x
&
L>4 abarca el valor cero) no podemos
rec*azar la *ip'tesis de que las dos medias de poblaci'n son iguales# .in embargo) si el intervalo de
conianza no incluye al valor cero) llegamos a la conclusi'n de que s% *ay una dierencia entre las
medias poblacionales#
Ra&$n de error tipo 9: al e$plicar el procedimiento de la dierencia signiicativa m%nima) de >is*er)
ten%amos la premisa de que el anlisis de varianza indicaba la evidencia estad%stica suiciente para
rec*azar la *ip'tesis nula de iguales medias de poblaci'n# @ostramos c'mo se puede aplicar el
procedimiento de >is*er) en esos casos) para determinar d'nde se originan las dierencias# 6 esto se le
llama) t5cnicamente) prueba L.; prote)ida) o restrin)ida) porque s'lo se aplica cuando se determina
primero un valor signiicativo de > mediante el anlisis de varianza# Para considerar la importancia de
esto en pruebas de comparaci'n m&ltiple) necesitamos e$plicar la dierencia entre la raz'n de errores
tipo T por comparacin y la raz'n de error tipo T experimental#
3az'n de error tipo T para comparaci'n: esta raz'n de error indica el nivel de signiicancia
asociado con una sola comparaci'n pareada#
3az'n de error tipo T e$perimental: esta es la raz'n que se obtiene de calcular la probabilidad de
no cometer un error tipo T en cualquier prueba e"ecutada en un procedimiento de comparaci'n
m&ltiple#
4"emplo: se tiene un caso donde se desea utilizar el procedimiento de >is*er para establecer tres
comparaciones pareadas
Prueba 1 Prueba + Prueba 2
E
0
:
1
=
+
E
0
:
1
=
2
E
0
:
+
=
2
E
a
:
1

+
E
a
:
1

2
E
a
:
+

2
4n cada caso se emplea un nivel de signiicancia =0)0/ # 4n consecuencia) para cada prueba)
cuando la *ip'tesis nula es verdadera) la probabilidad de cometer un error tipo T es =0)0/ ! por
tanto) la probabilidad de no cometer un error tipo T es 10)0/=0)L/ # 6l describir los
procedimientos de comparaci'n m&ltiple llamaremos a esta probabilidad de error tipo T (=0)0/) la
ra&$n de error tipo 2 por comparaci$n# 4stas razones de error indican el nivel de signiicancia
asociado con una sola comparaci'n pareada# 6*ora) Pcul es la probabilidad de que) al *acer tres
comparaciones pareadas) cometamos un error tipo T en cuando menos una de las tres pruebasQ Para
contestarla) observamos que la probabilidad de no cometer un error tipo T en cualquiera de las tres
pruebas es (0)L/)(0)L/)(0)L/)=0)K/I1 # Por consiguiente) la probabilidad de cometer cuando menos
un error tipo T es 10)K/I1=0)11+E # 6s%) cuando se aplica el procedimiento de la dierencia
signiicativa m%nima) de >is*er para realizar las 2 comparaciones de pare"as) la raz'n de error tipo T
asociada con este m5todo no es 0)0/) sino en realidad 0)11+E# 6 esta raz'n de error la llamaremos
ra&$n de error tipo 2 experimental o )eneral'