Está en la página 1de 12

CSA.

Inferencia estadstica 1

Tema 7. Inferencia estadstica


1. INTRODUCCIN Y PROPSITO

Se puede describir la Estadstica como una disciplina puente entre los modelos matemticos y
los fenmenos reales. Para cada problema real, la Estadstica propone un modelo matemtico y es
capaz de evaluar la discrepancia entre el modelo propuesto y el real.
Est muy extendida la creencia de que la Estadstica es manipulable, de que simplemente se
trata de presentar la informacin de la forma deseada por el informador (por ejemplo, despus de
unas elecciones todos los partidos estn satisfechos con sus nmeros). Esto es efectivamente cierto,
siempre que se haga una mala utilizacin de esta ciencia; para evitar que esto nos ocurra, la nica
solucin es conocer ms profundamente el mtodo estadstico, para as, poder reconocer cuando se
nos est dando una informacin parcial o manipulada, y poder entenderla desde otra perspectiva.
Desde el punto de vista matemtico, la Estadstica se basa en el Clculo de Probabilidades. La
probabilidad es una disciplina matemtica basada en un modelo abstracto, y sus conclusiones son
deducciones basadas en una serie de axiomas. La Estadstica trata con las aplicaciones de la teora a
problemas reales, y sus conclusiones son inferencias basadas en observaciones.
As, la teora de la probabilidad nos da un gran nmero de resultados a partir de unas
condiciones tericas: se establecen hiptesis respecto al mecanismo generador de los datos y con
ellas se deducen las probabilidades de los valores posibles. La inferencia estadstica realiza el
proceso inverso: dadas las frecuencias observadas de una variable, infiere el modelo probabilstico
que ha generado los datos.

2. DISTRIBUCIONES DE PROBABILIDAD ASOCIADAS A LA NORMAL

Se introducen en primer lugar una serie de distribuciones que, junto con la distribucin normal,
cubren prcticamente todas las necesidades de este tema. Todas estas distribuciones se encuentran
tabuladas o disponibles en subrutinas, por lo que no se insistir mucho sobre ellas, simplemente se
explicar su construccin y su forma.

!
2
de Pearson: Sea Z
t
= (Z
1
, Z
2
, ..., Z
n
) un vector aleatorio con componentes normales de media
cero y varianza uno e independientes. Si calculamos el mdulo al cuadrado del vector:
!
n
2
= Z
t
Z = Z
1
2
+Z
2
2
+ ... +Z
n
2

tenemos una distribucin chi-cuadrado. Al parmetro n se le denomina grados de libertad.
Evidentemente su fdp es asimtrica, con valores siempre positivos, como se observa en la grfica
siguiente:
2 Departamento de Teora de la Seal y Comunicaciones. Universidad de Vigo


t de Student: Se define la distribucin t con n grados de libertad:
La fdp de la t es simtrica respecto al origen, similar a una campana de Gauss pero con mayor
dispersin que sta; adems es asintticamente normal:

Muestra y poblacin
El objetivo en este tema es estudiar una caracterstica dada en un conjunto de elementos, al que
llamaremos poblacin. Normalmente es imposible estudiar esa caracterstica en todos los elementos,
bien por motivos econmicos, bien por tratarse de una poblacin continua, o bien por tratarse de
elementos que no existen en el presente pero existirn en el futuro. Para resolver este problema
seleccionamos un subconjunto de elementos, que llamaremos muestra.
Si la muestra es representativa de la poblacin, podremos extrapolar la caracterstica bajo
estudio de la muestra a la poblacin, es decir, lo que ocurra en la muestra ser similar a lo que
ocurra en la poblacin. Por ello es de suma importancia el elegir la muestra adecuadamente.
Segn la forma que utilicemos para seleccionar esa muestra tendremos diversos tipos de
muestreo. El ms importante es el muestreo aleatorio simple.
Diremos que una muestra es aleatoria simple (m.a.s.) si los elementos de la poblacin son
equiprobables y cada eleccin es independiente de las dems. Una m.a.s. puede ser considerada
como los valores observados de un vector aleatorio n-dimensional (hemos observado esos valores,
pero podamos haber obtenido otros) siendo las componentes del vector independientes e
idnticamente distribuidas con la misma distribucin que la poblacin que estamos muestreando.
Notaremos:
X = (X
1
,, X
n
) con X
i
i.i.d. con distribucin idntica a la poblacin

Una muestra observada ser un valor concreto de X, x
0
= (x
1
,, x
n
)

t
n
=
X
1
n
!
n
2 "
#
$
%
1 2
donde X ~ N(0,1) independiente de !
n
2

CSA. Inferencia estadstica 3

Otro tipo importante de muestreo es el muestreo estratificado. Si tenemos una poblacin no
homognea, con una propiedad o propiedades que nos hagan pensar en ms de un grupo (sexo,
edad, etc..), tomaramos m.a.s. en cada subgrupo o estrato.

3. ESTIMACIN. FUNCIN DE VEROSIMILITUD. MTODO DE LOS MOMENTOS

Tras el problema del muestreo nos encontramos con el problema de extraer informacin de los
datos (inferir) relativa a la poblacin bajo estudio. Un problema de inferencia estadstica es aquel en
el que tenemos un conjunto de datos, generados de acuerdo a una ley de probabilidad desconocida,
y tratamos de averiguar cul ha sido el mecanismo que los ha generado.

MUESTREO
INFERENCIA
Poblacin
Muestra
0
= (x
10
,, x
no
)
r
X


Nos puede interesar determinar el tipo de distribucin (normal, uniforme, etc) o estimar un
valor concreto de un parmetro (media, varianza, etc) asumiendo conocida la forma de la
distribucin. En el primer caso hablaremos de inferencia no paramtrica y en el segundo de
inferencia paramtrica. Los objetivos en ambos casos son bien distintos, y aunque los mecanismos
puedan parecer similares, la informacin de partida de la que disponemos hace que estos sean muy
diferentes.
Este proceso de reconocimiento del mecanismo generador de los datos se llama estimacin.
Una vez tengamos especificado el modelo subyacente podemos pasar a la toma de decisiones, tales
como predecir futuros valores, o elegir entre opciones que supongan un cierto riesgo para el decisor.
Supongamos que tenemos una m.a.s. de una variable X de la que conocemos la forma de su
distribucin, pero no el parmetro o parmetros que especifican totalmente sta. Tratamos por tanto
de estimar esta caracterstica de la poblacin.
Para ello construimos un estimador o lo que es lo mismo, una funcin de la muestra que no
depende del parmetro a estimar, con la que tratamos de aproximar el verdadero valor del
parmetro. Ahora bien, podemos pensar en el estimador como en una VA, por ser funcin de la
muestra. Consideraremos as cada elemento de la muestra como un valor observado de una VA, que
ha tomado ese valor de acuerdo a una ley de distribucin de probabilidad. Como VA que es, cada
estimador tendr entonces una distribucin, siendo de mucho inters para nosotros el conocimiento
de sta.


4 Departamento de Teora de la Seal y Comunicaciones. Universidad de Vigo

Ejemplo 7.1: Clculo de esperanza, varianza y distribucin asinttica de x. Supongamos que
queremos estimar la media de una poblacin con varianza "
2
, para lo que obtenemos una muestra
x
1
, ..., x
n
. El mejor estimador parece ser la media muestral:
x =
x
1
+ ... + x
n
n








Al estudiar estimadores, se plantea el problema de cmo juzgar si ese estimador es bueno o no.
Para resolver esta cuestin estudiaremos una serie de propiedades que seran de inters en cualquier
estimador. En general, para lo que sigue notaremos ! como estimador del parmetro #.
Diremos que un estimador es centrado o insesgado si se verifica que:
E ! = !; y se define el sesgo ! = ! - E !

Por otra parte, se define la eficacia o precisin de un estimador como:
precisin ! =
1
Var !

Evidentemente, nos interesarn los estimadores con poco o nulo sesgo y con poca varianza, es
decir con mucha precisin. Otras propiedades de inters sern la linealidad, la facilidad de clculo o
la consistencia (convergencia del estimador al parmetro cuando el tamao muestral tiende a
infinito).

Estimacin de los momentos de una VA
Recordemos que el momento no centrado de orden k de una VA X, se define como m
k
=E{X
k
},
y el momento centrado de orden k de dicha VA se define como
k
= E{(X-E(X))
k
}. Para definir
estimadores para estos parmetros se sigue el siguiente procedimiento:
-Dado que la informacin que tenemos acerca de la VA X procede de una m.a.s. x
1
,...,x
n
, se
supone entonces que X es una VA discreta que toma nicamente dichos valores con una
probabilidad igual a la frecuencia relativa observada (evidentemente se trata slo de una
aproximacin que ser mejor o peor en funcin del tamao de la muestra y de las caractersticas de
X).
-Para estimar un momento de X se calcula el momento terico correspondiente a la VA
discreta definida en el paso anterior.
CSA. Inferencia estadstica 5

A los estimadores de los momentos que resultan de aplicar este procedimiento los
denominaremos momentos muestrales. De este modo, los momentos muestrales correspondientes a
los momentos no centrados se definen de acuerdo con la siguiente expresin:

m
k
=
1
n
x
i
k
i =1
n
!

Para el caso de la esperanza (el momento no centrado de orden 1), el estimador es precisamente
la media muestral:
x =

m
1
=
1
n
x
i
i=1
n
!

Siguiendo la misma idea, los momentos muestrales correspondientes a los momentos centrados
se calculan mediante la siguiente expresin:


k
=
1
n
x
i
! x ( )
k
i=1
n
"

En el caso concreto de la varianza (momento centrado de orden 2), el momento muestral se
denomina varianza muestral:
S
n
2
=


2
=
1
n
x
i
! x ( )
2
i =1
n
"


Mtodos para definir estimadores
Existen varios mtodos, como el mtodo de los momentos o el mtodo de mxima
verosimilitud.

Mtodo de los momentos
Habitualmente los parmetros de una VA estn relacionados con sus momentos. Por ejemplo,
en una N(, ") el parmetro coincide con m
1
y el parmetro " es
!

2
. Entonces, si disponemos
del estimador de un momento (por ejemplo un momento muestral) podramos estimar el parmetro
basndonos en la relacin que existe entre sus equivalentes tericos. Esta es la idea en la que se basa
el mtodo de los momentos para estimar parmetros.
Analicemos el procedimiento mediante un ejemplo concreto. Supongamos que X es una VA
que sigue una distribucin exp($), con $ desconocido. Intentaremos estimarlo mediante el mtodo
de los momentos siguiendo el procedimiento general que se describe a continuacin:
a) Relacionar el parmetro que se quiere estimar con un momento de X
Este primer paso plantea, en general, diversas opciones, puesto que es habitual que varios
momentos de X dependan del parmetro de inters. En este caso, por ejemplo:
m
1
=E{X}=1/$
2
=Var{X}=1/$
2

6 Departamento de Teora de la Seal y Comunicaciones. Universidad de Vigo

b) Estimar el momento seleccionado mediante el momento muestral correspondiente.
En el ejemplo vamos a optar por quedarnos con la relacin que existe entre $ y la esperanza
de X (el momento no centrado de orden 1). Estimaremos la esperanza (momento terico) mediante
la media muestral (momento muestral correspondiente):

m
1
=
1
n
x
i
i =1
n
!

c) La relacin que existe entre el parmetro terico y el momento terico se emplea para
relacionar sus estimadores. De sta relacin se deduce la expresin para el estimador del parmetro
de inters.
En el ejemplo, de la relacin entre la esperanza y $ se obtiene una relacin entre la media
muestral y el estimador de $:


m
1
= 1 /

!


!
Por tanto :

" =
1

m
1
=
n
x
i
i=1
n
#

Si se hubiese utilizado la relacin entre $ y la varianza, siguiendo un proceso similar
obtendramos otro estimador de $ distinto.

Ejemplo 7.2: Estimacin del parmetro de una P(%) utilizando el mtodo de los momentos












Mtodo de mxima verosimilitud
Supongamos una VA discreta con distribucin P(x,! ). Tomamos una m.a.s. de tamao n,
X = (x
1
, ..., x
n
)

Dado que X es aleatoria:
P(X = x
0
) = P(X
1
=x
10
, ..., X
n
=x
n0
) = P(x
10
)....P( x
n0
) por ser independientes.

En el caso continuo podemos construir, por analoga:
P(x
1
,,x
n
) = f(x
1
)f(x
n
)
As, representamos la probabilidad de aparicin de la muestra mediante esa cantidad, que no es
su probabilidad, pero es proporcional a la probabilidad de que cada muestra tome valores en el
intervalo (x
i
h) cuando h es pequeo.
CSA. Inferencia estadstica 7

En el caso mixto tendramos una combinacin del caso discreto (m muestras) y del caso
continuo (n-m muestras):
P(x
1
,,x
m
,x
m+1
,,x
n
) = P(x
1
)P(x
m
)f(x
m+1
)f(x
n
)
A este producto se le llama densidad conjunta de la muestra, que podemos tambin considerar
como funcin del parmetro o vector de parmetros !.
f(x,! ) = & f(x
i
, ! )
En un problema de estimacin conocemos un valor concreto de X
0
= (x
10
, ...,x
n0
). Suponiendo,
en la densidad conjunta de la muestra, el valor de la muestra como fijo y el valor del parmetro o
vector de parmetros como variable, obtenemos la denominada funcin de verosimilitud:
l (!) = f(x
0
,!) con x
0

fijo, y ! variable.
As como podemos considerar a la funcin de densidad como la forma que tenemos para pasar
de la poblacin a la muestra, la funcin de verosimilitud nos da la forma de pasar de la muestra a la
poblacin; es decir para cada valor del vector de parmetros, la funcin de verosimilitud nos dar la
probabilidad de aparicin de la muestra que realmente se obtuvo. La siguiente figura ilustra la
situacin:






Muchas veces nos interesar utilizar la funcin de verosimilitud como medida comparativa
entre diferentes valores del parmetro y no como medida absoluta. Dado que esta funcin depende
de escalas, en estas ocasiones utilizaremos el cociente de verosimilitudes:

!
l (
r
"
1
/ X)
l (
r
"
2
/ X)

A veces, para simplificar las cuentas, se trabaja con el logaritmo neperiano de la funcin de
verosimilitud, al que llamaremos funcin soporte:

!
L(
r
" ) = ln(l (
r
" ))
Intuitivamente se ve que debemos escoger aquel valor del parmetro que proporcione la
mxima verosimilitud; es decir, que maximice la probabilidad de aparicin de la muestra que
realmente se obtuvo. Existen distintos mtodos de maximizacin de funciones. Eligiendo el
adecuado para nuestra funcin de verosimilitud, obtendremos el estimador mximo-verosmil. En la
f(x/#)
Poblacin
Muestra

!
r
X
0
= (x
10
,, x
n0
)
l(#/

!
r
x
0
)
8 Departamento de Teora de la Seal y Comunicaciones. Universidad de Vigo

prctica, dado que la funcin logaritmo es creciente, se puede maximizar la funcin soporte en lugar
de la de verosimilitud.
En resumen, el procedimiento a seguir si deseamos estimar un parmetro # de una VA X
mediante el mtodo de mxima verosimilitud, es el siguiente:
1) Establecer la fdp de la VA X sobre la que se est muestreando
2) Calcular la funcin de verosimilitud l (!).
3) Obtener ! como aquel que maximiza l (!).
Se puede probar que los estimadores obtenidos por este mtodo de mxima verosimilitud son,
asintticamente normales, asintticamente insesgados y asintticamente de varianza mnima.
Adems se verifica tambin que si ! es el estimador mximo verosmil de # entonces g(!) es el
estimador mximo-verosmil de g(#) siempre que la funcin g sea biyectiva.

Ejemplo 7.3: Clculo del estimador mximo-verosmil del parmetro $ de una exponencial.









Ejemplo resuelto 7.1: Estimacin mximo verosmil de la media y de la varianza de una normal
!
X ~ N(,"); f(x) =
1
" 2#
e
$
(x$)
2
2"
2
; m.a.s. (x
1
,, x
n
)

!
l (,"
2
) = f(x
1
)f(x
n
) =
1
"
n
( 2#)
n
exp{
$1
2"
2
(x
i
$)
2
%
}
Salvo constantes:

!
l (,"
2
) = ("
2
)
#n / 2
exp{
#1
2"
2
(x
i
#)
2
$
}
Funcin soporte:
!
L(,"
2
) = #
n
2
ln("
2
) #
1
2"
2
(x
i
#)
2
$

Derivamos:
!
"L
"
= 0 =
1
#
2
(x
i
$)
%
=
nx $n
#
2
"L
"#
2
= 0 = $
n
2#
2
+
1
2#
4
(x
i
$)
2
%

Resolviendo las dos ecuaciones se obtiene:
!
= x ; "
2
=S
n
2


Despus de comprobar que la matriz de segundas derivadas es definida negativa concluimos:
!

= x ;

"
2
=S
n
2

CSA. Inferencia estadstica 9

Si la VA que muestreamos es gaussiana, obtenemos entonces que los estimadores mximo-
verosmiles son la media y la varianza muestral:
= x !
2
=
!
(x
i
-x )
2
n
= S
n
2

Ya comprobamos que la media muestral es un estimador insesgado de la media. Con respecto a
la varianza se puede probar que (aunque las variables no sean normales):
E(S
n
2
) =
n-1
n
!
2

con lo que vemos que el estimador presenta un sesgo. Por ello, en la prctica se utiliza como
estimador de la varianza la cuasi-varianza muestral, dada por:
S
n-1
2
=
!
(x
i
-x )
2
n-1
=
nS
n
2
n-1
que es un estimador insesgado pero con mayor varianza que el anterior. Resulta evidente que para
tamaos muestrales grandes los dos estimadores coinciden.
Respecto a la distribucin de los estimadores, habamos visto que x era asintticamente
gaussiano; en el caso particular de que la muestra provenga de VA normales, x es suma de variables
normales, por lo que ya es exactamente gaussiano. En cuanto a la varianza, se verifica que si las
muestras son normales:

!
(x
i
-x )
2
!
2
=
nS
n
2
!
2
=
(n-1)S
n-1
2
!
2
sigue una distribucin "
n-1
2


Ejemplo 7.4: Si x
1
,x
2
,....,x
n
son los valores de una muestra aleatoria de una poblacin con
distribucin U(a,b); encuentra los estimadores mximo verosmil de a y b.













4. INTERVALOS DE CONFIANZA

En un problema de estimacin, adems de proporcionar un valor para el estimador del
parmetro deseado, es importante dar unos valores que representen un intervalo que contenga al
verdadero valor del parmetro con una probabilidad elevada.
Def: Un Intervalo de Confianza (IC) para # con nivel de confianza 1-$ es una expresin de la
forma (#
1
,#
2
) tal que P(#
1
< # < #
2
) = 1- $.
10 Departamento de Teora de la Seal y Comunicaciones. Universidad de Vigo

Obs 1): #
1
y #
2

dependen de la muestra y se interpretan, frecuencialmente, de manera que, si
construimos muchos intervalos a partir de muestras distintas, el 100(1-$)% de ellos contendr el
verdadero valor del parmetro.
Obs 2): Esta definicin corresponde a un IC bilateral. De forma anloga se definira un IC
unilateral: si #
1
o #
2
fuesen ! o +!; con lo que slo buscaramos una cota superior o inferior para
el parmetro de inters (# < #
2
) o (#
1
< #).
Cmo construir un IC?
Habitualmente se busca una VA que sea funcin g de la muestra y del parmetro, que tenga
distribucin conocida, y sobre la que sea posible despejar el verdadero valor del parmetro:
P( a " g(#, X) " b) = 1-$
y as: P( g
-1
(a, X) " # " g
-1
(b, X)) = 1-$
con lo que haciendo #
1
= g
-1
(a, X) y #
2
= g
-1
(b, X) tendramos el IC deseado.
El valor de $ se prefija de antemano, dos valores muy usuales de $ son 0.05 y 0.01. Para
determinar g (que debe tener distribucin conocida) en muestras pequeas trataremos cada caso por
separado, mientras que en muestras grandes se suele usar el estimador mximo-verosmil, puesto
que ste es asintticamente normal. Finalmente decir que la eleccin de #
1
y #
2
para un intervalo
bilateral se suele hacer de forma simtrica, es decir, si fuera del intervalo (#
1
,#
2
) debe haber una
probabilidad $, elegiremos #
1
de forma que deje a su izquierda la mitad ($/2) y elegiremos #
2
de
forma que deje a su derecha la otra mitad ($/2).

Ejemplo resuelto 7.2:
1) Supongamos X~N(,") con " conocida. Queremos calcular un IC para la media .
Sabemos que Z =
x -
!/ n
~ N(0,1)

Es fcil determinar dos puntos z
$/2
y -z
$/2
tales que P( -z
$/2

< Z < z
$/2

) = 1-$; con lo que,
despejando obtenemos un IC para la media de una poblacin normal con varianza conocida como:
x - z
!/2
"
n
< < x + z
!/2
"
n
Consideraciones:
Observa que la eleccin de los puntos que van a determinar el IC (z
$/2
y -z
$/2
) se ha hecho de
forma que las probabilidades de las colas sean iguales. Como la distribucin N(0,1) es simtrica
respecto a cero, estos dos puntos son opuestos; pero esto no ocurre en otras distribuciones como la
!
2
, es decir no existe ninguna relacin matemtica entre puntos que dejan colas de igual
probabilidad.
Otros ejemplos:
Aparte del ejemplo ya visto, veremos otros casos frecuentes en la prctica. Para cada caso se
proporciona la funcin y la distribucin que permiten calcular el IC. En todo lo que sigue, X ser
una VA normal; 'x y
!
S
n"1
2
denotarn la media y la cuasivarianza muestral y n ser el tamao de la
muestra de la VA X.
CSA. Inferencia estadstica 11

1) IC relativos a una poblacin

IC para: ,

" conocida ,

" desconocida
"
2

Funcin
y distribucin:

!
x "
#/ n
~ N(0,1)

!
x "
S
n"1
/ n
~ t
n"1


!
(n "1)S
n"1
2
#
2
~ $
n"1
2

Observacin:
Se pueden calcular otro tipo de IC tiles para la comparacin de poblaciones normales, por
ejemplo, para la diferencia de medias o para el cociente de varianzas.
Ejemplo 7.5: Clculo del IC para la media de una poblacin normal con varianza desconocida.














Ejercicio 7.1: Se han medido los siguientes valores para una magnitud: 521, 742, 593, 635, 788,
717, 606, 639, 666, 624. Bajo la hiptesis de normalidad, construye un IC para la media, otro para la
varianza y otro para la desviacin tpica. Asume $= 0.05.


























12 Departamento de Teora de la Seal y Comunicaciones. Universidad de Vigo


Ejemplo 7.6: Un programador nos proporciona una subrutina que genera nmeros aleatorios con
distribucin gaussiana. Utilizando este subprograma obtenemos la siguiente secuencia:
4.68 -0.65 11.02 3.81 -3.80 6.26
-0.22 -11.49 4.92 -11.48 -5.10 -11.91 1.90
(a) Determina una estimacin y un IC (del 98%) para la media, la varianza y la desviacin tpica.
(b) El programador asegura que la distribucin generada tiene media cero y varianza 100. Podemos
aceptarlo?




















EJERCICIOS PROPUESTOS:
Propiedades de los estimadores. Cao. Problema propuesto 8.6. Pag. 373.
Mtodo de los momentos. Cao. Problema resuelto 8.9. Pag. 365.
Clculo de Intervalos de Confianza. Pea. Ejercicio 4.7.4. Pag. 186, 1 ed (Ejercicio 4.6.4. Pag
268, 2 ed).

LECTURAS RECOMENDADAS:
Captulo 3. Pea (1 o 2 edicin). Apartado 6) Distribuciones asociadas a la normal.
Captulo 4. Pea (1 o 2 edicin). Muestra y poblacin, estimadores e intervalos de confianza.

INFORMACIN Y DOCUMENTACIN ADICIONAL:
La documentacin de este tema se complementa con un boletn de problemas. En clases de
laboratorio se realizar una prctica de ordenador (prctica #9). Esta prctica dispone de un
enunciado que es recomendable leer antes de asistir al laboratorio.

También podría gustarte