Está en la página 1de 9

ESTADISTICA INFERENCIAL

INTRODUCCION

La Estadística descriptiva y la teoría de la Probabilidad van a ser los pilares de un nuevo


procedimiento (Estadística Inferencial) con los que se va a estudiar el comportamiento
global de un fenómeno. La probabilidad y los modelos de distribución junto con las
técnicas descriptivas, constituyen la base de una nueva forma de interpretar la información
suministrada por una parcela de la realidad que interesa investigar.

Los métodos básicos de la estadística inferencial son la estimación y el contraste de


hipótesis, que juegan un papel fundamental en la investigación.

En este tema se analizan las formas adecuadas para el establecimiento del conocimiento
numérico o abstracto de un parámetro de una población, y que evidentemente nos es
desconocido, partiendo, claro está, de la información suministrada por la muestra.
LA ESTIMACION, como proceso, consiste en que dada una población que siga una

distribución de cierto tipo con función de probabilidad (de cuantía o de densidad) f(X,  

) dependiente de un parámetro o varios desconocido(s) "  ", aventurar en base a los datos
muestrales el valor que toma o puede tomar el parámetro o parámetros.

UN ESTIMADOR  (x) es una función de una muestra genérica x= [x 1, x2, , ..., x n ], es
decir, un estadístico que utilizaremos para estimar el valor del parámetro . Por tanto, es una
variable aleatoria y será necesario para la estimación conocer la distribución muestral del
estimador.

UNA ESTIMACION   será el valor concreto que tomará el estimador al aplicar la


muestra concreta obtenida y será, por tanto, la solución concreta de nuestro problema.

(Cuando no haya lugar para la confusión designaremos al estimador, a veces, como   en

vez de  (x)  )

LA TEORIA DE LA ESTIMACION 

Se ocupará, dentro del marco de la perspectiva clásica, de estudiar las características


deseables de los estimadores permitiéndonos escoger aquel estimador que reúna más
propiedades ventajosas para que realicemos buenas estimaciones.

PROPIEDADES DE LOS ESTIMADORES

INSESGADEZ: un estimador es insesgado o centrado cuando verifica que

       E(  ) =   . (Obsérvese que deberíamos usar  (x)    y    no    , pues


hablamos de estimadores y no de estimaciones, pero como no cabe la confusión, para

simplificar, aquí, y en lo sucesivo usaremos   ) . En caso contrario se dice que el


estimador es sesgado. Se llama sesgo a     .   [se designa con B de BIAS
,sesgo en inglés]
Como ejemplo podemos decir que: la media muestral es un estimador insesgado de la
media de la población (y lo es sea cual fuere la distribución de la población) ya que:

si el parámetro a estimar es    y establecemos como estimador de

, tendremos que   luego la media muestral es un


estimador insegado de la media poblacional.

En cambio la varianza muestral es un estimador sesgado de la varianza de la población, ya

que: si utilizamos como estimador de   la varianza muestral   es decir : 

tendremos que  es el parámetro a


estimar . existe pues un sesgo que será,

Dado que la varianza muestral no es un estimador de la varianza poblacional con


propiedades de insesgadez, conviene establecer uno que si las tenga; este estimador no es
otro que la cuasi varianza muestral, de ahí su importancia ;así la cuasi varianza es en

función de la varianza                y tomada como estimador tendríamos

que  , dado que la esperanza del


estimador coincide con el parámetro a estimar podemos decir que la cuasi varianza
muestral es un estimador insesgado de la varianza de la población.

No obstante, y dado que, cuando el tamaño de la muestra tiende a infinito el sesgo tiende a
cero, se dice que el estimador es asintóticamente insesgado o asintóticamente centrado:

podemos establecer que:      .

Por tanto, la varianza muestral es un estimador sesgado, pero asintóticamente insesgado de


la varianza de la población.

CONSISTENCIA. Un estimador es consistente si converge en probabilidad al parámetro a


estimar. Esto es: si          
     

LINEALIDAD. Un estimador es lineal si se obtiene por combinación lineal de los


elementos de la muestra; así tendríamos que un estimador lineal sería:

                                              

EFICIENCIA. Un estimador es eficiente u óptimo cuando posee varianza mínima o bien


en términos relativos cuando presenta menor varianza que otro. Quedando claro que el
hecho puede plantearse también en términos más coherentes de Error Cuadrático Medio
(ECM). Tendríamos que:

                                  ECM(  ) =

por lo expresado podemos aventurar que un estimador insegado , luego    , es el


único capaz de generar eficiencia. (ir a cota de Cramer-Rao)

SUFICIENCIA. Un estimador es suficiente cuando             no

depende del parámetro a estimar  . En términos más simples: cuando se aprovecha toda
la información muestral.  (ir a teorema de caracterización Neyman-Fisher)

MÉTODOS DE ESTIMACIÓN

Método por analogía. Consiste en aplicar la misma expresión formal del parámetro


poblacional a la muestra, generalmente, estos estimadores son de cómoda operatividad,
pero en ocasiones presentan sesgos y no resultan eficientes. Son recomendables, para
muestras de tamaño grande al cumplir por ello propiedades asintóticas de consistencia.

Método de los momentos. Consiste en tomar como estimadores de los momentos de la


población a los momentos de la muestra. Podríamos decir que es un caso particular del
método de analogía. En términos operativos consiste en resolver el sistema de
equivalencias entre unos adecuados momentos empíricos(muestrales) y
teóricos(poblacionales).
Ejemplo :

conocemos que la media poblacional de una determinada variable x depende de un


parámetro K que es el que realmente queremos conocer (estimar). Así

                                 por el método de los momentos tendríamos que

                                     de donde      

Estimadores maximo-verosimiles. La verosimilitud consiste en otorgar a un


estimador/estimación una determinada "credibilidad" una mayor apariencia de ser el cierto
valor(estimación) o el cierto camino para conseguirlo(estimador).

En términos probabilísticos podríamos hablar de que la verosimilitud es la probabilidad de


que ocurra o se dé una determinada muestra si es cierta la estimación que hemos efectuado
o el estimador que hemos planteado.

Evidentemente, la máxima verosimilitud, será aquel estimador o estimación que nos arroja
mayor credibilidad. En situación formal tendríamos:

Un estimador máximo-verosímil es el que se obtiene maximizando la función de


verosimilitud (likelihood) de la muestra

                                                        

Que es la función de probabilidad (densidad o cuantía) que asigna la probabilidad de que se

obtenga una muestra dependiendo del (o de los) parámetro(s) "  "    pero considerada

como función de   .   Si la distribución de la población es tal que su densidad depende
de uno o más parámetros     ,   la probabilidad (densidad) de cada realización

muestral xi (con i=1,2,..,n) será:       y, a partir de aquí podremos obtener la


función de verosimilitud de la muestra

                                                                 

Si el muestreo es simple:
                                        

por ser independientes cada una de las realizaciones muestrales.

El estimador que maximice          , será el estimador máximo-verosímil


(E.M.V.) Y será aquel valor/expresión para el que se verifique la derivada :

                                                        

Si lo planteado fuera EMV de varios parámetros       

las expresiones serían. 

Debido a que la función de verosimilitud es a fin de cuentas una función de probabilidad,


será una función definida no negativa y por lo tanto alcanzará su máximo en los mismos

puntos que su logaritmo . Por esta razón suele maximizarse   , en


lugar de la propia función de verosimilitud . Suele hacerse esto en todos aquellos casos en
los que la función de verosimilitud depende de funciones exponenciales.

INTERVALOS DE CONFIANZA
Se llama intervalo de confianza a un par o varios pares de números entre los cuales se
estima que estará cierto valor desconocido con un determinado nivel de confianza.
Formalmente, estos números determinan un intervalo, que se calcula a partir de datos de
una muestra, y el valor desconocido es un parámetro poblacional. El nivel de confianza
representa el porcentaje de intervalos que tomados de 100 muestras independientes distintas
contienen en realidad el valor desconocido. En estas circunstancias, α es el llamado error
aleatorio o nivel de significación, esto es, el número de intervalos sobre 100 que no
contienen el valor1
El nivel de confianza y la amplitud del intervalo varían conjuntamente, de forma que un
intervalo más amplio tendrá más probabilidad de acierto (mayor nivel de confianza),
mientras que, para un intervalo más pequeño, que ofrece una estimación más precisa,
aumenta su probabilidad de error.
Para la construcción de un determinado intervalo de confianza es necesario conocer
la distribución teórica que sigue el parámetro a estimar, θ.2 Es habitual que el parámetro
presente una distribución normal. También pueden construirse intervalos de confianza con
la desigualdad de Chebyshev.
En definitiva, un intervalo de confianza al 1 - α por ciento para la estimación de un
parámetro poblacional θ que sigue una determinada distribución de probabilidad, es una
expresión del tipo [θ1, θ2] tal que P[θ1 ≤ θ ≤ θ2] = 1 - α, donde P es la función de
distribución de probabilidad de θ.
El intervalo de confianza se determina calculando una estimación de punto y luego
determinando su margen de error.

Estimación de punto
Este valor individual estima un parámetro de población usando los datos de la
muestra.

Margen de error
Cuando usted utiliza estadísticos para estimar un valor, es importante recordar que,
sin importar lo bien que esté diseñado su estudio, su estimación está sujeta a error
de muestreo aleatorio. El margen de error cuantifica este error e indica la precisión
de la estimación.

Usted probablemente ya entiende el margen de error, porque está relacionado con


los resultados de las encuestas. Por ejemplo, una encuesta política podría indicar
que el nivel de popularidad de un candidato es de 55% con un margen de error de
5%. Esto significa que el nivel de popularidad real es +/- 5% y, por lo tanto, se
ubica entre 50% y 60%.

Para un intervalo de confianza bilateral, el margen de error es la distancia desde el


estadístico estimado hasta cada el valor del intervalo de confianza. Cuando un
intervalo de confianza es simétrico, el margen de error es la mitad del ancho del
intervalo de confianza. Por ejemplo, la longitud media estimada de un árbol de levas
es 600 mm y el intervalo de confianza oscila entre 599 y 601. El margen de error es
1.
Mientras mayor sea el margen de error, más ancho será el intervalo y menos seguro
podrá estar usted del valor de la estimación de punto.

TEORÍA DE DECISIÓN

Estudio formal sobre la toma de decisiones. Los estudios de casos reales, que se sirven de la
inspección y los experimentos, se denominan teoría descriptiva de decisión; los estudios de
la toma de decisiones racionales, que utilizan la lógica y la estadística, se llaman teoría
preceptiva de decisión. Estos estudios se hacen más complicados cuando hay más de un
individuo, cuando los resultados de diversas opciones no se conocen con exactitud y
cuando las probabilidades de los distintos resultados son desconocidas. La teoría de
decisión comparte características con la teoría de juegos, aunque en la teoría de decisión el
‘adversario’ es la realidad en vez de otro jugador o jugadores.

Al hacer un análisis sobre esta teoría, y mirándola desde el punto de vista de un sistema, se
puede decir que, al tomar una decisión sobre un problema en particular, se debe tener en
cuenta los puntos de dificultad que lo componen, para así empezar a estudiarlos uno a uno
hasta obtener una solución que sea acorde a lo que se está esperando obtener de este, y si
no, buscar otras soluciones que se acomoden a lo deseado.

La teoría de decisión, no solamente se puede ver desde el punto de vista de un sistema, sino
en general, porque esta se utiliza a menudo para tomar decisiones de la vida cotidiana, ya
que muchas personas piensan que la vida es como una de las teorías; La teoría del juego,
que para poder empezarlo y entenderlo hay que saber jugarlo y para eso se deben conocer
las reglas de este, para que no surjan equivocaciones al empezar la partida.

PRUEBAS DE HIPOTESIS

Otra manera de hacer inferencia es haciendo una afirmación acerca del valor que el
parámetro de la población bajo estudio puede tomar. Esta afirmación puede estar basada en
alguna creencia o experiencia pasada que será contrastada con la evidencia que nosotros
obtengamos a través de la información contenida en la muestra. Esto es a lo que llamamos
Prueba de Hipótesis.

Una prueba de hipótesis comprende cuatro componentes principales:

 Hipótesis Nula; Denotada como H0 siempre especifica un solo valor del parámetro
de la población si la hipótesis es simple o un conjunto de valores si es compuesta (es
lo que queremos desacreditar).
 Hipótesis Alternativa; Denotada como H1 es la que responde nuestra pregunta, la
que se establece en base a la evidencia que tenemos.
 Estadística de Prueba; Es una estadística que se deriva del estimador puntual del
parámetro que estemos probando y en ella basamos nuestra decisión acerca de si
rechazar o no rechazar la Hipótesis Nula.
 Región de Rechazo; Es el conjunto de valores tales que, si la prueba estadística cae
dentro de este rango, decidimos rechazar la Hipótesis Nula.

REFERENCIAS

Introducción a la Estadística Económica y Empresarial. Teoría y Práctica.' de Fco. Javier


Martín-Pliego López, Editorial Thomson, 2007 (Madrid)

Inferencia, estimación y contraste de hipótesis. Montero Alonso. Estadística II.

Zar, Jerrold H.- Biostatistical Analysis.- 4rd ed.- Prentice Hall, Inc

También podría gustarte