Está en la página 1de 28

1 © Asturias Corporación Universitaria


Índice

1 Intervalos de Confianza para la Proporción ................................................................. 3


1.1 Intervalos de Confianza para la Proporción............................................ 3
1.2 Intervalo de Confianza para la Diferencia de Proporciones .............4
2 Intervalo Aproximado para la Media de una Distribución Cualquiera .................4
3 Resumen ................................................................................................................................. 5
4 Referencias Bibliográficas ................................................................................................ 5

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
Objetivos
• Aprender a usar el método asintótico para la consecución de intervalos de
confianza para la media.

1 Intervalos de Confianza para la Proporción


En este apartado se hace uso del método asintótico para la consecución de
intervalos de confianza para la media, lo cual implica la aproximación de la
distribución de interés a la normal mediante el resultado que dicta del teorema
del límite central, es decir, para tamaños de muestra grandes cuando se busca
un intervalo para la media de una población, el estimador natural es la media
muestral 𝒙̅.
Cabe resaltar que los intervalos de confianza que presentan los textos básicos de
estadística, construidos con base en la aproximación mediante la normal, tienen
un desempeño pobre, pueden resultar intervalos que no tienen sentido o
intervalos con probabilidad de cobertura por debajo del nivel de confianza
nominal, especialmente cuando las muestras no son muy grandes.
Sin embargo se muestran a continuación algunos de ellos con fines didácticos.

1.1 Intervalos de Confianza para la Proporción

Considérese una muestra aleatoria simple 𝑋 extraída de una población definida


por una variable aleatoria 𝑋, distribuida según una Bernoulli de parámetro 𝑝.
Si la variable aleatoria toma valores 0 y 1, el estimador de máxima verosimilitud
“Si la variable aleatoria toma valores 0 y del parámetro 𝑝 es:
𝑛
1, el estimador de máxima verosimilitud
1
1
del parámetro p es: 𝑝̂ = ∑𝑛𝑖=1 𝑥𝑖 = 𝑥̅ ”
𝑝̂ = ∑ 𝑥𝑖 = 𝑥̅
𝑛 𝑛
𝑖=1

Con los supuestos distribucionales adecuados y utilizando una variación del


Teorema de Levy tenemos que:
𝑝̂ − 𝑝 𝑑
𝜋= → 𝑁(0,1)
√𝑝(1 − 𝑝)
𝑛

Lo que indica que esa cantidad 𝜋 converge en distribución a una normal estándar,
luego de este resultado se puede deducir un intervalo de confianza a través de
una aproximación y el resultado es como sigue:
𝑍1−𝛼
2
𝐼(1−𝛼/2) (𝑝̂ ) = (𝑝̂ ± √𝑝̂ (1 − 𝑝̂ ))
√𝑛

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
Ejemplo 7. Un gerente de un canal de televisión debe estimar que porcentaje de
hogares tienen más de un televisor. Una muestra aleatoria de 500 hogares revela
que 275 de ellos tiene 2 o más televisores.
¿Cuál es el intervalo de confianza a un nivel de confianza del 90% para estimar la
proporción de hogares que tienen 2 o más televisores? Entonces tenemos que:

𝑝(1 − 𝑝) (0.55) ∙ (0.45)


√ =√ = 0.022
𝑛 500

Ahora el intervalo vendría dado por:


𝐼0.90 = (0.55 ± (1.65) ∙ (0.022)) = (0.55 ± 0.036) = (0.514,0.586)

1.2 Intervalo de Confianza para la Diferencia de Proporciones

Se consideran ahora dos muestras aleatorias simples 𝑋 y 𝑌 de tamaños 𝑛1 y 𝑛2


respectivamente. Además supongamos que son independientes e idénticamente
“A diferencia del epígrafe anterior en
distribuidas Bernoulli de parámetros 𝑝1 ; 𝑝2 .
este caso tenemos dos variables
El interés se centra ahora en encontrar un intervalo de confianza para la
aleatorias”
diferencia de las proporciones. Haciendo uso de los supuestos distribucionales
y de resultados anteriores se llega a que:

𝑑 𝑝1 (1 − 𝑝1 ) 𝑝2 (1 − 𝑝2 )
𝑝̂1 − 𝑝̂ 2 → 𝑁 (𝑝1 − 𝑝2 , √ + )
𝑛1 𝑛2

De donde se deduce el intervalo de confianza desead como sigue:

𝑝̂1 (1 − 𝑝̂1 ) 𝑝̂ 2 (1 − 𝑝̂ 2 )
𝐼(1−𝛼/2) (𝑝1 − 𝑝2 ) = (𝑝̂1 − 𝑝̂ 2 ± 𝑍1−𝛼/2 √ + )
𝑛1 𝑛2

2 Intervalo Aproximado para la Media de una Distribución


Cualquiera
Sea 𝑿 una muestra aleatoria simple de una distribución cualquiera con media 𝝁,
además supongamos que el tamaño de dicha muestra se considera grande para
“En este caso la muestra aleatoria simple
su población en particular, entonces aplicando el teorema del límite central,
tiene una distribución cualquiera”
tenemos que:
𝑥̅ − 𝜇
𝑍=𝑠 ~𝑁(0,1)
⁄ 𝑛

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
Entonces para cualquier valor 𝜶 ∈ (𝟎, 𝟏) podemos encontrar un valor 𝒁𝜶/𝟐 en la
tabla de la normal tal que:

𝑥̅ − 𝜇
𝑃 (−𝑍𝛼/2 < 𝑠 < 𝑍𝛼/2 ) = 1 − 𝛼
⁄ 𝑛

Así, despejando a 𝝁 conocido, tenemos que:


𝑆 𝑆
𝑃 (𝑥̅ − 𝑍𝛼/2 < 𝜇 < 𝑥̅ + 𝑍𝛼/2 )=1−𝛼
√𝑛 √𝑛

Es un intervalo de confianza aproximado para el parámetro desconocido 𝝁 pues


contiene a dicho parámetro con probabilidad 𝟏 − 𝜶.

3 Resumen
• Los intervalos de confianza que presentan los textos básicos de estadística,
construidos con base en la aproximación mediante la normal, tienen un
desempeño pobre, pueden resultar intervalos que no tienen sentido o
intervalos con probabilidad de cobertura por debajo del nivel de confianza
nominal, especialmente cuando las muestras no son muy grandes.
• Dentro de los intervalos de confianza para la proporción nos encontramos
con intervalos de confianza para la proporción e intervalos de confianza
para la diferencia de proporciones.
• También debemos tener en cuenta el intervalo aproximado para la media de
una distribución cualquiera, para cuando una muestra aleatoria simple siga
una distribución cualquiera con media µ.

4 Referencias Bibliográficas
• Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A.
S., y otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz:
Servicio de Publicaciones de la Universidad de Cádiz.
• Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística
Aplicada a la Ingeniería. México: Limusa Wiley.
• Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.

1 © Asturias Corporación Universitaria


Índice

1 Introducción .......................................................................................................................... 3
2 Método de la Variable Pivotal .......................................................................................... 3
2.1 Intervalo Aleatorio .......................................................................................... 3
2.2 Intervalo de Confianza (1 – α) .................................................................... 3
2.3 Límites del Intervalo .....................................................................................4
2.4 Variable Aleatoria Pivotal .............................................................................4
2.5 Método de la Variable Pivotal .....................................................................4
3 Intervalos de Confianza en Poblaciones Normales ...................................................4
3.1 Intervalo de Confianza para la Media, Conocida la Varianza ............ 5
3.2 Intervalo de Confianza para la Media, Desconocida la Varianza......6
3.3 Intervalo de Confianza para la Varianza, Conocida la Media ............ 7
3.4 Intervalo de Confianza para la Varianza, Desconocida la Media ...... 7
3.5 Intervalo de Confianza para la Diferencia de Medias de Muestras
Pareadas ............................................................................................................ 7
3.6 Intervalo de Confianza para la Diferencia de Medias de Muestras
Independientes ...............................................................................................8
4 Resumen ............................................................................................................................... 10
5 Referencias Bibliográficas .............................................................................................. 10

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
Objetivos
• Objetivo 1: Estudiar los intervalos de confianza.
• Objetivo 2: Aprender cómo se hace inferencia sobre los parámetros más
conocidos y comunes.

1 Introducción
En esta unidad de aprendizaje estudiaremos uno de los métodos de estimación
que está tomando mayor importancia en el ámbito de la estadística aplicada.
Nos referimos a los intervalos de confianza, éstos presentan ventajas sobre
otros métodos de estimación que veremos más adelante, debido a que estos
aportan mayor información en magnitud y precisión de las estimaciones,
permitiendo una mejor interpretación de las estimaciones hechas sobre ellas.
Veremos cómo se hace inferencia sobre los parámetros más conocidos y
comunes, así como también las distintas interpretaciones que se presentan en
cada caso

2 Método de la Variable Pivotal


Dada una muestra aleatoria simple proveniente de una variable aleatoria 𝑿 con
“Es un método para calcular intervalos función de densidad o masa de probabilidad 𝒇𝑿 (𝒙; 𝜽), el interés se centrará
de confianza a partir de una función de entonces en encontrar un método para calcular intervalos de confianza a partir
valores muestrales que contenga bajo
de una función de valores muestrales que contenga bajo un nivel de confianza
dado al parámetro, con la condición de que su distribución no contenga al
un nivel de confianza dado al
parámetro.
parámetro”

2.1 Intervalo Aleatorio

Es un intervalo tal que al menos uno de sus extremos es una variable aleatoria.

2.2 Intervalo de Confianza (1 – α)

Dada una muestra aleatoria simple proveniente de una variable aleatoria 𝑋 con
“En el intervalo aleatorio, al menos función de densidad o masa de probabilidad 𝑓𝑋 (𝑥; 𝜃), en la cual dicha distribución
uno de sus extremos es una variable depende de un parámetro desconocido 𝜃, dadas las estadísticas 𝜃(𝑥) y 𝜃 ′ (𝑥) el
aleatoria”
intervalo de confianza de nivel (1 − 𝛼)100%, es tal que:
𝑃[𝜃(𝑥) ≤ 𝜃 ≤ 𝜃 ′ (𝑥)] ≥ 1 − 𝛼

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
2.3 Límites del Intervalo

En un intervalo aleatorio las estadísticas 𝜃(𝑥) y 𝜃 ′ (𝑥) se denominan limite


“Los límites del intervalo: límite confidencial inferior y limite confidencial superior respectivamente.
confidencial inferior y límite confidencial

superior” 2.4 Variable Aleatoria Pivotal

Dada una muestra aleatoria 𝑥1 , 𝑥2 , … , 𝑥𝑛 de una variable aleatoria 𝑋 con función de


densidad o masa de probabilidad 𝑓𝑋 (𝑥; 𝜃), Sea 𝑄𝑥 = 𝑞(𝜃, 𝑥1 , 𝑥2 , … , 𝑥𝑛 ) una función
de variables aleatoria de valores muestrales y del parámetro 𝜃. 𝑄𝑥
Se denomina variable aleatoria pivotal para el parámetro 𝜃, si la distribución de
𝑄𝑥 no depende de 𝜃.
Ejemplo 1: Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 una muestra aleatoria de una población normal
𝑥̅ −𝜇
𝑁(𝜇, 𝜎 2 ) la variable aleatoria 𝑧 = 𝜎2 es una cantidad pivotal si 𝜎 2 es conocido,

entonces tenemos que efectivamente: √𝑛

𝑥̅ − 𝜇
𝑧= ~𝑁(0,1)
𝜎 2⁄
√𝑛

𝜎 2 Es conocido.
Ejemplo 2: Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 una muestra aleatoria de una población normal
𝑥̅ −𝜇
𝑁(𝜇, 𝜎 2 ); 𝜎 2 conocido, la variable aleatoria 𝑡 = 𝑆 es una cantidad pivotal,

entonces tenemos que efectivamente, la variable √𝑛 aleatoria 𝑡 depende de los
valores 𝑥1 , 𝑥2 , … , 𝑥𝑛 a través de 𝑥̅ y 𝑆 2 . Además está en función del parámetro 𝜇,
entonces:
𝑥̅ − 𝜇
𝑡= ~𝑡(𝑛−1)
𝑆⁄
√𝑛

2.5 Método de la Variable Pivotal

Sea 𝑄𝑥 una variable pivotal de 𝜃 de una cierta población con función densidad o
masa de probabilidad entonces para un cierto nivel de confianza 1 − 𝛼 ∈ (0,1),
existen constantes 𝑞1 ∧ 𝑞2 que dependen de un nivel de confianza 1 − 𝛼 tal que
𝑃𝜃 [𝑞1 ≤ 𝑄𝑥 ≤ 𝑞2 ] = 1 − 𝛼, si para cada valor muestral 𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝑞1 ≤
(1) (2)
𝑄𝑥 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ≤ 𝑞2, si y solo si 𝑃[𝜃̂1 < 𝜃̂2 ] = 1 luego el intervalo (𝜃̂𝑛 , 𝜃̂𝑛 ) es un
intervalo de confianza para (1 − 𝛼)100%.

3 Intervalos de Confianza en Poblaciones Normales


Acorde con los objetivos de esta unidad de aprendizaje abordamos ahora el
“Para la obtención de los intervalos de
estudio de la obtención de intervalos de confianza en poblacionales normales
confianza tomamos como base el

método de cantidades pivótales”

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
debido a la trascendencia que tiene esta distribución de probabilidad en el
estudio y aplicación de la estadística clásica.
Se toma como base el método de cantidades pivótales para la obtención de los
intervalos, como vimos anteriormente, por su facilidad de cálculo tanto en el caso
de una o dos poblaciones que por simplicidad se estudiaran en conjunto.

3.1 Intervalo de Confianza para la Media, Conocida la Varianza

Tomando la siguiente cantidad pivotal:


𝑥̅ − 𝜇
𝑧= ~𝑁(0,1)
𝜎 2⁄
√𝑛

Para cualquier valor de 𝛼 ∈ (0, 1) podemos encontrar un valor 𝑍𝛼/2 en tablas de


probabilidad normal estándar, véase Gráfico 1.
Así, tenemos que un intervalo de confianza para la media 𝜇 de una distribución
“Un intervalo de confianza para la normal con varianza conocida 𝜎 2 está dado por la siguiente expresión:
media µ de una distribución normal 𝜎 𝜎
𝑃 (𝑥̅ − 𝑍1−𝛼 < 𝜇 < 𝑥̅ + 𝑍1−𝛼 )=1−𝛼
2 √𝑛 2 √𝑛
con varianza conocida está dada por la

expresión que se indica”

Gráfico 1: Valores 𝑍𝛼
2

Ejemplo 3. Suponga que la vida promedio útil, medida en horas, de focos de 100
watts producidos por cierta compañía, puede ser modelada mediante una variable
aleatoria con distribución normal de media 𝜇 y varianza 𝜎 2.
Suponga que la desviación estándar 𝜎 es conocida y es igual a 30 horas.
El objetivo es encontrar un intervalo de confianza para la vida promedio útil 𝜇 de
los focos producidos por esta compañía. Para ello se toma una muestra de 20
focos y mediante pruebas de laboratorio se determina la vida útil de cada uno de
ellos. Los resultados 𝑥1 , . . . , 𝑥20 arrojan una media muestral 𝑥̅ de 1050 horas.
Si consideramos un nivel de confianza del 95%, es decir, 𝛼 = 0.05, de la tabla de
“A un nivel de confianza 95% z=1,96” probabilidad normal se encuentra que 𝑍𝛼/2 = 𝑍0.025 = 1.96, y entonces puede ahora
calcularse el intervalo:

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
𝜎 𝜎 30 30
(𝑥̅ − 𝑍𝛼/2 , 𝑥̅ − 𝑍𝛼/2 ) = (1050 − 1.96 ∙ , 1050 + 1.96 ∙ )
√𝑛 √𝑛 20 20
= (1050 − 13.148, 1050 + 13.148) = (1036.852, 1063.148)

3.2 Intervalo de Confianza para la Media, Desconocida la Varianza

Tomando la siguiente cantidad pivotal:


𝑥̅ − 𝜇
𝑡= ~𝑡(𝑛−1)
𝑆⁄
√𝑛

Para cualquier valor de 𝛼 ∈ (0, 1) podemos encontrar un valor 𝑡𝛼/2 en tablas de


“Un intervalo de confianza para la
probabilidad de la distribución 𝑡 de 𝑛 − 1 grados de libertad, véase Gráfico 2. Así
tenemos que un intervalo de confianza para la media 𝜇 de una distribución normal
media µ de una distribución normal
con varianza desconocida 𝜎 2 está dado por la siguiente expresión:
con varianza desconocida está dada
𝑆 𝑆
por la expresión que se indica” 𝑃 (𝑥̅ − 𝑡𝛼/2 < 𝜇 < 𝑥̅ + 𝑡𝛼/2 )= 1−𝛼
√𝑛 √𝑛

Gráfico 2: Valores 𝑡𝛼/2


Ejemplo 4. Un importante empresario de la ciudad desea comprar una empresa
de trasportes de limosinas. La decisión depende si el rendimiento del auto en
consideración es de por lo menos 27.5 millas por galón de gasolina.
Los 36 autos que prueba la compañía del empresario reportan una media de 26.5
millas por galón de gasolina con una desviación estándar de 3.5 millas por galón
de gasolina a un nivel de confianza del 99%, ¿Qué le aconsejaría al empresario?
Entonces, el intervalo se calcula de la siguiente manera:
3.5
𝐼𝛼/2 = (26.5 ± (2.58) ∙ ) = (24.10, 27.11)
√36

Puede estar un 99% seguro que las millas por galón promedio del auto es menor
que el mínimo de 27.5. Se le aconseja que busque otro modelo.

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
3.3 Intervalo de Confianza para la Varianza, Conocida la Media

Tomando la siguiente cantidad pivotal:


𝑛
𝑥𝑖 − 𝜇 2
𝑡 = ∑( ) ~𝜒𝑛2
𝜎
𝑖=1

Tenemos que un intervalo de confianza para la varianza 𝜎 2 de una distribución


“Un intervalo de confianza para la normal con media 𝜇 conocida, está dado por la siguiente expresión:
varianza de una distribución normal 𝑛𝑆 2 𝑛𝑆 2
con media µ conocida está dada por
𝑃( 2 < 𝜎2 < 2 )= 1−𝛼
𝜒𝑛;1−𝛼/2 𝜒𝑛;𝛼/2
la expresión que se indica”

3.4 Intervalo de Confianza para la Varianza, Desconocida la Media

Tomando la siguiente cantidad pivotal:


𝑛
𝑥𝑖 − 𝑥̅ 2 2
𝑡 = ∑( ) ~𝜒(𝑛−1)
𝜎
𝑖=1

Tenemos que un intervalo de confianza para la varianza 𝜎 2 de una distribución


“Un intervalo de confianza para la
normal con media 𝜇 desconocida, está dado por la siguiente expresión:
varianza de una distribución normal 𝑛𝑆 2 𝑛𝑆 2
𝑃( 2 < 𝜎2 < 2 )= 1−𝛼
con media µ desconocida está dada 𝜒𝑛−1;1−𝛼/2 𝜒𝑛−1;𝛼/2
por la expresión que se indica”
Ejemplo 5. Se sabe que el peso por comprimido de un cierto preparado
farmacéutico se distribuye según una Normal. Con el objeto de estudiar la
varianza de la distribución, se extrae una muestra aleatoria simple de 6 artículos.
Sabiendo que la varianza muestral es igual a 40, se pretende estimar la varianza
poblacional mediante un intervalo de confianza al 90%.
Donde 𝛼 = 0.01. 𝑛 = 6. 𝑆 2 = 40.
Así: 𝜒5,0.95
2 2
= 11.07; 𝜒5,0.05 = 1.145,
Entonces,
6 ∙ 40 6 ∙ 40
𝐼0.90 = ( , ) = (21.68, 209.61 )
11.07 1.145

3.5 Intervalo de Confianza para la Diferencia de Medias de Muestras


Pareadas

Se dice que dos variables aleatorias 𝑋 y 𝑌 son pareadas cuando los datos son
“Dos variables aleatorias son pareadas tomados por parejas de un solo individuo.
cuando los datos son tomados por

parejas de un solo individuo”

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
En los casos de muestras apareadas, el modo de proceder para obtener un
intervalo de confianza para la diferencia de medias es considerar una única
muestra formada por la diferencia de los pares de valores, 𝐷𝑖 = 𝑌𝑖 − 𝑋𝑖 reduciendo
así el problema a encontrar un intervalo de confianza para la media de una
población
𝑆 𝑆
̅−𝑡1−𝛼/2
𝑃 (𝐷 ̅ −𝑡1−𝛼/2
< 𝜇2 − 𝜇1 < 𝐷 )=1−𝛼
√𝑛 √𝑛

3.6 Intervalo de Confianza para la Diferencia de Medias de Muestras


Independientes

Si 𝑋 y 𝑌 son dos muestras aleatorias independientes, es decir, provienen de dos


“Dos muestras aleatorias son independientes poblaciones normales distintas, tomando como cantidad pivote
cuando provienen de dos poblaciones
𝑆12 𝑆22
𝑡 = (𝑛1 − 1) + (𝑛2 − 1) ~𝜒 2
normales distintas”
𝜎12 𝜎22 (𝑛1+𝑛2 −2)

Se puede llegar a las siguientes conclusiones representadas en intervalos de


confianza que se derivan de la cantidad pivotal y se toman como subtemas para
un mejor desarrollo de la teoría y se describen a continuación:
• Intervalo de confianza cuando las varianzas son conocidas
Tomando la siguiente cantidad pivotal:
𝑥̅ − 𝑦̅ − (𝜇2 − 𝜇1 )
~𝑁(0,1)
𝜎2 𝜎22
√ 1 +
𝑛1 𝑛2

Tenemos que un intervalo de confianza para la diferencia de medias (𝜇2 − 𝜇1 ) de


dos poblaciones con distribución normal con varianzas 𝜎12 , 𝜎22 conocidas, está
dado por la siguiente expresión:

𝜎12 𝜎22 𝜎2 𝜎 2
𝑃 (𝑥̅ − 𝑦̅ − 𝑧1−𝛼 √ + ≤ 𝜇2 − 𝜇1 ≤ 𝑥̅ − 𝑦̅ + 𝑧1−𝛼 √ 1 + 2 ) = 1 − 𝛼
2 𝑛1 𝑛2 2 𝑛1 𝑛2

Ejemplo 6. Se quiere estudiar la diferencia de las vidas medias de dos tipos de


lámparas. Para ello, se toma una muestra de 150 lámparas de tipo H y otra,
independiente de la anterior, de 200 lámparas de tipo. N, obteniéndose que las
de tipo H tienen una vida media de 1400 horas y una desviación típica de 120, y
que las de tipo N tienen una vida media de 1200 horas y desviación típica 80.
Para estimar la diferencia de medias se construye un intervalo de confianza al 95
%, que viene dado por:

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
1202 802
𝐼0.95 (1400 − 1200 ± 1.96√ + ) = (177.8,222.2)
150 200

• Intervalo de confianza cuando las varianzas son desconocidas e iguales


Tomando la siguiente cantidad pivotal:
−1
𝑥̅ − 𝑦̅ − (𝜇2 − 𝜇1 ) 1 1
(√ + )
𝜎 𝑛1 𝑛2
~𝑡(𝑛1+𝑛2−2)
(𝑛 − 1)𝑆 2 + (𝑛2 − 1)𝑆22
√ 1 2 1
𝜎 (𝑛1 + 𝑛2 − 2)

Tenemos que un intervalo de confianza para la diferencia de medias (𝜇2 − 𝜇1 ) de


dos poblaciones con distribución normal con varianzas 𝜎12 , 𝜎22 desconocidas e
iguales, está dado por la siguiente expresión:

(𝑛1 )𝑆12 + (𝑛2 )𝑆22 1 1


𝐼1−𝛼/2 = (𝑥̅ − 𝑦̅ ± 𝑡(𝑛 𝛼 √ ( + ))
1 +𝑛2 −2, 1− 2 ) (𝑛1 + 𝑛2 − 2) 𝑛1 𝑛2

• Intervalo de confianza cuando las varianzas son desconocidas y distintas


Luego de algunos cálculos no concernientes al desarrollo de este curso y
utilizando la aproximación de Welch. Tenemos que se encuentra la siguiente
cantidad:
𝑥̅ − 𝑦̅ − (𝜇2 − 𝜇1 )
~𝑡(𝑎,1−𝛼 )
2
𝑆2 𝑆2
√ 1+ 2
𝑛1 𝑛2

Con factor de corrección 𝑎 tomado como sigue:


2
𝑆2 𝑆2
(𝑛1 + 𝑛2 )
1 2
𝑎= 2 2 −2
1 𝑆2 1 𝑆2
( 1) + ( 2)
𝑛1 + 1 𝑛1 𝑛2 + 1 𝑛2

Tenemos que un intervalo de confianza para la diferencia de medias (𝜇2 − 𝜇1 ) de


dos poblaciones con distribución normal con varianzas 𝜎12 , 𝜎22 desconocidas y
distintas, está dado por la siguiente expresión:

𝑆12 𝑆22
𝐼1−𝛼/2 (𝜇2 − 𝜇1 ) = (𝑥̅ − 𝑦̅ ± 𝑡(𝑎, 𝛼 √( + ))
1− )
2 𝑛1 𝑛2

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
4 Resumen
• Dada una muestra aleatoria simple proveniente de una variable aleatoria 𝑿
con función de densidad o masa de probabilidad 𝒇𝑿 (𝒙; 𝜽), el interés se
centrará en encontrar un método para calcular intervalos de confianza a
partir de una función de valores muestrales que contenga bajo un nivel de
confianza dado, al parámetro, con la condición de que su distribución no
contenga al parámetro.
• Se toma como base el método de cantidades pivótales para la obtención de
los intervalos por su facilidad de cálculo tanto en el caso de una o dos
poblaciones que por simplicidad se estudiaran en conjunto.

5 Referencias Bibliográficas
• Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A.
S., y otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz:
Servicio de Publicaciones de la Universidad de Cádiz.
• Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística
Aplicada a la Ingeniería. México: Limusa Wiley.
• Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.

1 © Asturias Corporación Universitaria


Índice

1 Propiedades de los Estimadores Puntuales ................................................................. 3


1.1 Insesgamiento ................................................................................................. 3
1.2 Consistencia ..................................................................................................... 3
1.3 Suficiencia ........................................................................................................4
1.4 Eficiencia .........................................................................................................4
2 Distribuciones de Muestrales ........................................................................................... 5
2.1 Distribución de la Media Muestral ............................................................. 5
2.2 Distribución de la Varianza Muestral ........................................................ 5
2.3 Distribución de la Proporción Muestral .................................................... 5
3 Resumen .................................................................................................................................6
4 Referencias Bibliográficas ................................................................................................6

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
Objetivos
• Objetivo 1: Conocer las distintas propiedades de los estimadores puntuales.
• Objetivo 2: Conocer la distribución asintótica de las estadísticas
muestrales.

1 Propiedades de los Estimadores Puntuales

1.1 Insesgamiento

Un escenario ideal en la estimación puntual es que su estimador en promedio


sea muy parecido al parámetro, luego un estimador se dice insesgado si y solo si
“En la estimación puntual el estimador
se cumple que:
en promedio debería ser muy parecido

al parámetro”
𝐸(𝜃̂) = 𝜃

Observación: Si el valor esperado del estimador no es el parámetro, es decir,


𝐸(𝜃̂) ≠ 𝜃, el estimador no es insesgado o se dice que tiene sesgo.
El sesgo se define como sigue:
𝐵(𝜃̂) = 𝐸(𝜃̂) − 𝜃

De donde también se define una estadística de error muy importante, el error


cuadrático medio, notado como 𝑀𝑆𝐸𝜃 y escrito de la siguiente manera:
2
𝑀𝑆𝐸𝜃 = 𝑉(𝜃̂) + [𝐵(𝜃̂)]

Ejemplo 6: El promedio muestral es un estimador insesgado para la media


poblacional de cualquier distribución con media 𝜇. Entones veamos que 𝐸(𝑥̅ ) = 𝜇,
en efecto:
𝑛 𝑛 𝑛
1 1 1 1
𝐸(𝑥̅ ) = 𝐸 [ ∑ 𝑥𝑖 ] = ∑ 𝐸(𝑥𝑖 ) = ∑ 𝜇 = 𝑛𝜇 = 𝜇
𝑛 𝑛 𝑛 𝑛
𝑖=1 𝑖=1 𝑖=1

1.2 Consistencia

Cuando el estimador no es insesgado en primera medida, lo que sería lo idóneo,


se requiere al menos que su valor oscile cerca del valor del parámetro para
tamaños de muestra grandes, es decir, un estimador es consistente cuando:
• lim 𝐸(𝜃̂) = 𝜃
𝑛→∞
• lim 𝑉(𝜃̂) = 0
𝑛→∞

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
Ejemplo 7: Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 una muestra aleatoria de una población 𝑁(𝜇, 𝜎 2 ), se
1
define la media muestral 𝑥̅ = ∑𝑛𝑖=1 𝑥𝑖 mostremos que este es un estimador
𝑛
consiste para la media 𝜇. Entonces veamos que lim 𝐸(𝑥̅ − 𝜇)2 = 0, en efecto:
𝑛→∞
𝐸(𝑥̅ − 𝜇)2 = 𝐸(𝑥̅ 2 − 2𝑥̅ 𝜇 + 𝜇2 ) = 𝐸(𝑥̅ 2 ) − 2𝜇𝐸(𝑥̅ ) + 𝜇2

Pero
𝑉(𝑥̅ ) = 𝐸 2 (𝑥̅ ) − 𝐸(𝑥̅ 2 ) ⇒ 𝐸(𝑥̅ − 𝜇)2 = 𝑉(𝑥̅ ) + 𝐸 2 (𝑥̅ ) − 2𝜇𝐸(𝑥̅ ) + 𝜇2
Luego
𝜎2 𝜎2
𝐸(𝑥̅ − 𝜇)2 = 𝑉(𝑥̅ ) + 𝐸 2 (𝑥̅ ) − 2𝜇𝐸(𝑥̅ ) + 𝜇2 = + 𝜇2 − 2𝜇2 + 𝜇2 =
𝑛 𝑛

Ahora bien
𝜎2
lim 𝐸(𝑥̅ − 𝜇)2 = lim =0
𝑛→∞ 𝑛→∞ 𝑛

1.3 Suficiencia

Intuitivamente hablando un estimador es suficiente para un parámetro si toda


la información acerca del parámetro está contenida en la muestra.
“Un estimador es suficiente si la

información acerca del parámetro está


Formalmente sería: una estadística 𝜃̂ se dice suficiente para 𝜃 basada en una
muestra aleatoria 𝑥1 , 𝑥2 , … , 𝑥𝑛 de una población con función masa o de densidad
contenida en la muestra”
de probabilidad 𝑓𝑥 (𝑥, 𝜃). Si la distribución condicional de las variables aleatorias
𝑥1 , 𝑥2 , … , 𝑥𝑛 dado 𝜃̂ no depende del parámetro 𝜃, es decir, 𝜃̂ es un estimador
suficiente de 𝜃 si:
𝑓𝑥 (𝑥1 , 𝑥2 , … , 𝑥𝑛 |𝜃̂ = 𝜃) = 𝑔(𝑥̂);

Donde 𝑔(𝑥̂) = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ).

1.4 Eficiencia

La eficiencia es un requisito de precisión, esto es, es más preciso aquel


“El estimador más preciso será aquel estimador que tenga menor varianza ya que tiene la capacidad de producir
que tenga menor varianza” estimaciones más centradas.
Así sean 𝜃̂ y 𝜃̂ ′ dos estimadores insesgados para 𝜃, estimadores basados en una
muestra aleatoria 𝑥1 , 𝑥2 , … , 𝑥𝑛 de una población con función masa o de densidad
de probabilidad 𝑓𝑥 (𝑥, 𝜃), se dice que 𝜃̂ es estimador uniformemente mejor que 𝜃̂ ′
si:
𝑉(𝜃̂) ≤ 𝑉(𝜃̂ ′ )

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
2 Distribuciones de Muestrales
Es de interés conocer la distribución asintótica de las estadísticas muéstrales
“Permiten estimaciones con mayor para fines de estimaciones de mayor calidad y precisión.
calidad y precisión”
A continuación se muestran algunas de estas, las más comunes e importantes.

2.1 Distribución de la Media Muestral

Sea 𝑥̅ la media muestral proveniente de una muestra aleatoria 𝑥1 , 𝑥2 , … , 𝑥𝑛 de


tamaño 𝑛 entonces para tamaños de muestra grandes:
𝑋~𝑁(𝜇, 𝜎 2 /√𝑛).

Este resultado se deduce del teorema del límite central, además de que por ser
combinaciones lineales de normales se hereda la normalidad.

2.2 Distribución de la Varianza Muestral

Sea 𝑥̅ y 𝑆 2 la media y varianza muestral respectivamente, provenientes de una


muestra aleatoria 𝑥1 , 𝑥2 , … , 𝑥𝑛 de tamaño 𝑛, entonces para tamaños de muestra
grandes:
𝑛−1 2 2(𝑛 − 1) 4
𝐸(𝑆 2 ) = 𝜎 ; 𝑉(𝑆 2 ) = 𝜎
𝑛 𝑛2

De donde se deduce que (omitiendo las demostraciones no pertinentes a este


curso):
(𝑛 − 1)𝑆 2 2
~𝜒(𝑛−1)
𝜎2

2.3 Distribución de la Proporción Muestral

Utilizando las mismas conclusiones a partir del teorema del límite central, como
es de saber para tamaños de muestra considerados grandes, para una población
con función de densidad masa 𝐵𝑒𝑟(𝑝), se tiene que la distribución de la
proporción muestral se puede aproximar mediante una normal, tal que:
𝑝𝑞
𝑝̂ ~𝑁 (𝑝, √ )
𝑛

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
3 Resumen
• Las propiedades de los estimadores puntuales son: el insesgamiento, la
consistencia, la suficiencia y la eficiencia.
• La distribución asintótica permite realizar estimaciones de mayor calidad
y precisión.
• Las distribuciones de muestrales más comunes son: la distribución de la
media muestral, la distribución de la varianza muestral y la distribución de
la proporción muestral.

4 Referencias Bibliográficas
• Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A.
S., y otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz:
Servicio de Publicaciones de la Universidad de Cádiz.
• Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística
Aplicada a la Ingeniería. México: Limusa Wiley.
• Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.

1 © Asturias Corporación Universitaria


Índice

1 Introducción .......................................................................................................................... 3
2 Conceptos Básicos .............................................................................................................. 3
2.1 Muestra Aleatoria ............................................................................................ 3
2.2 Parámetro.......................................................................................................... 3
2.3 Estadística.........................................................................................................4
2.4 Estimador ..........................................................................................................4
3 Métodos de Estimación ......................................................................................................4
3.1 Método de los Momentos .............................................................................4
3.2 Método de Máxima Verosimilitud .............................................................. 5
3.3 Método por Analogía......................................................................................6
4 Resumen ................................................................................................................................. 7
5 Referencias Bibliográficas ................................................................................................ 7

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
Objetivos
• Objetivo 1: Ser capaz de sacar conclusiones a partir de la aplicación de
estadísticas a muestras aleatorias.
• Objetivo 2: Acercar valores estimados a los valores reales de los parámetros
poblacionales a través de métodos de estimación.

1 Introducción
En esta unidad de aprendizaje trataremos el estudio de la rama de la estadística
que se encarga de sacar conclusiones a partir de la aplicación de estadísticas a
muestras aleatorias, las cuales siguen una distribución de probabilidad con
parámetros desconocidos.
Entonces nuestro interés se centra en este caso, en acercar valores estimados a
los valores reales de los parámetros poblacionales por medio de métodos de
estimación, teniendo en cuenta las propiedades de esos en cuanto a calidad y
errores se refiere.

2 Conceptos Básicos

2.1 Muestra Aleatoria

Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 𝑣. 𝑎 independientes con la misma función de densidad de


probabilidad 𝑓𝑋 (𝑥), se define 𝑥1 , 𝑥2 , … , 𝑥𝑛 como una muestra aleatoria de tamaño
“Se define 𝑥1 , 𝑥2, … , 𝑥𝑛 como una
𝑛.
muestra aleatoria de tamaño n”
Nótese que según esta definición la muestra aleatoria está tomando como
realizaciones de una 𝑣. 𝑎 y no como datos observados de la población como en el
caso del muestreo.

2.2 Parámetro

Es un valor poblacional que caracteriza a una distribución o a una población y


por lo general es desconocido. Los parámetros más usados son:
“El parámetro es un valor poblacional

generalmente desconocido”
• 𝜇 : Media poblacional
• 𝜎 2 : Varianza poblacional
• 𝜌 : Proporción poblacional
• 𝜏 :Total poblacional
• 𝑚á𝑥(𝑥𝑗 ): Máximo poblacional
• min(𝑥𝑗 ): Mínimo poblacional

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
2.3 Estadística

Es una función de 𝑣. 𝑎 observables que no contienen parámetros desconocidos.

“La estadística no contiene parámetros


Ejemplo1: Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 una muestra aleatoria de tamaño 𝑛. Entonces:
desconocidos” • La función
𝑛
1
𝑥̅ = ∑ 𝑥𝑖
𝑛
𝑖=1

Es una estadística.
• La función 𝑥̅ + 𝜎 2 no es una estadística, si 𝜎 2 es desconocido.

2.4 Estimador

Es un estadístico de valores muestrales, que se usa para estimar parámetros


poblacionales. Los estimadores más usados son:
“El estimador es un estadístico de

valores muestrales que se usa para • 𝜇̂ = 𝑥̅ : Media muestral


estimar parámetros poblacionales” • 𝜎̂ 2 = 𝑆 2: Varianza muestral
• 𝜌̂: Proporción muestral
• 𝜏̂ :Total muestral
̂ (𝑥𝑗 ): Máximo muestral
• 𝑚á𝑥
̂ (𝑥𝑗 ): Mínimo muestral
• 𝑚í𝑛
Ejemplo 2: Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 una muestra aleatoria de tamaño 𝑛 perteneciente a
una distribución normal con media desconocida 𝜇 y varianza 𝜎 2.
Entonces si 𝑥1 = 2.1, 𝑥2 = 2.5, 𝑥3 = 3.1, 𝑥4 = 4.1 , 𝑥5 = 2.8 el valor de 𝑥̅ = 2.92 es una
estimación de 𝜇.

3 Métodos de Estimación

3.1 Método de los Momentos

Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 una muestra aleatoria de tamaño 𝑛 de una población con


distribución 𝑓(𝑥, 𝜃̂), donde 𝜃̂ = (𝜃1 , 𝜃2 , … , 𝜃𝑘 ) es un vector de parámetros.
“Consiste en igualar los momentos
Entonces consiste en igualar los momentos poblacionales respecto al origen, con
poblacionales respecto al origen”
los correspondientes momentos muestrales, esto es:

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
𝑛
1
𝐸(𝑥) = 𝜇1 (𝜃1 , 𝜃2 , … , 𝜃𝑘 ) = ∑ 𝑥𝑖
𝑛
𝑖=1
𝑛
1
𝐸(𝑥 2 ) = 𝜇2 (𝜃1 , 𝜃2 , … , 𝜃𝑘 ) = ∑ 𝑥𝑖2
𝑛
𝑖=1

𝑛
1
𝐸(𝑥 𝑘)
= 𝜇𝑘 (𝜃1 , 𝜃2 , … , 𝜃𝑘 ) = ∑ 𝑥𝑖𝑘
𝑛
𝑖=1

̂ = (𝜽𝟏 , 𝜽𝟐 , … , 𝜽𝒌 )
Y se resuelve el sistema para hallar 𝜽
Ejemplo 3: Sea 𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 una muestra aleatoria de tamaño 𝒏 de una población
con distribución normal con media 𝝁 y varianza 𝝈𝟐 hallemos el estimador de 𝝁 por
el método de los momentos. Entonces:
𝑿~𝑵(𝝁, 𝝈𝟐 ), después 𝑬(𝑿) = 𝝁 y 𝑽𝒂𝒓(𝑿) = 𝝈𝟐 además 𝑽𝒂𝒓(𝑿) = 𝑬(𝑿𝟐 ) − [𝑬(𝑿)]𝟐,
así 𝑬(𝑿𝟐 ) = 𝝁𝟐 + 𝝈𝟐 , ahora usando el método de los momentos tenemos que:
𝑛
1
𝐸(𝑋) = 𝜇 = ∑ 𝑥𝑖
𝑛
𝑖=1
𝑛
1
𝐸(𝑋 2)
= 𝜇 + 𝜎 = ∑ 𝑥𝑖2
2 2
𝑛
𝑖=1

Luego
𝑛
1
𝜇̂ = ∑ 𝑥𝑖
𝑛
𝑖=1
𝑛
1
𝜇̂ + 𝜎̂ = ∑ 𝑥𝑖2
2 2
𝑛
𝑖=1

3.2 Método de Máxima Verosimilitud

Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 , 𝑛 variables aleatorias, la función de verosimilitud se define


como 𝑓𝑥1… ,𝑥𝑛 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) de las 𝑛 variables aleatorias que dependen del
“La función de verosimilitud se define
parámetro 𝜃. En particular si 𝑥1 , 𝑥2 , … , 𝑥𝑛 es una muestra aleatoria de tamaño 𝑛 la
como 𝑓𝑥1 … ,𝑥𝑛 (𝑥1 , 𝑥2, … , 𝑥𝑛 ) ” función de verosimilitud, notada 𝐿(𝜃, 𝑥̂) se puede escribir como:
𝑛

𝐿(𝜃, 𝑥̂) = 𝑓𝑥1… ,𝑥𝑛 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) = 𝑓𝑥1 (𝑥1 ) ∙ 𝑓𝑥2 (𝑥2 ) ∙ ⋯ ∙ 𝑓𝑥3 (𝑥3 ) = ∏ 𝑓𝑥𝑖 (𝜃, 𝑥𝑖 )
𝑖=1

Si se tiene una muestra aleatoria 𝑥1 , 𝑥2 , … , 𝑥𝑛 ; el valor de 𝜃̂ que maximiza la


función de verosimilitud. 𝐿(𝜃, 𝑥̂) se denomina estimador máximo verosímil de 𝜃.
El estimador máximo verosímil de 𝜃, es la solución de:

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
𝜕𝐿(𝜃, 𝑥̂)
=0
𝜕𝜃

Ejemplo 4: Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 una muestra aleatoria de una población geométrica


de parámetro 𝑝 hallemos el estimador máximo verosímil de 𝑝. Entonces 𝑋~𝑔𝑒𝑜(𝑝)
así:
𝑝𝑞 𝑥 ; 𝑥 = 0,1,2, …
𝑓𝑥 (𝑝, 𝑥) = {
0 𝑐. 𝑐

Entonces la función de verosimilitud viene dada por:


𝑛 𝑛

𝐿(𝑝, 𝑥) = ∏ 𝑓𝑥𝑖 (𝑝, 𝑥𝑖 ) = ∏ 𝑝𝑞 𝑥 = 𝑝𝑞 𝑥1 ∙ 𝑝𝑞 𝑥2 ∙ ⋯ ∙ 𝑝𝑞 𝑥𝑛


𝑖=1 𝑖=1

Así:
𝑛
𝐿(𝑝, 𝑥) = 𝑝 𝑛 𝑞∑𝑖=1 𝑥𝑖

Tomando oportunamente el logaritmo natural tenemos que:


𝑛

ln 𝐿(𝑝, 𝑥) = 𝑛 ∙ ln 𝑝 + ∑ 𝑥𝑖 ln 𝑞
𝑖=1

Derivando con respecto a cero tenemos que:


𝜕 ln 𝐿(𝑝, 𝑥) 𝑛 ∑𝑛𝑖=1 𝑥𝑖
= −
𝜕𝑝 𝑝 1−𝑝

Por tanto la solución vendría dada por:


𝑛
𝜕 ln 𝐿(𝑝, 𝑥) 𝑛 ∑𝑛𝑖=1 𝑥𝑖 𝑛 ∑𝑛𝑖=1 𝑥𝑖
=0⇔ − =0⇔ = ⇔ 𝑛 − 𝑛𝑝̂ = ∑ 𝑥𝑖
𝜕𝑝 𝑝 1−𝑝 𝑝 1−𝑝
𝑖=1
𝑛
𝑛
⇔ 𝑝̂ [𝑛 + ∑ 𝑥𝑖 ] = 𝑛 ⇔ 𝑝̂ =
𝑛 + ∑𝑛𝑖=1 𝑥𝑖
𝑖=1

Finalmente multiplicando por 1⁄𝑛 se sigue que:


1
𝑝̂ =
1 + 𝑥̅

3.3 Método por Analogía

Consta en elegir, luego de indagar, el papel que cumplen los componentes del
“El método por analogía deriva una
parámetro dentro del modelo; derivando una estadística que de manera similar
o análoga realice las mismas funciones en la función empírica.
estadística que de manera análoga

recibe las mismas funciones en la

función empírica”

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.
Ejemplo 5: Se tiene una muestra aleatoria 𝑥1 , 𝑥2 , … , 𝑥𝑛 de tamaño 𝑛 con función
de densidad:
−𝑥𝜃
𝑓𝑥 (𝑥, 𝜃) = {𝜃𝑒 ; 𝑥 > 0; 𝜃 > 0.
0 𝑐. 𝑐

Determinemos 𝜃̂ usando el método por analogía. Entonces tenemos que


1 1
𝐸(𝑋) = 𝜃 ⇒ 𝜃 = 𝐸(𝑋); Nótese que el parámetro 𝜃 es el recíproco del valor esperado,
por tanto su estimador debe ser una función análoga; usando el método por
analogía el estimador viene dado por:
1
𝜃̂𝐴 =
𝑥̅

4 Resumen
• Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 𝑣. 𝑎 independientes con la misma función de densidad de
probabilidad 𝑓𝑋 (𝑥), se define 𝑥1 , 𝑥2 , … , 𝑥𝑛 como una muestra aleatoria de
tamaño 𝑛.
• El parámetro es un valor poblacional que caracteriza a una distribución o a
una población y por lo general es desconocido.
• La estadística es una función de 𝑣. 𝑎 observables que no contienen
parámetros desconocidos.
• El estimador es un estadístico de valores muestrales, que se usa para
estimar parámetros poblacionales.
• Dentro de los métodos de estimación encontramos e método de los
momentos, el método de máxima verosimilitud y el método por analogía.

5 Referencias Bibliográficas
• Miranda, I. E., Palacín, F., Sánchez, M. L., Márquez, M., Chía, A. R., Navas, A.
S., y otros. (3ra. Edición 2006). Estadística Descriptiva y Probabilidad. Cádiz:
Servicio de Publicaciones de la Universidad de Cádiz.
• Montgomery, D., & R., R. (2da. Edición 2008). Probabilidad y Estadística
Aplicada a la Ingeniería. México: Limusa Wiley.
• Walpole, R., Myers, R., & Myers, S. y. (2007). Probabilidad y Estadística para
Ingeniería y Ciencias. México: Pearson.

ASTURIAS CORPORACIÓN UNIVERSITARIA®


Nota Técnica preparada por Asturias Corporación Universitaria. Su difusión, reproducción o uso
total o parcial para cualquier otro propósito queda prohibida. Todos los derechos reservados.

También podría gustarte