Está en la página 1de 14

ESTADISTICA APLICADA 1

Resumen de “Inferencia estadística y diseño de experimentos” de Roberto Mariano García

TEMA 1 - CAPÍTULO XV
Algunas distribuciones importantes
1. Distribucion Lognormal
Una VA tiene esta distribución si su logaritmo tiene distribución Normal.
X~Ln [ɥ,δ]<-> lnX~N[m,D]

Ésta distribucion es una variable económica de corte transversal, como consumos, ingresos, etc.
Las variaciones dependen de grandes grupos y no de un momento en el tiempo.
Posee asimetría positiva, y es utilizada cuando la mayoría se comporta de una manera pero unos
pocos de otra. Por ejemplo, en ingresos, donde la mayoría de las personas cobra poco, y hay pocos
que cobran mucho. O respecto al consumo de energía, donde las casas, que conforman la mayoría,
son las que menos consumen, y las fabricas, que son minoría, son las que más consumen.

Los parámetros del logaritmo de la variable, son m(media) y D(desvío estándar) y se calculan en
base a ɥ y δ:

𝜇
- 𝑚 = 𝐿𝑛
2
√1+(𝛿)
[ ɥ
]

𝛿 2
-𝐷 = √𝐿𝑛(1 + ( ) )
ɥ

Se denomina “Método de los Momentos” al procedimiento para estimar los parámetros


anteriores.

Sean las observaciones X1,X2,…,Xn, los estimadores por máxima verosimilitud de los parámetros
de la distribución lognormal son:
1 1
𝑚 = 𝑛 ∑𝑛𝑖=1 𝐿𝑛. 𝑋𝑖 𝐷2 = ∑𝑛 (𝐿𝑛𝑋𝑖
𝑛−1 𝑖=1
− 𝑚)2

Se denomina Modo ó Moda al valor de la variable que maximiza la fucion de densidad. Dicho valor
es posible calcularlo derivando la función e igualando a cero [𝑓 ′ (𝑥) = 0], que resulta ser:
2)
𝑀𝑜𝑑𝑜 = 𝑒 (𝑚−𝐷

Cálculo de Función de Distribución de la Lognormal, se realiza con la tabla de la distribución


Normal:

𝐿𝑛(𝑥) − 𝑚
𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) = 𝑃(𝐿𝑛 𝑋 ≤ 𝐿𝑛 𝑥) = ∅ ( )
𝐷

Mediana, valor de la variable que parte la probabilidad en dos, es decir 𝐹(𝑥) = 0,5.
Ejemplos:
1) Consumos telefónicos en casas: media de 850 pulsos y desvio de 625 pulsos.
a) Calcular parámetros m y D.
b) Modo y mediana.
c) Porcentaje de consumos superiores a la media.

850
a) 𝑚 = 𝐿𝑛 [ 2
]=6,5291
√1+(625)
850

625 2
𝐷 = √𝐿𝑛 (1 + (850) ) = 0,6574
2
b) 𝑀𝑜𝑑𝑜 = 𝑒 (6,5291−0,6574 ) = 444 𝑝𝑢𝑙𝑠𝑜𝑠
𝐿𝑛 𝑥−𝑚
Mediana  F(x)=0,5  𝐷
= 𝑧0,5 = 0
𝐿𝑛 𝑥 = 𝑚
𝑀𝑒𝑑𝑖𝑎𝑛𝑎 = 𝑥 = 𝑒 𝑚 = 685 𝑝𝑢𝑙𝑠𝑜𝑠
𝐿𝑛 850−𝑚
c) 𝑃(𝑋 > 850) = 1 − 𝑃(𝑋 ≤ 850) = 1 − 𝜙 ( 𝐷
) = 1 − 𝜙(0,329) = 37,1%

2. Proceso de Poisson y la distribución Gamma


Un proceso de Poisson es una sucesión de acontecimientos puntuales que ocupa una porción
despreciable en medio continuo. Es decir, que la probabilidad de que ocurran r fallas en una
extensión t de continuo, es independiente de la posición t en el continuo.
𝑁ú𝑚𝑒𝑟𝑜 𝑚𝑒𝑑𝑖𝑜 𝑑𝑒 𝑓𝑎𝑙𝑙𝑎𝑠
ʎ=
𝑈𝑛𝑖𝑑𝑎𝑑 𝑑𝑒 𝑒𝑥𝑡𝑒𝑛𝑠𝑖ó𝑛 𝑑𝑒 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑜

2.1. Distribución de Poisson


Fijada la extensión t de continuo, el numero r de fallas que pueden encontrarse en ella es una
variable aleatoria denominada Poisson, con media o esperanza:
𝐸(𝑟) = ɥ = ʎt = 𝑚
Función de probabilidad de Poisson
𝑒 −𝑚 𝑚𝑟
𝑃(𝑟) = 𝑟!
Siendo m la esperanza y r el numero de fallas.

Ejemplo:
1,2 𝑓𝑎𝑙𝑙𝑎𝑠
2) Proceso productivo, fallas de ʎ = 100 𝑚𝑒𝑡𝑟𝑜𝑠 𝑑𝑒 𝑎𝑙𝑓𝑜𝑚𝑏𝑟𝑎 = 0,012 y se bobina en rollos de t=80
metros. Entonces, 𝑚 = ʎ𝑡 = 0,012𝑥80 = 0,96. Rollo de primera: 1 o ninguna falla, de segunda: 2,
de rechazo : 3 o +. Calcular probabilidades de estas calidades.
X: “El rollo es de primera calidad”
Y: “El rollo es de segunda calidad”
Z: “El rollo es de rechazo”
𝑒 −0.96 0,960 𝑒 −0.96 0,961
P(X) = P(0) + P(1) = + = 0,383 + 0,367 = 0,75
0! 1!
𝑒 −0.96 0,962
𝑃(𝑌) = 𝑃(2) = = 0,176
2!
𝑃(𝑍) = 1 − 𝑃(2) − 𝑃(1) − 𝑃(0) = 0,074

2.2 Distribución Exponencial


Ésta variable aleatoria, es la extensión de continuo entre fallas consecutivas del proceso de
Poisson.
Función distribución de variable Exponencial:
1
𝐹(𝑥) = 1 − 𝑒 −ʎx donde ʎ = y es al igual que en Poisson, el número medio de faltas por unidad
ɥ
de tiempo.
Función densidad de variable exponencial:
𝑓(𝑥) = 𝐹 ′ (𝑥) = ʎ𝑒 −ʎx
Esperanza y varianza de la exponencial:
1 1
ɥ=ʎ 𝛿 2 = ʎ2
𝛿
Coeficiente de variación = ɥ -> dicho coeficiente indica dispersión o aleatoriedad de la variable.
- <0,2 Distribución Normal
- =1 Distribución Exponencial
- >1 Distribución Lognormal

Ejemplo:
3) Un elemento falla a la Poisson con una vida media de 400.
a) Calcular la duración garantizada con 90% de probabilidad.
b) Si un elemento funcionó 400 horas sin fallas, ¿Cuál es la probabilidad de que funcione 100
horas más?
a) 𝑃(𝑋 ≥ 𝑥) = 0,9 = 1 − 𝑃(𝑋 ≤ 𝑥)
𝑥

𝐹(𝑥) = 0,1 = 1 − 𝑒 𝜇
𝑥
− = 𝐿𝑛 0,9 = −0,1054
𝜇
𝑥 = −0,1054 . 𝜇 = −0,1054 . 400 = 42,1ℎ𝑠
500
− 1
𝑃(𝑋≥500) 𝑒 400
b)𝑃(𝑋 ≥ 500|𝑋 > 400) = = 400 = 𝑒 −4 = 0,779  Es la probabilidad de que dure más
𝑃(𝑋>400) −
𝑒 400
de 100 horas, debido a la propiedad de pérdida de memoria.

2.3 Distribución Gamma


Es la distribución de la extensión de continuo necesaria para que se produzcan r fallas.
Puede considerarse una suma de r exponenciales independientes, pero todas con el mismo ʎ.
Esperanza y Varianza de la Gamma:
La esperanza está conformada por la sumatoria de las medias, y por el lado de la varianza, por la
suma de las varianzas.
𝑟
Esperanza -> ɥ = ʎ
𝑟
Varianza -> 𝛿 2 = ʎ2

Al tratarse de una suma de VA, se acepta que la Gamma puede considerarse Normal si 𝑟 ≥ 40.
Se puede calcular la función de distribución de Gamma si se tiene una tabla para la distribución de
Poisson:
𝐹𝐺 (𝑥|𝑟, ʎ) = 𝐺𝑃𝑜 (𝑟|𝑚 = ʎ𝑥) que expresa la equivalencia de los sucesos “r o más fallas en la
extensión x” y “x o menos extensión para obtener r fallas”.

2.4 Extensión de la distribución Gamma. Función Gamma


Frecuentemente la distribución Gamma aparece en situaciones no poissonianas, y es allí cuando
hay que determinar los parámetros r y ʎ, con el método de los momentos.

3. Distribución de Weibull.
Describe la duración de una pieza que falla por desgaste, fatiga y causas aleatorias.
𝑏
𝐹(𝑥) = 1 − 𝑒 −(ʎx)
Cuando:
b=1 --> Exponencial.
b>3,6 --> Weibull de asimetría negativa.
b<3,6 --> Weibull de asimetría positiva.
b=1 --> Es simétrica, por ende, una Normal.

Ejemplo:…

4. Distribuciones de extremos y modelos de Gumbel.


Propuesto por Gumbel en 1958, para describir estadísticamente las variables extremas, es decir,
el máximo o minimo de una muestra de n observaciones.
Las distribuciones de Gumbel, se utilizan con fenómenos de vida.
La duración de un sistema que deja de funcionar cuando falla un elemento vital, es una VA con
distribución Gumbel del mínimo, pues el sistema falla cuando falla el primero de sus elementos
importantes, el que tiene mínima duración. Es decir, falla el primer elemento y falla el sistema.
La elongación porcentual de rotura de ciertos materiales es una VA con distribución Gumbel del
máximo, pues el hilo se estira tanto como la fibra que más se estira, la que tiene la elongación
máxima.
Función Distribucion:
𝑣−𝜃
[ ]
[−𝑒 𝛽 ]
𝐹(𝑣) = 𝑒

Gumbel del mínimo:


Asimetría negativa.
Media: ɥ𝑚í𝑛 = ɵ − 𝐶𝛽

Gumbel del mínimo:


Asimetría positiva.
Media: ɥ𝑚á𝑥 = ɵ + 𝐶𝛽

Siendo C [Constante de Euler] = 0,5772156649


Desvío Estándar para ambas Gumbel:
𝜋
𝛿= 𝛽
√6

Ejemplos:
4) En trabajos de control, se ha comprobado que el alargamiento hasta rotura del hilo de coser,
responde a distribución de Gumbel del máximo. Para un tipo de hilo se tiene una media de 14% y
desvio de 1,53%. Calcular
a- Parámetros 𝜃 𝑦 𝛽.
b- Con qué probabilidad el alargamiento es menor a 12%.
c- Los fractices 𝑥0,01 𝑦 𝑥0,99 limites inferior y superior que se especifican para el producto.
(a) Siendo
𝜇 = 𝜃 + 𝐶𝛽  Una vez hallada 𝛽  𝜃 = 𝜇 − 𝐶𝛽 = 14 − 0,57721 . 1,19 = 13,13%
𝜋 𝜎 √6 1,53√6
𝜎= 𝛽 𝛽 = = = 1,19%
√6 𝜋 𝜋
12−13,13
−[ ]
[−𝑒 1,19 ]
(b) 𝐹(12) = 𝑒 = 0,049
(c) Siendo F(𝑥0.01 )=0,01:
𝑥0,01 = 𝜃 − 𝛽𝐿𝑛(−𝐿𝑛0,01) = 13,13 − 1,19 . 𝐿𝑛(4,605) = 11,49
𝐹(𝑥0,99 ) = 0,99:
𝑥0,99 = 𝜃 − 𝛽𝐿𝑛(−𝐿𝑛0,99) = 18,8

5) Gumbel del mínimo. Duración de un tipo de lámpara sigue esta distribución con media 32,3
horas y desvio de 9,3 horas. La empresa espera incrementar la vida media…

5. Distribución de Pareto
Propuesto por Pareto en 1896, para describir el ingreso de distintos individuos. Hoy por hoy, en
su lugar, suele ser más utilizada, la distribución Lognormal.
Función distribución:
𝜃 𝑏
𝐹(𝑥) = 1 − (𝑥 )
donde, la mediana, al ser el valor de la variable cuya probabilidad acumulada es 0,5, se conforma
por:
𝜃 𝑏
( ) = 0,5
𝑥
Función densidad:
𝑏 𝜃
𝑓(𝑥) = ( )𝑏
𝑥 𝑥
Existe un valor mínimo 𝜃, que generalmente suele ser conocido; un parámetro b, calculable a
partir de la media:
𝜃𝑏 𝜇
𝜇 = 𝑏−1  𝑏 = 𝜇−𝑏

Ejemplo:…
TEMA 2
Esperanza matemática parcial
Permite resolver un conjunto importante de problemas, propuesto por Schlaifer en 1967.
Las funciones son del tipo:
𝑦 = 𝑏1 + 𝑏2 𝑥 𝑥 ≤ 𝑎1
𝑦 = 𝑏3 + 𝑏4 𝑥 𝑎1 < 𝑥 ≤ 𝑎2
𝑦 = 𝑏5 + 𝑏6 𝑥 𝑥 > 𝑎2
donde y es función lineal de x por tramos, y a1 y a2 son puntos de corte.
Analicemos para variables continuas y discretas:
Variables continuas:
𝑎
𝐹 𝑋 (𝑎) = ∫−∞ 𝑓 𝑋 (𝑥)𝑑𝑥

𝐺 𝑋 (𝑎) = ∫𝑎 𝑓 𝑋 (𝑥)𝑑𝑥
siendo la suma de las dos anteriores igual a 1.
Esperanzas:

𝐸[𝑋] = 𝜇 = ∫−∞ 𝑥. 𝑓 𝑋 (𝑥)𝑑𝑥

Esperanza matemática parcial a izquierda:


𝑎
𝑋 (𝑎)
𝐻 = ∫ 𝑥. 𝑓 𝑋 (𝑥)𝑑𝑥
−∞
Esperanza matemática parcial a derecha:

𝐽 𝑋 (𝑎) = ∫ 𝑥. 𝑓 𝑋 (𝑥)𝑑𝑥
𝑎

𝐸[𝑋] = 𝜇 = 𝐻 𝑋 (𝑎) + 𝐽 𝑋 (𝑎)


donde no se esperan resultados lógicos por parte de las esperanzas parciales.

Varables discretas:
𝐹 𝑋 (𝑟) = 𝑃(𝑋 ≤ 𝑟) = ∑𝑟𝑖=−∞ 𝑝𝑖

𝐺 𝑋 (𝑟) = 𝑃(𝑋 ≥ 𝑟) = ∑∞
𝑖=𝑟 𝑝𝑖

Donde 𝐹 𝑋 (𝑟) + 𝐺 𝑋 (𝑟) = 1 + 𝑃(𝑋 = 𝑟)


𝐹 𝑋 (𝑟) + 𝐺 𝑋 (𝑟 + 1) = 1
𝐹 𝑋 (𝑟 − 1) + 𝐺 𝑋 (𝑟) = 1
Esperanza matemática parcial a izquierda:
𝑟
𝑋 (𝑟)
𝐻 = ∑ 𝑟. 𝑝𝑖
𝑖=−∞

Esperanza matemática parcial a derecha:



𝑋 (𝑟)
𝐽 = ∑ 𝑟. 𝑝𝑖
𝑖=𝑟
Siendo: 𝐻 𝑋 (𝑟) + 𝐽 𝑋 (𝑟 + 1) = 𝐸[𝑋]
𝐻 𝑋 (𝑟 − 1) + 𝐽 𝑋 (𝑟) = 𝐸[𝑋]

Por ejemplo:
Y: “valor de la factura sin impuestos”
X: “consumo mensual en kwh” donde X sabemos que es Lognormal por la distribución de la
energía.
y = 70 + 1,38 𝑥 𝑥 ≤ 200
𝑦 = 85 + 1,57 𝑥 200 < 𝑥 ≤ 400
𝑦 = 100 + 2𝑥 𝑥 > 40
200 400 ∞

𝐸[𝑌] = ∫ (70 + 1,38𝑥)𝑓 𝑋 (𝑥)𝑑𝑥 + ∫ (85 + 1,57𝑥)𝑓 𝑋 (𝑥)𝑑𝑥 + ∫ (100 + 2𝑥)𝑓 𝑋 (𝑥)𝑑𝑥
0 200 200
200 200 400 400 ∞
𝐸[𝑌] = 70 ∫0 𝑓 𝑋 (𝑥)𝑑𝑥 + 1,38 ∫0 𝑥. 𝑓 𝑋 (𝑥)𝑑𝑥 + 85 ∫200 𝑓 𝑋 (𝑥)𝑑𝑥 + 1,57 ∫200 𝑥. 𝑓 𝑋 (𝑥)𝑑𝑥 + 100 ∫400 𝑓 𝑋 (𝑥) +

2 ∫400 𝑥. 𝑓 𝑋 (𝑥)𝑑𝑥

𝐸[𝑌] = 70. 𝐹 𝑋 (200) + 1,38𝐻 𝑋 (200) + 85[𝐹 𝑋 (400) − 𝐹 𝑋 (200)] + 1,57[𝐻 𝑋 (400) − 𝐻 𝑋 (200)] + 100𝐺 𝑋 (400) + 2𝐽 𝑋 (400)

Varianza de una función lineal por tramos


Siendo:
𝑦 = 𝑏1 + 𝑏2 𝑥 𝑥 ≤ 𝑎1
𝑦 = 𝑏3 + 𝑏4 𝑥 𝑎1 < 𝑥 ≤ 𝑎2
𝑦 = 𝑏5 + 𝑏6 𝑥 𝑥 > 𝑎2
Su varianza se calcula mediante:
𝑉(𝑌) = 𝐸[𝑌 2 ] − [𝐸[𝑌]]2
Habiendo calculado su media E[Y]:
𝑬[𝒀] = 𝑏1 𝐹(𝑎1 ) + 𝑏2 𝐻(𝑎1 ) + 𝑏3 [𝐹(𝑎2 ) − 𝐹(𝑎1 )] + 𝑏4 [𝐻(𝑎2 ) − 𝐻(𝑎1 )] + 𝑏5 𝐺(𝑎2 ) + 𝑏6 𝐽(𝑎2 )

Entonces, ahora hay que calcular 𝑦 2 para luego calcular su esperanza.


𝑦 2 = (𝑏1 + 𝑏2 𝑥)2 = 𝑏1 2 + 2𝑏1 𝑏2 𝑥 + 𝑏2 2 𝑥 2 𝑥 ≤ 𝑎1
𝑦 = (𝑏3 + 𝑏4 𝑥)2 = 𝑏3 2 + 2𝑏3 𝑏4 𝑥 + 𝑏4 2 𝑥 2 𝑎1 < 𝑥 ≤ 𝑎2
𝑦 = (𝑏5 + 𝑏6 𝑥)2 = 𝑏5 2 + 2𝑏5 𝑏6 𝑥 + 𝑏6 2 𝑥 2 𝑥 > 𝑎2

Quedando la esperanza:
𝑎1
2 2
𝑬[𝒀𝟐 ] = 𝑏1 𝐹(𝑎1 ) + 2𝑏1 𝑏2 𝐻(𝑎1 ) + 𝑏2 ∫ 𝑥 2 𝑓(𝑥)𝑑𝑥 + 𝑏3 2 [𝐹(𝑎2 ) − 𝐹(𝑎1 )]
−∞
𝑎2 ∞
2 2 2
+2𝑏3 𝑏4 [𝐻(𝑎2 ) − 𝐻(𝑎1 )] + 𝑏4 ∫ 𝑥 𝑓(𝑥)𝑑𝑥 + 𝑏5 𝐺(𝑎2 ) + 2𝑏5 𝑏6 𝐽(𝑎2 ) + 𝑏6 ∫ 𝑥 2 𝑓(𝑥)𝑑𝑥
2

𝑎1 𝑎2

Surgiendo nuevas funciones como:


𝑥
𝐻2 (𝑥) = ∫ 𝑥. 𝑓 𝑋 (𝑥)𝑑𝑥
−∞

𝐽2 (𝑥) = ∫ 𝑥. 𝑓 𝑋 (𝑥)𝑑𝑥
𝑥
denominadas esperanzas parciales de 𝑥 2 , y cumpliendo la relación:
𝐻2 (𝑥) + 𝐽2 (𝑥) = E[𝑥 2 ] = 𝜇2 + 𝜎 2

INFERENCIA ESTADISTICA
-Estimacion de parámetros:
-Estimacion puntual  Por ejemplo: la media vale 35
-Estimacion de intervalos  Por ejemplo: +- 10 de la media
-Ensayos de hipotesis
Tema 3 Capitulo II
Nociones sobre estimación de parámetros
1. Estimacion de la media y la varianza.
Partiendo de una muestra de n observaciones [X1,X2,…,Xn].
Estimaciones de la media y la varianza de una variable, sin importar su distribución:
1
X = 𝑛 ∑𝑛𝑖=1 𝑋𝑖
1
𝑆 2 = 𝑛 ∑𝑛𝑖=1(𝑋𝑖 − 𝜇)2 si se conoce la media poblacional 𝜇
1
𝑆2 = ∑𝑛 (𝑋 − 𝑋)2 si no se conoce 𝜇 y se estima con X
𝑛−1 𝑖=1 𝑖

Los parámetros 𝜇 𝑦 𝜎 suelen ser desconocidos ya que su conocimiento exacto, requiere del
relevamiento de gran parte de la población.
Las estimaciones X y S se calculan por una muestra de n observaciones con las ecuaciones
anteriores, y a mayor n, menor será el error cometido.

Un estimador es una variable aleatoria.


Esto se debe a que con otra muestra, el valor cambiará. Mientras que los parámetro son
constante fija, generalmente desconocida.
El error cometido es aleatorio, ya que su estimador lo es y el parámetro es desconocido.
Al ser una VA, deberá tener su propia distribución, media y varianza.
Media del estimador X.
Promedio general de muchas muestras.
Suponiendo K (muy grande) muestras, con n observaciones en cada una y Xj ada media muestra.
𝐾
1
𝐸(𝑋) = ∑ 𝑋𝑗
𝐾
𝑗=1
Un estimador es insesgado, no viciado, imparcial o desprejuiciado, si su esperanza matemática
coincide con el parámetro que estima. Lo que quiere decir, es que X sufre variaciones alrededor
del parámetro 𝜇.
𝐸[𝑋] = 𝜇

Se denomina consistencia, a la propiedad por el cual el estimador se aproxima cada vez más al
parámetro al aumentar el tamaño de muestra, es decir que converge estocásticamente al valor del
parámetro.
lim 𝑃(|𝑋 − 𝜇| > 𝜀) = 0
𝑛→∞

Conceptos sobre la estimación de la varianza.


- Si se conoce 𝜇:
1
El estimador es 𝑆 2 = 𝑛 ∑𝑛𝑖=1(𝑋𝑖 − 𝜇)2 , y la esperanza matemática de este estimador, al ser una
suma, es igual a la suma de las esperanzas:
1 1
𝐸(𝑆 2 ) = 𝐸 [∑(𝑋𝑖 − 𝜇)2 ] = ∑ 𝐸[(𝑋𝑖 − 𝜇)2 ]
𝑛 𝑛
a su vez, como por definición:
1
𝜎 2 = 𝐸[(𝑋𝑖 − 𝜇)2 ], entonces la sumatoria daría que: 𝐸(𝑆 2 ) = 𝑛𝜎 2 = 𝜎 2
𝑛
Entonces concluimos en que el estimador 𝑆 2 𝑒𝑠 𝑖𝑛𝑠𝑒𝑠𝑔𝑎𝑑𝑜.

- Si 𝜇 es desconocido:
1
El estimador es 𝑆 2 = 𝑛−1 ∑𝑛𝑖=1(𝑋𝑖 − 𝑋)2 y la esperanza matemática de este estimador:
1
𝐸(𝑆 2 ) = 𝐸 [∑(𝑋𝑖 − 𝑋)2 ]
𝑛−1
siendo, por definición:
1
𝜎 2 = 𝐸[(𝑋𝑖 − 𝑋)2 ], entonces la sumatoria daría que 𝐸(𝑆 2 ) = 𝑛−1 (𝑛 − 1)𝜎 2 = 𝜎 2
Entonces concluimos que el estimador 𝑆 2 𝑒𝑠 𝑖𝑛𝑠𝑒𝑠𝑔𝑎𝑑𝑜.

2. Intervalos de confianza.
Sea 𝜃 el parámetro desconocido, se calcularan dos valores A y B tal que:
𝑃(𝐴 < 𝜃 < 𝐵) = 1 − 𝛼
De essta forma, se afirma con una determinada probabilidad que 𝜃 está dentro del intervalo de
confianza (A;B), siendo:
𝜃 = 𝑝𝑎𝑟á𝑚𝑒𝑡𝑟𝑜 𝑑𝑒𝑠𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜
1 − 𝛼 = 𝑛𝑖𝑣𝑒𝑙 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑛𝑧𝑎 (𝑚𝑎𝑦𝑜𝑟 𝑎 80%)
𝛼 = 𝑛𝑖𝑣𝑒𝑙 𝑑𝑒 𝑟𝑖𝑒𝑠𝑔𝑜 (𝑑𝑒 𝑞𝑢𝑒 𝑒𝑙 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜 𝑛𝑜 𝑐𝑜𝑛𝑡𝑒𝑛𝑔𝑎 𝑎𝑙 𝑝𝑎𝑟𝑎𝑚𝑒𝑡𝑟𝑜)

3. Intervalo de confianza para la media 𝝁 de una población Normal con desvio 𝝈 conocido
Según lo vito, la variable X tiene una media igual a la media de la variable original.
--> Si X es normal, X también será normal.
--> Si X no es Normal, X se puede considerar Normal, si el tamaño de la muestra fuese lo
(𝜎⁄ )
√𝑛
suficientemente grande como para que la relación 𝜇
< 0,2, en virtud del TCL.

Entonces, independientemente de la distribuion de la variable original (que tiene media 𝜇 y desvio


estándar 𝜎 ) consideraremos que X es una variable con distribución Normal de media 𝝁 y desvio
estándar 𝝈⁄ .
√𝒏
De esta forma, la variable X se puede estandarizar para obtener una variable normal
X−μ (X−μ)√𝑛
estandarizada: 𝑧 = 𝜎 = 𝜎
⁄ 𝑛

Entonces:
𝑃 (𝑍𝛼⁄2 < 𝑍 < 𝑍1−𝛼⁄2 ) = 1 − 𝛼

X−μ
𝑃 (𝑍𝛼⁄2 < 𝜎 < 𝑍1−𝛼⁄2 ) = 1 − 𝛼
⁄ 𝑛

𝜎 𝜎
𝑃 (𝑋 + 𝑍𝛼⁄2 . < μ < 𝑋 + 𝑍1−𝛼⁄2 . ) = 1 − 𝛼
√𝑛 √𝑛
siendo𝑍𝛼⁄2 = −𝑍1−𝛼⁄2 entonces la ultima ecuaion también se puede expresar:
𝜎 𝜎
𝑃 (𝑋 − 𝑍1−𝛼⁄ . < μ < 𝑋 + 𝑍1−𝛼⁄ . ) = 1 − 𝛼
2 𝑛 2 𝑛
√ √
Error máximo probable de muestreo:
𝜎
𝐸 = 𝑍1−𝛼⁄2 .
√𝑛
que disminuye al aumentar el tamaño de la muestra.
Determinación del tamaño de muestra necesario para obtener un error estipulado, con un nivel de
𝑍1−𝛼⁄ .𝜎 2
2
confianza dado: 𝑛 = ( )
𝐸
Ejemplo en pag 53 del libro.

4. Las distribuciones Chi-cuadrado, t de STUDENT y F de FISHER-SNEDECOR.


4.1 Distribucion Chi-cuadrado
Una variable Chi-cuadrado se define como una suma de variables Normales estandarizadas
independientes elevadas al cuadrado: 𝒳 2 = 𝑍1 2 + 𝑍2 2 + ⋯ + 𝑍𝑣 2
siendo 𝑣 = 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑔𝑟𝑎𝑑𝑜𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑.
Como cada variable Z tiende a cero y varianza unitaria: 𝐸(𝑍 2 ) = 𝐷 2 (𝑍) + 𝐸 2 (𝑍) = 1
entonces la media de la Chi cuadrado es igual a la suma de los v:
𝐸(𝒳 2 ) = 𝑣
La variable Chi Cuadrado es una GAMMA con 𝑟 = 𝑣⁄2 𝑦 𝜆 = 0,5

Dadas k variales con distribuciones Chi-cuadrado, independientes entre si, con sus respectivos
grados de libertad, la suma:
𝒳 2 = 𝒳1 2 + 𝒳2 2 + ⋯ + 𝒳𝑘 2
tiene distribución Chi-cuadrado con grados de libertad:
𝑣 = 𝑣1 +𝑣2 + ⋯ + 𝑣𝑘

4.2 Distribucion t de STUDENT


La variable t de Student se define como el cociente entre Normal estandarizadada y la raíz
cuadrada de una Chi-cuadrado, independiente de la anterior, dividida ésta por su numero de
grados de libertad. Es decir:
𝑍
𝑡= (𝑍 𝑦 𝒳 2 𝑠𝑜𝑛 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠)
√𝒳 2⁄𝑣
La curva representativa de la función de densidad se parece bastante a la de la Normal
estandarizada, y tiende a ella al aumentar 𝑣.
Por tabla, al igual que en Chi-cuadrado, hay tablas que dan los fractiles de distribución
𝑃(𝑡 < 𝑡𝑣,𝑤 ) = 𝑤
que, serán utilizados para calcular intervalos de confianza para la media 𝜇 𝑐𝑜𝑛 𝜎 𝑑𝑒𝑠𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜.

4.3 Distribución F de Fisher-Snedecor


La variable F de Fisher-Snedecor se fine como el cociente de dos variables Chi-Cuadrado,
independientes entre si, divididas por sus grados de libertad, es decir:
𝒳1 2⁄
𝑣1
𝐹= 2
𝒳2 ⁄
𝑣2
𝑣2
Media: 𝜇 = 𝑣
2 −2
2𝑣2 2 (𝑣1 +𝑣2−2)
Varianza: 𝜎 2 =
𝑣1 (𝑣2 −2)2 (𝑣2 −4)
Al igual que en las anteriores distribuciones, hay tablas que suministran los fratiles de la
distribución, es decir, valores de 𝐹𝑣1,𝑣2,𝑤 tales que:
𝑃(𝐹 ≤ 𝐹𝑣1,𝑣2,𝑤 ) = 𝑤
4.4 Relacion entre distibuciones

5. Intervalo de confianza para la media 𝝁 con desvio 𝝈 desconocido


Como el desvio es desconocido, se debe estimar con S para obtener:
X−μ
𝑡=
𝑆⁄
√𝑛
En base a los limites de confianza para u, el intervalo quedaría:
𝑃 (𝑡𝑣,𝛼⁄2 < 𝑡 < 𝑡𝑣,1−𝛼⁄2 ) = 1 − 𝛼 con 𝑣 = 𝑛 − 1
𝑃 (𝑋 − 𝑡𝑣,𝛼⁄2 < 𝜇 < 𝑋 + 𝑡𝑣,1−𝛼⁄2 ) = 1 − 𝛼
Siendo el error de muestreo:
𝑆
𝐸 = 𝑡1−𝛼⁄2 .
√𝑛
Determinación del tamaño de muestra necesario para obtener un error estipulado, con un nivel de
𝑡𝑣,1−𝛼⁄ .𝑆 2
2
confianza dado: 𝑛 = ( )
𝐸
Ejemplos pagina 59.

CAPITULO III:
Ensayos de hipótesis sobre Medias
“La conclusión fuerte del ensayo de hipótesis está en el rechazo de un hipótesis nula”
1. Introducción
Una hipótesis es una suposición o conjetura sobre la naturaleza, cuyo valor de verdad o falsedad
no se conoce. Una hipótesis estadística es una hipótesis sobre una población estadística o sobre
un fenómeno aleatorio.

La hipótesis estadística se refiere en general a la población y no a la muestra. Sin embargo, el


análisis para tratar de comprobar o falsedad de la hipótesis se realizara sobre la muestra. Dicho
análisis es llamado ensayo de hipótesis.
Def.1: Hipotesis estadística se denomina a cualquier suposición o enunciado provisorio que se
realiza sobre población o fenómeno aleatorio, cuyo valor de verdad o falsedad no se conoce.
Def.2: Ensayo de hipótesis al procedimiento que se sigue para tratar de averiguar si una hipótesis
es verdadera o falsa.
Def.3: Hipotesis nula es la hipótesis objeto del ensayo.
Un ensayo de hiotesis se realiza sobre resultados muestrales, entonces la conclusión está sujeta
a error. Puede concluir que la hipótesis es falsa, sin embargo es verdadera.
Un ensayo puede concluir que no hay pruebas de que sea falsa, pero es falsa. Es decir, no puede
concluir que una hipótesis nula sea verdadera, sino que no hay pruebas de que sea falsa.
Cuando un ensayo concluye que una hipótesis nula es falsa, diremos que rechaza la hipótesis o
que ha dado resultado significativo en contra de ella.

Para rechazar una hiotesis nula, debe haber prubas concluyentes en su contra; de lo contrario, la
hipótesis no se rechaza y se dira que no hay elementos de juicio que prueben su falsedad.

Se llama Error de tipo I a rechazar una hipótesis nula que en realidad es verdadera. Se tratara de
que este suceso tenga baja probabilidad.
Se llama Error de tipo II a no rechazar una hipótesis nula que en realidad es falsa.
Se llama Nivel de significación de un ensayo de hipótesis a la máxima probabilidad de cometer un
error de tipo I. Se denota con la 𝛼.
P(Rechazar Ho|Ho es verdadera) = 𝛼. Suele adoptarse que 𝛼 𝑒𝑠 5%.

El ensayo de hipótesis consiste en exminar una muestra y verificar su concordancia con la


hipótesis.
Si la muestra arroja un resultado francamente contradictorio con la hipótesis nula, el resultado
será el rechazo de la hipótesis. Para esto, se calcular el valor d un resultado muestral, un
estadístico apropiado cuya valor nos indicará qué decisión tomar. Así, si la hipótesis nula es que la
media u es menor que un cierto valor uo, el rechazo de la misma se producirá si el esadistico, en
este caso la media muestral X, toma un valor que contradice la hipótesis; esto es, si toma un valor
mayor o igual que un cierto valor crítico, que designaremos Xc.
Indicaremos Ho) a la hipótesis nula que se somete al ensayo, y C.R. (condición de rechazo) a la
condición que tiene que cumplir la muestra para rechazar Ho). Entonces se tiene:
𝐻𝑜 ) 𝜇 ≤ 𝜇𝑜 𝑣𝑠. 𝐻1 ) 𝜇 > 𝜇𝑜
C. R. : X ≥ 𝑋𝑐 (𝑐𝑜𝑛𝑑𝑖𝑐𝑖ó𝑛 𝑑𝑒 𝑟𝑒𝑐ℎ𝑎𝑧𝑜)
𝑃(𝑋 ≥ 𝑋𝑐 |𝜇 = 𝜇𝑜 ) = 𝛼

Hipotesis optimista: problemas de control de producción y control de recepción de lotes de


mercadería.
Hipotesis pesimista: problemas de inversión con riesgo económico.

Se llama regla de decisión a la indicación del curso d acción a seguir cuando se rechaza una
hipótesis nula.

2. Ensayo de hipótesis sobre la media 𝝁 con desvio 𝝈 conocido


La hipótesis nula:
𝐻𝑜 ) 𝜇 ≤ 𝜇𝑜 𝑣𝑠. 𝐻1 ) 𝜇 > 𝜇𝑜
C. R. : X ≥ 𝑋𝑐 (𝑐𝑜𝑛𝑑𝑖𝑐𝑖ó𝑛 𝑑𝑒 𝑟𝑒𝑐ℎ𝑎𝑧𝑜)
𝑃(𝑋 ≥ 𝑋𝑐 |𝜇 = 𝜇𝑜 ) = 𝛼 con X~Normal (𝜇𝑜 , 𝜎⁄ )
√𝑛
𝑃(𝑋 ≤ 𝑋𝑐 |𝜇 = 𝜇𝑜 ) = 1 − 𝛼
X 𝑐 − μ𝑜 X 𝑐 − μ𝑜
𝑃 (𝑍 ≤ 𝜎 ) = 1 − 𝛼 = 𝜙( 𝜎 )
⁄ 𝑛 ⁄ 𝑛
√ √
X𝑐 −μ𝑜
entonces, 𝑍1−𝛼 = 𝜎 → X 𝑐 = μ𝑜 + 𝑍1−𝛼 . 𝜎⁄
⁄ 𝑛
√ √𝑛

Analogamente, la hipótesis:
𝐻𝑜 ) 𝜇 ≥ 𝜇𝑜 𝑣𝑠. 𝐻1 ) 𝜇 < 𝜇𝑜
C. R. : X ≤ 𝑋𝑐 y X 𝑐 = μ𝑜 − 𝑍1−𝛼 . 𝜎⁄
√𝑛

2.1 Nivel de significación a posteriori del ensayo


𝛼 ∗ = 𝑛𝑖𝑣𝑒𝑙 𝑑𝑒 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑐𝑖𝑜𝑛 𝑎 𝑝𝑜𝑠𝑡𝑒𝑟𝑖𝑜𝑟𝑖.
Es aquel nivel de significación con el cual con esa muestra rechaa la hipótesis nula.

𝐻𝑜 ) 𝜇 ≥ 𝜇𝑜 𝑣𝑠. 𝐻1 ) 𝜇 < 𝜇𝑜
C. R. : X ≤ 𝑋𝑐
→ 𝑃(X ≤ 𝑋𝑐 |𝜇 = 𝜇𝑜 ) = 𝛼 siendo 𝑋𝑐 el fractil de área 𝛼.
Si bajo dicha curva normal, la probabilidad de no superar al valor de la muestra (𝑋)fuera menor
que 𝛼, la Ho debe rechazarse, pues 𝑋 habría caído a la izquierda de 𝑋𝑐 y se cumpliría la condición
de rechazo.
Dicha probabilidad, de no superar al valor de 𝑋 obtenido en la muestra, seria:
X − μ𝑜
→ 𝛼 ∗ = 𝜙( 𝜎 )
⁄ 𝑛

Por lo tanto, la condición de rechazo puede expresarse como:
𝛼∗ ≤ 𝛼
Esta condición de rechazo es UNIVERSAL, para cualquier ensayo de hipótesis:
𝐻𝑜 ) 𝜇 ≤ 𝜇𝑜 𝑣𝑠. 𝐻1 ) 𝜇 > 𝜇𝑜
C. R. : X ≥ 𝑋𝑐
X−μ𝑜
→ 𝑃(X ≤ 𝑋𝑐 |𝜇 = 𝜇𝑜 ) = 𝛼 → 𝛼 ∗ = 1 − 𝜙( 𝜎 )
⁄ 𝑛

3. Error de tipo II y potencia del ensayo

También podría gustarte