Está en la página 1de 77

PROGRAMA POR TEMAS

1. Distribuciones asociadas a la distribución normal: Chi cuadrado. Definición, vínculo con


otras distribuciones. Algunos estadísticos que siguen esta distribución. Uso de tablas.

Chi cuadrado
La distribución de Chi-cuadrado es una distribución continua que se especifica por los
grados de libertad y el parámetro de no centralidad. La distribución es positivamente
asimétrica, pero la asimetría disminuye al aumentar los grados de libertad. Sirve para someter
a prueba hipótesis.
Características
● Solo asume valores positivos por tratarse de una suma de cuadrados.
● Hay una distribución de Chi-Cuadrado para cada valor de los grados de libertad.
● Es asimétrica derecha. Muy asimétrica cuando los grados de libertad son pocos. Se

OM
aproxima a la normal cuando los grados de libertad son muchos
● La esperanza es igual a los grados de libertad y la varianza es el doble.

La distribución Chi cuadrado, es el resultado de la suma de los cuadrados de n variables


independientes, con distribución normal (0,1).

.C
DD
Generalmente no se conoce la media poblacional y trabajamos con la media de la muestra, por
lo que se pierde un grado de libertad:

2 ) 2 )
𝐸(𝜒𝑛−1 = 𝑛−1 𝑉(𝜒𝑛−1 = 2(𝑛 − 1)

Algunas aplicaciones de la distribución Chi cuadrado pueden darse en inferencia


LA

estadística y están relacionadas con la varianza porque relaciona la varianza poblacional con la
varianza muestral. El estadístico construido con la varianza muestral tiene distribución Chi
cuadrado:
(𝑛−1)𝑠2 2
~𝜒𝑛−1
𝜎2
FI

Es utilizada también en la prueba de diferencia para c proporciones, prueba de homogeneidad,


la prueba de independencia y la prueba de bondad de ajuste.


Se vincula con la distribución normal al ser resultado de n-variables normales


estandarizadas e independientes entre sí, elevadas al cuadrado.
A la vez, cuando se realizan las pruebas no paramétricas Chi cuadrado, cuyo estadístico
es:
1

Este archivo fue descargado de https://filadd.com


2 (𝜃𝑖 −℮𝑖 )2
𝜒𝑜𝑏𝑠 =∑ ℮𝑖
,

Se relaciona tambien con la distribución normal estandarizada que se usa para probar si
existen diferencias entre 2 proporciones, con estadístico

̂−𝑝
(𝑝1 ̂)
2
𝛧= 1 1
√𝑝𝑞(𝑛 +𝑛 )
1 2

siendo que el estadístico Chi cuadrado es el cuadrado del estadístico Z.


La ventaja de la prueba Chi cuadrado es que se puede comparar la homogeneidad de k
proporciones (k=1, 2, 3,…) mientras que en la prueba z solo se pueden comparar 2

OM
proporciones como máximo, mientras que la desventaja de la prueba Chi cuadrado es que solo
se pueden hacer pruebas bilaterales (tienen menor potencia que las pruebas unilaterales) en
tanto la prueba Z permite hacer pruebas tanto unilaterales como bilaterales.

Uso de la tabla: Los valores de los grados de libertad se encuentran en la primera


columna y en la primera fila se indica el valor de la probabilidad acumulado. El cuerpo de la
tabla contiene los valores de la variable que acumulan esas probabilidades.

.C
2. Distribuciones asociadas a la distribución normal: t de Student. Definición, vínculo con
otras distribuciones. Algunos estadísticos que siguen esta distribución. Uso de tablas.
DD
T de Student
Es una distribución de probabilidad que surge del problema de estimar la media de
una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Esta
distribución es simétrica con media cero y de forma muy similar a la normal. A medida que
aumentan los grados de libertad, su densidad se aproxima cada vez más a la curva de la
normal.
LA

Aparece de manera natural al realizar la prueba t de Student para la determinación de


las diferencias entre dos medias muestrales y para la construcción del intervalo de
confianza para la diferencia entre las medias de dos poblaciones cuando se desconoce
la desviación típica de una población y ésta debe ser estimada a partir de los datos de una
muestra.
FI

Características:
● Variable continua que asume valores entre - ∞ a ∞
● Su esperanza es igual a cero y su varianza es mayor que uno
● Es simétrica con respecto a cero
● Hay una distribución t para cada valor de los grados de libertad.


La distribución t-student es la distribución de probabilidad del cociente


𝛧
𝑡𝑛 ~ , dado que 𝛧~𝑁(0,1) y 𝑈~𝜒𝑛2 , siendo n sus grados de libertad.
𝑈

𝑛
𝑛
𝐸(𝑡𝑛 ) = 0 𝑉𝑎𝑟(𝑡𝑛 ) = 𝑛−2 , para n >2.

Se utiliza para obtener intervalos de confianza para valores de la media poblacional


cuando se desconoce la varianza poblacional y cuando n≥100 se la puede aproximar por la
distribución normal. Se trabaja con el siguiente estadístico cuando se realizan pruebas de
hipótesis acerca del valor de la media poblacional

Este archivo fue descargado de https://filadd.com


El intervalo de confianza para valores de la media poblacional se obtiene:
𝑠
𝑋 ± 𝑡𝛼,(𝑛−1)
2 √𝑛

También se usa la distribución t para la diferencia de medias con muestras independientes,


con varianzas desconocidas e iguales

OM
Y su intervalo de confianza es

Y para la diferencia de medias con varianzas desconocidas y distintas, para muestras


independientes:

.C Y su intervalo de confianza
es:
DD
La diferencia de medias para muestras dependientes y varianza desconocida:
LA

Se usa para probar la inferencia de una pendiente en el análisis de regresión:


FI

𝑏𝑖 −𝛽𝑖 𝑆𝑥𝑦 ∑𝑛 ̂𝑖 )2
(𝑌−𝑌
𝑡𝑛−𝑝−1 = , 𝑠𝑏1 = , 𝑠𝑥𝑦 = √ 𝑖=1
𝑠𝑏1 2 𝑛−𝑝−1
√ ∑𝑛
𝑖=1 (𝑋𝑖 −𝑋)


En el test de correlación lineal:

Al hacer intervalos para valores particulares y medios de Y (vble. de respuesta) en la regresión:

La distribución t se usa también para intervalos de confianza de las pendientes (β’s):

Este archivo fue descargado de https://filadd.com


𝑏𝑖 ± 𝑡(𝑛−𝑝−1);𝛼 𝑠𝑏𝑖
2

Se vincula con la distribución F en


regresión lineal simple, ya que el
estadístico t para el b1 si se lo eleva al
cuadrado es igual al F.

OM
3. Distribuciones asociadas a la distribución normal: F de Snedecor. Definición, vínculo con
otras distribuciones. Algunos estadísticos que siguen esta distribución. Uso de tablas.

F de Snedecor

.C
Se define como el cociente de dos variables aleatorias Chi-Cuadrado estadísticamente
independientes, divididas por sus respectivos grados de libertad.
𝑈~𝜒𝑁2
𝑈
𝑁 ~𝐹𝑁,𝑀
DD
𝑉
𝑀
2
𝑉~𝜒𝑀

Algunas características:
● Asume siempre valores positivos (por el hecho de ser cociente de dos variables que se
LA

distribuyen Chi cuadrado y que son siempre positivas);


● Tiene asimetría derecha.
● Al aumentar m y n disminuye la asimetría.

Se relaciona con la distribución normal, al ser cociente de distribuciones Chi cuadrado, que
a la vez son sumas de cuadrados de variables normales estandarizadas e independientes entre
FI

sí.
Se vincula con la distribución t en el análisis de regresión simple, siendo que si al
estadístico t del estimador de la pendiente se lo eleva al cuadrado, es igual al estadístico F de
la prueba global.


Algunas aplicaciones que podemos hacer de la distribución F se dan en la prueba de


cociente de varianzas,

También hacer el intervalo de confianza del cociente de varianzas; además en regresión,


ANOVA y series de tiempo para confrontar las hipótesis nulas de que el modelo en términos
globales no explica las variaciones de la variable de respuesta (regresión y series de tiempo) y
de que las medias son iguales (ANOVA).

𝑆21 1 𝑆21 1 𝐶𝑀𝑅 𝐶𝑀𝐸


LIC: ; LIS: . 𝐹= . 𝐹= .
𝑆22 𝐹1−𝛼 𝑆22 𝐹𝛼 𝐶𝑀𝐸 𝐶𝑀𝐷
2 2

Este archivo fue descargado de https://filadd.com


OM
.C
DD
LA

Uso de la tabla: La primera fila indica los grados de libertad de numerador (m), mientras que
los del denominador (n) están en la primera columna. En el margen izquierdo de la tabla se
FI

indican las probabilidades acumuladas y en el cuerpo de la tabla lo valores críticos de F.


Al igual que la Chi-cuadado, la F solo asume valores positivos, presenta asimetría derecha y hay
una distribución para cada combinación de los grados de libertad del numerador y
denominador. Los valores de F tabulados se situan en el extremo derecho de la curva.


Resumen de los pasos a seguir para obtener valores izquierdos:


● Invertir los grados de libertad
● Considerar el comportamiento de la probabilidad buscada
● Invertir el valor F encontrado en la tabla

4. Estimación puntual, propiedades de los buenos estimadores.

Estimación puntual
El problema de la “estimación” de parámetros surge porque en muchos casos, la
población a estudiarse es, o muy grande, o resulta difícil acceder a su conocimiento total por
diversos motivos.
Entonces se recurre al muestreo cuando se desea conocer el valor de algún parámetro
de la población. ¿Cómo puede estimarse este valor?
Es necesario poseer alguna información sobre la población, entonces se toma una
muestra de esa población, se calculan “estimadores” o “estadísticos” a partir de la muestra,
5

Este archivo fue descargado de https://filadd.com


que servirán para proporcionar una idea de los valores posibles de esos parámetros
poblacionales desconocidos.
¿Cuál será un mejor estimador del parámetro? Existen algunos criterios que fijan
ciertas propiedades deseables de los estimadores. Existen también ciertos métodos de
estimación que proporcionan los mejores estimadores cuando se conocen algunas
características de la población.

Definición de estimador: Cuando se toma una muestra de n observaciones a partir de una


población determinada, se llama estimador θ de un parámetro θ, a cualquier función de las
observaciones muestrales.
Cada observación muestral es una variable aleatoria, un estimador de un parámetro
por ser función de variables aleatorias, es una variable aleatoria.
La concreción de una estimación puntual no permite realizar afirmaciones ciertas ni
probabilísticas acerca del verdadero valor del parámetro, o de la confianza que puede

OM
depositarse en el estimador. Hay estimadores que cumplen ciertas propiedades que otorgan
confianza en que cada estimación particular que se realice utilizándolo proporcionara un
resultado no muy alejado del parámetro.

Propiedades de los buenos estimadores


Insesgabilidad

.C
Se dice que un parámetro es insesgado cuando su valor esperado es igual al parámetro
que se estima:
𝐸(𝜃̂) = 𝜃.
DD
Un estimador tiene una distribución de probabilidad, y por lo tanto puede calcularse su
esperanza. El hecho que la esperanza del estimador sea igual al parámetro a estimar, afirma
que si se toman todas las muestras posibles, el promedio de los valores del estimador, o sea su
valor esperado, será igual al parámetro. El valor del estimador puede resultar más o menos
alejado dependiendo de la variabilidad del estimador. Siempre que el valor esperado no esté
muy lejos del parámetro, será preferible entre dos estimadores posibles aquel que tenga
LA

menor variabilidad.
Si existiera una diferencia entre la esperanza del estimador y el parámetro a estimar,
esa diferencia se denomina “sesgo”.
𝑆𝑒𝑠𝑔𝑜 = 𝐸(𝜃̂ ) − 𝜃
FI

Algunos estimadores insesgados son: 𝑋, 𝑝̂ , la mediana (si la distribución poblacional es


simétrica).
Hay estimadores sesgados, pero asintóticamente insesgados (varianza muestral no
corregida), ya que si bien presentan un sesgo, al aumentar el tamaño de la muestra, el sesgo


tiende a desaparecer.

Consistencia
Se dice que un estimador 𝜃̂ es consistente si:
(𝑃𝑟 |𝜃̂ − 𝜃| < 𝜀) = 1

Un estimador es consistente cuando al tomar muestras grandes (tendientes a infinito),


es seguro que el estimador e aproximara al parámetro. Hay una probabilidad igual a 1 de que
la diferencia entre el estimador y el parámetro será inferior a un número arbitrario ∈
(pequeño). La ley de los grandes números proporciona una evidencia de la consistencia de los
estimadores media y proporción muestral.

Este archivo fue descargado de https://filadd.com


La consistencia es una propiedad deseable y muy importante de los estimadores
cuando se usan muestras grandes. Si éstas son pequeñas no tiene relevancia el hecho de que
un estimador sea o no consistente.
Ejemplos de estimadores consistentes son: 𝑋, 𝑝̂ , 𝑠 2 .

Eficiencia
Se refiere precisamente a la variabilidad de los estimadores. La varianza de un
estimador, proporciona una idea del grado de confianza que se puede tener en el mismo.
Ante dos estimadores insesgados (o por lo menos consistentes) θ1 y θ2 es más eficiente
θ1 si:
V (θ1) < V (θ2)

Generalmente la comparación se hace realizando el cociente entre ambas varianzas,; si

OM
es menor que 1, el estimador del numerador es más eficiente que el del denominador y
viceversa.
Cuanto menor sea la varianza de un estimador, es más probable que asuma valores
cercanos al parámetro, y por lo tanto será un mejor estimador.
Si uno de los estimadores es sesgado y el otro insesgado, pero el primero tiene menor
variabilidad que el segundo, suele ser conveniente elegirlo a pesar del sesgo. Hacemos
referencia al concepto de “eficiencia relativa” porque se compara la eficiencia de dos

.C
estimadores. Esto significa que, siendo ambos estimadores insesgados de la media
poblacional, por tener la media muestral un menor error estándar, habrá mayor probabilidad
de que la media muestral se encuentre cerca de la media población que la mediana.
Eficiencia absoluta: Permite establecer cuál es la varianza mínima de un estimador de
DD
cada parámetro.

Suficiencia
Un estimador es suficiente cuando utiliza toda la información que surge de la muestra
con respecto al parámetro a estimar.
Si tengo una muestra de tamaño n y quiero calcular la media muestral de la siguiente
LA

forma:
𝑥1 + 𝑥2
𝜇̂ =
2

Este estimador seria insesgado, pero no utilizaría la información proporcionada por las
FI

n-2 observaciones restantes.

5. Estimación puntual, Método de Máxima Verosimilitud.




Estimación puntual
El problema de la “estimación” de parámetros surge porque en muchos casos, la
población a estudiarse es, o muy grande, o resulta difícil acceder a su conocimiento total por
diversos motivos.
Entonces se recurre al muestreo cuando se desea conocer el valor de algún parámetro
de la población. ¿Cómo puede estimarse este valor?
Es necesario poseer alguna información sobre la población, entonces se toma una
muestra de esa población, se calculan “estimadores” o “estadísticos” a partir de la muestra,
que servirán para proporcionar una idea de los valores posibles de esos parámetros
poblacionales desconocidos.
¿Cuál será un mejor estimador del parámetro? Existen algunos criterios que fijan
ciertas propiedades deseables de los estimadores. Existen también ciertos métodos de
estimación que proporcionan los mejores estimadores cuando se conocen algunas
características de la población.

Este archivo fue descargado de https://filadd.com


Definición de estimador: Cuando se toma una muestra de n observaciones a partir de una
población determinada, se llama estimador θ de un parámetro θ, a cualquier función de las
observaciones muestrales.
Cada observación muestral es una variable aleatoria, un estimador de un parámetro
por ser función de variables aleatorias, es una variable aleatoria.
La concreción de una estimación puntual no permite realizar afirmaciones ciertas ni
probabilísticas acerca del verdadero valor del parámetro, o de la confianza que puede
depositarse en el estimador. Hay estimadores que cumplen ciertas propiedades que otorgan
confianza en que cada estimación particular que se realice utilizándolo proporcionara un
resultado no muy alejado del parámetro.
El método de “Maxima Verosimilitud” basado en el hecho que distintos parámetros
poblacionales producirán muestras diferentes, consiste en seleccionar como valor estimado
del parámetro, aquel que maximiza la probabilidad de una muestra (a posteriori de haberla
extraído) con respecto a todos los valores posibles del parámetro.

OM
Es un muy buen método porque los estimadores máximo verosímiles gozan de la
mayoría de las propiedades enunciadas en el punto anterior.
El método analítico consiste en obtener las condiciones de primer orden (con respecto
a los parámetros poblacionales que se quieran estimar) de la función de probabilidad conjunta
de una muestra (maximizar función de máxima verosimilitud). Un instrumento útil muchas
veces es tomar logaritmo natural para que sea más fácil derivar.

.C
A modo de ejemplo vamos a ver el método de máxima verosimilitud para estimar la media
poblacional y la varianza poblacional en el caso de la distribución normal.
DD
1 (𝑥1 −𝜇)2
2) −
𝑓(𝑥1 ; 𝜇, 𝜎 =[ ]℮ 2𝜎 2
√2𝜋𝜎 2

𝑛 (𝑋𝐼 −𝜇)2
1 1
− ∑𝑛
𝐿(𝜇, 𝜎 2 ) = 𝑓(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜇, 𝜎 2 ) = [ ] ℮ 2 𝑖=1 𝜎2
√2𝜋𝜎 2
LA

𝑛 (𝑋𝐼 −𝜇)2
2 2)
1 1
− ∑𝑛
𝑙𝑛 𝑙𝑛 𝐿(𝜇, 𝜎 ) =𝑙𝑛 𝑙𝑛 𝑓(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜇, 𝜎 =𝑙𝑛 𝑙𝑛 [ ] + 𝑙𝑛 𝑙𝑛 ℮ 2 𝑖=1 𝜎2
√2𝜋𝜎 2
FI

𝑛
2 2)
𝑛 1 (𝑋𝐼 − 𝜇)2
𝑙𝑛 𝑙𝑛 𝐿(𝜇, 𝜎 ) =𝑙𝑛 𝑙𝑛 𝑓(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜇, 𝜎 = − 𝑙𝑛 𝑙𝑛 (2𝜋𝜎 2 ) − ∑
2 2 𝜎2
𝑖=1


CPO:
𝑛
𝑑 𝑙𝑛 𝑙𝑛 𝐿(𝜇, 𝜎 2 ) (𝑋𝐼 − 𝜇)1
=∑
𝑑𝜇 𝜎2
𝑖=1

𝑛
𝑑 𝑙𝑛 𝑙𝑛 𝐿(𝜇, 𝜎 2 )
=∑ (𝑋𝐼 − 𝜇̂ )1 = 0
𝑑𝜇
𝑖=1

∑ 𝑋𝐼 = 𝑛𝜇̂
𝑖=1

Este archivo fue descargado de https://filadd.com


∑𝑛𝑖=1 𝑋𝐼
𝜇̂ =
𝑛

𝑛
𝜕 𝑙𝑛 𝑙𝑛 𝐿(𝜇, 𝜎 2 ) 𝑛2𝜋 1
= − + ∑ (𝑋𝐼 − 𝜇)2
𝜕𝜎 2 2(2𝜋𝜎 2 ) 2(𝜎 2 )2
𝑖=1

𝑛
𝜕 𝑙𝑛 𝑙𝑛 𝐿(𝜇, 𝜎 2 ) 𝑛 1
2
=− + ∑ (𝑋𝐼 − 𝜇̂ )2 = 0
𝜕𝜎 (2𝜎̂ ) 2(𝜎̂ 2 )2
2
𝑖=1

−𝑛𝜎̂ 2 + ∑𝑛𝑖=1 (𝑋𝐼 − 𝜇̂ )2

OM
=0
(2𝜎̂ 4 )

𝑛
2 (𝑋𝐼 − 𝜇̂ )2 = 0
−𝑛𝜎̂ + ∑
𝑖=1

.C 2
𝑛𝜎̂ = ∑
𝑖=1
𝑛

(𝑋𝐼 − 𝜇̂ )2
DD
2
∑𝑛𝑖=1 (𝑋𝐼 − 𝜇̂ )2
𝜎̂ =
𝑛
LA

∑𝑛 ̂ )2
(𝑋𝐼 −𝜇
El estimador debe ser ajustado para que no esté segado, quedando: 𝜎̂ 2 = 𝑖=1
𝑛−1

6. Estimación por intervalos. El nivel de confianza. Intervalos de confianza para la media


poblacional. Supuestos.
FI

Las estimaciones puntuales no llevan asociada idea alguna acerca del grado de
aproximación que puede existir entre el valor del estimador y el del parámetro que se está
estimando. No se puede saber el error que puede cometerse al estimar el parámetro basado
en los datos muestrales, ni se puede saber el nivel de confianza que puede depositarse en que
el valor estimado se encuentre cerca del verdadero valor del parámetro).


Es por ello que la estimación por intervalos consiste en establecer el intervalo de


valores donde es más probable se encuentre el parámetro.
La diferencia existente entre el valor del estimador en una muestra particular y el
verdadero valor del parámetro desconocido se llama “error de muestreo”.

|𝜃̂ − 𝜃| ≤ 𝜖

El error cometido al realizar la estimación no excederá en valor absoluto a 𝜖. El error


es aleatorio porque depende de 𝜃̂, que es una variable aleatoria y por lo tanto no se puede
saber con exactitud. Lo que se intenta es que el error no supere a 𝜖.
Entonces, conociendo distribuciones de probabilidad de estimadores y/o estadísticos,
es interesante analizar la posibilidad de establecer un intervalo aleatorio (𝜃̂ − 𝜖; 𝜃̂ + 𝜖), cuya

Este archivo fue descargado de https://filadd.com


amplitud es igual al doble del error máximo de estimación, y al cual pueda asociarse una
elevada probabilidad que el parámetro 𝜃 se encuentre en dicho intervalo.
Si bien se pierde precisión, se gana confianza de que la afirmación sea verdadera (NO
es probabilidad) y se gana conocimiento del error que puede cometerse al realizar la
estimación por intervalos.

La estimación por intervalos consta de 3 elementos fundamentales, a saberse: Nivel de


confianza, precisión y costo.
Nivel de confianza:
● El nivel de confianza representa el porcentaje de intervalos que incluirían el parámetro
de población si usted tomara muestras de la misma población una y otra vez.
● Se denota como porcentaje de (1- α)
● Se interpreta que el 100 (1- α)% de todos los intervalos de confianza que pueden ser
construidos, en las mismas condiciones en esa población, contendrán al parámetro

OM
desconocido.
● Un intervalo específico podrá contener o no al parámetro desconocido, no hay
probabilidad, solo confianza.

Planteo general de la estimación por intervalos:


1) Establecer cuál es el parámetro θ, desconocido, y que se conoce de la población.
2) Buscar un estimador puntual θ = g(x1, x2,…, xn) función de las observaciones

.C
muestrales en una muestra de tamaño n.
3) Plantear un estadístico función del estimador y del parámetro h (θ, θ). Este
estadístico debe cumplir dos condiciones: que algebraicamente sea posible
DD
despejar el parámetro única incógnita de la expresión y que tenga una distribución
de probabilidad conocida.
4) En estas condiciones, fijando el nivel de confianza 1- α, se determina en primer
lugar un intervalo para el estadístico.
𝑃𝑟(𝑘1 < ℎ(𝜃̂; 𝜃) < 𝑘2 ) = 1 − 𝛼
LA

Donde 𝑘1 y 𝑘2 se obtienen teniendo en cuenta la distribución de probabilidad del


estadístico y el nivel de confianza establecido. Por ejemplo:
𝑋−𝜇
𝑃𝑟 𝑃𝑟 (𝑧𝛼 < 𝜎 < 𝑧1−𝛼 ) = 1 − 𝛼
2 √𝑛 2

5) Luego se despeja el parámetro, obteniéndose un intervalo aleatorio el cual tiene


FI

probabilidad igual 1- α de contenerlo.

𝜎 𝜎
𝑃𝑟 (𝑋 − 𝑧𝛼 < 𝜇 < 𝑋 + 𝑧𝛼 ) =1−𝛼
2 √𝑛 2 √𝑛


6) Por último, se realiza la estimación del parámetro y se obtienen los límites inferior
y superior de confianza entre los cuales se piensa con una confianza igual a
(1- α) 100% que se encuentra θ.
𝜎
𝐿𝐼𝐶 = 𝑋 − 𝑧𝛼
2 √𝑛

𝜎
𝐿𝑆𝐶 = 𝑋 + 𝑧𝛼
2 √𝑛

Consideraremos los siguientes casos de intervalo de confianza para la media de una población:
Intervalo de confianza para media poblacional (σ conocida).
Supuestos:
● La desviación estándar poblacional es conocida.
● La población es normal.
10

Este archivo fue descargado de https://filadd.com


● Si no lo es, la muestra debe ser grande.
Estadístico y cálculo del intervalo:

𝑋−𝜇
𝜎 ~𝑁(0; 1)
√𝑛
𝜎 𝜎
𝑃𝑟 (𝑋 − 𝑧𝛼 < 𝜇 < 𝑋 + 𝑧𝛼 ) =1−𝛼
2 √𝑛 2 √𝑛

𝜎
𝐿𝐼𝐶 = 𝑋 − 𝑧𝛼
2 𝑛

𝜎
𝐿𝑆𝐶 = 𝑋 + 𝑧𝛼 𝑛
2 √

Intervalo de confianza para media poblacional (σ conocida).


Supuestos:

OM
● La desviación estándar poblacional es conocida.
● La población es normal.
● Si no lo es, la muestra debe ser grande.
Cálculo del intervalo:

𝑋−𝜇
𝑆 ~𝑡𝑛−1
√𝑛

.C
𝑠 𝑠
𝑃𝑟 (𝑋 − 𝑡𝑛−1,𝛼 < 𝜇 < 𝑋 + 𝑡𝑛−1,𝛼 )=1−𝛼
2 √𝑛 2 √𝑛
DD
𝑠
𝐿𝐼𝐶 = 𝑋 − 𝑡𝑛−1,𝛼
2 √𝑛
𝑠
𝐿𝑆𝐶 = 𝑋 + 𝑡𝑛−1,𝛼
2 √𝑛
LA

Estimación para poblaciones finitas


Las muestras se toman sin reemplazo. Debe corregirse el error estándar de la media
muestral, que pasa a ser:
𝜎 (𝑁−𝑛)
× √ (𝑁−1)
√𝑛
FI


Cuestiones éticas:
● El intervalo de confianza debería siempre informarse junto con la estimación
puntual.
● Debería constar siempre el nivel de confianza de los estimadores
● El tamaño de la muestra debe ser señalado.
● Debería proveerse una interpretación del intervalo de estimación.

7. Estimación por intervalos. El nivel de confianza. Intervalos de confianza para la proporción


poblacional. Supuestos

Las estimaciones puntuales no llevan asociada idea alguna acerca del grado de
aproximación que puede existir entre el valor del estimador y el del parámetro que se está
estimando. No se puede saber el error que puede cometerse al estimar el parámetro basado

11

Este archivo fue descargado de https://filadd.com


en los datos muestrales, ni se puede saber el nivel de confianza que puede depositarse en que
el valor estimado se encuentre cerca del verdadero valor del parámetro).
Es por ello que la estimación por intervalos consiste en establecer el intervalo de
valores donde es más probable se encuentre el parámetro.
La diferencia existente entre el valor del estimador en una muestra particular y el
verdadero valor del parámetro desconocido se llama “error de muestreo”.

|𝜃̂ − 𝜃| ≤ 𝜖

El error cometido al realizar la estimación no excederá en valor absoluto a 𝜖. El error


es aleatorio porque depende de 𝜃̂, que es una variable aleatoria y por lo tanto no se puede
saber con exactitud. Lo que se intenta es que el error no supere a 𝜖.
Entonces, conociendo distribuciones de probabilidad de estimadores y/o estadísticos,

OM
es interesante analizar la posibilidad de establecer un intervalo aleatorio (𝜃̂ − 𝜖; 𝜃̂ + 𝜖), cuya
amplitud es igual al doble del error máximo de estimación, y al cual pueda asociarse una
elevada probabilidad que el parámetro 𝜃 se encuentre en dicho intervalo.
Si bien se pierde precisión, se gana confianza de que la afirmación sea verdadera (NO
es probabilidad) y se gana conocimiento del error que puede cometerse al realizar la
estimación por intervalos.

.C
La estimación por intervalos consta de 3 elementos fundamentales, a saberse: Nivel de
confianza, precisión y costo.
Nivel de confianza:
DD
● El nivel de confianza representa el porcentaje de intervalos que incluirían el parámetro
de población si usted tomara muestras de la misma población una y otra vez.
● Se denota como porcentaje de (1- α)
● Se interpreta que el 100 (1- α)% de todos los intervalos de confianza que pueden ser
construidos, en las mismas condiciones en esa población, contendrán al parámetro
desconocido.
LA

● Un intervalo específico podrá contener o no al parámetro desconocido, no hay


probabilidad, solo confianza.

Planteo general de la estimación por intervalos:


1) Establecer cuál es el parámetro θ, desconocido, y que se conoce de la población.
FI

2) Buscar un estimador puntual θ = g(x1, x2,…, xn) función de las observaciones


muestrales en una muestra de tamaño n.
3) Plantear un estadístico función del estimador y del parámetro h (θ, θ). Este
estadístico debe cumplir dos condiciones: que algebraicamente sea posible
despejar el parámetro única incógnita de la expresión y que tenga una distribución


de probabilidad conocida.
4) En estas condiciones, fijando el nivel de confianza 1- α, se determina en primer
lugar un intervalo para el estadístico.
𝑃𝑟(𝑘1 < ℎ(𝜃̂; 𝜃) < 𝑘2 ) = 1 − 𝛼

Donde 𝑘1 y 𝑘2 se obtienen teniendo en cuenta la distribución de probabilidad del


estadístico y el nivel de confianza establecido. Por ejemplo:
𝑋−𝜇
𝑃𝑟 𝑃𝑟 (𝑧𝛼 < 𝜎 < 𝑧1−𝛼 ) = 1 − 𝛼
2 √𝑛 2

5) Luego se despeja el parámetro, obteniéndose un intervalo aleatorio el cual tiene


probabilidad igual 1- α de contenerlo.

𝜎 𝜎
𝑃𝑟 (𝑋 − 𝑧𝛼 < 𝜇 < 𝑋 + 𝑧𝛼 ) =1−𝛼
2 𝑛
√ 2 𝑛

12

Este archivo fue descargado de https://filadd.com


6) Por último, se realiza la estimación del parámetro y se obtienen los límites inferior
y superior de confianza entre los cuales se piensa con una confianza igual a
(1- α) 100% que se encuentra θ.
𝜎
𝐿𝐼𝐶 = 𝑋 − 𝑧𝛼
2 √𝑛

𝜎
𝐿𝑆𝐶 = 𝑋 + 𝑧𝛼
2 √𝑛

Intervalo de confianza para la proporción poblacional.


Supuestos:
● Dos resultados categóricos

OM
● Distribución binomial (población dicotómica)
● Se puede usar la Normal si n.p ≥ 5 y n.q ≥ 5
Estimador, parámetro y cálculo del intervalo:
𝑝̂−𝑝
~𝑁(0; 1)
𝑝×(1−𝑝)

𝑛

.C 𝑝̂ − 𝑧𝛼 √
2
𝑝×(1−𝑝)
𝑛
< 𝑝 < 𝑝̂ + 𝑧𝛼 √
2
𝑝×(1−𝑝)
𝑛
DD
𝑝×(1−𝑝)
𝐿𝐼𝐶 = 𝑝̂ − 𝑧𝛼 √ 𝑛
2
𝑝×(1−𝑝)
𝐿𝑆𝐶 = 𝑝̂ + 𝑧𝛼 √
2 𝑛
Cuestiones éticas:
● El intervalo de confianza debería siempre informarse junto con la estimación
LA

puntual.
● Debería constar siempre el nivel de confianza de los estimadores
● El tamaño de la muestra debe ser señalado.
● Debería proveerse una interpretación del intervalo de estimación.
FI

8. Estimación por intervalos. El nivel de confianza. Intervalos de confianza para la varianza


poblacional. Supuestos.

Las estimaciones puntuales no llevan asociada idea alguna acerca del grado de


aproximación que puede existir entre el valor del estimador y el del parámetro que se está
estimando. No se puede saber el error que puede cometerse al estimar el parámetro basado
en los datos muestrales, ni se puede saber el nivel de confianza que puede depositarse en que
el valor estimado se encuentre cerca del verdadero valor del parámetro).
Es por ello que la estimación por intervalos consiste en establecer el intervalo de
valores donde es más probable se encuentre el parámetro.
La diferencia existente entre el valor del estimador en una muestra particular y el
verdadero valor del parámetro desconocido se llama “error de muestreo”.

|𝜃̂ − 𝜃| ≤ 𝜖

13

Este archivo fue descargado de https://filadd.com


El error cometido al realizar la estimación no excederá en valor absoluto a 𝜖. El error
es aleatorio porque depende de 𝜃̂, que es una variable aleatoria y por lo tanto no se puede
saber con exactitud. Lo que se intenta es que el error no supere a 𝜖.
Entonces, conociendo distribuciones de probabilidad de estimadores y/o estadísticos,
es interesante analizar la posibilidad de establecer un intervalo aleatorio (𝜃̂ − 𝜖; 𝜃̂ + 𝜖), cuya
amplitud es igual al doble del error máximo de estimación, y al cual pueda asociarse una
elevada probabilidad que el parámetro 𝜃 se encuentre en dicho intervalo.
Si bien se pierde precisión, se gana confianza de que la afirmación sea verdadera (NO
es probabilidad) y se gana conocimiento del error que puede cometerse al realizar la
estimación por intervalos.

La estimación por intervalos consta de 3 elementos fundamentales, a saberse: Nivel de


confianza, precisión y costo.

OM
Nivel de confianza:
● El nivel de confianza representa el porcentaje de intervalos que incluirían el parámetro
de población si usted tomara muestras de la misma población una y otra vez.
● Se denota como porcentaje de (1- α)
● Se interpreta que el 100 (1- α)% de todos los intervalos de confianza que pueden ser
construidos, en las mismas condiciones en esa población, contendrán al parámetro
desconocido.

.C
● Un intervalo específico podrá contener o no al parámetro desconocido, no hay
probabilidad, solo confianza.

Planteo general de la estimación por intervalos:


DD
1) Establecer cuál es el parámetro θ, desconocido, y que se conoce de la población.
2) Buscar un estimador puntual θ = g(x1, x2,…, xn) función de las observaciones
muestrales en una muestra de tamaño n.
3) Plantear un estadístico función del estimador y del parámetro h (θ, θ). Este
estadístico debe cumplir dos condiciones: que algebraicamente sea posible
despejar el parámetro única incógnita de la expresión y que tenga una distribución
LA

de probabilidad conocida.
4) En estas condiciones, fijando el nivel de confianza 1- α, se determina en primer
lugar un intervalo para el estadístico.
𝑃𝑟(𝑘1 < ℎ(𝜃̂; 𝜃) < 𝑘2 ) = 1 − 𝛼
FI

Donde 𝑘1 y 𝑘2 se obtienen teniendo en cuenta la distribución de probabilidad del


estadístico y el nivel de confianza establecido. Por ejemplo:
𝑋−𝜇
𝑃𝑟 𝑃𝑟 (𝑧𝛼 < 𝜎 < 𝑧1−𝛼 ) = 1 − 𝛼
2 √𝑛 2

5) Luego se despeja el parámetro, obteniéndose un intervalo aleatorio el cual tiene




probabilidad igual 1- α de contenerlo.

𝜎 𝜎
𝑃𝑟 (𝑋 − 𝑧𝛼 < 𝜇 < 𝑋 + 𝑧𝛼 ) =1−𝛼
2 √𝑛 2 √𝑛

6) Por último, se realiza la estimación del parámetro y se obtienen los límites inferior
y superior de confianza entre los cuales se piensa con una confianza igual a
(1- α) 100% que se encuentra θ.
𝜎
𝐿𝐼𝐶 = 𝑋 − 𝑧𝛼
2 √𝑛

𝜎
𝐿𝑆𝐶 = 𝑋 + 𝑧𝛼
2 √𝑛

14

Este archivo fue descargado de https://filadd.com


Intervalo de confianza para la varianza.
Supuestos
● La población se distribuye normalmente
Estadístico y cálculo del intervalo:
(𝑛−1)𝑆 2 2
𝜎2
~𝜒𝑛−1

2 (𝑛−1)𝑆 2 2
𝑃𝑟 𝑃𝑟 (𝜒𝑛−1; 𝛼 <
𝜎2
< 𝜒𝑛−1;1− 𝛼) = 1 − 𝛼
2 2

(𝑛−1)𝑆 2
𝐿𝐼𝐶 = 𝜒2
𝛼
𝑛−1;1− 2

(𝑛−1)𝑆 2

OM
𝐿𝑆𝐶 = 𝜒2 𝛼
𝑛−1;
2
Cuestiones éticas:
● El intervalo de confianza debería siempre informarse junto con la estimación
puntual.
● Debería constar siempre el nivel de confianza de los estimadores
● El tamaño de la muestra debe ser señalado.

.C
● Debería proveerse una interpretación del intervalo de estimación.

9. Estimación por intervalos. El nivel de confianza. Intervalos de confianza para la diferencia


DD
de medias poblacionales. Supuestos.

Las estimaciones puntuales no llevan asociada idea alguna acerca del grado de
aproximación que puede existir entre el valor del estimador y el del parámetro que se está
estimando. No se puede saber el error que puede cometerse al estimar el parámetro basado
en los datos muestrales, ni se puede saber el nivel de confianza que puede depositarse en que
LA

el valor estimado se encuentre cerca del verdadero valor del parámetro).


Es por ello que la estimación por intervalos consiste en establecer el intervalo de
valores donde es más probable se encuentre el parámetro.
La diferencia existente entre el valor del estimador en una muestra particular y el
verdadero valor del parámetro desconocido se llama “error de muestreo”.
FI

|𝜃̂ − 𝜃| ≤ 𝜖

El error cometido al realizar la estimación no excederá en valor absoluto a 𝜖. El error




es aleatorio porque depende de 𝜃̂, que es una variable aleatoria y por lo tanto no se puede
saber con exactitud. Lo que se intenta es que el error no supere a 𝜖.
Entonces, conociendo distribuciones de probabilidad de estimadores y/o estadísticos,
es interesante analizar la posibilidad de establecer un intervalo aleatorio (𝜃̂ − 𝜖; 𝜃̂ + 𝜖), cuya
amplitud es igual al doble del error máximo de estimación, y al cual pueda asociarse una
elevada probabilidad que el parámetro 𝜃 se encuentre en dicho intervalo.
Si bien se pierde precisión, se gana confianza de que la afirmación sea verdadera (NO
es probabilidad) y se gana conocimiento del error que puede cometerse al realizar la
estimación por intervalos.

La estimación por intervalos consta de 3 elementos fundamentales, a saberse: Nivel de


confianza, precisión y costo.
Nivel de confianza:

15

Este archivo fue descargado de https://filadd.com


● El nivel de confianza representa el porcentaje de intervalos que incluirían el parámetro
de población si usted tomara muestras de la misma población una y otra vez.
● Se denota como porcentaje de (1- α)
● Se interpreta que el 100 (1- α)% de todos los intervalos de confianza que pueden ser
construidos, en las mismas condiciones en esa población, contendrán al parámetro
desconocido.
● Un intervalo específico podrá contener o no al parámetro desconocido, no hay
probabilidad, solo confianza.

Planteo general de la estimación por intervalos:


1) Establecer cuál es el parámetro θ, desconocido, y que se conoce de la población.
2) Buscar un estimador puntual θ = g(x1, x2,…, xn) función de las observaciones
muestrales en una muestra de tamaño n.
3) Plantear un estadístico función del estimador y del parámetro h (θ, θ). Este

OM
estadístico debe cumplir dos condiciones: que algebraicamente sea posible
despejar el parámetro única incógnita de la expresión y que tenga una distribución
de probabilidad conocida.
4) En estas condiciones, fijando el nivel de confianza 1- α, se determina en primer
lugar un intervalo para el estadístico.
𝑃𝑟(𝑘1 < ℎ(𝜃̂; 𝜃) < 𝑘2 ) = 1 − 𝛼

.C
Donde 𝑘1 y 𝑘2 se obtienen teniendo en cuenta la distribución de probabilidad del
estadístico y el nivel de confianza establecido. Por ejemplo:
𝑃𝑟 𝑃𝑟 (𝑧𝛼 <
𝑋−𝜇
< 𝑧1−𝛼 ) = 1 − 𝛼
DD
𝜎
2 √𝑛 2

5) Luego se despeja el parámetro, obteniéndose un intervalo aleatorio el cual tiene


probabilidad igual 1- α de contenerlo.

𝜎 𝜎
𝑃𝑟 (𝑋 − 𝑧𝛼 < 𝜇 < 𝑋 + 𝑧𝛼 ) =1−𝛼
2 𝑛
√ 2 𝑛

LA

6) Por último, se realiza la estimación del parámetro y se obtienen los límites inferior
y superior de confianza entre los cuales se piensa con una confianza igual a
(1- α) 100% que se encuentra θ.
𝜎
𝐿𝐼𝐶 = 𝑋 − 𝑧𝛼
FI

2 √𝑛

𝜎
𝐿𝑆𝐶 = 𝑋 + 𝑧𝛼
2 √𝑛


Si en lugar de tratarse de algún parámetro desconocido de una población se trata de


dos poblaciones, y con el objeto de considerar las diferencias que pudieran existir entre
ambas, se desea comparar sus parámetros, surge un problema diferente. Que es el de estimar
funciones en que intervienen parámetros de las dos poblaciones.

Diferencia de medias, muestras independientes.


Tomando una muestra de cada población se plantea:
a) El estimador de la diferencia de medias poblacionales, es la diferencia entre las
medias muestrales 𝑋1 – 𝑋2
b) La esperanza de la diferencia, es igual a la diferencia de las esperanzas. La
esperanza del estimador es μ1 – μ2; la varianza del estimador, por ser muestras
independientes, es igual a la suma de las varianzas:
𝜎2 𝜎2
𝜎𝑋21 −𝑋2 = 𝜎𝑋21 + 𝜎𝑋22 = 1 + 2
𝑛 𝑛1 2

16

Este archivo fue descargado de https://filadd.com


Test z muestras independientes (Varianzas poblacionales conocidas)
Supuestos:
● Las muestras son seleccionadas aleatoriamente e independientemente de
distribuciones normales
● Se conocen las varianzas poblacionales
Estadístico:

(𝑋1 −𝑋2 )−(𝜇1 −𝜇2 )


~𝑁(0; 1)
𝜎2 𝜎 2
√ 1+ 2
𝑛1 𝑛2

𝜎2 𝜎2 𝜎2 𝜎2
𝑃𝑟 𝑃𝑟 ((𝑋1 − 𝑋2 ) − 𝑧1−𝛼 √𝑛1 + 𝑛2 < (𝜇1 − 𝜇2 ) < (𝑋1 − 𝑋2 ) + 𝑧1−𝛼 √𝑛1 + 𝑛2 ) = 1 − 𝛼
2 1 2 2 1 2

OM
𝜎2 𝜎2
𝐿𝐼𝐶 = (𝑋1 − 𝑋2 ) − 𝑧1−𝛼 √𝑛1 + 𝑛2
2 1 2

𝜎2 𝜎2
𝐿𝑆𝐶 = (𝑋1 − 𝑋2 ) + 𝑧1−𝛼 √𝑛1 + 2
𝑛 2 1 2

Test t varianzas ponderadas (varianzas poblacionales desconocidas)

.C
En este caso, es necesario buscar un estadístico adecuado que no contenga las
varianzas poblacionales. Es necesario algún supuesto adicional bastante restrictivo.
Supuestos:
● Ambas poblaciones se distribuyen normalmente
DD
● Muestras aleatorias simples independientemente seleccionadas
● Varianzas poblacionales desconocidas pero supuestamente iguales
● Si ambas poblaciones no son normales, se requieren n grandes.
Agregar el supuesto de que las varianzas son iguales nos permite despejar y arribar a nuestro
estadístico:
LA

(𝑋1 − 𝑋2 ) − (𝜇1 − 𝜇2 )
~𝑡𝑛1 +𝑛2 −2
2 2
(𝑛 − 1)𝑆1 + (𝑛2 − 1)𝑆2 𝑛1 + 𝑛2
√ 1 ×
𝑛1 + 𝑛2 − 2 𝑛1 × 𝑛2
FI

El denominador es la raíz cuadrada de la media ponderada de ambas varianzas


muestrales; por ello varios paquetes estadísticos llaman a este caso, el de las “varianzas
combinadas”.
El supuesto de varianzas poblacionales iguales debe ser probado. Si se concluye que no


hay evidencias para sospechar que las varianzas son diferentes, se aplica el estadístico
anteriormente mencionado. Si las hay, existe un estadístico en el cual se consideran las
varianzas de ambas muestras “separadas”, la distribución también es t de Student pero hay
que recalcular los grados de libertad. Los grados ahora son v y se calculan:
2
𝑠12 𝑠22
( + )
𝑛1 𝑛2
𝑣=
2 2 2
𝑠 𝑠2
(𝑛1 ) (𝑛2 )
1 2
𝑛1 − 1 + 𝑛2 − 1

El estadístico es entonces:

17

Este archivo fue descargado de https://filadd.com


(𝑋1 − 𝑋2 ) − (𝜇1 − 𝜇2 )
~𝑡𝑣
𝑆2 𝑆22
√ 1 +
𝑛1 𝑛2

Si las varianzas poblacionales son iguales, el intervalo de confianza resulta:

𝑛1 +𝑛2 𝑛1 +𝑛2
𝑃𝑟 𝑃𝑟 ((𝑋1 − 𝑋2 ) − 𝑡𝑛1 +𝑛2 −2;𝛼 √𝑆2𝑝 × < (𝜇1 − 𝜇2 ) < (𝑋 − 𝑋
1 2
) + 𝑡𝑛1 +𝑛2 −2;𝛼 √𝑆2𝑝 × ) = 1−
2 𝑛1 ×𝑛2 2 𝑛1 ×𝑛2

Si las varianzas poblacionales no son iguales, tenemos:

OM
𝑆2 𝑆2 𝑆2 𝑆2
𝑃𝑟 𝑃𝑟 ((𝑋1 − 𝑋2 ) − 𝑡𝑣;1−𝛼 √𝑛1 + 𝑛2 < (𝜇1 − 𝜇2 ) < (𝑋1 − 𝑋2 ) + 𝑡𝑣;1−𝛼 √𝑛1 + 𝑛2 ) = 1 − 𝛼
2 1 2 2 1 2

Diferencia de medias, muestras dependientes (observaciones apareadas).


Cuando se trata de muestras dependientes es conveniente, en vez de trabajar con las
variables X1 y X2, definir una nueva variable que sea igual a la diferencia entre ambas:

.C 𝛥 = 𝐷 = 𝑋1 − 𝑋2 , 𝑠𝑖𝑒𝑛𝑑𝑜 𝑐𝑎𝑑𝑎 𝑜𝑏𝑠𝑒𝑟𝑣𝑎𝑐𝑖ó𝑛 𝑑𝑖 = 𝑥1𝑖 − 𝑥2𝑖


DD
Luego calculamos la media y la varianza de la nueva variable D y se utiliza el estadístico
similar al necesario para construir un intervalo de confianza para la media de una variable.
Corresponde utilizar el estadístico con distribución t de Student y se necesita el supuesto de
poblaciones normales.
Supuestos:
● Ambas poblaciones se distribuyen normalmente
LA

● Las observaciones están apareadas


● Varianza desconocida
● Si la población no es normal, entonces muestra grande.

∑ 𝑑𝑖 ∑ 𝑑𝑖2 −𝑛𝑑 2
𝑑= 𝑆𝑑2 =
FI

𝑛 𝑛−1

𝑑−𝐷
~𝑡𝑛−1
𝑆𝑑
√𝑛


Intervalo de confianza:

𝑆𝑑
𝐿𝐼𝐶 = 𝑑 − 𝑡𝑛−1;1−𝛼
2 √𝑛

𝑆𝑑
𝐿𝑆𝐶 = 𝑑 + 𝑡𝑛−1;1−𝛼
2 √𝑛

10. Estimación por intervalos. El nivel de confianza. Intervalos de confianza para la diferencia
de proporciones poblacionales. Supuestos.

Las estimaciones puntuales no llevan asociada idea alguna acerca del grado de
aproximación que puede existir entre el valor del estimador y el del parámetro que se está
estimando. No se puede saber el error que puede cometerse al estimar el parámetro basado

18

Este archivo fue descargado de https://filadd.com


en los datos muestrales, ni se puede saber el nivel de confianza que puede depositarse en que
el valor estimado se encuentre cerca del verdadero valor del parámetro).
Es por ello que la estimación por intervalos consiste en establecer el intervalo de
valores donde es más probable se encuentre el parámetro.
La diferencia existente entre el valor del estimador en una muestra particular y el
verdadero valor del parámetro desconocido se llama “error de muestreo”.

|𝜃̂ − 𝜃| ≤ 𝜖

El error cometido al realizar la estimación no excederá en valor absoluto a 𝜖. El error


es aleatorio porque depende de 𝜃̂, que es una variable aleatoria y por lo tanto no se puede
saber con exactitud. Lo que se intenta es que el error no supere a 𝜖.
Entonces, conociendo distribuciones de probabilidad de estimadores y/o estadísticos,

OM
es interesante analizar la posibilidad de establecer un intervalo aleatorio (𝜃̂ − 𝜖; 𝜃̂ + 𝜖), cuya
amplitud es igual al doble del error máximo de estimación, y al cual pueda asociarse una
elevada probabilidad que el parámetro 𝜃 se encuentre en dicho intervalo.
Si bien se pierde precisión, se gana confianza de que la afirmación sea verdadera (NO
es probabilidad) y se gana conocimiento del error que puede cometerse al realizar la
estimación por intervalos.

.C
La estimación por intervalos consta de 3 elementos fundamentales, a saberse: Nivel de
confianza, precisión y costo.
Nivel de confianza:
DD
● El nivel de confianza representa el porcentaje de intervalos que incluirían el parámetro
de población si usted tomara muestras de la misma población una y otra vez.
● Se denota como porcentaje de (1- α)
● Se interpreta que el 100 (1- α)% de todos los intervalos de confianza que pueden ser
construidos, en las mismas condiciones en esa población, contendrán al parámetro
desconocido.
LA

● Un intervalo específico podrá contener o no al parámetro desconocido, no hay


probabilidad, solo confianza.

Planteo general de la estimación por intervalos:


1) Establecer cuál es el parámetro θ, desconocido, y que se conoce de la población.
FI

2) Buscar un estimador puntual θ = g(x1, x2,…, xn) función de las observaciones


muestrales en una muestra de tamaño n.
3) Plantear un estadístico función del estimador y del parámetro h (θ, θ). Este
estadístico debe cumplir dos condiciones: que algebraicamente sea posible
despejar el parámetro única incógnita de la expresión y que tenga una distribución


de probabilidad conocida.
4) En estas condiciones, fijando el nivel de confianza 1- α, se determina en primer
lugar un intervalo para el estadístico.
𝑃𝑟(𝑘1 < ℎ(𝜃̂; 𝜃) < 𝑘2 ) = 1 − 𝛼

Donde 𝑘1 y 𝑘2 se obtienen teniendo en cuenta la distribución de probabilidad del


estadístico y el nivel de confianza establecido. Por ejemplo:
𝑋−𝜇
𝑃𝑟 𝑃𝑟 (𝑧𝛼 < 𝜎 < 𝑧1−𝛼 ) = 1 − 𝛼
2 √𝑛 2

5) Luego se despeja el parámetro, obteniéndose un intervalo aleatorio el cual tiene


probabilidad igual 1- α de contenerlo.

𝜎 𝜎
𝑃𝑟 (𝑋 − 𝑧𝛼 < 𝜇 < 𝑋 + 𝑧𝛼 ) =1−𝛼
2 𝑛
√ 2 𝑛

19

Este archivo fue descargado de https://filadd.com


6) Por último, se realiza la estimación del parámetro y se obtienen los límites inferior
y superior de confianza entre los cuales se piensa con una confianza igual a
(1- α) 100% que se encuentra θ.
𝜎
𝐿𝐼𝐶 = 𝑋 − 𝑧𝛼
2 √𝑛

𝜎
𝐿𝑆𝐶 = 𝑋 + 𝑧𝛼
2 √𝑛

OM
Diferencia de proporciones, muestras independientes.
Estamos hablando de poblaciones dicotómicas. Solo consideramos el caso de muestras
independientes y lo suficientemente grandes como para usar la aproximación normal. ( np y nq
mayores que 5).
Los estimadores de cada una de las proporciones poblacionales son proporciones
muestrales, y por propiedades de esperanza y varianza de una diferencia de variables

.C
aleatorias independientes, el estadístico es:

(𝑝̂1 − 𝑝̂ 2 ) − (𝑃1 − 𝑃2 )
DD
~𝑁(0; 1)
𝑝̂ (1 − 𝑝̂1 ) 𝑝̂2 (1 − 𝑝̂2 )
√ 1 +
𝑛1 𝑛2

Las proporciones estimadas en el denominador, utilizadas como estimadores de los


errores estándar de la proporción en cada muestra, se aplican por desconocimiento de las
LA

poblacionales, produciéndose por este motivo un error adicional que por lo general no es
importante.
Cálculo del intervalo:
𝑝̂1 (1−𝑝̂1 ) 𝑝̂ (1−𝑝̂ )
𝐿𝐼𝐶 = (𝑝̂1 − 𝑝̂ 2 ) − 𝑧1−𝛼 √ + 2𝑛 2
2 𝑛1 2
FI

𝑝̂1 (1−𝑝̂1 ) 𝑝̂ (1−𝑝̂ )


𝐿𝑆𝐶 = (𝑝̂1 − 𝑝̂2 ) + 𝑧1−𝛼 √ + 2𝑛 2
2 𝑛1 2

11. Estimación por intervalos. El nivel de confianza. Intervalos de confianza para el cociente
de varianzas poblacionales. Supuestos.


Las estimaciones puntuales no llevan asociada idea alguna acerca del grado de
aproximación que puede existir entre el valor del estimador y el del parámetro que se está
estimando. No se puede saber el error que puede cometerse al estimar el parámetro basado
en los datos muestrales, ni se puede saber el nivel de confianza que puede depositarse en que
el valor estimado se encuentre cerca del verdadero valor del parámetro).
Es por ello que la estimación por intervalos consiste en establecer el intervalo de
valores donde es más probable se encuentre el parámetro.
La diferencia existente entre el valor del estimador en una muestra particular y el
verdadero valor del parámetro desconocido se llama “error de muestreo”.

|𝜃̂ − 𝜃| ≤ 𝜖

20

Este archivo fue descargado de https://filadd.com


El error cometido al realizar la estimación no excederá en valor absoluto a 𝜖. El error
es aleatorio porque depende de 𝜃̂, que es una variable aleatoria y por lo tanto no se puede
saber con exactitud. Lo que se intenta es que el error no supere a 𝜖.
Entonces, conociendo distribuciones de probabilidad de estimadores y/o estadísticos,
es interesante analizar la posibilidad de establecer un intervalo aleatorio (𝜃̂ − 𝜖; 𝜃̂ + 𝜖), cuya
amplitud es igual al doble del error máximo de estimación, y al cual pueda asociarse una
elevada probabilidad que el parámetro 𝜃 se encuentre en dicho intervalo.
Si bien se pierde precisión, se gana confianza de que la afirmación sea verdadera (NO
es probabilidad) y se gana conocimiento del error que puede cometerse al realizar la
estimación por intervalos.

La estimación por intervalos consta de 3 elementos fundamentales, a saberse: Nivel de


confianza, precisión y costo.

OM
Nivel de confianza:
● El nivel de confianza representa el porcentaje de intervalos que incluirían el parámetro
de población si usted tomara muestras de la misma población una y otra vez.
● Se denota como porcentaje de (1- α)
● Se interpreta que el 100 (1- α)% de todos los intervalos de confianza que pueden ser
construidos, en las mismas condiciones en esa población, contendrán al parámetro
desconocido.

.C
● Un intervalo específico podrá contener o no al parámetro desconocido, no hay
probabilidad, solo confianza.

Planteo general de la estimación por intervalos:


DD
1) Establecer cuál es el parámetro θ, desconocido, y que se conoce de la población.
2) Buscar un estimador puntual θ = g(x1, x2,…, xn) función de las observaciones
muestrales en una muestra de tamaño n.
3) Plantear un estadístico función del estimador y del parámetro h (θ, θ). Este
estadístico debe cumplir dos condiciones: que algebraicamente sea posible
despejar el parámetro única incógnita de la expresión y que tenga una distribución
LA

de probabilidad conocida.
4) En estas condiciones, fijando el nivel de confianza 1- α, se determina en primer
lugar un intervalo para el estadístico.
𝑃𝑟(𝑘1 < ℎ(𝜃̂; 𝜃) < 𝑘2 ) = 1 − 𝛼
FI

Donde 𝑘1 y 𝑘2 se obtienen teniendo en cuenta la distribución de probabilidad del


estadístico y el nivel de confianza establecido. Por ejemplo:
𝑋−𝜇
𝑃𝑟 𝑃𝑟 (𝑧𝛼 < 𝜎 < 𝑧1−𝛼 ) = 1 − 𝛼
2 √𝑛 2

5) Luego se despeja el parámetro, obteniéndose un intervalo aleatorio el cual tiene




probabilidad igual 1- α de contenerlo.

𝜎 𝜎
𝑃𝑟 (𝑋 − 𝑧𝛼 < 𝜇 < 𝑋 + 𝑧𝛼 ) =1−𝛼
2 √𝑛 2 √𝑛

6) Por último, se realiza la estimación del parámetro y se obtienen los límites inferior
y superior de confianza entre los cuales se piensa con una confianza igual a
(1- α) 100% que se encuentra θ.
𝜎
𝐿𝐼𝐶 = 𝑋 − 𝑧𝛼
2 √𝑛

𝜎
𝐿𝑆𝐶 = 𝑋 + 𝑧𝛼
2 √𝑛

21

Este archivo fue descargado de https://filadd.com


Intervalo de confianza para el cociente de varianzas, poblaciones normales.
Cuando se desea establecer un intervalo de confianza que compare las varianzas de
dos poblaciones, tomando muestras independientes, hay que tener en cuenta que para
comparar varianzas existen estadísticos que contemplan el cociente, en lugar de la diferencia.
Prueba F (paramétrica)
Supuestos:
● Ambas poblaciones están normalmente distribuidas
⮚ Prueba no es robusta a la violación de este supuesto
● Las muestras fueron seleccionadas aleatoria e independientemente.
El estadístico:
𝑆12 𝜎22
~𝐹
𝑆22 𝜎12 (𝑛1 −1;𝑛2 −1)

OM
Tiene esta distribución por tratarse de un cociente entre dos 𝜒 2 independientes, divididas por
sus grados de libertad.
Al despejar el cociente de varianzas poblacionales, se obtiene el intervalo de confianza (para el
cociente 𝜎12 / 𝜎22 )
12. Conceptos y cálculo del error de estimación y riesgo. Determinación del tamaño de
muestra para la estimación de una media poblacional. Poblaciones finitas e infinitas.

.C
Determinación del tamaño de la muestra para la estimación de una media poblacional
¿Cuál es el máximo error que se está dispuesto a tolerar? ¿Cuál es el nivel de confianza
deseado para las estimaciones? ¿Cuál es la varianza de la población bajo estudio? ¿Se trata de
DD
un muestreo con o sin reemplazo?

Muestreo con reemplazo, o en poblaciones infinitas. Estimación de la media o de la


proporción.
Supóngase que se desea estimar la media de una población (μ), y que se conoce su varianza. Si
el nivel de confianza deseado es de 1-α, entonces:
LA

𝑋−𝜇
𝑃𝑟 𝑃𝑟 (𝑧𝛼 < 𝜎 < 𝑧1−𝛼 ) = 1 − 𝛼
2 √𝑛 2

Siendo |X – μ| el “error de estimación”, que hemos llamado e, al despejar resulta:


FI

𝜎
𝑃𝑟 𝑃𝑟 (|𝑒| < 𝑧1−𝛼 ) =1−𝛼
2 √𝑛

Se lee: Existe una alta probabilidad (1- α) que el error de estimación sea como máximo igual a


Despejando:
𝜎
|𝑒| = 𝑧
√ 𝑛

𝑧2𝜎2
𝑛= 𝑒2

Este es el tamaño de muestra necesario para que e sea el máximo error. Un n mayor reducirá
el error máximo.
El tamaño muestral depende del nivel de error aceptable (e), del nivel de confianza deseado,
reflejado en z y de la variabilidad de la variable en la población (σ).
Algunos inconvenientes:
● La necesidad de conocer la varianza poblacional. Esta situación es superada en la
práctica ya sea utilizando una varianza conocida por experiencias anteriores o con
alguna variable “Proxy”

22

Este archivo fue descargado de https://filadd.com


● El error en la formula está expresado en forma absoluta, en las unidades de la variable
en cuestión. Para poder evaluar cuando un cierto nivel de error se considera elevado o
aceptable, es necesario relacionarlo con los valores posibles de la variable y de su
media.
● Generalmente se pretenden estimar parámetros de varias variables. Para calcular el
tamaño de la muestra hay que seleccionar la variable más relevante, o la que se
supone de mayor variabilidad, a fin de no subestimar el tamaño de la muestra.

Error, riesgo y tamaño de la muestra.


⮚ z, valor extraído de la tabla de distribución normal, determina la “confianza” de las
estimaciones que se realizaran, y por lo tanto el “riesgo” α de equivocarse al afirmar
que cierto intervalo contiene al valor del parámetro.
⮚ e, es el error máximo aceptable, medido en términos de la variable cuantitativa.
⮚ El error máximo depende del riesgo aceptado, de la varianza y del tamaño de la

OM
muestra. El cociente entre la varianza y el tamaño de la muestra, se conoce también
como el cuadrado del “error estándar” del estimador.

Determinación de la muestra para poblaciones finitas.


Cuando se trata de una población finita y se extrae la muestra sin reemplazo, es

.C
necesario aplicar el factor de corrección. En este caso resulta:

𝑧 2 𝜎 2 (𝑁 − 𝑛)
𝑛=
𝑒 2 (𝑁 − 1)
DD
Como n aparece en ambos miembros, es necesario despejar. Llamando n∞ al resultado de
calcular el tamaño de la muestra con reemplazo:

𝑛∞ 𝑁
LA

𝑛=
(𝑁 − 1) + 𝑛∞

El tamaño de la muestra así calculado, resulta algo menor al del muestreo con
reemplazo. Pero para que esta reducción tenga un efecto interesante, n debe ser grande
FI

comparado con N. La corrección debe aplicarse solo cuando el tamaño de la muestra


calculado, resulta superior al 5% del tamaño de la población.
Con poblaciones infinitas no es necesario usar el factor de corrección ya que quitar o
no un dato no cambia la probabilidad de los demás datos de ser elegidos. En cambio, en una
población finita, cuando el muestreo es sin reposición, las probabilidades si cambian.


13. Prueba de hipótesis: tipos de errores. Conceptos y cálculo.

Prueba de hipótesis
Una hipótesis estadística es un enunciado provisional con respecto a una situación del
mundo real, generalmente expresada a través de relaciones particulares de ciertas variables en
estudio. Las hipótesis estadísticas son aquellas que pueden contrastarse con datos observados
de la realidad.
La esencia de la comprobación de hipótesis estriba en verificar la relación expresada
por ella a través de la experimentación u observación de hechos de la vida real. Si la realidad
no se ajusta a la hipótesis planteada, se deberá repensar el problema y tal vez modificar la
hipótesis inicial y comenzar un nuevo ciclo en la investigación. Por medio de este
procedimiento, se habrá producido un avance científico a través del razonamiento científico
través del razonamiento estadístico.

23

Este archivo fue descargado de https://filadd.com


Generalmente, en una investigación se trabaja con muestras obtenidas a partir de una
cierta población. Si la evidencia de la muestra lleva a la decisión de rechazar la hipótesis
planteada estaremos mucho más seguros de nuestra determinación que cuando no existan
evidencias para su rechazo.
La hipótesis que mantiene el statu quo suele denominarse nula. Una hipótesis nula
(H0) es un supuesto acerca de uno o más parámetros u otras características de la población,
que puede ser rechazado o no en base a la evidencia muestral.
La hipótesis nula no se acepta, sino que se rechaza o no se rechaza. Su rechazo implica
la aceptación de la hipótesis alternativa, es por ello que suele colocarse como hipótesis nula la
situación que el investigador piensa será rechazada.
Una hipótesis se denomina nula en el sentido que se supone que no existe una
diferencia importante entre el verdadero valor del parámetro de la población y el valor del
parámetro especificado en la hipótesis nula, suele expresarse con la igualdad del parámetro a
cierto valor de referencia.

OM
Si la hipótesis nula es falsa, deberá existir otra hipótesis que sea verdadera, esta es la
hipótesis alterativa (H1). Ésta expresa, en general, lo que el investigador esta sospechando
ocurrirá.
Para tomar una decisión respecto a rechazar o no la hipótesis nula planteada, hay que
establecer ciertas reglas de decisión. Debe establecerse un criterio estadístico que especifique
de manera objetiva, a partir de un valor de p (proporción muestral), si se tomará la decisión de

.C
rechazar o no la hipótesis nula. Este criterio, conocido como medida de discrepancia, se calcula
sobre la base de la información aportada por la muestra.
Se podrá establecer un valor critico que determinara una región de rechazo y una
región de no rechazo de la hipótesis nula. Este criterio tendrá que ver con un estimador del
DD
parámetro objeto del test, y con un estadístico cuya distribución sea conocida. Los estadísticos,
en lugar de contener un parámetro desconocido, contendrán el valor que asume el parámetro
si se cumple la hipótesis nula.

Errores tipo I y tipo II


Debemos recordar que se está decidiendo con respecto al parámetro poblacional a
LA

partir de la información brindada por una muestra. En realidad, estamos “mirando por el ojo
de la cerradura” y en consecuencia, el investigador puede acertar o cometer un error. Es
necesario que el investigador plantee la prueba de hipótesis previendo que las probabilidades
de cometer cualquiera de estos dos errores sean lo más bajas posibles.
El error de tipo I es aquel que se comete al rechazar una hipótesis nula cuando ella es
FI

verdadera. Se simboliza con la letra α y se conoce también como nivel de significación de un


test. α = P (rechazar H0 / H0 es verdadera)
El error tipo II es aquel que se comete al no rechazar una hipótesis nula cuando en
realidad es falsa. Se simboliza con la letra β.
β = P (no rechazar H0 / H0 es falsa)


Decisión Hipótesis nula verdadera Hipótesis nula falsa


Rechazar H0 Error tipo I Decisión correcta
P(EI) = α P(DC) = 1 - β
No rechazar H0 Decisión correcta Error tipo II
P(DC) = 1- α P(EII) = β

Estos errores tienen una relación inversa, al aumentar uno, disminuye el otro,
manteniendo todo lo demás constante.

Factores que afectan al error tipo II


● β sube cuando la diferencia entre el parámetro hipotetizado y el verdadero es cada vez
menor.
● β sube cuando baja α

24

Este archivo fue descargado de https://filadd.com


● β sube cuando σ sube
● β sube cuando n baja

Calculo error tipo I: α


Calculo error tipo II: β = 1 – α

14. Prueba de hipótesis. Vínculo entre error tipo I y II. El tamaño de la muestra con alfa y
beta fijos.

Prueba de hipótesis
Una hipótesis estadística es un enunciado provisional con respecto a una situación del
mundo real, generalmente expresada a través de relaciones particulares de ciertas variables en
estudio. Las hipótesis estadísticas son aquellas que pueden contrastarse con datos observados
de la realidad.

OM
La esencia de la comprobación de hipótesis estriba en verificar la relación expresada
por ella a través de la experimentación u observación de hechos de la vida real. Si la realidad
no se ajusta a la hipótesis planteada, se deberá repensar el problema y tal vez modificar la
hipótesis inicial y comenzar un nuevo ciclo en la investigación. Por medio de este
procedimiento, se habrá producido un avance científico a través del razonamiento científico
través del razonamiento estadístico.

.C
Generalmente, en una investigación se trabaja con muestras obtenidas a partir de una
cierta población. Si la evidencia de la muestra lleva a la decisión de rechazar la hipótesis
planteada estaremos mucho más seguros de nuestra determinación que cuando no existan
evidencias para su rechazo.
DD
La hipótesis que mantiene el statu quo suele denominarse nula. Una hipótesis nula
(H0) es un supuesto acerca de uno o más parámetros u otras características de la población,
que puede ser rechazado o no en base a la evidencia muestral.
La hipótesis nula no se acepta, sino que se rechaza o no se rechaza. Su rechazo implica
la aceptación de la hipótesis alternativa, es por ello que suele colocarse como hipótesis nula la
situación que el investigador piensa será rechazada.
LA

Una hipótesis se denomina nula en el sentido que se supone que no existe una
diferencia importante entre el verdadero valor del parámetro de la población y el valor del
parámetro especificado en la hipótesis nula, suele expresarse con la igualdad del parámetro a
cierto valor de referencia.
Si la hipótesis nula es falsa, deberá existir otra hipótesis que sea verdadera, esta es la
FI

hipótesis alterativa (H1). Ésta expresa, en general, lo que el investigador esta sospechando
ocurrirá.
Para tomar una decisión respecto a rechazar o no la hipótesis nula planteada, hay que
establecer ciertas reglas de decisión. Debe establecerse un criterio estadístico que especifique
de manera objetiva, a partir de un valor de p (proporción muestral), si se tomará la decisión de


rechazar o no la hipótesis nula. Este criterio, conocido como medida de discrepancia, se calcula
sobre la base de la información aportada por la muestra.
Se podrá establecer un valor critico que determinara una región de rechazo y una
región de no rechazo de la hipótesis nula. Este criterio tendrá que ver con un estimador del
parámetro objeto del test, y con un estadístico cuya distribución sea conocida. Los estadísticos,
en lugar de contener un parámetro desconocido, contendrán el valor que asume el parámetro
si se cumple la hipótesis nula.
Los errores tipo I y tipo II tienen una relación inversa, al aumentar uno, disminuye el
otro, manteniendo todo lo demás constante.
Factores que afectan al error tipo II
● β sube cuando la diferencia entre el parámetro hipotetizado y el verdadero es cada vez
menor.
● β sube cuando baja α
● β sube cuando σ sube

25

Este archivo fue descargado de https://filadd.com


● β sube cuando n baja

La forma de aumentar la potencia (1- β) y bajar β y α simultáneamente es aumentar el tamaño


de la muestra. De esta manera disminuye el error estándar.

15. Conceptos y cálculo del error de estimación y riesgo. Determinación del tamaño de
muestra para la estimación de una proporción poblacional.

Determinación del tamaño de la muestra para la estimación de una proporcion poblacional


¿Cuál es el máximo error que se está dispuesto a tolerar? ¿Cuál es el nivel de confianza
deseado para las estimaciones? ¿Cuál es la varianza de la población bajo estudio? ¿Se trata de
un muestreo con o sin reemplazo?

Muestreo con reemplazo, o en poblaciones infinitas. Estimación de la media o de la

OM
proporción.
Supóngase que se desea estimar la proporción de una población (p), y que se conoce su
varianza. Si el nivel de confianza deseado es de 1-α, entonces:

𝑝̂ − 𝑝𝑜
𝑃 (𝑧𝛼/2 < < 𝑧(1−𝛼)/2 ) = 1 − 𝛼
√𝑝𝑜 𝑞𝑜 /𝑛

.C
Siendo 𝑝̂ − 𝑝𝑜 el “error de estimación”, que hemos llamado e, al despejar resulta que existe
una probabilidad de (1-α) de que el error de estimación sea, como máximo, igual 𝑧. √
𝑝𝑜 𝑞𝑜
𝑛
:
DD
𝑝𝑜 𝑞𝑜
𝑃 (|𝑒| < 𝑧. √ 𝑛
) =1−𝛼

Es decir que el error de estimación está dado por:


𝑝𝑜 𝑞𝑜
|𝑒| = 𝑧. √
𝑛
LA

De donde se puede despejar que el tamaño de muestra equivale a:

𝑧 2 𝑝𝑜 𝑞𝑜
𝑛=
𝑒2
FI

Que significa que el tamaño muestral depende positivamente del nivel de confianza (riesgo)
deseado (z) y la variabilidad de la variable en la población (pq), y negativamente del máximo
nivel de error tolerable.


Sin embargo, de esta formulación se desprenden una serie de inconvenientes no triviales:


● La necesidad de conocer la varianza poblacional. Esto puede ser superado en la
práctica obteniendo el parámetro de experiencias anteriores vinculadas con la misma
variable; estimándola a partir de una prueba piloto o consultando a expertos. Si nada
se puede saber certeramente del valor de p, a fin de no subestimar la muestra, es
aconsejable utilizar el valor de producto máximo. Es decir, si p=q=0.5, p.q=0.25, siendo
éste el valor a utilizar en la fórmula.
● El término de error se encuentra expresado en las unidades de la variable, por lo que
debe analizarse en cada caso particular. Para la proporción, el error se mide como tal.
● En general, se desea estimar de una muestra más de un parámetro, entonces ¿en base
a cuál se toma la muestra? Esto se resuelve dándole predilección al “más importante”
o a la variable con mayor variabilidad, a fin de no subestimar el tamaño de muestra.

26

Este archivo fue descargado de https://filadd.com


Por último, veamos qué sucede en el caso de una población finita sin reemplazo, donde se
debe ajustar utilizando el FCPF:
𝑧 2 𝑝𝑜 𝑞𝑜 𝑁 − 𝑛
𝑛= .
𝑒2 𝑁−1

Como n aparece en ambos miembros, es necesario despejar. Para simplificar el cálculo,


𝑁−𝑛
llamamos n∞ al resultado de calcular el tamaño de muestra con remplazo. Así: 𝑛 = 𝑛∞ . 𝑁−1
Y despejando:
𝑁. 𝑛∞
𝑛=
𝑁 − 1 + 𝑛∞

OM
Error, riesgo y tamaño de la muestra.
⮚ z, valor extraído de la tabla de distribución normal, determina la “confianza” de las
estimaciones que se realizaran, y por lo tanto el “riesgo” α de equivocarse al afirmar
que cierto intervalo contiene al valor del parámetro.
⮚ e, es el error máximo aceptable, medido en proporciones.
⮚ El error máximo depende del riesgo aceptado, de la varianza y del tamaño de la
muestra. El cociente entre la varianza y el tamaño de la muestra, se conoce también

.C
como el cuadrado del “error estándar” del estimador.
DD
16. Muestreo y métodos de muestreo. Conceptos. Muestreos probabilísticos: caso de
Muestreo simple al azar y sistemático.

Muestreo, concepto.
Para diseñar una muestra, es imprescindible una correcta definición de la población
LA

con respecto a la cual se extraerán las conclusiones. A esto se le llama marco de la muestra, y
es el conjunto de elementos disponibles de los cuales se extraerá la muestra. No siempre es
posible contar con un listado completo del cual obtener la muestra representativa. Es
necesario ser cuidadoso ya que en algunas ocasiones, las dificultades para definir el marco
llevan a que el mismo se aleje sensiblemente de la población y luego las conclusiones solo
FI

podrán referirse al conjunto de elementos que proporcionaron el marco muestral, y no toda la


población.
El muestreo es el proceso por el cual puede conocerse algo acerca de una población en
base a una muestra obtenida de ella. Este muestreo puede ser probabilístico o no


probabilístico.
¿Por qué hablamos de la varianza del estimador? La varianza del estimador es el
elemento que determinara el error máximo de estimación. Distintos métodos de muestreo
implican diferentes varianzas de los estimadores. Por ello, cuando se va a decidir el método de
muestreo a utilizar es muy importante conocer la varianza de los estimadores que resultarán.
Además, es importante considerar el costo del relevamiento de cada método.

Muestreo simple al azar.


Es el más simple desde el punto de vista teórico, aunque no siempre es el más
eficiente. En este caso, todos los elementos de la población tienen igual probabilidad de ser
seleccionados en la muestra (n/N). Es imprescindible enumerar todos los elementos de la
población, seleccionando luego al azar los n elementos que formaran la muestra. Dificultad

27

Este archivo fue descargado de https://filadd.com


para la aplicación práctica: poblaciones muy grandes, imposibilidad de numerar todos los
elementos, o los mismos están en áreas muy extensas.
En una selección de números al azar pueden resultar repetidas algunas observaciones;
si el criterio adoptado es el de eliminarlas cuando aparecen por segunda vez, se habrá optado
por el muestreo sin reemplazo.
Es interesante recordar cual es el error estándar de los estimadores más usuales, si se
aplica muestreo aleatorio simple. El error estándar del estimador es algo así como la unidad de
medida del error de estimación; “z” veces el error estándar es el máximo error aceptable con
el nivel de confianza correspondiente a ese valor de z.
Estimador σ con reemplazo σ sin reemplazo
𝜎 𝜎 𝑁−𝑛
𝑛 . √ 𝑁−1
X √ √ 𝑛

OM
𝑝.(1−𝑝) 𝑁−𝑛
𝑝. (1 − 𝑝) √ . √ 𝑁−1
P √ 𝑛
𝑛
Resumen
● Cada individuo o ítem del marco tiene la misma probabilidad de ser seleccionado
(n/N).
● Es imprescindible un listado de la población.

.C
● La selección puede hacerse con o sin reemplazo.
● La muestra se obtiene a partir de una tabla de números aleatorios o de un generador
de números aleatorios de una computadora.
DD
Este modelo es inadecuado o imposible cuando:
● No es posible enumerar todos los elementos de la P
● La P está formada por subconjuntos bien diferenciados entre sí y se necesitan
estimaciones particulares de cada grupo, además de la general.
● Los elementos están muy dispersos geográficamente, alto costo.
LA

Muestreo sistemático.
Se trata de una forma de selección de las muestras aplicable a cualquiera de los demás
casos de muestreo. Se utiliza frecuentemente en lugar del muestreo aleatorio simple, por la
sencillez del procedimiento de selección. Es necesario elegir un “arranque” que determina el
FI

primer elemento de la muestra y luego, sin efectuar nuevas selecciones al azar, se incorporan a
la muestra los elementos a + k, a + 2k, a +3k, etc.
Este número k se denomina “intervalo de muestreo” y está determinado por la
relación entre N y n: k= N/n. El primer número aleatorio seleccionado/a deberá ser menor o a


lo sumo igual a k.
Se cuestiona el muestreo sistemático por el hecho de no permitir el cálculo de la
varianza de los estimadores, puesto que se hace solo una selección al azar; es algo asi como
efectuar un muestreo por conglomerados seleccionando solo un conglomerado. Para obviar
este cuestionamiento a veces se seleccionan dos puntos de arranque, y a partir de cada uno la
mitad de la muestra.
Se genera un problema importante de sesgo en la muestra, que puede llegar a
invalidarla por completo, si existiera algún ordenamiento en la población con una cierta
periodicidad; pero si esta coincide con el número k o algún múltiplo de k.
Se puede comprender así que el orden en que están os elementos de la población,
tiene importancia para la muestra sistemática, y ésta situación se refleja en la varianza del
estimador de la media poblacional, ya que ésta es diferente según el orden en que estén los

28

Este archivo fue descargado de https://filadd.com


elementos de la población. Es posible establecer que en promedio para todos los órdenes
posibles, la varianza del estimador del muestreo sistemático coincide con la del muestreo
aleatorio simple.
Este método es recomendable solo cuando se tiene la certeza de aleatoriedad en el
orden de los elementos de la población, en ese caso la varianza del estimador se calcula como
en el muestreo aleatorio simple.
En los muestreos de áreas, resulta interesante la aplicación del muestreo sistemático
acompañando a un muestreo por conglomerados en dos o más etapas, seleccionando en la
primera los conglomerados con probabilidad proporcional al tamaño y en los siguientes un
número igual a cada conglomerado.

Resumen

OM
● Decidir el tamaño de la muestra: n
● Aleatoria por su arranque, representativa porque recorre toda la P.
● Dividir el marco de N individuos en grupos de k individuos. k= N/n
● Seleccionar aleatoriamente un individuo del primer grupo.
● Seleccionar cada k-ésimo individuo.

.C
DD
17. Muestreo y métodos de muestreo. Conceptos. Muestreos probabilísticos: caso de
Muestreo estratificado.

Muestreo, concepto.
Para diseñar una muestra, es imprescindible una correcta definición de la población
LA

con respecto a la cual se extraerán las conclusiones. A esto se le llama marco de la muestra, y
es el conjunto de elementos disponibles de los cuales se extraerá la muestra. No siempre es
posible contar con un listado completo del cual obtener la muestra representativa. Es
necesario ser cuidadoso ya que en algunas ocasiones, las dificultades para definir el marco
llevan a que el mismo se aleje sensiblemente de la población y luego las conclusiones solo
FI

podrán referirse al conjunto de elementos que proporcionaron el marco muestral, y no toda la


población.
El muestreo es el proceso por el cual puede conocerse algo acerca de una población en
base a una muestra obtenida de ella. Este muestreo puede ser probabilístico o no


probabilístico.
¿Por qué hablamos de la varianza del estimador? La varianza del estimador es el
elemento que determinara el error máximo de estimación. Distintos métodos de muestreo
implican diferentes varianzas de los estimadores. Por ello, cuando se va a decidir el método de
muestreo a utilizar es muy importante conocer la varianza de los estimadores que resultarán.
Además, es importante considerar el costo del relevamiento de cada método.

Muestreo estratificado.
Éste método soluciona el problema que se presenta en el muestreo aleatorio simple
acerca de la necesidad de conocer estimaciones para subconjuntos de la población, los cuales
son en general bastante homogéneos internamente. En este método, la muestra obtenida
resulta en general más eficiente que en el muestreo simple. Una muestra de menor tamaño

29

Este archivo fue descargado de https://filadd.com


puede suministrar estimaciones tan exactas como el muestreo aleatorio simple con una de
mayor tamaño.
Estratos: Subconjuntos mutuamente excluyentes y exhaustivos. Espero que dentro del
estrato, la población sea homogénea y los estratos sean heterogéneos entre ellos.
Recordemos la relación existente entre el tamaño de la muestra, el error y el nivel de
confianza de las estimaciones:
𝑧2 × 𝜎2
𝑛=
𝑒2

Si se emplea el factor de corrección para poblaciones finitas, estos elementos se relacionan así:

𝑧×𝜎 𝑁−𝑛
𝑛= √
√𝑛 𝑁−1

OM
Existen varias alternativas para afijar la muestra entre los distintos estratos. La más
eficiente es la llamada afijación óptima que consiste en distribuir la muestra en forma
proporcional a la dispersión de los estratos.

𝑁ℎ 𝜎ℎ
𝑛ℎ = .𝑛

.C
∑ 𝑁𝑖 𝜎𝑖

Otra forma es la afijación proporcional, donde a cada estrato se le asigna una porción
DD
wh = (Nh /N).n de la muestra total. Encontramos dificultades cuando en algún estrato hay pocas
observaciones y/o elevada dispersión.
El mínimo error en las estimaciones se obtiene con la afijación planeada en la óptima.
En lo que sigue, se calcula para el muestreo estratificado, la varianza del estimador de la
media.
𝑉 (𝑌) = ∑ℎ 𝑊ℎ2 𝑉(𝑌ℎ )
LA

Depende del tipo de afijación usado, cual será finalmente la varianza en cada estrato y
por lo tanto la varianza total. Pero de cualquier manera, calculando la relación:

𝑉𝑎𝑟(𝑌𝑚. 𝑒𝑠𝑡𝑟𝑎𝑡. )
𝑉𝑎𝑟(𝑌𝑚. 𝑎𝑙𝑒𝑎𝑡. 𝑠𝑖𝑚𝑝𝑙𝑒 )
FI

se obtiene una medida de la eficiencia del muestreo estratificado (efecto del diseño).

Afijación


No Proporcional
Proporcional
Igual Óptima
𝑁ℎ 𝑛 𝑁ℎ 𝜎ℎ
𝑛ℎ = .𝑛 𝑛ℎ = 𝑛ℎ = .𝑛
𝑁 ℎ ∑ 𝑁𝑖 𝜎𝑖

Mientras más homogéneos sean internamente los estratos y mayor la diferencia entre
los estratos, que puede medirse con la dispersión entre las medias de cada estrato y la media
general, mayor será la ganancia por estratificación.

Resumen
● La P se divide en 2 o más grupos con alguna característica en común
● Se toma una MAS de cada grupo
● Las dos o más muestras se combinan en una

30

Este archivo fue descargado de https://filadd.com


● En general, más eficiente que el muestreo simple, muestras de menor tamaño
suministran estimaciones igual de exactas
● Es posible diseñar la muestra de tal forma que puedan obtenerse estimaciones
respecto de los subconjuntos de interés de la población.
● Se combinan las estimaciones para estimar el P general.
Afijación: Qué tamaño de muestra voy a tomar en cada estrato. Criterios:
● Arbitraria
● Óptima

● Proporcional

OM
18. Muestreo y métodos de muestreo. Conceptos. Muestreos probabilísticos: caso de
Muestreo de conglomerados.

Muestreo, concepto.
Para diseñar una muestra, es imprescindible una correcta definición de la población

.C
con respecto a la cual se extraerán las conclusiones. A esto se le llama marco de la muestra, y
es el conjunto de elementos disponibles de los cuales se extraerá la muestra. No siempre es
posible contar con un listado completo del cual obtener la muestra representativa. Es
DD
necesario ser cuidadoso ya que en algunas ocasiones, las dificultades para definir el marco
llevan a que el mismo se aleje sensiblemente de la población y luego las conclusiones solo
podrán referirse al conjunto de elementos que proporcionaron el marco muestral, y no toda la
población.
El muestreo es el proceso por el cual puede conocerse algo acerca de una población en
LA

base a una muestra obtenida de ella. Este muestreo puede ser probabilístico o no
probabilístico.
¿Por qué hablamos de la varianza del estimador? La varianza del estimador es el
elemento que determinara el error máximo de estimación. Distintos métodos de muestreo
implican diferentes varianzas de los estimadores. Por ello, cuando se va a decidir el método de
FI

muestreo a utilizar es muy importante conocer la varianza de los estimadores que resultarán.
Además, es importante considerar el costo del relevamiento de cada método.

Muestreo de conglomerado.


La unidad de muestreo, en lugar de ser un elemento de la población, está constituida


por varios de estos elementos agrupados naturalmente.
Especialmente indicado cuando las unidades estadísticas están muy dispersas y resulta
costoso diseñar un método de muestreo que seleccionando al azar implique viajes
prolongados para captar la información.
Ejemplo: Si se define a la escuela como “conglomerados” y se seleccionan al azar (en
toda la provincia) algunas escuelas y luego en ellas se releva a todos (o algunos) niños o
maestros, el costo de relevamiento sería mucho menor que en una muestra aleatoria simple
sobre toda la provincia.
Si se trata de una situación en la cual cada conglomerado es muy heterogéneo
internamente y a su vez son todos parecidos entre sí, es posible elegir unos pocos
conglomerados y tener así representada toda la población. Si cada conglomerado tiene un alto
grado de homogeneidad interna, y son muy diferentes entre sí, el método se tornaría
ineficiente, pero sus ventajas en términos de costos, hacen que se lo prefiera a pesar de ellos,

31

Este archivo fue descargado de https://filadd.com


aunque seleccionando una cantidad importante de conglomerados. Así se recupera la
variabilidad que no contiene cada uno en su interior.
En la medida en que los conglomerados sean más parecidos entre sí, mayor será la
precisión de las estimaciones. Si la variabilidad interna de los conglomerados es grande y la
variabilidad entre ellos es pequeña, entonces la varianza del estimador es menor que en el
muestreo aleatorio simple y se produce una importante disminución en los costos de
relevamiento. Si ocurre lo contrario, la varianza del estimador crece con relación al muestreo
aleatorio simple. Por lo tanto, este tipo de muestreo sólo debe ser usado cuando es posible
una sustancial reducción en los costos de relevamiento que permita elegir un número
importante de conglomerados y muchos elementos dentro de cada uno de ellos
Si la situación es intermedia, entonces la varianza del estimador es igual a la del
muestreo aleatorio simple, y su uso se justificará por la reducción de costos de relevamiento.

Resumen

OM
● La población se divide en varios conglomerados.
● Se seleccionan muestras aleatorias simples en cada uno.
● Se combinan las muestras en una sola
⮚ Indicado cuando las muestras estadísticas están muy dispersas. Alto costo de
seleccionar al azar
⮚ Ideal cuando cada conglomerado es muy heterogéneo internamente y a su vez son

.C
todos parecidos entre sí.
⮚ Unos pocos conglomerados representan toda la población.
DD
19. Contraste de hipótesis. Procedimiento para la prueba de hipótesis. Pruebas de una y dos
colas. Errores tipo I y II.
LA

Prueba de hipótesis
Una hipótesis estadística es un enunciado provisional con respecto a una situación del
mundo real, generalmente expresada a través de relaciones particulares de ciertas variables en
estudio. Las hipótesis estadísticas son aquellas que pueden contrastarse con datos observados
FI

de la realidad.
La esencia de la comprobación de hipótesis estriba en verificar la relación expresada
por ella a través de la experimentación u observación de hechos de la vida real. Si la realidad
no se ajusta a la hipótesis planteada, se deberá repensar el problema y tal vez modificar la
hipótesis inicial y comenzar un nuevo ciclo en la investigación. Por medio de este


procedimiento, se habrá producido un avance científico a través del razonamiento científico


través del razonamiento estadístico.
Generalmente, en una investigación se trabaja con muestras obtenidas a partir de una
cierta población. Si la evidencia de la muestra lleva a la decisión de rechazar la hipótesis
planteada estaremos mucho más seguros de nuestra determinación que cuando no existan
evidencias para su rechazo.
La hipótesis que mantiene el statu quo suele denominarse nula. Una hipótesis nula
(H0) es un supuesto acerca de uno o más parámetros u otras características de la población,
que puede ser rechazado o no en base a la evidencia muestral.
La hipótesis nula no se acepta, sino que se rechaza o no se rechaza. Su rechazo implica
la aceptación de la hipótesis alternativa, es por ello que suele colocarse como hipótesis nula la
situación que el investigador piensa será rechazada.
Una hipótesis se denomina nula en el sentido que se supone que no existe una
diferencia importante entre el verdadero valor del parámetro de la población y el valor del

32

Este archivo fue descargado de https://filadd.com


parámetro especificado en la hipótesis nula, suele expresarse con la igualdad del parámetro a
cierto valor de referencia.
Si la hipótesis nula es falsa, deberá existir otra hipótesis que sea verdadera, esta es la
hipótesis alterativa (H1). Ésta expresa, en general, lo que el investigador está sospechando
ocurrirá.
Para tomar una decisión respecto a rechazar o no la hipótesis nula planteada, hay que
establecer ciertas reglas de decisión. Debe establecerse un criterio estadístico que especifique
de manera objetiva, a partir de un valor de p (proporción muestral), si se tomará la decisión de
rechazar o no la hipótesis nula. Este criterio, conocido como medida de discrepancia, se calcula
sobre la base de la información aportada por la muestra.
Se podrá establecer un valor critico que determinara una región de rechazo y una
región de no rechazo de la hipótesis nula. Este criterio tendrá que ver con un estimador del
parámetro objeto del test, y con un estadístico cuya distribución sea conocida. Los estadísticos,
en lugar de contener un parámetro desconocido, contendrán el valor que asume el parámetro

OM
si se cumple la hipótesis nula.

Pasos generales en la prueba de hipótesis


1) Establecer la H0
2) Establecer la H1
3) Elegir α

.C
4) Elegir n
5) Elegir el test
6) Establecer valores críticos
7) Recoger los datos
DD
8) Calcular el valor observado del estadístico y del p-value
9) Tomar la decisión estadística
10) Expresar la conclusión

Pruebas de 1 y 2 colas.
LA

La formulación de la hipótesis puede ser de dos tipos según como se exprese la alternativa:
a) Se desconoce la dirección en que se sospecha la falsedad de la hipótesis nula y se
especifica la hipótesis alternativa como p1 ≠ p2. Se dice entonces que la prueba es
bilateral.
b) Se conoce de antemano que la hipótesis nula, si se rechaza, tiene una dirección
FI

determinada y, en ese caso se plantea que p1 ≤ p2 o que p1 ≤ p2. La prueba es entonces


unilateral.
Prueba bilateral
La hipótesis nula será rechazada cuando se obtengan tanto valores muy grandes como
muy pequeños del estadístico obtenido en la muestra. Diferencia en cualquier sentido.


H0: θ = θ0 H1: θ ≠ θ0
Prueba unilateral
La hipótesis nula será rechazada para valores grandes (o pequeños) del estadístico
obtenido en la muestra.
H0: θ ≥ θ0 H1: θ < θ0
H0: θ ≤ θ0 H1: θ > θ0
Errores tipo I y tipo II.
Debemos recordar que se está decidiendo con respecto al parámetro poblacional a
partir de la información brindada por una muestra. En realidad, estamos “mirando por el ojo
de la cerradura” y en consecuencia, el investigador puede acertar o cometer un error. Es
necesario que el investigador plantee la prueba de hipótesis previendo que las probabilidades
de cometer cualquiera de estos dos errores sean lo más bajas posibles.

33

Este archivo fue descargado de https://filadd.com


El error de tipo I es aquel que se comete al rechazar una hipótesis nula cuando ella es
verdadera. Se simboliza con la letra α y se conoce también como nivel de significación de un
test. α = P (rechazar H0 / H0 es verdadera)
El error tipo II es aquel que se comete al no rechazar una hipótesis nula cuando en
realidad es falsa. Se simboliza con la letra β.
β = P (no rechazar H0 / H0 es falsa)

Decisión Hipótesis nula verdadera Hipótesis nula falsa


Rechazar H0 Error tipo I Decisión correcta
P(EI) = α P(DC) = 1 - β
No rechazar H0 Decisión correcta Error tipo II
P(DC) = 1- α P(EII) = β

OM
Estos errores tienen una relación inversa, al aumentar uno, disminuye el otro,
manteniendo todo lo demás constante.

Factores que afectan al error tipo II


● β sube cuando la diferencia entre el parámetro hipotetizado y el verdadero es cada vez
menor.
● β sube cuando baja α

.C
● β sube cuando σ sube
● β sube cuando n baja

La forma de aumentar la potencia (1- β) y bajar β y α simultáneamente es aumentar el tamaño


DD
de la muestra. De esta manera disminuye el error estándar.

Calculo error tipo I: α


Calculo error tipo II: β = 1 – α

20. Pruebas de hipótesis para la media. Supuestos y aplicaciones. Vinculación entre la


LA

prueba de hipótesis y el intervalo de confianza.

Prueba de hipótesis para la media


El procedimiento a seguir es básicamente el mismo para todos los parámetros (σ2 y
proporción poblacional). Las diferencias solo se refieren a la elección del “estadístico de
FI

prueba” bajo diferentes condiciones.

Test z: σ conocida
Supuestos
● Población normal.


● Si no es normal, n grande.
Estadístico:
𝑋−𝜇
𝜎 ~𝑁(0; 1)
√𝑛

Según el problema será lo que querremos probar, si por ejemplo queremos probar que la
media es menor de lo que se cree, entonces las hipótesis serán:
H0: μ ≥ valor k H1: μ < valor k
En el procedimiento de pruebas de hipótesis, es lógico pensar que la evidencia para
rechaza o no la hipótesis nula será proporcionada por una muestra aleatoria extraída de la
población de interés.

34

Este archivo fue descargado de https://filadd.com


Como estamos tratando de probar una hipótesis referida al parámetro media
poblacional, utilizaremos como estimador para tomar la decisión de su contrapartida en la
muestra, la media muestral x.
Ya hemos visto que la media muestral es un estimador insesgado, de mínima varianza
y que tiende a distribuirse normalmente a medida que el n crece.
Gráficamente tenemos:

Si la muestra es mayor a 30, y como la varianza poblacional se supone conocida, la

OM
distribución de la media muestral es normal, por ello utilizamos el test z. En este caso, como se
trata con un test unilateral izquierdo, la hipótesis nula se rechazara cuando el estimador
puntual x tome valores más pequeños que k. Cuanto más alejado este de ese valor, con mayor
razón vamos a rechazar H0
Existirá un valor de x, que denominaremos valor crítico y lo simbolizaremos con x* que
separara la región de rechazo y la de no rechazo según el nivel de significancia que hayamos

.C
elegido. La probabilidad de rechazar la hipótesis nula cuando es verdadera será el error tipo 1,
en este caso el área sombreada a la izquierda.
Como estas zonas son áreas de la distribución normal, debemos estandarizar el valor
crítico x* que establece el límite entre las dos zonas.
DD
H0: μ ≥ μ0 H1: μ < μ0
Estandarizando el punto crítico, bajo el supuesto que la hipótesis nula es verdadera,
tenemos:
𝑥 ∗ − 𝜇0
𝑧∗ = 𝜎
√𝑛
LA

De esta expresión se puede despejar el valor del estimador x* que separara las zonas
de rechazo y no rechazo.
𝜎
𝑥∗ = 𝑧∗
FI

+ 𝜇0
√𝑛

Conocido el valor crítico, se pueden establecer las siguientes reglas de decisión:


Si x < x* se rechaza H0


Si x ≥ x* no se rechaza H0
Existe otra manera de determinar las zonas de rechazo y de no rechazo de la hipótesis nula,
consistente en comparar directamente los valores estandarizados con el z crítico.

Intervalo de confianza:
𝜎
𝐿𝐼𝐶 = 𝑥 − 𝑧 ∗
√𝑛
𝜎
𝐿𝑆𝐶 = 𝑥 + 𝑧 ∗
√𝑛

A partir de las posibilidades que brinda la utilización de los paquetes estadísticos, suele
utilizarse el conocido p-value, que proporciona una información interesante acerca de la

35

Este archivo fue descargado de https://filadd.com


verdadera probabilidad de cometer el error de tipo I cuando se realiza una prueba de
hipótesis.
El p-value se define como la probabilidad de obtener una discrepancia mayor o igual
que la observada en la muestra cuando se cumple H0. Se trata del cálculo del valor observado
del estadístico para una muestra en particular, y tiene una distribución de probabilidad
conocida.
La medida de discrepancia depende de la hipótesis alternativa. Si la prueba de
hipótesis es bilateral, no se considera el signo de la desviación que se produce entre el
estimador y el parámetro especificado en la hipótesis nula. Si la prueba es unilateral se debe
tener en cuenta si la dirección de la hipótesis nula es hacia la izquierda o hacia la derecha de la
distribución de probabilidad utilizada.
Este p-value debe compararse con el α que el investigador está dispuesto a aceptar.
Si p < α, entonces se rechaza H0
Si p ≥ α, entonces no se rechaza H0

OM
Cuanto menor sea p, menor es la probabilidad de aparición de una discrepancia como la
observada y menor será la credibilidad de H0.

Test t: σ desconocida
Supuestos:
● Población normal
● Si la población no es normal, n grande.
Estadístico:

.C 𝑋 − 𝜇0
𝑠 ~𝑡𝑛−1
DD
√𝑛

Cuando la varianza poblacional es desconocida, el estadístico z no puede usarse. Este


caso es el más frecuente en las aplicaciones prácticas, ya que resulta casi imposible suponer
que se conoce σ2 la cuando se desconoce la media.
LA

Si la población no es normal, ese estadístico no podría ser utilizado, ya que la t


requiere que la población sea normal. Pero, empíricamente puede comprobarse que para
muestras de tamaño 100 o mayor, si la población no es normal, la aproximación del estadístico
a la normal es buena.
FI

Intervalo de confianza:
𝑠 𝑠
𝐿𝐼𝐶 = 𝑋 − 𝑡𝑛−1;1−𝛼 𝐿𝐼𝐶 = 𝑋 + 𝑡𝑛−1;1−𝛼
2 √𝑛 2 √𝑛


Vinculación con el intervalo de confianza.


Los intervalos de confianza sirven como buenas estimaciones del parámetro de la
población debido a que el procedimiento tiende a producir intervalos que contienen el
parámetro. Los intervalos de confianza se componen de la estimación puntual (el valor más
probable) y un margen de error alrededor de esa estimación puntual. El margen de error indica
la cantidad de incertidumbre que rodea a la estimación de la muestra del parámetro de
población.
Cuando nos fijamos en los niveles de significancia, los gráficos exhiben una
distribución muestral centrada en el valor de la hipótesis nula, y el 5% externo (por ejemplo)
de la distribución en el área sombreada. Para los intervalos de confianza, tenemos que cambiar
la distribución de muestreo de forma que se centre en la media de la muestra y la zona
sombreada es el 95% del medio.
En general:
36

Este archivo fue descargado de https://filadd.com


Intervalo de confianza 1 – α = Conjunto de hipótesis aceptables de nivel α.
Esta situación se modifica si la prueba de hipótesis es unilateral, ya que entonces hay
un solo valor critico que corresponde al nivel de significación α; cuando la prueba es bilateral,
cada valor critico corresponde a α/2.

Procedimiento de intervalos de confianza Procedimiento de prueba de hipótesis para


para μ (muestras chicas) μ (muestras chicas)
1) Se selecciona un estadístico que tenga 1) Si se establece la hipótesis nula H0: μ = μ0,
distribución conocida, por ejemplo: el estadístico para llevar a cabo la prueba es:
𝑥−𝜇 𝑥 − 𝜇0
𝑥~𝑁(0; 1) 𝑧 = 𝜎 𝑧= 𝜎
√𝑛 √𝑛
2) Utilizando la distribución de probabilidad 2) Se establece la siguiente zona de no
conocida, se establece: rechazo de la hipótesis nula:

OM
𝑥−𝜇 𝑥−𝜇
−𝑧1−𝛼 ≤ 𝜎 ≤ 𝑧1−𝛼 −𝑧1−𝛼 ≤ 𝜎 0 ≤ 𝑧1−𝛼
2 √𝑛 2 2 √𝑛 2

3) Se construye el intervalo de confianza 3) Se establece la zona de no rechazo de la


para μ: hipótesis nula:
𝜎 𝜎
𝜇 ∈ (𝑥 ± 𝑧𝛼 ) 𝑥 ∈ (𝜇0 ± 𝑧𝛼 )
2 √𝑛 2 √𝑛

.C
Conclusión: μ estará contenido en el intervalo Conclusión: no se rechaza H0 con un nivel de
de confianza 1-α si: significación α si:
𝜎 𝜎
|𝑥 − 𝜇| ≤ 𝑧𝛼 |𝑥 − 𝜇0 | ≤ 𝑧𝛼
2 √𝑛 2 √𝑛
DD
Estas dos técnicas estadísticas no se contraponen sino que se complementan. Cuando
se toma la decisión de no rechazar la hipótesis nula, se toma como valor aceptado el que toma
el parámetro en estudio en dicha hipótesis. En cambio, cuando se rechaza la hipótesis nula,
para establecer entre qué valores se sitúa el mismo, se lo puede estimar a partir de un
intervalo de confianza. Siempre brinda mayor información el resultado de una prueba de
LA

hipótesis acompañado de una estimación por intervalos del parámetro que el resultado de la
prueba aislado. Al intervalo lo construimos cuando suponemos que rechazaremos la H0, en el
caso en que el valor del parámetro que establece la H0 esté incluido en el intervalo, no
rechazaríamos la hipótesis nula.
FI

21. Pruebas de hipótesis para la proporción. Supuestos y aplicaciones. Vinculación entre la


prueba de hipótesis y el intervalo de confianza.

Prueba de hipótesis para la proporción.


● Involucra valores categóricos


● Dos resultados posibles


⮚ Éxito (posee cierta característica)
⮚ Fracaso (no posee cierta característica)
● La fracción o proporción de la población en la categoría éxito se denota con p
● La proporción en la muestra en la categoría éxito se denota con ps
⮚ Ps= X/n
● Cada tanto np como nq son al menos 5, ps puede ser aproximada con una distribución
𝑃𝑄
normal, con esperanza P y 𝐷𝑆 = √ 𝑛 .

El procedimiento a seguir es básicamente el mismo para todos los parámetros (μ, σ2 y


proporción poblacional). Las diferencias solo se refieren a la elección del “estadístico de
prueba” bajo diferentes condiciones.

37

Este archivo fue descargado de https://filadd.com


Un problema: Se piensa que no más del 30% de personas que habitualmente sale a comer
a restaurantes, eligen el comercio en función del precio del servicio ofrecido.
Un grupo inversor desea montar una cadena de supermercados, para asegurarse que el
precio no será un factor fundamental en la decisión de por lo menos el 70% de los potenciales
clientes, hace una investigación.
En la muestra se observó que el 38% de los encuestados consideraba al precio como factor
preponderante en la elección. Se decide poner a prueba la hipótesis estadística de que la
consideración del precio era un factor preponderante más importante de lo que se creía.
H0: p ≤ 0.30 H1: θ > 0.30
Debido a que la variable aleatoria proporción muestral p se distribuye normalmente se
puede utilizar p como criterio de test para probar la hipótesis. Como la hipótesis nula establece
que P = P0, estandarizando se obtiene:
𝑝̂ − 𝑃0
𝑧=

OM
√𝑃0 𝑄0
𝑛

La regla de decisión será:


Rechazar H0 si p > p* = P0 + Zα + σp
La prueba puede hacerse a dos colas también, dependiendo del problema planteado.
Cuando rechazamos una hipótesis nula decimos que hay evidencia significativa para

.C
indicar que la medida de discrepancia cae en la zona de rechazo.
No podremos saber en qué dirección estará el valor P en el caso de una prueba bilateral. En
este caso, es conveniente, luego de rechazar una hipótesis nula, hacer un intervalo de confianza
para tener una idea de qué valores está asumiendo en verdad la proporción poblacional. Es
DD
importante señalar que el intervalo resultante NO debe contener al valor de P señalado en la
hipótesis rechazada.
Intervalo de confianza:
𝑝̂.𝑞̂
𝑝̂ ∓ 𝑧√
𝑛
LA

Vinculación con el intervalo de confianza.


Los intervalos de confianza sirven como buenas estimaciones del parámetro de la
población debido a que el procedimiento tiende a producir intervalos que contienen el
parámetro. Los intervalos de confianza se componen de la estimación puntual (el valor más
probable) y un margen de error alrededor de esa estimación puntual. El margen de error indica
FI

la cantidad de incertidumbre que rodea a la estimación de la muestra del parámetro de


población.
Cuando nos fijamos en los niveles de significancia, los gráficos exhiben una
distribución muestral centrada en el valor de la hipótesis nula, y el 5% externo (por ejemplo)
de la distribución en el área sombreada. Para los intervalos de confianza, tenemos que cambiar


la distribución de muestreo de forma que se centre en la media de la muestra y la zona


sombreada es el 95% del medio.
En general:
Intervalo de confianza 1 – α = Conjunto de hipótesis aceptables de nivel α.
Esta situación se modifica si la prueba de hipótesis es unilateral, ya que entonces hay
un solo valor critico que corresponde al nivel de significación α; cuando la prueba es bilateral,
cada valor critico corresponde a α/2.

Procedimiento de intervalos de confianza Procedimiento de prueba de hipótesis para


para μ (muestras grandes) μ (muestras grandes)
1) Se selecciona un estadístico que tenga 1) Si se establece la hipótesis nula H0: μ = μ0,
distribución conocida, por ejemplo: el estadístico para llevar a cabo la prueba es:
𝑃𝑄
𝑝̂ ~𝑁 (𝑃; √ 𝑛 )

38

Este archivo fue descargado de https://filadd.com


𝑝̂ − 𝑃 𝑝̂ − 𝑃0
𝑧= 𝑧=
√𝑃𝑄 √𝑃0 𝑄0
𝑛 𝑛
2) Utilizando la distribución de probabilidad 2) Se establece la siguiente zona de no
conocida, se establece: rechazo de la hipótesis nula:
𝑝̂ − 𝑃 𝑝̂ − 𝑃0
−𝑧1−𝛼 ≤ ≤ 𝑧1−𝛼 −𝑧1−𝛼 ≤ ≤ 𝑧1−𝛼
2
√ 𝑝̂ 𝑞
̂ 2 2
√ 𝑃0 𝑄0 2
𝑛 𝑛
3) Se construye el intervalo de confianza 3) Se establece la zona de no rechazo de la
para μ: hipótesis nula:
𝑝̂ 𝑞̂ 𝑃0 𝑄0
𝑃 ∈ (𝑝̂ ± 𝑧𝛼 √ ) 𝑝̂ ∈ (𝑃0 ± 𝑧𝛼 √ )
2 𝑛 2 𝑛

OM
Conclusión: μ estará contenido en el intervalo Conclusión: no se rechaza H0 con un nivel de
de confianza 1-α si: significación α si:
𝑝̂ 𝑞̂ 𝑃0 𝑄0
|𝑝̂ − 𝑃| ≤ 𝑧𝛼 √ |𝑝̂ − 𝑃| ≤ 𝑧𝛼 √
2 𝑛 2 𝑛

Estas dos técnicas estadísticas no se contraponen sino que se complementan. Cuando

.C
se toma la decisión de no rechazar la hipótesis nula, se toma como valor aceptado el que toma
el parámetro en estudio en dicha hipótesis. En cambio, cuando se rechaza la hipótesis nula,
para establecer entre qué valores se sitúa el mismo, se lo puede estimar a partir de un
intervalo de confianza. Siempre brinda mayor información el resultado de una prueba de
DD
hipótesis acompañado de una estimación por intervalos del parámetro que el resultado de la
prueba aislado. Al intervalo lo construimos cuando suponemos que rechazaremos la H0, en el
caso en que el valor del parámetro que establece la H0 esté incluido en el intervalo, no
rechazaríamos la hipótesis nula.
LA
FI

22. Pruebas de hipótesis para la varianza. Supuestos y aplicaciones. Vinculación entre la


prueba de hipótesis y el intervalo de confianza.

Prueba de hipótesis para la varianza.




El procedimiento a seguir es básicamente el mismo para todos los parámetros (μ, σ2 y


proporción poblacional). Las diferencias solo se refieren a la elección del “estadístico de
prueba” bajo diferentes condiciones.
Supuestos
● Población normal.

Un ejemplo: Un operador de bolsa, al aconsejar a un cliente respecto a la inversión en una


acción en particular, destaca la poca variabilidad de su cotización. σ2 cotiz. diarias= 0.2
El cliente decide poner a prueba la hipótesis del operador estableciendo las siguientes
hipótesis con un α determinado:
H0: σ2 ≤ 0.2 H1: σ2 > 0.2
Para probar la hipótesis, selecciona una muestra de 15 días, donde registra la cotización
diaria. s2=0.4

39

Este archivo fue descargado de https://filadd.com


Ahora el cliente debe buscar un test adecuado que relacione el parámetro y el estadístico
muestral:
(𝑛−1)𝑆 2 2
~𝜒(𝑛−1)
𝜎2

Este test tiene distribución chi cuadrado con n-1 grados de libertad. Por tratarse de una
prueba de hipótesis, el valor de σ2 se ha reemplazado por el establecido en la hipótesis
nula.
Se rechaza H0 si:
𝑠2
χ2= (n-1) 𝜎2 > χ21- α; n-1
Gráficamente:

OM
Vinculación con el intervalo de confianza.

.C
Los intervalos de confianza sirven como buenas estimaciones del parámetro de la
población debido a que el procedimiento tiende a producir intervalos que contienen el
parámetro. Los intervalos de confianza se componen de la estimación puntual (el valor más
probable) y un margen de error alrededor de esa estimación puntual. El margen de error indica
DD
la cantidad de incertidumbre que rodea a la estimación de la muestra del parámetro de
población.
Cuando nos fijamos en los niveles de significancia, los gráficos exhiben una
distribución muestral centrada en el valor de la hipótesis nula, y el 5% externo (por ejemplo)
de la distribución en el área sombreada. Para los intervalos de confianza, tenemos que cambiar
la distribución de muestreo de forma que se centre en la media de la muestra y la zona
LA

sombreada es el 95% del medio.


En general:
Intervalo de confianza 1 – α = Conjunto de hipótesis aceptables de nivel α.
Esta situación se modifica si la prueba de hipótesis es unilateral, ya que entonces hay
un solo valor critico que corresponde al nivel de significación α; cuando la prueba es bilateral,
FI

cada valor critico corresponde a α/2.

Procedimiento de intervalos de confianza Procedimiento de prueba de hipótesis para


para μ (muestras chicas) μ (muestras chicas)
1) Se selecciona un estadístico que tenga 1) Si se establece la hipótesis nula H0: μ = μ0,


distribución conocida, por ejemplo: el estadístico para llevar a cabo la prueba es:
𝑥−𝜇 𝑥 − 𝜇0
𝑥~𝑁(0; 1) 𝑧 = 𝜎 𝑧= 𝜎
√𝑛 √𝑛
2) Utilizando la distribución de probabilidad 2) Se establece la siguiente zona de no
conocida, se establece: rechazo de la hipótesis nula:
𝑥−𝜇 𝑥−𝜇
−𝑧1−𝛼 ≤ 𝜎 ≤ 𝑧1−𝛼 −𝑧1−𝛼 ≤ 𝜎 0 ≤ 𝑧1−𝛼
2 √𝑛 2 2 √𝑛 2

3) Se construye el intervalo de confianza 3) Se establece la zona de no rechazo de la


para μ: hipótesis nula:
𝜎 𝜎
𝜇 ∈ (𝑥 ± 𝑧𝛼 ) 𝑥 ∈ (𝜇0 ± 𝑧𝛼 )
2 𝑛
√ 2 𝑛

Conclusión: μ estará contenido en el intervalo Conclusión: no se rechaza H0 con un nivel de
de confianza 1-α si: significación α si:
40

Este archivo fue descargado de https://filadd.com


𝜎 𝜎
|𝑥 − 𝜇| ≤ 𝑧𝛼 |𝑥 − 𝜇0 | ≤ 𝑧𝛼
2 √𝑛 2 √𝑛

Estas dos técnicas estadísticas no se contraponen sino que se complementan. Cuando


se toma la decisión de no rechazar la hipótesis nula, se toma como valor aceptado el que toma
el parámetro en estudio en dicha hipótesis. En cambio, cuando se rechaza la hipótesis nula,
para establecer entre qué valores se sitúa el mismo, se lo puede estimar a partir de un
intervalo de confianza. Siempre brinda mayor información el resultado de una prueba de
hipótesis acompañado de una estimación por intervalos del parámetro que el resultado de la
prueba aislado. Al intervalo lo construimos cuando suponemos que rechazaremos la H0, en el
caso en que el valor del parámetro que establece la H0 esté incluido en el intervalo, no
rechazaríamos la hipótesis nula.

23. Función de potencia y curva OC. Conceptos. Aplicación al caso de la media. Pruebas

OM
unilaterales y bilaterales.

Función de potencia. Curva de OC.


La elección de un criterio de test que defina reglas de decisión adecuadas a la hipótesis
que queremos probar, depende de la potencia que tenga la prueba para detectar cuando
rechazar o no una hipótesis nula. Se debe buscar una prueba que discrimine correctamente

.C
cuando las diferencias entre los valores muestrales y el valor verdadero se deban solamente al
azar y cuando la discrepancia es tan grande que la evidencia muestral no pueda sostener al
valor que toma el parámetro en la hipótesis nula. Es decir, se debe buscar la prueba más
potente.
DD
La potencia de una prueba se define como la función que establece la probabilidad de
rechazar la hipótesis nula cuando es falsa. La potencia de una prueba es igual a 1-β. Pero si
bien la hipótesis nula puede identificarse con un valor exacto o una situación exacta siempre
tiene el signo igual, aunque sea unilateral; la alternativa señala un conjunto infinito de valores
o de situaciones: el parámetro es “mayor que…” o “distinto a…” o “la distribución de la
población no es normal”, etc.
LA

Para cada uno de los posibles valores que puede tomar el parámetro en la hipótesis
alternativa es posible calcular la probabilidad de rechazar la hipótesis nula, esto es, calcular la
potencia correspondiente a ese valor. La potencia de un test para valores de la alternativa
cercanos a la hipótesis nula es baja, y aumenta cuando la alternativa se aleja de la hipótesis
nula. Así como se puede calcular la función de potencia, también se puede el error tipo II que
FI

es su complemento, curva CO (curva operativa).

Aplicación a la media, ejemplo: H0: μ = 5 H1: μ > 5


Supongamos que se conoce la desviación estándar y es σ = 2; se toma una muestra de
16 elementos, además suponemos que la variable x se distribuye normalmente en la


población. Como se trata de una prueba unilateral derecha, la medida de discrepancia es:

𝑥−5
𝑑𝑜𝑏𝑠 =
2
√16

Si la hipótesis nula es verdadera, d tiene una distribución de probabilidad conocida que


es la normal. Tomamos un α=0,05. El valor crítico de esta prueba es 5,8225. Graficamente:

41

Este archivo fue descargado de https://filadd.com


𝑥 ∗ −5
𝑑∗ = 1,645 = 2
√16
2
𝑥 ∗ = 5 + 1,645 = 5,8225
√16

OM
Calculamos ahora la probabilidad de cometer el error de tipo II con esta prueba
usando μ=6, esto es, estaríamos en situación de no rechazar H0 cuando la media es igual a 6.
El área sombreada en el segundo grafico es la probabilidad de que siendo μ=6, se acepte H0, es
decir, es la probabilidad de cometer el error tipo II cuando μ=6.
Puede observarse que si α disminuyera, aumentaría β. Al aumentar el tamaño de la
muestra se puede disminuir ambos errores simultáneamente porque se reduciría el error
estañar de la distribución de la media muestral. Esta es la única manera de reducir ambos

.C
errores a la vez.
Dando distintos valores a μ, se obtiene la función de potencia de la prueba de
hipótesis considerada. Si quisiéramos construir la curva CO, se procedería de igual manera
pero calculando β para cada valor de μ.
DD
En una prueba unilateral derecha la potencia se visualiza en el siguiente grafico:
LA

La primera de las distribuciones normales considera que la H0 es verdadera, y el estdistico se


distribuye alrededor de μ= μ0. En cambio, la segunda distribución normal considera que la H1
FI

es verdadera, y el estadístico varia alrededor de μ= μ1, siendo μ1 un valor posible entre los
infinitos valores que establece la H1.
La potencia esa representada en el área de rechazo de la distribución bajo la hipótesis
nula pero considerando también que se cumple la hipótesis alternativa, o sea bajo la segunda
distribución con media μ1.


Potencia bilateral:

42

Este archivo fue descargado de https://filadd.com


OM
La curva de potencia correspondiente a una prueba unilateral está por encima de la
bilateral hacia el lado que indica H1, pero tiene cero hacia el otro lado. Es por ello que las
pruebas unilaterales son “uniformemente más potentes que las bilaterales (n y α constantes).
Es menos probable cometer el error tipo II con la prueba unilateral que con la bilateral.

.C
24. Prueba de hipótesis e intervalos de confianza para la diferencia de medias poblaciones.
Muestras independientes. Supuestos y aplicaciones.
DD
Prueba de hipótesis para diferencia de medias poblacionales (muestras independientes).
● Diferentes fuentes de datos
⮚ No relacionados
⮚ Independientes
o La muestra seleccionada de una población no tiene efecto o
consecuencias en la muestra seleccionada en la otra población
LA

● Usar la diferencia entre dos medias muestrales


● Usar el test z o el test t de varianzas ponderadas.

En estos casos existe un factor con dos niveles posibles (dos técnicas de enseñanza,
dos campañas publicitarias, etc.), la pregunta es si esos niveles producen un resultado
FI

diferenciado sobre una variable a medir en una población especificada.


El investigador definirá la o las poblaciones objetivo de estudio, en cada una de ellas
seleccionara una muestra a partir de las cuales evaluara el efecto del factor en estudio.
Ejemplo: Dos poblaciones. El objetivo de la investigación es comparar el consumo de
alimentos de los habitantes para poder evaluar cómo ha afectado a cada zona la política


económica desarrollada por el gobierno. Antes de la aplicación de la política, las situaciones


socio-económicas eran similares. El investigador toma una muestra de familias de cada zona y
les realiza una encuesta. Cada resultado medido en $ se simboliza como xij, donde i hace
referencia a la zona a la que pertenece y j a la familia en particular. Si n=10, entonces el
subíndice i varía entre 1 y 2, y el subíndice j entre 1 y 10.
Cada medición va a reflejar el efecto de la política económica, pero existen diferencias
debidas a la variabilidad intrínseca de cada familia, esa diferencia se puede interpretar como
una variable aleatoria.
Se puede expresar matemáticamente el modelo estadístico correspondiente:

xij= ti + eij i = 1,2 j = 1,2,…,n Donde eij es la componente aleatoria aportada por c/ familia.

43

Este archivo fue descargado de https://filadd.com


Se supone que la política económica actúa uniformemente en todas las familias. Así, si
la política económica fue mala para esa zona, todas las familias de dicha zona gastaran menos
en alimentos.
El termino eij refleja todo otro tipo de variabilidad no controlada por el investigador, se
le llama error experimental y está ligado a las condiciones en las que se efectúa la medición.

Supuestos del modelo


● Los errores eij se distribuyen normalmente con media 0 y varianza σ2.
● Las variables ti y eij deben ser variables no correlacionadas.
● Igualdad de varianzas para los dos grupos de estudio.

En nuestro ejemplo, las hipótesis son:


H0: μD ≤ 0 H1: μD > 0

OM
Test z para muestras independientes (σ2 conocida)
Supuestos
● Las muestras son seleccionadas aleatoriamente e independientemente de
distribuciones normales
● Se conocen las varianzas poblacionales
Estadístico:

.C
(𝑥1 − 𝑥2 ) − (𝜇1 − 𝜇2 )
𝑍 𝑜𝑏𝑠 =
1 1
√𝜎 2 ( + )
𝑛 1𝑛 2
DD
Test t de varianzas ponderadas (σ2 desconocidas)
Supuestos
● Ambas poblaciones se distribuyen normalmente
● Muestras aleatorias independientemente seleccionadas
● Varianzas poblacionales desconocidas pero supuestamente iguales
LA

● Si ambas poblaciones no son normales, se requieren n grandes.

Al ser σ2 un parámetro desconocido, debemos estimarlo a partir de las observaciones


muestrales. El mejor estimador de la varianza común es un promedio ponderado de las
varianzas de los dos grupos considerados:
FI

(𝑛1 − 1)𝑆12 + (𝑛2 − 1)𝑆22


𝑠𝑝2 =
(𝑛1 − 1) + (𝑛2 − 1)

Estadístico:
(𝑥1 − 𝑥2 ) − (𝜇1 − 𝜇2 )


~𝑡𝑛1 +𝑛2 +2
1 1
√𝑠𝑝2 ( +𝑛 )
𝑛1 2

Distribución t de Student con n1 +n2 -2 grados de libertad.


En el numerador aparece la diferencia de medias muestrales que constituyen la
evidencia muestral que posee el investigador para rechazar o no la hipótesis nula. También
aparece la diferencia de medias que, si se cumple la hipótesis nula es 0.

44

Este archivo fue descargado de https://filadd.com


En el denominador se tiene la raíz cuadrada de la varianza ponderada. Las hipótesis
podrán ser:

Continuando con nuestro ejemplo, si la política económica ha influenciado de manera


igual en el consumo de las dos zonas en estudio, es lógico pensar que t1-t2 será próxima a cero.
Entonces, podremos decir que la evidencia muestral (x1 – x2) representa solamente diferencias
aleatorias o casuales y la prueba seguramente tomara la decisión de no rechazar H0.

Dado que el modelo estadístico planteado establece la igualdad de las varianzas


poblacionales, es necesario probar si se cumple, para ellos existe la prueba de igualdad de dos

OM
varianzas poblacionales.
Las hipótesis a considerar son las siguientes:
H0: σ21 = σ22 ó σ21/ σ22 = 1 H1: σ21 ≠ σ22 ó σ21/ σ22 ≠ 1
El estadístico a llevar a cabo es el siguiente:
𝑆12
𝜎2
𝐹(𝑛1 −1);(𝑛2 −1) = 12

.C
𝑆2
𝜎22

Como bajo la hipótesis nula, σ21 = σ22, entonces:


DD
𝑆12
𝐹(𝑛1 −1);(𝑛2 −1) =
𝑆22

Para simplificar el análisis gráfico, utilizaremos el cociente de varianzas como hipótesis para
que la prueba sea unilateral derecha. Además, las pruebas unilaterales son más potentes que
LA

las bilaterales. Graficamos:


FI

25. Prueba de hipótesis e intervalos de confianza para la diferencia de medias poblaciones.


Muestras dependientes. Supuestos y aplicaciones.


Prueba de hipótesis para diferencia de medias poblacionales (muestras dependientes).


Esta estrategia de investigación surge cuando cada observación para un tratamiento
está “apareada” con una observación para el otro tratamiento. Se trata de las mismas
unidades experimentales observadas en dos momentos distintos del tiempo o de dos unidades
experimentales muy similares.
Cuando se trata de muestras dependientes es conveniente, en vez de trabajar con las
variables X1 y X2, definir una nueva variable que sea igual a la diferencia entre ambas:
● Prueba para las medias de dos muestras relacionadas
⮚ Apareadas
⮚ Medidas repetidas (antes y después)
⮚ Diferencia entre pares
● Elimina la variabilidad entre sujetos

45

Este archivo fue descargado de https://filadd.com


Test z para la diferencia media (varianza conocida)
Supuestos
● Ambas poblaciones se distribuyen normalmente
● Las observaciones están apareadas
● Varianza conocida
Estadístico e intervalo de confianza:

𝑑−𝐷 𝑆𝑑
𝜎𝑑 = 𝑍 𝐷 ∈ (𝑑 ± 𝑍𝛼 )
2 √𝑛
√𝑛

Test t para la diferencia de media (varianza desconocida)


Supuestos

OM
● Ambas poblaciones se distribuyen normalmente
● Las observaciones están apareadas
● Varianza desconocida
● Si la población no es normal, muestra grande
Estadístico:
𝑑−𝐷 𝑑−𝐷
= ~𝑡𝑛−1
𝑆 2 𝑆𝑑

.C
Intervalo de confianza:
√ 𝑑
𝑛 √𝑛

𝑆𝑑
DD
𝐷 ∈ (𝑑 ± 𝑡𝑛−1;𝛼 )
2 √𝑛

Tanto usando el test z como el test t, las hipótesis planteadas serán:


H0: μD ≤ 0 H1: μD > 0
LA

26. Prueba de hipótesis e intervalos de confianza para cociente de varianzas poblaciones.


Supuestos y aplicaciones.

Prueba de hipótesis e intervalos de confianza para cociente de varianzas poblacionales.


Prueba F para la diferencia en 2 varianzas poblacionales
FI

● Prueba paramétrica
● Supuestos
⮚ Ambas poblaciones están normalmente distribuidas
o La prueba no es robusta a la violación de este supuesto
⮚ Las muestras fueron seleccionadas aleatoria e independientemente.


● Prueba para la diferencia de varianza en dos poblaciones independientes.

Las hipótesis a considerar son las siguientes:


H0: σ21 = σ22 ó σ21/ σ22 = 1 H1: σ21 ≠ σ22 ó σ21/ σ22 ≠ 1
El estadístico a llevar a cabo es el siguiente:
𝑆12
𝜎2
𝐹(𝑛1 −1);(𝑛2 −1) = 12
𝑆2
𝜎22

Como bajo la hipótesis nula, σ21 = σ22, entonces:


𝑆12
𝐹(𝑛1 −1);(𝑛2 −1) =
𝑆22

46

Este archivo fue descargado de https://filadd.com


Para simplificar el análisis gráfico, utilizaremos el cociente de varianzas como hipótesis para
que la prueba sea unilateral derecha. Además, las pruebas unilaterales son más potentes que
las bilaterales. Graficamos:

27. Prueba de hipótesis e intervalos de confianza para la diferencia de proporciones

OM
poblacionales. Supuestos y aplicaciones.

Prueba de hipótesis e intervalos de confianza para la diferencia de proporciones poblacionales.


Se seleccionan dos muestras de dos poblaciones, la variable es dicotómica (éxito o
fracaso), el interés se centra en la comparación de la proporción de éxitos entre ambas
poblaciones.

.C
Ejemplo:
Sexo Varones Mujeres Total
Beneficiarios plan 117 54 171
No beneficiarios plan 950 348 1298
DD
Total 1067 402 1469

Las hipótesis son:


H0: p1 = p2 ó p1-p2 = 0 / H1: p1 ≠ p2 ó p1-p2 ≠ 0
P1= proporción de jefes de hogar mujeres beneficiarias del plan
P2= proporción de jefes de hogar varones beneficiarios del plan
LA

El parámetro establecido en la hipótesis es una diferencia de proporciones


poblacionales, por lo tanto, lo lógico sería pensar que su mejor estimador puntual será la
diferencia de proporciones muestrales: p1 – p2
Estadístico:
(𝑝̂1 − 𝑝̂2 ) − (𝑃1 − 𝑃2 )
=𝑍
FI

𝑛1 𝑝̂1 + 𝑛2 𝑝̂ 2 1 1

𝑛1 + 𝑛2 + (𝑛1 + 𝑛2 )

Los puntos críticos serán los correspondientes a la distribución normal estandarizada, y




la regla de decisión será:


Si z < –z* o si z >z* se rechaza H0
Si –z*< z < z* no se rechaza H0
Si fijamos un α = 0.05, los valores de z* son +/- 1,96 y se rechazará cuando z sea mayor
a |1,96|
Intervalo de confianza:
𝑝̂1 𝑞̂1 𝑝̂2 𝑞̂2
(𝑃1 − 𝑃2 ) ∈ ((𝑝̂1 − 𝑝̂2 ) ± 𝑍𝛼 √ + )
2 𝑛1 𝑛2

28. Prueba de hipótesis considerando k medias provenientes de k poblaciones. Tabla de


ANOVA. Comparaciones múltiples.

Prueba de hipótesis considerando k medias de k poblaciones.

47

Este archivo fue descargado de https://filadd.com


Deseamos saber si es posible comparar en una sola prueba los parámetros de tres o
más poblaciones, simultáneamente. El investigador podría decidir la comparación de estas
muestras mediante alguno de los procedimientos vistos anteriormente (no paramétricos),
tomando las medias de a pares. Pero tal procedimiento es ineficiente y antieconómico.
La metodología que investiga simultáneamente las diferencias existentes entre medias
de varias poblaciones se denomina Análisis de la Varianza (ANAVA).
El análisis se basa en la comparación de las varianzas estimadas a partir de diversas
fuentes. Una forma sencilla de entenderlo es considerarlo como un procedimiento para
comprobar si dos o más medias muestrales pueden haberse obtenido de poblaciones con la
misma media paramétrica, respecto a una variable dada.
Supuestos
● Todas las poblaciones involucradas son normales
● Todas las poblaciones tienen la misma varianza
● Las muestras son aleatorias

OM
● Esta prueba no es equivalente a probar igualdad de varias medias utilizando pruebas t
con dos muestras.
Error tipo 1: 1 – (1 – α)n ; n = cantidad de pruebas

Comparaciones múltiples.
Variación entre y dentro de grupos

.C
Se subdivide la variación total de las mediciones obtenidas en el experimento en dos
partes, una correspondiente a la variación entre grupos y la otra correspondiente a la variación
dentro de grupos. Variación total:
𝑐 𝑛𝑗
DD
∑ ∑ (𝑥 − 𝑥 )2
𝑗=1 𝑖=1

Donde c representa el número de grupos o niveles del factor en el experimento, nj la


cantidad de observaciones por grupo, xij indica la i-ésima medición obtenida en el grupo j y x el
promedio general.
LA

Esta expresión corresponde al numerador de la varianza de todos los datos del


experimento y recibe el nombre de Suma de cuadrados Total (SCT).
Variación entre grupos:
𝑐

∑ 𝑛𝑗. (𝑥 − 𝑥 )2
FI

𝑗=1

La variación entre grupos se conoce como Suma de cuadrados entre grupos (SCE) y
mide la suma de las diferencias al cuadrado entre la media de cada grupo y la media general,
ponderadas por el tamaño de cada grupo.


Variación dentro de grupo:


𝑐 𝑛𝑗

∑ ∑ (𝑥 − 𝑥 )2
𝑗=1 𝑖=1

La variación dentro de grupo, conocida como la suma de cuadrado dentro de los


grupos (SCD) mide la diferencia entre cada observación y la media de su propio grupo elevada
al cuadrado y sumada sobre todos los grupos.

SCT = SCD + SCE


Como existen c niveles del factor siendo comparados, existen c-1 grados de libertad
asociados a la SCE. Además, como cada uno de los c contribuye con nj – 1 grados de libertad y
𝑐

∑ (𝑛 − 1) = 𝑛 − 𝑐
𝑗=1

48

Este archivo fue descargado de https://filadd.com


Existen (n-c) grados de libertad asociados a la SCD. Por otro lado, existen (n-1) grados
de libertad asociados a la suma de cuadrados total, porque cada observación xij se compara
con la media general basándose en el total de observaciones;
𝑐

∑ 𝑛 =𝑛
𝑗=1

Es posible observar que los grados de libertad asociados a las sumas de cuadrados
también son aditivos.
n – 1 = (c – 1) + (n – c)
Si cada suma de cuadrados se divide por sus respectivos grados de libertad asociados,
se obtienen tres varianzas, o términos cuadráticos medios.
CMT = (SCT/n-1)
CME = (SCE/c-1)

OM
CMD = (SCD/n-c)

El CMD y el CME representan dos estimaciones independientes de la varianza


poblacional, por lo tanto nos interesa saber si ambas estiman al mismo parámetro
Esto ocurre cuando las medias de todos los grupos son iguales (H0 verdadera), si esto
no ocurre se concluye que la H0 es falsa.
Para probar esta hipótesis se necesita un test que evalúe la probabilidad de que dos

.C
varianzas muestrales estimen la misma varianza poblacional. Este es el test F. El estadístico es
el cociente de las varianzas calculadas con los datos muestrales:

𝐶𝑀𝐸
DD
Fc-1, n-c = 𝐶𝑀𝐷
La varianza del numerador tiene c – 1 grados de libertad y la del denominador n – c
grados de libertad. Fijamos un nivel de significación y observamos el valor crítico, en base a eso
lo comparamos con el valor observado. Si es el valor observado es mayor al crítico, se rechaza
la H0. Es una prueba unilateral derecha.
Si la H0 se rechaza, entonces la variabilidad entre grupos no es igual a la variabilidad
LA

intrínseca del material experimental, y la conclusión es que las dos varianzas no estiman a la
misma varianza poblacional, se rechaza la igualdad de medias.

Tabla ANOVA
Grados Valor de
Origen de las Cuadrados
FI

Variaciones
Suma de Cuadrados de
Medios
Fobs p
Libertad
𝑆𝐶𝐸 p
𝑐 𝑆𝐶𝐸 𝐶𝑀𝐸
Entre Grupos
=∑ 𝑛𝑗 (𝑥𝑗 − 𝑥𝑗 )2
c-1 𝐶𝑀𝐸 = 𝐹=
𝑐−1 𝐶𝑀𝐷


𝑗=1
𝑆𝐶𝐷
𝑛𝑗
Dentro de 𝑐 𝑆𝐶𝐷
2 n-c 𝐶𝑀𝐷 =
Grupos =∑ ∑ (𝑥𝑖𝑗− 𝑥𝑗 ) 𝑛−𝑐
𝑗=1 𝑖=1
𝑆𝐶𝑇
𝑐 𝑛𝑗
TOTAL n-1
=∑ ∑ (𝑥𝑖𝑗− 𝑥𝑗 )2
𝑗=1 𝑖=1

Graficamos:

49

Este archivo fue descargado de https://filadd.com


29. Ventajas y desventajas del uso de métodos no paramétricos. La prueba chi cuadrado de
independencia.

Ventajas de las pruebas no paramétricas.


● Si el tamaño de la muestra es muy pequeño, puede no haber otra opción que usar una
prueba estadística no paramétrica, a menos que la distribución de la población se
conozca con exactitud.
● Hacen menos suposiciones acerca de los datos y pueden ser más relevantes a una
situación en particular. Además, las hipótesis probadas por una prueba no paramétrica
pueden ser más adecuadas para la investigación.

OM
● Estas pruebas están disponibles para tratar datos que son simplemente clasificatorios
o categóricos, que son medidos en escala nominal. Ninguna técnica paramétrica se
aplica a tales datos.

Desventajas de las pruebas no paramétricas.


● No son sistemáticas
● No se tiene una distribución fija para este tipo de pruebas, por lo que en ocasiones

.C
puede ser un problema elegir la adecuada
● No son tan potentes como las paramétricas
DD
Prueba Chi cuadrado de independencia.
Se trata de una situación en la que interesa poner a prueba si existe o no
independencia entre dos variable cualitativas de una población. Se toma una muestra, se
construye una tabla de contingencia con las dos variables cualitativas de interés, y en base a la
distribución de frecuencias conjunta observada en la tabla y la frecuencia esperada, se calcula
de acuerdo a la hipótesis nula planteada. Se construye el estadístico Chi cuadrado para evaluar
LA

la diferencia entre ambas. Si la diferencia no es significativa, concluimos que las variables son
independientes. Caso contrario, son dependientes.

Ejemplo
Nivel educa- Primario Secundario Terciario Totales
FI

cional (I) (II) (III)


Repuestas
Bueno (A) 82 427 191 700
Regular (B) 10 110 60 180
Malo (C) 8 63 49 120


Totales 100 600 300 1000

El objetivo es contrastar la hipótesis nula de que la calificación respecto del


desempeño del intendente es independiente del nivel educacional de los encuestados, la H0
establecerá que la clasificación por filas (f) es independiente de la clasificación por columnas
(c), frente a la alternativa que las dos clasificaciones son dependientes o están relacionadas.

pA = probabilidad marginal (no condicionada) de que la opinión sea bueno (A)


pB = probabilidad marginal (no condicionada) de que la opinión sea regular (B)
pC = probabilidad marginal (no condicionada) de que la opinión sea malo (C)
pI = probabilidad de haber alcanzado el nivel primario.
pII = probabilidad de haber alcanzado el nivel secundario.
pIII = probabilidad de haber alcanzado el nivel terciario.
Se sabe que:
50

Este archivo fue descargado de https://filadd.com


pA + pB + pC = 1 y pI + pII + pIII = 1
De acuerdo a la ley multiplicativa de probabilidad, si las dos variables son
independientes entre sí, la probabilidad de una celda (probabilidad conjunta) será igual al
producto de sus correspondientes probabilidades fila y columna (probabilidades marginales).
En el ejemplo:
pAI = pA . pI
Teniendo las probabilidades estimadas para cada celda en caso de independencia, se
podrán obtener las frecuencias esperadas de cada celda multiplicando por el tamaño de la
muestra, las que se utilizaran en la construcción del estadístico Chi cuadrado. La frecuencia
esperada se cualcula multiplicando el total de la fila por el total de la columna (de un valor en
particular), todo esto dividido por el total de muestras.
Estadístico:

OM
Finamente, nos resta obtener los grados de libertad asociado al estadístico de la prueba,
recordando que dichos grados de libertad se obtienen de la cantidad de celdas luego de
reagrupar: (f – 1).(c – 1)
Resumen
● Muestra

.C
⮚ Se toma un muestra
⮚ Cada factor tiene dos o más niveles de respuestas
⮚ NO muestra la naturaleza de la relación
DD
⮚ NO muestra causalidad
● Es parecido a probar p1 = p2 =…= pc
● Se usa muchísimo en marketing
● Usa la tabla de contingencia

30. Ventajas y desventajas del uso de métodos no paramétricos. La prueba chi cuadrado de
LA

bondad de ajuste a distribuciones de probabilidad. Interpretación de pruebas de normalidad


de Kolmogorov Smirnov y Shapiro Wilks. Condiciones para usarlas.

Ventajas de las pruebas no paramétricas.


● Fáciles de usar y entender.
FI

● Si el tamaño de la muestra es muy pequeño, puede no haber otra opción que usar una
prueba estadística no paramétrica, a menos que la distribución de la población se
conozca con exactitud.
● Hacen menos suposiciones acerca de los datos y pueden ser más relevantes a una
situación en particular. Además, las hipótesis probadas por una prueba no paramétrica


pueden ser más adecuadas para la investigación.


● Estas pruebas están disponibles para tratar datos que son simplemente clasificatorios
o categóricos, que son medidos en escala nominal. Ninguna técnica paramétrica se
aplica a tales datos.

Desventajas de las pruebas no paramétricas.


● No son sistemáticas.
● A veces ignoran, desperdician o pierden información.
● No se tiene una distribución fija para este tipo de pruebas, por lo que en ocasiones
puede ser un problema elegir la adecuada.
● No son tan potentes como las paramétricas debido a que son únicamente bilaterales.
(Mayor probabilidad de cometer error tipo II)

Prueba Chi cuadrado de bondad de ajuste.


51

Este archivo fue descargado de https://filadd.com


Es una prueba para decidir, a partir de una muestra en particular, si se rechaza o no la
hipótesis de que una variable aleatoria se ajusta a una distribución probabilística. Puede ser
normal, uniforme, Poisson, exponencial, etc.
Se comienza la misma con el planteo de la hipótesis nula de que la variable aleatoria
bajo estudio tiene una distribución específica y fijando el nivel de significación. Luego se toma
una muestra aleatoria de la población, que provee las frecuencias observadas que se van a
utilizar junto con las frecuencias esperadas teóricas (tamaño de muestra multiplicado por la
probabilidad establecida por la distribución teórica) para obtener el estadístico de prueba:

2
(𝜃𝑖 − ℮𝑖 )2
𝜒𝑜𝑏𝑠 =∑
℮𝑖

Cabe recordar que en las pruebas Chi cuadrado la frecuencia esperada por intervalo/fila no

OM
puede ser menor a 5.

Ejemplo:
Días de atraso Cantidad de clientes
0 19

.C 1
2
3
25
22
8
DD
4 3
5 2
6 1
Total 80

H0: El número de días de atraso se distribuye Poisson, P (x, λ=?).


LA

H1: El número de días de atraso no se distribuye Poisson.


Como se desconoce λ, se deberá encontrar su estimador de máxima verosimilitud λ=x.
Luego se elige el nivel de significación, para el ejemplo tomaremos α=0,05.

1 2 3 4 5
FI

0 19 0,2209 18 0,06
1 25 0,3336 27 0,15
2 22 0,2518 20 0,20
3 8 0,1268 10 0,40
4 o más 6 0,0669 5 0,20


Total 80 1 80 1,01

Columnas 1 y 2: Valores observados en la muestra y sus frecuencias asociadas


Columna 3: Cálculo de las probabilidades teóricas de Poisson
Columna 4: Computo de las frecuencias esperadas. Surgen de multiplicar el tamaño de la
muestra la probabilidad teórica asociada a cada valor de la variable.
Columna 5: Cálculo del cociente entre el cuadrado de las diferencias y la frecuencia esperada
para cada línea. La suma es el valor de Chi Cuadrado.

Regla de decisión: Se necesita encontrar un valor critico que separe la zona de rechazo de la de
no rechazo. Prueba unilateral derecha.
2 2
Rechazo 𝐻0 𝑠𝑖 𝜒𝑜𝑏𝑠 > 𝜒𝑐𝑟í𝑡
Los grados de libertad se obtienen de la siguiente manera: k – p – 1. k es el número de
categorías y p el número de parámetros. En nuestro ejemplo: 5 – 2 = 3.
52

Este archivo fue descargado de https://filadd.com


Hay diferentes formas de definir los intervalos. Una de ellas es la de hacer intervalos de
igual amplitud, que tiene como desventaja la aparición de intervalos con frecuencias esperadas
menores a 5, y por lo tanto la pérdida de grados de libertad. Otra forma, que a mi parecer es
mejor, es construyendo intervalos equiprobables (igual probabilidad para cada intervalo y por
ende igual frecuencia esperada), donde de antemano se puede fijar el número de intervalos
según el tamaño de la muestra 𝑛 > 𝑐𝑡𝑑𝑎𝑑 𝑑𝑒 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜𝑠 × 5, que viene de hacer
𝑛
𝑐𝑡𝑑𝑎𝑑 𝑑𝑒 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜𝑠
> 5 (a mayor tamaño de muestra, es posible una mayor cantidad de intervalos
equiprobables).
Resumen
● Es una muestra para decidir, a partir de una muestra particular, si la variable aleatoria
se ajusta a una distribución probabilística especifica.
● Puede utilizarse cualquiera sea la distribución especificada.

OM
● Se usa cuando se disponen muchos datos.

Prueba de Kolmogorov Smirnov


Si se dispone de pocos datos (n<30), la prueba Chi pierde precisión y es aconsejable
utilizar la de Kolmogorov Smirnov (K-S). El procedimiento es muy similar: se basa en la

.C
comparación entre las frecuencias acumuladas de la distribución de los datos ordenados de la
muestra y la distribución teórica propuesta en la hipótesis nula. De calcular previamente la
distancia entre ambas funciones de distribución, se observa cuál es la distancia máxima, el
punto que presenta mayor diferencia, Dobs, entonces:
DD
𝐷𝑜𝑏𝑠 = 𝑚á𝑥|𝐹𝑡 − 𝐹𝑜 |~𝐷𝛼/𝑛

Una vez más, una tabla nos facilitará la vida:


Observaciones Vable. Fo zi Ft d1i d2i Dmax
|Ft(xh)-F0(xh-1)| |Ft(xh)-F0(xh)| Max(d1i,d2i)
LA

Fo = Frecuencias observadas relativas acumuladas


zi = Valores estandarizados de la variable
Ft = Frecuencias teóricas relativas acumuladas. Se extraen de la tabla normal estandarizada
d1i = Diferencia entre la frec. teórica asociada al valor de la vble. y la frec. observada hasta el
valor anterior.
FI

d2i = Diferencia entre la frec. teórica asociada al valor de la vble. y la frec. observada hasta ese
valor.
Dmax = Distancias máximas entre la distribución teórica y la distribución observada para cada
valor de la vble. Se resalta la distancia máxima entre las máximas.


Si la distancia calculada (Dobs) es mayor que la que figura en tablas para un nivel de
significación α determinado, se rechazará el modelo Ft. Significa que una diferencia tan grande
como la observada no puede deberse al azar y por tanto los datos de la muestra no provienen
de la distribución especificada. Si por el contrario, Dobs es mejor al valor de la tabla, entonces
no se rechaza la H0 y las observaciones muestrales se ciñen al modelo propuesto.
Esta prueba es muy usada en los casos en los que el tamaño de muestra es pequeño y
se caracteriza por casi nunca rechazar la hipótesis nula (es por esto que en 1967 Lilliesford
modifica la tabla)

Prueba de Shapiro Wilks


Otra prueba para la normalidad, es el test de Shapiro Wilks, que plantea en su hipótesis
nula que la muestra se extrajo de una población normal. La prueba consiste en comparar el
nivel de significación con el que deseamos trabajar con el p-value que aparece en la salida de

53

Este archivo fue descargado de https://filadd.com


computadora del test. Siempre que éste sea mayor que el alpha, la normalidad de la variable
será aceptada.

Resumen
● Se usa para asegurarse que se cumpla el supuesto de población normal
● El contraste de normalidad se plantea en los siguientes términos
⮚ H0: La muestra procede de una población normal
⮚ H1: La muestra no procede de una población normal
● Se puede concluir interpretando los valores del p-value de las salidas del soft.

OM
31. Ventajas y desventajas del uso de métodos no paramétricos. La prueba chi cuadrado de
homogeneidad. Prueba de Marascuilo. Vínculo y limitaciones frente a pruebas paramétricas
equivalentes.

.C
Ventajas de las pruebas no paramétricas.
● Fáciles de usar y entender.
● Si el tamaño de la muestra es muy pequeño, puede no haber otra opción que usar una
DD
prueba estadística no paramétrica, a menos que la distribución de la población se
conozca con exactitud.
● Hacen menos suposiciones acerca de los datos y pueden ser más relevantes a una
situación en particular. Además, las hipótesis probadas por una prueba no paramétrica
pueden ser más adecuadas para la investigación.
● Estas pruebas están disponibles para tratar datos que son simplemente clasificatorios
LA

o categóricos, que son medidos en escala nominal. Ninguna técnica paramétrica se


aplica a tales datos.

Desventajas de las pruebas no paramétricas.


● No son sistemáticas.
FI

● A veces ignoran, desperdician o pierden información.


● No se tiene una distribución fija para este tipo de pruebas, por lo que en ocasiones
puede ser un problema elegir la adecuada.
● No son tan potentes como las paramétricas debido a que son únicamente bilaterales.
(Mayor probabilidad de cometer error tipo II). Caso de la prueba de homogeneidad.


Prueba Chi cuadrado de homogeneidad.


Esta prueba se aplica para determinar si dos o más muestras aleatorias e
independientes provienen de la misma población. Se clasifica a la población en k grupos
(categorías de la variable) para evaluar si las proporciones poblacionales son homogéneas.
Este tipo de prueba se puede aplicar para realizar un análisis confirmatorio de los datos que se
poseen de una encuesta previa. En este caso, de acuerdo a las dos variables categóricas,
podremos armar una tabla de contingencia con las frecuencias asociadas (éxito y fracaso) para
cada grupo.
Los estimadores de máxima verosimilitud de las frecuencias esperadas son:
𝑓𝑖 𝑐𝑗
𝑒𝑖𝑗 = 𝐸̂ (𝑛𝑖𝑗 ) =
𝑛

54

Este archivo fue descargado de https://filadd.com


∑𝑘 𝑥𝑖
Al considerar la hipótesis nula como cierta: 𝑝 = 𝑖=1
, entonces
∑𝑘
𝑖=1 𝑛𝑖
𝑋
𝑒𝑖𝑗 = 𝐸̂ (𝑛𝑖𝑗 ) = 𝑛𝑖 𝑝 = 𝑛𝑖
𝑛
2
2 (𝜃𝑖𝑗 −℮𝑖𝑗 )
El estadístico Chi cuadrado observado 𝜒𝑜𝑏𝑠 =∑ ∑
℮𝑖𝑗
va a tener (f-1).(c-1)
grados de libertad, siendo f: n° de filas y c: n° de columnas.
Al obtener el valor del estimador, se lo compara con el Chi cuadrado crítico (con iguales grados
de libertad y con el 𝛼 prefijado) y se decide si se rechaza o no la hipótesis nula.
2 2
Rechazo 𝐻0 𝑠𝑖 𝜒𝑜𝑏𝑠 > 𝜒𝑐𝑟í𝑡
También se puede decidir si rechazar o no la hipótesis nula en base al p-value.
Rechazo 𝐻0 𝑠𝑖 𝛼 > 𝑝 − 𝑣𝑎𝑙𝑢𝑒
En caso de rechazar la hipótesis nula de que todas las proporciones son iguales, se

OM
procede a realizar la prueba de Marascuilo en donde lo que se busca es detectar entre cuales
proporciones existe una diferencia significativa.
Primero se calculan las diferencias en valores absolutos entre las distintas
proporciones observadas. Esa diferencia se compara con el valor crítico, que se obtiene de la
siguiente forma:

.C
DD
Si la diferencia en valores absolutos de los valores observados es mayor al valor crítico
entonces se concluye que hay diferencias entre las proporciones poblacionales que se
comparan, al nivel de significación especificado.

32. Análisis de correlación entre variables y análisis de regresión. Conceptos. Coeficiente de


LA

determinación y coeficiente de correlación lineal.

El análisis de correlación se usa para medir la fuerza de asociación entre dos variables
numéricas (relación lineal). En este análisis no están implicados efectos causales. Se hace una
prueba de hipótesis de la siguiente forma: 𝐻0 : 𝜌 = 0 (no existe correlación)
𝐻1 : 𝜌 ≠ 0 (existe correlación)
FI

El estadístico de prueba tiene distribución t con n-2 grados de libertad:

𝑟−𝜌
𝑡= 2
√1−𝑟
𝑛−2


𝑆𝐶𝑅
Recordando que 𝑟 2 = 𝑆𝐶𝑇

El coeficiente de correlación poblacional 𝜌 se usa para medir la fuerza de asociación


entre variables. El coeficiente de correlación muestral r es un estimador de 𝜌 y se usa para
medir la fuerza de relación lineal entre observaciones muestrales.
Características de r y 𝜌:
● No tienen unidad de medida;
● Varían entre -1 y 1;
● Mientras más cercano a -1, más fuerte es la relación lineal negativa;
● Mientras más se aproxima a 1, más fuerte es la relación lineal positiva;
● Mientras más se aproxima al cero más débil es la relación lineal.

Existe una relación entre el análisis de correlación lineal y el análisis de regresión. En el


segundo estamos interesados en la posibilidad de predecir una variable Y (dependiente/ de
55

Este archivo fue descargado de https://filadd.com


respuesta) en base a los valores de una variable independiente, o explicativa, X. Se busca
entonces modelar esta relación, implicando efectos causales. Sirve también para cuantificar el
peso de ciertas variables independientes sobre la dependiente.
En cambio, en el análisis de correlación se busca medir el grado o la fuerza de asociación
de dos variables. Están vinculadas, ya que al parámetro de correlación lineal 𝜌 se lo estima
mediante r, que resulta igual a la raíz cuadrada del 𝑟 2 del análisis de regresión. El r, a su vez,
asume el signo del estimador de la pendiente 𝑏1 del análisis de regresión. De aquí es que se
puede ver que siempre que r tienda a -1 o a 1, el 𝑟 2 (coeficiente de determinación) va a
tender a 1.
A través de un diagrama de dispersión, podemos ver gráficamente el comportamiento de
la variable de respuesta a distintos valores de la variable independiente. Según como estén
distribuidos los puntos en el gráfico podremos ver:
● Relación lineal positiva (a mayores valores de x, mayores valores de y a una tasa
relativamente constante)

OM
● Relación lineal negativa (a mayores valores de x, menores valores de y a una tasa
relativamente constante)
● Relación no lineal (pueden existir rendimientos crecientes o decrecientes a medida
que aumenta el valor de x);
● No hay relación (cuando no existe un patrón que vincule a ambas variables).
El coeficiente de determinación mide la proporción de variabilidad total de la variable de

.C
respuesta que es explicada por el modelo de regresión propuesto. Se obtiene de la siguiente
𝑆𝐶𝑅
forma: 𝑟 2 = .
𝑆𝐶𝑇
El análisis de regresión puede ser hecho mediante modelos lineales y modelos no lineales
(no se ven en esta asignatura) y a su vez dentro de los lineales están el simple y el múltiple. En
DD
el modelo de regresión lineal simple, el cambio unitario en una variable (x) afecta y provoca un
cambio en otra (y) a una tasa constante 𝛽1 . Esta tasa constante es la pendiente poblacional y
es estimada a través de 𝑏1 . La ecuación de regresión poblacional es una recta que describe la
dependencia del valor promedio (media condicional) de una variable sobre la otra.
LA
FI

La estimación de estos parámetros poblacionales se hará en base a pares de datos (x,y)


que se obtengan de una muestra. La recta de regresión muestral provee una estimación de la


recta poblacional y pronósticos del valor de Y. Cuantifica la relación entre las variables.

Para poder realizar el análisis de regresión lineal es necesario que se cumplan ciertos
supuestos:
● Que los valores de Y se distribuyan normalmente para cada valor de x;
● Que la distribución de los errores sea normal;
● Que los errores sean independientes;
● Que se cumpla la homocedasticidad (varianza constante).

56

Este archivo fue descargado de https://filadd.com


Los parámetros de la recta de regresión pueden ser aproximados mediante estimadores de
máxima verosimilitud, obtenidos por: i) Método de máxima verosimilitud; ii) Método de
mínimos cuadrados.
Se obtienen los siguientes estimadores:

𝑏0 = 𝑌 − 𝑏1 𝑋

𝐶𝑜𝑣(𝑥, 𝑦) ∑ 𝑦𝑖 𝑥𝑖 − 𝑛𝑥𝑦
𝑏1 = =
𝑆𝑥2 ∑ 𝑥𝑖2 − 𝑛𝑥 2

OM
33. Análisis de regresión. El diagrama de dispersión. Conceptos, tipos de regresión, usos.

.C
Análisis de regresión.
En el análisis de regresión estamos interesados en la posibilidad de predecir una
variable Y (dependiente/ de respuesta) en base a los valores de una variable independiente, o
explicativa, X. Se busca entonces modelar esta relación, implicando efectos causales. Sirve
DD
también para cuantificar el peso de ciertas variables independientes sobre la dependiente.
Está vinculado con el análisis de correlación, ya que al parámetro de correlación lineal
𝜌 se lo estima mediante r, que resulta igual a la raíz cuadrada del 𝑟 2 del análisis de regresión.
El r, a su vez, asume el signo del estimador de la pendiente 𝑏1 del análisis de regresión. De aquí
es que se puede ver que siempre que r tienda a -1 o a 1, el 𝑟 2 (coeficiente de determinación)
va a tender a 1.
LA

El coeficiente de determinación mide la proporción de variabilidad total de la variable de


respuesta que es explicada por el modelo de regresión propuesto. Se obtiene de la siguiente
𝑆𝐶𝑅
forma: 𝑟 2 = 𝑆𝐶𝑇 .
El análisis de regresión puede ser hecho mediante modelos lineales y modelos no lineales
FI

(no se ven en esta asignatura) y a su vez dentro de los lineales están el simple y el múltiple.
En el modelo de regresión lineal simple el cambio unitario en una variable (x) afecta y
provoca un cambio en otra (y) a una tasa constante 𝛽1 . Esta tasa constante es la pendiente
poblacional y es estimada a través de 𝑏1 . La ecuación de regresión poblacional es una recta
que describe la dependencia del valor promedio (media condicional) de una variable sobre la


otra.

La estimación de estos parámetros poblacionales se hará en base a pares de datos (x,y)


que se obtengan de una muestra. La recta de regresión muestral provee una estimación de la
recta poblacional y pronósticos del valor de Y. Cuantifica la relación entre las variables.

57

Este archivo fue descargado de https://filadd.com


Para poder realizar el análisis de regresión lineal es necesario que se cumplan ciertos
supuestos:
● Que los valores de Y se distribuyan normalmente para cada valor de x;
● Que la distribución de los errores sea normal;

OM
● Que los errores sean independientes;
● Que se cumpla la homocedasticidad (varianza constante).

Los parámetros de la recta de regresión pueden ser aproximados mediante estimadores de


máxima verosimilitud, obtenidos por: i) Método de máxima verosimilitud; ii) Método de
mínimos cuadrados.

.C
Se obtienen los siguientes estimadores:
𝑏0 = 𝑌 − 𝑏1 𝑋
DD
𝐶𝑜𝑣(𝑥, 𝑦) ∑ 𝑦𝑖 𝑥𝑖 − 𝑛𝑥𝑦
𝑏1 = =
𝑆𝑥2 ∑ 𝑥𝑖2 − 𝑛𝑥 2

Dijimos entonces que los propósitos del análisis de regresión son 2:


● Encontrar un mecanismo para mejorar nuestras estimaciones a partir de la posibilidad
LA

de estimar medias poblacionales (estimar valores medios)


● Disponer de una herramienta de previsión de la variable de respuesta ante valores de
la variable independiente, quizás aún no asumidos o futuros (estimar valores
individuales).
El modelo de regresión múltiple es una generalización del modelo de regresión lineal simple
FI

para 2 o más variables independientes (sigue siendo un modelo lineal).

Diagrama de dispersión.
A través de un diagrama de dispersión podemos ver gráficamente el comportamiento
de la variable de respuesta a distintos valores de la variable independiente. Según como estén


distribuidos los puntos en el gráfico podremos ver:


● Relación lineal positiva (a mayores valores de x, mayores valores de y a una tasa
relativamente constante).
● Relación lineal negativa (a mayores valores de x, menores valores de y a una tasa
relativamente constante).
● Relación no lineal (pueden existir rendimientos crecientes o decrecientes a medida
que aumenta el valor de x).
● No hay relación (cuando no existe un patrón que vincula ambas variables).

Se puede dibujar una línea de ajuste (llamada también "línea de tendencia") con el fin de
estudiar la correlación entre las variables. Una ecuación para la correlación entre las variables
puede ser determinada por procedimientos de ajuste. Para una correlación lineal, el
procedimiento de ajuste es conocido como regresión lineal y garantiza una solución correcta
en un tiempo finito.
58

Este archivo fue descargado de https://filadd.com


Uno de los aspectos más poderosos de un gráfico de dispersión, sin embargo, es su
capacidad para mostrar las relaciones no lineales entre las variables. Además, si los datos son
representados por un modelo de mezcla de relaciones simples, estas relaciones son
visualmente evidentes como patrones superpuestos.

34. Tipos de modelos de regresión. Modelo probabilístico lineal simple. Estimación de los
parámetros del modelo mediante mínimos cuadrados.

Análisis de regresión.
En el análisis de regresión estamos interesados en la posibilidad de predecir una
variable Y (dependiente/ de respuesta) en base a los valores de una variable independiente, o
explicativa, X. Se busca entonces modelar esta relación, implicando efectos causales. Sirve
también para cuantificar el peso de ciertas variables independientes sobre la dependiente.
Está vinculado con el análisis de correlación, ya que al parámetro de correlación lineal

OM
𝜌 se lo estima mediante r, que resulta igual a la raíz cuadrada del 𝑟 2 del análisis de regresión.
El r, a su vez, asume el signo del estimador de la pendiente 𝑏1 del análisis de regresión. De aquí
es que se puede ver que siempre que r tienda a -1 o a 1, el 𝑟 2 (coeficiente de determinación)
va a tender a 1.
El coeficiente de determinación mide la proporción de variabilidad total de la variable de
respuesta que es explicada por el modelo de regresión propuesto. Se obtiene de la siguiente
𝑆𝐶𝑅

.C
forma: 𝑟 2 = 𝑆𝐶𝑇 .
El análisis de regresión puede ser hecho mediante modelos lineales y modelos no lineales
(no se ven en esta asignatura) y a su vez dentro de los lineales están el simple y el múltiple.
DD
Modelo de regresión lineal simple
En el modelo de regresión lineal simple el cambio unitario en una variable (x) afecta y
provoca un cambio en otra (y) a una tasa constante 𝛽1 . Esta tasa constante es la pendiente
poblacional y es estimada a través de 𝑏1 . La ecuación de regresión poblacional es una recta
que describe la dependencia del valor promedio (media condicional) de una variable sobre la
otra.
LA
FI


La estimación de estos parámetros poblacionales se hará en base a pares de datos (x,y)


que se obtengan de una muestra. La recta de regresión muestral provee una estimación de la
recta poblacional y pronósticos del valor de Y. Cuantifica la relación entre las variables.

59

Este archivo fue descargado de https://filadd.com


Para poder realizar el análisis de regresión lineal es necesario que se cumplan ciertos
supuestos:
● Que los valores de Y se distribuyan normalmente para cada valor de x;
● Que la distribución de los errores sea normal;
● Que los errores sean independientes;
● Que se cumpla la homocedasticidad (varianza constante).

Los parámetros de la recta de regresión pueden ser aproximados mediante estimadores de


máxima verosimilitud, obtenidos por: i) Método de máxima verosimilitud; ii) Método de
mínimos cuadrados.

A partir de ambos métodos el resultado final es el mismo. El método de mínimos


cuadrados se basa en buscar la recta de regresión que minimice la suma del cuadrado de los
errores. Su proceso es el siguiente:

OM
𝑛 𝑛 𝑛

∑ (𝑦𝑖 − 𝑦̂𝑖 )2 =∑ 𝑒𝑖2 =∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )2


𝑖=1 𝑖=1 𝑖=1

CPO:

.C
𝑛
𝜕 ∑𝑛𝑖=1 (𝑦𝑖 − 𝑦̂𝑖 )2
= −2 ∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )1 = 0
𝜕𝑏0
𝑖=1
DD
𝑛
𝜕 ∑𝑛𝑖=1 (𝑦𝑖 − 𝑦̂𝑖 )2
=∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )1 = 0
𝜕𝑏0
𝑖=1

Obtenemos la siguiente ecuación normal:


LA

𝑛 𝑛

∑ 𝑦𝑖 = 𝑛𝑏0 + 𝑏1 ∑ 𝑥𝑖
𝑖=1 𝑖=1

Dividida por n:
FI

𝑌 = 𝑏0 + 𝑏1 𝑋 (1)
𝑏0 = 𝑌 − 𝑏1 𝑋

El estimador para el otro parámetro:




𝑛
𝜕 ∑𝑛𝑖=1 (𝑦𝑖 − 𝑦̂𝑖 )2
= −2𝑥𝑖 ∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )1 = 0
𝜕𝑏1
𝑖=1

𝑛
𝜕 ∑𝑛𝑖=1 (𝑦𝑖 − 𝑦̂𝑖 )2
= 𝑥𝑖 ∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )1 = 0
𝜕𝑏1
𝑖=1

Siendo la siguiente la ecuación normal:

𝑛 𝑛 𝑛

∑ 𝑦𝑖 𝑥𝑖 = 𝑏0 ∑ 𝑥𝑖 + 𝑏1 ∑ 𝑥𝑖2
𝑖=1 𝑖=1 𝑖=1

60

Este archivo fue descargado de https://filadd.com


Si se la divide por n y se le resta 𝑋 por la ecuación (1) obtenemos:

∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖 ∑𝑛𝑖=1 𝑥𝑖 ∑𝑛𝑖=1 𝑥𝑖2


− 𝑋𝑌 = 𝑏0 − 𝑏0 𝑋 + 𝑏1 − 𝑏1 𝑋 2
𝑛 𝑛 𝑛

∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖 ∑𝑛𝑖=1 𝑥𝑖2


− 𝑋𝑌 = 𝑏1 ( − 𝑋2)
𝑛 𝑛

∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖
( − 𝑋𝑌)
𝑛
= 𝑏1
∑𝑛 𝑥2

OM
( 𝑖=1𝑛 𝑖 − 𝑋 2 )

∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖 − 𝑛𝑋𝑌
( 𝑛 )
= 𝑏1
∑𝑛𝑖=1 𝑥𝑖2 − 𝑛𝑋 2
( )

.C
𝑛

∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖 − 𝑛𝑋𝑌
DD
= 𝑏1
∑𝑛𝑖=1 𝑥𝑖2 − 𝑛𝑋 2

Quedando:

𝐶𝑜𝑣(𝑥, 𝑦) ∑ 𝑦𝑖 𝑥𝑖 − 𝑛𝑥𝑦
𝑏1 = =
LA

𝑆𝑥2 ∑ 𝑥𝑖2 − 𝑛𝑥 2

Teniendo en cuenta los supuestos de normalidad y homocedasticidad de los errores podemos


ver que:
FI

𝐸(𝑏0 ) = 𝐸(𝛽 ̂0 ) = 𝛽0 y ̂0 ) = 𝜎 2 [1 +
𝑉𝑎𝑟(𝑏0 ) = 𝑉𝑎𝑟(𝛽 𝑛
𝑥2
∑𝑛 (𝑥𝑖 −𝑥)2
]
𝑖=1

𝜎2
̂1 ) = 𝛽1 ̂1 ) = 𝑛


𝐸(𝑏1 ) = 𝐸(𝛽 y 𝑉𝑎𝑟(𝑏1 ) = 𝑉𝑎𝑟(𝛽 ∑ 2


𝑖=1 (𝑥𝑖 −𝑥)

1 𝑥2
𝑏0 ~𝑁 (𝛽0 ; 𝜎 2 [ + 2 ])
𝑛 ∑𝑛 (𝑥𝑖 − 𝑥)
𝑖=1

𝜎2
𝑏1 ~𝑁 (𝛽1 ; 2)
∑𝑛𝑖=1 (𝑥𝑖 − 𝑥)

Dijimos entonces que los propósitos del análisis de regresión son 2: i) encontrar un
mecanismo para mejorar nuestras estimaciones a partir de la posibilidad de estimar medias
poblacionales (estimar valores medios); ii) disponer de una herramienta de previsión de la

61

Este archivo fue descargado de https://filadd.com


variable de respuesta ante valores de la variable independiente, quizás aún no asumidos o
futuros (estimar valores individuales).
El modelo de regresión múltiple es una generalización del modelo de regresión lineal
simple para 2 o más variables independientes (sigue siendo un modelo lineal).

35. Tipos de modelos de regresión. Modelo probabilístico lineal simple. Estimación de los
parámetros del modelo mediante máxima verosimilitud. Supuestos básicos del análisis de
regresión.

Análisis de regresión.
En el análisis de regresión estamos interesados en la posibilidad de predecir una
variable Y (dependiente/ de respuesta) en base a los valores de una variable independiente, o
explicativa, X. Se busca entonces modelar esta relación, implicando efectos causales. Sirve
también para cuantificar el peso de ciertas variables independientes sobre la dependiente.

OM
Está vinculado con el análisis de correlación, ya que al parámetro de correlación lineal
𝜌 se lo estima mediante r, que resulta igual a la raíz cuadrada del 𝑟 2 del análisis de regresión.
El r, a su vez, asume el signo del estimador de la pendiente 𝑏1 del análisis de regresión. De aquí
es que se puede ver que siempre que r tienda a -1 o a 1, el 𝑟 2 (coeficiente de determinación)
va a tender a 1.
El coeficiente de determinación mide la proporción de variabilidad total de la variable de

.C
respuesta que es explicada por el modelo de regresión propuesto. Se obtiene de la siguiente
𝑆𝐶𝑅
forma: 𝑟 2 = .
𝑆𝐶𝑇
El análisis de regresión puede ser hecho mediante modelos lineales y modelos no lineales
(no se ven en esta asignatura) y a su vez dentro de los lineales están el simple y el múltiple.
DD
Modelo de regresión lineal simple
En el modelo de regresión lineal simple el cambio unitario en una variable (x) afecta y
provoca un cambio en otra (y) a una tasa constante 𝛽1 . Esta tasa constante es la pendiente
poblacional y es estimada a través de 𝑏1 . La ecuación de regresión poblacional es una recta
que describe la dependencia del valor promedio (media condicional) de una variable sobre la
LA

otra.

La estimación de estos
FI

parámetros poblacionales se hará


en base a pares de datos (x,y) que se
obtengan de una muestra. La recta
de regresión muestral provee una
estimación de la recta poblacional y pronósticos del valor de Y. Cuantifica la relación entre las


variables.

Para poder realizar el análisis de regresión lineal es necesario que se cumplan ciertos
supuestos, verificados gracias al análisis residual, que busca examinar la linealidad y evaluar
violaciones de supuestos:
62

Este archivo fue descargado de https://filadd.com


● Que los valores de Y se distribuyan normalmente para cada valor de x, verificable con
las siguientes herramientas: Q-Q Plot, histograma, gráfico de cajas, prueba de Shapiro-
Wilks, prueba de Kolgomorov-Smirnov, etc.

OM
● Que la distribución de los errores sea normal;

.C
DD
LA
FI


● Que los errores sean independientes;

63

Este archivo fue descargado de https://filadd.com


● Que se cumpla la homocedasticidad (varianza constante).

OM
Los parámetros de la recta de regresión pueden ser aproximados mediante
estimadores de máxima verosimilitud, obtenidos por: i) Método de máxima verosimilitud; ii)
Método de mínimos cuadrados.
A partir de ambos métodos el resultado final es el mismo. El método de máxima
verosimilitud, a partir de incorporar los supuestos del análisis de regresión, busca maximizar la

.C
función de probabilidad conjunta de la muestra completa, derivando respecto a los
parámetros a estimar (𝛽0 , 𝛽1 ) e igualando a cero. Su proceso es el siguiente:

1 −
1
(𝑦 −𝑏 −𝑏 𝑥 )2
𝐿(𝛽0 , 𝛽1 , 𝜎 2 , 𝑦𝑖 ) = 𝑒 2𝜎2 𝑖 0 1 𝑖
DD
√2𝜋𝜎 2
𝑛
1 −
1
∑ (𝑦𝑖 −𝑏0 −𝑏1 𝑥𝑖 )2
𝐿(𝛽0 , 𝛽1 , 𝜎 2 ) = ( ) 𝑒 2𝜎2
√2𝜋𝜎 2
LA

𝑛 1
− ∑ (𝑦𝑖 −𝑏0 −𝑏1 𝑥𝑖 )2
𝑙𝑛 𝑙𝑛 𝐿(𝛽0 , 𝛽1 , 𝜎 2 ) =𝑙𝑛 𝑙𝑛 (2𝜋𝜎 2 )−2 +𝑙𝑛 𝑙𝑛 𝑒 2𝜎2

𝑛
𝑛 𝑛 1
𝑙𝑛 𝑙𝑛 𝐿(𝛽0 , 𝛽1 , 𝜎 2 ) = − 𝑙𝑛 𝑙𝑛 2𝜋 − 𝑙𝑛 𝑙𝑛 𝜎 2 − 2 ∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )2
2 2 2𝜎
FI

𝑖=1

CPO:
𝑛
𝜕 𝑙𝑛 𝑙𝑛 𝐿(𝛽0 , 𝛽1 , 𝜎 2 ) 1
= 2∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )1
𝜕𝛽0 𝜎


𝑖=1

𝑛
𝜕 𝑙𝑛 𝑙𝑛 𝐿(𝛽0 , 𝛽1 , 𝜎 2 )
=∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )1 = 0
𝜕𝛽0
𝑖=1

Obtenemos la siguiente ecuación normal:


𝑛 𝑛

∑ 𝑦𝑖 = 𝑛𝑏0 + 𝑏1 ∑ 𝑥𝑖
𝑖=1 𝑖=1

Dividida por n:
64

Este archivo fue descargado de https://filadd.com


𝑌 = 𝑏0 + 𝑏1 𝑋 (1)
𝑏0 = 𝑌 − 𝑏1 𝑋

El estimador para 𝛽1 :
𝑛
𝜕 𝑙𝑛 𝑙𝑛 𝐿(𝛽0 , 𝛽1 , 𝜎 2 )
= 𝑥𝑖 ∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )1 = 0
𝜕𝛽1
𝑖=1

Siendo la siguiente la ecuación normal:

OM
𝑛 𝑛 𝑛

∑ 𝑦𝑖 𝑥𝑖 = 𝑏0 ∑ 𝑥𝑖 + 𝑏1 ∑ 𝑥𝑖2
𝑖=1 𝑖=1 𝑖=1

Si se la divide por n y se le resta 𝑋 por la ecuación (1) obtenemos:

.C
∑𝑛𝑖=1
𝑛
𝑦𝑖 𝑥𝑖
− 𝑋𝑌 = 𝑏0
∑𝑛𝑖=1 𝑥𝑖
𝑛
− 𝑏0 𝑋 + 𝑏1
∑𝑛𝑖=1 𝑥𝑖2
𝑛
− 𝑏1 𝑋 2
DD
∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖 ∑𝑛𝑖=1 𝑥𝑖2
− 𝑋𝑌 = 𝑏1 ( − 𝑋2)
𝑛 𝑛

∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖
LA

( 𝑛 − 𝑋𝑌)
= 𝑏1
∑𝑛 𝑥2
( 𝑖=1𝑛 𝑖 − 𝑋 2 )
FI

∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖 − 𝑛𝑋𝑌
( 𝑛 )
= 𝑏1
∑𝑛𝑖=1 𝑥𝑖2 − 𝑛𝑋 2
( 𝑛 )


∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖 − 𝑛𝑋𝑌
= 𝑏1
∑𝑛𝑖=1 𝑥𝑖2 − 𝑛𝑋 2

Quedando:
𝐶𝑜𝑣(𝑥, 𝑦) ∑ 𝑦𝑖 𝑥𝑖 − 𝑛𝑥𝑦
𝑏1 = =
𝑆𝑥2 ∑ 𝑥𝑖2 − 𝑛𝑥 2

Teniendo en cuenta los supuestos de normalidad y homocedasticidad de los errores podemos


ver que:

65

Este archivo fue descargado de https://filadd.com


̂0 ) = 𝛽0
𝐸(𝑏0 ) = 𝐸(𝛽 y ̂0 ) = 𝜎 2 [1 +
𝑉𝑎𝑟(𝑏0 ) = 𝑉𝑎𝑟(𝛽 𝑛
𝑥2
∑𝑛 (𝑥𝑖 −𝑥)2
]
𝑖=1

𝜎2
̂1 ) = 𝛽1
𝐸(𝑏1 ) = 𝐸(𝛽 y ̂1 ) = 𝑛
𝑉𝑎𝑟(𝑏1 ) = 𝑉𝑎𝑟(𝛽 2
∑ 𝑖=1 (𝑥𝑖 −𝑥)

1 𝑥2
𝑏0 ~𝑁 (𝛽0 ; 𝜎 2 [ + 2 ])
𝑛 ∑𝑛 (𝑥𝑖 − 𝑥)
𝑖=1

𝜎2
𝑏1 ~𝑁 (𝛽1 ; 2)

OM
∑𝑛𝑖=1 (𝑥𝑖 − 𝑥)

.C
El estimador para 𝜎 2 :
𝜕 𝑙𝑛 𝑙𝑛 𝐿(𝛽0 , 𝛽1 , 𝜎 2 )
𝜕𝜎 2
𝑛 1
= − 2 + 4∑
2𝜎 2𝜎
𝑛
(𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )2
DD
𝑖=1

𝑛
𝜕 𝑙𝑛 𝑙𝑛 𝐿(𝛽0 , 𝛽1 , 𝜎 2 ) 𝑛𝑠 2 1
= − + ∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )2 = 0
𝜕𝜎 2 2𝑠 4 2𝑠 4
𝑖=1
LA

𝑛
2 (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )2 = 0
−𝑛𝑠 + ∑
𝑖=1

𝑛
FI

∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )2 = 𝑛𝑠 2
𝑖=1

∑𝑛𝑖=1 (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )2


2
= 𝑠𝑥𝑦
𝑛−2

Dijimos entonces que los propósitos del análisis de regresión son 2: i) encontrar un
mecanismo para mejorar nuestras estimaciones a partir de la posibilidad de estimar medias
poblacionales (estimar valores medios); ii) disponer de una herramienta de previsión de la
variable de respuesta ante valores de la variable independiente, quizás aún no asumidos o
futuros (estimar valores individuales).
El modelo de regresión múltiple es una generalización del modelo de regresión lineal simple
para 2 o más variables independientes (sigue siendo un modelo lineal).

36. Regresión lineal simple: Error estándar de la regresión. Inferencias relativas a la


pendiente.

66

Este archivo fue descargado de https://filadd.com


En el análisis de regresión estamos interesados en la posibilidad de predecir una
variable Y (dependiente/ de respuesta) en base a los valores de una variable independiente, o
explicativa, X. Se busca entonces modelar esta relación, implicando efectos causales. Sirve
también para cuantificar el peso de ciertas variables independientes sobre la dependiente.
Está vinculado con el análisis de correlación, ya que al parámetro de correlación lineal
𝜌 se lo estima mediante r, que resulta igual a la raíz cuadrada del 𝑟 2 del análisis de regresión.
El r, a su vez, asume el signo del estimador de la pendiente 𝑏1 del análisis de regresión. De aquí
es que se puede ver que siempre que r tienda a -1 o a 1, el 𝑟 2 (coeficiente de determinación)
va a tender a 1.
A través de un diagrama de dispersión podemos ver gráficamente el comportamiento
de la variable de respuesta a distintos valores de la variable independiente. Según como estén
distribuidos los puntos en el gráfico podremos ver:
● Relación lineal positiva (a mayores valores de x, mayores valores de y a una tasa
relativamente constante).

OM
● Relación lineal negativa (a mayores valores de x, menores valores de y a una tasa
relativamente constante).
● Relación no lineal (pueden existir rendimientos crecientes o decrecientes a medida
que aumenta el valor de x).
● No hay relación (cuando no existe un patrón que vincula ambas variables).

.C
El análisis de regresión puede ser hecho mediante modelos lineales y modelos no lineales
(no se ven en esta asignatura) y a su vez dentro de los lineales están el simple y el múltiple.
En el modelo de regresión lineal simple el cambio unitario en una variable (x) afecta y
provoca un cambio en otra (y) a una tasa constante 𝛽1 . Esta tasa constante es la pendiente
DD
poblacional y es estimada a través de 𝑏1 . La ecuación de regresión poblacional es una recta
que describe la dependencia del valor promedio (media condicional) de una variable sobre la
otra.
LA
FI

En la ecuación de la recta se puede ver que hay un término de error aleatorio, que
registra las diferencias que se producen entre los puntos graficados en el diagrama de
dispersión y la recta que hipotéticamente los vincula. Estas diferencias se deben a la influencia


de otras variables que no están presentes en el modelo.


El valor de la pendiente poblacional (𝛽1 ) mide el cambio en el valor promedio de Y
(variable de respuesta) como resultado de un cambio unitario en X (variable independiente).
El valor de la constante poblacional (𝛽0 ) mide el valor promedio de Y cuando el valor
de X es cero.
Tanto la pendiente poblacional como la constante poblacional pueden estimarse. La
estimación de estos parámetros poblacionales se hará en base a pares de datos (x,y) que se
obtengan de una muestra. La recta de regresión muestral provee una estimación de la recta
poblacional y pronósticos del valor de Y. Cuantifica la relación entre las variables.

67

Este archivo fue descargado de https://filadd.com


Aquí el término error
también es estimado. Existe
una relación entre el error estándar de la estimación y la suma de cuadrados de los errores. La
relación se puede ver en la siguiente fórmula:
√𝑆𝐶𝐸 𝑆𝐶𝐸
𝑆𝑥𝑦 = =√ .
√𝑛−2 𝑛−2

OM
El error estimado es la diferencia entre el valor de Y estimado por el modelo y el valor
de Y realmente observado.
𝑒𝑖 = 𝑌𝑖 − 𝑌̂𝑖 = 𝑌𝑖 − 𝑏0 − 𝑏1 𝑥𝑖

El error estándar estimado queda entonces como

.C
2
∑ 𝑛
(𝑌𝑖 − 𝑌̂𝑖 )
𝑆𝑥𝑦 = √ 𝑖=1
𝑛−2
DD
LA

37. Regresión lineal múltiple: Tabla ANOVA de la regresión. Supuestos e interpretación.

En el análisis de regresión estamos interesados en la posibilidad de predecir una


variable Y (dependiente/ de respuesta) en base a los valores de una variable independiente, o
FI

explicativa, X. Se busca entonces modelar esta relación, implicando efectos causales. Sirve
también para cuantificar el peso de ciertas variables independientes sobre la dependiente.
Está vinculado con el análisis de correlación, ya que al parámetro de correlación lineal
𝜌 se lo estima mediante r, que resulta igual a la raíz cuadrada del 𝑟 2 del análisis de regresión.
El r, a su vez, asume el signo del estimador de la pendiente 𝑏1 del análisis de regresión. De aquí


es que se puede ver que siempre que r tienda a -1 o a 1, el 𝑟 2 (coeficiente de determinación)


va a tender a 1.
A través de un diagrama de dispersión podemos ver gráficamente el comportamiento
de la variable de respuesta a distintos valores de la variable independiente. Según como estén
distribuidos los puntos en el gráfico podremos ver:
● Relación lineal positiva (a mayores valores de x, mayores valores de y a una tasa
relativamente constante).
● Relación lineal negativa (a mayores valores de x, menores valores de y a una tasa
relativamente constante).
● Relación no lineal (pueden existir rendimientos crecientes o decrecientes a medida
que aumenta el valor de x).
● No hay relación (cuando no existe un patrón que vincule a ambas variables).

68

Este archivo fue descargado de https://filadd.com


En el caso de regresión múltiple, solo podemos realizar el gráfico de dispersión cuando
tenemos 2 variables independientes (𝑅 3 ) ya que tenemos inconvenientes para graficar más de
3 dimensiones.
El coeficiente de determinación mide la proporción de variabilidad total de la variable de
respuesta que es explicada por el modelo de regresión propuesto. Se obtiene de la siguiente
𝑆𝐶𝑅
forma: 𝑟 2 = 𝑆𝐶𝑇 .
El análisis de regresión puede ser hecho mediante modelos lineales y modelos no lineales
(no se ven en esta asignatura) y a su vez dentro de los lineales están el simple y el múltiple.
El modelo de regresión múltiple es una generalización del modelo de regresión lineal simple
para 2 o más variables independientes (sigue siendo un modelo lineal).
Cuando se hace una regresión múltiple se usa una tabla ANOVA como la siguiente:

OM
Donde

.C
DD
𝐶𝑀𝑅
El estadístico F, que es el cociente 𝐶𝑀𝐸 lleva “p” grados de libertad en el numerador y
“n-p-1” grados de libertad en el denominador. Se compara con el F crítico de iguales grados de
libertad para un nivel de significación establecido a priori y si 𝐹 𝑜𝑏𝑠 > 𝐹 ∗, entonces se rechaza
la hipótesis nula de que todas las pendientes son cero. O lo que es lo mismo, se rechaza que el
modelo de manera global no tiene poder explicativo.
LA

Se puede realizar la prueba mediante la confrontación del p-value del F respecto del α.
Para p-value≥ α no se rechaza la hipótesis nula.
A su vez, también se puede realizar una prueba t para cada pendiente (siempre
probando de a muchas variables independientes a la vez, ya que cambia el valor de t y su p-
value cuando se agregan o se sacan otras variables independientes). Los test t individuales
FI

asignan la importancia de un predictor después que otros predictores ya están incluidos en el


modelo.
𝑜𝑏𝑠 𝑏𝑖 −𝛽𝑖
El estadístico de la prueba t es 𝑡𝑛−𝑝−1 = y se puede
𝑆𝑏𝑖
realizar un intervalo de confianza para el valor del parámetro 𝛽𝑖 de la


siguiente forma .

La regla de decisión para esta prueba es la misma que siempre.

𝑜𝑏𝑠
Rechazo 𝐻0 si 𝑡𝑛−𝑝−1 ∗
> 𝑡𝑛−𝑝−1 o si 𝑝 − 𝑣𝑎𝑙𝑢𝑒 <∝.

Al hacer las pruebas t, vamos a enfrentarnos al problema de cuál es el indicador en el


que debemos basarnos para establecer que una variable independiente debe o no estar en el
2
modelo. Por un lado vamos a tener que, si buscamos maximizar el 𝑟𝑎𝑗𝑢𝑠𝑡𝑎𝑑𝑜 o minimizar la
suma de cuadrados del error, tenderemos a agregar muchos predictores.
Por el otro, si lo que buscamos son fuertes pruebas t-individuales o seguimos el
principio de parsimonia, pues lo que haremos será contar con menos predictores. La decisión
final reside en el criterio del investigador, que debe evitar caer en las trampas éticas, recordar

69

Este archivo fue descargado de https://filadd.com


los fundamentos teóricos que existen en el área que está investigando y hacer uso del sentido
común.
Al modelo de regresión se le pueden agregar variables categóricas (Dummy), que solo
pueden asumir dos valores (Si-No / Éxito-Fracaso / Mujer-Hombre) y se codifican con cero y
uno según la categoría. Estos modelos suponen iguales pendientes entre categorías pero
distinta ordenada al origen. Tienen que tener 2 o más niveles y el número de variables dummy
necesarias es 𝑛°𝑛𝑖𝑣𝑒𝑙𝑒𝑠 − 1. El modelo de regresión tiene la misma forma.

Los supuestos del análisis de regresión múltiple son:


● Que los valores de Y se distribuyan normalmente para cada valor de x, verificable con
las siguientes herramientas: Q-Q Plot, histograma, gráfico de cajas, prueba de Shapiro-
Wilks, prueba de Kolgomorov-Smirnov, etc.

OM
.C
DD
● Que la distribución de los errores sea normal;
LA
FI


● Que los errores sean independientes;

70

Este archivo fue descargado de https://filadd.com


● Que se cumpla la homocedasticidad (varianza constante).

OM
.C
DD
38. Regresión lineal simple: Estimación de valores medios y particulares de la variable
dependiente.

En el análisis de regresión estamos interesados en la posibilidad de predecir una


LA

variable Y (dependiente/ de respuesta) en base a los valores de una variable independiente, o


explicativa, X. Se busca entonces modelar esta relación, implicando efectos causales. Sirve
también para cuantificar el peso de ciertas variables independientes sobre la dependiente.
A través de un diagrama de dispersión podemos ver gráficamente el comportamiento
de la variable de respuesta a distintos valores de la variable independiente. Según como estén
FI

distribuidos los puntos en el gráfico podremos ver:


● Relación lineal positiva (a mayores valores de x, mayores valores de y a una tasa
relativamente constante).
● Relación lineal negativa (a mayores valores de x, menores valores de y a una tasa
relativamente constante).


● Relación no lineal (pueden existir rendimientos crecientes o decrecientes a medida


que aumenta el valor de x).
● No hay relación (cuando no existe un patrón que vincule a ambas variables).

El análisis de regresión puede ser hecho mediante modelos lineales y modelos no lineales
(no se ven en esta asignatura) y a su vez dentro de los lineales están el simple y el múltiple.
En el modelo de regresión lineal simple el cambio unitario en una variable (x) afecta y
provoca un cambio en otra (y) a una tasa constante 𝛽1 . Esta tasa constante es la pendiente
poblacional y es estimada a través de 𝑏1 . La ecuación de regresión poblacional es una recta
que describe la dependencia del valor promedio (media condicional) de una variable sobre la
otra.

71

Este archivo fue descargado de https://filadd.com


Tanto la pendiente
poblacional como la constante poblacional pueden estimarse. La estimación de estos
parámetros poblacionales se hará en base a pares de datos (x,y) que se obtengan de una
muestra. La recta de regresión muestral provee una estimación de la recta poblacional y
pronósticos del valor de Y. Cuantifica la relación entre las variables.

OM
.C
Dijimos entonces que los propósitos del análisis de regresión son 2: i) encontrar un
DD
mecanismo para mejorar nuestras estimaciones a partir de la posibilidad de estimar medias
poblacionales (estimar valores medios); ii) disponer de una herramienta de previsión de la
variable de respuesta ante valores de la variable independiente, quizás aún no asumidos o
futuros (estimar valores individuales).
Al estimar una media condicional, la precisión es mayor y depende de la distancia del
valor particular de x para el que queremos considerar la media. A valores de x cercanos a 𝑋, la
LA

precisión será mayor.


La fórmula del intervalo de confianza para 𝜇𝑌|𝑋=𝑋𝑖 es la siguiente:
FI


Cuando el objetivo es predecir un valor individual de Y ante un particular valor de X, la


estimación es menos precisa. A valores particulares de x cercanos a 𝑋, la precisión será mayor.
La fórmula del intervalo de confianza para 𝑌𝑖 |𝑋 = 𝑋𝑖 es:

72

Este archivo fue descargado de https://filadd.com


Gráficamente estos intervalos podrían verse así:

OM
39. Series de tiempo. Concepto. La importancia de los pronósticos. Componentes del modelo
clásico de series de tiempo.

Las series de tiempo son modelos que buscan predecir el comportamiento de una
variable (Y), en base a la propia historia de dicha variable. Se trata de algo así como pararse en
un momento del tiempo (presente) y “mirar hacia atrás” y ver cómo se comportó la variable en

.C
cuestión, suponiendo que ese comportamiento pasado permitirá predecir adecuadamente lo
que ocurrirá en el futuro. Utiliza herramientas del análisis de regresión.
El comportamiento de la serie generalmente no es regular y es por eso que es
DD
necesario a veces someter lo datos a ciertos tratamientos, para hacer posible un análisis de su
comportamiento y la predicción de su trayectoria en el futuro.
Se pueden clasificar el tratamiento de las series en:
● Métodos por descomposición, que permiten explicar el comportamiento de la variable
con el fin de proporcionar medios para predecir valores futuros, basándose en
observaciones del pasado y del presente;
LA

● Modelados llamados causales (se basan en características particulares de la variable


para definir un modelo que reproduce los valores de la serie con el menor error
posible y bajo determinadas condiciones estadísticas, con el fin de predecir valores
futuros de la variable).
FI

Los pronósticos son muy importantes, ya que son una herramienta muy utilizada hoy por
la mayoría de personas e instituciones. Por ejemplo, lo usan los gobiernos para su planificación
económica, las empresas para saber cuánto, cómo, dónde producir, invertir, vender, etc., los
consumidores al momento de comprar o no determinados bienes, etc. Es así que, hoy todos
los planes para el futuro se basan en una pronosticación.


Además, un pronóstico puede también hacerse sobre la base de otros pronósticos y por lo
tanto es fundamental que éstos sean lo más precisos posible.
Un buen pronóstico necesita de teoría económica, conocimientos estadísticos y familiaridad
con la información relevante.
Algunos de los métodos estadísticos por descomposición (clásicos) de series de tiempo son
el aditivo y el multiplicativo. Están ambos conformados por 4 componentes:

● Tendencial: determina el comportamiento global de la serie y muestra cómo


evoluciona la variable a lo largo del tiempo (si de manera creciente, decreciente o si no
crece ni decrece). Se clasifica como sistemático, está influenciado por cambios
tecnológicos, poblacionales, en riqueza y en valores. Dura varios años y es de largo
plazo
● Estacional: aquellas variaciones causadas por efectos “estacionales” (aquellos que se
producen en períodos cortos y en forma recurrente año tras año en la misma época).

73

Este archivo fue descargado de https://filadd.com


Se los asocia a las estaciones climáticas, aunque no es necesariamente siempre así.
Tienen que ser dentro del período de un año y no lo pueden exceder, ya que si este es
el caso pasan a formar parte de la componente cíclica. Se lo clasifica como sistemático
y está influenciado por las condiciones climáticas, hábitos y costumbres sociales y/o
religiosas. Su duración es dentro de los doce meses y es necesario que se repita en la
misma época.
● Cíclico: incluye el efecto de factores que generan cambios en períodos largos y suele
asociarse con los ciclos económicos. Se considera que los cambios observados en los
ciclos corresponden a 4 etapas:
⮚ Expansión.
⮚ Prosperidad.
⮚ Recesión.
⮚ Depresión.

OM
Es clasificado como sistemático, está influenciado por la interacción de múltiples factores que
influyen en la economía y se dan entre 2 y 10 años, con diferente intensidad en un
ciclo completo.
● Irregular: se da por efecto de todos los factores no considerados anteriormente. Actúa
en el corto plazo y puede ser considerado como permanente o excepcional.
Permanente cuando son variaciones ocurridas en cada momento del tiempo,
provocadas por múltiples factores que actúan sobre la variable desviándola de los

.C
valores predecibles si sólo actuaran los factores tenidos en cuenta. Excepcional cuando
son variaciones motivadas por accidentes o catástrofes imposibles de
predecir/controlar. Se clasifican como no sistemático, son de corta duración y no se
repiten.
DD
40. Series de tiempo. Ajuste de tendencia y aislamiento de las demás componentes. Cálculo
de índices de estacionalidad y aplicaciones.

Las series de tiempo son modelos que buscan predecir el comportamiento de una
variable (Y), en base a la propia historia de dicha variable. Se trata de algo así como pararse en
LA

un momento del tiempo (presente) y “mirar hacia atrás” y ver cómo se comportó la variable en
cuestión, suponiendo que ese comportamiento pasado permitirá predecir adecuadamente lo
que ocurrirá en el futuro. Utiliza herramientas del análisis de regresión.
En las series anuales se refleja solamente la influencia de los componentes: cíclico y
tendencia, quedando como residuo el componente irregular. Para su correcto tratamiento, si
FI

la serie está expresada en unidades monetarias es recomendable deflactar los precios para
eliminar el efecto de la inflación y expresar los datos en unidades homogéneas.
Luego, es necesario codificar el tiempo, lo cual facilitará la realización de operaciones.
Estos métodos se llaman métodos de ajuste y están muy relacionados al análisis de regresión,
caracterizando al tiempo como la variable explicativa o independiente.


Para analizar el componente tendencial se puede utilizar el método de ajustamiento


de mínimos cuadrados, que busca la expresión analítica de la función que mejor ajusta a los
datos observados, de modo tal que se minimice la suma de cuadrados del error.
Existen diversos tipos de comportamiento de los datos como por ejemplo el que
corresponde con una función lineal, cuadrática, exponencial o potencial.

1.1. Caso función lineal:


𝑦𝑖 = 𝛽0 + 𝛽1 𝑥 + 𝜀𝑖

Aplicando el método de mínimos cuadrados se puede obtener la siguiente recta estimada:

𝑦̂𝑖 = 𝑏0 + 𝑏1 𝑥

74

Este archivo fue descargado de https://filadd.com


Los valores de 𝑏0 y 𝑏1 se obtienen a partir de minimizar la suma de cuadrados de los errores.

𝑓(𝑏0 , 𝑏1 ) = ∑ [𝑦𝑖 − (𝑏0 + 𝑏1 𝑥𝑖 )]2

𝜕𝑓(𝑏0 , 𝑏1 )
= −2 [∑ 𝑦𝑖 − 𝑛𝑏0 + 𝑏1 ∑ 𝑥𝑖 ]
𝜕𝑏0

OM
𝜕𝑓(𝑏0 , 𝑏1 )
= −2 (∑ 𝑦𝑖 𝑥𝑖 − 𝑏0 ∑ 𝑥𝑖 + 𝑏1 ∑ 𝑥𝑖2 )
𝜕𝑏1

.C −2 [∑ 𝑦𝑖 − 𝑛𝑏0 + 𝑏1 ∑ 𝑥𝑖 ] = 0
DD
−2 (∑ 𝑦𝑖 𝑥𝑖 − 𝑏0 ∑ 𝑥𝑖 + 𝑏1 ∑ 𝑥𝑖2 ) = 0
LA

Obtenemos el siguiente sistema:

{∑ 𝑦𝑖 = 𝑛𝑏0 + 𝑏1 ∑ 𝑥𝑖 ∑ 𝑦𝑖 𝑥𝑖 = 𝑏0 ∑ 𝑥𝑖 + 𝑏1 ∑ 𝑥𝑖2
FI

𝑛 ∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖 − ∑𝑛𝑖=1 𝑦𝑖 ∑𝑛𝑖=1 𝑥𝑖


𝑏1 = 2
𝑛 ∑𝑛𝑖=1 𝑥𝑖2 − (∑𝑛𝑖=1 𝑥𝑖 )


∑𝑛𝑖=1 𝑦𝑖 ∑𝑛𝑖=1 𝑥𝑖
𝑏0 = − 𝑏1
𝑛 𝑛

Se usa en caso de que las primeras diferencias se mantengan constantes.

1.2. Caso tendencia no lineal:


1.2.1. Caso tendencia cuadrática:

Su forma analítica es la siguiente


𝑦̂ = 𝑏0 + 𝑏1 𝑥 + 𝑏2 𝑥 2

Los b’s se pueden estimar por el método de mínimos cuadrados. Este caso es usado cuando las
segundas diferencias se mantienen constantes.
75

Este archivo fue descargado de https://filadd.com


1.2.2. Caso tendencia
potencial:

Su forma analítica es la siguiente


𝑥
𝑦̂𝑖 = 𝑏0 𝑏1 𝑖

Y se puede aplicar logaritmo o logaritmo natural para hacerla más fácil:

Los b’s se pueden obtener por el método de mínimo cuadrado.

OM
Este modelo de tendencia es utilizado cuando las diferencias porcentuales se mantienen
constantes.

.C
1.2.3 Caso tendencia exponencial

Su forma analítica es la siguiente


𝑦̂𝑖 = 𝑏0 𝑒 𝑏1 𝑥𝑖 ó 𝑙𝑛𝑦̂𝑖 = 𝑙𝑛𝑏0 + 𝑏1 𝑥𝑖
DD
Al tener en cuenta ahora períodos de tiempo inferiores al año, entran en nuestro
modelo los cuatro componentes: tendencial, cíclico, estacional e irregular.
Cuando se usa el modelo multiplicativo, este producto debe estar expresado en las
unidades correspondientes (las mismas que Y). Si la tendencia se expresa en esas unidades, las
demás componentes deben ser índices o coeficientes que modifican el valor de la tendencia.
LA

Si el que se está usando es el modelo aditivo, todas las componentes deben ir en las
mismas unidades (porque se suman).

Cómo obtener el índice de estacionalidad:


Utilizaremos el método del promedio móvil, y si es necesario usaremos el promedio
FI

móvil centrado (se usa en caso de que la cantidad de “estaciones”/sub-períodos sea par). Ese
modelo permite suavizar los picos que se generan en el corto plazo, aislando así su efecto y
dejando que sólo esté el componente tendencial.
El primer paso a seguir es tomar promedios móviles de a tantos elementos como tenga
el sub período. Por ejemplo, si se están midiendo cuatrimestres, se van a tomar tres elementos


ya que en un año hay 3 cuatrimestres.

Quedaría una cuarta columna al lado de cada valor de y con su promedio móvil. Ejemplo:
Código Sub-período 𝑦𝑖 Promedio móvil
1 1 5
2 2 8 5+8+6
= 6,33
3
3 3 6 6,66
4 1 6 7
5 2 9 7,33
6 3 7
Desaparecen así los efectos estacionales e irregulares.
El segundo paso es hacer
𝑦𝑖
× 100 = 𝑆. 𝐼.× 100
𝑃𝑟𝑜𝑚𝑒𝑑𝑖𝑜 𝑚ó𝑣𝑖𝑙
76

Este archivo fue descargado de https://filadd.com


Quedando:
Código Sub-período 𝑦𝑖 Promedio móvil 𝑆. 𝐼.× 100
1 1 5
2 2 8 5+8+6 126,3823
= 6,33
3
3 3 6 6,66 90,09
4 1 6 7 85,71
5 2 9 7,33 122,78
6 3 7 6,66 105,105
7 1 4 6,33 63,19
8 2 8 6,33 126,3823
9 3 7 7 100
10 1 6 7,66 78,329

OM
11 2 10

El tercer paso es ordenar de menor a mayor o de mayor a menor cada S.I. X 100 de
cada sub-período.
El paso siguiente es sacarle la mediana a cada sub-período. La suma de estas medianas
debe ser igual a la cantidad de sub-períodos multiplicados por cien, y para que esto suceda lo
que se hace es una regla de 3 simple y se recalculan los índices. En nuestro ejemplo multiplicar

.C
3×100
las medianas por 78,329+126,3823+100 = 0,9845385

Sub-período 1 Sub-período 2 Sub-período 3


85,71 126,3823 105,105
DD
78,329 126,3823 100
63,19 122,78 90,09
78,329 126,3823 100 Mediana
77,117915 124,4282375 98,45385 Mediana ajustada
LA

Así hemos obtenido los índices de estacionalidad.


Estos pueden usarse para:
● Desestacionalizar valores anteriores de la variable de respuesta, dividiendo el valor
observado por el índice de estacionalidad del sub-período donde ocurrió y
multiplicando por cien.
● Estacionalizar las predicciones que se realicen a partir del modelo de tendencia,
FI

multiplicando el valor predicho por la tendencia por el índice de estacionalidad y


dividiendo por 100.


77

Este archivo fue descargado de https://filadd.com

También podría gustarte