Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Chi cuadrado
La distribución de Chi-cuadrado es una distribución continua que se especifica por los
grados de libertad y el parámetro de no centralidad. La distribución es positivamente
asimétrica, pero la asimetría disminuye al aumentar los grados de libertad. Sirve para someter
a prueba hipótesis.
Características
● Solo asume valores positivos por tratarse de una suma de cuadrados.
● Hay una distribución de Chi-Cuadrado para cada valor de los grados de libertad.
● Es asimétrica derecha. Muy asimétrica cuando los grados de libertad son pocos. Se
OM
aproxima a la normal cuando los grados de libertad son muchos
● La esperanza es igual a los grados de libertad y la varianza es el doble.
.C
DD
Generalmente no se conoce la media poblacional y trabajamos con la media de la muestra, por
lo que se pierde un grado de libertad:
2 ) 2 )
𝐸(𝜒𝑛−1 = 𝑛−1 𝑉(𝜒𝑛−1 = 2(𝑛 − 1)
estadística y están relacionadas con la varianza porque relaciona la varianza poblacional con la
varianza muestral. El estadístico construido con la varianza muestral tiene distribución Chi
cuadrado:
(𝑛−1)𝑠2 2
~𝜒𝑛−1
𝜎2
FI
Se relaciona tambien con la distribución normal estandarizada que se usa para probar si
existen diferencias entre 2 proporciones, con estadístico
̂−𝑝
(𝑝1 ̂)
2
𝛧= 1 1
√𝑝𝑞(𝑛 +𝑛 )
1 2
OM
proporciones como máximo, mientras que la desventaja de la prueba Chi cuadrado es que solo
se pueden hacer pruebas bilaterales (tienen menor potencia que las pruebas unilaterales) en
tanto la prueba Z permite hacer pruebas tanto unilaterales como bilaterales.
.C
2. Distribuciones asociadas a la distribución normal: t de Student. Definición, vínculo con
otras distribuciones. Algunos estadísticos que siguen esta distribución. Uso de tablas.
DD
T de Student
Es una distribución de probabilidad que surge del problema de estimar la media de
una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Esta
distribución es simétrica con media cero y de forma muy similar a la normal. A medida que
aumentan los grados de libertad, su densidad se aproxima cada vez más a la curva de la
normal.
LA
Características:
● Variable continua que asume valores entre - ∞ a ∞
● Su esperanza es igual a cero y su varianza es mayor que uno
● Es simétrica con respecto a cero
● Hay una distribución t para cada valor de los grados de libertad.
OM
Y su intervalo de confianza es
.C Y su intervalo de confianza
es:
DD
La diferencia de medias para muestras dependientes y varianza desconocida:
LA
𝑏𝑖 −𝛽𝑖 𝑆𝑥𝑦 ∑𝑛 ̂𝑖 )2
(𝑌−𝑌
𝑡𝑛−𝑝−1 = , 𝑠𝑏1 = , 𝑠𝑥𝑦 = √ 𝑖=1
𝑠𝑏1 2 𝑛−𝑝−1
√ ∑𝑛
𝑖=1 (𝑋𝑖 −𝑋)
OM
3. Distribuciones asociadas a la distribución normal: F de Snedecor. Definición, vínculo con
otras distribuciones. Algunos estadísticos que siguen esta distribución. Uso de tablas.
F de Snedecor
.C
Se define como el cociente de dos variables aleatorias Chi-Cuadrado estadísticamente
independientes, divididas por sus respectivos grados de libertad.
𝑈~𝜒𝑁2
𝑈
𝑁 ~𝐹𝑁,𝑀
DD
𝑉
𝑀
2
𝑉~𝜒𝑀
Algunas características:
● Asume siempre valores positivos (por el hecho de ser cociente de dos variables que se
LA
Se relaciona con la distribución normal, al ser cociente de distribuciones Chi cuadrado, que
a la vez son sumas de cuadrados de variables normales estandarizadas e independientes entre
FI
sí.
Se vincula con la distribución t en el análisis de regresión simple, siendo que si al
estadístico t del estimador de la pendiente se lo eleva al cuadrado, es igual al estadístico F de
la prueba global.
Uso de la tabla: La primera fila indica los grados de libertad de numerador (m), mientras que
los del denominador (n) están en la primera columna. En el margen izquierdo de la tabla se
FI
Estimación puntual
El problema de la “estimación” de parámetros surge porque en muchos casos, la
población a estudiarse es, o muy grande, o resulta difícil acceder a su conocimiento total por
diversos motivos.
Entonces se recurre al muestreo cuando se desea conocer el valor de algún parámetro
de la población. ¿Cómo puede estimarse este valor?
Es necesario poseer alguna información sobre la población, entonces se toma una
muestra de esa población, se calculan “estimadores” o “estadísticos” a partir de la muestra,
5
OM
depositarse en el estimador. Hay estimadores que cumplen ciertas propiedades que otorgan
confianza en que cada estimación particular que se realice utilizándolo proporcionara un
resultado no muy alejado del parámetro.
.C
Se dice que un parámetro es insesgado cuando su valor esperado es igual al parámetro
que se estima:
𝐸(𝜃̂) = 𝜃.
DD
Un estimador tiene una distribución de probabilidad, y por lo tanto puede calcularse su
esperanza. El hecho que la esperanza del estimador sea igual al parámetro a estimar, afirma
que si se toman todas las muestras posibles, el promedio de los valores del estimador, o sea su
valor esperado, será igual al parámetro. El valor del estimador puede resultar más o menos
alejado dependiendo de la variabilidad del estimador. Siempre que el valor esperado no esté
muy lejos del parámetro, será preferible entre dos estimadores posibles aquel que tenga
LA
menor variabilidad.
Si existiera una diferencia entre la esperanza del estimador y el parámetro a estimar,
esa diferencia se denomina “sesgo”.
𝑆𝑒𝑠𝑔𝑜 = 𝐸(𝜃̂ ) − 𝜃
FI
tiende a desaparecer.
Consistencia
Se dice que un estimador 𝜃̂ es consistente si:
(𝑃𝑟 |𝜃̂ − 𝜃| < 𝜀) = 1
Eficiencia
Se refiere precisamente a la variabilidad de los estimadores. La varianza de un
estimador, proporciona una idea del grado de confianza que se puede tener en el mismo.
Ante dos estimadores insesgados (o por lo menos consistentes) θ1 y θ2 es más eficiente
θ1 si:
V (θ1) < V (θ2)
OM
es menor que 1, el estimador del numerador es más eficiente que el del denominador y
viceversa.
Cuanto menor sea la varianza de un estimador, es más probable que asuma valores
cercanos al parámetro, y por lo tanto será un mejor estimador.
Si uno de los estimadores es sesgado y el otro insesgado, pero el primero tiene menor
variabilidad que el segundo, suele ser conveniente elegirlo a pesar del sesgo. Hacemos
referencia al concepto de “eficiencia relativa” porque se compara la eficiencia de dos
.C
estimadores. Esto significa que, siendo ambos estimadores insesgados de la media
poblacional, por tener la media muestral un menor error estándar, habrá mayor probabilidad
de que la media muestral se encuentre cerca de la media población que la mediana.
Eficiencia absoluta: Permite establecer cuál es la varianza mínima de un estimador de
DD
cada parámetro.
Suficiencia
Un estimador es suficiente cuando utiliza toda la información que surge de la muestra
con respecto al parámetro a estimar.
Si tengo una muestra de tamaño n y quiero calcular la media muestral de la siguiente
LA
forma:
𝑥1 + 𝑥2
𝜇̂ =
2
Este estimador seria insesgado, pero no utilizaría la información proporcionada por las
FI
Estimación puntual
El problema de la “estimación” de parámetros surge porque en muchos casos, la
población a estudiarse es, o muy grande, o resulta difícil acceder a su conocimiento total por
diversos motivos.
Entonces se recurre al muestreo cuando se desea conocer el valor de algún parámetro
de la población. ¿Cómo puede estimarse este valor?
Es necesario poseer alguna información sobre la población, entonces se toma una
muestra de esa población, se calculan “estimadores” o “estadísticos” a partir de la muestra,
que servirán para proporcionar una idea de los valores posibles de esos parámetros
poblacionales desconocidos.
¿Cuál será un mejor estimador del parámetro? Existen algunos criterios que fijan
ciertas propiedades deseables de los estimadores. Existen también ciertos métodos de
estimación que proporcionan los mejores estimadores cuando se conocen algunas
características de la población.
OM
Es un muy buen método porque los estimadores máximo verosímiles gozan de la
mayoría de las propiedades enunciadas en el punto anterior.
El método analítico consiste en obtener las condiciones de primer orden (con respecto
a los parámetros poblacionales que se quieran estimar) de la función de probabilidad conjunta
de una muestra (maximizar función de máxima verosimilitud). Un instrumento útil muchas
veces es tomar logaritmo natural para que sea más fácil derivar.
.C
A modo de ejemplo vamos a ver el método de máxima verosimilitud para estimar la media
poblacional y la varianza poblacional en el caso de la distribución normal.
DD
1 (𝑥1 −𝜇)2
2) −
𝑓(𝑥1 ; 𝜇, 𝜎 =[ ]℮ 2𝜎 2
√2𝜋𝜎 2
𝑛 (𝑋𝐼 −𝜇)2
1 1
− ∑𝑛
𝐿(𝜇, 𝜎 2 ) = 𝑓(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜇, 𝜎 2 ) = [ ] ℮ 2 𝑖=1 𝜎2
√2𝜋𝜎 2
LA
𝑛 (𝑋𝐼 −𝜇)2
2 2)
1 1
− ∑𝑛
𝑙𝑛 𝑙𝑛 𝐿(𝜇, 𝜎 ) =𝑙𝑛 𝑙𝑛 𝑓(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜇, 𝜎 =𝑙𝑛 𝑙𝑛 [ ] + 𝑙𝑛 𝑙𝑛 ℮ 2 𝑖=1 𝜎2
√2𝜋𝜎 2
FI
𝑛
2 2)
𝑛 1 (𝑋𝐼 − 𝜇)2
𝑙𝑛 𝑙𝑛 𝐿(𝜇, 𝜎 ) =𝑙𝑛 𝑙𝑛 𝑓(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜇, 𝜎 = − 𝑙𝑛 𝑙𝑛 (2𝜋𝜎 2 ) − ∑
2 2 𝜎2
𝑖=1
CPO:
𝑛
𝑑 𝑙𝑛 𝑙𝑛 𝐿(𝜇, 𝜎 2 ) (𝑋𝐼 − 𝜇)1
=∑
𝑑𝜇 𝜎2
𝑖=1
𝑛
𝑑 𝑙𝑛 𝑙𝑛 𝐿(𝜇, 𝜎 2 )
=∑ (𝑋𝐼 − 𝜇̂ )1 = 0
𝑑𝜇
𝑖=1
∑ 𝑋𝐼 = 𝑛𝜇̂
𝑖=1
𝑛
𝜕 𝑙𝑛 𝑙𝑛 𝐿(𝜇, 𝜎 2 ) 𝑛2𝜋 1
= − + ∑ (𝑋𝐼 − 𝜇)2
𝜕𝜎 2 2(2𝜋𝜎 2 ) 2(𝜎 2 )2
𝑖=1
𝑛
𝜕 𝑙𝑛 𝑙𝑛 𝐿(𝜇, 𝜎 2 ) 𝑛 1
2
=− + ∑ (𝑋𝐼 − 𝜇̂ )2 = 0
𝜕𝜎 (2𝜎̂ ) 2(𝜎̂ 2 )2
2
𝑖=1
OM
=0
(2𝜎̂ 4 )
𝑛
2 (𝑋𝐼 − 𝜇̂ )2 = 0
−𝑛𝜎̂ + ∑
𝑖=1
.C 2
𝑛𝜎̂ = ∑
𝑖=1
𝑛
(𝑋𝐼 − 𝜇̂ )2
DD
2
∑𝑛𝑖=1 (𝑋𝐼 − 𝜇̂ )2
𝜎̂ =
𝑛
LA
∑𝑛 ̂ )2
(𝑋𝐼 −𝜇
El estimador debe ser ajustado para que no esté segado, quedando: 𝜎̂ 2 = 𝑖=1
𝑛−1
Las estimaciones puntuales no llevan asociada idea alguna acerca del grado de
aproximación que puede existir entre el valor del estimador y el del parámetro que se está
estimando. No se puede saber el error que puede cometerse al estimar el parámetro basado
en los datos muestrales, ni se puede saber el nivel de confianza que puede depositarse en que
el valor estimado se encuentre cerca del verdadero valor del parámetro).
|𝜃̂ − 𝜃| ≤ 𝜖
OM
desconocido.
● Un intervalo específico podrá contener o no al parámetro desconocido, no hay
probabilidad, solo confianza.
.C
muestrales en una muestra de tamaño n.
3) Plantear un estadístico función del estimador y del parámetro h (θ, θ). Este
estadístico debe cumplir dos condiciones: que algebraicamente sea posible
DD
despejar el parámetro única incógnita de la expresión y que tenga una distribución
de probabilidad conocida.
4) En estas condiciones, fijando el nivel de confianza 1- α, se determina en primer
lugar un intervalo para el estadístico.
𝑃𝑟(𝑘1 < ℎ(𝜃̂; 𝜃) < 𝑘2 ) = 1 − 𝛼
LA
𝜎 𝜎
𝑃𝑟 (𝑋 − 𝑧𝛼 < 𝜇 < 𝑋 + 𝑧𝛼 ) =1−𝛼
2 √𝑛 2 √𝑛
6) Por último, se realiza la estimación del parámetro y se obtienen los límites inferior
y superior de confianza entre los cuales se piensa con una confianza igual a
(1- α) 100% que se encuentra θ.
𝜎
𝐿𝐼𝐶 = 𝑋 − 𝑧𝛼
2 √𝑛
𝜎
𝐿𝑆𝐶 = 𝑋 + 𝑧𝛼
2 √𝑛
Consideraremos los siguientes casos de intervalo de confianza para la media de una población:
Intervalo de confianza para media poblacional (σ conocida).
Supuestos:
● La desviación estándar poblacional es conocida.
● La población es normal.
10
𝑋−𝜇
𝜎 ~𝑁(0; 1)
√𝑛
𝜎 𝜎
𝑃𝑟 (𝑋 − 𝑧𝛼 < 𝜇 < 𝑋 + 𝑧𝛼 ) =1−𝛼
2 √𝑛 2 √𝑛
𝜎
𝐿𝐼𝐶 = 𝑋 − 𝑧𝛼
2 𝑛
√
𝜎
𝐿𝑆𝐶 = 𝑋 + 𝑧𝛼 𝑛
2 √
OM
● La desviación estándar poblacional es conocida.
● La población es normal.
● Si no lo es, la muestra debe ser grande.
Cálculo del intervalo:
𝑋−𝜇
𝑆 ~𝑡𝑛−1
√𝑛
.C
𝑠 𝑠
𝑃𝑟 (𝑋 − 𝑡𝑛−1,𝛼 < 𝜇 < 𝑋 + 𝑡𝑛−1,𝛼 )=1−𝛼
2 √𝑛 2 √𝑛
DD
𝑠
𝐿𝐼𝐶 = 𝑋 − 𝑡𝑛−1,𝛼
2 √𝑛
𝑠
𝐿𝑆𝐶 = 𝑋 + 𝑡𝑛−1,𝛼
2 √𝑛
LA
Cuestiones éticas:
● El intervalo de confianza debería siempre informarse junto con la estimación
puntual.
● Debería constar siempre el nivel de confianza de los estimadores
● El tamaño de la muestra debe ser señalado.
● Debería proveerse una interpretación del intervalo de estimación.
Las estimaciones puntuales no llevan asociada idea alguna acerca del grado de
aproximación que puede existir entre el valor del estimador y el del parámetro que se está
estimando. No se puede saber el error que puede cometerse al estimar el parámetro basado
11
|𝜃̂ − 𝜃| ≤ 𝜖
OM
es interesante analizar la posibilidad de establecer un intervalo aleatorio (𝜃̂ − 𝜖; 𝜃̂ + 𝜖), cuya
amplitud es igual al doble del error máximo de estimación, y al cual pueda asociarse una
elevada probabilidad que el parámetro 𝜃 se encuentre en dicho intervalo.
Si bien se pierde precisión, se gana confianza de que la afirmación sea verdadera (NO
es probabilidad) y se gana conocimiento del error que puede cometerse al realizar la
estimación por intervalos.
.C
La estimación por intervalos consta de 3 elementos fundamentales, a saberse: Nivel de
confianza, precisión y costo.
Nivel de confianza:
DD
● El nivel de confianza representa el porcentaje de intervalos que incluirían el parámetro
de población si usted tomara muestras de la misma población una y otra vez.
● Se denota como porcentaje de (1- α)
● Se interpreta que el 100 (1- α)% de todos los intervalos de confianza que pueden ser
construidos, en las mismas condiciones en esa población, contendrán al parámetro
desconocido.
LA
de probabilidad conocida.
4) En estas condiciones, fijando el nivel de confianza 1- α, se determina en primer
lugar un intervalo para el estadístico.
𝑃𝑟(𝑘1 < ℎ(𝜃̂; 𝜃) < 𝑘2 ) = 1 − 𝛼
𝜎 𝜎
𝑃𝑟 (𝑋 − 𝑧𝛼 < 𝜇 < 𝑋 + 𝑧𝛼 ) =1−𝛼
2 𝑛
√ 2 𝑛
√
12
𝜎
𝐿𝑆𝐶 = 𝑋 + 𝑧𝛼
2 √𝑛
OM
● Distribución binomial (población dicotómica)
● Se puede usar la Normal si n.p ≥ 5 y n.q ≥ 5
Estimador, parámetro y cálculo del intervalo:
𝑝̂−𝑝
~𝑁(0; 1)
𝑝×(1−𝑝)
√
𝑛
.C 𝑝̂ − 𝑧𝛼 √
2
𝑝×(1−𝑝)
𝑛
< 𝑝 < 𝑝̂ + 𝑧𝛼 √
2
𝑝×(1−𝑝)
𝑛
DD
𝑝×(1−𝑝)
𝐿𝐼𝐶 = 𝑝̂ − 𝑧𝛼 √ 𝑛
2
𝑝×(1−𝑝)
𝐿𝑆𝐶 = 𝑝̂ + 𝑧𝛼 √
2 𝑛
Cuestiones éticas:
● El intervalo de confianza debería siempre informarse junto con la estimación
LA
puntual.
● Debería constar siempre el nivel de confianza de los estimadores
● El tamaño de la muestra debe ser señalado.
● Debería proveerse una interpretación del intervalo de estimación.
FI
Las estimaciones puntuales no llevan asociada idea alguna acerca del grado de
aproximación que puede existir entre el valor del estimador y el del parámetro que se está
estimando. No se puede saber el error que puede cometerse al estimar el parámetro basado
en los datos muestrales, ni se puede saber el nivel de confianza que puede depositarse en que
el valor estimado se encuentre cerca del verdadero valor del parámetro).
Es por ello que la estimación por intervalos consiste en establecer el intervalo de
valores donde es más probable se encuentre el parámetro.
La diferencia existente entre el valor del estimador en una muestra particular y el
verdadero valor del parámetro desconocido se llama “error de muestreo”.
|𝜃̂ − 𝜃| ≤ 𝜖
13
OM
Nivel de confianza:
● El nivel de confianza representa el porcentaje de intervalos que incluirían el parámetro
de población si usted tomara muestras de la misma población una y otra vez.
● Se denota como porcentaje de (1- α)
● Se interpreta que el 100 (1- α)% de todos los intervalos de confianza que pueden ser
construidos, en las mismas condiciones en esa población, contendrán al parámetro
desconocido.
.C
● Un intervalo específico podrá contener o no al parámetro desconocido, no hay
probabilidad, solo confianza.
de probabilidad conocida.
4) En estas condiciones, fijando el nivel de confianza 1- α, se determina en primer
lugar un intervalo para el estadístico.
𝑃𝑟(𝑘1 < ℎ(𝜃̂; 𝜃) < 𝑘2 ) = 1 − 𝛼
FI
𝜎 𝜎
𝑃𝑟 (𝑋 − 𝑧𝛼 < 𝜇 < 𝑋 + 𝑧𝛼 ) =1−𝛼
2 √𝑛 2 √𝑛
6) Por último, se realiza la estimación del parámetro y se obtienen los límites inferior
y superior de confianza entre los cuales se piensa con una confianza igual a
(1- α) 100% que se encuentra θ.
𝜎
𝐿𝐼𝐶 = 𝑋 − 𝑧𝛼
2 √𝑛
𝜎
𝐿𝑆𝐶 = 𝑋 + 𝑧𝛼
2 √𝑛
14
2 (𝑛−1)𝑆 2 2
𝑃𝑟 𝑃𝑟 (𝜒𝑛−1; 𝛼 <
𝜎2
< 𝜒𝑛−1;1− 𝛼) = 1 − 𝛼
2 2
(𝑛−1)𝑆 2
𝐿𝐼𝐶 = 𝜒2
𝛼
𝑛−1;1− 2
(𝑛−1)𝑆 2
OM
𝐿𝑆𝐶 = 𝜒2 𝛼
𝑛−1;
2
Cuestiones éticas:
● El intervalo de confianza debería siempre informarse junto con la estimación
puntual.
● Debería constar siempre el nivel de confianza de los estimadores
● El tamaño de la muestra debe ser señalado.
.C
● Debería proveerse una interpretación del intervalo de estimación.
Las estimaciones puntuales no llevan asociada idea alguna acerca del grado de
aproximación que puede existir entre el valor del estimador y el del parámetro que se está
estimando. No se puede saber el error que puede cometerse al estimar el parámetro basado
en los datos muestrales, ni se puede saber el nivel de confianza que puede depositarse en que
LA
|𝜃̂ − 𝜃| ≤ 𝜖
es aleatorio porque depende de 𝜃̂, que es una variable aleatoria y por lo tanto no se puede
saber con exactitud. Lo que se intenta es que el error no supere a 𝜖.
Entonces, conociendo distribuciones de probabilidad de estimadores y/o estadísticos,
es interesante analizar la posibilidad de establecer un intervalo aleatorio (𝜃̂ − 𝜖; 𝜃̂ + 𝜖), cuya
amplitud es igual al doble del error máximo de estimación, y al cual pueda asociarse una
elevada probabilidad que el parámetro 𝜃 se encuentre en dicho intervalo.
Si bien se pierde precisión, se gana confianza de que la afirmación sea verdadera (NO
es probabilidad) y se gana conocimiento del error que puede cometerse al realizar la
estimación por intervalos.
15
OM
estadístico debe cumplir dos condiciones: que algebraicamente sea posible
despejar el parámetro única incógnita de la expresión y que tenga una distribución
de probabilidad conocida.
4) En estas condiciones, fijando el nivel de confianza 1- α, se determina en primer
lugar un intervalo para el estadístico.
𝑃𝑟(𝑘1 < ℎ(𝜃̂; 𝜃) < 𝑘2 ) = 1 − 𝛼
.C
Donde 𝑘1 y 𝑘2 se obtienen teniendo en cuenta la distribución de probabilidad del
estadístico y el nivel de confianza establecido. Por ejemplo:
𝑃𝑟 𝑃𝑟 (𝑧𝛼 <
𝑋−𝜇
< 𝑧1−𝛼 ) = 1 − 𝛼
DD
𝜎
2 √𝑛 2
𝜎 𝜎
𝑃𝑟 (𝑋 − 𝑧𝛼 < 𝜇 < 𝑋 + 𝑧𝛼 ) =1−𝛼
2 𝑛
√ 2 𝑛
√
LA
6) Por último, se realiza la estimación del parámetro y se obtienen los límites inferior
y superior de confianza entre los cuales se piensa con una confianza igual a
(1- α) 100% que se encuentra θ.
𝜎
𝐿𝐼𝐶 = 𝑋 − 𝑧𝛼
FI
2 √𝑛
𝜎
𝐿𝑆𝐶 = 𝑋 + 𝑧𝛼
2 √𝑛
16
𝜎2 𝜎2 𝜎2 𝜎2
𝑃𝑟 𝑃𝑟 ((𝑋1 − 𝑋2 ) − 𝑧1−𝛼 √𝑛1 + 𝑛2 < (𝜇1 − 𝜇2 ) < (𝑋1 − 𝑋2 ) + 𝑧1−𝛼 √𝑛1 + 𝑛2 ) = 1 − 𝛼
2 1 2 2 1 2
OM
𝜎2 𝜎2
𝐿𝐼𝐶 = (𝑋1 − 𝑋2 ) − 𝑧1−𝛼 √𝑛1 + 𝑛2
2 1 2
𝜎2 𝜎2
𝐿𝑆𝐶 = (𝑋1 − 𝑋2 ) + 𝑧1−𝛼 √𝑛1 + 2
𝑛 2 1 2
.C
En este caso, es necesario buscar un estadístico adecuado que no contenga las
varianzas poblacionales. Es necesario algún supuesto adicional bastante restrictivo.
Supuestos:
● Ambas poblaciones se distribuyen normalmente
DD
● Muestras aleatorias simples independientemente seleccionadas
● Varianzas poblacionales desconocidas pero supuestamente iguales
● Si ambas poblaciones no son normales, se requieren n grandes.
Agregar el supuesto de que las varianzas son iguales nos permite despejar y arribar a nuestro
estadístico:
LA
(𝑋1 − 𝑋2 ) − (𝜇1 − 𝜇2 )
~𝑡𝑛1 +𝑛2 −2
2 2
(𝑛 − 1)𝑆1 + (𝑛2 − 1)𝑆2 𝑛1 + 𝑛2
√ 1 ×
𝑛1 + 𝑛2 − 2 𝑛1 × 𝑛2
FI
hay evidencias para sospechar que las varianzas son diferentes, se aplica el estadístico
anteriormente mencionado. Si las hay, existe un estadístico en el cual se consideran las
varianzas de ambas muestras “separadas”, la distribución también es t de Student pero hay
que recalcular los grados de libertad. Los grados ahora son v y se calculan:
2
𝑠12 𝑠22
( + )
𝑛1 𝑛2
𝑣=
2 2 2
𝑠 𝑠2
(𝑛1 ) (𝑛2 )
1 2
𝑛1 − 1 + 𝑛2 − 1
El estadístico es entonces:
17
𝑛1 +𝑛2 𝑛1 +𝑛2
𝑃𝑟 𝑃𝑟 ((𝑋1 − 𝑋2 ) − 𝑡𝑛1 +𝑛2 −2;𝛼 √𝑆2𝑝 × < (𝜇1 − 𝜇2 ) < (𝑋 − 𝑋
1 2
) + 𝑡𝑛1 +𝑛2 −2;𝛼 √𝑆2𝑝 × ) = 1−
2 𝑛1 ×𝑛2 2 𝑛1 ×𝑛2
OM
𝑆2 𝑆2 𝑆2 𝑆2
𝑃𝑟 𝑃𝑟 ((𝑋1 − 𝑋2 ) − 𝑡𝑣;1−𝛼 √𝑛1 + 𝑛2 < (𝜇1 − 𝜇2 ) < (𝑋1 − 𝑋2 ) + 𝑡𝑣;1−𝛼 √𝑛1 + 𝑛2 ) = 1 − 𝛼
2 1 2 2 1 2
∑ 𝑑𝑖 ∑ 𝑑𝑖2 −𝑛𝑑 2
𝑑= 𝑆𝑑2 =
FI
𝑛 𝑛−1
𝑑−𝐷
~𝑡𝑛−1
𝑆𝑑
√𝑛
Intervalo de confianza:
𝑆𝑑
𝐿𝐼𝐶 = 𝑑 − 𝑡𝑛−1;1−𝛼
2 √𝑛
𝑆𝑑
𝐿𝑆𝐶 = 𝑑 + 𝑡𝑛−1;1−𝛼
2 √𝑛
10. Estimación por intervalos. El nivel de confianza. Intervalos de confianza para la diferencia
de proporciones poblacionales. Supuestos.
Las estimaciones puntuales no llevan asociada idea alguna acerca del grado de
aproximación que puede existir entre el valor del estimador y el del parámetro que se está
estimando. No se puede saber el error que puede cometerse al estimar el parámetro basado
18
|𝜃̂ − 𝜃| ≤ 𝜖
OM
es interesante analizar la posibilidad de establecer un intervalo aleatorio (𝜃̂ − 𝜖; 𝜃̂ + 𝜖), cuya
amplitud es igual al doble del error máximo de estimación, y al cual pueda asociarse una
elevada probabilidad que el parámetro 𝜃 se encuentre en dicho intervalo.
Si bien se pierde precisión, se gana confianza de que la afirmación sea verdadera (NO
es probabilidad) y se gana conocimiento del error que puede cometerse al realizar la
estimación por intervalos.
.C
La estimación por intervalos consta de 3 elementos fundamentales, a saberse: Nivel de
confianza, precisión y costo.
Nivel de confianza:
DD
● El nivel de confianza representa el porcentaje de intervalos que incluirían el parámetro
de población si usted tomara muestras de la misma población una y otra vez.
● Se denota como porcentaje de (1- α)
● Se interpreta que el 100 (1- α)% de todos los intervalos de confianza que pueden ser
construidos, en las mismas condiciones en esa población, contendrán al parámetro
desconocido.
LA
de probabilidad conocida.
4) En estas condiciones, fijando el nivel de confianza 1- α, se determina en primer
lugar un intervalo para el estadístico.
𝑃𝑟(𝑘1 < ℎ(𝜃̂; 𝜃) < 𝑘2 ) = 1 − 𝛼
𝜎 𝜎
𝑃𝑟 (𝑋 − 𝑧𝛼 < 𝜇 < 𝑋 + 𝑧𝛼 ) =1−𝛼
2 𝑛
√ 2 𝑛
√
19
𝜎
𝐿𝑆𝐶 = 𝑋 + 𝑧𝛼
2 √𝑛
OM
Diferencia de proporciones, muestras independientes.
Estamos hablando de poblaciones dicotómicas. Solo consideramos el caso de muestras
independientes y lo suficientemente grandes como para usar la aproximación normal. ( np y nq
mayores que 5).
Los estimadores de cada una de las proporciones poblacionales son proporciones
muestrales, y por propiedades de esperanza y varianza de una diferencia de variables
.C
aleatorias independientes, el estadístico es:
(𝑝̂1 − 𝑝̂ 2 ) − (𝑃1 − 𝑃2 )
DD
~𝑁(0; 1)
𝑝̂ (1 − 𝑝̂1 ) 𝑝̂2 (1 − 𝑝̂2 )
√ 1 +
𝑛1 𝑛2
poblacionales, produciéndose por este motivo un error adicional que por lo general no es
importante.
Cálculo del intervalo:
𝑝̂1 (1−𝑝̂1 ) 𝑝̂ (1−𝑝̂ )
𝐿𝐼𝐶 = (𝑝̂1 − 𝑝̂ 2 ) − 𝑧1−𝛼 √ + 2𝑛 2
2 𝑛1 2
FI
11. Estimación por intervalos. El nivel de confianza. Intervalos de confianza para el cociente
de varianzas poblacionales. Supuestos.
Las estimaciones puntuales no llevan asociada idea alguna acerca del grado de
aproximación que puede existir entre el valor del estimador y el del parámetro que se está
estimando. No se puede saber el error que puede cometerse al estimar el parámetro basado
en los datos muestrales, ni se puede saber el nivel de confianza que puede depositarse en que
el valor estimado se encuentre cerca del verdadero valor del parámetro).
Es por ello que la estimación por intervalos consiste en establecer el intervalo de
valores donde es más probable se encuentre el parámetro.
La diferencia existente entre el valor del estimador en una muestra particular y el
verdadero valor del parámetro desconocido se llama “error de muestreo”.
|𝜃̂ − 𝜃| ≤ 𝜖
20
OM
Nivel de confianza:
● El nivel de confianza representa el porcentaje de intervalos que incluirían el parámetro
de población si usted tomara muestras de la misma población una y otra vez.
● Se denota como porcentaje de (1- α)
● Se interpreta que el 100 (1- α)% de todos los intervalos de confianza que pueden ser
construidos, en las mismas condiciones en esa población, contendrán al parámetro
desconocido.
.C
● Un intervalo específico podrá contener o no al parámetro desconocido, no hay
probabilidad, solo confianza.
de probabilidad conocida.
4) En estas condiciones, fijando el nivel de confianza 1- α, se determina en primer
lugar un intervalo para el estadístico.
𝑃𝑟(𝑘1 < ℎ(𝜃̂; 𝜃) < 𝑘2 ) = 1 − 𝛼
FI
𝜎 𝜎
𝑃𝑟 (𝑋 − 𝑧𝛼 < 𝜇 < 𝑋 + 𝑧𝛼 ) =1−𝛼
2 √𝑛 2 √𝑛
6) Por último, se realiza la estimación del parámetro y se obtienen los límites inferior
y superior de confianza entre los cuales se piensa con una confianza igual a
(1- α) 100% que se encuentra θ.
𝜎
𝐿𝐼𝐶 = 𝑋 − 𝑧𝛼
2 √𝑛
𝜎
𝐿𝑆𝐶 = 𝑋 + 𝑧𝛼
2 √𝑛
21
OM
Tiene esta distribución por tratarse de un cociente entre dos 𝜒 2 independientes, divididas por
sus grados de libertad.
Al despejar el cociente de varianzas poblacionales, se obtiene el intervalo de confianza (para el
cociente 𝜎12 / 𝜎22 )
12. Conceptos y cálculo del error de estimación y riesgo. Determinación del tamaño de
muestra para la estimación de una media poblacional. Poblaciones finitas e infinitas.
.C
Determinación del tamaño de la muestra para la estimación de una media poblacional
¿Cuál es el máximo error que se está dispuesto a tolerar? ¿Cuál es el nivel de confianza
deseado para las estimaciones? ¿Cuál es la varianza de la población bajo estudio? ¿Se trata de
DD
un muestreo con o sin reemplazo?
𝑋−𝜇
𝑃𝑟 𝑃𝑟 (𝑧𝛼 < 𝜎 < 𝑧1−𝛼 ) = 1 − 𝛼
2 √𝑛 2
𝜎
𝑃𝑟 𝑃𝑟 (|𝑒| < 𝑧1−𝛼 ) =1−𝛼
2 √𝑛
Se lee: Existe una alta probabilidad (1- α) que el error de estimación sea como máximo igual a
Despejando:
𝜎
|𝑒| = 𝑧
√ 𝑛
𝑧2𝜎2
𝑛= 𝑒2
Este es el tamaño de muestra necesario para que e sea el máximo error. Un n mayor reducirá
el error máximo.
El tamaño muestral depende del nivel de error aceptable (e), del nivel de confianza deseado,
reflejado en z y de la variabilidad de la variable en la población (σ).
Algunos inconvenientes:
● La necesidad de conocer la varianza poblacional. Esta situación es superada en la
práctica ya sea utilizando una varianza conocida por experiencias anteriores o con
alguna variable “Proxy”
22
OM
muestra. El cociente entre la varianza y el tamaño de la muestra, se conoce también
como el cuadrado del “error estándar” del estimador.
.C
necesario aplicar el factor de corrección. En este caso resulta:
𝑧 2 𝜎 2 (𝑁 − 𝑛)
𝑛=
𝑒 2 (𝑁 − 1)
DD
Como n aparece en ambos miembros, es necesario despejar. Llamando n∞ al resultado de
calcular el tamaño de la muestra con reemplazo:
𝑛∞ 𝑁
LA
𝑛=
(𝑁 − 1) + 𝑛∞
El tamaño de la muestra así calculado, resulta algo menor al del muestreo con
reemplazo. Pero para que esta reducción tenga un efecto interesante, n debe ser grande
FI
Prueba de hipótesis
Una hipótesis estadística es un enunciado provisional con respecto a una situación del
mundo real, generalmente expresada a través de relaciones particulares de ciertas variables en
estudio. Las hipótesis estadísticas son aquellas que pueden contrastarse con datos observados
de la realidad.
La esencia de la comprobación de hipótesis estriba en verificar la relación expresada
por ella a través de la experimentación u observación de hechos de la vida real. Si la realidad
no se ajusta a la hipótesis planteada, se deberá repensar el problema y tal vez modificar la
hipótesis inicial y comenzar un nuevo ciclo en la investigación. Por medio de este
procedimiento, se habrá producido un avance científico a través del razonamiento científico
través del razonamiento estadístico.
23
OM
Si la hipótesis nula es falsa, deberá existir otra hipótesis que sea verdadera, esta es la
hipótesis alterativa (H1). Ésta expresa, en general, lo que el investigador esta sospechando
ocurrirá.
Para tomar una decisión respecto a rechazar o no la hipótesis nula planteada, hay que
establecer ciertas reglas de decisión. Debe establecerse un criterio estadístico que especifique
de manera objetiva, a partir de un valor de p (proporción muestral), si se tomará la decisión de
.C
rechazar o no la hipótesis nula. Este criterio, conocido como medida de discrepancia, se calcula
sobre la base de la información aportada por la muestra.
Se podrá establecer un valor critico que determinara una región de rechazo y una
región de no rechazo de la hipótesis nula. Este criterio tendrá que ver con un estimador del
DD
parámetro objeto del test, y con un estadístico cuya distribución sea conocida. Los estadísticos,
en lugar de contener un parámetro desconocido, contendrán el valor que asume el parámetro
si se cumple la hipótesis nula.
partir de la información brindada por una muestra. En realidad, estamos “mirando por el ojo
de la cerradura” y en consecuencia, el investigador puede acertar o cometer un error. Es
necesario que el investigador plantee la prueba de hipótesis previendo que las probabilidades
de cometer cualquiera de estos dos errores sean lo más bajas posibles.
El error de tipo I es aquel que se comete al rechazar una hipótesis nula cuando ella es
FI
Estos errores tienen una relación inversa, al aumentar uno, disminuye el otro,
manteniendo todo lo demás constante.
24
14. Prueba de hipótesis. Vínculo entre error tipo I y II. El tamaño de la muestra con alfa y
beta fijos.
Prueba de hipótesis
Una hipótesis estadística es un enunciado provisional con respecto a una situación del
mundo real, generalmente expresada a través de relaciones particulares de ciertas variables en
estudio. Las hipótesis estadísticas son aquellas que pueden contrastarse con datos observados
de la realidad.
OM
La esencia de la comprobación de hipótesis estriba en verificar la relación expresada
por ella a través de la experimentación u observación de hechos de la vida real. Si la realidad
no se ajusta a la hipótesis planteada, se deberá repensar el problema y tal vez modificar la
hipótesis inicial y comenzar un nuevo ciclo en la investigación. Por medio de este
procedimiento, se habrá producido un avance científico a través del razonamiento científico
través del razonamiento estadístico.
.C
Generalmente, en una investigación se trabaja con muestras obtenidas a partir de una
cierta población. Si la evidencia de la muestra lleva a la decisión de rechazar la hipótesis
planteada estaremos mucho más seguros de nuestra determinación que cuando no existan
evidencias para su rechazo.
DD
La hipótesis que mantiene el statu quo suele denominarse nula. Una hipótesis nula
(H0) es un supuesto acerca de uno o más parámetros u otras características de la población,
que puede ser rechazado o no en base a la evidencia muestral.
La hipótesis nula no se acepta, sino que se rechaza o no se rechaza. Su rechazo implica
la aceptación de la hipótesis alternativa, es por ello que suele colocarse como hipótesis nula la
situación que el investigador piensa será rechazada.
LA
Una hipótesis se denomina nula en el sentido que se supone que no existe una
diferencia importante entre el verdadero valor del parámetro de la población y el valor del
parámetro especificado en la hipótesis nula, suele expresarse con la igualdad del parámetro a
cierto valor de referencia.
Si la hipótesis nula es falsa, deberá existir otra hipótesis que sea verdadera, esta es la
FI
hipótesis alterativa (H1). Ésta expresa, en general, lo que el investigador esta sospechando
ocurrirá.
Para tomar una decisión respecto a rechazar o no la hipótesis nula planteada, hay que
establecer ciertas reglas de decisión. Debe establecerse un criterio estadístico que especifique
de manera objetiva, a partir de un valor de p (proporción muestral), si se tomará la decisión de
rechazar o no la hipótesis nula. Este criterio, conocido como medida de discrepancia, se calcula
sobre la base de la información aportada por la muestra.
Se podrá establecer un valor critico que determinara una región de rechazo y una
región de no rechazo de la hipótesis nula. Este criterio tendrá que ver con un estimador del
parámetro objeto del test, y con un estadístico cuya distribución sea conocida. Los estadísticos,
en lugar de contener un parámetro desconocido, contendrán el valor que asume el parámetro
si se cumple la hipótesis nula.
Los errores tipo I y tipo II tienen una relación inversa, al aumentar uno, disminuye el
otro, manteniendo todo lo demás constante.
Factores que afectan al error tipo II
● β sube cuando la diferencia entre el parámetro hipotetizado y el verdadero es cada vez
menor.
● β sube cuando baja α
● β sube cuando σ sube
25
15. Conceptos y cálculo del error de estimación y riesgo. Determinación del tamaño de
muestra para la estimación de una proporción poblacional.
OM
proporción.
Supóngase que se desea estimar la proporción de una población (p), y que se conoce su
varianza. Si el nivel de confianza deseado es de 1-α, entonces:
𝑝̂ − 𝑝𝑜
𝑃 (𝑧𝛼/2 < < 𝑧(1−𝛼)/2 ) = 1 − 𝛼
√𝑝𝑜 𝑞𝑜 /𝑛
.C
Siendo 𝑝̂ − 𝑝𝑜 el “error de estimación”, que hemos llamado e, al despejar resulta que existe
una probabilidad de (1-α) de que el error de estimación sea, como máximo, igual 𝑧. √
𝑝𝑜 𝑞𝑜
𝑛
:
DD
𝑝𝑜 𝑞𝑜
𝑃 (|𝑒| < 𝑧. √ 𝑛
) =1−𝛼
𝑧 2 𝑝𝑜 𝑞𝑜
𝑛=
𝑒2
FI
Que significa que el tamaño muestral depende positivamente del nivel de confianza (riesgo)
deseado (z) y la variabilidad de la variable en la población (pq), y negativamente del máximo
nivel de error tolerable.
26
OM
Error, riesgo y tamaño de la muestra.
⮚ z, valor extraído de la tabla de distribución normal, determina la “confianza” de las
estimaciones que se realizaran, y por lo tanto el “riesgo” α de equivocarse al afirmar
que cierto intervalo contiene al valor del parámetro.
⮚ e, es el error máximo aceptable, medido en proporciones.
⮚ El error máximo depende del riesgo aceptado, de la varianza y del tamaño de la
muestra. El cociente entre la varianza y el tamaño de la muestra, se conoce también
.C
como el cuadrado del “error estándar” del estimador.
DD
16. Muestreo y métodos de muestreo. Conceptos. Muestreos probabilísticos: caso de
Muestreo simple al azar y sistemático.
Muestreo, concepto.
Para diseñar una muestra, es imprescindible una correcta definición de la población
LA
con respecto a la cual se extraerán las conclusiones. A esto se le llama marco de la muestra, y
es el conjunto de elementos disponibles de los cuales se extraerá la muestra. No siempre es
posible contar con un listado completo del cual obtener la muestra representativa. Es
necesario ser cuidadoso ya que en algunas ocasiones, las dificultades para definir el marco
llevan a que el mismo se aleje sensiblemente de la población y luego las conclusiones solo
FI
probabilístico.
¿Por qué hablamos de la varianza del estimador? La varianza del estimador es el
elemento que determinara el error máximo de estimación. Distintos métodos de muestreo
implican diferentes varianzas de los estimadores. Por ello, cuando se va a decidir el método de
muestreo a utilizar es muy importante conocer la varianza de los estimadores que resultarán.
Además, es importante considerar el costo del relevamiento de cada método.
27
OM
𝑝.(1−𝑝) 𝑁−𝑛
𝑝. (1 − 𝑝) √ . √ 𝑁−1
P √ 𝑛
𝑛
Resumen
● Cada individuo o ítem del marco tiene la misma probabilidad de ser seleccionado
(n/N).
● Es imprescindible un listado de la población.
.C
● La selección puede hacerse con o sin reemplazo.
● La muestra se obtiene a partir de una tabla de números aleatorios o de un generador
de números aleatorios de una computadora.
DD
Este modelo es inadecuado o imposible cuando:
● No es posible enumerar todos los elementos de la P
● La P está formada por subconjuntos bien diferenciados entre sí y se necesitan
estimaciones particulares de cada grupo, además de la general.
● Los elementos están muy dispersos geográficamente, alto costo.
LA
Muestreo sistemático.
Se trata de una forma de selección de las muestras aplicable a cualquiera de los demás
casos de muestreo. Se utiliza frecuentemente en lugar del muestreo aleatorio simple, por la
sencillez del procedimiento de selección. Es necesario elegir un “arranque” que determina el
FI
primer elemento de la muestra y luego, sin efectuar nuevas selecciones al azar, se incorporan a
la muestra los elementos a + k, a + 2k, a +3k, etc.
Este número k se denomina “intervalo de muestreo” y está determinado por la
relación entre N y n: k= N/n. El primer número aleatorio seleccionado/a deberá ser menor o a
lo sumo igual a k.
Se cuestiona el muestreo sistemático por el hecho de no permitir el cálculo de la
varianza de los estimadores, puesto que se hace solo una selección al azar; es algo asi como
efectuar un muestreo por conglomerados seleccionando solo un conglomerado. Para obviar
este cuestionamiento a veces se seleccionan dos puntos de arranque, y a partir de cada uno la
mitad de la muestra.
Se genera un problema importante de sesgo en la muestra, que puede llegar a
invalidarla por completo, si existiera algún ordenamiento en la población con una cierta
periodicidad; pero si esta coincide con el número k o algún múltiplo de k.
Se puede comprender así que el orden en que están os elementos de la población,
tiene importancia para la muestra sistemática, y ésta situación se refleja en la varianza del
estimador de la media poblacional, ya que ésta es diferente según el orden en que estén los
28
Resumen
OM
● Decidir el tamaño de la muestra: n
● Aleatoria por su arranque, representativa porque recorre toda la P.
● Dividir el marco de N individuos en grupos de k individuos. k= N/n
● Seleccionar aleatoriamente un individuo del primer grupo.
● Seleccionar cada k-ésimo individuo.
.C
DD
17. Muestreo y métodos de muestreo. Conceptos. Muestreos probabilísticos: caso de
Muestreo estratificado.
Muestreo, concepto.
Para diseñar una muestra, es imprescindible una correcta definición de la población
LA
con respecto a la cual se extraerán las conclusiones. A esto se le llama marco de la muestra, y
es el conjunto de elementos disponibles de los cuales se extraerá la muestra. No siempre es
posible contar con un listado completo del cual obtener la muestra representativa. Es
necesario ser cuidadoso ya que en algunas ocasiones, las dificultades para definir el marco
llevan a que el mismo se aleje sensiblemente de la población y luego las conclusiones solo
FI
probabilístico.
¿Por qué hablamos de la varianza del estimador? La varianza del estimador es el
elemento que determinara el error máximo de estimación. Distintos métodos de muestreo
implican diferentes varianzas de los estimadores. Por ello, cuando se va a decidir el método de
muestreo a utilizar es muy importante conocer la varianza de los estimadores que resultarán.
Además, es importante considerar el costo del relevamiento de cada método.
Muestreo estratificado.
Éste método soluciona el problema que se presenta en el muestreo aleatorio simple
acerca de la necesidad de conocer estimaciones para subconjuntos de la población, los cuales
son en general bastante homogéneos internamente. En este método, la muestra obtenida
resulta en general más eficiente que en el muestreo simple. Una muestra de menor tamaño
29
Si se emplea el factor de corrección para poblaciones finitas, estos elementos se relacionan así:
𝑧×𝜎 𝑁−𝑛
𝑛= √
√𝑛 𝑁−1
OM
Existen varias alternativas para afijar la muestra entre los distintos estratos. La más
eficiente es la llamada afijación óptima que consiste en distribuir la muestra en forma
proporcional a la dispersión de los estratos.
𝑁ℎ 𝜎ℎ
𝑛ℎ = .𝑛
.C
∑ 𝑁𝑖 𝜎𝑖
Otra forma es la afijación proporcional, donde a cada estrato se le asigna una porción
DD
wh = (Nh /N).n de la muestra total. Encontramos dificultades cuando en algún estrato hay pocas
observaciones y/o elevada dispersión.
El mínimo error en las estimaciones se obtiene con la afijación planeada en la óptima.
En lo que sigue, se calcula para el muestreo estratificado, la varianza del estimador de la
media.
𝑉 (𝑌) = ∑ℎ 𝑊ℎ2 𝑉(𝑌ℎ )
LA
Depende del tipo de afijación usado, cual será finalmente la varianza en cada estrato y
por lo tanto la varianza total. Pero de cualquier manera, calculando la relación:
𝑉𝑎𝑟(𝑌𝑚. 𝑒𝑠𝑡𝑟𝑎𝑡. )
𝑉𝑎𝑟(𝑌𝑚. 𝑎𝑙𝑒𝑎𝑡. 𝑠𝑖𝑚𝑝𝑙𝑒 )
FI
se obtiene una medida de la eficiencia del muestreo estratificado (efecto del diseño).
Afijación
No Proporcional
Proporcional
Igual Óptima
𝑁ℎ 𝑛 𝑁ℎ 𝜎ℎ
𝑛ℎ = .𝑛 𝑛ℎ = 𝑛ℎ = .𝑛
𝑁 ℎ ∑ 𝑁𝑖 𝜎𝑖
Mientras más homogéneos sean internamente los estratos y mayor la diferencia entre
los estratos, que puede medirse con la dispersión entre las medias de cada estrato y la media
general, mayor será la ganancia por estratificación.
Resumen
● La P se divide en 2 o más grupos con alguna característica en común
● Se toma una MAS de cada grupo
● Las dos o más muestras se combinan en una
30
● Proporcional
OM
18. Muestreo y métodos de muestreo. Conceptos. Muestreos probabilísticos: caso de
Muestreo de conglomerados.
Muestreo, concepto.
Para diseñar una muestra, es imprescindible una correcta definición de la población
.C
con respecto a la cual se extraerán las conclusiones. A esto se le llama marco de la muestra, y
es el conjunto de elementos disponibles de los cuales se extraerá la muestra. No siempre es
posible contar con un listado completo del cual obtener la muestra representativa. Es
DD
necesario ser cuidadoso ya que en algunas ocasiones, las dificultades para definir el marco
llevan a que el mismo se aleje sensiblemente de la población y luego las conclusiones solo
podrán referirse al conjunto de elementos que proporcionaron el marco muestral, y no toda la
población.
El muestreo es el proceso por el cual puede conocerse algo acerca de una población en
LA
base a una muestra obtenida de ella. Este muestreo puede ser probabilístico o no
probabilístico.
¿Por qué hablamos de la varianza del estimador? La varianza del estimador es el
elemento que determinara el error máximo de estimación. Distintos métodos de muestreo
implican diferentes varianzas de los estimadores. Por ello, cuando se va a decidir el método de
FI
muestreo a utilizar es muy importante conocer la varianza de los estimadores que resultarán.
Además, es importante considerar el costo del relevamiento de cada método.
Muestreo de conglomerado.
31
Resumen
OM
● La población se divide en varios conglomerados.
● Se seleccionan muestras aleatorias simples en cada uno.
● Se combinan las muestras en una sola
⮚ Indicado cuando las muestras estadísticas están muy dispersas. Alto costo de
seleccionar al azar
⮚ Ideal cuando cada conglomerado es muy heterogéneo internamente y a su vez son
.C
todos parecidos entre sí.
⮚ Unos pocos conglomerados representan toda la población.
DD
19. Contraste de hipótesis. Procedimiento para la prueba de hipótesis. Pruebas de una y dos
colas. Errores tipo I y II.
LA
Prueba de hipótesis
Una hipótesis estadística es un enunciado provisional con respecto a una situación del
mundo real, generalmente expresada a través de relaciones particulares de ciertas variables en
estudio. Las hipótesis estadísticas son aquellas que pueden contrastarse con datos observados
FI
de la realidad.
La esencia de la comprobación de hipótesis estriba en verificar la relación expresada
por ella a través de la experimentación u observación de hechos de la vida real. Si la realidad
no se ajusta a la hipótesis planteada, se deberá repensar el problema y tal vez modificar la
hipótesis inicial y comenzar un nuevo ciclo en la investigación. Por medio de este
32
OM
si se cumple la hipótesis nula.
.C
4) Elegir n
5) Elegir el test
6) Establecer valores críticos
7) Recoger los datos
DD
8) Calcular el valor observado del estadístico y del p-value
9) Tomar la decisión estadística
10) Expresar la conclusión
Pruebas de 1 y 2 colas.
LA
La formulación de la hipótesis puede ser de dos tipos según como se exprese la alternativa:
a) Se desconoce la dirección en que se sospecha la falsedad de la hipótesis nula y se
especifica la hipótesis alternativa como p1 ≠ p2. Se dice entonces que la prueba es
bilateral.
b) Se conoce de antemano que la hipótesis nula, si se rechaza, tiene una dirección
FI
H0: θ = θ0 H1: θ ≠ θ0
Prueba unilateral
La hipótesis nula será rechazada para valores grandes (o pequeños) del estadístico
obtenido en la muestra.
H0: θ ≥ θ0 H1: θ < θ0
H0: θ ≤ θ0 H1: θ > θ0
Errores tipo I y tipo II.
Debemos recordar que se está decidiendo con respecto al parámetro poblacional a
partir de la información brindada por una muestra. En realidad, estamos “mirando por el ojo
de la cerradura” y en consecuencia, el investigador puede acertar o cometer un error. Es
necesario que el investigador plantee la prueba de hipótesis previendo que las probabilidades
de cometer cualquiera de estos dos errores sean lo más bajas posibles.
33
OM
Estos errores tienen una relación inversa, al aumentar uno, disminuye el otro,
manteniendo todo lo demás constante.
.C
● β sube cuando σ sube
● β sube cuando n baja
Test z: σ conocida
Supuestos
● Población normal.
● Si no es normal, n grande.
Estadístico:
𝑋−𝜇
𝜎 ~𝑁(0; 1)
√𝑛
Según el problema será lo que querremos probar, si por ejemplo queremos probar que la
media es menor de lo que se cree, entonces las hipótesis serán:
H0: μ ≥ valor k H1: μ < valor k
En el procedimiento de pruebas de hipótesis, es lógico pensar que la evidencia para
rechaza o no la hipótesis nula será proporcionada por una muestra aleatoria extraída de la
población de interés.
34
OM
distribución de la media muestral es normal, por ello utilizamos el test z. En este caso, como se
trata con un test unilateral izquierdo, la hipótesis nula se rechazara cuando el estimador
puntual x tome valores más pequeños que k. Cuanto más alejado este de ese valor, con mayor
razón vamos a rechazar H0
Existirá un valor de x, que denominaremos valor crítico y lo simbolizaremos con x* que
separara la región de rechazo y la de no rechazo según el nivel de significancia que hayamos
.C
elegido. La probabilidad de rechazar la hipótesis nula cuando es verdadera será el error tipo 1,
en este caso el área sombreada a la izquierda.
Como estas zonas son áreas de la distribución normal, debemos estandarizar el valor
crítico x* que establece el límite entre las dos zonas.
DD
H0: μ ≥ μ0 H1: μ < μ0
Estandarizando el punto crítico, bajo el supuesto que la hipótesis nula es verdadera,
tenemos:
𝑥 ∗ − 𝜇0
𝑧∗ = 𝜎
√𝑛
LA
De esta expresión se puede despejar el valor del estimador x* que separara las zonas
de rechazo y no rechazo.
𝜎
𝑥∗ = 𝑧∗
FI
+ 𝜇0
√𝑛
Si x ≥ x* no se rechaza H0
Existe otra manera de determinar las zonas de rechazo y de no rechazo de la hipótesis nula,
consistente en comparar directamente los valores estandarizados con el z crítico.
Intervalo de confianza:
𝜎
𝐿𝐼𝐶 = 𝑥 − 𝑧 ∗
√𝑛
𝜎
𝐿𝑆𝐶 = 𝑥 + 𝑧 ∗
√𝑛
A partir de las posibilidades que brinda la utilización de los paquetes estadísticos, suele
utilizarse el conocido p-value, que proporciona una información interesante acerca de la
35
OM
Cuanto menor sea p, menor es la probabilidad de aparición de una discrepancia como la
observada y menor será la credibilidad de H0.
Test t: σ desconocida
Supuestos:
● Población normal
● Si la población no es normal, n grande.
Estadístico:
.C 𝑋 − 𝜇0
𝑠 ~𝑡𝑛−1
DD
√𝑛
Intervalo de confianza:
𝑠 𝑠
𝐿𝐼𝐶 = 𝑋 − 𝑡𝑛−1;1−𝛼 𝐿𝐼𝐶 = 𝑋 + 𝑡𝑛−1;1−𝛼
2 √𝑛 2 √𝑛
OM
𝑥−𝜇 𝑥−𝜇
−𝑧1−𝛼 ≤ 𝜎 ≤ 𝑧1−𝛼 −𝑧1−𝛼 ≤ 𝜎 0 ≤ 𝑧1−𝛼
2 √𝑛 2 2 √𝑛 2
.C
Conclusión: μ estará contenido en el intervalo Conclusión: no se rechaza H0 con un nivel de
de confianza 1-α si: significación α si:
𝜎 𝜎
|𝑥 − 𝜇| ≤ 𝑧𝛼 |𝑥 − 𝜇0 | ≤ 𝑧𝛼
2 √𝑛 2 √𝑛
DD
Estas dos técnicas estadísticas no se contraponen sino que se complementan. Cuando
se toma la decisión de no rechazar la hipótesis nula, se toma como valor aceptado el que toma
el parámetro en estudio en dicha hipótesis. En cambio, cuando se rechaza la hipótesis nula,
para establecer entre qué valores se sitúa el mismo, se lo puede estimar a partir de un
intervalo de confianza. Siempre brinda mayor información el resultado de una prueba de
LA
hipótesis acompañado de una estimación por intervalos del parámetro que el resultado de la
prueba aislado. Al intervalo lo construimos cuando suponemos que rechazaremos la H0, en el
caso en que el valor del parámetro que establece la H0 esté incluido en el intervalo, no
rechazaríamos la hipótesis nula.
FI
37
OM
√𝑃0 𝑄0
𝑛
.C
indicar que la medida de discrepancia cae en la zona de rechazo.
No podremos saber en qué dirección estará el valor P en el caso de una prueba bilateral. En
este caso, es conveniente, luego de rechazar una hipótesis nula, hacer un intervalo de confianza
para tener una idea de qué valores está asumiendo en verdad la proporción poblacional. Es
DD
importante señalar que el intervalo resultante NO debe contener al valor de P señalado en la
hipótesis rechazada.
Intervalo de confianza:
𝑝̂.𝑞̂
𝑝̂ ∓ 𝑧√
𝑛
LA
38
OM
Conclusión: μ estará contenido en el intervalo Conclusión: no se rechaza H0 con un nivel de
de confianza 1-α si: significación α si:
𝑝̂ 𝑞̂ 𝑃0 𝑄0
|𝑝̂ − 𝑃| ≤ 𝑧𝛼 √ |𝑝̂ − 𝑃| ≤ 𝑧𝛼 √
2 𝑛 2 𝑛
.C
se toma la decisión de no rechazar la hipótesis nula, se toma como valor aceptado el que toma
el parámetro en estudio en dicha hipótesis. En cambio, cuando se rechaza la hipótesis nula,
para establecer entre qué valores se sitúa el mismo, se lo puede estimar a partir de un
intervalo de confianza. Siempre brinda mayor información el resultado de una prueba de
DD
hipótesis acompañado de una estimación por intervalos del parámetro que el resultado de la
prueba aislado. Al intervalo lo construimos cuando suponemos que rechazaremos la H0, en el
caso en que el valor del parámetro que establece la H0 esté incluido en el intervalo, no
rechazaríamos la hipótesis nula.
LA
FI
39
Este test tiene distribución chi cuadrado con n-1 grados de libertad. Por tratarse de una
prueba de hipótesis, el valor de σ2 se ha reemplazado por el establecido en la hipótesis
nula.
Se rechaza H0 si:
𝑠2
χ2= (n-1) 𝜎2 > χ21- α; n-1
Gráficamente:
OM
Vinculación con el intervalo de confianza.
.C
Los intervalos de confianza sirven como buenas estimaciones del parámetro de la
población debido a que el procedimiento tiende a producir intervalos que contienen el
parámetro. Los intervalos de confianza se componen de la estimación puntual (el valor más
probable) y un margen de error alrededor de esa estimación puntual. El margen de error indica
DD
la cantidad de incertidumbre que rodea a la estimación de la muestra del parámetro de
población.
Cuando nos fijamos en los niveles de significancia, los gráficos exhiben una
distribución muestral centrada en el valor de la hipótesis nula, y el 5% externo (por ejemplo)
de la distribución en el área sombreada. Para los intervalos de confianza, tenemos que cambiar
la distribución de muestreo de forma que se centre en la media de la muestra y la zona
LA
distribución conocida, por ejemplo: el estadístico para llevar a cabo la prueba es:
𝑥−𝜇 𝑥 − 𝜇0
𝑥~𝑁(0; 1) 𝑧 = 𝜎 𝑧= 𝜎
√𝑛 √𝑛
2) Utilizando la distribución de probabilidad 2) Se establece la siguiente zona de no
conocida, se establece: rechazo de la hipótesis nula:
𝑥−𝜇 𝑥−𝜇
−𝑧1−𝛼 ≤ 𝜎 ≤ 𝑧1−𝛼 −𝑧1−𝛼 ≤ 𝜎 0 ≤ 𝑧1−𝛼
2 √𝑛 2 2 √𝑛 2
23. Función de potencia y curva OC. Conceptos. Aplicación al caso de la media. Pruebas
OM
unilaterales y bilaterales.
.C
cuando las diferencias entre los valores muestrales y el valor verdadero se deban solamente al
azar y cuando la discrepancia es tan grande que la evidencia muestral no pueda sostener al
valor que toma el parámetro en la hipótesis nula. Es decir, se debe buscar la prueba más
potente.
DD
La potencia de una prueba se define como la función que establece la probabilidad de
rechazar la hipótesis nula cuando es falsa. La potencia de una prueba es igual a 1-β. Pero si
bien la hipótesis nula puede identificarse con un valor exacto o una situación exacta siempre
tiene el signo igual, aunque sea unilateral; la alternativa señala un conjunto infinito de valores
o de situaciones: el parámetro es “mayor que…” o “distinto a…” o “la distribución de la
población no es normal”, etc.
LA
Para cada uno de los posibles valores que puede tomar el parámetro en la hipótesis
alternativa es posible calcular la probabilidad de rechazar la hipótesis nula, esto es, calcular la
potencia correspondiente a ese valor. La potencia de un test para valores de la alternativa
cercanos a la hipótesis nula es baja, y aumenta cuando la alternativa se aleja de la hipótesis
nula. Así como se puede calcular la función de potencia, también se puede el error tipo II que
FI
población. Como se trata de una prueba unilateral derecha, la medida de discrepancia es:
𝑥−5
𝑑𝑜𝑏𝑠 =
2
√16
41
OM
Calculamos ahora la probabilidad de cometer el error de tipo II con esta prueba
usando μ=6, esto es, estaríamos en situación de no rechazar H0 cuando la media es igual a 6.
El área sombreada en el segundo grafico es la probabilidad de que siendo μ=6, se acepte H0, es
decir, es la probabilidad de cometer el error tipo II cuando μ=6.
Puede observarse que si α disminuyera, aumentaría β. Al aumentar el tamaño de la
muestra se puede disminuir ambos errores simultáneamente porque se reduciría el error
estañar de la distribución de la media muestral. Esta es la única manera de reducir ambos
.C
errores a la vez.
Dando distintos valores a μ, se obtiene la función de potencia de la prueba de
hipótesis considerada. Si quisiéramos construir la curva CO, se procedería de igual manera
pero calculando β para cada valor de μ.
DD
En una prueba unilateral derecha la potencia se visualiza en el siguiente grafico:
LA
es verdadera, y el estadístico varia alrededor de μ= μ1, siendo μ1 un valor posible entre los
infinitos valores que establece la H1.
La potencia esa representada en el área de rechazo de la distribución bajo la hipótesis
nula pero considerando también que se cumple la hipótesis alternativa, o sea bajo la segunda
distribución con media μ1.
Potencia bilateral:
42
.C
24. Prueba de hipótesis e intervalos de confianza para la diferencia de medias poblaciones.
Muestras independientes. Supuestos y aplicaciones.
DD
Prueba de hipótesis para diferencia de medias poblacionales (muestras independientes).
● Diferentes fuentes de datos
⮚ No relacionados
⮚ Independientes
o La muestra seleccionada de una población no tiene efecto o
consecuencias en la muestra seleccionada en la otra población
LA
En estos casos existe un factor con dos niveles posibles (dos técnicas de enseñanza,
dos campañas publicitarias, etc.), la pregunta es si esos niveles producen un resultado
FI
xij= ti + eij i = 1,2 j = 1,2,…,n Donde eij es la componente aleatoria aportada por c/ familia.
43
OM
Test z para muestras independientes (σ2 conocida)
Supuestos
● Las muestras son seleccionadas aleatoriamente e independientemente de
distribuciones normales
● Se conocen las varianzas poblacionales
Estadístico:
.C
(𝑥1 − 𝑥2 ) − (𝜇1 − 𝜇2 )
𝑍 𝑜𝑏𝑠 =
1 1
√𝜎 2 ( + )
𝑛 1𝑛 2
DD
Test t de varianzas ponderadas (σ2 desconocidas)
Supuestos
● Ambas poblaciones se distribuyen normalmente
● Muestras aleatorias independientemente seleccionadas
● Varianzas poblacionales desconocidas pero supuestamente iguales
LA
Estadístico:
(𝑥1 − 𝑥2 ) − (𝜇1 − 𝜇2 )
~𝑡𝑛1 +𝑛2 +2
1 1
√𝑠𝑝2 ( +𝑛 )
𝑛1 2
44
OM
varianzas poblacionales.
Las hipótesis a considerar son las siguientes:
H0: σ21 = σ22 ó σ21/ σ22 = 1 H1: σ21 ≠ σ22 ó σ21/ σ22 ≠ 1
El estadístico a llevar a cabo es el siguiente:
𝑆12
𝜎2
𝐹(𝑛1 −1);(𝑛2 −1) = 12
.C
𝑆2
𝜎22
Para simplificar el análisis gráfico, utilizaremos el cociente de varianzas como hipótesis para
que la prueba sea unilateral derecha. Además, las pruebas unilaterales son más potentes que
LA
45
𝑑−𝐷 𝑆𝑑
𝜎𝑑 = 𝑍 𝐷 ∈ (𝑑 ± 𝑍𝛼 )
2 √𝑛
√𝑛
OM
● Ambas poblaciones se distribuyen normalmente
● Las observaciones están apareadas
● Varianza desconocida
● Si la población no es normal, muestra grande
Estadístico:
𝑑−𝐷 𝑑−𝐷
= ~𝑡𝑛−1
𝑆 2 𝑆𝑑
.C
Intervalo de confianza:
√ 𝑑
𝑛 √𝑛
𝑆𝑑
DD
𝐷 ∈ (𝑑 ± 𝑡𝑛−1;𝛼 )
2 √𝑛
● Prueba paramétrica
● Supuestos
⮚ Ambas poblaciones están normalmente distribuidas
o La prueba no es robusta a la violación de este supuesto
⮚ Las muestras fueron seleccionadas aleatoria e independientemente.
46
OM
poblacionales. Supuestos y aplicaciones.
.C
Ejemplo:
Sexo Varones Mujeres Total
Beneficiarios plan 117 54 171
No beneficiarios plan 950 348 1298
DD
Total 1067 402 1469
𝑛1 𝑝̂1 + 𝑛2 𝑝̂ 2 1 1
√
𝑛1 + 𝑛2 + (𝑛1 + 𝑛2 )
47
OM
● Esta prueba no es equivalente a probar igualdad de varias medias utilizando pruebas t
con dos muestras.
Error tipo 1: 1 – (1 – α)n ; n = cantidad de pruebas
Comparaciones múltiples.
Variación entre y dentro de grupos
.C
Se subdivide la variación total de las mediciones obtenidas en el experimento en dos
partes, una correspondiente a la variación entre grupos y la otra correspondiente a la variación
dentro de grupos. Variación total:
𝑐 𝑛𝑗
DD
∑ ∑ (𝑥 − 𝑥 )2
𝑗=1 𝑖=1
∑ 𝑛𝑗. (𝑥 − 𝑥 )2
FI
𝑗=1
La variación entre grupos se conoce como Suma de cuadrados entre grupos (SCE) y
mide la suma de las diferencias al cuadrado entre la media de cada grupo y la media general,
ponderadas por el tamaño de cada grupo.
∑ ∑ (𝑥 − 𝑥 )2
𝑗=1 𝑖=1
∑ (𝑛 − 1) = 𝑛 − 𝑐
𝑗=1
48
∑ 𝑛 =𝑛
𝑗=1
Es posible observar que los grados de libertad asociados a las sumas de cuadrados
también son aditivos.
n – 1 = (c – 1) + (n – c)
Si cada suma de cuadrados se divide por sus respectivos grados de libertad asociados,
se obtienen tres varianzas, o términos cuadráticos medios.
CMT = (SCT/n-1)
CME = (SCE/c-1)
OM
CMD = (SCD/n-c)
.C
varianzas muestrales estimen la misma varianza poblacional. Este es el test F. El estadístico es
el cociente de las varianzas calculadas con los datos muestrales:
𝐶𝑀𝐸
DD
Fc-1, n-c = 𝐶𝑀𝐷
La varianza del numerador tiene c – 1 grados de libertad y la del denominador n – c
grados de libertad. Fijamos un nivel de significación y observamos el valor crítico, en base a eso
lo comparamos con el valor observado. Si es el valor observado es mayor al crítico, se rechaza
la H0. Es una prueba unilateral derecha.
Si la H0 se rechaza, entonces la variabilidad entre grupos no es igual a la variabilidad
LA
intrínseca del material experimental, y la conclusión es que las dos varianzas no estiman a la
misma varianza poblacional, se rechaza la igualdad de medias.
Tabla ANOVA
Grados Valor de
Origen de las Cuadrados
FI
Variaciones
Suma de Cuadrados de
Medios
Fobs p
Libertad
𝑆𝐶𝐸 p
𝑐 𝑆𝐶𝐸 𝐶𝑀𝐸
Entre Grupos
=∑ 𝑛𝑗 (𝑥𝑗 − 𝑥𝑗 )2
c-1 𝐶𝑀𝐸 = 𝐹=
𝑐−1 𝐶𝑀𝐷
𝑗=1
𝑆𝐶𝐷
𝑛𝑗
Dentro de 𝑐 𝑆𝐶𝐷
2 n-c 𝐶𝑀𝐷 =
Grupos =∑ ∑ (𝑥𝑖𝑗− 𝑥𝑗 ) 𝑛−𝑐
𝑗=1 𝑖=1
𝑆𝐶𝑇
𝑐 𝑛𝑗
TOTAL n-1
=∑ ∑ (𝑥𝑖𝑗− 𝑥𝑗 )2
𝑗=1 𝑖=1
Graficamos:
49
OM
● Estas pruebas están disponibles para tratar datos que son simplemente clasificatorios
o categóricos, que son medidos en escala nominal. Ninguna técnica paramétrica se
aplica a tales datos.
.C
puede ser un problema elegir la adecuada
● No son tan potentes como las paramétricas
DD
Prueba Chi cuadrado de independencia.
Se trata de una situación en la que interesa poner a prueba si existe o no
independencia entre dos variable cualitativas de una población. Se toma una muestra, se
construye una tabla de contingencia con las dos variables cualitativas de interés, y en base a la
distribución de frecuencias conjunta observada en la tabla y la frecuencia esperada, se calcula
de acuerdo a la hipótesis nula planteada. Se construye el estadístico Chi cuadrado para evaluar
LA
la diferencia entre ambas. Si la diferencia no es significativa, concluimos que las variables son
independientes. Caso contrario, son dependientes.
Ejemplo
Nivel educa- Primario Secundario Terciario Totales
FI
OM
Finamente, nos resta obtener los grados de libertad asociado al estadístico de la prueba,
recordando que dichos grados de libertad se obtienen de la cantidad de celdas luego de
reagrupar: (f – 1).(c – 1)
Resumen
● Muestra
.C
⮚ Se toma un muestra
⮚ Cada factor tiene dos o más niveles de respuestas
⮚ NO muestra la naturaleza de la relación
DD
⮚ NO muestra causalidad
● Es parecido a probar p1 = p2 =…= pc
● Se usa muchísimo en marketing
● Usa la tabla de contingencia
30. Ventajas y desventajas del uso de métodos no paramétricos. La prueba chi cuadrado de
LA
● Si el tamaño de la muestra es muy pequeño, puede no haber otra opción que usar una
prueba estadística no paramétrica, a menos que la distribución de la población se
conozca con exactitud.
● Hacen menos suposiciones acerca de los datos y pueden ser más relevantes a una
situación en particular. Además, las hipótesis probadas por una prueba no paramétrica
2
(𝜃𝑖 − ℮𝑖 )2
𝜒𝑜𝑏𝑠 =∑
℮𝑖
Cabe recordar que en las pruebas Chi cuadrado la frecuencia esperada por intervalo/fila no
OM
puede ser menor a 5.
Ejemplo:
Días de atraso Cantidad de clientes
0 19
.C 1
2
3
25
22
8
DD
4 3
5 2
6 1
Total 80
1 2 3 4 5
FI
0 19 0,2209 18 0,06
1 25 0,3336 27 0,15
2 22 0,2518 20 0,20
3 8 0,1268 10 0,40
4 o más 6 0,0669 5 0,20
Total 80 1 80 1,01
Regla de decisión: Se necesita encontrar un valor critico que separe la zona de rechazo de la de
no rechazo. Prueba unilateral derecha.
2 2
Rechazo 𝐻0 𝑠𝑖 𝜒𝑜𝑏𝑠 > 𝜒𝑐𝑟í𝑡
Los grados de libertad se obtienen de la siguiente manera: k – p – 1. k es el número de
categorías y p el número de parámetros. En nuestro ejemplo: 5 – 2 = 3.
52
OM
● Se usa cuando se disponen muchos datos.
.C
comparación entre las frecuencias acumuladas de la distribución de los datos ordenados de la
muestra y la distribución teórica propuesta en la hipótesis nula. De calcular previamente la
distancia entre ambas funciones de distribución, se observa cuál es la distancia máxima, el
punto que presenta mayor diferencia, Dobs, entonces:
DD
𝐷𝑜𝑏𝑠 = 𝑚á𝑥|𝐹𝑡 − 𝐹𝑜 |~𝐷𝛼/𝑛
d2i = Diferencia entre la frec. teórica asociada al valor de la vble. y la frec. observada hasta ese
valor.
Dmax = Distancias máximas entre la distribución teórica y la distribución observada para cada
valor de la vble. Se resalta la distancia máxima entre las máximas.
Si la distancia calculada (Dobs) es mayor que la que figura en tablas para un nivel de
significación α determinado, se rechazará el modelo Ft. Significa que una diferencia tan grande
como la observada no puede deberse al azar y por tanto los datos de la muestra no provienen
de la distribución especificada. Si por el contrario, Dobs es mejor al valor de la tabla, entonces
no se rechaza la H0 y las observaciones muestrales se ciñen al modelo propuesto.
Esta prueba es muy usada en los casos en los que el tamaño de muestra es pequeño y
se caracteriza por casi nunca rechazar la hipótesis nula (es por esto que en 1967 Lilliesford
modifica la tabla)
53
Resumen
● Se usa para asegurarse que se cumpla el supuesto de población normal
● El contraste de normalidad se plantea en los siguientes términos
⮚ H0: La muestra procede de una población normal
⮚ H1: La muestra no procede de una población normal
● Se puede concluir interpretando los valores del p-value de las salidas del soft.
OM
31. Ventajas y desventajas del uso de métodos no paramétricos. La prueba chi cuadrado de
homogeneidad. Prueba de Marascuilo. Vínculo y limitaciones frente a pruebas paramétricas
equivalentes.
.C
Ventajas de las pruebas no paramétricas.
● Fáciles de usar y entender.
● Si el tamaño de la muestra es muy pequeño, puede no haber otra opción que usar una
DD
prueba estadística no paramétrica, a menos que la distribución de la población se
conozca con exactitud.
● Hacen menos suposiciones acerca de los datos y pueden ser más relevantes a una
situación en particular. Además, las hipótesis probadas por una prueba no paramétrica
pueden ser más adecuadas para la investigación.
● Estas pruebas están disponibles para tratar datos que son simplemente clasificatorios
LA
54
OM
procede a realizar la prueba de Marascuilo en donde lo que se busca es detectar entre cuales
proporciones existe una diferencia significativa.
Primero se calculan las diferencias en valores absolutos entre las distintas
proporciones observadas. Esa diferencia se compara con el valor crítico, que se obtiene de la
siguiente forma:
.C
DD
Si la diferencia en valores absolutos de los valores observados es mayor al valor crítico
entonces se concluye que hay diferencias entre las proporciones poblacionales que se
comparan, al nivel de significación especificado.
El análisis de correlación se usa para medir la fuerza de asociación entre dos variables
numéricas (relación lineal). En este análisis no están implicados efectos causales. Se hace una
prueba de hipótesis de la siguiente forma: 𝐻0 : 𝜌 = 0 (no existe correlación)
𝐻1 : 𝜌 ≠ 0 (existe correlación)
FI
𝑟−𝜌
𝑡= 2
√1−𝑟
𝑛−2
𝑆𝐶𝑅
Recordando que 𝑟 2 = 𝑆𝐶𝑇
OM
● Relación lineal negativa (a mayores valores de x, menores valores de y a una tasa
relativamente constante)
● Relación no lineal (pueden existir rendimientos crecientes o decrecientes a medida
que aumenta el valor de x);
● No hay relación (cuando no existe un patrón que vincule a ambas variables).
El coeficiente de determinación mide la proporción de variabilidad total de la variable de
.C
respuesta que es explicada por el modelo de regresión propuesto. Se obtiene de la siguiente
𝑆𝐶𝑅
forma: 𝑟 2 = .
𝑆𝐶𝑇
El análisis de regresión puede ser hecho mediante modelos lineales y modelos no lineales
(no se ven en esta asignatura) y a su vez dentro de los lineales están el simple y el múltiple. En
DD
el modelo de regresión lineal simple, el cambio unitario en una variable (x) afecta y provoca un
cambio en otra (y) a una tasa constante 𝛽1 . Esta tasa constante es la pendiente poblacional y
es estimada a través de 𝑏1 . La ecuación de regresión poblacional es una recta que describe la
dependencia del valor promedio (media condicional) de una variable sobre la otra.
LA
FI
recta poblacional y pronósticos del valor de Y. Cuantifica la relación entre las variables.
Para poder realizar el análisis de regresión lineal es necesario que se cumplan ciertos
supuestos:
● Que los valores de Y se distribuyan normalmente para cada valor de x;
● Que la distribución de los errores sea normal;
● Que los errores sean independientes;
● Que se cumpla la homocedasticidad (varianza constante).
56
𝑏0 = 𝑌 − 𝑏1 𝑋
𝐶𝑜𝑣(𝑥, 𝑦) ∑ 𝑦𝑖 𝑥𝑖 − 𝑛𝑥𝑦
𝑏1 = =
𝑆𝑥2 ∑ 𝑥𝑖2 − 𝑛𝑥 2
OM
33. Análisis de regresión. El diagrama de dispersión. Conceptos, tipos de regresión, usos.
.C
Análisis de regresión.
En el análisis de regresión estamos interesados en la posibilidad de predecir una
variable Y (dependiente/ de respuesta) en base a los valores de una variable independiente, o
explicativa, X. Se busca entonces modelar esta relación, implicando efectos causales. Sirve
DD
también para cuantificar el peso de ciertas variables independientes sobre la dependiente.
Está vinculado con el análisis de correlación, ya que al parámetro de correlación lineal
𝜌 se lo estima mediante r, que resulta igual a la raíz cuadrada del 𝑟 2 del análisis de regresión.
El r, a su vez, asume el signo del estimador de la pendiente 𝑏1 del análisis de regresión. De aquí
es que se puede ver que siempre que r tienda a -1 o a 1, el 𝑟 2 (coeficiente de determinación)
va a tender a 1.
LA
(no se ven en esta asignatura) y a su vez dentro de los lineales están el simple y el múltiple.
En el modelo de regresión lineal simple el cambio unitario en una variable (x) afecta y
provoca un cambio en otra (y) a una tasa constante 𝛽1 . Esta tasa constante es la pendiente
poblacional y es estimada a través de 𝑏1 . La ecuación de regresión poblacional es una recta
que describe la dependencia del valor promedio (media condicional) de una variable sobre la
otra.
57
OM
● Que los errores sean independientes;
● Que se cumpla la homocedasticidad (varianza constante).
.C
Se obtienen los siguientes estimadores:
𝑏0 = 𝑌 − 𝑏1 𝑋
DD
𝐶𝑜𝑣(𝑥, 𝑦) ∑ 𝑦𝑖 𝑥𝑖 − 𝑛𝑥𝑦
𝑏1 = =
𝑆𝑥2 ∑ 𝑥𝑖2 − 𝑛𝑥 2
Diagrama de dispersión.
A través de un diagrama de dispersión podemos ver gráficamente el comportamiento
de la variable de respuesta a distintos valores de la variable independiente. Según como estén
Se puede dibujar una línea de ajuste (llamada también "línea de tendencia") con el fin de
estudiar la correlación entre las variables. Una ecuación para la correlación entre las variables
puede ser determinada por procedimientos de ajuste. Para una correlación lineal, el
procedimiento de ajuste es conocido como regresión lineal y garantiza una solución correcta
en un tiempo finito.
58
34. Tipos de modelos de regresión. Modelo probabilístico lineal simple. Estimación de los
parámetros del modelo mediante mínimos cuadrados.
Análisis de regresión.
En el análisis de regresión estamos interesados en la posibilidad de predecir una
variable Y (dependiente/ de respuesta) en base a los valores de una variable independiente, o
explicativa, X. Se busca entonces modelar esta relación, implicando efectos causales. Sirve
también para cuantificar el peso de ciertas variables independientes sobre la dependiente.
Está vinculado con el análisis de correlación, ya que al parámetro de correlación lineal
OM
𝜌 se lo estima mediante r, que resulta igual a la raíz cuadrada del 𝑟 2 del análisis de regresión.
El r, a su vez, asume el signo del estimador de la pendiente 𝑏1 del análisis de regresión. De aquí
es que se puede ver que siempre que r tienda a -1 o a 1, el 𝑟 2 (coeficiente de determinación)
va a tender a 1.
El coeficiente de determinación mide la proporción de variabilidad total de la variable de
respuesta que es explicada por el modelo de regresión propuesto. Se obtiene de la siguiente
𝑆𝐶𝑅
.C
forma: 𝑟 2 = 𝑆𝐶𝑇 .
El análisis de regresión puede ser hecho mediante modelos lineales y modelos no lineales
(no se ven en esta asignatura) y a su vez dentro de los lineales están el simple y el múltiple.
DD
Modelo de regresión lineal simple
En el modelo de regresión lineal simple el cambio unitario en una variable (x) afecta y
provoca un cambio en otra (y) a una tasa constante 𝛽1 . Esta tasa constante es la pendiente
poblacional y es estimada a través de 𝑏1 . La ecuación de regresión poblacional es una recta
que describe la dependencia del valor promedio (media condicional) de una variable sobre la
otra.
LA
FI
59
OM
𝑛 𝑛 𝑛
CPO:
.C
𝑛
𝜕 ∑𝑛𝑖=1 (𝑦𝑖 − 𝑦̂𝑖 )2
= −2 ∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )1 = 0
𝜕𝑏0
𝑖=1
DD
𝑛
𝜕 ∑𝑛𝑖=1 (𝑦𝑖 − 𝑦̂𝑖 )2
=∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )1 = 0
𝜕𝑏0
𝑖=1
𝑛 𝑛
∑ 𝑦𝑖 = 𝑛𝑏0 + 𝑏1 ∑ 𝑥𝑖
𝑖=1 𝑖=1
Dividida por n:
FI
𝑌 = 𝑏0 + 𝑏1 𝑋 (1)
𝑏0 = 𝑌 − 𝑏1 𝑋
𝑛
𝜕 ∑𝑛𝑖=1 (𝑦𝑖 − 𝑦̂𝑖 )2
= −2𝑥𝑖 ∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )1 = 0
𝜕𝑏1
𝑖=1
𝑛
𝜕 ∑𝑛𝑖=1 (𝑦𝑖 − 𝑦̂𝑖 )2
= 𝑥𝑖 ∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )1 = 0
𝜕𝑏1
𝑖=1
𝑛 𝑛 𝑛
∑ 𝑦𝑖 𝑥𝑖 = 𝑏0 ∑ 𝑥𝑖 + 𝑏1 ∑ 𝑥𝑖2
𝑖=1 𝑖=1 𝑖=1
60
∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖
( − 𝑋𝑌)
𝑛
= 𝑏1
∑𝑛 𝑥2
OM
( 𝑖=1𝑛 𝑖 − 𝑋 2 )
∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖 − 𝑛𝑋𝑌
( 𝑛 )
= 𝑏1
∑𝑛𝑖=1 𝑥𝑖2 − 𝑛𝑋 2
( )
.C
𝑛
∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖 − 𝑛𝑋𝑌
DD
= 𝑏1
∑𝑛𝑖=1 𝑥𝑖2 − 𝑛𝑋 2
Quedando:
𝐶𝑜𝑣(𝑥, 𝑦) ∑ 𝑦𝑖 𝑥𝑖 − 𝑛𝑥𝑦
𝑏1 = =
LA
𝑆𝑥2 ∑ 𝑥𝑖2 − 𝑛𝑥 2
𝐸(𝑏0 ) = 𝐸(𝛽 ̂0 ) = 𝛽0 y ̂0 ) = 𝜎 2 [1 +
𝑉𝑎𝑟(𝑏0 ) = 𝑉𝑎𝑟(𝛽 𝑛
𝑥2
∑𝑛 (𝑥𝑖 −𝑥)2
]
𝑖=1
𝜎2
̂1 ) = 𝛽1 ̂1 ) = 𝑛
1 𝑥2
𝑏0 ~𝑁 (𝛽0 ; 𝜎 2 [ + 2 ])
𝑛 ∑𝑛 (𝑥𝑖 − 𝑥)
𝑖=1
𝜎2
𝑏1 ~𝑁 (𝛽1 ; 2)
∑𝑛𝑖=1 (𝑥𝑖 − 𝑥)
Dijimos entonces que los propósitos del análisis de regresión son 2: i) encontrar un
mecanismo para mejorar nuestras estimaciones a partir de la posibilidad de estimar medias
poblacionales (estimar valores medios); ii) disponer de una herramienta de previsión de la
61
35. Tipos de modelos de regresión. Modelo probabilístico lineal simple. Estimación de los
parámetros del modelo mediante máxima verosimilitud. Supuestos básicos del análisis de
regresión.
Análisis de regresión.
En el análisis de regresión estamos interesados en la posibilidad de predecir una
variable Y (dependiente/ de respuesta) en base a los valores de una variable independiente, o
explicativa, X. Se busca entonces modelar esta relación, implicando efectos causales. Sirve
también para cuantificar el peso de ciertas variables independientes sobre la dependiente.
OM
Está vinculado con el análisis de correlación, ya que al parámetro de correlación lineal
𝜌 se lo estima mediante r, que resulta igual a la raíz cuadrada del 𝑟 2 del análisis de regresión.
El r, a su vez, asume el signo del estimador de la pendiente 𝑏1 del análisis de regresión. De aquí
es que se puede ver que siempre que r tienda a -1 o a 1, el 𝑟 2 (coeficiente de determinación)
va a tender a 1.
El coeficiente de determinación mide la proporción de variabilidad total de la variable de
.C
respuesta que es explicada por el modelo de regresión propuesto. Se obtiene de la siguiente
𝑆𝐶𝑅
forma: 𝑟 2 = .
𝑆𝐶𝑇
El análisis de regresión puede ser hecho mediante modelos lineales y modelos no lineales
(no se ven en esta asignatura) y a su vez dentro de los lineales están el simple y el múltiple.
DD
Modelo de regresión lineal simple
En el modelo de regresión lineal simple el cambio unitario en una variable (x) afecta y
provoca un cambio en otra (y) a una tasa constante 𝛽1 . Esta tasa constante es la pendiente
poblacional y es estimada a través de 𝑏1 . La ecuación de regresión poblacional es una recta
que describe la dependencia del valor promedio (media condicional) de una variable sobre la
LA
otra.
La estimación de estos
FI
variables.
Para poder realizar el análisis de regresión lineal es necesario que se cumplan ciertos
supuestos, verificados gracias al análisis residual, que busca examinar la linealidad y evaluar
violaciones de supuestos:
62
OM
● Que la distribución de los errores sea normal;
.C
DD
LA
FI
63
OM
Los parámetros de la recta de regresión pueden ser aproximados mediante
estimadores de máxima verosimilitud, obtenidos por: i) Método de máxima verosimilitud; ii)
Método de mínimos cuadrados.
A partir de ambos métodos el resultado final es el mismo. El método de máxima
verosimilitud, a partir de incorporar los supuestos del análisis de regresión, busca maximizar la
.C
función de probabilidad conjunta de la muestra completa, derivando respecto a los
parámetros a estimar (𝛽0 , 𝛽1 ) e igualando a cero. Su proceso es el siguiente:
1 −
1
(𝑦 −𝑏 −𝑏 𝑥 )2
𝐿(𝛽0 , 𝛽1 , 𝜎 2 , 𝑦𝑖 ) = 𝑒 2𝜎2 𝑖 0 1 𝑖
DD
√2𝜋𝜎 2
𝑛
1 −
1
∑ (𝑦𝑖 −𝑏0 −𝑏1 𝑥𝑖 )2
𝐿(𝛽0 , 𝛽1 , 𝜎 2 ) = ( ) 𝑒 2𝜎2
√2𝜋𝜎 2
LA
𝑛 1
− ∑ (𝑦𝑖 −𝑏0 −𝑏1 𝑥𝑖 )2
𝑙𝑛 𝑙𝑛 𝐿(𝛽0 , 𝛽1 , 𝜎 2 ) =𝑙𝑛 𝑙𝑛 (2𝜋𝜎 2 )−2 +𝑙𝑛 𝑙𝑛 𝑒 2𝜎2
𝑛
𝑛 𝑛 1
𝑙𝑛 𝑙𝑛 𝐿(𝛽0 , 𝛽1 , 𝜎 2 ) = − 𝑙𝑛 𝑙𝑛 2𝜋 − 𝑙𝑛 𝑙𝑛 𝜎 2 − 2 ∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )2
2 2 2𝜎
FI
𝑖=1
CPO:
𝑛
𝜕 𝑙𝑛 𝑙𝑛 𝐿(𝛽0 , 𝛽1 , 𝜎 2 ) 1
= 2∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )1
𝜕𝛽0 𝜎
𝑖=1
𝑛
𝜕 𝑙𝑛 𝑙𝑛 𝐿(𝛽0 , 𝛽1 , 𝜎 2 )
=∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )1 = 0
𝜕𝛽0
𝑖=1
∑ 𝑦𝑖 = 𝑛𝑏0 + 𝑏1 ∑ 𝑥𝑖
𝑖=1 𝑖=1
Dividida por n:
64
El estimador para 𝛽1 :
𝑛
𝜕 𝑙𝑛 𝑙𝑛 𝐿(𝛽0 , 𝛽1 , 𝜎 2 )
= 𝑥𝑖 ∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )1 = 0
𝜕𝛽1
𝑖=1
OM
𝑛 𝑛 𝑛
∑ 𝑦𝑖 𝑥𝑖 = 𝑏0 ∑ 𝑥𝑖 + 𝑏1 ∑ 𝑥𝑖2
𝑖=1 𝑖=1 𝑖=1
.C
∑𝑛𝑖=1
𝑛
𝑦𝑖 𝑥𝑖
− 𝑋𝑌 = 𝑏0
∑𝑛𝑖=1 𝑥𝑖
𝑛
− 𝑏0 𝑋 + 𝑏1
∑𝑛𝑖=1 𝑥𝑖2
𝑛
− 𝑏1 𝑋 2
DD
∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖 ∑𝑛𝑖=1 𝑥𝑖2
− 𝑋𝑌 = 𝑏1 ( − 𝑋2)
𝑛 𝑛
∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖
LA
( 𝑛 − 𝑋𝑌)
= 𝑏1
∑𝑛 𝑥2
( 𝑖=1𝑛 𝑖 − 𝑋 2 )
FI
∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖 − 𝑛𝑋𝑌
( 𝑛 )
= 𝑏1
∑𝑛𝑖=1 𝑥𝑖2 − 𝑛𝑋 2
( 𝑛 )
∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖 − 𝑛𝑋𝑌
= 𝑏1
∑𝑛𝑖=1 𝑥𝑖2 − 𝑛𝑋 2
Quedando:
𝐶𝑜𝑣(𝑥, 𝑦) ∑ 𝑦𝑖 𝑥𝑖 − 𝑛𝑥𝑦
𝑏1 = =
𝑆𝑥2 ∑ 𝑥𝑖2 − 𝑛𝑥 2
65
𝜎2
̂1 ) = 𝛽1
𝐸(𝑏1 ) = 𝐸(𝛽 y ̂1 ) = 𝑛
𝑉𝑎𝑟(𝑏1 ) = 𝑉𝑎𝑟(𝛽 2
∑ 𝑖=1 (𝑥𝑖 −𝑥)
1 𝑥2
𝑏0 ~𝑁 (𝛽0 ; 𝜎 2 [ + 2 ])
𝑛 ∑𝑛 (𝑥𝑖 − 𝑥)
𝑖=1
𝜎2
𝑏1 ~𝑁 (𝛽1 ; 2)
OM
∑𝑛𝑖=1 (𝑥𝑖 − 𝑥)
.C
El estimador para 𝜎 2 :
𝜕 𝑙𝑛 𝑙𝑛 𝐿(𝛽0 , 𝛽1 , 𝜎 2 )
𝜕𝜎 2
𝑛 1
= − 2 + 4∑
2𝜎 2𝜎
𝑛
(𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )2
DD
𝑖=1
𝑛
𝜕 𝑙𝑛 𝑙𝑛 𝐿(𝛽0 , 𝛽1 , 𝜎 2 ) 𝑛𝑠 2 1
= − + ∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )2 = 0
𝜕𝜎 2 2𝑠 4 2𝑠 4
𝑖=1
LA
𝑛
2 (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )2 = 0
−𝑛𝑠 + ∑
𝑖=1
𝑛
FI
∑ (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )2 = 𝑛𝑠 2
𝑖=1
∑𝑛𝑖=1 (𝑦𝑖 − 𝑏0 − 𝑏1 𝑥𝑖 )2
2
= 𝑠𝑥𝑦
𝑛−2
Dijimos entonces que los propósitos del análisis de regresión son 2: i) encontrar un
mecanismo para mejorar nuestras estimaciones a partir de la posibilidad de estimar medias
poblacionales (estimar valores medios); ii) disponer de una herramienta de previsión de la
variable de respuesta ante valores de la variable independiente, quizás aún no asumidos o
futuros (estimar valores individuales).
El modelo de regresión múltiple es una generalización del modelo de regresión lineal simple
para 2 o más variables independientes (sigue siendo un modelo lineal).
66
OM
● Relación lineal negativa (a mayores valores de x, menores valores de y a una tasa
relativamente constante).
● Relación no lineal (pueden existir rendimientos crecientes o decrecientes a medida
que aumenta el valor de x).
● No hay relación (cuando no existe un patrón que vincula ambas variables).
.C
El análisis de regresión puede ser hecho mediante modelos lineales y modelos no lineales
(no se ven en esta asignatura) y a su vez dentro de los lineales están el simple y el múltiple.
En el modelo de regresión lineal simple el cambio unitario en una variable (x) afecta y
provoca un cambio en otra (y) a una tasa constante 𝛽1 . Esta tasa constante es la pendiente
DD
poblacional y es estimada a través de 𝑏1 . La ecuación de regresión poblacional es una recta
que describe la dependencia del valor promedio (media condicional) de una variable sobre la
otra.
LA
FI
En la ecuación de la recta se puede ver que hay un término de error aleatorio, que
registra las diferencias que se producen entre los puntos graficados en el diagrama de
dispersión y la recta que hipotéticamente los vincula. Estas diferencias se deben a la influencia
67
OM
El error estimado es la diferencia entre el valor de Y estimado por el modelo y el valor
de Y realmente observado.
𝑒𝑖 = 𝑌𝑖 − 𝑌̂𝑖 = 𝑌𝑖 − 𝑏0 − 𝑏1 𝑥𝑖
.C
2
∑ 𝑛
(𝑌𝑖 − 𝑌̂𝑖 )
𝑆𝑥𝑦 = √ 𝑖=1
𝑛−2
DD
LA
explicativa, X. Se busca entonces modelar esta relación, implicando efectos causales. Sirve
también para cuantificar el peso de ciertas variables independientes sobre la dependiente.
Está vinculado con el análisis de correlación, ya que al parámetro de correlación lineal
𝜌 se lo estima mediante r, que resulta igual a la raíz cuadrada del 𝑟 2 del análisis de regresión.
El r, a su vez, asume el signo del estimador de la pendiente 𝑏1 del análisis de regresión. De aquí
68
OM
Donde
.C
DD
𝐶𝑀𝑅
El estadístico F, que es el cociente 𝐶𝑀𝐸 lleva “p” grados de libertad en el numerador y
“n-p-1” grados de libertad en el denominador. Se compara con el F crítico de iguales grados de
libertad para un nivel de significación establecido a priori y si 𝐹 𝑜𝑏𝑠 > 𝐹 ∗, entonces se rechaza
la hipótesis nula de que todas las pendientes son cero. O lo que es lo mismo, se rechaza que el
modelo de manera global no tiene poder explicativo.
LA
Se puede realizar la prueba mediante la confrontación del p-value del F respecto del α.
Para p-value≥ α no se rechaza la hipótesis nula.
A su vez, también se puede realizar una prueba t para cada pendiente (siempre
probando de a muchas variables independientes a la vez, ya que cambia el valor de t y su p-
value cuando se agregan o se sacan otras variables independientes). Los test t individuales
FI
siguiente forma .
𝑜𝑏𝑠
Rechazo 𝐻0 si 𝑡𝑛−𝑝−1 ∗
> 𝑡𝑛−𝑝−1 o si 𝑝 − 𝑣𝑎𝑙𝑢𝑒 <∝.
69
OM
.C
DD
● Que la distribución de los errores sea normal;
LA
FI
70
OM
.C
DD
38. Regresión lineal simple: Estimación de valores medios y particulares de la variable
dependiente.
El análisis de regresión puede ser hecho mediante modelos lineales y modelos no lineales
(no se ven en esta asignatura) y a su vez dentro de los lineales están el simple y el múltiple.
En el modelo de regresión lineal simple el cambio unitario en una variable (x) afecta y
provoca un cambio en otra (y) a una tasa constante 𝛽1 . Esta tasa constante es la pendiente
poblacional y es estimada a través de 𝑏1 . La ecuación de regresión poblacional es una recta
que describe la dependencia del valor promedio (media condicional) de una variable sobre la
otra.
71
OM
.C
Dijimos entonces que los propósitos del análisis de regresión son 2: i) encontrar un
DD
mecanismo para mejorar nuestras estimaciones a partir de la posibilidad de estimar medias
poblacionales (estimar valores medios); ii) disponer de una herramienta de previsión de la
variable de respuesta ante valores de la variable independiente, quizás aún no asumidos o
futuros (estimar valores individuales).
Al estimar una media condicional, la precisión es mayor y depende de la distancia del
valor particular de x para el que queremos considerar la media. A valores de x cercanos a 𝑋, la
LA
72
OM
39. Series de tiempo. Concepto. La importancia de los pronósticos. Componentes del modelo
clásico de series de tiempo.
Las series de tiempo son modelos que buscan predecir el comportamiento de una
variable (Y), en base a la propia historia de dicha variable. Se trata de algo así como pararse en
un momento del tiempo (presente) y “mirar hacia atrás” y ver cómo se comportó la variable en
.C
cuestión, suponiendo que ese comportamiento pasado permitirá predecir adecuadamente lo
que ocurrirá en el futuro. Utiliza herramientas del análisis de regresión.
El comportamiento de la serie generalmente no es regular y es por eso que es
DD
necesario a veces someter lo datos a ciertos tratamientos, para hacer posible un análisis de su
comportamiento y la predicción de su trayectoria en el futuro.
Se pueden clasificar el tratamiento de las series en:
● Métodos por descomposición, que permiten explicar el comportamiento de la variable
con el fin de proporcionar medios para predecir valores futuros, basándose en
observaciones del pasado y del presente;
LA
Los pronósticos son muy importantes, ya que son una herramienta muy utilizada hoy por
la mayoría de personas e instituciones. Por ejemplo, lo usan los gobiernos para su planificación
económica, las empresas para saber cuánto, cómo, dónde producir, invertir, vender, etc., los
consumidores al momento de comprar o no determinados bienes, etc. Es así que, hoy todos
los planes para el futuro se basan en una pronosticación.
Además, un pronóstico puede también hacerse sobre la base de otros pronósticos y por lo
tanto es fundamental que éstos sean lo más precisos posible.
Un buen pronóstico necesita de teoría económica, conocimientos estadísticos y familiaridad
con la información relevante.
Algunos de los métodos estadísticos por descomposición (clásicos) de series de tiempo son
el aditivo y el multiplicativo. Están ambos conformados por 4 componentes:
73
OM
Es clasificado como sistemático, está influenciado por la interacción de múltiples factores que
influyen en la economía y se dan entre 2 y 10 años, con diferente intensidad en un
ciclo completo.
● Irregular: se da por efecto de todos los factores no considerados anteriormente. Actúa
en el corto plazo y puede ser considerado como permanente o excepcional.
Permanente cuando son variaciones ocurridas en cada momento del tiempo,
provocadas por múltiples factores que actúan sobre la variable desviándola de los
.C
valores predecibles si sólo actuaran los factores tenidos en cuenta. Excepcional cuando
son variaciones motivadas por accidentes o catástrofes imposibles de
predecir/controlar. Se clasifican como no sistemático, son de corta duración y no se
repiten.
DD
40. Series de tiempo. Ajuste de tendencia y aislamiento de las demás componentes. Cálculo
de índices de estacionalidad y aplicaciones.
Las series de tiempo son modelos que buscan predecir el comportamiento de una
variable (Y), en base a la propia historia de dicha variable. Se trata de algo así como pararse en
LA
un momento del tiempo (presente) y “mirar hacia atrás” y ver cómo se comportó la variable en
cuestión, suponiendo que ese comportamiento pasado permitirá predecir adecuadamente lo
que ocurrirá en el futuro. Utiliza herramientas del análisis de regresión.
En las series anuales se refleja solamente la influencia de los componentes: cíclico y
tendencia, quedando como residuo el componente irregular. Para su correcto tratamiento, si
FI
la serie está expresada en unidades monetarias es recomendable deflactar los precios para
eliminar el efecto de la inflación y expresar los datos en unidades homogéneas.
Luego, es necesario codificar el tiempo, lo cual facilitará la realización de operaciones.
Estos métodos se llaman métodos de ajuste y están muy relacionados al análisis de regresión,
caracterizando al tiempo como la variable explicativa o independiente.
𝑦̂𝑖 = 𝑏0 + 𝑏1 𝑥
74
𝜕𝑓(𝑏0 , 𝑏1 )
= −2 [∑ 𝑦𝑖 − 𝑛𝑏0 + 𝑏1 ∑ 𝑥𝑖 ]
𝜕𝑏0
OM
𝜕𝑓(𝑏0 , 𝑏1 )
= −2 (∑ 𝑦𝑖 𝑥𝑖 − 𝑏0 ∑ 𝑥𝑖 + 𝑏1 ∑ 𝑥𝑖2 )
𝜕𝑏1
.C −2 [∑ 𝑦𝑖 − 𝑛𝑏0 + 𝑏1 ∑ 𝑥𝑖 ] = 0
DD
−2 (∑ 𝑦𝑖 𝑥𝑖 − 𝑏0 ∑ 𝑥𝑖 + 𝑏1 ∑ 𝑥𝑖2 ) = 0
LA
{∑ 𝑦𝑖 = 𝑛𝑏0 + 𝑏1 ∑ 𝑥𝑖 ∑ 𝑦𝑖 𝑥𝑖 = 𝑏0 ∑ 𝑥𝑖 + 𝑏1 ∑ 𝑥𝑖2
FI
∑𝑛𝑖=1 𝑦𝑖 ∑𝑛𝑖=1 𝑥𝑖
𝑏0 = − 𝑏1
𝑛 𝑛
Los b’s se pueden estimar por el método de mínimos cuadrados. Este caso es usado cuando las
segundas diferencias se mantienen constantes.
75
OM
Este modelo de tendencia es utilizado cuando las diferencias porcentuales se mantienen
constantes.
.C
1.2.3 Caso tendencia exponencial
Si el que se está usando es el modelo aditivo, todas las componentes deben ir en las
mismas unidades (porque se suman).
móvil centrado (se usa en caso de que la cantidad de “estaciones”/sub-períodos sea par). Ese
modelo permite suavizar los picos que se generan en el corto plazo, aislando así su efecto y
dejando que sólo esté el componente tendencial.
El primer paso a seguir es tomar promedios móviles de a tantos elementos como tenga
el sub período. Por ejemplo, si se están midiendo cuatrimestres, se van a tomar tres elementos
Quedaría una cuarta columna al lado de cada valor de y con su promedio móvil. Ejemplo:
Código Sub-período 𝑦𝑖 Promedio móvil
1 1 5
2 2 8 5+8+6
= 6,33
3
3 3 6 6,66
4 1 6 7
5 2 9 7,33
6 3 7
Desaparecen así los efectos estacionales e irregulares.
El segundo paso es hacer
𝑦𝑖
× 100 = 𝑆. 𝐼.× 100
𝑃𝑟𝑜𝑚𝑒𝑑𝑖𝑜 𝑚ó𝑣𝑖𝑙
76
OM
11 2 10
El tercer paso es ordenar de menor a mayor o de mayor a menor cada S.I. X 100 de
cada sub-período.
El paso siguiente es sacarle la mediana a cada sub-período. La suma de estas medianas
debe ser igual a la cantidad de sub-períodos multiplicados por cien, y para que esto suceda lo
que se hace es una regla de 3 simple y se recalculan los índices. En nuestro ejemplo multiplicar
.C
3×100
las medianas por 78,329+126,3823+100 = 0,9845385
77