Está en la página 1de 27

MUESTREO:

– Población: conjunto definido, limitado y accesible del universo que forma el referente para la
elección de la muestra. Es el grupo al que se intenta generalizar los resultados del estudio. Para el
enfoque cuantitativo, la población debe situarse en torno de características de contenido, lugar y
tiempo.

– Muestra: fracción de una totalidad que constituye la población. Es una réplica. Se estudian para
describir a las poblaciones, ya que es más sencillo que el de la población completa.

– Muestra representativa​: ​tiene que contener las características relevantes de la población en las
mismas proporciones en que están incluidas en tal población. Para evaluar la representatividad de
la ​muestra se compara la media muestral con la media poblaciona​l, ​si este parámetro se
desconoce se puede estimar tratando de encontrar las medias obtenidas en trabajos anteriores
que han analizado las mismas variables​. Siempre hay un ​grado de error ​en las estimaciones (error
muestral), una de las maneras de minimizarlo es diseñando un plan de muestreo adecuado.

– Unidad de muestreo: cuando un elemento se encuentra disponible para su selección, en el


instante en que es viable su selección práctica como fuente de datos o de información.

Tipos de muestras​:

1- muestras aleatorias/probabilísticas​: cuando cada uno de los elementos de la población tiene


posibilidad de ser parte de la muestra.
Técnicas:

 – ​aleatorio simple​: cuando se ​conocen​ todos los elementos que conforman la N. Cada elemento
tiene la ​misma posibilidad​ de ser elegido para ser parte de la muestra.
El proceso consiste en una tabla de dígitos al ​azar​ o números aleatorios en una planilla de cálculo y
seleccionar a los que coinciden con el número al azar y el orden de la lista, o usando un programa
estadístico que los seleccione aleatoriamente de una lista general (que es la N).
Ejemplo: ​Selección de la muestra de usuarios de un servicio; selección de editorial para análisis de
contenido.

– ​estratificado​: es una variante del anterior. Se divide a la población en ​grupos homogéneos


(estratos). Los elementos dentro de cada estrato se eligen ​aleatoriamente​ de acuerdo con una de
las siguientes reglas:
1. Un número específico de elementos se extrae de cada estrato, y corresponde a la
proporción​ de ese estrato en la población
2. Igual número de elementos se extraen de cada estrat​o, y los resultados son valorados de
acuerdo con la porción del estrato de la población total.
Esta técnica resulta apropiada ​cuando la población ya está divida en grupos​, porque refleja de
forma más precisa las características de la población y permite efectuar comparaciones entre los
estratos .
Ejemplo: ​Grupos socio-económicos/de edad/étnicos/género.

– ​por conglomerados o racimos​: se usa cuando no es posible tener una lista de todos los
elementos de la N. Es clave cuando N es grande y dispersa.
Homogéneos entre sí, y heterogéneos internamente.
La técnica consiste en: ​dividir a la población en grupos​, luego se elige ​aleatoriamente algunos​, y
posteriormente se toma una muestra aleatoria de cada uno de los grupos que se han
seleccionado.
Logra una muestra más precisa a un menor costo ya que ​se usa cuando hay variación dentro de
cada grup​o.
Es común en los diseños polietápicos y en las ​muestras de zona geográfica​. Cuando se muestrean
conglomerados desiguales, pueden utilizar el muestreo probabilístico proporcional al tamaño para
que la probabilidad de selección del conglomerado sea igual a la proporción de unidades que
contiene.
Ejemplos: s​i la población son escuelas, universidades, hospitales, distritos escolares, entonces las
unidades muestrales pueden ser alumnos, docentes, personal, pacientes o ciudadanos.

– ​Muestreo polietápico​: primero se obtiene una muestra de unidades primarias, más amplias que
las siguientes; de cada unidad primaria se toman unidades secundarias, y así sucesivamente hasta
llegar a las unidades más elementales.
Ejemplo:
1º Etapa: muestra de ciudades.
2º Etapa: muestra de familias.
3º Etapa: muestra de individuos.

– ​Muestreo sistemático​: los elementos se eligen de la población en un ​intervalo uniforme que se


mide respecto de tiempo​, ​orden o espacio​. Se emplea si existe una lista de los elementos de la
población o cuando se sabe cuántos elementos componen esa población.
Proceso: tomar cada ​k ​elementos de una lista que contiene todos los elementos de N, eligiéndose
al azar el primer elemento de la muestra. (K=N/n)

2- no probabilísticas​: la elección no depende de la probabilidad sino de las causas relacionadas


con las características de la investigación o de quien establece la muestra.
 Técnicas:

– ​Muestreo por cuotas​: consiste en formar ​estratos​ de la población ​sobre la base de ciertas
características (edad, sexo, ocupación)​ y en procurar que estén representadas en ​proporciones
semejantes a las que existen en la población​. Una vez definida la cuota se eligen los primeros que
se encuentran y que cumplen esas características.
Be: pueden hacerse estudios rápidos y económicos.
Aplicación: ​Una empresa quiere estimar la aceptación del sabor de un nuevo producto de la línea,
para lo cual invita a la degustación del producto en un puesto comercial utilizando un muestreo
por cuotas.

– ​Muestreo opinático o intencional​: se basa en la ​opinión del investigador​ para constituir una
muestra de sujetos en función de su carácter típico.
Ejemplo: ​Encuesta sobre auto-cuidado a personas que han recibido trasplante hepático en un
hospital determinado.
– ​Muestreo casual o incidental:​ muestra conformada por ​sujetos accesibles y presentes en un
lugar ​y momento preciso. Los sujetos se incluyen en el estudio a medida que se presentan, y hasta
que la muestra alcance el tamaño deseado.
Ejemplo: ​Encuestas en ​vía pública​ que se realizan en un día y horario determinado.

– ​Muestreo por redes (bola de nieve)​: consiste en ​localizar​ a algunos individuos según
determinadas características​. Se usa en ​poblaciones marginales​ o de difícil acceso. Se basa en
redes sociales, en amistades. Cuando se encontró el primer representante, éste puede conducir a
otro, y ése a un tercero, y así sucesivamente hasta conseguir una muestra suficiente.
Ejemplos: ​Miembros de una secta. Adictos que rechazan la instancia de rehabilitación. Mujeres
golpeadas.

ERROR DE MUESTREO: es el porcentaje de incertidumbre. Es la diferencia máxima entre la media


muestral y la media poblacional.

NIVEL DE CONFIANZA: probabilidad de que la estimación efectuada se ajuste a la realidad.


A > nivel de confianza, > garantía de que se acerque a la realidad.
– Los factores que determinan el tamaño de la muestra son:

- 1)la distribución de la población


- 2) el nivel de confianza
3) el margen de error permitido.
PARÁMETROS Y ESTIMADORES​:
Parámetros → son las características de la N, o sea, sus medidas de resumen. μ, σ2
Proporción muestral: ∏ = X/N
Estimadores → son las características de la muestra, sus medidas de resumen.

Los estimadores son variables aleatorias muestrales.


 Para que sean buenos estimadores de los parámetros poblaciones deben cumplir con ciertas

propiedades:
 1- insesgamiento: cuando la media de su distribución en el muestreo coincide con el parámetro a

estimar. La ausencia de sesgo supone la no existencia del error sistemático.


 Un estimador es asintóticamente insesgado si su posible sesgo tiende a cero al aumentar el

tamaño muestral.
  eficiencia: puede ser absoluta o relativa. Un estimador es eficiente en sentido absoluto cuando
2-
la varianza del estimador es mínima.
Un estimador es más eficiente que otro si tiene menor varianza siendo ambos insesgados.
 3- consistencia: cuando en caso de que la muestra sea muy grande, puedan estimar casi sin error.

Un estimador es consistente si converge en probabilidad al parámetro que intenta estimar.


Si el sesgo y varianza del estimador tienen a cero cuando el tamaño muestral es infinito el
estimador es consistente. (Se da si tiene el n en el denominador)
A mayor n mayor consistencia, la varianza tiende a cero.
 4- suficiencia: cuando resume el conjunto de información relevante contenida en la muestra y
ningún otro estadístico puede proporcionar información adicional acerca del parámetro
desconocido de la población. Usa toda la información de n.
5- robustez: si a pesar de que la hipótesis de partida sea incorrecta, los resultados se asemejan
mucho a los reales. Estos aspectos se refieren al alejamiento de la función de distribución
atribuida a una variable aleatoria respecto de la verdadera distribución, desconocida.
 6- invarianza: en caso de cambiar la unidad de medida, no cambia el valor a estimar. Por ejemplo,
si medimos los árboles en centímetros y luego en metros, el valor medio debe ser el mismo. Con lo
cual, podríamos decir que la media es un estimador ​invariante ante cambios de escala​.
I​nvariante ante cambios de origen​. EJ: tras medir todos los árboles, concluimos que debemos
añadir 10 centímetros a la altura registrada de cada árbol. El listón utilizado estaba mal medido y
tenemos que realizar este cambio para ajustar los datos a la realidad. Lo que estamos realizando
es un cambio de origen. Y la pregunta es ¿cambiará el resultado de altura media? Al contrario que
en el cambio de escala, aquí el cambio de origen sí afecta. Si resulta que todos los árboles miden
10 centímetros más, entonces la altura media se elevará (ES COMO AGREGAR UNA CONSTANTE AL
CALCULO) Por tanto, podemos decir que ​la media es un estimador invariante ante cambios de
escala pero variante ante cambios de origen.

INTERVALOS DE CONFIANZA PARA UNA Y DOS POBLACIONES

El intervalo de confianza resulta útil cuando se quieren evaluar el tamaño que debe tener una muestra para
obtener un determinado grado de precisión en la estimación de parámetros poblacionales.

Un intervalo de confianza consiste en dos valores a y b, siendo b mayor que a, de manera tal que: 𝑃(𝑎 ≤ 𝜇 ≤
𝑏) = 1 − ∝
𝑎: límite inferior del intervalo de confianza
𝑏: límite superior del intervalo de confianza
El nivel de confianza coeficiente de confianza, depende del investigador, valores más utilizados se
encuentran entre 0,90 y 0,99, expresado en porcentaje 90% y 99%.
El nivel de significación es 𝛼. Los valores más utilizados se encuentran entre 0,01 y 0,1. En porcentaje: entre
1% y 10%.
¿Que indica un intervalo de confianza del 95%?
-Que si el investigador repitiese su estudio en las mismas condiciones pero con distintas muestras
aleatorias, 95 de cada 100 veces obtendrá intervalos que contendrán el verdadero parámetro poblacional y
5 veces obtendrá intervalos que no lo contienen.
Por lo tanto resulta errado interpretar que hay una probabilidad de 95% que el verdadero valor se
encuentre dentro del intervalo.
Intervalos para 1 población:

CASO VARIANZA DISTRIBUCIÓN N ESTADÍSTICO

1 ✔ Normal o Normal Z
desconocida

2 ❌ Normal o
desconocida
n > 30 Normal Z

3 ❌ Normal n < 30 T - Student


n-1 gl

4 Normal Ji - Cuadrado
n-1 gl

5 Binomial Normal Z

Intervalos para 2 poblaciones:

CASO PARA: VARIANZA DISTRIBUCIÓN nx y ny Muestra ESTADÍSTICO


POBLACIONAL independ

1 Diferencia de ✔ Normal o ✔ Normal Z


medias desconocida

2 Diferencia de
medias
❌ Normal o
desconocida
> 30 ✔ Normal Z

3 Diferencia de
medias
❌ Pero se
supone que
Normal < 30 ✔ T - Student
nx + ny - 2
son iguales

4* Diferencia de
medias
Normal ❌ T - Student
nx - 1 gl

5 Cociente de Normal ✔ F - Fisher


varianzas Snedecor
nx-1 y ny-1 gl

6 Diferencia de Binomial pero ✔ Normal Z


proporciones se utiliza
aproximación
por
distribución
Normal

CASO 4* Al considerarse que las variables son dependientes, se genera una nueva variable denominada
diferencia (d). Se calcula la diferencia para cada par de los valores de la variable x e y, entonces d = x – y.
Debido a que por propiedades de la varianza de dos variables, no puede aplicarse la varianza de la suma de
dos variables es igual a la suma de sus varianzas ya que son dependientes y entraría en juego la covarianza
de x e y, se realiza este cambio de variable.

TEST DE HIPÓTESIS PARA UNA Y DOS POBLACIONES


Pasos que es conveniente formalizar en una prueba de hipótesis:
1. Identificar el parámetro de interés en la situación del problema.
2. Plantear las hipótesis nula y alternativa.
3. Determinar el estadístico adecuado para la prueba.
4. Determinar la región de rechazo de la hipótesis nula para el nivel de significación seleccionado.
5. Calcular el valor del estadístico correspondiente a la muestra.
6. Tomar la decisión estadística sobre si H0 debe ser o no rechazada, y establecer esta conclusión
en el contexto del problema.
Test de hipótesis para una población:

4 Posibles resultados para las la toma de decisiones


➢ No rechazar H0 , H0 verdadera → Decisión correcta (1- ∝)
➢ Rechazar H0 , H0 verdadera → Decisión Incorrecta, ERROR TIPO I (∝)
➢ No rechazar H0, H0 falsa → Decisión Incorrecta, ERROR TIPO II ( β )
➢ Rechazar H0, H0 falsa → Decisión correcta ( 1- β )
CASOS
Test para la media poblacional
1. Población normal o desconocida y varianza poblacional conocida → Estadístico Z
2. Población normal o desconocida, varianza poblacional desconocida y muestra grande 𝑛 > 30 →
Estadístico Z
3. Población normal, varianza poblacional desconocida y muestra pequeña 𝑛 ≤ 30 → Estadístico T-
Student
Test para la varianza poblacional
4. Población normal. Se usa como estadístico 𝜒 2 y se denomina 𝜒𝑒 2 empírico
Test para la proporción poblacional
5. Se supone que 𝑛𝜋 ≥ 5 y 𝑛(1 − 𝜋) ≥ 5, con lo cual se puede usar una distribución normal como
aproximación a la distribución del muestreo de 𝑝̂. → Estadístico Z
Test de hipótesis para dos poblaciones:
El test de hipótesis para dos poblaciones nos sirve para comparar parámetros de dos muestras y verificar si
tienen o no diferencias, con cierto nivel de confianza.

Cas Parámetros en Condiciones Estadístico a utilizar


o comparación
1 Diferencia de medias 1. Varianza poblacional conocida Estadístico Normal Z
con muestras 2. Población con distribución Normal o
independientes desconocida
2 Diferencia de medias 1. Varianza poblacional desconocida Estadístico Normal Z
con muestras 2. Población con distribución normal o
independientes desconocida
3. Muestra grande (n>30)
3 Diferencia de medias 1. Varianza poblacional desconocida (​se Estadístico ​T de Student
con muestras suponen iguales​) con nx+ny-2 gl
independientes 2. Población con distribución normal
3. Muestra pequeña (menor o igual a 30,
como mínimo una de las dos)
4 Diferencia de medias 1. Los miembros de la muestra se eligen T de Student con n-1 gl
con muestras por ​pares​, uno de cada población. (n son la cantidad de
dependientes/ pareadas 2. Muestra de ​n pares​ de observaciones pares)
5 Varianza poblacional de Estadístico F de
dos poblaciones. Fisher-Snedecor con
Muestras nx-1 y ny -1 grados de
independientes libertad
6 Diferencia de 1. Población con distribución binomial Estadístico normal Z
proporciones de aproximada a la normal
muestras
independientes

Valor p.
También llamado p valor, es el peso de la evidencia de la prueba o nivel observado de significancia. En la
medida que :
1. El valor p sea menor​, más fuerte es la conclusión del rechazo de H0; o sea si p es muy
pequeño nos está diciendo que el valor observado ha sido un valor muy lejano al valor
esperado propuesto, y que siendo válida dicha hipótesis es muy poco probable que
aparezcan valores del orden del valor observado.
2. Si p es grande​, lo que está diciendo es que el valor observado es parecido al valor
hipotético propuesto, y que son valores muy probables de presentación cuando la
hipótesis propuesta es válida.
Relación entre ∝, β, y tamaño de muestra:
- Una vez conocidos dos de los tres valores, se puede calcular el otro.
- Para un determinado nivel de significación ∝ al aumentar el tamaño de la muestra se reduce β
- Para un determinado tamaño de muestra, al disminuir ∝ aumenta β y viceversa.

REGRESIÓN SIMPLE​:
Busca explicar el comportamiento de una variable endógena, explicada o dependiente (​𝑌​),
usando la información de una variable exógena, explicativa o independiente (​𝑋​)​.
Es la recta que pasa más cerca de todos los puntos analizados.

– REGRESIÓN: encontrar la ecuación del modelo que mejor ajuste a los datos OBS.
– CORRELACIÓN: obtener el grado de asociación entre las variables.
– LINEAL: la ecuación se puede explicar por medio de la ecuación de la recta.
– SIMPLE: hay una sola variable independiente en el modelo.

B1 es la pendiente, inclinación (+-)


B0 es la ordenada al origen: donde corta al eje Y
Ei (residuos): diferencias ​entre los valores de la variable dependiente observados y los
valores que predecimos a partir de nuestra recta de ​regresión​. Las distancias no explicadas
por la recta (desde la recta hasta el punto de forma vertical). ​Es igual a las diferencias entre
cada parámetro y el estimador (de y)

Supuestos del modelo lineal simple:


1) variable aleatoria Ei es independiente de los valores Xi
2) tiene distribución normal
3) esperanza = 0
4) Cov = 0
5) Varianza = σ2 (es finita y constante para todo i).
– Método de mínimos cuadrados:
Dados valores muestrales de x e y, se usa el método MCO para encontrar la recta que mejor
ajuste (la mejor ecuación) la recta va a ser la que reduce al mínimo las desviaciones cuadradas
entre los valores estimados y real de la variable dependiente para los datos muestrales.
La ecuación de regresión, puede servir para estimar el valor de la variable dependiente dado el
valor de la independiente.

  busca minimizar los desvíos que tiene la recta (Ei)


Se
Dado que Ŷ= es el estimador de la recta, es la ecuación de la recta de regresión
Ei= es el error a minimizar
 
Por lo tanto:
 

Analizo la sumatoria de las distancias entre cada valor dependiente en análisis (y) y los predichos
por la recta de regresión (​y​ sombrero).
Los analizo al cuadrado para evitar valores negativos (neutralizaría las distancias, ya que la recta
actúa como “promedio”). De no ser así, la sumatoria sería igual a 0 (similar al desvío).
 La derivada nos dice ​qué tanto cambia una variable con respecto a otra​, y que hay un punto en
donde cambia de signo, es decir, donde la derivada es 0: habrá que encontrar los valores de los
parámetros b0 y b1 que minimizan esa expresión. Es decir que anulan (“anulan” = 0)
simultáneamente las derivadas parciales de la función.
 Para aplicar la derivada, primero se hará en función de b0 y en segundo lugar en función de b1,
dejando todo el resto constante. Luego de derivar, aplicar distributiva y dividir por 2 ambas
ecuaciones, queda así:
 

 Armo el sistema de ecuaciones, trabajando con b0 y b1 como funciones de la ecuación (por eso

quedan de ese lado):


 

 
La resolución de sistemas de ecuaciones de Gauss, puede resolverse:
A)-con determinantes:
 

(después saco B0 con el dato de B1 reemplazando en la ecuación)


 

entendiendo que:
 
despejo b0 y obtengo:

B)-covarianza:
  

  

C)-Matricial: → (traspuestas)
 
(resuelvo como con múltiple: saco determinante, adjunta, saco b0 y b1).

– Bondad de ajuste del modelo de regresión lineal simple


Mide qué tan bien ajusta la ecuación al análisis lineal de esas dos variables.

Estimamos el valor de Y en función de X. Por lo tanto, cada valor de Y tendrá su pronóstico sobre la
recta de regresión (por esto se hace de forma vertical).

Por lo tanto, hay un margen no explicado por la recta y es la distancia entre cada punto y su
pronóstico sobre la misma.

¿Qué parte explica el modelo? La distancia entre los pronósticos y el promedio.


Es decir: si el valor está por encima de la recta y por encima del promedio, no está explicado por el
modelo. Pero si está entre la recta y el promedio, el modelo lo explica.
 

 
Por lo tanto:

Elevando al cuadrado las distancias obtengo:


 

• Variación total (VT) = suma de cuadrados total (SCT)


 

• Variación no explicada (VNE) = Suma de cuadrados del error (SCE)


 

• Variación explicada (VE) = Suma de cuadrados de la regresión (SCR)


 Medidas:​
Error estándar de la estimación (medida absoluta):

Es la desviación estándar de los errores.


 

 Donde:

. n es la cantidad de pares

. k son variables independientes en el modelo (en la Regresión Simple siempre vale 1)

 Coeficiente de determinación (R2: medida relativa):

Es la parte explicada del modelo.

Sabiendo que:
  


 Varianza de la estimación

 Coeficiente de no determinación​ es la parte no explicada del modelo.

 
Coeficiente de correlación lineal​ M
​ ide el grado de asociación lineal entre las variables
 

 
interpretación de sus valores:
 

REGRESIÓN MÚLTIPLE​: explica el comportamiento de una variable endógena, explicada o dependiente (​Y​),
usando la información proporcionada por los valores tomados de variables exógenas, explicativas o
independientes (​X​)
Hay más de una variable explicativa o independiente
Hablamos no de una recta, sino de un plano de regresión, con 3 dimensiones.

Se minimiza como en mínimos cuadrados:

Y se busca la condición de mínimos de las derivadas parciales anulándolas (=0)

GAUSS:
Para obtener los valores de b0, b1 y b2, se utiliza la solución matricial:

Para encontrar b0 b1 y b2 debemos resolver:


-Debemos encontrar la inversa de X traspuesta * X

-Calculamos el determinante de la matriz X´X (SARRUS se llama)


-Calculamos la adjunta
Por lo tanto B queda:

Bondad de ajuste​: la lógica y medidas son las mismas que en simple, solo difiere k: es el número de
variables dependientes.
Test de Significatividad ​Prueba para testear si los estimadores son suficientes para el modelo.
Test de Significatividad Global
Testea si hay al menos una variable que no contribuya al modelo: H0 es beta​1​=beta​2​=beta​n​=0, y si
no la rechazo quiere decir que al menos una variable NO es significativa para el modelo, porque es
igual a 0. Yo busco testear que los beta sean distinto a 0 y decir que es un buen modelo para
predecir la variable Y. No estimo beta 0 porque yo busco estimar si x1 y x2 son significativas para
explicar Y.
En el F estadístico podemos ver que el denominador es el desvío estándar de los errores del
modelo, y por lo tanto en el numerador sería el desvío estándar de la parte explicada del modelo.
Vemos así si hay al menos una variable que explica al modelo.
Test de significatividad individual
Testeamos de forma individual cada estimador. Planteo un test de significatividad para cada
parámetro: quiero saber si b1 es buen estimador de beta 1, si b2 es buen estimador de beta 2. Eso
me dirá si cada variable x es significativa para explicar a la variable Y.

Sabiendo que la adjunta es:


A11 se vincula con b0, a22 con b1, y a33 con b2 (para calcular el desvío). Me interesa estimar si las
variables independientes x1 y x2 explican a y, por eso testeo los estimadores vinculados a
aquellos.

Se utilizará el estimador t de Student


Y viendo que el desvío en cada caso es:

Testeos:
Parámetro beta 1
Si es mayor a 0 el estimador, entonces voy a buscar estimar que beta 1 sea positivo también.
Por lo tanto:

Si es menor a 0, busco que beta 1 sea negativo también.


Por lo tanto:
Parámetro beta 2
Siguiendo la misma lógica, si es mayor a 0

Y si es menor a 0

Supuestos del análisis de Regresión Múltiple


1. No multicolinealidad: las variables independientes (más de 2, sino solo es colinealidad) no
deben tener una relación lineal muy alta cercana a 1. Si la variable 1 tiene una relación perfecta
con la 2 y la 3, es obvio que todos van a demostrar las mismas conclusiones frente a la variable
(“y”) independiente.
2. Normalidad: se presume que los residuos siguen una distribución normal
3. Homocedasticidad: Refiere a que la variabilidad en torno a la línea de regresión es la misma en
toda la muestra de x

4. Linealidad
5. Independencia en términos de error: No hay correlación entre los errores de los distintos
puntos
6. Outliers (Datos atípicos): Aquellos valores deben ser identificados ya que pueden producir
sesgos en el análisis
7. Coeficiente de determinación ajustado/ corregido: Permite comparar modelos con distinto
número K de regresores.
El segundo término de la formula muestra un cociente que se agranda a medida que se suman
regresores (k), y esto lo multiplica por la parte no explicada (SCE/SCT) del modelo. De esa forma
valora que parte queda explicada (1 - ese término) al agregar regresores.
Toma el valor 1 cuando el ajuste es perfecto. En cambio, no está acotado por la parte inferior,
pudiendo tomar valores negativos cuando el ajuste realizado es muy malo.
Cuando en un modelo se añade una nueva variable explicativa 𝑅̅2 puede aumentar, quedar igual o
disminuir su valor. Para que aumente es necesario que la variable añadida tenga cierto poder
explicativo. Por el contrario, si la variable añadida tiene un poder pequeño o nulo, el coeficiente
de determinación corregido disminuirá su valor, penalizándose de esta forma su introducción.
El uso de este coeficiente se justifica en que a medida que añadimos variables a una​ regresión​,
el ​coeficiente de determinación sin ajustar​ tiende a aumentar. Incluso cuando la contribución
marginal de cada una de las nuevas variables añadidas no tiene relevancia estadística.
Por lo tanto, al añadir variables al modelo, el ​coeficiente de determinación​ podría aumentar y
podríamos pensar, de manera errónea, que el conjunto de variables elegido es capaz de explicar
una mayor parte de la variación de la variable independiente. A este problema se le conoce
comúnmente como “sobreestimación del modelo”
ANOVA
Es un procedimiento para probar medias poblacionales de más de dos poblaciones. También se utiliza en
regresión para analizar la calidad de la ecuación del modelo (test de significatividad global).

TIPOS DE ESTUDIOS:
1. Experimentales:
- Se realiza un experimento para generar datos
- Se identifica una variable de interés y se controla una o más variables que se consideran
que están relacionadas con la variable de interés.
- Se recaban datos de cómo influyen en ella
2. Observacionales:
- Mediante encuestas por muestreo
DISEÑO DE EXPERIMENTOS:
→ La estrategia de diseño de experimentos supone que los factores ​(tratamientos)​ se asignan al azar a las
unidades experimentales de modo de eliminar el sesgo y simular mejor las condiciones presentes en el
modelo. ANOVA a un criterio de clasificación.
→ En ocasiones, se introduce una variable de bloqueo ​(bloques)​ para reducir el error experimental. Los
bloques son completamente aleatorios. Este procedimiento se denomina ANOVA a dos criterios de
clasificación.
→ Variable cualitativa es el tratamiento y el dato obtenido es una variable cuantitativa.

IMPORTANTE​: El propósito de la planeación y adquisición de datos experimentales es alcanzar el máximo


beneficio de la aplicación de la inferencia estadística.
➢ Experimentos estadísticos:​ Para cualquier fenómeno en el que existe la incertidumbre, el
procedimiento apropiado para investigarlo es experimentar con él, de manera que puedan
identificarse las características de interés. El elemento más importante de un experimento es la
formulación del problema por resolver que debe estar en dirección con el propósito del
experimento. Una vez definido es necesario identificar la variable por medir o respuesta que se va
a estudiar y el factor o factores potenciales que pueden influenciar la variabilidad de la respuesta.
La respuesta también se conoce como variable dependiente; el factor recibe el nombre de variable
independiente: La variable independiente se encuentra bajo el control del investigador. Un nivel o
grupo de factor es un valor o condición de éste bajo el cual se observará la respuesta medible. Si el
experimento consiste en varios factores, un grupo es una combinación de los niveles de cada
factor.
Una unidad experimental se define como el objeto (persona o cosa) que es capaz de producir una
medición de la variable respuesta después de aplicar un tratamiento dado.

​ onsideremos el problema de decidir si las diferencias observadas entre


➢ Análisis de la varianza: C
más de dos medias muestrales se pueden atribuir al azar o si hay diferencias reales entre las
medias de las poblaciones muestreadas. Por ejemplo, quizá deseamos decidir con base en datos
muestrales si realmente hay una diferencia en la eficacia de tres métodos de enseñar una lengua
extranjera, tal vez queremos comparar los rendimientos promedio por hectárea de seis variedades
de trigo, o deseamos ver si realmente hay diferencia en el kilometraje promedio obtenido con
cuatro clases de combustible. Puesto que las diferencias observadas siempre se pueden deber a
causas distintas a las postuladas; por ejemplo, las diferencias en el desempeño de los estudiantes
a quienes se les enseña una lengua extranjera mediante tres métodos diferentes se pueden deber
a diferencias en inteligencia, y las diferencias en el kilometraje promedio obtenido con cuatro
clases de combustible se puede deber a las diferencias en las condiciones del camino; también
examinaremos algunos puntos del diseño de experimentos de manera que, con seguridad
razonable, los resultados estadísticamente significativos se puedan atribuir a causas específicas.
Anova a 1 criterio de clasificación:
Se utiliza cuando se quiere analizar una respuesta cuantitativa (variable dependiente) medida bajo ciertas
condiciones experimentales identificadas por una o varias variables categóricas (variables independientes:
k) denominada/s tratamiento/s.

Requisitos/supuestos:
1. Independencia: Consideramos que quien seleccionó la muestra lo hizo de forma
independiente.
2. Normalidad: Las poblaciones tienen distribución de probabilidad normal. Demostrable con
test de Kolmogórov-Smirnov o test de Shapiro-Wilk.
Hipótesis a plantear (alfa: 0,05):

3. Homocedasticidad: las poblaciones tienen todas igual varianza. Demostrable con test de
Levene en base a la información muestral.
Hipótesis a plantear (alfa: 0,05):
Cuando no se cumple la normalidad y la homocedasticidad no puede asumirse, una alternativa no
paramétrica es el test de Kruskal-Wallis.

NOTACIÓN:
SCE → Suma de cuadrados explicada o entre los grupos
SCD → Suma de cuadrados residual o dentro de los grupos
SCT → Suma de cuadrados total
La variación de cada elemento a la media total se puede explicar mediante la variación de cada
elemento a la media de su grupo, más la debida media entre los distintos grupos.
- Aclaración:
SCE → Variación entre grupos: involucra a los cuadrados de las desviaciones de las diversas
medias de grupos respecto de la media global.
SCD → Variación dentro de los grupos: implica a los cuadrados de las desviaciones de cada
medida respecto de las medias de los grupos.
SCT → Variación total: es la suma de los cuadrados de las desviaciones de cada medida
respecto de la media global.
Anova 2 criterios de clasificación:
Utilizando bloques (variables para reducir riesgo experimental) con aleatoriedad en su elección.
Los tratamientos son las variables de análisis principales y los bloques las secundarias (si dice “tratados/se
quiere probar/depende de/ se quiere estudiar”, ese es el tratamiento). Se analizará:
⊳ HIPÓTESIS PARA TRATAMIENTO:
H0:m1=m2=m3 (no hay diferencias debidas a los tratamientos)
H1: hay diferencias debidas a los tratamientos

⊳ HIPÓTESIS PARA BLOQUES:


H0:m1=m2=m3=m4 (no hay diferencias debidas a los bloques)
H1: hay diferencias debidas a los bloques

Por ejemplo: si se quiere probar las tres formas de exhibir un nuevo producto en los puntos de
venta, las formas de exhibir serán tratamientos y puntos de venta los bloques.

Intenta analizar dos fuentes de interés en el mismo planteo.


Hay “a” tratamientos; hay “b” cantidad de bloques. Por lo tanto: hay “a” cantidad de observaciones en cada
bloque y “b” cantidad de observaciones en cada tratamiento → Cada observación es el xjk.
NOTACIÓN:
- SCF: Variación entre tratamientos (filas): Sumatoria al cuadrado de las diferencias entre la media
de cada tratamiento y la media global, multiplicado por la cantidad de bloques.

- SCC: Variación entre bloques (columnas): Sumatoria al cuadrado de las diferencias entre la media
de cada bloque y la media global, multiplicado por la cantidad de tratamientos.
- SCE: Variación residual o aleatoria: Cada observación menos la media del tratamiento menos la
media del bloque mas la media global al cuadrado. Se puede sacar por diferencias si ya hice la
variación total
- SCT: sumatoria al cuadrado de las diferencias entre cada observación individual y la media global.
ESTADISTICA NO PARAMETRICA
La estadística no paramétrica es una rama de la estadística inferencial que estudia las pruebas y modelos
estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos. Su distribución
no puede ser definida a priori, pues son los datos observados los que la determinan

Pruebas
1. Bondad de ajuste

Prueba de Chi Cuadrado Test de Kolmogorov – Smirnov


Verifica si hay diferencia entre la frecuencia esperada (fe) y la observada (fo) en una
muestra.
Para variables cuantitativas discretas y Para variables cuantitativas continuas
cualitativas que puedan clasificarse
Escala de medición: nominal o superior. Escala de medición: ordinal.
H0: La diferencia entre frecuencias H0: La distribución (Normal/Poisson) es
esperadas y observadas no es una buena descripción de la información.
significativa. Ajuste bueno H1: La distribución (Normal/Poisson) NO
H1: La La diferencia entre frecuencias es una buena descripción de la
esperadas y observadas es significativa. información.
El ajuste NO es bueno

2. Asociación de atributos
Se trabaja con tablas de contingencia. Tenemos dos variables y la frecuencia entre ellas. Trabajamos
la frecuencia de ocurrencia conjunta (probabilidad, teoría de conjuntos). Se prueba si las variables
son independientes o están relacionadas de alguna manera.
H0: Las categorías son independientes.
H1: Las categorías NO son independientes

1. Calculo los totales de las filas y de las columnas


2. Armo tabla de frecuencias esperadas: el total de la fila * el total de la columna dividido el total
3. Calculo el chi cuadrado empírico: sumatoria de (fo-fe)^2/fe
4. Calculo el chi cuadrado crítico: gl son (num de filas -1)*(num de columnas -1)
5. Se verifica la H0

Analizo frecuencia observada contra teórica.


1. Distribución uniforme: la esperada va a asignarle misma frecuencia a todas las variables.
2. Distribución de Poisson: la esperada va a ser la frecuencia relativa esperada (puntual de poisson
con parámetros: xi,lambda,puntual) * el n
Otro análisis que nos permite hacer esta tabla es calcular los porcentajes respecto del total,
porcentaje respecto de la fila y porcentaje respecto de la columna. Los porcentajes respecto de las
filas y de las columnas nos dan las probabilidad condicionales. Es decir: “probabilidad de que sea algo
dado que …”. Por ej.: de los que tienen 35 o más, el 49% eligió acciones.

3. Pruebas para dos y k muestras independientes


Sirven como ANOVA no paramétrico, en la prueba de MW para dos muestras y en la de KW para más
de 2

Prueba de la suma de rangos de Mann Prueba de la suma de rangos de Kruskal-


Whitney Wallis
Verifica si dos muestras independientes
fueron extraídas de la misma población o
de distintas poblaciones con igual
distribución.
Aplica para: detectar diferencias entre Ídem, pero para k muestras
dos poblaciones, o entre dos muestras independientes.
de la misma población sometidas a
distintos tratamientos.
Distribuciones iguales = medianas iguales
= medias iguales, etc
Independencia debe darse en las
muestras y entre los elementos de ellas.
H0: las dos muestras fueron extraídas de H0: las k muestras provienen de la
la misma población o de poblaciones misma población o de poblaciones
idénticas. Las diferencias NO son idénticas.
significativas. H1: algunas de las k muestras no
H1: las dos muestras NO fueron provienen de la misma población o de
extraídas de la misma población o de poblaciones idénticas.
poblaciones idénticas. Las diferencias
SON significativas. -> Rechazo H0. Si H1 es cierta al menos
un par de grupos no provienen de la
misma población o de poblaciones
idéntica.
Test de Kruskal Wallis:
Cuando no se cumple la normalidad y la homocedasticidad no puede asumirse en el test de
ANOVA, una alternativa no paramétrica es el test de Kruskal-Wallis (si vienen de la misma
población, tienen todos la misma media y varianza). Con el test de Shapiro pruebo la normalidad.
Se trabaja con una variable cualitativa ordinal que es el rango que le corresponde a cada
observación experimental.
El valor critico lo busco en la distribución de chi cuadrado, probabilidad acumulada a la izquierda,
con gl= columnas-1
INFERENCIA BAYESIANA
Se basa en el proceso decisorio.
Los componentes de este proceso son:
1. Decisor:​ Es quien toma la decisión.
2. Acciones​: Alternativas de decisión. Deben ser mutuamente excluyentes entre si (me
presento a rendir o no me presento) y controlables por el decisor. La suma de esas
probabilidades debe dar 1 (por la ley de cierre). Esas acciones puede manejarlas el decisor.
Va a decidir con cual se queda según sus objetivos: por Ej: máx. ganancias, minimizar
costos.
3. Estados de la naturaleza:​ También denominados estados del suceso, son excluyentes pero
no son controlables por el decisor. Ej: Se corta la luz
Tipología de la decisión​ según conocimientos de los estados de la naturaleza:
1. Certidumbre: Donde esos estados no tienen ninguna probabilidad asociada. De tipo
determinístico. Las acciones yo sabría cual podría elegir. Pero en ese grupo se encuentran
problemas de optimización: por ejemplo, tengo una función objetivo (maximizar
ganancias/ minimizar costos) está sujeta a restricciones (inecuaciones: x1+x2 …
acompañados de coeficientes). Ese sistema de inecuaciones se resuelve con el método
simplex/Solver en Excel, me dice la combinación óptima para satisfacer mi función
objetivo. Regresión es un ejemplo: si lo vemos como un problema de optimización en
donde minimizamos la sumatoria de errores cuadráticos. Minimizamos la función que va a
dar el menor error cuadrático medio. Si tengo regresión múltiple tengo ecuación del plano,
y para encontrar la ecuación debo hacer derivadas parciales y es lo que sería el gradiente
en análisis matemático. Ese gradiente permite optimizar la función. El problema de
regresión es problema de optimización.
2. Riesgo: Se conoce la distribución de probabilidad y utilizamos el criterio de valor monetario
esperado (VME).
3. Incertidumbre: la distribución de probabilidad no es conocida. Utilizamos :
- Criterio de Laplace: El origen se encuentra en la formulación del teorema de Bayes
en el que se supone iguales todas las probabilidades a priori.
- Criterio de Wald minimax: Su origen viene de la teoría de los juegos donde un
decisor (Jugador) enfrenta a otro decisor (jugador) y no como nuestro modelo en
que solo debe “enfrentar” a un suceso que no suponemos competitivo con el
decisor.
- Criterio de Hurwicz: Revaloriza los valores extremos. Permite una suerte de análisis
de sensibilidad dada su forma de combinación lineal que anticipa la importancia,
desde la otra óptica dada posteriormente al tema. Toma por Wald (Peores
resultados) y propone una cierta combinación lineal con los mejores resultados.
Para ello se define el coeficiente de optimismo ( ∝ ) que varia entre 0 y 1.
- Criterio de Savage: Trabaja con costos de oportunidad, sigue lo propuesto por
Wald. Tiene como principio que un decisor muestra mayor preocupación por la
pérdida de oportunidad en una determinada decisión (lo que dejó de ganar por no
haber tomado la decisión adecuada) que por maximizar su beneficio a largo plazo.
Nosotros vamos a analizar el ambiente de riesgo.
Enfoques de probabilidad
1. Clásico: colección de eventos mutuamente excluyente y exhaustivos, y la probabilidad de
cada evento es equiprobable. El enfoque determinado a priori. Ejemplo del dado:
probabilidad de cara del dado es 1/6. Casos favorables/ casos posibles
2. Frecuentista: se basa en la cantidad de veces que se realiza un experimento y el nº de
veces que sale favorable (a posteriori). Veces que sale favorable / veces que se repitió el
experimento. Si tengo 5 bolillas y sé que dos son azules y 3 rojas, va a ser 2/5
3. Subjetivo: la probabilidad se la atribuimos de manera personal. Enfoque del experto.
Probabilidad de que gane el próximo partido que juegue Messi, tiene que hacer goles,
probabilidad de que gane el próximo partido que juegue. Depende de muchas cuestiones:
estado físico, cancha, etc. Otra forma es cuando le atribuye la probabilidad de forma
personal considerando muchas variables
Ambiente de riesgo con información adicional
Podemos usar el teorema de Bayes

Dado los eventos A1;A2;(…);Ak, donde la suma de ellos da 1 porque son eventos mutuamente
excluyentes, si ocurre un evento llamado B, cual es la probabilidad de que la ocurrencia de ese
evento se la debamos a una d esas causas por ejemplo A1.
Para eso planteo probabilidad condicional: en el numerador la probabilidad conjunta de A1 y de B
dado Ai, y en el denominador probabilidad de B. La cuenta que hago me da la probabilidad a
posteriori.
Con la información adicional, calculamos nuevamente las probabilidades con el enfoque
bayesiano.
P(B / Ai) Es verosímil de la hipótesis.
P( Ai / B)Es la probabilidad a posteriori.
El enfoque bayesiano:
➨Este enfoque hace una revisión de la información probabilística a priori disponible a fin de
tomar en cuneta información adicional que sea posible recopilar.
➨La información a priori puede ser objetiva o subjetiva.
- Objetiva: Estimando la probabilidad por la frecuencia relativa (Enfoque frecuencista)
- Subjetiva: Por conocimiento y/o experiencia del decisor o expertos. La probabilidad
subjetiva asignada por un individuo a un conjunto de futuros inciertos puede diferir de la
que asignaría otro individuo.
➨La información adicional se puede adquirir ya elaborada o mediante un experto.
PREGUNTAS DE LAS ACTIVIDADES DE CONVALIDACIÓN:

Convalidación I:
1. ¿Que es el error de Tipo II en una prueba de hipótesis?
- Es la probabilidad de no rechazar H0 cuando es falsa.
2. Es un tipo de muestreo aleatorio en el cual cada elemento es elegido mediante un sorteo​:
- Sistemático
3. ¿ La mediana de una muestra es un estimador suficiente ?
- NO
4. De un claro ejemplo en el que se pueda aplicar un muestreo por redes o bola de nieve. Sea lo más
claro posible en la descripción.
- Consiste en localizar a los individuos con características específicas, se hace en poblaciones marginales o
de difícil acceso. Consiste en que un individuo con determinada característica va a contactar con otro de las
mismas características y así sucesivamente. Ej: Sectas, Fumadores, Enfermedades específicas.
5. ¿Un estimador es suficiente si al aumentar el tamaño de la muestra disminuye el sesgo y la varianza?
- NO
6. Si se divide la población en dos grupos y se toma una muestra aleatoria de cada grupo. ¿Según la
técnica presentada, que tipo de muestreo es?
- Por conglomerados
7. ¿La única manera de disminuir simultáneamente ∝ y β es aumentando el tamaño de la muestra?
- NO
8. ¿El error muestral disminuye al aumentar el tamaño de la muestra?
- SI
9. ¿Que significa un nivel de confianza de un 95% para un intervalo de confianza?
- Que si el investigador repitiese su estudio en las mismas condiciones pero con distintas muestras
aleatorias, 95 de cada 100 veces obtendrá intervalos que contendrán el verdadero parámetro poblacional y
5 veces obtendrá intervalos que no lo contienen.
Por lo tanto resulta errado interpretar que hay una probabilidad de 95% que el verdadero valor se
encuentre dentro del intervalo.
Convalidación III
1. Según el coeficiente de correlación lineal simple ¿Cuál sería la interpretación de sus valores?

-
2. En el test global. ¿Que significa que sea significativo y no significativo?
- Si no rechazo H0 quiere decir que al menos una variable no es significativa para el modelo.
- Si rechazo H0 quiere decir que es un buen modelo para explicar a Y.
3. ¿Que significa el R^2?
- Es el porcentaje de las observaciones que están explicadas por el modelo.
Convalidación IV
1. En el enfoque Bayesiano, la probabilidad de observar información adicional cuando el evento que se
presenta sea uno determinado, le de denomina:
- A priori
2. ¿Cuales son los supuestos que deben cumplirse para realizar el análisis de la varianza?
-Independencia, Normalidad, Homocedasticidad
3. Es un ambiente en el que el decisor no sabe con certeza que estados de la naturaleza se presentarán,
pero si conoce cuales pueden presentarse y la probabilidad que tiene cada uno de ellos. ¿Como se
denomina ese ambiente en un problema de decisión?
- Riesgo
4. En el análisis de la varianza (Anova) lo que se considera como grupo o tratamiento corresponde a una
variable…
- Cualitativa e independiente.
5. Para probar si una variable cualitativa sigue una distribución uniforme se utiliza la prueba de:
- Chi - Cuadrado
6. Las tablas de contingencia se utilizan para probar​:
- Si las variables son independientes
Preguntas de parciales:
1. ¿Que es un error de tipo II?
- Es la probabilidad de no rechazar H0 cuando H0 es falsa. Probabilidad β
2. ¿Que significa que un estimador es insesgado?
- Cuando la media de su distribución en el muestreo coincide con el parámetro a estimar.
3. Complete con el tipo de muestreo según la técnica presentada:
a) ​Se divide a la población en grupos y se toma una muestra aleatoria de cada grupo: Conglomerados
b)​ Dado el listado de la población se eligen los elementos que formarán la muestra, mediante un sorteo:
Sistemático
4. Explique con detalle el proceso utilizado en una prueba de hipótesis para comparar poblaciones
relacionadas.
- Caso 4, muestras pareadas o dependientes. Generamos una nueva variable d (Diferencia) en donde
d = x - y . Calculamos media y desvío. Con estadistico T - Student.
5. Demuestre que E(px) = πx. Explique como es el estimador respecto del parámetro.
- Estimador insesgado.
6. ¿Cual es la diferencia entre muestreo aleatorio simple y muestreo aleatorio sistemático?
- Muestreo aleatorio simple: Cuando se conocen todos los elementos de n (población), cada elemento
tiene la misma posibilidad de ser elegido. Se eligen al azar. El proceso consiste en seleccionar a los que
coinciden con un número al azar y el orden de lista, usando programas estadísticos. Ej: Elección de un
usuario X de servicio
-Muestreo aleatorio sistemático: Se conocen todos los elementos de la n (población). Los elementos se
eligen de la población en un intervalo uniforme, medido respecto del tiempo, orden o espacio. El proceso
consiste en tomar “k” elementos de una lista, se elige el primer elemento de la muestra al azar.
7.Mencione los supuestos para abordar un modelo de regresión lineal simple
1) La Variable aleatoria Ei es independiente de los valores Xi
2) Tiene distribución normal
3) Esperanza = 0
4) Cov = 0
5) Varianza = σ2 (es finita y constante para todo i).

ESTO LO SAQUE DEL GRUPO:


Muestreo
1. Diferencia entre muestras probabilísticas y no probabilísticas
-Muestras probabilísticas: Todos los elementos de la población pueden ser parte de la muestra.
- No probabilísticas: La elección no depende de la probabilidad, sino de las causas de la investigación o
de quien la establece.
2. Técnicas de muestreo probabilístico (5): A.E.C.P.S
-Aleatorio
-Estratificado
-Conglomerados o Racimos
-Polietápico
-Sistemático
3. Técnicas de muestreo no probabilístico (4): C.O.C.R
-Cuotas
-Opinático
-Causal
-Redes
Regresión
1. Supuestos (7): N.N.H.L.I.O.C
-No multicolinealidad
-Normalidad
-Homocedasticidad
-Linealidad
-Independencia en términos de error
-Datos atípicos
- Coeficiente de determinación ajustado o corregido
2. Cómo se relacionan test de significatividad global y el coeficiente de determinación.
- FÓRMULA
ANOVA
1. Qué es: ​procedimiento para probar medias poblacionales de más de dos poblaciones. Tambien se usa
en regresión para analizar la cantidad de la ecuación del modelo (test de significatividad global)
2. Supuestos (3)
-Independencia.
-Normalidad
- Homocedasticidad
3. Diferencia entre tratamiento y bloque:
-El tratamiento es una variable cualitativa y los bloques son cuantitativos.
Estadística no paramétrica
1. Diferencia entre pruebas paramétricas y no paramétricas:
- La estadística no paramétrica es una rama de la estadística inferencial que estudia las pruebas y
modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos.
Su distribución no puede ser definida a priori, pues son los datos observados los que la determinan
Pruebas
2. Bondad de ajuste:​ qué verifican, tipos de variables sobre las que trabajan, escalas de medición,
conclusión de la prueba
3. Asociación de atributos:​ que prueba y que tipos de análisis permite
4. Pruebas para 2 y k muestras independientes: ​cuáles son, para que sirven, conclusiones
Inferencia Bayesiana
1. Componentes (3)
- Decisor
- Acciones
- Estados de la naturaleza
2. Tipologías de la decisión (3)
- Certidumbre
- Riesgo
- Incertidumbre
3. Enfoques de probabilidad
-Clásico
- Frecuencista
- Subjetivo
4. Ambientes de riesgo con información adicional:
- La información adicional se puede adquirir ya elaborada o de un experimento

También podría gustarte