Documentos de Académico
Documentos de Profesional
Documentos de Cultura
TIPOS DE MUESTREO
Existen dos tipos de distribución de muestreo: la distribución de la muestra, que es la que caracteriza la
distribución de los elementos de una muestra extraída de una población, y la distribución muestral, que
describe la conducta esperada de un gran número de muestras aleatorias simples extraídas de la misma
población.
MUESTREO ALEATORIO SIMPLE: es la técnica de muestreo en la que todos los elementos que forman el
universo y que, por lo tanto, tienen la idéntica probabilidad de ser seleccionados para la muestra. Para
obtener una muestra, se numeran los elementos de la población y se seleccionan al azar o aleatoriamente
los N elementos que contiene la muestra.
DISTRIBUCIÓN DE LAS MEDIAS MUESTRALES: Es una distribución de probabilidad de todas las posibles
medias de las muestras, de un determinado tamaño, obtenida de la población .
La medida de tendencia central más utilizada en las distribuciones muestrales es la media aritmética (x) y
en este se puede suponer que la población está distribuida normalmente. Entre varias propiedades de la
media podemos destacar:
1. IMPARCIALIDAD: implica el hecho de que el promedio de todas las medias de las muestras posibles (de
un tamaño de muestra dado n) será igual a la media de la población (µ). Cuando los datos están
disponibles, la media y la desviación estándar pueden calcularse así:
Media: µ= ƸX/N
Desvío: S= √(X-µ)/N
En efecto, al aumentar el tamaño N de la muestra, la curva normal que representa la distribución muestral
se hace más aguda. Todos los <<casos>> en la distribución muestral son medias pertenecientes a muestras
diferentes.
La segunda parte del Teorema (LEY DE LOS GRANDES NÚMEROS) establece que al extraer repetidas
muestras aleatorias de tamaño N de una población de cualquier forma de media y varianza, cuando N es
suficientemente grande, la distribución muestral de las medias tiende a distribuirse normalmente. Es decir,
cuanto mayor sea N con más facilidad se aproximará la distribución muestral a la curva normal.
La importancia de esta ley es muy grande, ya que al ser la distribución muestral la que se utiliza en las
pruebas de significación, ello quiere decir que cuando N es suficientemente grande no tenemos ya que
preocuparnos de los supuestos referentes a la normalidad de la población, pudiendo emplear las
propiedades de la curva normal en nuestras pruebas de decisión estadística, ya que la distribución
muestral tiende a aproximarse a la normalidad.
Parte 2
ESTADISTICA INFERENCIAL: estudia cómo sacar conclusiones generales para toda la población a partir del
estudio de una muestra, y el grado de fiabilidad o significación de los resultados obtenidos.
ESTIMACION PUNTUAL: consiste en una sola estadística de muestra que se utiliza para estimar el valor
verdadero de un parámetro de la población.
POBLACIO MUESTRA
N
µ x
S s
P p
N n
ESTIMACION POR INTERVALOS: consiste en estimar el valor correctamente el valor verdadero del
parámetro de la población. El intervalo tendrá una confianza o probabilidad de estimar correctamente el
valor verdadero del parámetro de la población.
MEDIA PROPORCION
Ū= X ± z.S/√n p = p ± z.√((p.q)/n)
CONFIANZA PUNTAJE Z
1% 99% 2,57/2,58
5% 95% 1,96
10% 90% 1,64/1,65
TAMAÑO DE MUESTRA
Al determinar el tamaño de la muestra para estimar una porción se deben definir tres incógnitas:
1- El nivel de confianza deseado (en puntaje Z)
2- El error estándar permitido
3- La porción de éxitos (p) y fracasos (q) (siendo p y q complementos)
MEDIA PROPORCION
n= z². S² n= z². p.q
e² e²
Parte 3
PRUEBA DE HIPÓTESIS
La prueba de hipótesis (o metodología de prueba de hipótesis) es una técnica para analizar diferencias y
tomar decisiones. También se evalúa los riesgos implicados al tomar dichas decisiones basándonos en la
información de la muestra.
Pasos:
Plantear las hipótesis nula y de trabajo (o alternativa): La hipótesis nula y alternativa deben establecerse en
términos estadísticos.
H0 = X Bivariado
Ht ≠ X
H0 < X Univariado
Ht >= X
H0 > X
Ht <= X
1- Establecer el nivel de confianza y riesgo (en puntaje Z) + áreas de rechazo/no rechazo.
2- Método/Regla: Debe escogerse la técnica estadística que se utilizara para probar la h0.
a- Zcritico/Zempirico
Zcritico = valor del riesgo en puntaje z
Ze > Zc = rechazo
Ze < Zc = no rechazo
b- P valor: Es la probabilidad de obtener una estadística de prueba igual o más exacta que el resultado
obtenido a partir de los datos de la muestra, dado que la h0 es realmente verdadera.
Pvalor < α = h0 es rechazada
Pvalor > α = h0 no rechazada
MEDIA PROPORCION
û= X ± z.S/√n p = p ± z.√((p.q)/n)
DISTRIBUCION T DE STUDENT
Si la variable aleatoria X está distribuida normalmente, entonces, la estadística tiene una distribución t con
n-1 grados de libertad.
T de Student (t) = X - µ
S
√n
Propiedades
La distribución t es muy parecida a la distribución normal. Ambas son simétricas y tienen forma de
campana. Sin embargo, la distribución t tiene más área en los extremos y menos en la parte central que en
el caso de la distribución normal. Esto es así porque no se conoce α, y estamos utilizando S para estimarla.
Puesto que no tenemos certeza del valor de α, los valores de t que observamos serán más variables que
para Z.
Sin embargo, a medida que aumentan los grados de libertad, la distribución t gradualmente se aproxima a
la distribución normal, hasta que ambas son idénticas. Esto sucede porque a mayor tamaño de la muestra,
S se va convirtiendo en una mejor estimación de α. Por esta razón, los estadísticos utilizan Z en lugar de t.
En la práctica, la distribución t puede utilizarse en la estimación de la media de la población cuando no se
conoce el valor de α.
UNIDAD V
CONCEPTO DE ASOCIACION ENTRE VARIABLES
El análisis estadístico de la asociación entre variables representa una parte básica del análisis de datos en cuanto que
muchas de las preguntas e hipótesis que se plantean en los estudios que se llevan a cabo en la práctica implican
analizar la existencia de relación entre variables. La existencia de algún tipo de asociación entre dos o más variables
representa la presencia de algún tipo de tendencia o patrón de emparejamiento entre los distintos valores de esas
variables.
En todas esas cuestiones el objetivo es indagar si, al cambiar el valor de una de las variables, varía en forma
coordinada el valor de la otra variable. Esto es la variación conjunta o covariación de dos variables numéricas.
Dos variables (X e Y) están correlacionadas, si al aumentar o disminuir los valores en una de ellas (X) se observa una
modificación definida en los valores observados en la otra variable (Y).
χ2 = Σ(Fo−Fe)2
Fe
La diferencia entre frecuencias observadas y esperadas de cada espacio se eleva al cuadrado, anulando los
signos negativos. Para normalizar los residuos elevados al cuadrado de cada espacio de propiedad, se
divide por la frecuencia esperada. Al sumar los resultados se obtiene el chi cuadrado empírico (Xe2), que
puede adoptar valores desde cero hasta infinito. Cuanto más pequeño sea el valor de chi cuadrado, más
fácil es no estar en condiciones de rechazar la hipótesis nula. Como el valor de chi cuadrado aumenta con
el tamaño de la muestra, para decidir el rechazo o no rechazo de la hipótesis nula, es necesario compararlo
con el chi cuadrado teórico (Xt2). El chi cuadrado teórico, crítico o de tabla proviene de una distribución
estadística que relaciona valores teóricos de chi cuadrado con sus posibilidades de ocurrencia por el sólo
efecto del error muestral.
La distribución teórica de chi cuadrado permite conocer cuál es el valor con el que comparar el chi
cuadrado empírico, según los grados de libertad de la tabla y el nivel de confianza con que se decida
trabajar. Los grados de libertad de una tabla se determinan según la mínima cantidad de frecuencias
condicionales que necesitan conocerse para poder calcular las restantes, para frecuencias marginales
dadas. Se calcula multiplicando la cantidad de columnas menos uno por la cantidad de filas menos uno.
El nivel de confianza es el complemento del riesgo. Este último es la probabilidad de rechazar la hipótesis
nula siendo esta verdadera, o lo que es lo mismo, la probabilidad de cometer error de tipo I. La situación
inversa es el error de tipo II, o probabilidad de no rechazar la hipótesis nula siendo esta falsa. En ambas
situaciones no se trata de errores en tanto decisiones desacertadas por la impericia del investigador, sino
que son errores estadísticos, probabilidades que quienes investigan asumen como riesgos propios de los
instrumentos estadísticos que se utilizan.
Si al comparar los valores obtenidos, el chi cuadrado teórico es mayor al chi cuadrado empírico (Xt2 > Xe2)
la hipótesis nula no puede ser rechazada, por lo que la hipótesis de trabajo no es aceptada. Por el
contrario, si el chi cuadrado teórico es menor o igual al chi cuadrado empírico (Xt2 ≤ Xe2) la hipótesis nula
se rechaza y se acepta la hipótesis de trabajo, considerando que existe una relación estadísticamente
significativa entre las variables.
Proceso de prueba:
1- Plantear la hipótesis nula (h0) y la alternativa (ht). En la hipótesis nula se planteara la
independencia estadística y en la hipótesis alternativa se planteara la asociación.
2- Establecer nivel de riesgo y confianza
3- Elegir el método/ regla
Xcritico – Xempirico
Pvalor
Grados de libertad
4- Contrastación empírica
5- Conclusión
TIPOS DE COEFICIENTES
COEFICIENTES DE ASOCIACION: Los coeficientes de asociación (también conocidos como coeficientes no
paramétricos) no permiten realizar inferencias al universo, sino que indican la fuerza de la relación en la
muestra que se analiza.
Los coeficientes de asociación son medidas resumen de la fuerza de la asociación entre variables y
permiten conocer la dirección. Los coeficientes de asociación son estandarizados, variando entre cero, que
indica independencia estadística y uno, que indica asociación perfecta. A medida que los coeficientes
comienzan a alejarse de 0 están expresando algún tipo de relación entre las variables.
Para realizar un análisis de asociación (solamente en variables cualitativas) es necesario usar tres
herramientas o métodos:
1- LECTURA PORCENTUAL: permite analizar minuciosamente un cuadro, la forma y la naturaleza del
mismo. La lectura de un cuadro no debe ser entendida como un fin en sí mismo sino como un
medio para el análisis e interpretación de los resultados.
2- TEST CHI CUADRADO: permite establecer si existe relación estadísticamente significativa entre las
variables
3- COEFICIENTES DE ASOCIACION: permite examinar la fuerza de la relación y su sentido.
Los análisis de correlación (también conocidos como coeficientes paramétricos) permiten el análisis en
variables cuantitativas.
COEFICIENTE DE CORRELACION (PEARSON): mide la intensidad en la relación entre dos variables de una
población. Sus valores van del -1(correlación perfectamente negativa) al +1 (correlación perfectamente
positiva).