Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Unidad Tematica - 2 - Sesion - 5 PDF
Unidad Tematica - 2 - Sesion - 5 PDF
Unidad Tematica - 2 - Sesion - 5 PDF
CALIDAD
Univariantes Bivariantes
Como Como:
2
NZ pq
n 2
e ( N 1) Z pq
2
2
zs z pq 2
n n n 1 2
e e
32 x50 x50
n 2
5625
2
MARGEN DE CONFIANZA EN LA ESTIMACIÓN
NIVEL DE VALOR DE
Expresa el grado de CONFIANZA “Z”
probabilidad que el
75% 1.15
investigador tiene en que su
80% 1.28
estimación se ajuste a la
85% 1.44
realidad.
90% 1.65
Los valores comúnmente 95% 1.96
utilizados son 95, 99, 99,9% 97.5% 2.24
99% 2.58
Margen de error admisible
Los incrementos en el tamaño de la muestra repercuten en
una mayor precisión y por consiguiente en menor error
muestral.
El error muestral interviene en el cálculo del tamaño de la
muestra solo si el diseño es probabilístico.
En el muestreo probabilístico se fija el error máximo
admisible a priori y sobre esa base realiza el cálculo del
tamaño de la muestra.
Error Muestral
El error de muestreo ocurre al estudiar una muestra en lugar de
la población total.
La diferencia entre el valor del parámetro de una población y el
obtenido de una muestra recibe el nombre de error muestral.
Por muy perfecta que sea la muestra siempre habrá grado de
divergencia entre los parámetros estimados usándola y los de la
verdadera población.
En el cálculo del error intervienen:
Tamaño de la muestra
Varianza poblacional
Nivel de confianza
Tipo de muestreo
Estimación del Error
Cuando variable bajo Cuando la variable bajo
estudio es una media. estudio es una proporción
(solo válido para variables (ej, variables nominales u
numéricas) ordinales con pocas
categorías)
s pq
ez 1 f ez 1 f
n n 1
Donde: Donde:
Z: grado de confianza de la estimación Z: grado de confianza de la estimación
s: desviación típica muestral de la variable p: proporción de la muestra a examinar
n: tamaño de la muestra q: 1-p
1-f: Factor de corrección para poblaciones n: tamaño de la muestra
finitas. f= n/N 1-f: Factor de corrección para poblaciones
finitas. f= n/N
Intervalos de Confianza
PRUEBA DE NORMALIDAD
La importancia de esta distribución radica en que permite
modelar numerosos fenómenos naturales, sociales y
psicológicos.
Donde:
N: es el numero de datos.
Y1: es el valor del resultado
estandarizado.
F: función de probabilidad normal
acumulada.
AD: estadístico de Anderson Darling.
Otra forma de evaluar es con el P-value, si el P-
value es menor que el nivel de significancia (a)
los datos no se distribuyen normalmente
El estadístico de contraste es:
C.V. = 0.752
Si AD > CV
Los datos no se distribuyen normalmente al
95% de confianza, caso contrario estos se
distribuyen normalmente.
PRUEBA DE HIPOTESIS
Una hipótesis estadística es una afirmación sobre los valores de los
parámetros de una población o proceso, la cual es susceptible de probarse
a partir de la información contenida en una muestra representativa que se
obtiene de la población.
Por ejemplo, la afirmación “este proceso produce menos de 8% de
defectuosos” se puede plantear estadísticamente, en términos de la
proporción p desconocida de artículos defectuosos que genera el proceso,
como se hace a continuación.
Hipótesis nula H0
Hipótesis alternativa Ha
Afirmación acerca del valor de un
Afirmación que se aceptará si los datos
parámetro poblacional que se considera
muestrales proporcionan evidencia de
valida para desarrollar el
que la hipótesis nula es falsa.
procedimiento de prueba.
H0: p = 0.08 (la proporción de defectuosos Ha: p < 0.08 (la proporción es menor a
es 0.08) 0.08)
Estadístico de Prueba
Probar una hipótesis consiste en investigar, con base en la evidencia contenida
en una muestra seleccionada de manera adecuada, si lo afirmado por la
hipótesis nula es verdad o no, y en caso de ser falso, se toma como verdadera la
alternativa Ha.
La estrategia para probar la hipótesis parte del supuesto de que Ho es
verdadera, y si los resultados de la investigación contradicen en forma
suficiente dicho supuesto, entonces se rechaza Ho y se acepta la hipótesis
alternativa.
En caso de que los resultados de la investigación no demuestren claramente la
falsedad de Ho, esta no se rechaza. Es decir, la hipótesis nula es verdadera
mientras no se demuestre lo contrario.
Una vez planteada la hipótesis se toma una muestra aleatoria de la población
bajo estudio.
El estadístico de prueba es una formula que permite calcular un numero a
partir de los datos y la hipótesis nula. La magnitud de este numero permite
discernir si se rechaza o no la hipótesis nula Ho. Al conjunto de posibles
valores del estadístico de prueba que llevan a rechazar Ho se le llama región o
intervalo de rechazo para la prueba, y a los posibles valores donde no se
rechaza Ho se les llama región o intervalo de aceptación.
El estadistico de prueba, construido bajo el supuesto de que H0 es verdad, es
una variable aleatoria con distribucion conocida. Si en efecto, H0 es verdad, el
valor del estadistico de prueba deberia caer dentro del rango de valores mas
probables de su distribucion asociada, el cual se conoce como region de
aceptacion. Pero si cae en una de las colas de su distribución asociada, fuera
del rango de valores mas probables (en la region de rechazo), es evidencia en
contra de que este valor pertenece a dicha distribucion.
El riesgo de una decisión equivocada:
Probar una hipótesis estadística es una decisión probabilística, por lo tanto,
existe el riesgo de cometer un error tipo I o un error tipo II.
Error tipo I, es cuando se rechaza Ho y es verdadera, y el
Error tipo II, es cuando se acepta Ho y es falsa.
En toda prueba de hipótesis cada tipo de error tiene una probabilidad de
ocurrir.
Con α y β se denotan las probabilidades de los errores tipo I y II,
respectivamente.
Así,
α = P{error tipo I} = probabilidad de rechazar Ho cuando es verdadera
β = P{error tipo II} = probabilidad de aceptar Ho que es falsa
PRUEBA T- STUDENT DE UN GRUPO
donde
•Z es una variable aleatoria distribuida según una normal típica (de media nula y
varianza 1).
•V es una variable aleatoria que sigue una distribución χ² con grados de libertad.
•Z y V son independientes
Entre los usos más frecuentes de las pruebas t se encuentran:
El test de muestra única por el cual se comprueba si la media de una población
distribuida normalmente tiene un valor especificado en una hipótesis nula.
El test para dos muestras, por el cual se comprueba si las medias de dos
poblaciones distribuidas en forma normal son iguales. Todos estos test son
usualmente llamados test t de Student, a pesar de que estrictamente hablando, tal
nombre sólo debería ser utilizado si las varianzas de las dos poblaciones
estudiadas pueden ser asumidas como iguales; la forma de los ensayos que se
utilizan cuando esta asunción se deja de lado suelen ser llamados a veces como
Prueba t de Welch. Estas pruebas suelen ser comúnmente nombradas como
pruebas t desapareadas o de muestras independientes, debido a que tienen su
aplicación más típica cuando las unidades estadísticas que definen a ambas
muestras que están siendo comparadas no se superponen.
El test de hipótesis nula por el cual se demuestra que la diferencia entre dos
respuestas medidas en las mismas unidades estadísticas es cero. Por ejemplo,
supóngase que se mide el tamaño del tumor de un paciente con cáncer. Si el
tratamiento resulta efectivo, lo esperable sería que el tumor de muchos pacientes
disminuyera de tamaño luego de seguir el tratamiento. Esto con frecuencia es
referido como prueba t de mediciones apareadas o repetidas.
El test para comprobar si la pendiente de una regresión lineal difiere
estadísticamente de cero.
PRUEBA de WILCOXON
Es una prueba no paramétrica para comparar la mediana de dos muestras
relacionadas y determinar si existen diferencias entre ellas. Se utiliza como
alternativa a la prueba t de Student cuando no se puede suponer la
normalidad de dichas muestras. Debe cumplir las siguientes características:
Es libre de curva, no necesita una distribución específica
Nivel ordinal de la variable dependiente
Se utiliza para comparar dos mediciones de rangos (medianas) y
determinar que la diferencia no se deba al azar (que la diferencia sea
estadísticamente significativa).
PRUEBA T- PRUEBA DE
STUDENT DE WILCOXON
UN GRUPO
PRUEBA T- STUDENT DE UN GRUPO
1. Planteamiento de la Hipótesis
5. Región de Decisión
6. Conclusión
PRUEBA de WILCOXON
1. Planteamiento de la Hipótesis
5. Región de Decisión
6. Conclusión
COMPARACION DE DOS GRUPOS
PRUEBA DE
LEVENE
1. Planteamiento de la Hipótesis
5. Región de Decisión
6. Conclusión
PRUEBA de MANN WHITNEY
1. Planteamiento de la Hipótesis
5. Región de Decisión
6. Conclusión
ESTADISTICOS DE MEDIDAS DE DISPERSION
PRUEBA F
1. Planteamiento de la Hipótesis
5. Región de Decisión
6. Conclusión
PRUEBA de LEVENE
1. Planteamiento de la Hipótesis
5. Región de Decisión
6. Conclusión
ANALISIS DE REGRESION
Conjunto de técnicas que son usadas para establecer una
relación entre una variable cuantitativa llamada variable
dependiente y una o mas variables independientes, llamadas
predictores.
El modelo de regresión, es
una ecuación que
representa la relación entre
las variables
El modelo de Regresión Lineal simple:
𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖 + ei