Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Participante:
Profesor:
Arianny Escalona
Stiweer Alvarado
C.I.: 24.587.886
Materia: Estadística II
Sección: B
x1 y1 f1
x2 y2 f2
… … …
Xi Yi fi
… … …
Xn Ym Fn
∑ 𝑓𝑖 = 𝑁
𝐼
N=
Ejemplo: A cada uno de los trabajadores de una empresa se les talla y pesa. Se
trata de dos variables cuantitativas.
En este caso no aparecen las frecuencias absolutas porque habría un recluta con
cada peso y talla, se podría añadir la fila correspondiente (o columna) con cada
frecuencia absoluta igual a uno.
b) Las tablas estadísticas bidimensionales de doble entrada adoptan la siguiente
forma:
X F. absoluta de
Y x1 x2 ··· xi ··· xn
la variable Y
⁞ ⁞ ⁞ ⁞ ⁞ ⁞ ⁞ ⁞
⁞ ⁞ ⁞ ⁞ ⁞ ⁞ ⁞ ⁞
ym f1 m f2 m ··· fi m ··· fn m f• m
F. absoluta de
f1 • f2 • ··· fi • ··· fn • N
la variable X
é
Fíjate en que:
• La suma de las frecuencias absolutas de una columna es la frecuencia absoluta
del valor de X correspondiente a esa columna.
• La suma de las frecuencias absolutas de una fila es la frecuencia absoluta del
valor de Y correspondiente a esa fila.
COVARIANZA
En este sentido el indicador bivariante más importante es la covarianza:
Dadas dos variables estadísticas x e y definiremos la covarianza Sxy como:
CORRELACIÓN
Edad peso
15 60
30 75
18 67
42 80
Donde los puntos representan
28 cada
60 uno de los pares ordenados y la línea podría
ser una recta que represente la tendencia de los datos, que en otras palabras podría
decirse que se observa19que a mayor65
edad mayor peso.
31 92
150
1698 47
100 2045 15
50 1348 100
1268 120
0
1000 1500 2000
Así en estadística podremos calcular la correlación para datos no agrupados con
la siguiente formula.
n n n
n xi y i xi * y i
r i 1 i 1 i 1
n 2 n 2
n 2 n
2
n xi xi n y i y i
i 1 i 1 i 1 i 1
En donde:
R = coeficiente de correlación
N = número de pares ordenados
X = variable independiente
Y = variable independiente
Ejemplo:
En nuestro ejemplo decimos que la correlación es casi perfecta, ya que, está muy
cerca de 1 y que el porcentaje de datos que explican a “ y “ es (0.65638606)2=
0.430842 o sea el 43.08 %
Primero tendremos que pensar que se genera una matriz, ya que, ahora estamos
juntando dos tablas de distribución de frecuencias y por ello nuestros cálculos serán
más laboriosos, por lo que les recomiendo el uso de una hoja de cálculo o al menos
una calculadora con regresión para datos agrupados.
De cualquier forma, aquí también estamos evaluando numéricamente si existe
relación entre dos variables y lo haremos con la siguiente ecuación.
k l l k
n f xi y i fx xi * fy y i En donde podemos
j 1 i 1 i 1 i 1
r encontrar k como el
l l f x n
2
k
k
2
número de clases para la
n f x 2
x i f y 2
y i
f y
i 1 i 1 i 1
x i y i
i 1 variable "y" y l para el
número de clases de "x".
También podemos observar que hay varios tipos de "f" es decir, la que se encuentra
sola (sin subíndice) que nos habla de las frecuencias celdares (cada una de las
frecuencias que se encuentran en la intersección entre una columna y un renglón)
y las "f" con subíndices que representan las frecuencias de cada una de las
variables.
Marcas de clase de "x"
1.445 1.545 1.645 1.745 1.845 1.945 S fy S fx y S fx y^2
44.5 3 1 4 178 7921
marcas 54.5 5 9 5 19 1035.5 56434.75
de clase 64.5 1 2 4 1 1 9 580.5 37442.25
de "Y" 74.5 5 1 1 7 521.5 38851.75
84.5 2 2 1 5 422.5 35701.25
94.5 1 3 4 378 35721
S fx 0 9 12 17 7 3 48 3116 212072
S fx x 0 13.90 19.74 29.665 12.915 5.835 82.06
5
S fx 0 21.48 32.472 51.765 23.82817 11.349075 140.89
x^2 3225 3 425 5 82
S Sf x y 5380.77
Correlación 0.695
=
k l l k
n f x i y i f x x i * fy y i
j 1 i 1 i 1 i 1 48 * 5380.77 - (82.06 * 3116)
r 0.695
l l k
2
k
2
((48 * 140.8982) - 82.06 2 ) * (( 48 * 212072) - 31162 )
n f x x i f x x i n f y y i f y y i
2 2
i 1 i 1 i 1 i 1
Este coeficiente, cuyo valor no depende de las unidades de medida de las variables,
está acotado entre -1 y +1; su signo indica la dirección, positiva o negativa, de la
asociación lineal y su valor absoluto la intensidad de la misma. En caso de
asociación lineal perfecta toma el valor |1| ; si no hay asociación lineal toma el valor
0, lo cual no implica que no pueda haber asociación de otro tipo.
Recta de Regresión
y=
x=
Ejemplos
2 1
3 3
4 2
4 4
5 4
6 4
6 6
7 4
7 6
8 7
10 9
10 10
2 1 2 4 1
3 3 9 9 9
4 2 8 16 4
4 4 16 16 16
5 4 20 25 16
6 4 24 36 16
6 6 36 36 36
7 4 28 49 16
7 6 42 49 36
8 7 56 64 49
10 9 90 100 81
2º Calculamos la covarianza.
Tipos de hipótesis
Como nos vamos a referir a contrastes paramétricos, las hipótesis que se
van a formular son de tipo paramétrico, es decir, afirmaciones verdaderas o
falsas sobre el valor del parámetro desconocido.
H 0 : 0
H1 : 1 0
Que nos indica que provisionalmente admitimos que pertenece a 0. Si
después del estudio resulta que no es cierto, se acepta la hipótesis alternativa.
H 0 : 1
1.
H1 : 2 Hipótesis simple frente a alternativa simple.
H 0 : 0
2. H1 : 0 Hipótesis simple frente a alternativa bilateral
H 0 : 0 H 0 : 0
ó
3. H1 : 0 H1 : 0 Contrastes unilaterales.
H 0 : 1 2
4. H 1 : 1 ó 2 Contraste bilateral.
Para decidir qué decisión tomar, se toma una muestra aleatoria simple y se
elige un determinado estimador puntual θ̂ (X1, X2, …,Xn) y en función de los
posibles valores que tome, se tomará una u otra decisión.
Una vez determinada la región crítica se elige una M.A.S. Si esa muestra
pertenece a la región crítica, rechazamos H0 y aceptamos H1; si la muestra
está en la región de aceptación, se acepta H0 y se rechaza H1.
Estados de la naturaleza
Decisión H0 H0 falsa
verdadera
Aceptar No hay Error de
H0 error tipo II
Nivel de
confianza
(1-)
Rechazar Error de No hay
H0 tipo I error
Potencia (1-
)
Igual que en el caso anterior, habrá tantos errores de tipo II como valores
posibles de 1. Análogamente, se denomina talla del error de tipo II, o
tamaño del error de tipo II, a la mayor de estas probabilidades, que se
designa por .
Interesa que y sean los más pequeños posibles. Si ambos son cero se
dice que es un contraste ideal y carece de interés. Cuando H0 es simple se
verifica que = () y no siempre se verifica que + = 1
Ejemplo:
X x0 X 15 x0 15
P 15 P 3 0,05
3
c) Análogamente: 16 16
x 15
0 1,645
3
16 con lo que, despejando, el valor de x0 ha de ser 16,23.
Fases a realizar en un contraste de hipótesis.
ˆ
Paso 2.- Determinar un estadístico de prueba apropiado h( ) que se
utilizará para aceptar o rechazar la hipótesis nula, ha de cumplir:
a) Su función de probabilidad ha de ser conocida cuando H0 se supone
cierta.
b) Debe de contener el parámetro que se quiere contrastar.
c) Los restantes términos que intervienen han de ser conocidos o se
pueden estimar a partir de la muestra.
La hipótesis nula es una afirmación que no se rechaza a menos que los datos
maestrales proporcionen evidencia convincente de que es falsa. El
planteamiento de la hipótesis nula siempre contiene un signo de igualdad con
respecto al valor especificado del parámetro.
PRUEBA DE KOLMOGOROV-SMIRNOV
Prueba de significación estadística no paramétrica para contrastar la
hipótesis nula cuando los parámetros de localización de ambos grupos son
iguales.
Este contraste, que es válido únicamente para variables continuas, compara
la función de distribución (probabilidad acumulada) teórica con la observada,
y calcula un valor de discrepancia, representado habitualmente como D, que
corresponde a la discrepancia máxima en valor absoluto entre la distribución
observada y la distribución teórica, proporcionando asimismo un valor de
probabilidad P, que corresponde, si estamos verificando un ajuste a la
distribución normal, a la probabilidad de obtener una distribución que
discrepe tanto como la observada si verdaderamente se hubiera obtenido
una muestra aleatoria, de tamaño n, de una distribución normal.
Si esa probabilidad es grande no habrá por tanto razones estadísticas para
suponer que nuestros datos no proceden de una distribución, mientras que,
si es muy pequeña, no será aceptable suponer ese modelo probabilístico
para los datos.
PRUEBA DE F
Prueba estadística que sirve para comparar varianzas.
El estadístico F experimental es el estadístico de contraste en el ANOVA y
otras pruebas de comparación de varianzas.
PRUEBA DE MCNEMAR.
Prueba estadística que sirve para comparar proporciones en datos pareados.
Prueba de significación estadística para probar la hipótesis nula de
inexistencia de cambios en la proporción de sujetos que experimentan un
acontecimiento, cuando cada individuo es evaluado dos veces (en
condiciones diferentes) y los datos están emparejados.
PRUEBA BINOMIAL
En estadística, la prueba binomial es una prueba exacta de la significación
estadística de desviaciones de una distribución teóricamente prevista de
observaciones en dos categorías.
El uso más común de la prueba binomial es en el caso donde la hipótesis
nula es que dos categorías son igualmente probables ocurrir.
COEFICIENTE DE KAPPA
El Kappa es un índice ómnibus de aceptación en los estudios inter-
observadores, indica el grado de interrelación inter-observador.
Permite cuantificar el nivel del acuerdo inter-observador para disminuir la
subjetividad del método utilizado (test de movilidad) y si el grado de acuerdo
se debe al azar (a la suerte).
El porcentaje de acuerdo acompañado del índice de Kappa se utiliza para las
variables cualitativas.
Se habla del coeficiente de Kappa de Cohen para dos terapeutas y de Fleiss
para más de dos terapeutas.
Este coeficiente está comprendido entre 0 y 1. 0, corresponde a una
correlación que es idéntica a la encontrada por casualidad y 1 una correlación
perfecta entre los exámenes.
Los valores negativos indican habitualmente que existe un desacuerdo en la
manera de realizar el método entre los terapeutas.
Se calcula como la proporción de acuerdo, aparte del que ya sería de esperar
por azar, que ha sido observado entre dos repeticiones del mismo
instrumento (por ejemplo, un juicio realizado por dos observadores por
separado).
El coeficiente máximo de concordancia es de 1.00.
Un valor de 0.00 indica ninguna concordancia.
bloque
Todos los bloque
C5-6
bloques C2-C4
K =
0.460
SE =
K = 0.756
0.091
K = 0.675 SE =
Z =
SE = 0.041 0.045
5.039
Valor del Kappa Z = 17.067 Z = 16.823
91%
Especificidad 98% 98%
55%
Sensibilidad 74% 78%
K = coeficiente de Kappa, SE = error estándar, Z =Test de especificidad de
la estadística.
PRUEBA DE SHAPIRO-WILKS.
Aunque esta prueba es menos conocida es la que se recomienda para
contrastar el ajuste de nuestros datos a una distribución normal, sobre todo
cuando la muestra es pequeña (n<30).
Mide el ajuste de la muestra a una recta, al dibujarla en papel probabilístico
normal.
1. La cantidad de traslapo que existe entre los grupos (es una función de la
variación dentro de los grupos). Cuantas más pequeñas son las variaciones
que existen entre los dos grupos, mayor es la probabilidad que una diferencia
estadística significativa existe.
2. El tamaño de la muestra es extremadamente importante en la determinación
de la significación de la diferencia entre las medias. Aumentando el tamaño
de la muestra, las medias tienden a ser más estables y más representativas.
3. Un nivel más grande de la alfa requiere menos diferencia entre las medias (p
< .05).
4. Se debe utilizar una hipótesis (con dos colas) no directivas.
Error tipo I:
Rechaza una hipótesis nula que sea realmente verdad. La probabilidad de
hacer un error tipo I depende del nivel alfa que se Eligio.
Si se fijó la probabilidad alfa en p < 05, entonces existe un 5% de
posibilidades de hacer un error de tipo I.
Se puede reducir la posibilidad de hacer un error tipo I fijando un nivel alfa
más pequeño (p < .01). El problema haciendo esto es que se aumenta la
posibilidad de un error tipo II.
La hipótesis nula es que las medianas de las dos poblaciones son iguales y
la hipótesis alterna puede ser que la mediana de la población 1 sea mayor
(menor ó distinta) de la mediana de la población 2.
Prueba de Mann-Whitney para muestras independientes:
PRUEBA DE KRUSKAL-WALLIS
Prueba de significación estadística no paramétrica para contrastar la
hipótesis nula cuando los parámetros de localización de dos o más grupos
son iguales.
PRUEBAS NO-PARAMÉTRICAS
http://www5.uva.es/estadmed/inferen/contrastes/contrastes.htm
https://www.ugr.es/~erivera/PaginaDocencia/Posgrado/Documentos/Cleme
nteCuadernoInferencial.pdf
http://www.iespugaramon.com/ies-puga-
ramon/resources/bidimensional_correlacion_regresion1461859284124.pdf
https://www.uv.es/ceaces/base/descriptiva/covarianza.htm
https://www.scientific-european-federation-osteopaths.org/los-tests-
estadisticos/