Está en la página 1de 17

UNIVERSIDAD NACIONAL TORIBIO RODRÍGUEZ DE

MENDOZA DE AMAZONAS
FACULTAD CIENCIAS DE LA SALUD

ESCUELA PROFESIONAL DE PSICOLOGÍA

BIOESTADÍSTICA

INTEGRANTES DEL GRUPO

•ACOSTA VILLEGAS, Karina •HERNANDEZ RAMOS, Cecilia


del Pilar. Noemi.

•CAMPOVERDE VASQUEZ, •MUÑOZ SALAZAR, Wendy


Heyni del Socorro. Aricely.

•CRUZ CHICHIPE, Esther. •PUERTA MARIN, Carol Yadhira.

•CRUZADO GONZALES, Jaily. •​PUSCAN DIAZ, Lady Karel

•CULQUE GUEVARA, Klaudy


Nhayyelly

•DAMACEN HERNANDEZ,
Paola

AMAZONAS - PERÚ

2020-II
I. INTRODUCCIÓN

La estadística no paramétrica es una rama de la estadística que estudia las pruebas y


modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios
paramétricos. Su distribución no puede ser definida a priori, pues son los datos
observados los que la determinan. La utilización de estos métodos se hace
recomendable cuando no se puede asumir que los datos se ajusten a una distribución
conocida, cuando el nivel de medida empleado no sea, como mínimo, de intervalo.
Las principales pruebas no paramétricas son las siguientes: Prueba χ² de Pearson,
Prueba binomial , Prueba de Anderson-Darling , Prueba de Cochran, Prueba de Cohen
kappa, Prueba de Fisher, Prueba de Friedman, Prueba de Kendal.

La estadística no paramétrica es una rama de la estadística no basada en familias


parametrizadas de distribuciones de probabilidad. Incluye estadística descriptiva e
inferenciales. Los parámetros típicos son la media, la varianza, entre otras. A
diferencia de las estadística paramétrica, las estadística no paramétrica no hacen
suposiciones acerca de las distribuciones de probabilidad de las variables que se están
evaluando.

El uso de métodos no paramétricos puede ser necesario cuando los datos tienen una
clasificación pero no una interpretación numérica clara, como cuando se evalúan las
preferencias. En términos de niveles de medición, los métodos no paramétricos
resultan en datos “ordinales”.
II. CONTENIDO DEL TEMA
III. PRUEBAS NO PARAMÉTRICAS

Las pruebas no paramétricas, también conocidas como pruebas de distribución libre,


son las que se basan en determinadas hipótesis, pero los datos observados no tienen
una organización normal. Generalmente, las pruebas no paramétricas contienen
resultados estadísticos que provienen de su ordenación, lo que las vuelve más fáciles
de comprender. Una prueba no paramétrica es una prueba de hipótesis que no requiere
que la distribución de la población sea caracterizada por ciertos parámetros. Por
ejemplo, muchas pruebas de hipótesis parten del supuesto de que la población sigue
una distribución normal con los parámetros μ y σ. Las pruebas no paramétricas no
parten de este supuesto, de modo que son útiles cuando los datos son
considerablemente no normales y resistentes a transformaciones​.

● Las pruebas no paramétricas nos permiten analizar datos en escala nominal u


ordinal.
● Se pueden utilizar estas pruebas aunque se desconozca los parámetros de la
población en estudio.
● Utilizada para contrastar con la hipótesis.
● Se utilizada en datos independientes
Se describen las pruebas no paramétricas resaltando su fundamento y las indicaciones
para su empleo cuando se trata de una sola muestra (Ji cuadrada, binomial, de rachas,
Kolmogorov-Smirnov), de dos muestras con datos independientes (U de
MannWhitney, Kolmogorov-Smirnov, Moses, o de las rachas de Wald-Wolfowitz),
de dos muestras con datos pareados (T de Wilcoxon, del signo, McNemar), de varias
muestras con datos independientes (H de Kruskal-Wallis, de la mediana) y de varias

muestras con datos pareados (Ji cuadrada de Friedman, W de Kendall, Q de Cochran).

Algunas de las características de las pruebas no paramétricas son:


● Es un método de medición difícil de aplicar.
● Es necesario realizar pruebas de hipótesis.
● Las hipótesis son estrictas.
● Las observaciones deben ser independientes.
Los tipos de pruebas no paramétricas son:
● Prueba de signos de una muestra
● Prueba de los rangos con signo de Wilcoxon
● Prueba U de Mann-Whitney
● Prueba de Kruskal-Wallis
● Prueba de la mediana de Mood
● Prueba de Friedman

Ventajas de las pruebas no paramétricas


Las ventajas de las pruebas no paramétricas son:

● Pueden utilizarse en diferentes situaciones, ya que no deben de cumplir con


parámetros estrictos.
● Generalmente, sus métodos son más sencillos, lo que las hace más fácil de
entender.
● Se pueden aplicar en datos no numéricos.

Desventajas de las pruebas no paramétricas


● No son pruebas sistemáticas.
● La distribución varía, lo que complica seleccionar la elección correcta.
● Los formatos de aplicación son diferentes y provoca confusión.
● Es posible que se pierda información porque los datos recolectados se convierten en
información cualitativa.
● Es posible que se necesite tener fuentes y un respaldo con más peso.

Este tipo de estadísticas se pueden utilizar sin el ​tamaño de la muestra o la estimación de


cualquier parámetro relacionado del que no se tenga información. Dado que las suposiciones
son menores, pueden aplicarse de múltiples formas.
IV. JI- CUADRADO

También conocido como el chi cuadrado, nos sirve para comprobar, verificar y
corroborar las hipótesis planteadas referidas a las distribuciones de las frecuencias,
siendo estas las hipótesis nula ( h0), es la ayuda para evaluar las probabilidades de
mayor o igual que existe entre los datos y las frecuencias esperadas según la
hipótesis nula o se puede decir que el chi cuadrado nos sirve para poder ver las
pruebas contrastadas en las frecuencias esperadas con relación a la hipótesis nula.

La prueba de chi cuadrado consiste en sumar todas las diferencias entre las
frecuencias observadas de una variable y las frecuencias teóricas. El uso de las
pruebas de chi cuadrado es para ver la distribución observada a una teoría, en un
test con datos cualitativos y en la estimación del intervalo de confianza para una
desviación estándar de la población de una distribución normal de una desviación
estándar de la muestra.

Ejemplo:

Se realiza un estudio sobre el cáncer de piel en ancianos y su relación con el hábito de fumar.
Suponemos que hubo 15 casos de cáncer en un total de 35 fumadores y 10 casos de cáncer
entre un total de 50 no fumadores.

Si planteamos la Hipótesis nula de nuestro estudio sería que la proporción de cáncer de piel
en ancianos será la misma en los dos grupos, fumadores y no fumadores. Es decir, que la
incidencia de cáncer es la misma en los expuestos al tabaco que en los no expuestos.
La Hipótesis alternativa sería que las proporciones de los que desarrollan cáncer son distintas
entre fumadores y no fumadores.

Los valores observados quedan reflejados en la siguiente tabla 2x2:

Calculamos los valores esperados partiendo de la tabla anterior pero sólo con los valores
totales de las filas y las columnas (a estos valores totales se les llama en estadística
“marginales”). Se multiplica el total de la fila por el total de la columna y se divide por el
total de observaciones.

Como la proporción total de cáncer = 25/85 =29.4%, el número de cánceres esperados entre
los fumadores será igual a 0.294 x 35 =10,3. Obtenido este esperado y considerando fijos los
valores marginales, ya no queda libertad para cambiar más datos (esto es lo que se entiende
como tener 1 solo grado de libertad).

De manera que, pueden calcularse los otros 3 esperados mediante restas con el total de la
respectiva fila o columna:

25-10,3 =14,7 no fumadores con cáncer

35-10,3 =24,7 fumadores sin cáncer


60-24,7 =35,3 no fumadores sin cáncer

Calculamos el valor de la ji cuadrado:

Los grados de libertad, se calculan de forma general de la siguiente forma:

g.l.= (columnas-1) (filas-1) En nuestro caso, g.l.= (2-1) (2-1) =1.

Conclusión:

Como el valor calculado ji-cuadrado =5,16 está entre ji-cuadrado 1; 0.025= 5,02 y ji cuadrado
1; 0.01=6,63, podemos afirmar que la diferencia es estadísticamente significativa, tenemos
evidencias para rechazar la H0 ya que le corresponde un valor p < 0,05.

Podemos decir que existe una asociación estadísticamente significativa entre ser fumador y la
incidencia de cáncer de piel en ancianos (se puede afirmar que existen evidencias de un
mayor riesgo de cáncer de piel entre fumadores).

Ejemplo usando SPSS:


Se desea conocer si existe asociación entre el hábito de fumar y el bajo peso al nacer en una
población, para lo cual se selecciona una muestra aleatoria de 100 recién nacidos,
obteniéndose los resultados siguientes:

​Considere un α=0,05.

Note usted que el tamaño de muestra es fijo (n=100) pero la distribución según las categorías
de ambas variables es aleatoria. Como se parte de una muestra y se clasifican los individuos
acorde a dos variables cualitativas se empleará la Ji-cuadrado de Independencia.
- Hipótesis:

H0: Hay independencia entre las variables hábito de fumar y bajo peso al nacer (la ocurrencia
de una variable no afecta la ocurrencia de la otra o también no hay asociación entre las
variables hábito de fumar y bajo peso al nacer)

H1: No hay independencia entre las variables hábito de fumar y bajo peso al nacer (la
ocurrencia de una variable modifica la ocurrencia de la otra o hay asociación entre las
variables hábito de fumar y bajo peso al nacer)

- Procesar los datos

Vamos al menú Analizar luego a estadísticos descriptivos, a continuación tablas de


contingencia y daremos clic en Tablas de contingencia. Ahora daremos un clic en la variable
Hábito de fumar para activarla y la pasaremos hacia el cuadro que dice Filas: y luego
daremos un clic en la variable Bajo peso al nacer para activarla y la pasaremos hacia el
cuadro que dice Columnas. Después en el botón Estadísticos que queda a la derecha y arriba
de ese cuadro de diálogo anterior daremos clic y saldrá el siguiente cuadro de diálogo.Ahí
daremos un clic para activar el cuadrito que está delante de donde dice Chicuadrado y luego
daremos clic en el botón de abajo donde dice Continuar.

- Tablas de los resultados:


- Interpretación:

Vemos en la tabla titulada Resumen del procesamiento de los casos estudiados donde se
observa que el 100 % de los casos fueron válidos.

Vemos en la tabla titulada Tabla de contingencia Hábito de fumar * Bajo peso al nacer el
recuento de los casos que pertenecen a cada categoría de las dos variables de estudio.

La tabla titulada Pruebas de chi-cuadrado nos muestra el valor del estadígrafo Corrección por
continuidad ya que se trata de una tabla 2x2, cuyo valor fue de 15,042, con un grado de
libertad. El valor de p (Sig. asintótica (bilateral)) fue de 0,000 y como es menor de 0,05 y
como debajo de la tabla se aclara que “0 casillas (0,0%) tienen una frecuencia esperada
inferior a 5. La frecuencia mínima esperada es 20,00” entonces puede concluirse que con un
nivel de significación del 5% hay suficiente evidencia para plantear que las variables hábito
de fumar y bajo peso al nacer están asociadas (se rechaza la hipótesis nula de independencia
por tanto existe asociación entre las variables).

V. R- PEARSON

El R-Pearson se utiliza en la estadística descriptiva aplicada al estudio de dos variables, a la


estadística descriptiva también se le va a conocer como el análisis exploratorio de datos
donde se va a agrupar un conjunto de técnicas matemáticas diseñadas para obtener, organizar,
presentar y describir un conjunto de datos, con el único fin de poder facilitar su uso,
normalmente se utiliza tablas, medidas numéricas o gráficas como apoyo.

¿Para qué sirve?

El coeficiente de correlación de Pearson se utiliza para estudiar la relación (o correlación)


entre dos variables aleatorias cuantitativas (escala mínima de intervalo); por ejemplo, la
relación entre el peso y la altura.

Es una medida que nos da información acerca de la intensidad y la dirección de la relación.


En otras palabras, se trata de un índice que mide el grado de covariación entre distintas
variables relacionadas linealmente.

Debemos tener clara la diferencia entre relación, correlación o covariación entre dos variables
(= variación conjunta) y causalidad (también llamada pronóstico, predicción o regresión), ya
que son conceptos diferentes.

¿Cómo se interpreta?

El coeficiente de correlación de Pearson comprende valores entre el -1 y el +1. Así,


dependiendo de su valor, tendrá un significado u otro.

Si el coeficiente de correlación de Pearson es igual a 1 o a -1, podemos considerar que la


correlación que existe entre las variables estudiadas es perfecta.

Si el coeficiente es mayor que 0, la correlación es positiva (“A más, más, y a menos menos'').
En cambio, si es menor que 0 (negativo), la correlación es negativa (“A más, menos, y a
menos, más''). Finalmente, si el coeficiente es igual a 0, sólo podemos afirmar que no hay
relación lineal entre las variables, pero puede haber algún otro tipo de relación.
Consideraciones

El coeficiente de correlación de Pearson aumenta si aumenta la variabilidad de X y/o Y (las


variables), y disminuye en el caso contrario. Por otro lado, para afirmar si un valor es alto o
bajo, debemos comparar nuestros datos con otras investigaciones con las mismas variables y
en circunstancias parecidas.

Para representar las relaciones de diferentes variables que combinan linealmente, podemos
utilizar la llamada matriz de varianzas-covarianzas o la matriz de correlaciones; en la
diagonal de la primera nos encontraremos con valores de la varianza, y en la de la segunda
nos encontraremos con unos (la correlación de una variable consigo misma es perfecta, =1).

Cuando elevamos al cuadrado el coeficiente de correlación de Pearson, su significado


cambia, e interpretamos su valor en relación a los pronósticos (indica causalidad de la
relación). Es decir, en este caso, puede tener cuatro interpretaciones o significados:

1. Varianza Asociada

Indica la proporción de la varianza de Y (una variable) asociada a la variación de X (la otra


variable). Por lo tanto, sabremos que "1-coeficiente Pearson al cuadrado" = "proporción de la
varianza de Y que no está asociada a la variación de X".

2. Diferencias Individuales

Si multiplicamos el coeficiente de correlación de Pearson x100, nos estará indicando el % de


las diferencias individuales en Y que están asociadas / dependen de / son explicadas por las
variaciones o diferencias individuales en X. Por lo tanto, "1-coeficiente Pearson al cuadrado x
100" = % de las diferencias individuales en Y que no está asociado / depende de / es
explicado por las variaciones o diferencias individuales en X.

3. Índice de Reducción del Error.

El coeficiente de correlación de Pearson elevado al cuadrado también puede interpretarse


como un índice de la reducción de error en los pronósticos; es decir, se trataría de la
proporción del error cuadrático medio eliminado usando Y’ (la recta de regresión, elaborada a
partir de los resultados) en vez de la media de Y como pronóstico. En este caso también se
multiplicaría el coeficiente x 100 (indica el %).
Por lo tanto, "1-coeficiente Pearson al cuadrado" = error que se sigue cometiendo al usar la
recta de regresión en vez de la media (siempre multiplicado x 100 = indica el %)​.

4. Índice de Aproximación de los Puntos.

Finalmente, la última interpretación del coeficiente de correlación de Pearson elevado al


cuadrado indicaría la aproximación de los puntos a la recta de regresión comentada. Cuanto
mayor sea el valor del coeficiente (más cercano a 1), más se aproximan los puntos a Y’ (a la
recta).

Ventajas

· Cuando en el fenómeno estudiado las dos variables son cuantitativas se usa el coeficiente

de correlaciones de Pearson.

·​ Es llamado así en homenaje a Karl Pearson. Las dos variables son designadas por X e Y.

·​ El valor es independiente de cualquier unidad que se utiliza para medir las variables.

·​ Si la muestra es grande, es más probable la exactitud de la estimación.


Desventajas

·​ El valor 0 representa falta de correlación.


· Cuando las variables X e Y son independientes, el numerador se anula y el coeficiente de


correlación poblacional tiene el valor cero.

·​ En cambio, una correlación nula no implica la independencia de variables.


·​ Es necesario que las dos variables sean medidas a un nivel cuantitativo continuo.

·​ Las distribuciones de las variables deben ser semejantes a la curva normal.


VI. RHO DE SPERMAN


1. CONCEPTO:

Es una medida de asociación lineal que utiliza los rangos, números de orden, de cada
grupo de sujetos y compara dichos rangos. Este coeficiente es muy útil cuando el
número de pares de sujetos (n) que se desea asociar es pequeño (menor de 30). Aparte
de permitir conocer el grado de asociación entre ambas variables, con Rho de
Spearman es posible determinar la dependencia o independencia de dos variables
aleatorias

2. INTERPRETACIÓN DEL RHO SPEARMAN:


a. Fórmula:

n = número de puntos datos de las dos variables


di = diferencia de rango del elemento “n”

b. El coeficiente de Spearman, “ ρ ” puede tomar un valor entre -1 y +1 donde:


- Un valor de +1 en ρ significa una perfecta asociación de rango.
- Un valor 0 en ρ significa que no hay asociación de rangos.
- Un valor de -1 en ρ significa una perfecta asociación negativa entre
los rangos.
- Si el valor de ρ se acerca al 0, la asociación entre los dos rangos es
más débil.
c. Debemos ser capaces de clasificar los datos antes de proceder con el
coeficiente de correlación de Spearman. Es importante observar que si se
incrementa una variable la otra sigue una relación monótona.
d. Para comprender la relación monótona, existen 3 conceptos:
- Monotónicamente en aumento: Cuando la variable “X” aumenta y la
variable “Y” nunca disminuye.
- Disminuye monótonamente: Cuando la variable “X” aumenta pero la
variable “Y” nunca aumenta.

- No monótono: Cuando la variable “X” aumenta y la variable “Y” a


veces aumenta y a veces disminuye.

- La relación monótona es menos restrictiva cuando se compara con una


relación lineal que se utiliza en el coeficiente de correlación de Person.
Aunque la monotonicidad no es el último requisito, no será
significativo perseguirla sin determinar realmente la fuerza y dirección
de una relación monótona si ya se sabía que la relación entre la
variable no es monótona.
3. EJEMPLO DE CÓMO APLICAR EL RHO SPEARMAN:

- En cada nivel, deberás comparar el valor de las dos variables, con este ejemplo
demostraremos su uso.
- Los resultados de 9 estudiantes en los cursos de Historia y Geografía se
muestran en la siguiente tabla:
a. Paso 1:​ Crear una tabla con los datos obtenidos
b. Paso 2: Comienza por clasificar los dos conjuntos de datos. La
clasificación de los datos puede lograrse asignando la clasificación “1”
al número más grande de la columna, “2” al segundo número más
grande y así sucesivamente. El valor más pequeño generalmente
obtendrá la calificación más baja. Este procedimiento se debe hacer
para ambos conjuntos de mediciones.
c. Paso 3: ​Agrega una tercera columna “d” a tu conjunto de datos, “d”
aquí denota la diferencia entre los rangos. Por ejemplo, si el rango de
Historia es de 3 y el rango de Geografía es 5, entonces la diferencia del
rango es 2.
d. Paso 4:​ En la cuarta columna cuadrar los valores de “d”.

Historia Rango Geografía Rango d d cuadrada

35 3 30 5 2 4

23 5 33 3 2 4

47 1 45 2 1 1

17 6 23 6 0 0

10 7 8 8 1 1

43 2 49 1 1 1

9 8 12 7 1 1

6 9 4 9 0 0

28 4 31 4 0 0
12

e. Paso 5: ​Sumar todos los valores del cuadrado de “d” que es 12


f. Paso 6:​ Insertar todos los valores en la formúla:

6*12
1− 9(81−1)

72
1− 720

1 − 0, 1 = 0, 9

- El coeficiente de correlación de Spearman para estos datos es


de 0,9 y como se mencionó anteriormente si el valor de ρ se
acerca a +1 entonces tiene una asociación perfecta de rango.

4. VENTAJAS Y DESVENTAJAS:

A. Ventajas:
➔ El coeficiente de Spearman no es paramétrico( es decir, es libre de
distribución probabilística).
➔ Permite medir la correlación o asociación entre dos variables cuando la
medición se realiza en una escala ordinal, o cuando no existe
distribución normal.
➔ Se calcula en base a una serie de rangos asignados
➔ Los supuestos son menos estrictos. Es robusto a la presencia de
outsiders (es decir permite ciertos desvíos del patrón normal).La
manifestación de una relación causa-efecto es posible sólo a través de
la comprensión de la relación natural que existe entre las variables y no
debe manifestarse sólo por la existencia de una fuerte correlación.
B. Desventajas:
➔ Es menos sensible que el coeficiente de pearson para los valores muy
lejanos de los esperado
➔ El coeficiente de correlación no debe utilizarse para comparar los
métodos que intentan decir el mismo evento.

VII. CONCLUSIÓN

- Los métodos no paramétricos pueden ser aplicados a una amplia variedad de


situaciones porque ellos no tienen los requisitos rígidos de los métodos paramétricos
correspondientes. En particular, los métodos no paramétricos no requieren
poblaciones normalmente distribuidas.
- Diferente a los métodos paramétricos, los métodos no paramétricos pueden
frecuentemente ser aplicados a datos no numéricos, tal como el género de los que
contestan una encuesta.
- Los métodos no paramétricos usualmente involucran simples computaciones que los
correspondientes en los métodos paramétricos y son por lo tanto, más fáciles para
entender y aplicar.
- La R-Pearson indica hasta qué puntos los mismos individuos o sucesos ocupan la
misma posición relativa a 2 variables.
- En R-Pearson cuando la relación es perfecta positiva, cada individuo obtiene
exactamente las mismas calificaciones en ambas variables.
- El R-Pearson refleja únicamente la relación lineal entre 2 variables.
- La Rho Spearman, en estadística, es una medida de la correlación entre dos variables
aleatorias tanto continuas como discretas.
- La Rho Spearman, se utiliza principalmente para el análisis de datos. Mide la fuerza y
la dirección de la asociación entre dos variables clasificadas.

También podría gustarte