Está en la página 1de 19

Clases De Bioestadistica

09 de mayo de 2022

La prueba de wilcoxon es algo muy similar a la prueba de U man Whitney solamente que se
hace muestras relacionadas
Analisis de Correlacion es cuando tenemos una variable cuantitativa con otra variable
cuantitativa
en el analisis de correlaciones relacionamos variables cuantitativas
ejemplo de odontologia:
indice cop y la edad (a mas edad menor indice cop ) y tambien con el indice de placa.
correlacion negativa: a medida que aumenta una variable disminuye la otra, el analisis de
correlacion la hacemos para explorar esas asociaciones entre variables cuantitativas

Correlaciones bivariadas
• Son aplicadas para explorar la asociación entre dos variables cuantitativas, un coeficiente
de correlación mide el grado en que dos variables tienden a cambiar al mismo tiempo,
describe tanto la fuerza como la dirección de la relación.

las correlaciones pueden ser de direccion positiva y negativa.

positiva: a medida que aumenta una aumenta la otra


Negativa: a medida que aumente la variable disminuye la otra

en las correlaciones tambien miramos las fuerzas, estas se van a mover en un rango entre
menos 1 y 1, cuando las correlaciones son iguales a cero hablamos que las correlaciones
son nulas, cuando las correlaciones son proximas a menos 1 o a 1 estamos hablando que el
grado de correlacion es fuerte

● No es conveniente identificar correlación con dependencia causal, ya que, si hay una


semejanza formal entre ambos conceptos, no puede deducirse de esto que sean
análogos ; en efecto es posible que haya una alta correlación entre dos
acontecimientos y que sin embargo, no exista entre ellos relación de causa o efecto;
por ejemplo cuando dos acontecimientos tienen alguna causa común, pueden
resultar altamente asociados y no son el uno causa del otro
. • Un coeficiente de correlación fluctúa entre -1 ≤ ρ ≤ 1

cuando hablamos de las correlaciones quiere decir que las dos variables tienen una
dependencia causal que uno es el efecto de la otra que uno es causal de un determinado
efecto en la otra y en el análisis de correlaciones simplemente decimos que una aumenta y
la otra por x o y motivo también lo hace pero no podemos atribuir relaciones de causa efecto
entre dos variables apartir de un analisis de poblacion pueden ser que ambas tengan un
evento en comun que hacen que aumenten o disminuyan.
Podemos encontrar que una correlacion es fuerte, moderada, leve o nula
cuando una correlacion es nula planteando las pruebas de hipotesis, cuando se acepta la
hipotesis nula las correlaciones van hacer nula.

cuando vamos hacer un analisis de correlacion primero interpretamos el valor P si este me


da mas 0,005 vamos a interpretar el grado de correlacion si es leve, moderado o fuerte y la
direccion si es positiva o negativa, si el coeficiente(valor P) es negativo entonces es una
correlacion negativa
como lo haciamos para las pruebas parametrica o no parametricas ( T studen, U de man
whitney, krushka willis,..) tambien hay una correlacion de tipos de coeficiente uno
parametrico y uno no parametrico

el coeficiente Parametrico lo llamamos correlacion de Pearson

Correlación de Pearson El Coeficiente de correlación de Pearson (ρ), tiene como objetivo


medir la fuerza o grado de asociación entre dos variables aleatorias cuantitativas que
poseen una distribución normal bivariada conjunta, osea que ambas variables usted vaya a
correlacionar presente dsitribucion normal si una de ellas no presenta distribucion normal
hay que recurrir a su modo no parametrico que es el coeficiente de correlacion de spearman
evalúa la relación lineal entre dos variables continuas. Una relación es lineal cuando un
cambio en una variable se asocia con un cambio proporcional en la otra variable.
Cuando ρ=+ la relación es directa entre las variables. Si ρ=- la relación es inversa y si ρ= 0
son independientes.

Otra cosa importante es que los coeficientes de correlaciones son normalmente relaciones
lineales - osea aumenta una aumenta la otra y graficamente vamos a observar un alinea
recta que se ajusta a la tendencia que tiene ese grupo de datos que tenemos en un analisis
de correlacion

La prueba de Pearson es analisis de correlacion de spearman


basicamente las dos pruebas se interpretan de la misma manera, el coeficiente es igual, el
grado y la direccion de la correlacion es igual lo unico diferente que tiene un spearman y
pearson es la forma como se obtienen los coeficientes como se calculan pero la
interpretacion es exactamente igual

Correlación de Spearman • La correlación de Spearman es un coeficiente no paramétrico


alternativo al coeficiente de correlación de Pearson cuando este no cumple los supuestos
de distribución normal entre las variables relacionadas, se define el coeficiente de
correlación de rangos de Spearman como el coeficiente de correlación lineal entre los
rangos de valores de cada una de las dos variables exploradas. • Se interpreta de igual
forma que el coeficiente de Pearson

Cómo se visualizan esos grados de correlación?

Recordemos
Grados de correlación
• Después de confirmar el valor P de significación estadística, se identifica el valor del
coeficiente y la dirección de la correlación
• Correlaciones < 0,4 : leves
• Correlaciones 0,41- 0,7 : moderadas
• Correlaciones 0,71 altas

las correlaciones tienen relaciones lineales,en el gráfico observamos que esas lineas se
ajustan a cada uno de los puntos que uno observa
cuando uno hace un analisis de correlacion cada punto vamos a suponer el analisis de edad
e índice cop entonces cada punto corresponde con la edad del niño con su respectivo indice
cop, uno ubica una de las variables en el Y y otra en el eje X y queda en cordenadas y uno
observa una nube puntos que puede tener una tendencia lineal.

Grado de correlacion leve: la linea recta va a estar poco inclinada, y no se va a cumplir la


hipotesis de que una aumenta y la otra disminuya
aqui no se dice nada

CONCORDANCIA ENTRE OBSERVACIONES

Consideraciones
En cualquier estudio de investigación es clave la fiabilidad de los procedimientos de medida
u observación empleados durante la recolección de la información. En este sentido, dos
aspectos entran a formar parte típicamente de la validez interna del estudio: sesgo entre
observadores o la tendencia de un observador a dar consistentemente valores mayores o
menores que otro– y la concordancia entre observadores: hasta qué punto los observadores
coinciden en su medición. La manera concreta de abordar el problema depende de la
naturaleza de los datos: si éstos son de tipo cuantitativo es habitual la estimación del
coeficiente de correlación intraclase; si se trata de datos de tipo cualitativo el estadístico
más empleado es el índice kappa.

el índice kappa es una evaluación de la concordancia para evaluaciones de naturaleza


cuantitativa

Ejemplo el siguiente escenario


en esta tabla se presenta las radiografías que reportan los radiólogos

aqui hay una probabilidad es que esos acuerdos sean debidos al azar
los acuerdos debidos al azar: son que en ocasiones pueden concordar y otras veces no
(cuando algo no esta seguro)
en estos analisis de concordancia hay que tener en cuenta la normativa ue la concordancia
sean debidas al azar

necesitamos hacer este calculo para estimar un indice de concordancia llamado indice de
kappa que va hacer mucho mas confiable en la hora de este tipo de evaluaciones
04 de Abril de 2022
ANÁLISIS BIVARIADO

Realizamos la interpretación de una sola variable dentro de una investigación y hacemos


una comparación de esos datos para identificar si las diferencias entre estos promedios son
estadísticamente significativas o no.

para poder interpretar esto vamos hacer una serie de pruebas llamadas pruebas de
hipótesis estadísticas, no indica es que nos plantea dos tipos de hipótesis bajos los cuales
uno puede identificar si hay diferencias estadísticamente significativas o no.

Por ejemplo, en la variable sexo y edad aplicariamos dos hipotesis una es la nula y la otra
es la altrnativa
la hipótesis nula es la hipótesis de la igualdad que nos dice que no habría diferencias en las
edades entre hombre y mujeres
la hipótesis alternativa es la que nos va a indicar que la diferencia en el promedio de la edad
si son estadisticamente significativa
para llegar a esta conclusión unas pruebas de analisis bivariado y mirar el comportamiento
de las variables para saber cuales son los tipos de pruebas que debemos de realizar

Teoría de Probabilidad

la estadística se basa en esta teoría osea que tan probable es que lo que usted esta
observando se deba al azar o a algo más que al azar
cuando uno encuentra que las explicaciones son diferentes por un evento o situación que es
más allá del azar esto es lo que uno dice que es estadísticamente significativo

la variable edad en el salón tiene una distribución normal si las frecuencias o las edades
tienen una distribución simétrica alrededor de su valor promedio

la simetría es que todo es igual


ejemplo l distribucion normal es 22 años
y que por encima de los 22 tenga 8 estudiantes que tengan mayor a esa edad y que por
debajo de 22 tambien tenga 8 estudiantes.

la teroria de la dsitribucion normal me dice que el promedio menos 1 y mas una desviacion
estandar yo voy a observar aproximadamente el 68,8% de los datos van a estar
comprendidos
y va a estar representada por la flecha del medio en la campana de gahus

la desviación estándar es la variable de los datos alrededor del promedio

Ruta para distribución normal


Vista de variables-analizar-estadísticos descriptivos-explorar
ubicamos en la lista dependientes la variable cuantitativa

Gráficos:
histograma, quitamos la opcion donde dice tallo y hojas y le damos gráficos de normalidad
con pruebas - continuar- gráficos y aceptar
para ver los valores de los gráficos le damos en Y incremento mayor 1 y en X incremento
mayor 1 y mínimo le damos 5
para que nos muestre la curva de distribución le damos doble clic y le damos donde dice
mostrar curva de distribución normal

Para saber si hay distribución normal o no aplicamos las pruebas de normalidad y la


interpretación y la lógica de las pruebas de hipótesis.
la prueba nula indica que hay distribución normal
la prueba alternativa indica que no hay distribución normal
cuando hacemos pruebas estadísticas nosotros aplicamos lo que se llama VALOR P de
significación estadística es lo que me va ayudar el establecimiento de las pruebas de
hipótesis y a rechazarla o aceptarla

Vamos a hacer la prueba de shapiro-wilk o smirnov- kolmogorov para saber si hay


distribución normal o no .
estas pruebas se aplican dependiendo el número de datos que tengo:
si tengo mas de 50 datos voy aplicar la prueba de kolmogorov-smirnov
si tengo menos de 50 datos aplicó la prueba de shapiro-wilk

también miramos el valor p y va hacer 0.005


cuando el valor p es menor a 0.005 rechazamos la hipótesis nula osea que no hay
distribución normal y nos quedamos con la hipótesis alternativa
cuando el valor p es mayor a 0.005 aceptamos la hipótesis nula osea que hay distribución
normal

esto me indica que hay una probabilidad de 0.1% de que los datos tengan una distribución
normal

Ruta:
Analizar-descriptivos-explorar-lista de factores cualitativas- graficos- histograma-continuar y
aceptar.

PRUEBAS PARAMETRICAS Y PRUEBAS NO PARAMÉTRICAS


Ruta:
pruebas de normalidad
analizar-descriptivos-explorar-continuar-aceptar.

18 de abril de 2022

Prueba no paramétrica: Compara rangos de valores

Prueba U de Mann-whitney

Ruta para hacerla


analizar-pruebas no paramétricas-cuadro de diálogos antiguos- dos muestras
independientes-doble clic y miramos la información-definir grupos- señalamos la
prueba de u mann whitney-aceptar

acá miramos el valor p


otra opción para esta prueba:
analizar-pruebas no paramétricas-muestras independientes-ejecutar-ubicamos la
variable

gráfico de cajas y bigotes es el que observa todas las variables y se utiliza para
esta prueba

ruta para generar los descriptivos de posición:


Analizar-tablas personalizadas-ubicar las variables-estadísticos de resumen
buscamos los estadísticos de posición-orden de descriptivo
mediana
percentil 25
percentil 75
minimo
maximo
y aplicar a seleccion y cerrar-aceptar

Prueba Paramétrica: comparar promedios

Prueba T student para muestras independientes

Ruta para hacerla:


Analizar-comparar medias-prueba de muestras independientes- ubicamos las
variables-definimos los grupos-aceptar

el objetivo de esta prueba es identificar si hay diferencias estadísticamente


significativas en los promedios y lo sabemos mirando el valor p de los valores y
miramos la prueba de levene de homogeneidad de las varianzas

ruta para gráficos de esta prueba:


gráficos-cuadro de diálogos antiguos-barras de error- simple- definir- aceptar

gráfico para variables cuantitativas-barras agrupadas-porcentaje de casos-aceptar

Variante
prueba de chi cuadrado de pearson:
hace el mismo análisis de frecuencia pero no podemos aplicar el resultado de una
prueba de chi cuadrado de pearson sino que se debe aplicar una prueba exacta de
fisher

RUTA:
analizar-tablas personalizadas-estadísticos de prueba- chi cuadrado de pearson-
aceptar

cuando hay tablas con recuentos menores a 5 aplicamos la prueba exacta de fisher
pero la de chi cuadrado no

La prueba exacta de fisher solamente se va aplicar cuando nuestra tabla sea de dos
por dos o mejor cuando las dos variables que se están relacionando sean
dicotómicas osea que van a presentar 4 resultados.

Ruta para la prueba exacta de Fisher:


Analizar-estadísticos descriptivos-tablas cruzadas-ubicar las variables-chi cuadrado-
aceptar
aca deben aparecer los resultados de la prueba chi cuadrado y la de exacta de
fisher

gráficos:
gráfico-barras-agrupados-ubicamos las variables-aceptar

25 de abril de 2022

Comparaciones múltiples de proporciones de columnas de bonferroni

Ruta
Analizar-tablas-tablas personalizadas- estadísticos de pruebas-le damos en
comparar estadísticos de columnas-señalamos bonferroni-mostrar los valores
de significación-aceptar

gráficos-barras agrupadas-porcentaje de casos-aceptar

02 de mayo 2022

cualitativa politómica con cuantitativa

si en uno de los dos grupos hay una distribución normal se hace prueba no
paramétrica osea la de kruskal-wallis
y si en los grupos en todos hay distribución normal se hace una prueba de
anova
cuando realizamos una prueba de anova casi siempre la variable de
respuesta va hacer la variable cuantitativa.

En la prueba de anova no se ve en qué grupo presentan diferencias


estadísticamente significativas.

Ruta
Analizar-comparar medias-anova de un factor-aceptar
hay varias pruebas para las comparaciones múltiples
hay que tener en cuenta la homogeneidad de las varianzas para seleccionar
la prueba de comparaciones múltiples
esta prueba siempre la vamos a realizar cuando encontramos diferencias
significativas

Ruta
Analizar-comparar medias-anova de un factor-post hock-aceptar

ruta:
analizar-pruebas no parametricas-muestras independientes-ejecutar-aceptar

También podría gustarte