Documentos de Académico
Documentos de Profesional
Documentos de Cultura
TABLA DE CONTINGENCIA,
estamos relacionando 2 variables sexo y edad (m y f) (< 30 > 0 30) la prueba CHI CUADRADO nos
sirve para saber si hay una relación entre las 2 variables S Y E , son independientes o no son
independientes. Es una de las funciones de esta prueba. Son 3 en total
- Bondad de ajuste
- Prueba de independencia
- Prueba de homogeniedad
Esta pruebe para saber si son independientes lo que hace es comparar la frecuencia esperda vs la
frec observada.
Frecuencia observada: lo que los datos me dicen : hago mi recolección de datos por ej: los de la
tabla de 200 pacientes 60 son hombres < 30 …..etc. esto es lo que yo encuentro o frecuencia
observada.
Frecuencia esperada: una vez tengo mis datos esta frecuencia necesita un valor de referencia para
calcular la independencia de cada variable. Que esperara la pruee encontrar para que estas sean
independientes.
Si estos datos son independientes en cada casillas se deben encontrar ciertos valores, por ejemplo
el 77 sale de realizar la multiplicación 140 total x 110 total de filas dividido entre / 200 de esa
forma se obtienen los valores esperados.
Finalmente lo que hace es comparar la frecuencia esperada vs la observada , entre las tos tablas
de datos. Entre mas distinta o mas diferencias encuentre habrá mayor evidencia de rechzar de que
las dos variables son independientes.
Si lo que yo obtengo de mis datos es distinto hay un nivel de relación dire que la una depende de
la otra.
Se compara lo observado vs lo que espero : con esto se rechaza o se aprueba la hipótesis nula.
existe una
tabla de frecuencias para consultar, si las frecuencias que se observan coinciden con las esperadas
son independientes
EJEMPLO
esta es una
tabla resumida
Como es menor de 0.05 y dio 0.000 entonces se concluye que con un nivel de significancia del 5%
se asocia las dos variable y se rechaza la hipótesis nula.
TEST DE MC NEMAR
la
diferencia con la rueba de wilcoxon es que también son variables cualitativas pero son variables
ordinales no dicotómicas como en este caso o binomianesl. (cualitativas nominadles)
felcha morada primer momento de medicion flecha verde segundo momento de medicion se
observa quien fracaso en el procedimiento. A partir de estos datos se hacen conclusiones.
este test nos perite hacer comparación de 2 tratamientos
es
ta tabla nos uestra pacientes que fueron efectivos con los 2 medicamentos,y otro grupo que
nomejoraron con ninguno de los dos es decir hay un antes negativo y un después negativo. Otro
grupo que son exitosos en el tto A pero no en el B o viceversa.
p valor
0.01: si hubo cambios significativos. Uno de los condicionantes de la prueba mcnemar es que uno
de los datos debe ser mayor de 25 para que sea significativos.
4
5 Impacto de la calidad de restauración coronal vs la restauración radicular en el éxito
del tto del conducto radicular. El objetivo fue cual delas dos tiene mas impacto si una
restauración coronal o una radicular adecuada se observa el grafico la representación
6
7 Se quería saber cual de los dos tenia mayor probabilidad de sufrir periodontitis apical.
8 Si la línea de confianza toca el 1 en el estudio no se encuentra diferencias significativa al comparar
los dos grupos, ninguno de los 2 gana.
9 Por debajo del uno significa que el efecto que se estimo en ese estudio no fue significativa
10
11
Se concluyo que el segundo grupo el de restauración adecuada y endodoncia inadecuada tienen
menor probabilidad de sufrir periodontitis apical 3 grupos dijeron eso, y 6 grupos concluyeron
que era mejor tener una restauración inadecuada pero una endodoncia adecuada para no tener
la posibilidad de presentar p.a.
El metanalisis lo podemos hacer por planes estadísticos, el SPSS no puede hacer el plan
metanalisis
Hay otrase herramientas para hacer un metanalisis determinar el efecto, el or y todos las cosas
importantes en un metanailisis
COEFICIENTE DE CORRELACION DE PEARSON
se quiere saber que tan relacionadas están estas 2 variables, mínimo 2 variables, no implica que
una afecte a la otra solo el nivel de asociación o relación entre estas,
La correlación tiene 3 factores importantes, que tan fuerte en que dirección y si es sifgnificativa o
no,
El coeficiente de correlación varia de -1 a 1, nos dira que tan fuerte es la relación, independiene
de si es negativo o positivo
Entre mas se aceruqe a 1 la fuerza entre la relación entre las variables va a ser mayo, o si se
hacerca a -1 tambien se relacionan fuertemente. Si están en el intermedio las dos variables no
están relacionadas.
Entre altura y peso vemos el s resultao es de 513 es decir una relacion positiva, mayor de 1 es
decir directamente proporcional,
En la significancia estadistica nos dio 0.000 rechazamos hipotesis nua , aceptamos hiportesis
alterna
En la parte de abajo del recuadro nos aparaece si fue significatva o no comprando la altura x
peso con una correlacion por peso
La correlación de person para este caso es de 0. 841 la significancia es de 0.000 adicional si
queremos el hacer el grafico de dispersión vamos a
La hipótesis alterna me dice si hay o no relación no si es directa o indirectamente proporcional.
La relación me lo da el coeficiente si es positivo es directa si es negativo es indirectamente
proporcional.
Este coeficiente esta dentro de la familia paramétrica, entonces los supuestos que debo tener
en cuenta es el supuesto de distribución normal, ademas que las varianzas de las dos variables
sean constantes y también el supuesto de independencia entre las observaciones de un
individuo al otro. Son esto s 3 supuestos importantes.
En paramétrica: el supuesto fundamental es el de la normalidad de los datos
INDICE DE KAPPA Y COEFICIENTE DE CORRELACION DE INTRACLASE
9 pacentes: los dos odontólogos califican cuantas caries hay en cada pacientes
Para la interprestacion se dirige a la tabla de medidas simétricas al final, en la casilla de valor
donde dice valor cappa 0.27 este va, cuando esta mas cerca de 1 hay mayor concordanca entre
los dos, en este caso 0,027 indica que
El coeficiente de Kappa es 0.027 era un resultado porque se trabajo una variable cuantitativa,
Cuando la acriable es cuantitava no se trabaja el índice de KAPPA.
Ell índice de KAPPA es muy susceptible, y es poco sensible para detectar concordancia cuando
estamos hablando de variables cuantitativas.
aquí no encontramos
concordancia
RESUMEN DE LOS DX
ESTADISTICOS, MEDIA MIN RANGO MAX VARIANZA Y NUM DE ELEMTNOS.
CON UNA FIABILIDAD BUENA SE MUESTRA UN cuadro donde se observa que pasaría si uno de los
evaluadores se elimina.
El . 759 quiere decir si esta en desacuerdo o no
el coeficiente aparecen
medidas únicas y promedio, las promedio son las mas importantes. Para mira que tan preciso
puede ser un evaluador. Hubo una buena fiabilidad entre los evaluadores.
DR JULIAN
Charles sperman: fue quien indujo este coeficiente, , desarrollo una técnica llamada análisis
factorial y c de spearman.
Este coeficiente de correlación de rangos de sperman: este es una medida de asociación lineal,
que utiliza los rangos utiliza números de orden de cada grupo de sujetos y compara los rangos.
El 1,68 Se convierte en 3 porque el 1,68 es el tercer valor mas pequeño de la talla, el valor de 45
es 1 porque es sel menor y luego se calcula los rangos.
Video
el valor de P oes 0.000
Como p dio 0,000 se rechaza Ho.
EJERCICIO E CLASE
en la tabla nos dcice que el valor es mayor a 0.05 la obesidad no es una variable dependiente de la
edad
los valores son de 0.035 y conckuyendo que en esta relación no se puede hacer, ya que estamos
comparando una variable cuantitaiva y otra cualitativa. E
---el coeficiente de sperman solo funciona para variables cuantitativas, o cualitativas ue tengan
una escala ordinal es decir cualitativa pero ordinal. Para cualitativas hay otro coeficiente de
correlación.
La obesidad se podría utilizar si tiene una escala ordinal ej: najo medio alto en el sexo solo hay dos
opciones( dicotómica)
2 variables icdas 1y 2
prueba de chapiro wilks, que se utiliza los valores de normalidad en cdas 1 no tiene normalidad
es decir no son paramétricos al igual que icdas 2
aquí vemos que otra manera se sabe si son normales o no en un histograma si la curva esta mas
hacia la derecha o izquierda intuimos que no son parametricos
….es importante verificar la diferencia entre el momento 1 y 2 tampoco cumpla en alguno de los
datos
T1-t2= se distribuye normal o no
Como los dos no son paramétricos vamos a este paso
se basa mas en las mediana mas que en las medias ya que las medianas divide los valores de
mitad a mitad independientemente de si exista una normalidad cosa que no existe con la media
para encontrar la mediana
La prueba chapiro wil solo sirve para saber si mis datos se distribuyen normal o no y si se
distribuyen normal debo aplicar pruebas paramétricas, de lo contrario si no hay distribución
normal se hace ruebas no paramétricas.
PRUEBA DE FRIEDMAN
….no necesariamente la muestre debe ser menor a 30, si lo es entonces tenemos que hacer uso
de esta o culaquier prueba no parametrica pero si el tamaño de muestra es mayor a 30 y mis
datos no se distribuyen normal pues tambien se usa esta prueba.
….. en relacion a los datos : por lo menos la variable tenga una escala de medicion ordinal es
decir que la variable uede ser cualitativa ordinal superior o cuantitativa desde que se cumpla el
supuesto de anormalidad
en este caso la hiportesis alterna es igual al anova es decir en por lo menos 2 de los grupoes debe
haber diferencia, no necesariamente deben ser diferentes los 3
rangos promedios semana 1 3 y 6
En el segundo cuadro la significancia sintotica 0.06 se aprueba la hiportesis alterna de que en al
menos 2 grupos son diferentes
PARA SABER EN QUE GRUPOS ESTA LA DIFERENCIA SE UTILIZA:
La prueba de wilkoxon es la forma mas sencilla y empear a comprar entre los parec y ver si
encontramos la diferencia entre crema 1 y2 , 1y 3, , 2y 3 serian 3 wilcoxon lo mas probable es
que con ese p valor de 0,00 nos va a dar que existen diferencia en los 3 grupos
en todos los grupos hay diferencias
PRUEBA DE MANN WHITNEY
cuyos datos han sido medidos en una escala de nivel ordinal
….. razon o intervalo (no normal): estas escalas solo aplican para variables de tipo cuantitativo,
las parametricas es cuando las variables de tipo cuantitativo.
….las pruebas no parametricas podemos usarlas en variables nominales, ordinales pero tambien
las podemos usar en variables cuantitativas. A la hora de comprobar el supuesto de normalidad
el cual solo se cumple en variables cuantitativas, si se cumple el supuesto nos vamos para la
pruebas parametricas sin no se cumple para no parametricas.
…… el suuesto en las no parametricas en muestras pequeñas no quiere decir que si tengo un
tamaño de muestra de 100 no puedo usar pruebas no parametricas, lo mismo sucede con las
muestras aleatorias.
…….en las no parametricas las tengo que usar con pruebas no aleatorias sino tambien aleatorios
desde que se cumpla el supuesto de normalidad.
VIDEO
1:HOGAR
1:GUARDERIA 19 DATOS
VARIABLES DSSLO DEL LENGUAJE
DATOS ORDINALES
ME DA 0.02: ES MENOS 0.05 VOY A ACEPTAR LA HIPOTESIS ALTERNA
PRUEBA DE KRUSKAL WALLIS
método no paramétrico de distribución libre y sirve para probar si un grupo de datos proviene de
una misma población, se puede decir que es idéntico al anova pero con datos remplazdos por
categorías, esta no asume una normalidad de los datos en comparación con anova y es una
extensión de la prueba witney de 3 o mas grupos
a diferencia del anova que compara las medias este contrasta si las muestras están
equidistribuidas…..
no necesariamente todos los datos deben estar ordenados , podemos usarla siempre y cuando la
variable que vamos analizar o importante tenga por lo menos una escala ordinal eso quiere decir
que puede ser una escala cualitativa ordinal o también puede tener una variable cuantitativa de
razón o intervalo pero esta prueba no podemos usarla en variables nominales.
en los uso no se tienen que cumplir a cabalidad los 3 al tiempo , pero tiene que haber una
distribucion normal.
si existe una diferencia significativa
Para saber en que grupos hay diferencias se hace una prueba post hot
En este caso por ser una prueba pequeña se usa bomperrony que es una prueba post hot que no
necesita el supuesto de normalidad para hacer estas comparaciones.
DIFERENCIA ENTRE MAN WITNEY Y KRUSKAL WALIS:
- La kruskal walis es una extension de human witney de 3 o mas grupos.
- La version parametrica de la prueba man witney es la t – student
- La version parametrica de kruskal wallis es la ANOVA
- PRUEBA T-STUDENT PAREADA
antes de iniciar se debe verificar el supesto de normalidad, podemos hacerlo mediante
chapiro para muestras peq y smirnof pruebas grandes aunque existen mas,
para
el ultimo numero es el nivel de significancia en chapiro wilk
vemos el nivel de significancia es 0.000
- La media que aparece en la tabla hace referencia a la diferencia promedio que hay entre
los dos momentos, es de 8 ,3 libras peso inicial menos el peso final.
- Quiere decir que hay una reduccion del peso de 8 libras si nos da positivo.
-
-
-
-
-
-
-
-
-
-
ANOVA DE MEDIDAS REPETIDAS
es un solo sujeto y se sigue un solo patron en los3 momentos
1:varones 2:mujeres
- Prueba 1: ayunas- 2 antes
- 2 horas dspues
- 8 horas despues cuando se elimino el producto del cuerpo
lo que prueba esta prueba anova es si existe diferencias significativas en por lo menos dos
momentos del tiempo
Para saber en que grupos están as diferencias se hace una prueba post hoc
teng 3 materiales y quiero saber si hay diferencia en por lo menos dos de los 3 materiales.
Ho: no hay dif
H1: en por lo menos 2 grupos hay diferencias
PRUEBA T-STUDENT
tenemos 2 tipos de variable
Ej sexo: tiene 2 niveles
lo que queremos encontrar que diferencia hay del peso al nacer entre las 3 ciudades en
relacion al peso al nacer
hay 3 grupos con una sola variable por eso se usa anova esta nos permite comparar mas
de dos localidades
el valor mas alto es de arauca 3326 gramos
valor F : 5.58
Valor P: 5.80 no es sigificativosi no hay diferencia hasta aquí llega el analisis
Si hay diferencias se aplica la prueba porst hoc o post anova, si el nivel de significancia
fuera de 0,018. Entonces lo que se determina es que en por lo menos 2 de esos grupos hay
diferencia no indica que los 3 grupos son distintos sino 1 2 o lo 3 son diferentes
hay muchos estadisticos para encontrar diferencias entre los grupos, por lo general
utilizamos la tukey
se compara grupo por grupo en este caso como no habia diferencias todos los valores dan
por encima de 0,05
….
Ya sabemos hacer la prueba pero yo no quiero comparar 3 grupos sino 2 en este caso
deberia usar t student.
se escoge la prueba t para muestras independientes,
y es la variable predecible
X: edad
hay una relación directa- la técnica de regresión lineal consiste en modelar una línea recta
que una los puntos que describimos anteriormente en este diagrama la recta no pasa por
los 6 puntos , en este diagrama de dispersión no hay 6 puntos alineados.
la que tiene las distancias mas cortas de las flechas es la mejor recta , esas distancias se
llaman errores.
xy y son variables pueden adoptar varios valores
B0 y b1 son coeficientes constantes
B0:intercepto
B1: pendiente
…..el objetivo principal de la regresión lineal es determinar o predecir una variable a partir de otra
de la curva denormalidad
la prueba de dubin Watson esta dentro del rango entre 1.5 a 2.5 lo que nos dice que los datos son
independientes y
vemos que los datos tienen una apariencia aleatoria estos datos en el eje Y, la mayria de los datos
cumplen porque esta entre -3y 3.
Es viable realizar el estudio de regresión lineal simple.
con estas regresiones se puede determinar el peso idela para cierta estatura
en resumen de modelo esta el coeficiente de correlacion que es de 0.81, lo que nos indica
que es cercano a 1
en anova nos permite hacer una prueba sobre la pendiente, de hipótesis: lanula es que la
pendiente es cero, y la alterna que la pendiente es diferente de cero si es cero el modelo
de regresión lineal no es el adecuado en este caso es 0.00 se rechaza la nula
en cuanto a los coeficientes tenemos la constante y tenemos la pendiente de altura que es
0.92 lo cual nos indica que por cada cm adicional en la estatura y el peso debería aumentar
aprox en un 0,92 despues generamos lo sgraficos
en este nos aparecen los tipos de gráficos seleccionamos dispersión de puntos arrastramos
modificamos cada variable x y y
este diagrama nos muestra una correlación ositiva es una relación directa, para sacar la
doble línea se da doble clic
O también en
las predicciones seria que un individuo de 1,65 el peso ideal será de 65 aproximadamenre
este es un modelo probabilístico y detrminista.
REGRESION LINEAL MULTIPLE
la diferencia entre la regresión lineal simple y multiple. Es que en la simple solamente se
usa una variable independiente para explicar una variable dependiente, en la multiple se
usa varias variables independientes para poder explicar una dependiente
entre las dependientes e independientes mediante una lineacon una nube depuntos
estos modelos viéndolos desde el punto de vista clínico son vitales a nivel científico en
distintas especializacones son poderosos porque predicen por ejemplo lo que pueda pasar
en un tto de un pcte