Está en la página 1de 53

UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS

(Universidad del Perú, DECANA DE AMÉRICA)

FACULTAD DE BIOLOGIA

TRANSFORMACIONES DE DATOS

Mg. Ysela Agüero Palacios


Profesora Principal/UNMSM

1
TRANSFORMACIONES DE LOS DATOS
En ocasiones es necesario aplicar transformaciones a los
datos.
Para expresarlos en unidades comparables de pulgadas a
cms. Grados centigrados en Farenheit, etc.
Paraestabilizar la variación de los datos (problema de
sobredispersión)
Paraobtener una distribución normal en datos
asimétricos, etc.)
Para obtener relaciones lineales
¿Cómo afectan estas transformaciones al análisis de
los dato?.
TIPOS DE TRANSFORMACIONES
•- Estandarización o tipificación de los datos:
Consiste en transformar un conjunto de datos con media  y
varianza 2 en un conjunto de datos con media cero y varianza 1.

Y 
z

La transformación inversa sería:

Y    Z
Este tipo de transformaciones modifica la media y la varianza
TRANSFORMACIÓN NO LINEALES
En algunas ocasiones es necesario utilizar transformaciones de
los datos (es decir, la aplicación de una función matemática)
para reducir la influencia de los valores extremos en los análisis.
Las transformaciones usadas con mayor frecuencia son el
logaritmo (log(x) y la raíz cuadrada.
Una importante aplicación de la transformación logaritmo es que
permite normalizar un conjunto de datos que presenta una
distribución muy asimétrica hacia la derecha y permite
estabilizar la varianza cuando existe sobre dispersión en el
conjunto de datos.
La raíz cuadrada es una transformación que se usa cuando se
tiene datos de conteos que presentan sesgo hacia la derecha (con
la finalidad de normalizar).
Distribución de los pesos de
una muestra de individuos

Distribución de los
logaritmos de los
pesos de la misma
muestra de individuos

5
ANÁLISIS DE LA RELACIÓN
ENTRE DOS O MÁS
VARIABLES
El objetivo de la investigación puede ser determinar (evaluar,
establecer, explorar, etc.) la relación entre dos o más variables:
• Asociación (o independencia)
X Y
• Causalidad (influencia, efecto))
X Y
Esto conduce a definir las variables como :
•Variables independientes o explicativas
•Variables dependientes o respuestas.
•Variables concomitantes, intervinientes, confusoras, marcadores de
riesgo
Cuando el objetivo de la investigación es establecer, explorar,
describir, confirmar la posible relación entre dos o más
variables se utilizan tablas, gráficos, indicadores, modelos
estadísticos bivariados (dos variables) o multivariadas (más de
2 variables). que permiten explorar y describir las relaciones.
Métodos de análisis de datos de dos o mas variables:
Mediante indicadores de asociación
Con modelos de regresión (Modelos lineales, Modelos
lineales generalizados, modelos no lineales, etc.).
Técnicas de análisis multivariado.
ESTUDIO DE LA ASOCIACIÓN ENTRE
DOS VARIABLES
Cuando se tiene dos variables y se desea indagar sobre la
posible asociación correlación es importante observar la
escala de medición de ambas variables.

Longitud del tallo(cms) Longitud de la raíz (cms)

Hipertensión (Si/no) Enfermedad del corazón


(Si/no)

Longitud de las patas Longitud de las alas


ANALISIS DE CORRELACIÓN
El análisis de correlación tiene por objeto describir la posible
asociación entre dos variables, que denotaremos con X e Y
ambas medidas en escala de intervalo o razón.
• El análisis comienza construyendo un gráfico de dispersión
que relaciona las dos variables.
• El siguiente paso es evaluar el tipo de relación entre las dos
variables.
• Si la relación que se observa en el gráfico es lineal, entonces
se puede utilizar el coeficiente de correlación lineal de
pearson.
• Este coeficiente indica la fuerza y la dirección de la
asociación.
COEFICIENTE DE CORRELACIÓN LINEAL DE
PEARSON
Mide la relación lineal entre dos variables numéricas.
cov( X ,Y ) Cov(X,Y) : Covarianza de X e Y
r  SX : Desviación estándar de X
SSX Y SY : Desviación estándar de Y

El coeficiente de correlación lineal de pearson toma valores entre:


1  r  1

Se interpreta como grado de correlación entre las dos variables.


Observación.-
La existencia de correlación entre dos variables no implica causalidad.
La causalidad es un juicio de valor que requiere más información teórica
que un simple valor cuantitativo de un coeficiente de correlación.
COEFICIENTE DE CORRELACIÓN DE PEARSON

Correlación lineal inversa Correlación lineal directa No existe correlación.


perfecta perfecta

El valor absoluto del


coeficiente indica la
fuerza de la asociación y
el signo indica la
dirección (directa (+) o
Correlación lineal inversa inversa (-).
Correlación lineal directa baja baja si r→0 y elevada si
si r→0 y elevada si r→ +1 r→ -1.
Ejemplo
Los datos corresponden a la altitud del lugar de residencia y el conteo de
glóbulos rojos de 17 individuos (Spector (1956)).
Gráfico 1. Conteo de glóbulos rojos y
altitud de residencia cov( X ,Y )
r 
7,50 SSX Y

7,00
r=+0.803
Conteo de globulos rojos

6,50

6,00
 El signo es positivo
indicando que la relación
5,50
es directa.
 El valor (r=0.803) indica
5,00

4,50
una correlación elevada.
0 5000 10000 15000 20000

Altitude del lugar de residencia


EJEMPLO
Los datos corresponden a la longitud (cms) y el peso (grs) de una
variedad de peces ,del extremo sur del mar del Sur de la China.

Gráfico 2. Longitud (Cms) y peso (grs) Cuando el gráfico de


de “threadifin beam” Nemipterus dispersión muestra que las
marginatus variables X e Y
200,00 NO SE RELACIONAN
LINEALMENTE
150,00 no se debe utilizar el
coeficiente de correlación
Peso (en g)

100,00
de pearson para evaluar el
grado y dirección de la
50,00
asociación.
En este caso es mejor
utilizar un análisis de
regresión.
0,00

5,00 10,00 15,00 20,00 25,00


regresión
Longitud total (cm)
En este caso, antes de calcular el coeficiente de correlación de
Pearson es necesario transformar los datos de modo que la relación
sea lineal.
2,50
Coeficiente de
correlación lineal de
2,00
Pearson:
r=0.996
Log10(=y)

1,50 El indicador se puede


expresar como un
1,00 coeficiente de
determinación:
0,50 R2 %= (0,996)2*100
0,90 1,00 1,10 1,20
Log10L(=x)
1,30 1,40
= 99,2%
El 99,2% de la variación en los pesos de los peces se explica
por su longitud.
15
COEFICIENTE DE CORRELACIÓN DE RANGOS DE
SPEARMAN
El coeficiente de correlación de spearman se utiliza cuando las
dos variables son ordinales, esto es, en lugar de considerar el
valor se ordenan las observaciones de acuerdo a su posición en
relación al total de observaciones (rango).
Se recomienda su uso cuando los datos presentan valores
extremos (atípicos), pues este indicador es robusto con respecto a
valores atipicos («outliers»).
El coeficiente de correlación de spearman toma valores entre
-1  rs  1
y se interpreta del mismo modo grado de concordancia o de
correlación entre las dos variables.
COEFICIENTE DE CORRELACIÓN DE RANGOS DE
SPEARMAN

Para calcular el coeficiente :


1. Asignar un número de orden de menor a mayor las
observaciones de cada una de las variables X e Y.
2. Obtener las diferencias de las parejas de rangos para cada
observación y luego elevarlas al cuadrado (di2 ).
3. Sumar todas las diferencias para las n observaciones.
4. Aplicar la formula:
 2 
n

6*
rs  1  

i 1
di 

di : diferencia entre los rangos de
X e Y.
 n(n  1) 
2

n : número de observaciones
 
 
Mediciones de glóbulos rojos (eritrocitos) y altitud (en pies)
para 17 especies de mamíferos

7,50

7,00

6,50
e ritro c ito s

6,00

5,50

5,00

4,50

0 5000 10000 15000 20000


Altitude (pies)

18
Los datos corresponden a las mediciones de glóbulos rojos
(eritrocitos) y altitud (en pies) para 17 especies de mamíferos
rango_al n

1
Altitude
0
eritrocitos
4,93
t
17
rango_eritr
15
d2
4  i 1
d i2  163,5
2 1840 4,75 16 16 0
3 2200 5,4 14,5 13 2,25
4 2200 4,65 14,5 17 6,25
 6 * 163,5 
5 5000 5,42 13 12 1 rs  1   
 17 * (17  1 
2
6 5200 6,55 12 5 49
7 5750 5,99 11 8 9
8 7400 5,39 10 14 16
9 8650 5,44 9 11 4 r  1  0,2004
s
10 10740 5,82 8 9 1
 0.7996
11 12000 7,5 7 1 36
12 12200 5,67 6 10 16
13 12300 6,31 5 7 4 Correlación
14 14200 7,05 4 3 1
15 14800 6,46 3 6 9
directa y
16 14900 6,66 2 4 4 elevada
17 17500 7,37 1 2 1
19
Ejemplo. Prueba de Rango de Spearman con empates. Los datos
siguientes representan la longitud de ala (Xi) y de cola (Yi) de 12
aves.
Xi Rango Xi Yi Rango Yi di di2
10,4 4,0 7,4 5,0 -1,0 1,00
10,8 8,5 7,6 7,0 1,5 2,25
11,1 10,0 7,9 11,0 1,0 1,00
10,2 1,5 7,2 2,5 1,0 1,00
10,3 3,0 7,4 5,0 2,0 4,00
10,2 1,5 7,1 1,0 0,5 0,25
10,7 7,0 7,4 5,0 2,0 4,00
10,5 5,0 7,2 2,5 2,5 6,25
10,8 8,5 7,8 9,5 1,0 1,00
11,2 11,0 7,7 8,0 3,0 9,00
10,6 6,0 7,8 9,5 3,5 12,25
10,4 12,0 8,3 12,0 0,0 0,00
12
 6 * 42 
d
i 1
2
i
 42 r  1 
s 
 12 * (12  1 
2
 0,853

20
ANÁLISIS DE FIABILIDAD DE ESCALAS

Cuando se trata de evaluar la fiabilidad de escalas, el


investigador puede estar interesado en :
a)Evaluar al consistencia interna de los ítems que componen la
escala,
b)La coherencia entre las mediciones obtenidas por el mismo
evaluador en dos ocasiones distintas
c)La coherencia entre las mediciones obtenidas por dos
evaluadores.
En estos casos puede ser necesario utilizar coeficientes especiales
ANÁLISIS DE LA COHERENCIA ENTRE
MEDICIONES

Cuando se valida una escala interesa averiguar si las mediciones


obtenidas por dos evaluadores diferentes son consistentes

Evaluador 1 Evaluador 2

Item 1 Item 1

Item 2 Item 2

Item i Item i

Item k Item k

Puntaje total Puntaje total


ANÁLISIS DE LA COHERENCIA ENTRE
MEDICIONES

Cuando se valida una escala interesa averiguar si las mediciones


obtenidas en dos momentos son similares.

Momento 1 Momento 2

Item 1 Item 1

Item 2 Item 2

Item i Item i

Item k Item k

Puntaje total Puntaje total


ANÁLISIS DE LA CONCORDANCIA ENTRE
MEDICIONES

Cuando se trata de evaluar la concordancia entre las mediciones


obtenidas por dos evaluadores (o en dos ocasiones diferentes) se
puede utilizar :
a)El coeficiente de correlación de spearman si la escala en que se
han obtenido las mediciones es ordinal por rangos o en escala de
intervalo.
b)El coeficiente de concordancia Kappa si la escala en que se han
obtenido las mediciones es nominal u ordinal (no rangos).
COEFICIENTE DE CONCORDANCIA KAPPA

La estadística Kappa es una medida de asociación utilizada cuando


se tiene una variable categórica observada en dos ocasiones.
La disposición de los datos es:

Factor A Factor A (controles)


(Casos ) Categoría 1 Categoría 2 .... Categoría C Total

Categoría 1 n11 n12 .... n1F n1.


..... ..... ..... .... .... ....
Categoría F n F1 nF2 .... nFF NF
Total n.1 n.2 .... n.F n..
COEFICIENTE DE CONCORDANCIA
KAPPA
El coeficiente es dado por
P0  Pe

1  Pe
P0 : Es la probabilidad observada de concordancia entre los casos y
controles
Pe : Probabilidad esperada de concordancia entre los casos y controles

Puntos de corte sugeridos


 > 0.75 Excelente concordancia entre las respuestas)
0.40    0.75 Buena concordancia
0   < 0.40 Concordancia marginal
EJEMPLO
Dos patólogos realizan el diagnóstico de las biopsias de 75 pacientes con
melanoma maligno.
Los valores entre paréntesis
Patólogo B Patólogo A corresponden a las frecuencias
Grado II Grado III Total
esperadas y se calculan como:
Grado II 41 (26.4) 3 44 30 * 31
44 * 45  12.4
Grado III 4 27 (12.4 ) 31  26.4
75 75
Total 45 30 75
41  27
Porcentaje de concordancia observado= * 100  90.7
75

26.4  12.4
Porcentaje de concordancia esperado sólo por azar= * 100  51.7%
75
90.7  51.7 Se observa una elevada coherencia entre
Kappa   0.807
100  51.7 los diagnósticos de los dos patólogos
INDICADORES DE
ASOCIACIÓN PARA
VARIABLES CATEGÓRICAS

28
COEFICIENTES DE ASOCIACIÓN ENTRE DOS
VARIABLES CATEGÓRICAS

Cuando las variables, cuya asociación se desea examinar son medidas


en escala nominal u ordinal (con un número reducido de categorías de
respuesta), existen indicadores denominados coeficientes de asociación
que permiten resumir en un sólo número la relación entre dos variables.
El indicador que se utilizará para evaluar la asociación depende
directamente de la escala en que se ha medido las variables.
INDICADORES DE ASOCIACIÓN ENTRE DOS
VARIABLES

VARIABLE 1 VARIABLE 2 Análisis de asociación

Nominal Nominal • Coeficiente Phi


(politómica) (politómica) • Coeficiente de incertidumbre
• Razón de ventajas (OR),
Nominal Nominal
• Riesgo relativo (RR),
dicotómica) (dicotómica)
(según el diseño de la investigación)
• Coeficiente biserial de rango,
Nominal Ordinal • Análisis de Correspondencia
Nominal Intervalo • Coeficiente biserial puntual
•Coeficiente de Spearman,
Ordinal Ordinal •Gamma,
•Tau b y tau c de Kendall
•Análisis de Correspondencias
• Coeficiente de correlación de Pearson
Intervalo/razón Intervalo/razón
• Coeficiente de Spearman,
EJEMPLO
Childs et al describieron la prevalencia de anticuerpos contra
leptospiras (pequeñas espiroquetas aeróbicas) en una población
citadina y examinaron los factores de riesgos asociados con suero
positivo. Los individuos eran personas que asistían a una clínica de
enfermedades de transmisión sexual. Los investigadores desean
averiguar si existe relación entre el estado del titulo de anticuerpos y la
edad de los pacientes.

TABLA 1. Título de anticuerpos y edad de los pacientes


Título de anticuerpos
antileptospiras Total
Edad
(años)  200 < 200
 
n %
n % n %
 19 157 18,4 695 81,6 852 100,0
> 19 27 9,1 271 90,9 298 100,0
Total 184 16,0 966 84,0 1150 100,0
Titulos de anticuerpos
100,0%
antileptospiras
Mayor o igual a 200
menor de 200

80,0%

60,0%
Porcentaje

40,0%

20,0%

0,0%
Menos de 19 19 a más
Edad

Gráfico 2. Títulos de aticuerpos antileptospiras y edad de pacientes.


RIESGO
Se define como RIESGO a la probabilidad de que un individuo,
libre del evento (enfermedad, daño) y susceptible de ella
(expuesto), la desarrolle en un periodo determinado,
condicionada a que el individuo no «muera» a causa de otro
evento durante el periodo de observación.
En el contexto de la epidemiología, se utiliza este término para
la probabilidad de ocurrencia de un evento (enfermar, morir, etc.)
En el idioma inglés se usa los términos risk y hazard .
RIESGO RELATIVO (Risk ratio)

Es un indicador (de asociación) que compara la frecuencia


con que ocurre el evento entre los que estan expuestos a un
factor (riesgo en el grupo expuesto) y los que no lo presentan
(riesgo entre los no expuestos).
Una forma de estimar los riesgos es a partir de la incidencia
acumulada correspondiendo al cociente entre la incidencia
en expuestos en relación con la del grupo no expuesto.

Riesgo entre los expuestos


RR 
Riesgo entre los no expuestos
RIESGO RELATIVO

Tabla 1. Relación entre la exposición y la enfermedad

Enfermedad
Exposición + - Total

+ a b a+b=n1
- c d c+d=n2

a a
Riesgo entre exp uestos  
a  b n1

c c
Riesgo entre no exp uestos  
c  d n2
RIESGO RELATIVO

RR=1 La enfermedad es independiente


a  del factor
 n 
RR   1
 c  0<RR<1 El factor (exposición) no es de
 n  riesgo (protector)
 2

RR>1 El factor es de riesgo.

El Riesgo relativo permite:


 Reconocer la naturaleza de una exposición, como factor de riesgo o
de protección.
 Identificar la magnitud o fuerza de la asociación, lo cual permite
hacer comparaciones.
 No puede utilizarse en los estudios de casos y controles.
EJEMPLO

En un estudio realizado para investigar el efecto de la polución del aire en la


presencia del fibrosis pulmonar, se utilizó dos cohortes de individuos con
edades entre 20 a 30 años, una en Lima y otra en Cajamarca, Durante 10
años estas dos cohortes son observadas registrando la aparición de casos de
fibrosis. Los resultados después de 10 años fueron:
Lugar de Fibrosis
residencia Total 60
Presente (+) Ausente (-) RR  1310  0.0458  3.64
25 0.01259
1985
Lima (+) 60 1250 1310
Cajamarca (-) 25 1960 1985

Es 3.64 veces más probable que una persona que vive en Lima desarrolle
fibrosis pulmonar (mayor exposición a la polución del aire) comparado con
uno que vive en Cajamarca
RAZON DE VENTAJAS
(Odds Ratio)
Es una medida relativas de efecto .
Utilizada para estimar el riesgo relativo en los casos en que no
es posible calcular el riesgo. Específicamente, en los estudios
transversales y de casos y controles.
Ha sido traducida al castellano con múltiples nombres como:
razón de chances, razón de productos cruzados, razón de
disparidad, razón de predominio, proporción de desigualdades,
razón de oposiciones, oposición de probabilidades contrarias,
cociente de probabilidades relativas, oportunidad relativa, pero la
denominación más común es “Odds ratio” u OR”
ODDS RATIO
Factor de Casos Controles
Exposición
+ a b
- c d
Total a+c=n1 b+d=n2

a
Odds entre los exp uestos 
b
c
Odds entre los no exp uestos 
d

OR=1 Independencia entre enfermedad


a
b ad y factor
OR  
c bc 0<OR<1 Factor protector
d OR> 1 Factor de riesgo
Ejemplo:
En un estudio sobre factores asociados con la hipertensión se realizó un
estudio de casos (Hipertensos) y controles (No hipertensos) y se
observó sus niveles de consumo de sal.
Consumo de Hipertensión
sal Casos Controles
12 x170 2040
OR    2.47
25 x 33 825
Alto 12 33
Bajo 25 170
Total 7 173
La «chance» o «posibilidad» de tener niveles elevados de consumo
de sal es 2.47 veces mayor entre los hipertensos comparado con los
no hipertensos.
OBSERVACIÓN
En los estudios transversales, cuando la probabilidad de
ocurrencia del evento de interés (prevalencia de una enfermedad,
por ejemplo) es muy pequeña, esto es, la enfermedad es rara, el
riesgo relativo (RR) y el OR están muy próximos.

OR  RR
ANALISIS ESTRATIFICADO
VARIABLES INTERVINIENTES O
CONFUSORAS
En algunas ocasiones puede interesar comparar dos grupos pero
la relación entre ellas puede estar afectada por el efecto de
variables que denominamos intervinientes o confusoras.
Por ejemplo, el interés puede ser estimar la divergencia
genética entre individuos de diferentes localidades (estudios
empíricos en la genética de poblaciones).
Estas variables intervinientes pueden constituir una fuente de
variabilidad importante que es necesario controlar, mediante un
análisis estratificado.
CONFUSIÓN
Ejemplos :

Fumador Activo
Cáncer de pulmón
(exposición)
(Daño)

Fumador activo
(V. interviniente)
CONTROL DE VARIABLES
INTERVINIENTES

Una forma de controlar fuentes de variabilidad indeseadas es formar


estratos con respecto a las variables intervinientes. La estratificación
permite construir grupos dentro de los cuales los individuos son
homogéneos) y son heterogéneos entre estratos.
Una vez construidos los estratos se comparan los grupos.
Mantel y Haenszel, han propuesto un método de análisis en presencia
de variables intervinientes.
EJEMPLO

Se desea averiguar si el ser fumador pasivo está asociado con el


cáncer de pulmón.
No Fumadores Fumadores
Fumador Caso Control Total Fumador Caso Control Total
Pasivo Pasivo
Si 120 80 200 Si 161 130 291
No 111 155 266 No 177 124 241
Total 231 235 466 Total 278 254 532

En primer lugar calculemos los OR para cada estrato :


161x124
120 x155 ORFumador   1.3
ORNo fumador   2.1 130 x117
80 x111
En ambos casos el odds de los fumadores pasivos es mayor en los
casos que en los controles
Or para datos estratificados

EL OR de Mantel, llamado también “Razón común de los grados de


probabilidad”, OR estratificado, OR generalizado u OR ajustado, permite
calcular un indicador de asociación entre el factor de exposición y el daño (o
enfermedad) controlando el efecto de las variables confusoras, mediante una
estratificación de la muestra a partir de las categorías de las variables
confusoras
Supóngase que se tienen k estratos La expresión para la estadística es:

k
 ai di 
 
i 1  ni

ORG  k 
 bi ci 
 
i 1  ni 

Calculamos el OR para fumadores pasivos y cáncer controlando el
efecto de ser fumador activo

ORG 
120 x155 / 466   161x124 / 532  77.44
  1.63
80 x111/ 466   130 x117 / 532  47.65

El odds (la chance) a favor de que un fumador pasivo tenga cáncer es


1.63 veces más grande que para un control (no fumador pasivo).
Como el cáncer al pulmón es una enfermedad relativamente rara,
podemos interpretar estos resultados como riesgos relativos. Esto es, el
riesgo de tener cáncer en los fumadores pasivos es 1.6 veces
comparados con las personas que no están expuestas al humo del
cigarro ajeno, ajustando el efecto de ser fumador activo.
Test Condicional de Mantel y Haenszel

La estadística de Cochran-Mantel-Haenszel (CMH) compara dos grupos en una


respuesta binaria, ajustando por variables de control. Los primeros datos se
representan como una serie de k tablas de contingencia 2x2. Donde k es el
número de estratos. Tradicionalmente, las filas de cada tabla corresponden al
"grupo de tratamiento" valores (por ejemplo, "Placebo", "el medicamento A") y
las columnas se refieren a la "Respuesta" valores (por ejemplo, «Mejora/ no
mejora»
La hipótesis nula es que la respuesta es condicionalmente independiente del
tratamiento en cualquier estrato dado.
La estratificación de los sujetos en k grupos (De acuerdo a los valores de las
variables controladas - por ejemplo, "Grupo de edad") Aumenta la potencia de la
prueba para detectar asociación.
Prueba de Independencia de las variables

Para realizar la prueba de hipótesis de independencia entre ser fumador pasivo y


el cáncer de pulmón se puede realizar pruebas de hipótesis

H : OR  1
0

El cáncer de pulmón está significativamente relacionada con el ser fumador pasivo


(p<0.001)
- Una suposición establecida cuando se usa el OR ajustado de Mantel es que
la fuerza de la asociación es la misma en cada estrato. SI los OR
subyascentes son diferentes entre varios estratos tendría muy poco sentido
calcular un OR común. Por lo tanto, algunos autores recomiendan primero
realizar un test de homogeneidad y recién si se confirma que los OR de los
estratos son homogéneos procede a calcular el OR ajustado.
- Es posible calcular intervalos de confianza y realizar contrastes de hipótesis
para el OR de Mantel
- Cuando el número de estratos es grande, puede ser algo complicado el
cálculo de la estadística, por lo que una alternativa para los casos en los que
se tiene un conjunto de factores y se desea evaluar la asociación de un
factor de riesgo y un daño, se puede utilizar el análisis de regresión logística,
el cual es un método de análisis estratificado.
Prueba de homogeneidad de los OR

H : OR  OR  ...  OR
0 1 2 k

Para probar la homogeneidad de los OR de los estratos se tiene


los test de Breslow –Day o la de Tarone.
Observar que la hipótesis nula no puede ser rechazada (p>0.05)
por lo que concluimos que no hay evidencia para afirmar que los
OR de los estratos difieran significativamente. Por lo que, es
factible calcular un OR ajustado que evalúe la asociación entre
ser fumador pasivo y el cáncer de pulmón.
Pruebas de homogeneidad de la razón de las ventajas

Sig. asintótica
Chi-cuadrado gl (bilateral)
Breslow-Day 3,274 1 ,070
De Tarone 3,274 1 ,070
OR AJUSTADO
Ejemplo
El OR ajustado , es decir, que relaciona el ser fumador pasivo con
el cáncer de pulmón, controlando el efecto de fumar y su intervalo
de confianza se muestran en el reporte del SPSS

Con 95 % de confianza el verdadero OR se encuentra entre


1.26 y 2.09, lo cual indica que el cáncer de pulmón esta
signficativamente asociado con ser fumador pasivo (OR:
1.63; IC:1.26-2.09).

También podría gustarte