Está en la página 1de 29

Guía STATA

Guía de Stata: Diplomado Bioestadística

Esta guía está compuesta de dos partes: Estadísticas descriptivas y Epidemiología.

Cada una de ella resume algunos procedimientos de análisis estadísticos.

1.- Estadísticas descriptivas e Inferencia

Para comenzar a trabajar en los datos utilizaremos el archivo de Stata

Actividades de la Clase:

1.- Abrir un archivo de resultados (log begin)


Abrir un archivo log donde queden todos los resultados de los comando ejecutados dentro del programa STATA. Este archivo le servirá
para generar un informe de Estadísticas descriptivas.

2.- Manejo de la base de datos


En la base de datos de STATA. Con Excel podemos pegar los datos en el editor de datos y grabamos la base de datos de trabajo.

a.- Indique las variables contenidas en la base de datos. (describe, inspect) Abrir la base de datos Guia_Sata_1”.
Estos dos comandos de stata permiten ordenar la base de datos de acuerdo a un criterio de orden. Aplique los dos comandos de stata y
visualice su estructura.
b.- Con la base de Datos “Guia_Sata_1” creada calcule las estadísticas descriptivas (summarize, su). Utilice también los operadores
lógicos (help operator).
Las estadísticas básica las realizamos con el comando stata.
. su Conc_g1 Conc_g2 Conc_g3 Conc_g4
Variable | Obs Mean Std. Dev. Min Max
-------------+--------------------------------------------------------
Conc_g1 | 8 133.375 17.36118 100 153
Conc_g2 | 8 151.75 12.73634 134 175
Conc_g3 | 8 92.5 4.535574 87 99
Conc_g4 | 8 106.625 3.925648 100 111

. bys Trat :su concentra


--------------------
-> Trat = 1
Variable | Obs Mean Std. Dev. Min Max
-------------+--------------------------------------------------------
concentra | 8 133.375 17.36118 100 153
--------------------
-> Trat = 2
Variable | Obs Mean Std. Dev. Min Max
-------------+--------------------------------------------------------
concentra | 8 151.75 12.73634 134 175
--------------------
-> Trat = 3
Variable | Obs Mean Std. Dev. Min Max
-------------+--------------------------------------------------------
concentra | 8 92.5 4.535574 87 99
--------------------
-> Trat = 4
Variable | Obs Mean Std. Dev. Min Max
-------------+--------------------------------------------------------
concentra | 8 106.625 3.925648 100 111

1
Guia_Stata.doc
Guía STATA

. su concentra if Trat==1
Variable | Obs Mean Std. Dev. Min Max
-------------+--------------------------------------------------------
concentra | 8 133.375 17.36118 100 153

En la zona de comandos coloque help operator


Syntax
Relational
Arithmetic Logical (numeric and string)
-------------------- ------------------ ---------------------
+ addition & and > greater than
- subtraction | or < less than
* multiplication ! not >= > or equal
/ division ~ not <= < or equal
^ power == equal
- negation != not equal
+ string concatenation ~= not equal
A double equal sign (==) is used for equality testing.
The order of evaluation (from first to last) of all operators is ! (or ~), ^, - (negation), /, *, -
(subtraction), +, != (or ~=), >, <, <=, >=, ==, &, and |.

c.- Clasifique las variables e indique las pruebas para verificar la condición de normalidad.
d.- La verificación del supuesto de normalidad se realiza a través de la pruebas: Prueba de Shapiro Wilk swilk y Prueba de
Kolmogorov-Smirnov ksmirnov. Qué variables de la base de datos siguen una distribución normal?
e.- Comente los resultados.
f.- Indique las posibles rutas de análisis según condición de normalidad.

3.- El Análisis de Varianza ANOVA oneway


a.- Cuál es el objetivo de realizar un ANOVA?. Indique ventajas y desventajas.
b.- Se requiere cumplir de supuestos? Cuáles son?.
Revise y practique con el programa Stata

El concepto
El análisis de varianza es una técnica que permite contrastar tres o más grupos y así detectar si existen diferencias o no en esos grupos.
La hipótesis nula del análisis de varianza relaciona la igualdad de medias de la variable problema versus la hipótesis nula de la diferencias
de medias en al menos un par de medias comparadas.

H0:
H1:

Por ejemplo si deseamos saber si la concentración de vitamina B6 en 4 dietas diferentes han tenido efecto sobre los dolores neurálgicos
de pacientes con obesidad o si las concentración de arsénico del agua proveniente de 4 regiones es diferente.

El análisis de varianza debe cumplir varios supuestos, dos de ellos muy importantes, el primero de ellos es la condición de normalidad y la
condición de varianzas similares en cada grupo.
Ingrese la siguiente base de datos:
Conc_g1 Conc_g2 Conc_g3 Conc_g4
125 134 93 100
140 145 89 110
149 146 98 111
121 175 88 109
153 154 87 108
136 164 91 102
143 151 99 105
100 145 95 108

2
Guia_Stata.doc
Guía STATA

a.- Lo primero suponer la condición de normalidad de la concentración en cada grupo y la condición de que las varianzas en cada grupo
sean homogéneas u homocedásticas. En Stata verificaremos la condición de normalidad. La verificación se realiza a través de la
aplicación de la prueba de Shapiro Wilk (swilk).

. swilk Conc_g1 Conc_g2 Conc_g3 Conc_g4


Esta columna muestra los valores p
Shapiro-Wilk W test for normal data
para cada variable que se
Variable | Obs W V z Prob>z obtuvieron al aplicar la prueba de
-------------+--------------------------------------------------
Conc_g1 | 8 0.93026 0.972 -0.046 0.51840 Shapiro Wilk. Como p-valor es
Conc_g2 | 8 0.94178 0.811 -0.328 0.62867 mayor que α=0.05, no se rechaza la
Conc_g3 | 8 0.93241 0.942 -0.096 0.53830 condición de normalidad.
Conc_g4 | 8 0.91178 1.229 0.340 0.36676

La última columna entrega los valores de probabilidad (p-valor) para cada variable de concentración. En este caso todas las variables
resultaron ser normales. Si el p-valor hubiese dados un valor más pequeño que 0.05, rechazamos la hipótesis nula donde se consigna la
condición de normalidad de la variable (Ho: La variable sigue una distribución normal vs Ha: La variable no sigue una distribución normal).

b.- Aplicación de la prueba de análisis de varianza:


Realizaremos el análisis utilizando 2 programas: Excel y Stata.

En excel después de activar el complemento de herramientas para análisis:

Se rellena con la identificación de las


celdas A1 a la D9.
Activar los rótulos y asumir que el nivel
de significación alfa es igual a 0,05 y
que los datos están dispuestos en
columnas.

Se pulsa la tecla Aceptar y da por resultado la siguiente tabla que se muestra más abajo:

c.- Lectura de resultados de un anova


Si estamos en condiciones de validar el análisis de varianza, es decir, se cumple y podemos verificar la condición de normalidad y que las
varianzas de los grupos a comparar son similares (homogéneas, homocedasticas) entonces podemos leer el p-valor del análisis.

3
Guia_Stata.doc
Guía STATA

Análisis de varianza de un factor

RESUMEN
Grupos Cuenta Suma Promedio Varianza
Conc_g1 8 1067 133,375 301,410714
Conc_g2 8 1214 151,75 162,214286
Conc_g3 8 740 92,5 20,5714286
Conc_g4 8 853 106,625 15,4107143

El valor estimado de la El valor de la El valor de la


varianza entre y dentro distribución de F distribución de
del grupo experimental F teórica
ANÁLISIS DE
VARIANZA
Origen de las Suma de Grados de Promedio de F Probabilidad Valor crítico
variaciones cuadrados libertad los cuadrados para F
7,331E-11
Entre grupos 16940,625 3 5646,875 45,2105226 2,94668527
Dentro de los grupos 3497,25 28 124,901786 El p-valor =7.33e-11 es muy menor
que 0.05, por lo tanto se rechaza
H0 e indica que hay diferencias
Total 20437,875 31 entre los grupos comparados.
- Si dividimos la suma de cuadrados y los grados de libertad se estima la varianza según sea entre grupos o dentro de un grupo.

Conclusión: Entonces al comparar la concentración promedio en los cuatro grupos se encontró diferencias estadísticamente significativas
con un p-valor=7.33e-11, considerando un nivel de significación α=0.05.

Una vez que realizamos los análisis según el resultado de ellos se debe aplicar algunas técnicas complementarias para continuar el
análisis.
Si encontramos diferencias en al menos un pareja de medias podemos realizar las llamadas comparaciones múltiples de Bonferroni,
Scheffe, Sidak Tukey, etc.
Revisemos ahora con el programa Stata:

. oneway concentra Trat


Analysis of Variance
Source SS df MS F Prob > F
------------------------------------------------------------------------
Between groups 16940.625 3 5646.875 45.21 0.0000
Within groups 3497.25 28 124.901786
------------------------------------------------------------------------
Total 20437.875 31 659.28629

Bartlett's test for equal variances: chi2(3) = 18.1933 Prob>chi2 = 0.000

Lo primero que leemos es el resultado de verificar la condición de homocedasticidad de varianzas (homogeneidad o similitud) a través de
la prueba de Bartlett y que constituye la segunda verificación de supuesto que debemos realizar para aplicar el análisis de Varianza.
En este caso las varianzas de la concentración en los diferentes tratamientos no son similares con un p-valor<0.0001, por lo tanto, no se
puede aplicar el análisis de varianza por que no se cumple el segundo supuesto de similitud de varianzas. Lo que corresponde es utilizar
la prueba no paramétrica de Kruskal Wallis (kwalllis), que es una prueba no paramétrica en caso que no se cumplan los supuestos.

4
Guia_Stata.doc
Guía STATA

. kwallis concentra, by( Trat)


Kruskal-Wallis equality-of-populations rank test
+-----------------------+
| Trat | Obs | Rank Sum |
|------+-----+----------|
| 1 | 8 | 168.50 |
| 2 | 8 | 216.00 |
| 3 | 8 | 36.00 |
| 4 | 8 | 107.50 |
+-----------------------+
chi-squared = 25.859 with 3 d.f.
probability = 0.0001
chi-squared with ties = 25.873 with 3 d.f.
probability = 0.0001

Hasta ahora solo sabemos que hay diferencias entre las concentraciones de los cuatro tratamientos, pero debemos conocer cuáles son
los grupos de tratamientos que son diferentes. Para ello se utiliza la Prueba de Dunn.

4.- Regresión y correlación (regress, correlate)

El Concepto de la Regresión
El Análisis de Regresión se usa cuando el investigador sabe que existe una relación entre las variables de interés porque hay una
investigación previa que la ha descubierto. Por ejemplo, la relación entre espacio y tiempo ya se sabe que es la velocidad. El investigador
verifica experimentalmente tal relación y luego el objetivo de la regresión es encontrar un modelo que mejor se ajuste a sus datos
experimentales y represente el fenómeno observado en el experimento.
Cuando no conoce la relación exacta, sino que trata de encontrar una curva de tipo práctica en los llamados modelos empíricos, la idea es
tener una manera rápida de relacionar dos variables como por ejemplo, en la industria cuando se relaciona la velocidad de una reacción
enzimática con la temperatura del matraz que contiene a la solución.
El Análisis de Correlación se emplea cuando el investigador sospecha que ambas magnitudes están relacionadas, pero no tiene idea de
cómo se relacionan entre ellas y la magnitud de esa relación si es que existe. Por ejemplo, si deseamos saber como el peso está
relacionado con la talla dentro de un grupo de pacientes seleccionados al azar.

El análisis de regresión sirve para predecir una medida en función de otra medida (o varias: regresión múltiple).
a.- Y = Variable dependiente
• Se ha medido experimentalmente, es una variable aleatoria
• Se le denomina variable “explicada”
b.- X = Variable independiente
• Es una variable predictora, controlada, no es una variable aleatoria.
• Se suele denominar también variable “explicativa”
c.- ¿Es posible descubrir una relación?
Y = f(X) + error, donde
f es una función de un tipo determinado
el error es aleatorio, pequeño, y no depende de X

Requisitos de una regresión


a. La variable independiente se mide sin error. Esto significa que está bajo el control del investigador y se consideran “fijos” a los
valores de X que eligió. Por ejemplo, al manipular las dosis de un cierto medicamento hipo-tensor, se fijan estos valores de X y por lo
tanto no se la puede considerar como una variable aleatoria. En cambio, el valor de la presión sanguínea del paciente no puede ser fijada
por el investigador; entonces Y varía en forma libre.

b. El valor esperado de la variable Y* para un dado valor de X, se determina con la relación:


E(Y)=μY=Y*=α+βX
Se usan las letras griegas para describir una relación paramétrica entre las variables.

c. Para cualquier valor de X, los valores de Y se distribuyen independiente y normalmente.


Y*=α+βX+ε
Donde ε es un término de error con una distribución normal de media igual a cero y desvío (variabilidad o dispersión σ).

5
Guia_Stata.doc
Guía STATA

Esto supone que cada valor X tiene un gran número de valores posibles de Y a hacer la medición, con una distribución normal, cuyo eje
de simetría es una vertical (eje z: dentro de un espacio tridimensional imaginario) que pasa por el punto Y* de la recta de regresión,
orientada sobre la línea que une el punto X con él Y* correspondiente. Esto para los casos donde hay más de un valor de Y para cada
valor de X.

d. Todas las muestras a lo largo de la línea de regresión son homocedásticas. Se supone que todas las distribuciones normales
mencionadas en el punto anterior tienen la misma varianza.

El modelo de regresión
Para la construcción de un modelo de regresión es muy importante considerar los siguientes elementos:
a.- En el modelo de una regresión lineal simple, dada dos variables:
Y es la llamada variable dependiente.
X es la variable independiente, también denominada explicativa.

b.- Necesitamos encontrar una función de X muy simple (lineal) que nos permita aproximar nuestra variable de interés Y mediante un
estimación de ella a partir de una variable llamada Ŷ
Ŷ = β0 + β1X1
En donde: β0 (ordenada en el origen, constante)
β1 (pendiente de la recta) pero es el coeficiente beta asociado a la variable independiente X1
Y e Ŷ (valor de Y estimado) rara vez coincidirán por muy bueno que sea el modelo de regresión.
A la cantidad e = Y-Ŷ se le denomina residuo o error residual.

Nivel de significación, nivel de confianza


Alfa (α)= nivel de significación que permite al investigador fijar el nivel de confianza o margen de error en la toma de decisiones.
Habitualmente Alfa (α) es un valor arbitrario y suele asignársele el valor de 0.05. La prefija o asume el investigador.

Practica
Ingrese al programa la siguiente base de datos:
paciente altura peso sexo presion diabetes
1 156 61 1 123 0
2 165 66 1 142 1
3 179 78 0 147 1
4 186 81 0 123 0
5 190 94 0 151 1
6 146 56 1 139 1
7 151 59 1 141 1
8 163 65 0 110 0

Ejercicio 1
Vamos a construir un primer modelo de regresión considerando la presión como variable dependiente y el peso como independiente.

6
Guia_Stata.doc
Guía STATA

Estadísticas de la regresión
Coeficiente de correlación múltiple 0,33110771 Coeficiente de Determinación (R2) que
refleja la bondad de ajuste, es decir, es una
Coeficiente de determinación R^2 0,10963232 medida de cuanto se ajustan los datos del
R^2 ajustado -0,0387623 estudio al modelo propuesto.
Error típico 14,4752615
Observaciones 8

β1, coef. asociado al peso p-valor de inferencia respecto de β1


β0=n= intercepto.

a.- Modelo teórico de esta regresión lineal simple: presión= 109.3 + 0.3591*peso + error

presión= variable dependiente=Y


peso = variable independiente=X1
β0= n= intercepto=109.3583 (=) 109.4
β1=m= pendiente (=) 0.3592=0.36

Para ajustar un modelo de regresión se traza una recta que se construye a través del método de mínimos cuadrados para determinar la
pendiente e intercepto (β0 y β1) y es la mejor recta que se pueda trazar.

b.- Grado de ajuste (está determinado por el llamado coeficiente de determinación R2:
Se determina con el coeficiente de regresión o Coeficiente de determinación (R2.) Este valor va de de 0 a 1, donde 0 implica que no hay
un buen ajuste y el valor 1 indica que las variables se ajustan muy bien al modelo propuesto.
R2=0.1096, es un valor bajo y pequeño e indica que nuestros datos no se ajustan bien (no bajo grado de ajuste).

c.- Inferencia relacionada con beta β1


Aquí miramos si β1 (beta uno) que corresponde al beta asociado a la variable independiente peso (se prueba que este coeficiente beta es
realmente diferente de cero).
H0: β1 = 0
H1: β1 ≠ 0
Hay dos opciones:
i.- Si rechazamos H0, entonces β1 nunca tomaría el valor cero y por lo tanto la variable independiente peso si aporta al modelo teórico
propuesto.
ii.- Si no rechazamos H0, entonces β1 podría tomar el valor cero con lo cual la variable independiente peso no aporta al modelo.
En este caso, el valor de probabilidad p-valor =0.423 es mayor que 0.05 por lo tanto no rechazo Ho, luego la variable peso no aporta al
modelo teórico propuesto.

7
Guia_Stata.doc
Guía STATA

. regress presion peso


Source | SS df MS Number of obs = 8
-------------+------------------------------ F( 1, 6) = 0.74
Model | 154.800833 1 154.800833 Prob > F = 0.4231
Residual | 1257.19917 6 209.533194 R-squared = 0.1096
-------------+------------------------------ Adj R-squared = -0.0388
Total | 1412 7 201.714286 Root MSE = 14.475
------------------------------------------------------------------------------
presion | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
peso | .3591667 .4178648 0.86 0.423 -.6633117 1.381645
_cons | 109.3583 29.69487 3.68 0.010 36.69759 182.0191
------------------------------------------------------------------------------

Ejercicio: reconozca todos los elementos fundamentales de la formulación de un modelo de regresión simple

La Correlación

Se puede construir la matriz de correlación con los coeficientes de correlación de todas las variables de la base de datos.

El resultado es la siguiente matriz de correlación entre las variables:


altura peso presion
altura 1
peso 0,97010973 1
presion 0,1980549 0,33110771 1

Las dos variables que se relacionan mejor son peso y altura r=0.9701 (r =coeficiente de correlación).
 El coeficiente de correlación va de -1 a +1, donde los valores cercanos a 1 o -1 indican un grado de relación fuerte).
 El signo indica el tipo de relación, que puede ser directa (r=+) o inversa (r=-).
 Relación directa => si aumenta una variable también aumenta la otra.
 Si el signo es negativo, implica que la relación es inversa, es decir, al aumento de una variable la otra disminuye.
 El valor de la correlación sin considerar el signo indica la magnitud de la relación.

Las dos variables peso y altura se relacionan de forma directa, ya que el signo del coeficiente de correlación es positivo, esto implica que
al aumento de la altura, aumenta el peso. Un valor negativo implicaría una relación inversa en donde el aumento de una variable,
disminuye la otra.

8
Guia_Stata.doc
Guía STATA

En Stata
. corr altura peso presion
(obs=8)
| altura peso presion
-------------+---------------------------
altura | 1.0000
peso | 0.9701 1.0000
presion | 0.1981 0.3311 1.0000

Veamos una regresión lineal múltiple, donde podemos ajustar un modelo de regresión múltiple donde el peso y altura en forma conjunta
sean las variables independientes y la presión sea la variable dependiente:

Los resultados en Excel para la regresión son los siguientes:


Estadísticas de la regresión
Coeficiente de correlación múltiple 0,605969771
Coeficiente de determinación R^2 0,367199363
R^2 ajustado 0,114079109
Error típico 13,36798039
Observaciones 8

….tabla recortada

a.- Modelo teórico de la regresión múltiple:


Presión= 258,6 + 2,6*Peso - 1,8*Altura + error
Presión es la variable dependiente; Peso y Altura son las variables independientes (X1 y X2) y que aportan a construir un modelo de
regresión múltiple

9
Guia_Stata.doc
Guía STATA

b.- Ajuste del modelo propuesto:


El grado de ajuste se determinó con el coeficiente de determinación R2=0,3672.

c.- Inferencia de beta β


Aquí verificaremos la inclusión dentro del modelo de las dos variables independientes.
H0: β1 = 0
H1: β1 ≠ 0
i.- Para la variable peso, el p-valor asociado al coeficiente beta es p-valor=0.168, no se rechaza H0 y por lo tanto el peso no es una
variable independiente que aporte al modelo teórico propuesto inicial.
ii.- Para la variable Altura, el p-valor asociado al coeficiente beta es p-valor=0.213, no se rechaza H0 y por lo tanto la altura no es una
variable independiente que aporte al modelo teórico propuesto inicial.
Luego ninguna de las dos variables altura ni peso son adecuadas para incorporar al modelo.

En este caso debemos buscar otras variables que puedan ser incorporadas en el modelo. Esta información a veces se obtiene de la
recolección de los datos y debe ser considerada en la etapa de diseño del protocolo del estudio y la lectura del material bibliográfico
seleccionado inicialmente donde se da cuenta de posibles variables que puedan aportar a nuestra problemática.

En stata
. regress presion altura peso
Source | SS df MS Number of obs = 8
-------------+------------------------------ F( 2, 5) = 1.45
Model | 518.485501 2 259.24275 Prob > F = 0.3185
Residual | 893.514499 5 178.7029 R-squared = 0.3672
-------------+------------------------------ Adj R-squared = 0.1141
Total | 1412 7 201.714286 Root MSE = 13.368
------------------------------------------------------------------------------
presion | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
altura | -1.81635 1.273218 -1.43 0.213 -5.089261 1.456561
peso | 2.559977 1.590249 1.61 0.168 -1.527888 6.647842
_cons | 258.632 108.1712 2.39 0.062 -19.43088 536.6949
------------------------------------------------------------------------------

Ejercicios
a.- Indique el objetivo de cada uno de estos métodos.
b.- Indique los supuestos.
c.- Indique los diferentes componentes de un modelo de regresión

10
Guia_Stata.doc
Guía STATA

2.- Epidemiología

Contenidos
Parte 1: Cálculo de riesgos, medidas de ocurrencia de enfermedad. Ajustes de modelos asociados a riesgos
Parte 2: Validación de instrumentos
- Análisis de la concordancia Kappa
- Fiabilidad: Alfa de Cronbach
- Coeficiente correlación spearman
- Tau de Kendall

Parte 1: Cálculo de riesgos, medidas de ocurrencia de enfermedad.

Conceptos y generalidades
Existen tres medidas básicas de que son esenciales para calcular la frecuencia de acontecimientos en la salud y el pronóstico y
mortalidad de pacientes que tienen la enfermedad investigada. . Estas medidas son:

a.- Riesgo: probabilidad de que un individuo contraiga la enfermedad,


b.- Prevalencia: cantidad de enfermedad presente en una población,
c.- Tasa de incidencia: a que "velocidad" (es una tasa) surgen nuevas ocurrencias de la enfermedad
Las medidas de frecuencia de una enfermedad más utilizadas son incidencia y prevalencia. La prevalencia es la proporción de individuos
de una población que tiene la enfermedad en un momento determinado. Esta medida estima la probabilidad de que un individuo esté
enfermo en aquel momento.

Prevalencia = Número de personas con la enfermedad


Población total

Por simplicidad y a efectos didácticos se habla de población total, pero se puede estimar la prevalencia de una enfermedad en grupos
específicos de la población (por ejemplo cáncer de mama en mujeres mayores de 50 años) e incluso en presencia de determinados
síntomas (prevalencia de cáncer de mama en mujeres mayores de 50 años que acuden a la consulta por notar una tumoración en la
mama).

El momento en el que se estima la prevalencia puede corresponder a un punto concreto del calendario (por ejemplo, 1 de enero de 2001)
o, por el contrario, puede representar un instante fijo para el acontecimiento que se mide, pero varía de una persona a otra en cuanto a
tiempo real se refiere (por ejemplo, el momento del diagnóstico o el décimo día de tratamiento). Ya que se trata de una proporción (el
numerador está contenido en el denominador), su valor siempre está entre 0 y 1(aunque generalmente se expresa en porcentajes, o en
tantos por 1.000 o por 100.000).

La incidencia es la proporción de individuos que a lo largo de un período de tiempo determinado desarrolla la enfermedad.

Incidencia = Número de casos nuevos en un período de tiempo


Total de la población en riesgo

El numerador son los casos nuevos que aparecen a lo largo de un período de tiempo, y el denominador la población en riesgo de
desarrollar la enfermedad. Por ejemplo, si queremos estudiar la incidencia de diabetes a lo largo de un año, el numerador estará
constituido por los pacientes que a lo largo del año desarrollen la diabetes (casos nuevos) y del denominador no deben formar parte
aquéllos que al inicio del estudio ya eran diabéticos, puesto que no están en riesgo.

La incidencia estima la probabilidad o riesgo de que un individuo presente la enfermedad en un período determinado de tiempo. Al igual
que con la prevalencia, también la incidencia de una enfermedad se puede estimar en grupos específicos de la población. Si hacemos
una analogía la incidencia es la película a lo largo de un período de tiempo y la prevalencia la foto de la situación en un momento
concreto. Prevalencia e incidencia están estrechamente relacionadas:

11
Guia_Stata.doc
Guía STATA

Prevalencia = Incidencia * Duración

A mayor incidencia mayor prevalencia, cuantos más casos nuevos aparezcan más fácilmente es detectarlos en el momento de la foto.
Pero a su vez depende de la duración de la enfermedad: si se trata de una patología crónica dará lugar a una prevalencia más alta que si
la enfermedad cura o mata rápidamente.

Una odds es el cociente entre la probabilidad de que un hecho ocurra y la probabilidad de que no ocurra. Es otra forma de expresar la
frecuencia con la que puede estar presente una enfermedad, ampliamente utilizada en los países de habla inglesa.

Odds = p
1-p

Si la probabilidad previa de una enfermedad es 0,25, la odds previa es 0,33.

Odds previa = 0,25 = 0,33 (1:3 ó 1 a 3)


0,75

Otra forma de expresar esta odds es 1 a 3, queriendo decir que por cada individuo enfermo hay 3 individuos sin la enfermedad. La
transformación de odds en probabilidades también es sencilla:

p = odds
1+odds
Si la odds de una enfermedad es 0,25 (1 a 4), la probabilidad de es ta enfermedad es 0,20.
p = 0,25 = 0,20
1,25

La estimación de la probabilidad de una enfermedad se basa fundamentalmente en la experiencia personal y en los datos de la literatura.
Sin embargo, ambas fuentes pueden estar sujetas a errores. La experiencia puede inducir a errores especialmente cuando no se tiene
mucha y sobre todo si se trata de enfermedades raras, cuando se presentan signos y síntomas redundantes o los casos vistos se han
vivido de una forma especial. Además, se tiende a ser extremista en la primera estimación de la probabilidad de la enfermedad y
conservador a la hora de ajustar dicha probabilidad por la nueva información adquirida.

Los datos de la bibliografía pueden inducir a errores, especialmente por el sesgo de selección: los pacientes sobre los que se ha realizado
el estudio difieren en características relevantes de los pacientes que habitualmente un clínico puede ver en su consulta.

Las medidas de probabilidad, de frecuencia de una enfermedad, más ampliamente utilizadas son la incidencia (casos nuevos que
aparecen a lo largo de un período de tiempo) y la prevalencia (número de casos con la enfermedad en un momento determinado). Esta
probabilidad también se puede expresar en forma de odds.

Ejercicio
En un estudio de cohorte1 de asfixia perinatal, reaccionó lactantes de más de 2.5 kg al nacer. La exposición se define por la prueba de
Apgar de 0 a 3 a los 10 minutos de nacer. y el grupo de comparación de recién nacidos menos expuestos tenían puntuaciones de Apgar
de 4 a 6 a los 10 minuto. Se observaron los siguientes valores:

Tabla: Relación entre la puntuación de Apgar a los10 minutos y riesgo de muerte en el primer año de vida en niños con pesos al
nacer menores de 2500kg.

Puntuación de Apgar Puntuación de Apgar Total


0a3 4a6
Fallece 42 43 85
No fallece 80 302 382
Total 122 345 467
Fuente: Epidemiologia Clínica. Begoña Bermejo.

12
Guia_Stata.doc
Guía STATA

a..- Calcular Riesgo en los expuestos y no expuestos

Riesgo(expuestos)= 42/122=0.344 =34.4%


Esto significa que 1 de cada 3 recién nacidos que pesan más de 2500 g con Apgar muy bajo a los 10 minutos, murieron en el
primer año de vida.

Riesgo(no expuestos)= 43/345=0.1246=12.5%


Esto significa que 1 de cada 8 recién nacidos que pesan más de 2500 g con Apgar intermedios a los 10 minutos, murieron en el
primer año de vida.
Los neonatos con Apgar muy bajo a los 10 minutos, tienen peor pronóstico que aquellos con Apgar intermedio en ese momento.

b.- Calcular el riesgo relativo (RR).


Se realiza el cociente de los riesgos de expuestos y no expuestos.
RR=(42/122)/(43/345)=2.76 2.8

En stata, disponemos de los siguientes comandos para el cálculo de riesgos y asociación:

ir Statistics > Epidemiology and related > Tables for epidemiologists > Incidence-rate ratio
Iri Statistics > Epidemiology and related > Tables for epidemiologists > Incidence-rate ratio calculator
cs Statistics > Epidemiology and related > Tables for epidemiologists > Cohort study risk-ratio etc.
csi Statistics > Epidemiology and related > Tables for epidemiologists > Cohort study risk-ratio etc. calculator
cc Statistics > Epidemiology and related > Tables for epidemiologists > Case-control odds ratio
cci Statistics > Epidemiology and related > Tables for epidemiologists > Case-control odds-ratio calculator
tabodds Statistics > Epidemiology and related > Tables for epidemiologists > Tabulate odds of failure by category
mhodds Statistics > Epidemiology and related > Tables for epidemiologists > Ratio of odds of failure for two categories
mcc Statistics > Epidemiology and related > Tables for epidemiologists > Matched case-control studies
mcci Statistics > Epidemiology and related > Tables for epidemiologists > Matched case-control calculator

Para el caso de un estudio de cohorte utilizamos el comando csi:


. csi 42 43 80 302, exact
cs comando stata para un
| Exposed Unexposed | Total estudio de cohorte.
-----------------+------------------------+------------
Cases | 42 43 | 85 csi es la forma de ingresar
Noncases | 80 302 | 382 los valores (cuando no se
-----------------+------------------------+------------ dispone de la base de datos
Total | 122 345 | 467 y solo contamos con los
| |
Risk | .3442623 .1246377 | .1820128 valores de las celdas).
| |
| Point estimate | [95% Conf. Interval]
|------------------------+------------------------
Risk difference | .2196246 | .1283943 .3108549
Risk ratio | 2.762104 | 1.904597 4.005688
Attr. frac. ex. | .6379572 | .4749546 .750355
Attr. frac. pop | .3152259 |
+-------------------------------------------------
1-sided Fisher's exact P = 0.0000
2-sided Fisher's exact P = 0.0000
Comentar los resultados

El riesgo relativo es de 2.76 con un intervalo de confianza de [1.91-4.01]

13
Guia_Stata.doc
Guía STATA

Qué pasa si aplico el comando que corresponde a un estudio de caso y control?


. cci 42 43 80 302, exact chi2 cc comando stata para un
Proportion estudio de caso control.
| Exposed Unexposed | Total Exposed
-----------------+------------------------+------------------------ cci, forma inmediata
Cases | 42 43 | 85 0.4941
Controls | 80 302 | 382 0.2094
-----------------+------------------------+------------------------
Total | 122 345 | 467 0.2612
| |
| Point estimate | [95% Conf. Interval]
|------------------------+------------------------
Odds ratio | 3.687209 | 2.184043 6.200208 (exact)
Attr. frac. ex. | .7287922 | .5421335 .8387151 (exact)
Attr. frac. pop | .3601091 |
+-------------------------------------------------
1-sided Fisher's exact P = 0.0000
2-sided Fisher's exact P = 0.0000

Ejercicio:
Datos de un estudio de cohorte realizado en Nueva York en 1974 sobre mortalidad por peso al nacer.
Caso= Corresponde a los niños que mueren antes del año (prematuros) con un peso inferior a 2500g.
No-Caso= Es el niño al nacer prematuro (peso menor de 2500 g) que no fallece antes del año.
Exposición = Niño prematuro con un peso inferior o igual a 2500g.

. csi 618 422 4597 67093, exact


csi comando stata para
| Exposed Unexposed | Total un estudio de cohorte.
-----------------+------------------------+------------
Cases | 618 422 | 1040
Noncases | 4597 67093 | 71690
-----------------+------------------------+------------
Total | 5215 67515 | 72730
| |
Risk | .1185043 .0062505 | .0142995
| |
| Point estimate | [95% Conf. Interval]
|------------------------+------------------------
Risk difference | .1122539 | .1034617 .121046
Risk ratio | 18.95929 | 16.80661 21.38769
Attr. frac. ex. | .9472554 | .9404996 .9532441
Attr. frac. pop | .5628883 |
+-------------------------------------------------
1-sided Fisher's exact P = 0.0000
2-sided Fisher's exact P = 0.0000

En estos datos se aprecia que hay un 94.7% de muertes entre la población expuesta y un 56.3% de todas las muertes se pudo
haber evitado si no hubiesen sido prematuros.

Recordar:
Odds, es la probabilidad P de que suceda un evento dividido por la probabilidad de que no suceda. Es una razón de probabilidades:
P Odds
Odds  P
1  P  (1  Odds)
P toma valores entre 0 y 1, y la Odds toma valores entre 0 e infinito. En la medida que la enfermedad tiene una frecuencia baja
(enfermedad rara, Odds y la probabilidad P serán muy parecidas).

Es una razón:
 P toma valores entre 0 y 1, y la Odds toma valores entre 0 e infinito.
 En la medida que la enfermedad tiene una frecuencia baja (enfermedad rara, Odds y la probabilidad p serán muy parecidas).

Como la OR es una estimación sujeta a error aleatorio con respecto al valor de la OR poblacional o verdadero se debe acompañar con un
intervalo de confianza, que habitualmente es del 95%. Así, por ejemplo, podemos calcular el Odds de presencia de hipertensión cuando el
consumo diario de sal es igual o superior a una cierta cantidad, que en realidad determina cuántas veces es más probable que haya
hipertensión a que no la haya en esa situación.

14
Guia_Stata.doc
Guía STATA

*OR, Odds ratio, es el parámetro de interés en estudios de casos y controles. En este tipo de estudios también se puede estimar la Tasa
de incidencia, TI.
- Si OR es significativamente menor de 1, se habla de un factor protector
- Si OR es significativamente mayor de 1 estaríamos en presencia de un factor de riesgo.

* RR (riesgo relativo), parámetro de interés en estudios de Cohortes


RR=1, significa que hay concordancia con la hipótesis de inexistencia de asociación, lo que significa que la proporción de enfermos es
igual en el grupo expuesto que no expuesto.
- Si RR es significativamente menor de 1, se habla de un factor protector
- Si RR es significativamente mayor de 1 estaríamos en presencia de un factor de riesgo.

Factor de riesgo (F) Casos Controles


Presente (F+) a b
Ausente (F-) c d

a
a*d
OR  b 
c b*c
d
Como la OR es una estimación sujeta a error aleatorio con respecto al valor de la OR poblacional o verdadero se debe acompañar con un
intervalo de confianza, que habitualmente es del 95%.

* La significación estadística en tablas epidemiológicas en estudios genéticos, se evalúa a través de la estadística de chi cuadrado
con dos grados de libertad en el modelo genotípico general o un grado de libertad en los modelos dominante, recesivo o alélico, que tiene
la siguiente forma:

Observado  Esperado2 Oi  Ei 2


T  
Esperado Ei
Referencias:
1.- Begoña Bermejo Fraile. EPIDEMIOLOGÍA CLÍNICA APLICADA A LA TOMA DE DECISIONES EN MEDICINA

15
Guia_Stata.doc
Guía STATA

Parte 2: Validación de Instrumentos


La aplicación de un cuestionario requiere evaluar fiabilidad y validez, lo que supone tiempo y esfuerzos. Si se utiliza un cuestionario que
ya hubiese mostrado fiabilidad y validez en otros estudios, ello permite establecer una comparación con los resultados. Sin embargo, hay
veces en que es necesario utilizar nuevos cuestionarios:
- cuando los existentes han sido poco eficientes,
- han demostrado poca utilidad,
- han sido eficaces pero otros lugares diferentes, o
- cuando no hay ninguno que sea adecuado para medir las variables de interés,
- cuando se han modificado algunas preguntas del cuestionario.
En estas circunstancias, es preciso evaluar la utilidad del nuevo cuestionario a partir de dos criterios: fiabilidad y validez. Las
características1 que se deben considerar para evaluar un cuestionario son:

Características evaluables de un cuestionario

Viabilidad:

Los mejores instrumentos son inservibles si su aplicación resulta compleja y costosa. Características como el tiempo empleado en la
cumplimentación del cuestionario, la sencillez y la amenidad del formato, y el interés, la brevedad y la claridad de las preguntas, así como
la facilidad de la puntuación el registro y la codificación, y de la interpretación de los resultados, son algunos aspectos relacionados con la
viabilidad

Fiabilidad

Un instrumento es fiable si produce resultados consistentes cuando se aplica en diferentes ocasiones (estabilidad o reproducibilidad).
Esquemáticamente, se evalúa administrando el cuestionario a una misma muestra de sujetos, ya sea en dos ocasiones distintas
(repetibilidad) y/o por dos observadores diferentes (fiabilidad interobservador). Se trata, por tanto, de analizar la concordancia entre los
resultados obtenidos en las diversas aplicaciones del cuestionario. Si la escala de medida es cualitativa, se evalúa mediante el índice
Kappa, y si es cuantitativa, principalmente mediante el coeficiente de correlación intraclase. Otro concepto relacionado con la fiabilidad es
el de la consistencia interna que mide el grado en que se obtienen respuestas homogéneas a diferentes preguntas sobre un mismo
concepto o dimensión. Siempre que sea posible deben evaluarse todos los componentes de la fiabilidad.

 Repetibilidad: La repetibilidad, o fiabilidad test-retest, se refiere a si, cuando se administra un cuestionario a la misma población en
dos ocasiones diferentes en el tiempo, se obtienen resultados idénticos o similares. Las limitaciones de la evaluación de la
repetibilidad de un cuestionario son las mismas que las de cualquier otro instrumento de medida. Si el tiempo transcurrido entre
ambas aplicaciones del cuestionario es muy largo, el fenómeno que se mide puede haber presentado variaciones, mientras que si es
demasiado corto, puede existir un recuerdo de las respuestas dadas en la primera ocasión. En ambos casos se obtendrá una medida
distorsionada de la repetibilidad. Además, algunos participantes pueden no aceptar que se administre el cuestionario en dos
ocasiones, especialmente si es extenso.

 Fiabilidad interobservador: La evaluación de la fiabilidad interobservador consiste en estimar el grado de concordancia entre dos o
más evaluadores (observadores). La demostración de una alta fiabilidad interobservador implica que la fiabilidad intraobservador
también es alta. No obstante, si la fiabilidad interobservador es baja, no se puede asegurar si se debe a la existencia de diferencias
entre los observadores o se debe a un solo observador.

 Consistencia interna: La consistencia interna se refiere a si los ítems que miden un mismo atributo presentan homogeneidad entre
ellos. Cuando un cuestionario está compuesto por diferentes subescalas, cada una de las cuales pretende medir una dimensión
diferente del fenómeno, debe evaluarse la consistencia interna de cada una de ellas.

 A diferencia de los otros aspectos de la fiabilidad, la evaluación de la consistencia interna sólo requiere la administración del
cuestionario en una única ocasión. La técnica estadística para su análisis es el alfa de Cronbach, que expresa la consistencia interna
entre tres o más variables. Sus valores están comprendidos entre 0 y 1, y su interpretación es similar a la de un coeficiente de
correlación. Pueden calcularse diferentes valores del alfa de Cronbach excluyendo determinados ítems del cuestionario, de forma que
puede evaluarse si la supresión de algunas preguntas mejora la fiabilidad. De todas formas, antes de decidir eliminar un ítem, debe
evaluarse si ello puede afectar a la validez del cuestionario, ya que puede ser preferible mantener la pregunta aun a costa de una
consistencia interna ligeramente menor. Como norma general se sugiere que el valor del alfa de Cronbach ha de ser igual o superior a
0,70 para considerar que un instrumento tiene una buena consistencia interna.

16
Guia_Stata.doc
Guía STATA

Sensibilidad

El concepto de sensibilidad (sensitivity) se refiere a la capacidad de un instrumento para detectar casos verdaderos.
 Sensibilidad al cambio La sensibilidad al cambio (responsiveness) es la capacidad que tiene un instrumento para detectar cambios
clínicos importantes en el atributo verdadero que se mide. La sensibilidad al cambio es un aspecto crucial en los ensayos clínicos, la
valoración de programas y los análisis de coste-utilidad; en otras palabras, cuando el instrumento se utiliza como variable de
respuesta. Cuando interesa que un instrumento sea sensible al cambio, hay que prestar atención a la escala con que se miden las
respuestas: cuantos más puntos haya en las categorías de respuesta, más sensible será el instrumento a los cambios significativos.

 La sensibilidad al cambio se mide con el estadístico «tamaño del efecto» (effect size) que relaciona la media de las diferencias entre
las puntuaciones antes y después de una intervención con la desviación estándar de la puntuación antes de la intervención. El
conocimiento de la sensibilidad al cambio de un instrumento es importante para la estimación del cálculo del tamaño muestral
necesario para demostrar los cambios debidos al tratamiento en un ensayo clínico.

 Cuanto mayor sea la sensibilidad al cambio del instrumento menor será el tamaño de la muestra necesario.

Validez

La validez se refiere a la capacidad de un cuestionario para medir aquello para lo que ha sido diseñado; tiene diferentes aspectos o
componentes, que deben ser evaluados en la medida de lo posible.
 Validez lógica: La validez lógica o aparente (face validity) es el grado en que parece que un cuestionario, una parte de él o un ítem
mide lo que quiere medir. La decisión sobre si las preguntas deben tener o no validez lógica ha de tomarse antes de iniciar su
redacción. Si las preguntas carecen de validez lógica es muy probable que los encuestados rechacen contestar. De todos modos, en
alguna ocasión puede ser de interés formular preguntas carentes de validez lógica. Por ejemplo, cuando se trata de temas muy
sensibles, conflictivos o que no están bien vistos socialmente, si se realizan preguntas directas (con mucha validez lógica), es muy
probable que el encuestado no responda o falsee la respuesta, por lo que puede ser preferible realizar preguntas que aborden el tema
de una forma más in directa, con una menor validez aparente.

 Validez de contenido: se basa en el análisis del concepto que se pretende medir y, en especial, en la definición de las áreas o
dimensiones que abarca y sus límites con otros conceptos relacionados. Se puede considerar que un cuestionario es válido por su
contenido si contempla todos los aspectos relacionados con el concepto en estudio, lo que suele evaluarse a través de la opinión de
expertos. Una forma empírica de evaluar la validez de contenido es aplicar un análisis factorial, técnica estadística que explora las
respuestas a las preguntas del cuestionario, intentando agruparlas en función de factores subyacentes. Por ejemplo, si un
cuestionario de estado de salud contiene dos subescalas, una que mide la salud física y otra la mental, es de esperar que el análisis
detecte dos factores, cada uno de ellos formado por las preguntas que se relacionan con cada una de las sub escalas. Para aplicar el
análisis factorial, las escalas de medida deben ser cuantitativas o de puntuación por intervalos y las respuestas han de seguir una
distribución aproximadamente normal.

 Validez de criterio: En ocasiones se puede disponer de algún método alternativo de medida del fenómeno estudiado cuya validez
haya sido demostrada, que se toma como referencia para determinar la validez de la encuesta. Siempre que se disponga de un
método de referencia adecuado, deberá evaluarse la validez de criterio del cuestionario.
Cuando se habla de validar un cuestionario, los investigadores se suelen referir a la validez de criterio, que es, sin lugar a dudas, la más
importante. En algunos casos se pueden usar como criterio de referencia medidas bioquímicas o radiológicas. Se puede validar, por
ejemplo, el consumo de tabaco declarado, comparándolo con los valores derivados de la nicotina en sangre o de monóxido de
carbono en el aire espirado. En otros casos, el investigador tendrá que confiar en medidas menos objetivas, como la historia clínica o
los resultados obtenidos mediante otro cuestionario.
La validez de criterio puede evaluarse de dos formas: la validez concurrente y la validez predictiva.
Para valorar la validez concurrente se relaciona la nueva medida con la de referencia, siendo ambas administradas simultáneamente, de
forma similar al estudio de la utilidad de una prueba diagnóstica. Cuando el criterio de referencia no esté disponible hasta un tiempo
después (p. ej., el desarrollo de una enfermedad), se valora hasta qué punto la nueva medida es capaz de predecirlo correctamente, y
se habla de validez predictiva.
Cuando se evalúa la validez predictiva, los resultados del cuestionario no pueden influir sobre el criterio de referencia. En otras palabras,
la evaluación de este criterio de referencia debe hacerse independientemente del resultado del cuestionario.

17
Guia_Stata.doc
Guía STATA

 Validez de constructo o de concepto: A veces resulta imposible evaluar la validez de criterio, ya que éste no existe o no está al
alcance del investigador. En estos casos, el procedimiento más empleado es evaluar la validez de constructo, que engloba distintas
estrategias. La validez discriminante se refiere a la capacidad para distinguir entre subgrupos de pacientes o individuos con distintos
niveles del atributo de interés. Por ejemplo, es de esperar que la calidad de vida relacionada con la salud será peor en los pacientes
asmáticos con gran afectación funcional que en aquellos con formas más leves.

El método más sencillo para evaluar la validez discriminante es el de los grupos extremos, que consiste en administrar el cuestionario a
dos grupos de sujetos: uno con la característica o conducta de interés, y otro que carece de ella. Este enfoque presenta dos
problemas.
- El primero es la propia definición de los grupos extremos, ya que no siempre existe un criterio adecuado para conocer quién
tiene y quién no tiene la característica de interés. En este caso se puede dividir la muestra en función de la puntuación obtenida
con el propio instrumento, seleccionando, por ejemplo, el 30% de los su jetos con mejores puntuaciones y el 30% de los que
tienen las peores puntuaciones.
- El segundo problema es similar al que se presenta al evaluar una prueba diagnóstica: puede ser relativamente sencillo
discriminar entre dos grupos muy extremos, pero ésta no es la utilidad que se pretende dar al instrumento en la práctica
habitual. Por tanto, comprobar que un cuestionario es útil para diferenciar entre dos grupos extremos no es suficiente para
demostrar su validez.

- Otra estrategia para evaluar la validez de constructo es comprobar que el cuestionario se correlaciona con otras variables que
se cree que están relacionadas con él (validez convergente), mientras que no lo hace con otras con las que se sospecha que no
tiene relación alguna (validez divergente).

Los cuestionarios deben poseer una serie de características1: sencillos, viables y aceptados (feasibility), fiables, válidos y bien adaptados
culturalmente, útiles y sensibles a los cambios. Mientras que la fiabilidad y la validez son exigencias necesarias en todos los instrumentos,
la importancia de otras características psicométricas dependerá del contexto; así, por ejemplo, la sensibilidad al cambio (responsiveness)
será muy importante si el instrumento se aplica como medida de la respuesta en los ensayos clínicos, pero no lo será tanto en un estudio
sobre opiniones o actitudes acerca de una enfermedad.

La validación de un cuestionario es un proceso complejo que implica múltiples fuentes de información y la recogida de diferentes
evidencias empíricas. Dado que no existe un criterio concreto ni único a partir del cual pueda considerarse que un cuestionario es válido,
en general, es necesario realizar más de un estudio con esta finalidad. Revisaremos algunas formas de validación:

1.- Análisis de la Concordancia con Kappa

Para medir si el cuestionario es fiable, si produce resultados consistentes cuando se aplica en diferentes ocasiones (estabilidad o
reproducibilidad). Se evalúa administrando el cuestionario a una misma muestra de sujetos, ya sea en dos ocasiones distintas
(repetibilidad) y/o por dos observadores diferentes (fiabilidad inter-observador). Se trata, por tanto, de analizar la concordancia entre los
resultados obtenidos en las diversas aplicaciones del cuestionario.

El análisis de la concordancia entre diferentes medidas de una variable permite evaluar tanto la repetibilidad como la variabilidad intra e
interobservadores, así como comparar diversos métodos de medida de una misma variable. Las técnicas de análisis dependen del tipo de
variable. Si la escala de medida es cualitativa, se evalúa mediante el índice Kappa, y si es cuantitativa, principalmente mediante el
coeficiente de correlación intraclase

1.1.- Variables cualitativas: Índice kappa


Una forma sencilla de expresar la concordancia cuando la variable es cualitativa es la proporción o porcentaje observado de mediciones
concordantes. Sin embargo, dado que una parte de esta concordancia se debe al azar, es necesario utilizar otros métodos que tengan en
cuenta este hecho. El índice Kappa resume la concordancia entre dos medidas de una variable (p. ej., las obtenidas por dos
observadores), cuando está en una escala cualitativa, eliminando la fracción de la concordancia debida al azar, es decir, la que se
obtendría si las dos medidas no estuvieran relacionadas. En la tabla A4.1 se muestra la presentación general de los datos para su cálculo
en el caso de una medida dicotómica. La fórmula
es:

kappa 
Po  Pe
1  Pe

18
Guia_Stata.doc
Guía STATA

donde Po es la proporción total de concordancia observada y Pe la proporción de concordancia esperada por azar.

Ejemplo 1 : En un estudio hipotético dos médicos leen 100 radiografías y las clasifican como normales o anormales. Las evaluaciones se
realizan de forma independiente, es decir, ninguno de los médicos conoce el resultado de su colega. El médico 1 clasifica 30 radiografías
como anormales, y el médico 2, 35, coincidiendo ambos en 20 casos. Los resultados se muestran en la Tabla 1. La proporción total
observada de concordancia entre ambos médicos (Po) es:

Tabla 1: Tabla 2 x 2 para el cálculo de los índices de concordancia

donde:
a : número de coincidencias de hallazgos positivos entre ambos observadores.
b : número de veces que el observador 1 califica un hallazgo de positivo y el observador 2 de negativo.
c : número de veces que el observador 1 califica un hallazgo de negativo y el observador 2 de positivo.
d : número de coincidencias de hallazgos negativos entre ambos observadores.
n1 : número total de hallazgos positivos del observador 1.
n2 : número total de hallazgos negativos del observador 1.
m1 : número total de hallazgos positivos del observador 2.
m2 ; número total de hallazgos negativos del observador 2.
N : número total de observaciones.

Po = (a + d) / N = (20 + 55) / 100 = 0,75 (o bien, el 75%)

Esta proporción observada no tiene en cuenta el papel del azar y se pueden obtener conclusiones erróneas. El grado de concordancia
esperable por azar (Pe) puede determinarse a partir de los valores marginales de la tabla de contingencia.

- Así, para calcular en cuántas ocasiones los observadores concordarían por azar en valorar las radiografías como anormales, se
multiplicaría el número de pruebas que cada médico hubiese clasificado como anormales y se dividiría por el número total de
observaciones:

Nº de concordancia entre observadores al azar como anormales= (a + b)(a + c) / N = (30 35)/100 = 10,5

- De forma similar, para calcular en cuántas ocasiones los observadores concordarían por azar en valorar las radiografías como normales:

Nº de concordancia entre observadores por azar como normales=(c + d)(b + d) / N = (70 65)/100 = 45,5

Sumando estos resultados y dividiendo entre el total, se obtiene la proporción esperada de concordancia por azar:
Pe = (10,5 + 45,5) /100 = 0,56

Como la proporción total observada Po es 0,75, el índice Kappa será (0,75 – 0,56) / (1 – 0,56) = 0,43.

19
Guia_Stata.doc
Guía STATA

Ejercicio:
En un hospital regional, se realizó la valoración del impacto que tiene la intervención profesional de un farmacéutico en una sala de
pacientes hospitalizados para hacer seguimiento de reacciones adversas. Dos evaluadores Externos (Ev_ext y ref) y tres evaluadores
internos (Ev_int) realizaron la puntuación de 15 casos y asignaron puntajes de acuerdo a tres dominios: Tipo de intervención, Código de
impacto y grado de significancia clínica que se construyó en base a una escala de puntajes Likert. La valoración por parte de los
evaluadores internos y externos fue la siguiente:

Ítem 1: Ítem 2: Ítem 3: Significancia clínica


Tipo de intervención (7 categorias) Código de impacto (binaria) Cuantitativa (escala de Likert)
Ev_ext Ev_int Ev_int Ev_int Ev_ext Ev_int Ev_int Ev_int Ev_ext Ev_int Ev_intç3 Ev_int
id_caso Ref_1 Ref_2 Ref_3
11 11 12 13 21 21 22 23 31 31 2 33
1 1 1 1 1 1 2 1 1 1 1 1 3 0 1 1
2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
3 2 2 2 2 2 2 2 2 2 2 2 3 3 2 3
4 2 1 2 1 2 2 2 2 2 2 1 1 1 2 1
5 1 1 1 1 1 2 2 2 2 2 2 1 1 2 2
6 1 5 7 5 5 1 2 2 2 2 2 3 1 1 2
7 1 1 1 1 1 1 1 2 2 1 2 1 2 2 1
8 1 1 1 1 1 2 2 2 2 2 2 1 1 2 1
9 1 4 2 1 1 2 2 2 2 2 2 1 2 2 1
10 1 1 1 1 1 1 1 1 1 1 2 3 1 1 2
11 2 2 2 2 2 2 2 2 2 2 2 1 1 2 1
12 1 1 1 1 1 1 1 1 1 1 2 2 1 1 2
13 1 1 1 1 1 1 1 1 1 1 1 1 1 2 1
14 1 1 1 1 1 1 1 1 1 1 1 1 1 2 1
15 1 1 1 1 1 1 1 1 1 1 1 1 1 2 1
En stata calcule Kappa y comente los resultados:

El comando que permite el cálculo del coeficiente de kappa es kap a.- Cálculo de la concordancia a nivel de evaluadores externos.
Comentar el resultado según valor obtenido.
. kap ev_ext11 ref_1
Expected
Agreement Agreement Kappa Std. Err. Z Prob>Z
-----------------------------------------------------------------
93.33% 62.67% 0.8214 0.2228 3.69 0.0001

Comentar Valor de kappa clasificado como muy bueno.


A la hora de interpretar el valor de κ es útil disponer de una escala como la siguiente2 a pesar de su arbitrariedad:

(
El valor de κ (kappa) se debe informar con el intervalo de confianza. La obtención de una simple estimación puntual del valor de κ no nos
proporciona ninguna indicación de la precisión de dicha estimación. Desde el punto de vista de la Estadística debemos saber la
variabilidad de los estimadores a través de la formulación de contrastes de hipótesis y en la construcción de intervalos de confianza.

20
Guia_Stata.doc
Guía STATA

Para realizar el cálculo del intervalo de confianza se debe instalar una librería st0076 que permite el cálculo del intervalo y el comando
que contiene es kapci . Una forma de cargar la librería es pidiendo la ayuda para el comando kapci de la siguiente forma:
try help contents or search kapci
-------------------------------------------------------------
search for kapci
(manual: [R] search)
-------------------------------------------------------------
Keywords: kapci
Search: (1) Official help files, FAQs, Examples, SJs, and STBs

Search of official help files, FAQs, Examples, SJs, and STBs


SJ-4-4 st0076 . . . . . . . . . Confidence intervals for the kappa statistic
(help kapci if installed) . . . . . . . . . . . . . M. E. Reichenheim
Q4/04 SJ 4(4):421--428
confidence intervals for the kappa statistic

En este caso se pulsa en la librería en azul y aparece una ventana en donde se puede directamente instalar el paquete st0076..

Basta confirmar haciendo un clic


aquí y se instala directamente.

Ahora podremos calcular kappa y su correspondiente intervalo de confianza.

. kapci ref_1 ev_ext11


Note: default number of bootstrap replications has been
set to 5 for syntax testing only.reps() needs to
be increased when analysing real data.
B=5 N=15
------------------------------------------------
Kappa (95% CI) = 0.821 (0.688 - 1.000) (BC)
-------------------------

b.- Repita el cálculo de kappa y su intervalo de confianza para los evaluadores internos para el ítem 1 y 2. Comente los resultados.
- Calcule kappa para los evaluadores internos 1, 2 y 3; 1 y 2; 1 y 3. El evaluador 2 no supo evaluar bien los casos pues presentó múltiples
errores y correcciones y no le dió tiempo y atención a las respuestas de caso evaluado.
- Indique que sugerencias podría dar en la reunión del grupo de investigación.

2.- Coeficiente de correlación de Spearman. Ref en stata: http://www.stata.com/manuals13/rspearman.pdf

El coeficiente de correlación rho de Spearman (1904) es el coeficiente de correlación de Pearson, pero aplicado después de transformar
las puntuaciones originales en rangos. Toma valores entre 1 y 1, y se interpreta exactamente igual que el coeficiente de correlación de
Pearson.
Cuando las variables son cuantitativas continuas no tienen una distribución semejante a la distribución normal o cuando ambas variables
son discretas, el coeficiente de correlación idóneo para evaluar la intensidad de la asociación es el coeficiente de Spearman simbolizado
como rs. Al igual que ocurre con el coeficiente tau-b de Kendall, el coeficiente de correlación de Spearman puede utilizarse como una
alternativa al de Pearson cuando las variables estudiadas son ordinales y/o se incumple el supuesto de normalidad.

21
Guia_Stata.doc
Guía STATA

Una vez calculado el coeficiente de correlación rs toma valores que varían entre -1 hasta +1, pasando por el cero.
- Valores cercanos a 1 indican que ambas variables se asocian directamente de manera muy estrecha y la relación es directa.
- Valores cercanos a -1 indican que ambas variables se relacionan en forma muy estrecha pero de forma inversa.
- Valores cercanos a cero no hay asociación entre ambas variables.

En la inferencia se plantean las siguientes pruebas de hipótesis:

H0: rs=0 (rs igual a cero)


H1: rs 0 (rs diferente de cero)
La hipótesis nula H0, significa que las dos variables no se asocian, el objetivo es evaluar la posibilidad de rechazar esta hipótesis. El
rechazo de H0 ocurre si rs experimental es mayor que el valor crítico (Ver tablas de correlación de Spearman). Si se rechaza H0, se
concluye que hay asociación entre el par de variables en estudio.

Alumno Aciertos en Aciertos en


Anatomía (X) Embriología (Y)
1 65 74
2 72 61
3 75 69
4 82 90
5 50 51
6 95 79
7 87 95
8 53 52
9 83 77
10 64 63
La fórmula para calcular rs es:
6 d 2
rs  1 
nn  1n  1
Se construye la tabla siguiente:
Alumno Aciertos en Rango aciertos Aciertos en Rango aciertos Diferencia Diferencia al
Anatomía (X) Anatomía Embriología (Y) en Embriología (d) cuadrado (d2)
1 65 4 74 6 -2 4
2 72 5 61 3 2 4
3 75 6 69 5 1 1
4 82 7 90 9 -2 4
5 50 1 51 1 0 0
6 95 10 79 8 2 4
7 87 9 95 10 -1 1
8 53 2 52 2 0 0
9 83 8 77 7 1 1
10 64 3 63 4 -1 1
Total 20
reemplazando los valores en la fórmula:
6 20 120
rs  1   1  0.88
1010  110  1 990
que indica buena relación del tipo directa entre las variables X e Y. Grado de acierto alto en anatomía también tiene un grado de acierto alto en
embriología. Bajas puntuaciones en anatomía también corresponden a bajas puntuaciones en embriología.

22
Guia_Stata.doc
Guía STATA

n Nivel de significancia
4 1.000
5 0.900
6 0.829
7 0.714
8 0.643
9 0.600
10 0.564
12 0.506
14 0.456
16 0.425
18 0.399
20 0.377
22 0.359
24 0.343
26 0.329
28 0.317
30 0.306

El valor crítico de rs para un grupo de 10 estudiantes (n=10) fue 0.564 y el valor de rs calculado fue de 0.88 (mayor que rs critico), luego se
rechaza la hipótesis nula y podemos concluir que los puntajes para el grupo estudiado se relacionan en forma directa entre los aciertos en
las pruebas de anatomía y embriología y que el riesgo de equivocarse era menor a 0.05 (5%) por tanto H 0 se rechaza con un valor de
probabilidad menor de 0.05 (p<0.05).

Ejercicio:
a.- Calcular el coeficiente de correlación de Spearman para el ítem 3 del ejercicio anterior.
Opciones en stata para spearman:

stats(spearman list) specifies the statistics to be displayed in the matrix of output. stats(rho) is the
default. Up to three statistics may be specified; stats(rho obs p) would display the correlation
coefficient, number of observations, and significance level. If varlist contains only two
variables, all statistics are shown in tabular form, and stats(), print(), and star() have no
effect unless the matrix option is specified.
print(#) specifies the significance level of correlation coefficients to be printed. Correlation
coefficients with larger significance levels are left blank in the matrix. Typing spearman,
print(.10) would list only those correlation coefficients that are significant at the 10% level or
lower.
star(#) specifies the significance level of correlation coefficients to be marked with a star. Typing
spearman, star(.05) would “star” all correlation coefficients significant at the 5% level or
lower.
bonferroni makes the Bonferroni adjustment to calculated significance levels. This adjustment affects
printed significance levels and the print() and star() options. Thus spearman, print(.05)
bonferroni prints coefficients with Bonferroni-adjusted significance levels of 0.05 or less.
sidak makes the Sidak adjustment to calculated significance levels. This adjustment affects printed
significance levels and the print() and star() options. Thus spearman, print(.05) sidak prints
coefficients with Sidak-adjusted significance levels of 0.05 or less.
pw specifies that correlations be calculated using pairwise deletion of observations with missing
values. By default, spearman uses casewise deletion, where observations are ignored if any of the
variables in varlist are missing.

3.- Tau de Kendall ref: http://en.wikipedia.org/wiki/Kendall_tau_rank_correlation_coefficient

El comando ktau calcula Kendall's rank correlation coefficients entre variables cuantitativas. Se utiliza en conjunto de datos de tamaño
pequeño a moderado. En muestras grandes requiere de mucho tiempo de cálculo (computación).

Se define por:

El denominador en el número total de pares de combinaciones, por lo tanto el coeficiente debe estar entre un rango de −1≤ τ ≤1.

23
Guia_Stata.doc
Guía STATA

Propiedades:
 Si el acuerdo entre dos rankings es perfecto (es decir, los dos rankings son lo mismo) el coeficiente toma valor 1.
 Si el desacuerdo entre dos rankings es perfecto (es decir, un ranking es el inverso del otro) el coeficiente toma valor −1.
 Si X e Y son independientes, entonces deberíamos esperar que el coeficiente tome el valor aproximadamente a 0 (cero).

Hipótesis
El coeficiente de Kendall es utilizado en forma frecuente con una prueba estadística en la que dos variables necesitan probar si son
independientes. Es una prueba no paramétrica y no requiere de supuestos para la distribución de X o Y o (X,Y). Bajo a hipótesis nula de
independencia de X e Y la distribución muestral de τ tiene un valor esperado de cero. La distribución precisa no se puede caracterizar en
términos de distribuciones comunes, pero puede calcularse exactamente por muestras pequeñas, en muestras grandes es común usar

una aproximación normal con media cero y varianza .


Tau-a: Es el estadístico que prueba la magnitud de la asociación en tabulaciones cruzadas. No hace ajustes en caso de empates.
Tau-b: A diferencia de tau-a hace ajustes en caso de empates. El rango de valores de tau-b van desde -1 (1005 de asociación negativa) a
+1 (asociación positiva o acuerdo perfecto). Valores cercano al cero o cero indican ausencia de asociación.
Tau-c: Difiere de tau-b en que es más seguro de utilizar en tablas rectangulares que en tablas cuadradas.

Ejercicio:
Se listan los puntajes obtenidos en dos variables que representan notas en la asignatura de cuidados intensivos y psicología. El profesor
desea saber si hay algún grado de asociación entre las notas obtenidas en las dos asignaturas.

Ejemplo en stata:
. list care psychology
+-----------------+
| care psycho~y |
|-----------------|
1. | 4 5 |
2. | 10 8 |
3. | 3 6 |
4. | 1 2 |
5. | 9 10 |
|-----------------|
6. | 2 3 |
7. | 6 9 |
8. | 7 4 |
9. | 8 7 |
10. | 5 1 |
+-----------------+

. ktau care psychology, stats(taua taub p)


Number of obs = 10
Kendall's tau-a = 0.5111
Kendall's tau-b = 0.5111 ** valor bajo de correlación
Kendall's score = 23
SE of score = 11.180
Test of Ho: care and psychology are independent
Prob > |z| = 0.0491 (continuity corrected) ** valor de significancia muy cercano a 0.05.

Ambas variables presentan un coeficiente bajo de asociación (tau=0.5111) y la hipótesis nula se rechaza con un valor de probabilidad de
0.0491. El valor de probabilidad está muy cercano al valor critico y no podría tomarse una decisión clara habría que considerar los
puntajes de más alumnos para poder establecer si hay algún grado de correlación.

Opciones en stata para ktau:


stats(ktau_list) specifies the statistics to be displayed in the matrix of output. stats(tau) is the
default. Up to six statistics may be specified; stats(taua taub score se obs p) would display the
tau_a, tau_b, score, standard error of score, number of observations, and significance level. If
varlist contains only two variables, all statistics are shown in tabular form and stats(),
print(), and star() have no effect unless the matrix option is specified.
print(#) specifies the significance level of correlation coefficients to be printed. Correlation
coefficients with larger significance levels are left blank in the matrix. Typing ktau, print(.10)
would list only those correlation coefficients that are significant at the 10% level or lower.
star(#) specifies the significance level of correlation coefficients to be marked with a star. Typing
ktau, star(.05) would "star" all correlation coefficients significant at the 5% level or lower.

24
Guia_Stata.doc
Guía STATA

bonferroni makes the Bonferroni adjustment to calculated significance levels. This adjustment affects
printed significance levels and the print() and star() options. Thus ktau, print(.05) bonferroni
prints coefficients with Bonferroni-adjusted significance levels of 0.05 or less.
sidak makes the Sidak adjustment to calculated significance levels. This adjustment affects printed
significance levels and the print() and star() options. Thus ktau, print(.05) sidak prints
coefficients with Sidak-adjusted significance levels of 0.05 or less.
pw specifies that correlations be calculated using pairwise deletion of observations with missing
values. By default, ktau uses casewise deletion, where observations are ignored if any of the
variables in varlist are missing.
matrix forces ktau to display the statistics as a matrix, even if varlist contains only two variables.
matrix is implied if more than two variables are specified.

Ejercicio Calcular el tau para la validación del cuestionario visto en el punto 1 de los datos anteriores.

4.- Alfa de Crobach

El Alfa de Cronbach es un coeficiente que sirve para medir la fiabilidad de una escala de medida, y cuya denominación Alfa fue realizada
por Cronbach en 1951,1 aunque sus orígenes se encuentran en los trabajos de Hoyt 3 (1941) y de Guttman4 (1945). El alfa de Cronbach
no deja de ser una media ponderada de las correlaciones entre las variables (o ítems) que forman parte de la escala. Puede calcularse de
dos formas: a partir de las varianzas (alpha de Cronbach) o de las correlaciones de los ítems (Alpha de Cronbach estandarizado). Hay
que advertir que ambas fórmulas son versiones de la misma y que pueden deducirse la una de la otra. El alpha de Cronbach y el alpha de
Cronbach estandarizados, coinciden cuando se estandarizan las variables originales (items).

El alfa de Cronbach no es un estadístico al uso, por lo que no viene acompañado de ningún p-valor que permita rechazar la hipótesis de
fiabilidad en la escala. No obstante, cuanto más se aproxime a su valor máximo, 1, mayor es la fiabilidad de la escala. Además, en
determinados contextos y por tácito convenio, se considera que valores del alfa superiores a 0,7 o 0,8 (dependiendo de la fuente) son
suficientes para garantizar la fiabilidad de la escala..

Requisitos para Alpha


Este alfa siempre se hará por escalas de tal manera que, a modo de ejemplo, en el test STAI de ansiedad rasgo y ansiedad estado
publicado por TEA, se llevarían a cabo dos índices de consistencia (el alfa correspondiente a ansiedad rasgo y el alfa correspondiente a
ansiedad estado). Ahora bien, para poder calcular la fiabilidad de un test, este debe cumplir con dos requisitos previos:
- Estar formado por un conjunto de ítems que se combinan aditivamente para hallar una puntuación global (esto es, la puntuaciones se
suman y dan un total que es el que se interpreta).
- Todos los ítems miden la característica deseada en la misma dirección. Es decir, los ítems de cada una de las escalas tienen el mismo
sentido de respuesta (a mayor puntuación, más ansiedad, por ejemplo; este sentido de respuesta viene especificado en el manual del
test).

A modo de ejemplo, ocurre que cuando se redacta un test con respuestas tipo Likert (pongamos 0=nada a 3=mucho), se observan ítems
de la siguiente forma:
-"Me siento calmado" → contestar con 3 significaría poca ansiedad (a más puntuación, menos ansiedad).
-"Me siento tenso" → contestar con 3 significaría mucha ansiedad (a más puntuación, más ansiedad).

El segundo ítem es el que se corresponde con el sentido de respuesta especificado en el manual, pero como el primero no cumple esa
relación, deberá ser invertido para que el test así tenga todos los ítems con el mismo sentido y se pueda, pues, calcular el índice de
consistencia o Alfa de Cronbach.

Análisis
Para el análisis de resultados, se recomienda lanzar los estadísticos. Al hacerlo, obtendremos dos tipos de resultados: los estadísticos de
los ítems y de la escala y los estadísticos de los ítems en relación con el valor total. Estas dos tablas de resultados serán fundamentales
para la interpretación y posible reformulación del test. Para ello es necesario explicar dos conceptos:

a. Coeficiente de correlación lineal: Mide el grado y la dirección de la asociación lineal entre dos variables cuantitativas.

b. Correlación Ítem-Total: Esta correlación es de gran relevancia porque indica la correlación lineal entre el ítem y el puntaje total (sin
considerar el ítem en evaluación) obtenido por los jueces indicando la magnitud y dirección de esta relación. Los ítems cuyos coeficientes
ítem-total arrojan valores menores a 0,35 deben ser desechados o reformulados ya que las correlaciones a partir de 0,35 son
estadísticamente significativas más allá del nivel del 1% (Cohen-Manion, 1990). Una baja correlación entre el ítem y el puntaje total puede
deberse a diversas causas, ya sea de mala redacción del ítem o que el mismo no sirve para medir lo que se desea medir.

25
Guia_Stata.doc
Guía STATA

Cálculo del alfa de Cronbach con R


El código para calcular el alfa de Cronbach de un conjunto de ítems con R es:

library( multilevel ) # paquete que contiene la función cronbach \


data(bhr2000) # cargamos un conjunto de datos de ejemplo
cronbach(bhr2000[,2:11]) # calculamos el alfa de Cronbach

La salida del código anterior es:


$Alpha
[1] 0.87982

$N
[1] 5400
El conjunto de datos tiene 5400 observaciones y el alfa de Cronbach de los ítems elegidos es 0,88.

Ejercicio:
Se dispone de la base de datos (se adjunta al correo). Corresponden a 4 dominios de una encuesta sobre calidad de vida WHOQOL-
BREF. Las variables puntaje 1 al 4 corresponden a los cuatro dominios evaluados en la encuesta a alumnos de Farmacia de primero a
quinto año. Calcule el alfa de Crobach por dominio y los alfas de cada pregunta por dominio. Construya la tabla que dé cuenta de los
resultados y Comente los resultados. Comente los valores de la correlación ítem test. Los dominios de esta encuesta sobre calidad de
vida fueron los siguientes:
- Dimensión 1: Salud física,
- Dimensión 2: Aspectos psicológicos,
- Dimensión 3: Relaciones sociales y
- Dimensión 4: Ambiente,

Tabla de valores del alfa de Cronbach para determinar grado de consistencia interna

Evaluación global por dominio


. alpha puntaje1 puntaje2 puntaje3 puntaje4 , std item detail

Test scale = mean(standardized items)


average
item-test item-rest interitem
Item | Obs Sign correlation correlation correlation alpha
-------------+-----------------------------------------------------------------
Dominio1 | 187 + 0.8680 0.7559 0.6036 0.8204
Dominio2 | 187 + 0.9137 0.8358 0.5521 0.7871
Dominio3 | 187 + 0.7807 0.6138 0.7025 0.8763
Dominio4 | 187 + 0.8306 0.6935 0.6459 0.8455
-------------+-----------------------------------------------------------------
Test scale | 0.6260 0.8701
-------------------------------------------------------------------------------
El valor del alfa global es alto. Los valores en términos de la consistencia por dominio también son altos pero todos dentro del rango de
buenos (Dominio 1,3 y 4) y aceptables en el dominio 2.

Tabla 1 . Confiabilidad del WHOQOL-BREF en relación a su consistencia interna por dimensiones


item-test
Ite | correlation alpha
-------------+---------------------------------------
Dominio 1 | 0.8680 0.8204
Dominio 2 | 0.9137 0.7871
Dominio 3 | 0.7807 0.8763

26
Guia_Stata.doc
Guía STATA

Dominio 4 | 0.8306 0.8455


-------------+----------------------------------------
Test scale | 0.8701
------------------------------------------------------
La consistencia interna mostró que la fiabilidad del instrumento fue muy buena, obteniéndose un alpha de Cronbach de 0,87 para el
cuestionario total y para cada una de las dimensiones entre 0,78-0,88 (Tabla 1), siendo el ítem con el alfa mayor el correspondiente a la
Dimensión 3 (Relaciones interpersonales). Respecto a la evaluación de la correlación ítem-test, no se observan correlaciones inversas y
destaca con alta correlación una pregunta de la Dimensión 2 (Psicológica).

Cálculo de alfa según las preguntas que constituyen los cuatro dominios.
a-. Dominio 1: (salud física)
. alpha pregunta3 pregunta4 pregunta10 pregunta15 pregunta16 pregunta17 pregunta18, std item detail
Test scale = mean(standardized items)
average
item-test item-rest interitem
Item | Obs Sign correlation correlation correlation alpha
-------------+-----------------------------------------------------------------
pregunta3 | 187 - 0.4348 0.2089 0.2806 0.7006
pregunta4 | 187 - 0.4972 0.2816 0.2635 0.6821
pregunta10 | 187 + 0.6456 0.4668 0.2227 0.6322
pregunta15 | 187 + 0.5210 0.3102 0.2569 0.6747
pregunta16 | 187 + 0.7096 0.5525 0.2051 0.6075
pregunta17 | 187 + 0.6414 0.4612 0.2238 0.6337
pregunta18 | 187 + 0.6741 0.5045 0.2148 0.6214
-------------+-----------------------------------------------------------------
Test scale | 0.2382 0.6864
-------------------------------------------------------------------------------

Tabla 2: Correlación item test y consistencia interna por pregunta en Dominio 1


item-test
Item | correlation alpha
-------------+----------------------------
pregunta3 | 0.4348 0.7006 <==Valor más alto del alfa
pregunta4 | 0.4972 0.6821
pregunta10 | 0.6456 0.6322
pregunta15 | 0.5210 0.6747
pregunta16 | 0.7096 0.6075
pregunta17 | 0.6414 0.6337
pregunta18 | 0.6741 0.6214
-------------+----------------------------
Test scale | 0.6864 <==Valor global del dominio 1 respecto de las preguntas
asociadas a este dominio.
------------------------------------------
Las preguntas 3 y 4 presentan las correlaciones ítem-test más bajas. El Coeficiente de correlación lineal: Mide el grado y la dirección de la
asociación lineal entre dos variables cuantitativas La Correlación Ítem-Total: es relevante porque indica la correlación lineal entre el ítem y
el puntaje total (sin considerar el ítem en evaluación) obtenido por los jueces indicando la magnitud y dirección de esta relación. Los ítems
cuyos coeficientes ítem-total arrojan valores menores a 0,35 deben ser desechados o reformulados ya que las correlaciones a partir de
0,35 son estadísticamente significativas más allá del nivel del 1% Una baja correlación entre las preguntas 3 y 4 y el puntaje total puede
deberse a diversas causas, ya sea de mala redacción de la pregunta o ítem o que el mismo no sirve para medir lo que se desea medir.

Ejercicio:
Comente los siguientes resultados del resto de la evaluación de los dominios 2,3 y 4., según los resultados de stata siguientes:

b.- Dominio 2: Aspectos sicológicos


. alpha pregunta5 pregunta6 pregunta7 pregunta11 pregunta19 pregunta26 , std item detail
Test scale = mean(standardized items)
average
item-test item-rest interitem
Item | Obs Sign correlation correlation correlation alpha
-------------+-----------------------------------------------------------------
pregunta5 | 187 + 0.6741 0.5040 0.3688 0.7450
pregunta6 | 187 + 0.6952 0.5324 0.3601 0.7378
pregunta7 | 187 + 0.5068 0.2925 0.4376 0.7955
pregunta11 | 187 + 0.7331 0.5846 0.3445 0.7244
pregunta19 | 187 + 0.7987 0.6784 0.3176 0.6994
pregunta26 | 187 - 0.7058 0.5468 0.3558 0.7341
-------------+-----------------------------------------------------------------

27
Guia_Stata.doc
Guía STATA

Test scale | 0.3641 0.7745


-------------------------------------------------------------------------------

Tabla: Correlación item test y consistencia interna por pregunta en Dominio 2

item-test
Item | correlation alpha
-------------+---------------------
pregunta5 | 0.6741 0.7450
pregunta6 | 0.6952 0.7378
pregunta7 | 0.5068 0.7955
pregunta11 | 0.7331 0.7244
pregunta19 | 0.7987 0.6994
pregunta26 | 0.7058 0.7341
-------------+---------------------
Test scale | 0.7745
-----------------------------------

c.- Dominio 3: (Relaciones Sociales)


. alpha pregunta20 pregunta21 pregunta22 , std item detail
Test scale = mean(standardized items)
average
item-test item-rest interitem
Item | Obs Sign correlation correlation correlation alpha
-------------+-----------------------------------------------------------------
pregunta20 | 187 + 0.7648 0.4307 0.2185 0.3586
pregunta21 | 187 + 0.7157 0.3471 0.3257 0.4914
pregunta22 | 187 + 0.7062 0.3316 0.3466 0.5148
-------------+-----------------------------------------------------------------
Test scale | 0.2969 0.5589
-------------------------------------------------------------------------------

Tabla 4: Correlación ítem test y consistencia interna por pregunta en Dominio 3


item-test
Item | correlation alpha
-------------+---------------------
pregunta20 | 0.7648 0.3586
pregunta21 | 0.7157 0.4914
pregunta22 | 0.7062 0.5148
-------------+----------------------
Test scale | 0.5589
------------------------------------
Interitem correlations (obs=187 in all pairs)
pregunta20 pregunta21 pregunta22
pregunta20 1.0000
pregunta21 0.3466 1.0000
pregunta22 0.3257 0.2185 1.0000

d.- Dominio 4: (Ambiente)


. alpha pregunta8 pregunta9 pregunta12 pregunta13 pregunta14 pregunta23 pregunta24 pregunta25 , std item
detail
Test scale = mean(standardized items)
average
item-test item-rest interitem
Item | Obs Sign correlation correlation correlation alpha
-------------+-----------------------------------------------------------------
pregunta8 | 187 + 0.4406 0.2305 0.2234 0.6682
pregunta9 | 187 + 0.5443 0.3529 0.2017 0.6389
pregunta12 | 187 + 0.6490 0.4843 0.1799 0.6055
pregunta13 | 187 + 0.5783 0.3946 0.1946 0.6285
pregunta14 | 187 + 0.5036 0.3040 0.2102 0.6508
pregunta23 | 187 + 0.5327 0.3389 0.2042 0.6423
pregunta24 | 187 + 0.6345 0.4656 0.1829 0.6104
pregunta25 | 187 + 0.5043 0.3049 0.2101 0.6506
-------------+-----------------------------------------------------------------
Test scale | 0.2009 0.6679
-------------------------------------------------------------------------------

28
Guia_Stata.doc
Guía STATA

Tabla 5: Correlación ítem test y consistencia interna por pregunta en Dominio 4


item-test
Item | correlation alpha
-------------+----------------------
pregunta8 | 0.4406 0.6682
pregunta9 | 0.5443 0.6389
pregunta12 | 0.6490 0.6055
pregunta13 | 0.5783 0.6285
pregunta14 | 0.5036 0.6508
pregunta23 | 0.5327 0.6423
pregunta24 | 0.6345 0.6104
pregunta25 | 0.5043 0.6506
-------------+----------------------
Test scale | 0.6679
------------------------------------

Referencias
1.- Argimon y Pallas. Metodología de la Investigación
2.- Landis JR, Koch GG. The measurement of observe r agreement for categorical data. Biometrics 1977; 33: 159-174.
3.- Hoyt, Cyril (1941). «Test reliability estimated by analysis of variance» (en inglés). Psychometrika 6 (3): 153-160.
doi:10.1007/BF02289270.
4.-Guttman, Louis (1945). «A basis for analyzing test-retest reliability» (en inglés). Psychometrika 10(4):255-282.
doi:10.1007/BF02288892.

29
Guia_Stata.doc

También podría gustarte