Está en la página 1de 18

Tipos de Variables Existen diversas maneras de clasificar las variables. En cuanto a su funcionalidad se clasifican en : Variable Independiente ( V.I.

. ) Causa supuesta del efecto sobre la V.D.. En diseos experimentales, debe tener al menos dos niveles o valores, y es manipulable por el investigador. Matemticamente, corresponde a las abscisas ( x ). Variable Independiente Activa Puede ser manipulada. El investigador asigna sus valores. ( e.g. Asigno el medicamento A a una persona, y el medicamento B a otra persona ) Variable Independiente Atributiva No son manipulables : solamente medibles. Tienen valores a-priori que se determinan a partir del contexto experimental. No se puede asignar los valores de la V.I. a los sujetos. ( e.g. Preguntar a una persona si normalmente toma medicamento A o B, ante determinado sntoma ). Variable Dependiente ( V.D. ) Es la variable sobre la que se manifiesta el efecto causado por los cambios en la V.I. Es el consecuente, sobre el que se hace la prediccin. Matemticamente, corresponde a las ordenadas ( y ). Variables Esenciales ( Clasificacin particularmente usada en Psicologa ) Pueden ser de los siguientes tipos : Variable Estmulo Manipulacin del ambiente por el experimentador, capaz de evocar una respuesta en un organismo. ( e.g. Apagar la luz causa una dilatacin de la pupila, se quiera o no ) Variable de Respuesta Hace referencia a todo lo que hace el organismo ( su conducta ). ( e.g. Si se desplaza, si ejecuta alguna accin, si su cuerpo est ejecutando una accin vital ) Variable Organsmica Es intrnseca a la persona, y determina el perfil de la personalidad. ( e.g. La mente como constructo abstracto, los procesos mentales del sujeto, etc. )

En cuanto a su precisin de medicin, las variables pueden clasificarse en : Variable Continua o Cuantitativa Asume un conjunto ordenado de valores dentro de cierto rango. Otro tipo de variables continuas son aquellas que se miden con base en una escala total, o de rangos ordenados ( e.g. escala de autoestima ). Entre cada uno de sus elementos existe un nmero infinito de valores ( e.g. peso en kg, temperatura en grados, altura en metros, edad en aos, etc. ). Variable de Intervalo La distancia entre cada elemento es igual. No incluye un cero absoluto. Variable de Razn Incluye un cero absoluto. Variable Categrica, Discreta o Cualitativa ( Pertenecen a escalas de tipo nominal ) Asignan un objeto a una subclase ( subconjunto ) con base en que el objeto posea o no la caracterstica comn que define al subconjunto. No existe dimensionalidad ( una categora mayor o menor que otra ). Variable Ordinal Est ordenada en una secuencia especfica. Variable No Ordinal No guarda una secuencia especfica.

Otras clasificaciones incluyen : Variable Latente Entidad no observable que subyace a las variables observadas. puedes observar a una persona, pero slo inferir su inteligencia ). ( Tienen que ser inferidas. e.g.

Variable interviniente. Constructos creados para dar cuenta de procesos psicolgicos internos no observables que explican el comportamiento. ( Se infieren a partir del comportamiento ). Una variable interviniente es una variable latente que ha sido definida por el investigador para explicar un fenmeno ( e.g. la motivacin, que no es directamente observable, pero puede ser medida a travs de las actividades realizadas para el logro de una meta ).

Es importante mantener en mente que los constructos no son observables, pero las variables se hacen observables al ser operacionalizadas. Mayo 29, 2008 Diseo de la Investigacin ( Cap 18 ) El Diseo de la Investigacin es el plan y la estructura de la investigacin. Sus caractersticas son : Incluye un bosquejo de lo que se har para obtener evidencia emprica. Tiene dos objetivos : dar respuesta a la pregunta de investigacin y controlar la varianza. Establece el marco de referencia para el estudio de las relaciones entre las variables. Sugiere el nmero de observaciones, las variables activas y de atributo, y el anlisis estadstico y posibles conclusiones.

Un diseo es un plan para conceptualizar la estructura de las relaciones entre las variables de un estudio de investigacin. Define el cmo se controla la situacin de investigacin y cmo se analizarn los datos. Mientras mayor control de la varianza se tenga, mayor certeza se tendr sobre la veracidad de los resultados obtenidos. En pocas palabras, un experimento que est fuera de control tendr altos niveles de varianza, y sus resultados no pueden ser considerados veraces. Existen ciertos aspectos de una investigacin que son controlables, y otros que no son controlables, dado que son inherentes a las variables ( organsmicas ) que se desean medir. Estos aspectos no controlables constituyen variaciones aleatorias que son fuente importante de error ( varianza ). Existe otro tipo de fuentes de error, tales como el error de medicin, o en el diseo de los grupos. Es posible analizar la calidad del control de varianza realizado al encontrar las relaciones entre la varianza explicada ( experimental ) y no explicada ( de Error ). Para ello, se utilizan las siguientes relaciones : Varianza Total = Varianza Experimental + Varianza del Error F ( anlisis de Varianza ) = Varianza Experimental / Varianza Total

Existen diversas maneras de controlar la varianza : Maximizacin de la varianza experimental ( Varianza de la V.D. ) Para maximizar la varianza de la V.D., se busca que los distintos niveles de la V.I. estn bien diferenciados entre s ( i.e. sus categoras, o condiciones experimentales, deben ser lo ms diferente posibles ), ya que esto reduce la ambigedad de su efecto sobre la V.D. Minimizacin de la varianza del error. La varianza de error, como ya se indic, involucra tanto la variabilidad intrnseca de aquello que se intenta medir, como la variabilidad en el proceso mismo de medicin. Con el fin de minimizarla, es necesario : Asegurar que las condiciones experimentales sean similares. Cuidar la confiabilidad de los instrumentos. Asegurar claridad y precisin en las instrucciones. Control de las variables extraas ( V.E. ) Una variable extraa ( tambin llamada variable de confusin o hiptesis rival ) es aquella V.I., diferente de la variable independiente de inters, que tambin ejerce alguna influencia sobre la V.D. Las principales maneras de controlar las variables extraas son : Mantener la variable constante, o eliminar su variabilidad ( Equivale a eliminar la V.E. ). Su inconveniente, es que se pierde el poder de generalizacin. Garantizar la aleatorizacin en la asignacin de participantes. Esto permite considerar los grupos experimentales estadsticamente iguales y, por lo tanto,

neutraliza los efectos de la V.E.. Esta es la mejor tcnica. Integrarla en el diseo, como una V.I.. Con ello, es posible eliminar su parte influencia estadstica en la explicacin de los resultados. Es decir, se habla de un control estadstico y no un control experimental ( de manipulacin de variables ), por lo que estadsticamente se aislan los efectos de la variable extraa para que stos no interfieran con aquellos que explican la influencia de la variable independiente de inters. Aparear participantes Con ello se equilibra la distribucin de la V.E. en ambos grupos. apareada tiene una alta correlacin con la V.D : Esto slo es til si la variable

Se determina la correlacin entre la V.E. y la V.D. Si r > 0.5 r > 0.6, entonces el apareamiento de participantes es una buena alternativa de control de V.E. Si r < 0.5, quiere decir que la sensibilidad de la V.D. con respecto a la V.E. es muy baja, y por lo tanto conviene ms mantener la aleatoriedad en la asignacin de los grupos experimentales ( en otras palabras, no se justifica el aparejamiento ). Tipos de Investigacin De manera muy genrica, los tipos de investigacin se pueden clasificar en experimental y no experimental : Investigacin Experimental Aquella en que la V.I. es manipulada por el investigador. Investigacin no Experimental Aquella en que la V.I. no es manipulable por el investigador.

Pero existen tambin distintas clasificaciones con base en otros criterios : Campbell & Stanley, clasifican los tipos de investigacin de acuerdo a su capacidad de control sobre las V.E. : Experimental Pre-experimental ( no tiene control sobre la varianza extraa ) Experimental ( tiene control sobre la varianza extraa ) Cuasi-experimental ( tiene algn control sobre la varianza extraa ) Nota Importante : Estrictamente hablando ( siguiendo la tradicin de Fisher ), un diseo experimental es aquel donde el investigador tiene pleno control de manipulacin sobre las V.I. de inters, por lo que los diseos pre-experimentales y cuasi-experimentales quedan fuera de esta categora. Campbell & Stanley, sin embargo, adoptan una visin ms amplia de manera intencional ( p. 9 ), en atencin a que, en la prctica, los experimentos no siempre son plenamente manipulables. Investigacin No Experimental Ex-Post-Facto. Aquella en que el fenmeno no se manipula. Simplemente se mide despus de que ocurri.

Otros autores, los clasifican en base al objetivo de la investigacin : Exploratoria Descriptiva. ( Arroja resultados descriptivos del fenmeno ) Correlacional Explicativa Permite explicar la varianza ( e.g. anlisis de regresin, modelamiento por ecuaciones estructurales, etc ). Un grupo experimental es aquel en que los participantes reciben algn tratamiento X, mientras que un grupo control es aquel que no recibe tratamiento ( puede haber uno o ms grupos control ), o recibe un tratamiento

Pruebas paramtricas
Se llaman as porque su clculo implica una estimacin de los parmetros de la poblacin con base en muestras estadsticas. Mientras ms grande sea la muestra ms exacta ser la estimacin, mientras ms pequea, ms distorsionada ser la media de las muestras por los valores raros extremos.

Suposiciones que subyacen a la utilizacin de las pruebas paramtricas. El nivel de medicin debe ser al menos de intervalo. Debemos tomar una decisin a cerca de nuestra variable dependiente. Es realmente un nivel de intervalo? Si es una escala no estandarizada, o si se basa en estimaciones o calificaciones con humanos. Frecuentemente aparecen como intervalo pero lo reducimos a nivel ordinal al darles rango. Los datos de la muestra se obtienen de una poblacin normalmente distribuida. Este principio suele mal entenderse como: la muestra debe distribuirse normalmente, "no es as". La mayora de las muestras son demasiado pequeas para siquiera parecerse a una distribucin normal, la cual solo obtiene su caracterstica en forma de campana con la acumulacin de muchas puntuaciones. La varianza de las 2 muestras no son significativamente diferentes, esto se conoce como el principio de homogeneidad de la varianza, Los especialistas en estadstica han investigado ms sobre ese requisito, el cual sabia exigir varianzas muy similares. Estos se ignoran cuando tratamos con muestras relacionadas sin gran riesgo de distorsionar nuestro resultado. Para muestras no relacionadas necesitamos ser ms cuidadosos cuando los tamaos de las muestras sean bastante diferentes.

Ventajas de las Pruebas Paramtricas Ms poder de eficiencia. Ms sensibles a los rasgos de los datos recolectados. Menos posibilidad de errores. Robustas (dan estimaciones probabilsticas bastante exactas).

Desventajas de las Pruebas Paramtricas Ms complicadas de calcular. Limitaciones en los tipos de datos que se pueden evaluar.

Prueba del valor Z de la distribucin normal


Como sabemos, la curva normal de frecuencias tiene la forma de campana, en cuyo centro se ubican tres medidas de tendencia central (promedio [media aritmtica], mediana y moda). En particular, el promedio o media aritmtica es la medida representativa de un universo muestral, mientras que a los lados de este valor se encuentran valores ms altos y ms bajos, aproximadamente la mitad para cada lado, los cuales se dispersan segn una medida denominada desviacin estndar. El valor Z se define matemticamente con la frmula:

Donde:Z = valor estadstico de la curva normal de frecuencias.X

= cualquier
valor de una muestra estadstica.= promedio o media aritmtica obtenido de la muestra estadstica, valor

representativo.

desviacin estndar.
Pasos: Calcular el promedio y la desviacin estndar de las observaciones de la muestra en estudio. Del valor del cual se desea obtener una inferencia estadstica, calcular la diferencia que existe con respecto al promedio: X - . Dividir la diferencia calculada entre la desviacin estndar obtenida de la muestra en estudio, que corresponde al valor Z. Localizar el valor Z calculado, en la tabla de probabilidades asociadas con valores tan extremos como los valores observados de Z en la distribucin normal y obtener la probabilidad de que exista una magnitud de discrepancia entre los valores X y . Decidir si se acepta o rechaza la hiptesis.

Ejemplo: Un mdico que labora en una poblacin acostumbra efectuar mediciones de peso y talla a sus pacientes, de los cuales dos tienen pesos que difieren de las tres medidas de tendencia central, pero particularmente del promedio. El mdico est interesado en saber si los pesos de sus dos pacientes corresponden a esa poblacin y qu tanto difieren de la representacin de su grupo de asistencia mdica y de estudio. Los pesos corporales de la poblacin estudiada se encuentran listados del ms bajo al ms alto en la tabla siguiente, y el mdico ha marcado los puntos donde se localizan la media aritmtica, la mediana y la moda. Los pesos de sus pacientes problema son de 54 y 80 kg. Moda es el valor con una mayor frecuencia en una distribucin de datos.

Media o promedio es una medida de tendencia centra. Es la suma de los productos de los posibles valores que tome la variable xi, entre el nmero de valores que esa variable contenga Mediana valor de la variable que deja el mismo nmero de datos antes y despus que l, una vez ordenados estos. De acuerdo con esta definicin el conjunto de datos menores o iguales que la mediana representarn el 50% de los datos, y los que sean mayores que la mediana representarn el otro 50% del total de datos de la muestra. La mediana coincide con el percentil 50, con el segundo cuartil y con el quinto decil.

Eleccin de la prueba estadstica.El modelo de investigacin tiene una muestra. Las mediciones de la tabla anterior son cuantitativas, de variable continua, por lo tanto, tienen una escala de intervalo. Los intervalos entre un peso menor y otro mayor y entre todos los valores parecen no diferir notoriamente y permiten suponer que se distribuyen normalmente. Vase: Estadstica/Flujogramas/Flujograma 1 Planteamiento de la hiptesis. Hiptesis alterna (Ha). Los pesos corporales de los dos sujetos de investigacin y asistencia mdica (54 y 80 kg) difieren significativamente del promedio, por lo tanto, no corresponden a la poblacin. Hiptesis nula (Ho). Las diferencias de los pesos de los sujetos de estudio se deben al azar, por lo cual no hay diferencias significativas y corresponden a la misma poblacin.

Nivel de significacin.Para todo valor de probabilidad igual o menor que 0.05, se acepta Ha y se rechaza Ho. Zona de rechazo.Para todo valor de probabilidad mayor que 0.05, se acepta Ho y se rechaza Ha. Aplicacin de la prueba estadstica.Tomando en cuenta los paso, se calcula el promedio o media aritmtica. De acuerdo con la siguiente frmula:

La desviacin estndar se calcula con la ecuacin siguiente:

Una vez calculados el promedio y la desviacin estndar, se calcula el valor Z.

En la tabla de probabilidades asociadas en valores extremos como los de 2 en la distribucin normal, se busca la localizacin de los valores Z1 y Z2 calculados, a fin de obtener la probabilidad de su magnitud de discrepancia con respecto a la media aritmtica. El primer valor de Z1 es 1.69, de modo que se localiza el 1.6 y en la interseccin de la columna 0.09, correspondiente a las centsimas, se observa el valor 0.0455. Esta es la probabilidad de que el valor 54 kg pertenezca a la poblacin de pesos corporales, donde el promedio es 73.2 kg y la desviacin estndar 11.39 kg. El segundo valor de Z2 es 0.6, de manera que en la tabla se observa esa cifra y en la interseccin de la columna 0.00 se halla el valor 0.2743. Decisin.El valor de Z1 tiene una probabilidad menor que la de significancia. Para este caso, se acepta Ha y se rechaza Ho. Para el valor de Z2, la probabilidad es aproximadamente de 0.27, pero de cualquier manera mayor que el nivel de significancia, el cual se ubica en la zona de rechazo. Se acepta Ho y se rechaza Ha. Interpretacin.El peso del individuo que tiene 54 kg difiere notoriamente del promedio , que es la representativa de esa poblacin, a un nivel de confianza menor que 0.05; en cambio, el otro sujeto slo difiere a un nivel mayor que 0.05 de confianza, lo cual significa que est dentro de la poblacin de tallas similares. La siguiente figura contiene tanto el polgono de frecuencias en funcin de una serie de clases elaboradas con las observaciones de 150 pesos corporales, como los lmites de las desviaciones estndar con respecto al promedio. Los valores Z de los dos pesos problema se dibujan con dos flechas, de acuerdo con los valores de peso que corresponden. La Z1 se encuentra muy por fuera de -1 desviacin estndar y muy cercana a -2 desviaciones estndar. Para ser ms precisos, tiene 1.69 desviaciones estndar, igual al valor Z; en cambio, el valor Z2 tiene 0.6 desviaciones estndar y an se encuentra dentro del lmite de +1 desviacin estndar. Cabe recordar que +1 y -1 desviaciones estndar se encuentran aproximadamente en el 68% de las mediciones. Con todo lo anterior se comprende el significado del valor Z en la curva normal de frecuencias: es el nmero de desviaciones estndar que se desvan con respecto al promedio o media aritmtica.

Z= zona de aceptacin de a

Prueba T de Student de 1 muestra


Para contrastar si la media de una poblacin difiere significativamente de un valor dado, el contraste indicado es la Prueba T para una muestra. En el cuadro de dilogo correspondiente se debe introducir la variable a analizar y el valor de la media con el que se quiere comparar. Como opcin posible, en ste y el resto de anlisis en el men Comparar Medias, nicamente se puede definir el nivel de confianza que se desea para los intervalos de confianza para la media. Los resultados de la Prueba T para una muestra para la variable presin media inicial del ejemplo 1 se muestran en el apndice de resultados.

Prueba T de Student para datos no relacionados


(muestras independientes)
Es parecida a la anterior, solo que en lugar de que se contraste con un valor dado se contrasta con otra muestra. Ninguna de las dos tienen relacin entre s, solo lo que se busca observar es lo mismo en ambas. Osea, comparar dos grupos independientes de observaciones con respecto a una variable numrica. En tales pruebas paramtricas se exige una serie de requisitos para aplicarlas como instrumento estadstico: Las observaciones deben ser independientes. Las observaciones se deben efectuar en universos poblacionales distribuidos normalmente.

Las mediciones se deben elaborar en una escala de intervalo, entendiendo que una escala de intervalo exige que puedan efectuarse todas las operaciones aritmticas admisibles. Tambin se requiere que los intervalos entre las mediciones tengan la misma magnitud. Las varianzas de los grupos deben ser homogneas, en caso contrario se aplica un algoritmo diferente para variables distintas. (0.000 < 0.05. en SSPS muestra que son diferentes)

Bajo las hiptesis de normalidad e igual varianza la comparacin de ambos grupos puede realizarse en trminos de un nico parmetro como el valor medio (Figura 1a), de modo que en el ejemplo planteado la hiptesis de partida ser, por lo tanto: H0: La media de peso inicial es igual en ambos grupos El modelo matemtico que en seguida se presenta, corresponde a dos muestras independientes.

Donde: t= valor estads tico de la prueba t de Studen t.1 = valor prome dio del grupo 1.2 = valor prome dio del grupo 2.p = desvia cin estnd ar ponder ada de ambos grupos .N1 = tama o de la muestr a del grupo 1.N2 = tama

o de la muestr a del grupo 1.

Prueba T de Student para datos relacionados (muestras dependientes)


La prueba estadstica t de Student para muestras dependientes es una extensin de la utilizada para muestras independientes. De esta manera, los requisitos que deben satisfacerse son los mismos, excepto la independencia de las muestras; es decir, en esta prueba estadstica se exige dependencia entre ambas, en las que hay dos momentos uno antes y otro despus. Con ello se da a entender que en el primer perodo, las observaciones servirn de control o testigo, para conocer los cambios que se susciten despus de aplicar una variable experimental. Con la prueba t se comparan las medias y las desviaciones estndar de grupo de datos y se determina si entre esos parmetros las diferencias son estadsticamente significativas o si slo son diferencias aleatorias. Consideraciones para su uso El nivel de medicin, en su uso debe ser de intervalo o posterior. El diseo debe ser relacionado. Se deben cumplir las premisas paramtricas.

En cuanto a la homogeneidad de varianzas (promedio de las diferencias), es un requisito que tambin debe satisfacerse y una manera prctica es demostrarlo mediante la aplicacin de la prueba ji cuadrada de Bartlett. Este procedimiento se define por medio de la siguiente frmula:

Donde:t = valor estadstico del procedimiento.= Valor promedio o media aritmtica de las diferencias entre los momentos antes y despus. d = desviacin estndar de las diferencias entre los momentos antes y despus. N = tamao de la muestra.
La media aritmtica de las diferencias se obtiene de la manera siguiente: La desviacin estndar de las diferencias se logra como sigue: Pasos:

Ordenar los datos en funcin de los momentos antes y despus, y obtener las diferencias entre ambos. Calcular la media aritmtica de las diferencias (). Calcular la desviacin estndar de las diferencias (d). Calcular el valor de t por medio de la ecuacin. Calcular los grados de libertad (gl) gl = N - 1. Comparar el valor de t calculado con respecto a grados de libertad en la tabla respectiva, a fin de obtener la probabilidad. Decidir si se acepta o rechaza la hiptesis.

Ejemplo: Objetivo. Comparar los niveles de ansiedad de jvenes no asertivos antes y despus de participar en un entrenamiento de habilidades sociales. Especificaciones. 10 jvenes no asertivos que asisten a la Clnica Universitaria de Salud Integral (CUSI) del campus Iztacala. Se evalu el nmero de comportamientos ansiosos que reportaban los jvenes antes y despus del entrenamiento. Eleccin y justificacin de la prueba estadstica T de Student para grupos relacionados. Las mediciones son cuantitativas con variables continuas y una escala de intervalo. Nmero de observaciones N=10. Una VD numrica: puntajes de 10 jvenes no asertivos que asisten a la CUSI. Una VI con 2 niveles: Antes y despus del entrenamiento. Dos muestras relacionadas: los mismos sujetos evaluados en dos momentos diferentes.

Planteamiento de la hiptesis. Hiptesis alterna (Ha). El nivel de ansiedad de jvenes no asertivos disminuye despus de participar en un entrenamiento en habilidades sociales, existiendo diferencias significativas entre antes y despus. Ha: X1 < X2. Hiptesis nula (Ho). Los cambios observados antes y despus del entrenamiento en habilidades sociales se deben al azar, y no hay diferencias entre ambos perodos. Ho: X1

X.
2

Nivel de significacin.Para todo valor de probabilidad igual o menor que 0.05, se rechaza Ho. se acepta Ha

= 0.05 y

Zona de rechazo.Para todo valor de probabilidad mayor que 0.05, se acepta Ho y se rechaza Ha.

Si la to

tt se rechaza Ho. a se rechaza Ho.

Si la p(to)

Puntaje obtenido de 10 jvenes no asertivos que asisten a la CUSI. Clculo de la prueba estadstica.

= 0.05gl = 9to = 5.79tt = 2.262


El valor calculado o obtenido de t (5.79) se compara con los valores crticos de la distribucin t (tabla), y se observa que a una probabilidad de 0.05 le corresponde 2.262 de t. Por tanto, el calculo tiene un probabilidad menor que 0.05. Decisin.Como to es de 5.79, con 9 grados de libertad, tiene un valor de probabilidad menor que 0.05,

entonces se acepta Ha y se rechaza Ho.to > tt se rechaza Ho. Hay una reduccin en los niveles de ansiedad en 10 jvenes no asertivos que asisten a la CUSI despus de un entrenamiento.P(0.05) < rechaza Ho.

= 0.05 se

Interpretacin.El nivel de ansiedad de jvenes no asertivos disminuye despus de participar en un entrenamiento en habilidades sociales, existiendo diferencias significativas entre antes y despus.

Prueba de anlisis de varianza (ANOVA) o Prueba F (de un factor para tres o ms grupos)
El anlisis de varianza (anova) es uno de los mtodos estadsticos ms utilizados y ms elaborados en la investigacin moderna. El anlisis de la varianza, no obstante su denominacin se utiliza para probar hiptesis preferentes a las medias de poblacin ms que a las varianzas de poblacin. Las tcnicas anovas se han desarrollado para el anlisis de datos en diseos estadsticos muy complicados. LA ANOVA Es un procedimiento que se utiliza para determinar si existe diferencia significativa entre los promedios de ms de dos poblaciones a partir de sus respectivas muestras. Los requisitos para aplicar este mtodo son los siguientes: Se supone que las varianzas de las poblaciones de origen son iguales. (son k poblaciones) Si las muestras son menores a 30, las poblaciones de origen deben de ser normales. Para cada poblacin, se supone que la variable de respuesta se distribuye normalmente. Las muestras deben de ser independientes. Veamos cuando se tienen puntuaciones de CI en 5 muestras de adulto. Grupos 1 102
2

2 103 12

3 100 12

4 108 14

5 121 10

15

Se aprecia que varan las medias de los grupos. Esta variacin de las medias de grupo a partir de la media total o global de todos los grupos, se conoce como varianza intergrupal, la variabilidad promedio de las puntuaciones en cada grupo se denominan varianza intragrupal. Ahora se colocan todas las puntuaciones de CI en una gran urna y se mezclan en forma adecuada. Puede desentenderse por el momento cules puntuaciones pertenecen a que grupos. Estas puntuaciones varan. La variacin de estas puntuaciones individuales se denominan variacin total. El meollo del anlisis de varianza radica en el siguiente hecho: si los grupos son muestras aleatorias provenientes de la misma poblacin, las varianzas, intergrupal (# grupos) e intragrupal (#puntuaciones), son estimaciones insesgadas de la misma varianza poblacional. sea El ANOVA compara la variacin existente entre las muestras con la que hay dentro de cada muestra mediante un cociente cuyo valor se compara con uno proporcionado por la distribucin F, poniendo a prueba las siguientes hiptesis: No hay diferencia significativa entre los promedios poblacionales. Por lo menos una de las poblaciones difiere en su promedio. Supuestos que fundamentan la aplicacin de anlisis de varianza. Cuando se utiliza la tcnica anova se deben cumplir los siguientes supuestos: Las personas de los diversos subgrupos deben seleccionarse mediante el muestreo aleatorio, a partir de poblaciones normalmente distribuidas. La varianza de los subgrupos debe ser homognea. Las muestras que constituyen los grupos deben ser independientes. A menos de que las muestras sean independientes, y que por lo tanto, generen estimaciones de varianza independientes, la razn de las varianzas inter e intra no adoptar la distribucin F.

NOTA: para saber si los grupos que se comparan son homogneos, se aplica la prueba estadstica de Levene, la cual si su significancia es 0.05 quiere decir que son diferentes y si es 0.05 no existe problema de homogeneidad (son iguales) y en este caso es lo que se requiere.

Coeficiente de correlacin
En una distribucin bidimensional puede ocurrir que las dos variables guarden algn tipo de relacin entre si. Por ejemplo, si se analiza la estatura y el peso de los alumnos de una clase es muy posible que exista

relacin entre ambas variables: mientras ms alto sea el alumno, mayor ser su peso

Las pruebas que se utilizan para reconocer las correlaciones dependern del nivel de medicin que se utilice, as tenemos:
En escala nominal: Coeficiente de contingencia y coeficiente de atributos

En escala ordinal: Coeficiente de correlacin simple por rangos de Spearman (No paramtrica) Coeficiente de correlacin simple por rangos de Kendall Coeficiente de correlacin parcial por rangos de Kendall y Coeficiente de concordancia de por rangos

En escala de intervalo: Coeficiente de correlacin simple de Pearson (correlacin lineal) (Paramtrica)

Coeficiente de correlacin mltiple y parcial (correlacin lineal) El coeficiente de correlacin lineal mide el grado de intensidad de esta posible relacin entre las variables. Este coeficiente se aplica cuando la relacin que puede existir entre las variables es lineal (es decir, si representramos en un grfico los pares de valores de las dos variables la nube de puntos se aproximara a una recta). No obstante, puede que exista una relacin que no sea lineal, sino exponencial, parablica, etc. En estos casos, el coeficiente de correlacin lineal medira mal la intensidad de la relacin las variables, por lo que convendra utilizar otro tipo de coeficiente ms apropiado. Para ver, por tanto, si se puede utilizar el coeficiente de correlacin lineal, lo mejor es representar los pares de valores en un grfico y ver qu forma describen.

Correlacin de Pearson

El coeficiente de correlacin es una medida de asociacin entre dos variables y se simboliza con la literal r. Los valores de la correlacin van de + 1 a - 1, pasando por el cero, el cual corresponde a ausencia de correlacin. Los primeros dan a entender que existe una correlacin directamente proporcional e inversamente proporcional, respectivamente. De lo anterior referimos que: +1 -1 = Correlacin perfecta. 0.95 = Correlacin fuerte. 80% = Correlacin significativa. 70% = Correlacin moderada. 50% = Existe una relacin parcial.

Las 3 grficas en coordenadas cartesianas posteriores, se muestra la variable independiente (X) se ubica en las abscisas y la dependiente (Y) en el eje de las ordenadas. Los coeficientes de correlacin significan esa asociacin entre los cambios que se observan en la variable dependiente con respecto a la variable independiente. La grfica (a) representa una correlacin positiva, es decir, conforme los valores de X aumentan, tambin aumentan los valores de Y. A su vez, la grfica. Nmeros positivos. (b) muestra una correlacin negativa (nmeros negativos), de modo que al incrementarse los valores de la variable independiente, los valores de la dependiente disminuyen. La grfica (c) no indica correlacin.

El coeficiente de correlacin lineal de Pearson se define matemticamente con la ecuacin siguiente: Donde: r = coeficiente de correlacin de Pearson. xy = sumatoria de los productos de ambas variables. x = sumatoria de los valores de la variable independiente. y = sumatoria de los valores de la variable dependiente.x2 = sumatoria de los valores al cuadrado de la variable independiente. y2 = sumatoria de los valores al cuadrado de la variable dependiente.N = tamao de la muestra en funcin de parejas.

Este procedimiento estadstico es aplicable cuando las observaciones se miden segn una escala de intervalo, por otra parte, el fenmeno debe ser lineal. Al igual que las otras pruebas paramtricas, la varianza de las variables X y Y deben guardar homogeneidad. Pasos. Ordenar los valores de la variable dependiente (Y) con respecto a los valores de la variable independiente (X). Elevar al cuadrado cada valor X y de Y. Obtener los productos de X y Y, para lo cual se deben multiplicar independientemente ambos valores. Efectuar las sumatorias x, y, x2, y2, y xy. Calcular el tamao de la muestra en funcin de parejas de X y Y. Aplicar la ecuacin. Calcular los grados de libertad (gl): gl = N parejas -1. Comparar el valor de r calculado en la tabla de valores crticos de t de Kendall en funcin de la probabilidad. Decidir si se acepta o rechaza la hiptesis.

Pruebas no paramtricas
Las alternativas no paramtricas de la estadstica se utilizan generalmente cuando no se cumplen algunos de los requisitos de la inferencia estadstica para emplear la distribucin normal o la t-Student; o bien cuando las variables involucradas se encuentran en escala nominal u ordinal. Tienen una menor potencia en alcance y prediccin, pero tienen la ventaja de que no requieren muchas condiciones para su aplicacin y son fciles de manejar e interpretar. Se utilizan principalmente en el rea biomdica y en la de ciencias sociales. Las primeras pruebas se derivan de la distribucin 2 y se emplean para verificar si una determinada distribucin de valores se ajusta a un patrn especifico, o bien para determinar si dos variables que generan valores cruzados tienen alguna asociacin o son independientes.

Descripcin. Para escala nominal: Leyes de la probabilidad y prueba binomial Prueba ji2 de Pearson para una muestra Prueba ji2 de Pearson para dos y ms muestras independientes Prueba de bondad del ajuste mediante ji2 Prueba ji2 de proporciones para tres o ms muestras independientes Prueba de probabilidad exacta de Fischer y Yates Prueba de McNemar para muestras dependientes Prueba Q de Cochran para tres o ms muestras dependientes Anlisis secuencial Para escala ordinal: Prueba de Kolmogorov-Smirnov para una muestra Prueba de U Mann-Whitney para dos muestras independientes Prueba de Wilcoxon de rangos sealados y pares igualados para dos muestras dependientes Anlisis de varianza de una entrada de Kruskal-Wallis para ms de dos muestras independientes Anlisis de varianza de doble entrada por rangos de Friedman para ms de dos muestras dependientes.

Prueba de Kolmogorov-Smirnov para una muestra


La prueba de Kolmogorov-Smirnov para una muestra se considera un procedimiento de "bondad de ajuste", es decir, permite medir el grado de concordancia existente entre la distribucin de un conjunto de datos y una distribucin terica especfica. Su objetivo es sealar si los datos provienen de una poblacin que tiene la distribucin terica especificada.

Mediante la prueba se compara la distribucin acumulada de las frecuencias tericas (ft) con la

distribucin acumulada de las frecuencias observadas (f obs), se encuentra el punto de divergencia mxima y se determina qu probabilidad existe de que una diferencia de esa magnitud se deba al azar. Distribucin de Poisson es una distribucin de probabilidad discreta, expresa la probabilidad que un determinado nmero de eventos ocurran en un determinado periodo de tiempo.

Prueba de U Mann-Whitney para dos muestras independientes


Esta prueba estadstica es til cuando las mediciones se pueden ordenar en escala ordinal (es decir, cuando los valores tienden a una variable continua, pero no tienen una distribucin normal) y resulta aplicable cuando las muestras son independientes. Este procedimiento es una buena alternativa cuando no se puede utilizar la prueba t de Student, en razn de no cumplir con los requisitos que esta prueba exige. Lo que se desea es comparar dos grupos contra una variable dependiente (ordinal como se dijo anteriormente). As se tienen 2 muestras independientes A y B, en donde A se elige como la muestra de menor tamao. La prueba verifica si existe diferencia significativa entre las medianas de las poblaciones de origen y puede aplicarse inclusive cuando los datos estn en escala ordinal. La frmula es la siguiente:

Donde:U1 y U2 = valores estadsticos de U MannWhitney.n1 = tamao de la muestra del grupo 1.n2 = tamao de la muestra del grupo 2. R1 = sumatoria de los rangos del grupo 1.R2 = sumatoria de los rangos del grupo 2.
Pasos: Determinar el tamao de las muestras (n1 y n2). Si n1 y n2 son menores que 20, se consideran muestras pequeas, pero si son mayores que 20, se consideran muestras grandes. Establecer las siguientes hiptesis de prueba: H0 : = No hay diferencia significativa entre los valores centrales de las poblaciones de origen. H1 : Las poblaciones se distribuyen de forma diferente.

Arreglar los datos en rangos del menor al mayor valor. En caso de que existan ligas o empates de rangos iguales, se debern detectar para un ajuste posterior. ( en SPSS los resultados los da en Rangos, rango promedio y suma de rangos). Calcular los valores de U1 y U2, de modo que se elija el ms pequeo para comparar con los crticos de U Mann-Whitney de la tabla de probabilidades asociadas con valores pequeos como los de U en la prueba de Mann-Whitney. En caso de muestras grandes, calcular el valor Z, pues en estas condiciones se distribuye normalmente. Decidir si se acepta o rechaza la hiptesis.

Prueba de Wilcoxon para muestras relacionadas (de rangos sealados y pares igualados para dos muestras dependientes).
Este modelo estadstico corresponde a un equivalente de la prueba t de Student, pero se aplica en mediciones en escala ordinal para muestras dependientes. La de Wilcoxon es una alternativa de aceptable eficacia para contrastar hiptesis. El mtodo es aplicable a muestras pequeas, siempre y cuando sean mayores que 6 y menores que 25. Las muestras grandes deben ser mayores a 25 y ste se debe transformar en valor de Z, para conocer la probabilidad de que aquella sea o no significativa. Dicha prueba estadstica consiste en sumar los rangos de signo frecuente; por ello, no se tiene una ecuacin o frmula, como se observa en otras pruebas estadsticas. Se utiliza cuando: Trabaja con datos de tipo ordinal. Establece diferencias de magnitudes (+ y -). Direccin.Prueba de dos colas: No se sabe en qu direccin se pueden dar las diferencias.Prueba de una cola: Si sabemos en qu direccin estn las diferencias. Dos muestras apareadas. Establece las diferencias . Con muestras grandes (> 25) se intenta lograr la distribucin normal (se utiliza la prueba Z).

Pasos: Arreglar las observaciones pareadas y obtener las diferencias de cada pareja. Arreglar las diferencias en funcin de rangos como valores absolutos, sin importar el signo, pero de manera que los rangos conserven el signo correspondiente a la diferencia. Obtener la sumatoria de los rangos cuyo signo es el menos frecuente, por ejemplo: si el signo es +, se considerar para efectuar sumatorias; sin embargo, la sumatoria mencionada finalmente pierde el signo. Si se trata de muestras pequeas, comparar el valor obtenido con los valores crticos de la tabla de Wilcoxon. Distribuir las muestras mayores que 25 bajo la curva normal y, por tanto, calcular el valor Z, en referencia al cual se debe consultar la probabilidad de diferir con respecto al promedio en la tabla de probabilidades asociadas. Decidir si se acepta o rechaza la hiptesis

Prueba Kruskal-Wallis para tres o ms grupos


(Anlisis de varianza de una entrada para ms de dos muestras independientes)
Esta prueba estadstica de anlisis de varianza de entrada simple de Kruskal-Wallis es una extensin de la prueba de U Mann-Whitney, en razn de que se usan rangos para su aplicacin; por otra parte, este procedimiento se emplea cuando el modelo experimental contiene ms de dos muestras independientes.

Se supone que se tienen k muestras independientes y se desea probar si las medianas poblacionales tienen el mismo valor.

Dicha prueba se define matemticamente de la forma siguiente: Donde:H = valor estadstico de la prueba de KruskalWallis.N = tamao total de la muestra.Rc2 = sumatoria de los rangos elevados al cuadrado.ni = tamao de la muestra de cada grupo.L = ajuste dado por el ajuste de ligas o empates de los rangos. El ajuste L se calcula de la manera siguiente: Donde:Li = valor de nmero de empates de un rango.N = tamao total de la muestra. Se utiliza cuando: Cuando son diferentes tratamientos o condiciones. Muestras pequeas. Se utiliza escala ordinal. Si las muestras se seleccionaron de las diferentes poblaciones. Contrastar hiptesis (direccional o no direccional).

Pasos: Ordenar las observaciones en rangos de todos los grupos, del ms pequeo al mayor. Asignar el rango para cada observacin en funcin de cada grupo de contraste, elabora la sumatoria de rangos, elevar al cuadrado este valor y dividirlo entre el nmero de elementos que contiene (ni). Detectar las ligas o empates entre los rangos de cada grupo y aplicar la ecuacin (L) para obtener el ajuste. Aplicar la ecuacin de Kruskal-Wallis y obtener el estadstico H. Calcular los rangos de libertad (gl): gl = K grupos - 1. Comparar el estadstico H, de acuerdo con los grados de libertad, en la tabla de distribucin de ji cuadrada en razn de distribuirse de forma similar. Decidir si se acepta o rechaza la hiptesis.

Prueba Friedman
(Anlisis de varianza de doble entrada por rangos para ms de dos muestras dependientes)
El modelo de anlisis de varianza de doble entrada por rangos de Friedman es complementario del

procedimiento de anlisis de varianza de una entrada de Kruskal-Wallis. En ambos se supone que las observaciones no tienen una distribucin normal, pero tienden a ubicarse en una escala de intervalo. Por ello, los datos se reordenan en una escala ordinal.En dicha prueba estadstica, las muestras pueden ser independientes o dependientes, con diversos factores o tratamientos. El modelo matemtico es el siguiente:

Donde:X2r =
estadstico calculado del anlisis de varianza por rangos de Friedman.H = nmero de hileras. K = nmero de columnas. Rc2 = suma de rangos por columnas al cuadrado.
El valor estadstico de Friedman se distribuye por tablas de probabilidad propia, en el caso de muestras pequeas, sin embargo, cuando se trata de muestras grandes, deben utilizarse tablas de valores crticos de X2 de Pearson. Las tablas de Friedman se han elaborado para cuando el nmero de columnas (K) sea de tres o cuatro y con nueve hileras como mximo; adems, aportan el valor de probabilidad correspondiente.

X2r Se utiliza cuando:


Trabaja con datos ordinales. Sirve para establecer diferencias. Se utiliza para ms de tres tratamientos. Las muestras son sacadas de la misma poblacin. Para muestras pequeas: K = 3 - 4 y H =2 - 9; para muestras grandes: K = 3 - 4 y H = > 9. Asignar al azar a los sujetos a cada condicin. Muestras igualadas (igual nmero de sujetos en cada condicin). Se asignan rangos por condicin. Se trabaja con tablas de doble entrada.

Pasos: Ordenar las observaciones en funcin de los cambios advertidos despus del tratamiento o tratamientos. Asignar rangos del dato ms pequeo al mayor en funcin de las hileras. Efectuar la sumatoria de los rangos en funcin de las columnas Rc y elevarlos al cuadrado Rc2. Aplicar la frmula de anlisis de varianza de doble entrada por rangos de Friedman. Comparar el valor de X2r de Friedman con las tablas de valores crticos de probabilidad propia, cuando la muestra es pequea. En caso de muestras grandes, utilizar las tablas de valores crticos de ji cuadrada de Pearson.

Prueba de correlacin Rho de Spearman (por

rangos)
Esta prueba estadstica permite medir la correlacin o asociacin de dos variables y es aplicable cuando las mediciones se realizan en una escala ordinal, aprovechando la clasificacin por rangos. El coeficiente de correlacin de Spearman se rige por las reglas de la correlacin simple de Pearson, y las mediciones de este ndice corresponden de + 1 a - 1, pasando por el cero, donde este ltimo significa no correlacin entre las variables estudiadas, mientras que los dos primeros denotan la correlacin mxima. La ecuacin utilizada en este procedimiento, cuando en el ordenamiento de los rangos de las observaciones no hay datos empatados o ligados, es la siguiente:

Donde:rs =
coeficiente de correlacin de Spearman.d2 = diferencias existentes entre los rangos de las dos variables, elevadas al cuadrado.N =

tamao de la muestra expresada en parejas de rangos de las variables. = sumatoria.


Pasos. Clasificar en rangos cada medicin de las observaciones. Obtener las diferencias de las parejas de rangos de las variables estudiadas y elevadas al cuadrado. Efectuar la sumatoria de todas las diferencias al cuadrado. Aplicar la ecuacin.

Calcular los grados de libertad (gl). gl = nmero de parejas - 1. Solo se utilizar cuando la muestra sea mayor a 10. Comparar el valor r calculado con respecto a los valores crticos de la tabla de valores crticos de t de Kendall en funcin de probabilidad. Decidir si se acepta o rechaza la hiptesis.

Pruebas de tablas de contingencia con estadsticas de relacin (ji cuadrada)


Esta prueba estadstica es una alternativa adecuada cuando se desea conocer y medir la asociacin o correlacin y el tipo de escala de las mediciones es nominal (de ambas variables). Cabe sealar que la aplicacin y el clculo son muy sencillos, por lo que el coeficiente de contingencia se presenta como un modelo ideal; sin embargo, existen algunas limitaciones. El coeficiente de contingencias se rige por las mismas reglas de la correlacin y las mediciones de ndice correspondiente de + 1 a - 1, pasando por el cero, donde este ltimo significa no correlacin entre las variables estudiadas y los dos primeros la correlacin mxima. En esta prueba estadstica existe el cero, pero no alcanza la unidad, limitante que desfavorece la prueba, pues el mximo de asociacin corresponde al nmero de categoras de las variables, definido como sigue: Coeficiente de correlacin mximo.

Donde

K es el nmero de categoras o hileras. ji cuadrada

Por otra parte, el coeficiente de contingencia, al calcularse, se ajusta a los requisitos de la de Pearson, por lo que la frmula para determinarlo es la siguiente:

Donde:C = coeficiente de contingenci a.X2 = valor de X2 de Pearson calculada previamente .N = tamao o nmero de la muestra.
Pasos. Calcular el valor de X2 de Pearson. Aplicar la frmula estadstica. Decidir si se acepta o rechaza la hiptesis.

También podría gustarte