Está en la página 1de 24

HIPTESIS Una hiptesis es una aseveracin acerca de una poblacin. Para verificar si la afirmacin es razonable se usan datos.

En anlisis estadsticos se plantea una hiptesis despus se hacen pruebas para verificar la aseveracin o para determinar que no es verdadera.

HIPTESIS ESTADSTICA

Es una conjetura o suposicin acerca de las poblaciones que se estudian y basadas en las distribuciones de probabilidad de las muestras de estas poblaciones.

HIPTESIS DE INVESTIGACIN

Una hiptesis de investigacin representa un elemento fundamental en el proceso de investigacin. Despus de formular un problema, el investigador enuncia la hiptesis, que orientar el proceso y permitir llegar a conclusiones concretas del proyecto que recin comienza.

Toda hiptesis constituye, un juicio o proposicin, una afirmacin o una negacin de algo. Sin embargo, es un juicio de carcter especial. Las hiptesis son proposiciones provisionales y exploratorias y, por tanto, su valor de veracidad o falsedad depende crticamente de las pruebas empricas disponibles. En este sentido, la replicabilidad de los resultados es fundamental para confirmar una hiptesis como solucin de un problema.

Dicha hiptesis indica el tipo de relacin que se espera encontrar: Describe alguna o algunas propiedades de la relacin entre A y B. El primer elemento A es la causa del segundo B. Cuando se presenta esto, A entonces sucede aquello, B. Cuando esto s, A, entonces aquello no, B.

Para que sea admitida como cuerpo de conocimiento cientfico, la hiptesis tiene que poder establecer una cuantificacin determinada o una proporcin matemtica que permita su verificacin estadstica, pues el argumento meramente inductivo no es cientficamente concluyente. == Clasificacin de hiptesis: Conjetura sobre un determinado hecho o conjuntos

PASOS DE LA HIPTESIS

Los pasos de la hiptesis son reunir informacin, compararla, dar posibles explicaciones, escoger la explicacin ms probable y formular una o ms hiptesis. Despus de hacer todos estos pasos (en la ciencia) se realiza una experimentacin, en la que se confirma la hiptesis o no. Si la hiptesis es confirmada, entonces lo planteado como hiptesis es verdadero. En caso de que no sea confirmada, la hiptesis es falsa.

CARACTERSTICAS DE LA HIPTESIS Deben referirse a una situacin real o realizable, no a una situacin que no puede ocurrir bajo un cierto estado de hechos. Las variables de la hiptesis tienen que ser comprensibles, estar bien definidas y ser lo ms concretas posible. La relacin entre variables propuesta por una hiptesis debe ser clara y verosmil. Los trminos de la hiptesis y la relacin planteada entre ellos, deben poder ser observados y medidos. Las hiptesis deben estar relacionadas con tcnicas disponibles para probarlas.

As mismo, cada tipo de hiptesis tiene sus caractersticas extra. Las hiptesis descriptivas del valor de variables que se van a observar en un contexto. Las hiptesis correlacionales especifican las relaciones entre dos o ms variables y el orden de stas no es importante. Pueden alcanzar un nivel predictivo y parcialmente explicativo.

HIPTESIS EN ESTADSTICA INFERENCIAL

En un trabajo de investigacin generalmente se plantean dos hiptesis mutuamente excluyentes: la hiptesis nula o hiptesis de nulidad ( ) y la hiptesis de investigacin ( ). La hiptesis

de investigacin es una afirmacin especial cuya validez se pretende demostrar, si las pruebas empricas no apoyan decididamente la hiptesis de investigacin se aceptar la hiptesis nula y abandonndose la hiptesis de investigacin.

En algunos casos, es posible plantear hiptesis alternas o hiptesis alternativas. El anlisis estadstico de los datos servir para determinar si se puede o no aceptar . Cuando se rechaza

, significa que el factor estudiado ha influido significativamente en los resultados y es informacin relevante para apoyar la hiptesis de investigacin de investigacin que no sea excluyente con razonamiento estadstico. planteada. Plantear hiptesis

supondra una aplicacin incorrecta del

IDENTIFICACIN DE LAS VARIABLES

Algunas investigaciones hacen hiptesis que involucran variables cuantitativas. La hiptesis puede tratar de establecer relaciones causales entre esas variables. A veces el investigador tendr control sobre ciertas variables pero no sobre otras, y en trminos de qu variables son controladas y cuales observables, y de otros tipos, las diferentes variables involucradas en un problema pueden clasificarse en:

Variable independiente: El valor de verdad que se le da a una hiptesis en relacin con la causa, se denomina variable independiente.

Variable dependiente: Denominamos de esta manera a las hiptesis cuando su valor de verdad hace referencia no a la causa, sino al efecto.

Variable interviniente: Ser aquella cuyo contenido se refiere a un factor que ya no es causa, tampoco efecto, pero s modifica las condiciones del problema investigado.

Ejemplos

En esta seccin se proponen algunos ejemplos de las diferentes tipologas de hiptesis que se pueden hacer:
Hiptesis de investigacin: La computadora con regulador trabaja 100% del tiempo sin

fallar. La computadora que se utiliza sin regulador solamente trabaja 80% del tiempo sin fallar.
Hiptesis no direccional: Existe una diferencia entre el nivel de ansiedad de los nios

con un coeficiente intelectual alto y aquellos con un coeficiente bajo.


Hiptesis direccional: Los nios con coeficientes intelectuales altos tendrn un nivel de

ansiedad mayor que los nios con coeficientes intelectuales bajos.

Hiptesis nula: No existe diferencia en los niveles de ansiedad entre nios con

coeficientes intelectuales altos y aquellos que tienen coeficientes intelectuales bajos.

P VALOR
En contrastes de hiptesis, en Estadstica, el valor p

(a veces conocido simplemente

como la p, valor p, o bien directamente en ingls p-value) est definido como la probabilidad de obtener un resultado al menos tan extremo como el que realmente se ha obtenido (valor del estadstico calculado), suponiendo que la hiptesis nula es cierta. Es fundamental tener en cuenta que el valor p est basado en la asuncin de la hiptesis de partida (o hiptesis nula).
El valor p es un valor de probabilidad, por lo que oscila entre 0 y 1. As, se suele decir que

valores altos de p NO RECHAZAN la hiptesis nula o, dicho de forma correcta, no permiten rechazar la H0. De igual manera, valores bajos de p rechazan la H0.

Se rechaza la hiptesis nula si el valor p asociado al resultado observado es igual o menor

que el nivel de significacin establecido, convencionalmente 0,05 0,01. Es decir, el valor p nos muestra la probabilidad de haber obtenido el resultado que hemos obtenido si suponemos que la hiptesis nula es cierta. Si el valor p es inferior al nivel de significacin nos indica que lo ms probable es que la hiptesis de partida sea falsa.
Sin embargo, tambin es posible que estemos ante una observacin atpica, por lo que

estaramos cometiendo el error estadstico de rechazar la hiptesis nula cuando sta es cierta basndonos en que hemos tenido la mala suerte de encontrar una observacin atpica. Este tipo de errores se puede subsanar rebajando el valor p; un valor p de 0,05 es usado en investigaciones habituales sociolgicas mientras que valores p de 0,01 se utilizan en investigaciones mdicas, en las que cometer un error puede acarrear consecuencias ms graves. Tambin se puede tratar de subsanar dicho error aumentando

el tamao de la muestra obtenida, lo que reduce la posibilidad de que el dato obtenido sea casualmente raro.

Es importante recalcar que un contraste de hiptesis nula no permite aceptar una

hiptesis; simplemente la rechaza o no la rechaza, es decir que la tacha de verosmil (lo que no significa obligatoriamente que sea cierta, simplemente es lo ms probable que sea cierta que sea falsa) o inverosmil.

El valor p, o tambin llamado p consignado, es la probabilidad de que de la poblacin

propuesta por la hiptesis nula se obtenga la muestra observada o una an ms alejada.


El p-valor, o el valor de probabilidad, es una medida estadstica que ayuda a los

cientficos a determinar si sus hiptesis son correctas. Est directamente relacionado al nivel de significancia, que un componente importante para determinar si la informacin obtenida de una investigacin cientfica es estadsticamente significativa. Puedes usar una tabla para encontrar el p-valor despus de que calculaste otros valores estadsticos. El valor de chi cuadrada es uno de los valores que debes encontrar primero.

ZONA DE ACEPTACIN Y ZONA DE RECHAZO LA REGLA DE DECISIN Es el criterio que vamos a utilizar para decidir si la hiptesis nula planteada debe o no ser rechazada. Este criterio se basa en la particin de la distribucin muestral del estadstico de contraste en dos zonas mutuamente excluyentes: la zona de rechazo y zona de aceptacin.

REGIN CRTICA O ZONA DE RECHAZO Es el rea de distribucin muestral (distribucin del estadstico) que corresponde a los valores del estadstico de contraste que se encuentran tan alejados de la afirmacin establecida en Ho, que es muy poco probable que ocurran si Ho es verdadera. Su probabilidad se denomina nivel de significacin o nivel de riesgo y se representa con la letra .

REGIN O ZONA DE ACEPTACIN

Es el rea de la distribucin muestral que corresponde a los valores del estadstico de contraste prximos a la afirmacin establecida en Ho. Es, por tanto, el rea correspondiente a los valores del estadstico de contraste que es probable que ocurran si Ho es verdadera. Su probabilidad se denomina nivel de confianza y se representa por 1-a.

Ya definidas las dos zonas, la regla de decisin consiste en rechazar Ho si el estadstico de contraste toma un valor perteneciente a la zona de rechazo, o mantener Ho si el estadstico de contraste toma un valor perteneciente a la zona de aceptacin.

La Reglas de decisin son:

a) Contrastes bilaterales: Rechazar Ho si el estadstico de contraste cae en la zona crtica, es decir, si el estadstico de contraste toma un valor tan grande o tan pequeo que la probabilidad de obtener un valor tan extremo o ms que el encontrado es menor que a/2.

b) Contraste unilateral: Rechazar Ho si el estadstico de contraste cae en la zona crtica, es decir, si toma un valor tan grande que la probabilidad de obtener un valor como ese o mayor es menor que a.

La zona de Rechazo est formada por valores del estadstico del contraste que por tener valores o muy grandes o muy pequeos, es muy poco probables que ocurran en caso de aceptarse la Ho. Hay dos tipos de Contrastes: Bilateral: Ho: =
0

Derecho H0: 0 H1: > 0 Unilateral Izquierdo H0: H1: <


0 0

Siendo

0 el

valor de la poblacin con el que queremos realizar el test de hiptesis.

El tamao de las zonas de rechazo y de aceptacin se determina fijando el valor de a, es decir, fijando el nivel de significacin con el que se desea trabajar. Se suele tomar un 1% o un 5%.

La forma de dividir la distribucin muestral en zona de rechazo y de aceptacin depende de si el contraste es bilateral o unilateral. La zona crtica debe situarse donde puedan aparecer los valores muestrales incompatibles con Ho.

Ejemplos: Contraste bilateral. Ho: mv = mm H1: mv mm Contraste unilateral Ho: Pacierto 0,5 H1: Pacierto > 0,5

En los contrastes bilaterales, la zona crtica se encuentra, generalmente, repartida a partes iguales entre las dos colas de la distribucin muestral. En los contrastes unilaterales, la zona crtica se encuentra en una de las dos colas de la distribucin muestral.

CHI CUADRADO (X)

Se define a la Distribucin Chi Cuadrado como: La Distribucin Chi- Cuadrado, tambin denominada ji-cuadrado de Pearson, es una distribucin de probabilidad continua con un parmetro k, que representa los grados de libertad de la variable aleatoria. La Prueba de Chi Cuadrado es considerada como: una prueba no paramtrica que mide la discrepancia entre una distribucin observada y otra terica (bondad de ajuste), indicando en qu medida las diferencias existentes entre ambas, de haberlas, se deben al azar en el contraste de hiptesis, tambin se utiliza para probar la independencia de dos variables entre s, mediante la presentacin de los datos en tablas de contingencia.

Las Pruebas de Chi Cuadrado, son tiles al analizar ms de dos poblaciones, por ejemplo, sirven para trabajar con datos de Mercadotecnia, tambin permite determinar si un grupo de datos descritos de una distribucin normal, se ajustan a la realidad de ese patrn.

La frmula que da el estadstico es la siguiente: (fo fe) X = _________ Fe Donde: X= Chi Cuadrado = La suma de fo= Frecuencia observada fe= Frecuencia esperada

El Chi Cuadrado es un estadstico muestral, que se calcula a travs de una serie de pasos, los mismos se pueden observar a travs de la frmula, estos son:

Restamos fe a fo. Elevamos al cuadrado cada una de la diferencias. Dividimos entre fe cada diferencia elevada al cuadrado. Sumamos las respuestas. Cuanto mayor sea el valor o el resultado de X2, es menor la posibilidad de que la hiptesis sea correcta. De la misma forma, cuanto ms se aproxima a cero el valor de ChiCuadrado, ms ajustadas estn ambas distribuciones.

Algunas propiedades importantes de las curvas de la distribucin Chi cuadrado X, son las siguientes: La moda de cada distribucin, es igual al grado de libertad menos dos, es decir, moda = (gl)-2 en la escala de X, donde el grado de libertad (gl) debe ser igual o mayor que 2. Por ejemplo, el mximo valor de Y, para la curva o distribucin de Chi Cuadrado, con el grados de libertad gl=5; es donde la moda est en el punto de X=3, es decir, la moda en la escala de X es igual (5-2)=3. El rea total bajo cada curva es 1 o 100%. La mediana es una distribucin X, divide el rea de la curva en dos partes iguales, siendo cada parte 0,5 o 50%. La media de una distribucin X, es igual al nmero de grados de libertad. Las curvas muestran una aproximacin bastante rpida hacia la simetra, cuando el nmero de grados de libertad aumenta. La Chi Cuadrada es obtenida de nmeros al cuadrado. Por lo tanto nunca puede ser negativa. El valor ms pequeo posible para Chi Cuadrada es 0, y el mayor valor posible es el infinito.

Entonces podemos decir que si X = 0, las frecuencias observadas concordarn exactamente con las frecuencias tericas o esperadas. Mientras mayor es el valor de X, mayor es la diferencia entre las frecuencias tericas y esperadas.

Al probar una hiptesis mediante el uso de la distribucin X, podemos determinar si las diferencias entre los conjuntos de frecuencias son significativas, o si las diferencias son demasiados grandes para ser atribuibles a fluctuaciones de la muestras.

Las caractersticas de las Pruebas de Chi Cuadrado son las siguientes: El valor de Chi Cuadrado nunca es negativo, porque la diferencia entre fo y fe se eleva al cuadrado, esto es (fo y fe). Existe una familia de distribuciones de esta clase; una para cada grado de libertad (gl). El nmero de grados de libertad est determinado por (K-1), donde K es el nmero de categoras, en consecuencia, la forma de la distribucin de la muestra no depende del tamao de la muestra. Las distribuciones tienen sesgo positivo, pero conforme aumenta el nmero de grados de libertad, la distribucin se aproxima a la de tipo normal.

Caractersticas De La Distribucin De Chi Cuadrado o Es una curva asimtrica a la derecha, es decir, con sesgo positivo y las frecuencias ms altas se encuentran en el lado izquierdo de la media; mientras que en el derecho hay frecuencias ms pequeas. o A continuacin se presenta una grfica que muestra la distribucin asimtrica positiva, en donde se puede apreciar que hacia el lado izquierdo de la media, van a estar las frecuencias ms altas y hacia el lado derecho de la media se encuentran las frecuencias ms pequeas.

Distribucin Asimtrica Positiva

Es muy utilizada en Estadstica Inferencial para realizar pruebas de hiptesis, relativas a variables cualitativas.

APLICACIONES
La distribucin tiene muchas aplicaciones en inferencia estadstica. La ms conocida es la de la denominada prueba utilizada como prueba de independencia y como prueba de bondad de ajuste y en la estimacin de varianzas. Pero tambin est involucrada en el problema de estimar la media de una poblacin normalmente distribuida y en el problema e estimar la pendiente de una recta de regresin lineal, a travs de su papel en la distribucin t de Student.

Aparece tambin en todos los problemas de anlisis de varianza por su relacin con la distribucin F de Snedecor, que es la distribucin del cociente de dos variables aleatorias independientes con distribucin .

La distribucin Chi-Cuadrado tiene muchas aplicaciones en inferencia estadstica, por ejemplo en el test Chi-Cuadrado y en la estimacin de varianzas.

Tambin est involucrada en el problema de estimar la media de una poblacin normalmente distribuida y en el problema de estimar la pendiente de una recta de regresin lineal, a travs de su papel en la distribucin t de Student, y participa en todos los problemas de anlisis de varianza, por su papel en la distribucin F de Snedecor, que es la distribucin del cociente de dos variables aleatorias de distribucin Chi-Cuadrado e independientes.

EJEMPLO PRUEBA DE CHI CUADRADO


CON = 0.10 Tenemos una muestra de 30 nmeros aleatorios: 0.00 0.89 0.21 0.75 0.02 0.15 0.63 0.85 0.00 0.20 0.05 0.74 0.34 0.29 0.14 0.99 0.99 0.18 0.91 0.22 0.77 0.33 0.19 0.59 0.87 0.30 0.02 0.79 0.01 0.67

Donde obtenemos la siguiente tabla: i 1 2 3 4 5 intervalo [0, 0.2) [0.2, 0.4) [0.4, 0.6) [0.6, 0.8) [0.8, 1.0) Suma oi 10 7 1 6 6 30 ei 6 6 6 6 6 30

Los Oi (frecuencias observadas) son los valores en la muestra que caen en el i_simo intervalo. Los Ei son las frecuencias esperadas. En este caso como estamos contrastando con una uniforme y los intervalos tienen todos la misma amplitud, estas son 30/5 = 6 (se espera la misma cantidad de observaciones por intervalo). Como hay un intervalo, el [0.4, 0.6), en donde Oi < 5, hay que agrupando y calculando los elementos que intervienen en queda:

v
1 2 3 4 5 6 7

X2 0.005
7.88 10.60 12.84 14.96 16.7 18.5 20.3

X2 0.01
6.63 9.21 11.34 13.28 15.1 16.8 18.5

X2 0.025
6.63 9.21 11.34 13.28 15.1 16.8 18.5

X2 0.05
3.84 5.99 7.81 9.49 11.1 12.6 14.1

X2 0.010
2.71 4.61 6.25 7.78 9.2 10.6 12.0

Dado que 4.92 < 6.25 = X [0.1; 3] decimos que no hay evidencia de que la muestra no provenga de una distribucin uniforme.

ERRORES DE TIPO I Y DE TIPO II En un estudio de investigacin, el error de tipo I tambin denominado error de tipo alfa ()1 o falso positivo, es el error que se comete cuando el investigador no acepta la hiptesis nula ( )

siendo esta verdadera en la poblacin. Es equivalente a encontrar un resultado falso positivo, porque el investigador llega a la conclusin de que existe una diferencia entre las hiptesis cuando en realidad no existe. Se relaciona con el nivel de significancia estadstica.

Representacin de los valores posibles de la probabilidad de un error tipo II (rojo) en el ejemplo de un test de significancia estadstica para el parmetro . El error tipo II depende del parmetro . Mientras ms cerca se encuentre este del valor supuesto bajo la hiptesis nula, mayor es la probabilidad de ocurrencia del error tipo II. Debido a que el verdadero valor de es desconocido al hacer la presuncin de la hiptesis alternativa, la probabilidad del error tipo II, en contraste con el error tipo I (azul), no se puede calcular.

La hiptesis de la que se parte

aqu es el supuesto de que la situacin experimental

presentara un estado normal. Si no se advierte este estado normal, aunque en realidad existe, se trata de un error estadstico tipo I. Algunos ejemplos para el error tipo I seran:

Se considera que el paciente est enfermo, a pesar de que en realidad est sano; hiptesis nula: El paciente est sano.

Se declara culpable al acusado, a pesar de que en realidad es inocente; hiptesis nula: El acusado es inocente.

No se permite el ingreso de una persona, a pesar de que tiene derecho a ingresar; hiptesis nula: La persona tiene derecho a ingresar.

En un estudio de investigacin, el error de tipo II, tambin llamado error de tipo beta () ( es la probabilidad de que exista este error) o falso negativo, se comete cuando el investigador no rechaza la hiptesis nula siendo esta falsa en la poblacin. Es equivalente a la probabilidad de un resultado falso negativo, ya que el investigador llega a la conclusin de que ha sido incapaz de encontrar una diferencia que existe en la realidad. Se acepta en un estudio que el valor del error beta est entre el 5 y el 20%.

Contrariamente al error tipo I, en la mayora de los casos no es posible calcular la probabilidad del error tipo II. La razn de esto se encuentra en la manera en que se formulan las hiptesis en una prueba estadstica. Mientras que la hiptesis nula representa siempre una afirmacin enrgica

(como por ejemplo

Promedio = 0) la hiptesis alternativa, debido a que engloba todas Promedio 0

las otras posibilidades, es generalmente de naturaleza global (por ejemplo ).

El poder o potencia del estudio representa la probabilidad de observar en la muestra una determinada diferencia o efecto, si existe en la poblacin. Es el complementario del error de tipo II (1-).

HIPTESIS NULA E HIPOTESIS ALTERNATIVA

Un contraste de hiptesis estadstico se plantea como una decisin entre dos hiptesis.

HIPOTESIS NULA La hiptesis nula consiste en una afirmacin acerca de la poblacin de origen de la muestra. Usualmente, es ms simple (menor nmero de parmetros, por ejemplo) que su antagonista. Se designa a la hiptesis nula con el smbolo H0. HIPOTESIS ALTERNATIVA La hiptesis alternativa es igualmente una afirmacin acerca de la poblacin de origen. Muchas veces, aunque no siempre, consiste simplemente en negar la afirmacin de H0. La hiptesis alternativa se designa con el smbolo H1. De momento trataremos el caso ms sencillo, en el cual las dos hiptesis se refieren a un nico valor del parmetro. En esta situacin general, las hiptesis se refieren a un parmetro . La formulacin es: H0: = 0 H1: = 1 En la teora del contraste de hiptesis este tipo de planteamiento se conoce como contraste de hiptesis simple contra simple. As pues, una hiptesis simple postula que el parmetro slo puede tomar un valor o bien, ms tcnicamente, que el conjunto de parmetros asociado a una hiptesis simple consiste en un slo punto.

INTERVALO DE CONFIANZA En estadstica, se llama intervalo de confianza a un par o varios pares de nmeros entre los cuales se estima que estar cierto valor desconocido con una determinada probabilidad de acierto. Formalmente, estos nmeros determinan un intervalo, que se calcula a partir de datos de una muestra, y el valor desconocido es un parmetro poblacional. La probabilidad de xito en la estimacin se representa con 1 - y se denomina nivel de confianza. En estas circunstancias, es el llamado error aleatorio o nivel de significacin, esto es, una medida de las posibilidades de fallar en la estimacin mediante tal intervalo.

El nivel de confianza y la amplitud del intervalo varan conjuntamente, de forma que un intervalo ms amplio tendr ms posibilidades de acierto (mayor nivel de confianza), mientras que para un intervalo ms pequeo, que ofrece una estimacin ms precisa, aumentan sus posibilidades de error.

Para la construccin de un determinado intervalo de confianza es necesario conocer la distribucin terica que sigue el parmetro a estimar, . Es habitual que el parmetro presente una distribucin normal. Tambin pueden construirse intervalos de confianza con la desigualdad de Chebyshev. En definitiva, un intervalo de confianza al 1 - por ciento para la estimacin de un parmetro poblacional que sigue una determinada distribucin de probabilidad, es una expresin del tipo [1, 2] tal que P[1 2] = 1 - , donde P es la funcin de distribucin de probabilidad de .

PRUEBA Z Devuelve el valor de probabilidad de una cola de una prueba z. En una hiptesis para una media de poblacin, 0, PRUEBA.Z devuelve la probabilidad de que la media de la muestra sea mayor que el promedio de las observaciones del conjunto (matriz) de datos (es decir, la medida observada de la muestra). Para ver cmo se puede utilizar una PRUEBA.Z en una frmula para calcular un valor de probabilidad de dos colas, vea la seccin "Observaciones" ms abajo. Importante: Esta funcin se ha reemplazado con una o varias funciones nuevas que puede que proporcionen mayor precisin y cuyos nombres pueden reflejar ms claramente su uso. Esta funcin todava

est disponible por compatibilidad con versiones anteriores de Excel. No obstante, si la compatibilidad con versiones anteriores no es necesaria, debera usar las nuevas funciones de ahora en adelante, ya que describen mejor su funcionalidad. Para obtener ms informacin sobre la nueva funcin, vea Funcin PRUEBA.Z.N. Sintaxis PRUEBA .Z(matriz;x;[sigma]) La sintaxis de la funcin PRUEBA.Z tiene los siguientes argumentos: Matriz X Sigma Obligatorio. La matriz o el rango de datos con que se ha de comprobar x.

Obligatorio. El valor que se va a comprobar. Opcional. Es la desviacin estndar (conocida) de la poblacin. Si se omite, se usa

la desviacin estndar de la muestra. Observaciones Si el argumento matriz est vaco, PRUEBA.Z devuelve el valor de error #N/A. Cuando no se omite sigma, PRUEBA.Z se calcula de la manera siguiente:

O bien, cuando se omite sigma:

donde x es la media de la muestra, PROMEDIO(matriz), s es la desviacin estndar de la muestra, DESVEST(matriz), y n es el nmero de observaciones de la muestra CONTAR(matriz). PRUEBA.Z representa la probabilidad de que la media de la muestra sea mayor que el valor observado, PROMEDIO(matriz), cuando la media de la poblacin subyacente es 0. Por la simetra de la distribucin Normal, si PROMEDIO(matriz) < 0, PRUEBA.Z devolver un valor mayor que 0,5. Se puede utilizar la siguiente frmula de Excel para calcular la probabilidad de dos colas de que la muestra est ms lejos de 0 (en cualquier sentido) que de PROMEDIO(matriz) cuando la media de la poblacin subyacente es 0: =2 * MIN(PRUEBA.Z(matriz;0;sigma); 1 - PRUEBA.Z(matriz;0;sigma)).

PRUEBA F

El anlisis de Varianza contrasta la hiptesis de igualdad de las Medias de ms de dos grupos, y tiene su fundamento en la relacin entre la variacin explicada por las diferencias entre grupos y la variacin individual. Consideremos la siguiente situacin: Queremos comparar la efectividad de cuatro tratamientos de la depresin, para lo que aplicamos los tratamientos a cuatro grupos de pacientes seleccionados aleatoriamente. A finales del tratamiento recogemos los datos, que son:

Los valores del cuerpo central de la tabla representan las puntuaciones obtenidas por el sujeto "i" en el grupo "j". Por ejemplo, X32=14 simboliza que el sujeto nmero tres del grupo 2 ha obtenido una puntuacin igual a 14. Las puntuaciones de cada grupo son una muestra de la poblacin de pacientes a los que se administra cada tratamiento (los del grupo 1, de la poblacin a la que se administra el tratamiento 1, los del grupo 2, de la poblacin a la que se administra el tratamiento 2, etc.). Las Medias de las poblaciones se simbolizan m1, m2, m3, etc. Queremos saber si estas Medias son semejantes o diferentes a la finalizacin del tratamiento, porque eso significara que los tratamientos afectan de manera diferente a los pacientes. La Hiptesis Nula es:

El estadstico de contraste es:

donde MCE y MCI son las Medias Cuadrticas "entre" e "intra" respectivamente. El fundamento del estadstico de contraste es:

a) El efecto del tratamiento en cada grupo es medido por la Media de las medidas de depresin de cada grupo. b) Si todos los tratamientos tuvieran el mismo efecto, esperaramos que las Medias de los grupos fueran semejantes:

En cambio, cuanto ms diferentes sean los efectos de los tratamientos, ms diferentes esperamos que sean las Medias. c) La Media Cuadrtica "entre" mide la variacin explicada por las diferencias entre las Medias de los grupos ms la variacin explicada por diferencias individuales:

donde

Si las Medias fueran semejantes, la Media Cuadrtica "entre" sera igual a 0 (porque la Media de cada grupo sera igual a la Media total). Si las Medias fueran diferentes, la Media Cuadrtica "entre" ser mayor cuanto ms y mayores sean las diferencias. d) La variacin individual es medida por la Media Cuadrtica "intra":

donde glI: grados de libertad "intra"= J(n-1). La Media Cuadrtica "intra" mide la variacin explicada por diferencias individuales porque solo depende de las diferencias dentro de cada grupo. En cambio, las diferencias entre grupos no explican la variacin "intra".

e) El estadstico F pone en relacin la variacin "entre" respeto de la variacin "intra":

cuanto mayor es la variacin "entre" en relacin a la variacin "intra", mayor es el valor de F. f) Para generalizar a la poblacin se opera con los valores esperados de la Medias Cuadrticas:

el valor esperado de la Media Cuadrtica "entre" es igual a la Varianza explicada (ocasionada) por las diferencias individuales ms una cantidad cuyo valor depende de las diferencias entre los tratamientos (entre las muestras).

El valor esperado de la Media Cuadrtica "intra" es igual a la Varianza explicada por diferencias individuales. g) Si la Hiptesis Nula fuera verdadera, es decir, si NO hubiera diferencias entre las Medias poblacionales, el valor del trmino de la derecha en la expresin del valor esperado de la Media Cuadrtica "entre", que es:

tomara el valor 0 (porque las diferencias dentro del parntesis siempre seran 0). En consecuencia, el estadstico F sera una razn de dos estimadores de la misma Varianza y seguira la distribucin F con J-1 y J(n-1) grados de libertad. h) Si la Hiptesis Nula fuera falsa, es a decir, si hubiera diferencias entre las Medias poblacionales, la expresin

Tomara un valor superior a 0. En consecuencia, el estadstico F NO sera una razn de dos estimadores de la misma Varianza y el cociente F NO seguira la distribucin FJ-1,J(n-1). En conclusin, si el estadstico F sigue la distribucin FJ-1,J(n-1)pensaremos que no hay evidencia suficiente por rechazar la Hiptesis Nula. En cambio, si el estadstico F NO sigue la distribucin FJ-1,J(n-1), pensaremos que es ms razonable rechazar la Hiptesis Nula.

ANLISIS DE CORRELACIN Correlacin es la medida del grado de relacin entre dos o ms variables. Con variables nominales suele utilizarse el trmino asociacin para indicar el grado de relacin entre las variables. Correlacin simple la correlacin entre dos variables cuantitativas para verificar su relacin se llama: correlacin simple, porque slo involucra una variable independiente. Mientras que la elacin entre varias variables independientes con una dependiente se le llama: Correlacin Mltiple.

La relacin entre dos variables manteniendo el resto constante recibe el nombre de Correlacin Parcial. La correlacin con una sola variable independiente se llama: simple. La correlacin con ms de una sola variable independiente se llama: mltiple. la correlacin de un grupo de variables dependientes con un grupo de variables independientes, es decir, entre grupos de variables se llama: correlacin cannica

PROPIEDADES DEL COEFICIENTE DE CORRELACIN 1. El coeficiente de correlacin no vara al hacerlo la escala de medicin. Es decir, si expresamos la altura en metros o en centmetros el coeficiente de correlacin no vara.

2. El signo del coeficiente de correlacin es el mismo que el de la covarianza. Si la covarianza es positiva, la correlacin es directa. Si la covarianza es negativa, la correlacin es inversa. Si la covarianza es nula, no existe correlacin.

3. El coeficiente de correlacin lineal es un nmero real comprendido entre 1 y 1. 1 r 1 4. Si el coeficiente de correlacin lineal toma valores cercanos a 1 la correlacin es fuerte e inversa, y ser tanto ms fuerte cuanto ms se aproxime r a 1.

5. Si el coeficiente de correlacin lineal toma valores cercanos a 1 la correlacin es fuerte y directa, y ser tanto ms fuerte cuanto ms se aproxime r a 1.

6. Si el coeficiente de correlacin lineal toma valores cercanos a 0, la correlacin es dbil. 7. Si r = 1 1, los puntos de la nube estn sobre la recta creciente o decreciente. Entre ambas variables hay dependencia funcional.

Ejemplos

Las notas de 12 alumnos de una clase en Matemticas y Fsica son las siguientes:
Matemticas Fsica 2 1 3 3 4 2 4 4 5 4 6 4 6 6 7 4 7 6 8 7 10 9 10 10

Hallar el coeficiente de correlacin de la distribucin e interpretarlo.


xi 2 3 4 4 5 yi 1 3 2 4 4 xi yi 2 9 8 16 20 xi2 4 9 16 16 25 y i2 1 9 4 16 16

6 6 7 7 8 10 10 72

4 6 4 6 7 9 10 60

24 36 28 42 56 90 100 431

36 36 49 49 64 100 100 504

16 36 16 36 49 81 100 380

1 Hallamos las medias aritmticas.

2 Calculamos la covarianza.

3 Calculamos las desviaciones tpicas.

4 Aplicamos la frmula del coeficiente de correlacin lineal.

Al ser el coeficiente de correlacin positivo, la correlacin es directa. Como coeficiente de correlacin est muy prximo a 1 la correlacin es muy fuerte.

También podría gustarte