Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introd Estad Exptal
Introd Estad Exptal
CAPITULO I
1.1.1 Formulación del problema: a partir del conocimiento existente, se debe definir muy
claramente el problema o aspecto desconocido a investigar. Formular preguntas e hipótesis bien
claras, decidir que se va a estudiar y que tipos de datos o medidas deberán ser tomadas, además
definir el tiempo y el costo necesarios para su realización.
1.1.2 Diseño del experimento: definir el tamaño de la muestra, los tratamientos que se van a
aplicar, la cantidad de datos a obtener, en que momentos, donde y como será instalado el ensayo,
los métodos estadísticos que se van a utilizar.
1.1.3 Conducción del ensayo y colecta de datos: montaje del ensayo, según la metodología o
diseño establecido y colecta de datos de acuerdo al cronograma definido. Esta es la parte que más
tiempo consume y es la más importante, pues de la precisión de la colecta de los datos dependen
los resultados de la etapa siguiente.
1.1.4 Tabulación y análisis de datos: los datos deben ser ordenados y analizados según el diseño
experimental seleccionado y las pruebas estadísticas programadas.
1.1.5 Discusión de los resultados: el investigador debe discutir los resultados de acuerdo con los
análisis efectuados, según el conocimiento existente o adquirido y elaborar las respuestas a las
preguntas e hipótesis formuladas durante la fase de planeación.
1.2.1 Factor. Lo que se aplica en un ensayo de forma no homogénea, por ejemplo, variedad,
cuando se prueban varias de ellas.
1.2.2 Nivel. Las diferentes manifestaciones de un factor, por ejemplo, las dosis de abonamiento
empleado, los espaciamientos utilizados. Los cultivares que se prueban, diferentes temperaturas
de cocción, etc.
1.2.3 Tratamiento. Cada uno de los niveles de un factor o cada una de las combinaciones de los
niveles de dos factores, cuando se prueba más de un factor.
1.2.4 Testigo o control. Tratamiento patrón de comparación. Puede ser ausencia de un factor
(dosis cero de un abono, por ejemplo) o la aplicación usual de un factor (variedad recomendada
para sembrar en una región, espaciamiento común usado por los agricultores, etc).
1
1.2.5 Diseño. Esquema adoptado para distribuir los tratamientos.
1.2.6 Unidad experimental o parcela. Cosa, animal o persona o parte de ellos, a los cuales se les
aplica tratamiento. Puede ser un área de suelo, un vaso, una vaca, una caja de petri, un número de
plantas, etc.
ssubm
CV = *100 . Para estimar el número de muestras usar la siguiente fórmula:
X subm
tα2 / 2 s subm
2
n=
E2
Donde, n es el tamaño mínimo de la muestra requerido para garantizar la precisión deseada bajo
una confiabilidad 1 − α .
1.2.7 Área útil. Porción de la unidad experimental efectivamente utilizada en la evaluación del
tratamiento.
1.2.8 Bordura (efecto de bordes). Parte de la unidad experimental no colectada para la evaluación
del efecto de tratamiento. Es utilizada para evitar efectos de competencia o de contaminación
entre parcelas vecinas. Normalmente está constituida por el mismo material del área útil. En
algunos casos puede estar conformada por materiales distintos, como en el caso de experimentos
en fitopatología, por ejemplo, el caso en que los bordes de los bloques son sembrados
anticipadamente para que sirva de fuente de inóculo para el ensayo, como manera de garantizar
mayor uniformidad de infección.
1.2.10 Bloque. Conjunto ambiental homogéneo que contiene todos los tratamientos o parte de
ellos. En el diseño cuadrado latino, en el que se presentan dos tipos de bloques, estos reciben las
denominaciones de columnas y filas.
2
unidades experimentales (UE) no son iguales. También se puede decir que es una medida de la
variación existente entre las respuestas de las UE tratadas en forma similar. Al error experimental
contribuyen:
b) El error de estado o variabilidad inherente al material al cual se aplican los tratamientos, el cual
es debido a los cambios aleatorios en el estado físico de una unidad experimental. Por ejemplo, en
un experimento de nutrición con ratas como material experimental, los individuos tendrán
constitución genética diferente, ésta es una variabilidad inherente al material experimental o error
de estado. Si las ratas se ubican en jaulas sujetas a diferencias de calor, luz y otros factores, ésto
constituye una falta de uniformidad en la realización física del experimento o error de
tratamiento.
Los diseños experimentales, entonces deben ser escogidos, de forma tal que minimicen los errores
asociados a las condiciones ambientales y, en relación con los errores groseros, se minimizan con
un buen entrenamiento en la toma de las medidas requeridas.
En términos prácticos, la diferencia entre parcelas (unidades experimentales) con los mismos
tratamientos se denomina error experimental. Su estimación permite decidir si la diferencia
observada entre tratamientos es real o es debida al azar.
Así pues, el error experimental es una medida de la variación que existe entre las unidades
experimentales tratadas en forma similar. Esta variación proviene de dos fuentes:
Los diseños experimentales, para reducir los efectos de las variaciones ambientales, deben ser
estructurados siguiendo los principios básicos de la experimentación, que son: repetición,
aleatorización y control local (o bloqueo).
1.2.12 Grados de libertad. Los grados de libertad son el número de variables aleatorias
independientes de una muestra aleatoria.
Cada elemento de la muestra se considera una variable aleatoria independiente. Cuando se calcula
la media muestral se pierde un grado de libertad. Una vez conocido el valor de la media muestral,
sólo n-1 de las variables de la muestras permanecen independientes.
3
Si se tiene una muestra de 4 elementos y la media muestral es 10, sólo 3 de las variables de la
muestra pueden variar libremente puesto que la cuarta variable queda determinada.
10 = (X1+X2+X3+X4)/4) → X4 = 40-X1-X2-X3
Por ejemplo, si X1=9, X2=15, X3=10 (variables independientes), la cuarta variable debe ser
necesariamente 6, porque X4 = 40-9-15-10 = 6 para que la media muestral sea 10.
En el análisis de varianza, por grados de libertad (GL) "degrees of freedom" (DF) se entiende el
número efectivo de observaciones que contribuyen a la suma de cuadrados, es decir, el número
total de observaciones menos el número de datos que sean combinación lineal de otros.
1.2.13 Pruebas de significación. Nivel de confianza (1-α), nivel de significación (α). El nivel de
confianza hace referencia a la probabilidad de que la estimación efectuada se ajuste a la realidad.
Cualquier información que se quiera recoger está distribuida según una ley de probabilidad (Gauss
o Student), así se llama nivel de confianza a la probabilidad de que el intervalo construido en torno
a un estadístico capte el verdadero valor del parámetro. Los valores que se suelen utilizar para el
nivel de confianza son el 95%, 99% y 99,9%.
Los niveles de significación indican la probabilidad de que un resultado se deba al azar. El nivel
más frecuente, que se utiliza para indicar que algo es digno de credibilidad, es 0,95. Esto significa
que el hallazgo tiene un 95% de probabilidades de ser cierto. Sin embargo, este valor también se
utiliza de manera confusa. Ningún paquete de estadística mostrará "95%" o "0,95" para indicar
este nivel. En su lugar, aparecerá "0,05", para indicar que el hallazgo tiene un cinco por ciento
(0,05) de probabilidades de no ser cierto, que es lo inverso a un 95% de probabilidades de ser
cierto. Un valor de "0,01" significa que existe un 99% (1-0,01= 0,99) de probabilidades de que sea
cierto o 1% de que no sea cierto.
También puede decirse que el nivel de significación de un test es un concepto estadístico asociado
a la verificación de una hipótesis. En pocas palabras, se define como la probabilidad de tomar la
decisión de rechazar la hipótesis nula cuando ésta es verdadera (decisión conocida como error de
tipo I, o "falso positivo"). La decisión se toma a menudo utilizando el valor p (o p-valor): si el valor
p es inferior al nivel de significación, entonces la hipótesis nula es rechazada. Cuanto menor sea el
valor p, más significativo será el resultado obtenido. El análisis de varianza lleva a la realización de
pruebas de significación estadística, usando la denominada distribución F de Snedecor.
Cuando se analizan niveles de significación, se suele pensar que un nivel del 95% es sagrado. Si una
prueba revela una probabilidad de 0,06, significa que tiene un 94% de probabilidades de ser cierta.
No se puede tener la misma seguridad si presenta una probabilidad del 95% de ser cierta, pero lo
más posible es que lo sea. El nivel del 95% proviene de publicaciones académicas, en donde, por lo
general, una teoría debe tener al menos un 95% de probabilidades de ser cierta para que sea lo
4
suficientemente confiable como para comunicarla. En el mundo de los negocios, si algo tiene un
90% de probabilidades de ser cierto (probabilidad = 0,1), no se puede considerar comprobado,
pero es muy probable que sea mejor actuar como si fuera cierto que como si fuera falso.
No hay manera de saber cuáles son los resultados falsos: simplemente se sabe que están
presentes. Una manera de atenuar el problema consiste en restringir la cantidad de pruebas a un
grupo pequeño escogido antes de recopilar los datos. Si esto no resulta práctico, existen otras
maneras de resolver este problema. El mejor método desde un punto de vista estadístico consiste
en repetir el estudio y observar si se obtienen los mismos resultados. Si algo resulta
estadísticamente significativo en dos estudios distintos, es probable que sea cierto. En la vida real,
no suele resultar práctico repetir un estudio, pero se puede recurrir a la técnica de "mitades
partidas", que implica dividir la muestra aleatoriamente en dos mitades y efectuar las pruebas en
cada una. Si algo resulta significativo en ambas mitades, es probable que sea cierto. El problema
esencial de esta técnica es que cuando se parte el tamaño de una muestra, la diferencia tiene que
ser más grande para ser estadísticamente significativa.
σ2
σ y2 =
r
En resumen, las funciones de la repetición son:
5
Mejora la precisión de un experimento, mediante la reducción de las varianzas de las
medias de los tratamientos. Cuanto menor es la dispersión de los datos mayor es la
precisión, entonces la precisión está en función de la desviación estándar
Aumenta el radio de acción de la inferencia del experimento
Aumenta la exactitud de la estimación del error experimental. La exactitud se refiere a
cuán cerca del valor real se encuentra el valor medido. En términos estadísticos, la
exactitud está relacionada con el sesgo de una estimación. En estadística se llama sesgo de
un estimador a la diferencia entre su esperanza matemática y el valor verdadero del
parámetro que se estima. Un estimador cuyo sesgo es nulo se llama insesgado o centrado.
Los métodos estadísticos requieren que las observaciones (o errores) sean variables aleatorias y
que se distribuyan independiente y aleatoriamente. La aleatorización, usualmente, hace válido
este supuesto. Mediante una apropiada aleatorización del experimento, se procura la eliminación
promedia de los efectos de los factores extraños que se pueden presentar.
En razón a la correlación entre parcelas adyacentes, los errores tienden a estar correlacionados en
ausencia de aleatorización. Por lo tanto, la aleatorización tiende a distribuir los efectos
correlacionados de las parcelas adyacentes, asegurando una distribución independiente de los
errores.
Obtener una estimación válida del error experimental y las medias de los tratamientos.
Evitar sesgos al comparar las medias de los tratamientos, evitando que un tratamiento sea
favorecido sobre otro. Se debe evitar una distribución así:
A A A A
B B B B
C C C C
1.3.3 Control local (o bloqueo). Hace referencia al control de la heterogeneidad del ambiente o
terreno donde se instala el experimento. Es la técnica que utilizan los investigadores para tratar de
que la variación de las respuestas se deba principalmente a factores controlables por el modelo
estadístico utilizado, es decir, permite aumentar la precisión de un experimento. Consiste en la
agrupación de las parcelas experimentales en subconjuntos homogéneos, cuando se sabe que el
total de las parcelas no posee la homogeneidad exigida. Un bloque es una porción de material
experimental que debe ser más homogénea que el conjunto total del material experimental.
6
A cada experimento puede ser asociado un modelo matemático. Este modelo debe contener,
dependiendo del contexto y del tratamiento estadístico a ser empleado, los efectos de los factores
y del error que afectan cada observación, o parámetros y otras variables a ellos asociados, o, una
combinación de estas situaciones.
Una vez elegida tanto la estructura de diseño como la estructura de tratamientos, el diseño
experimental queda definido mediante la descripción exacta del método de asignación aleatoria
(aleatorización) en las unidades experimentales (en la estructura de diseño). Por lo tanto el diseño
experimental comprende:
Para la realización de los análisis estadísticos paramétricos, algunos supuestos básicos son
necesarios y deben ser obedecidos, por lo menos, aproximadamente, so pena de incurrir en
interpretaciones o conclusiones erradas. Los principales supuestos son:
Los errores son independientes, con distribución normal, con media µ = 0 , varianza σ 2 y modelo
matemático lineal y aditivo. Además, se exige que los errores tengan todos la misma varianza y
que los datos sean cuantitativos, esto es, que encuadren en las escalas de proporción o de
intervalo.
Debe tener en cuenta el investigador que los errores nunca pueden ser eliminados, sólo pueden
ser minimizados, lo cual se consigue por medio de un conjunto de actividades o procedimientos,
entre las que se destacan las siguientes:
7
Parcela experimental de tamaño apropiado
Uso de bordes
Utilización de un número adecuado de repeticiones y, preferiblemente, igual para
todos los tratamientos
Manejo de las unidades experimentales de forma homogénea
Uso del diseño estadístico adecuado para las condiciones de realización del
experimento.
1.6.1.1 Moda. Valor más frecuente en una serie de valores. Si existe apenas u valor más frecuente,
la muestra o población es unimodal. Si más de un valor presenta mayor frecuencia, la muestra será
bimodal (dos valores) o multimodal (más de dos valores). Cuando los valores aparecen una única
vez, la muestra o población es amodal.
1.6.1.2 Mediana. Valor que divide una muestra o población ordenada en dos partes. Es el valor
central en una serie con número impar de elementos o la media aritmética de los valores centrales
en una serie con número par de elementos.
Ejemplo 2: 1, 2, 3, 4, 6, 7, 8, 10, 11, 12. La mediana es la media aritmética de 6 y 7, esto es, 6,5
1.6.1.3 Media. La media o media aritmética es el valor obtenido por el cociente entre la suma de
los valores de una muestra o población y su número.
n
∑X i
µ= i =1
(Media de la población)
N
n
∑X
i =1
i
X = (Media de la muestra)
n
Se puede verificar por las definiciones de moda y mediana que la existencia de valores extremos
no afecta su valor, lo que no ocurre con la media aritmética, que es fuertemente afectada por la
existencia de valores extremos en la muestra o serie de valores analizados. A pesar de esto, la
media aritmética es un estimador de mínimos cuadrados, no viciado, de la media de una
población.
8
1.6.2 Medidas de dispersión
1.6.2.1 Varianza. Obtenida por el cociente entre la suma de cuadrados de los desvíos de cada
medida en relación a su media y el número de grados de libertad (de la muestra), o por el número
de individuos (de la población).
n 2
∑(y
i =1
i − y)
s =
2
(Varianza de la muestra)
n −1
n 2
∑ ( yi − y )
σ2 = i =1
(Varianza de la población)
N
Las siguientes fórmulas permiten hacer los mismos cálculos, de manera más fácil:
2
n
n ∑
yi
∑ yi − i =1
2
i =1 n
s2 = ;
n −1
2
n
n ∑
yi
∑ yi2 − i =1
N
σ2 = i =1
N
s = s2 ; σ = σ 2
s
CV = * 100
X
1.6.2.4. Error estándar de la media. El error estándar de la media, es decir, el error debido a la
estimación de la media poblacional a partir de las medias muestrales, es la desviación estándar de
todas las posibles muestras (de un tamaño dado) escogidos de esa población.
s
; También se puede expresar así: s x =
s
ES x =
n n
9
Videos de estadística descriptiva:
http://www.youtube.com/watch?v=BkSHNKjARYU
http://www.youtube.com/watch?v=IuX22-Epxzc
http://www.youtube.com/watch?v=E-Vpyi6hO9k
Los estimadores considerados antes de tomar la muestra, por ser funciones de variables aleatorias
son a su vez variables aleatorias.
1.7.1 Estimación puntual. Es un número o punto que estima el parámetro de interés, al cual se
llega utilizando la información de la muestra. Ejemplo: la media aritmética muestral X es un
estimador de µ , el parámetro de la población; la varianza de la muestras s 2 es un estimador de
) x
la varianza σ 2 de la población; la proporción muestral p = es un estimador de la proporción de
n
la población p . En una estimación puntual es conveniente indicar además del estimador (que es
un estadístico o función de las observaciones que se espera que refleje las características del
parámetro desconocido), el valor de la varianza o la desviación típica para dar una idea de la
confiabilidad del valor estimado.
Los estimadores considerados antes de tomar la muestra, por ser funciones de variables
aleatorias, son a su vez variables aleatorias. Una vez obtenidos los valores en la muestra, ya son
valores particulares de esa variable aleatoria y se les denomina estimaciones.
La estimación se divide en tres grandes bloques, cada uno de los cuales tiene distintos métodos
que se usan en función de las características y propósitos del estudio:
1. La estimación puntual puede abordarse por tres métodos: Método de los momentos; Método
de la máxima verosimilitud; Método de los mínimos cuadrados.
3. La estimación bayesiana.
10
1.7.2 Estimación por intervalo, muestras grandes. Si se tiene una muestra aleatoria procedente
de una población con parámetro θ entonces un intervalo de confianza (L1 , L2 ) para dicho
parámetro es tal que
Obsérvese que L1 y L2 son variables aleatorias, por lo cual (L1 , L2 ) es un intervalo aleatorio
antes de elegir la muestra; una vez se ha obtenido la muestra y se han definido valores
particulares para L1 y L2 , ya el intervalo deja de ser aleatorio, por lo cual en esta etapa carece de
sentido aplicar el concepto de probabilidad.
1.7.2.1 Intervalo de confianza para la media. Considérese una población normal en donde se ha
tomado una muestra grande para estimar los parámetros y se desea obtener intervalos para µ
con coeficiente de confianza (1 − α ) , entonces:
X −µ
Z= ~ N (0,1)
σX
X −µ
P(− zα / 2 < Z< zα / 2 ) = P(− zα / 2 < < zα / 2 )
σX
11
= P(−σ X * zα / 2 < X − µ < σ X * zα / 2 )
= P( X − σ X * zα / 2 < µ < X + σ X * zα / 2 )
= P (L1 < µ < L2 ) = 1 − α
En donde:
σ
L1 = X − σ X * zα / 2 = X − * zα / 2
n
σ
L2 = X + σ X * zα / 2 = X + * zα / 2
n
Ejemplo: Al estimar la altura de árboles de Eucaliptus saligna, obtenidos a partir de una muestra
aleatoria con n=136; s = 3,45 y X = 15,08 . En vista del tamaño grande de la muestra, se puede
aproximar a σ por el valor 3.45 para obtener un intervalo de confianza para la media:
3,45
L1 = X − σ X * zα / 2 = 15,08 − *1,96 = 14,50
136
3.45
L2 = X + σ X * zα / 2 = 15,08 + * 1,96 = 15,66
136
Por lo tanto, se estima que la altura promedia de los árboles está entre 14,50 y 15,66 m con un
coeficiente de confianza de 0.95. Este coeficiente de confianza indica que al repetirse el muestreo
se espera que el 95% de los intervalos obtenidos en esta forma contendrán a µ .
El ancho del intervalo de confianza depende de varios factores como se desprende de la ecuación
para los límites:
σ
Lìmites = X ± zα / 2
n
Puede observarse que la amplitud del intervalo depende de la varianza poblacional, del tamaño de
la muestra, del valor zα / 2 , el cual a su vez depende del coeficiente de confianza 1 − α .
12
intervalo va a contener a µ , se debiera aumentar el ancho del intervalo. Esta situación puede
observarse al considerar diferentes coeficientes de confianza, así:
Coeficiente de α zα / 2 Intervalo
confianza ( 1 − α )
0,90 0,10 1,64 σ
X ± 1,64
n
0,95 0,05 1,96 σ
X ± 1,96
0,99 0,01 2,58 n
σ
X ± 2,58
n
Por otro lado, si se aumenta el tamaño de la muestra n, el valor X debería estar más cercano al
parámetro µ , por lo cual es de esperarse un intervalo más estrecho. También se desprende que
en poblaciones más uniformes (con menor varianza) los intervalos de confianza son más
estrechos, o sea, que la estimación de la media será más precisa.
La elección del valor 1 − α depende del grado de confiabilidad que desee el investigador en su
estimación. Por tradición se ha generalizado el uso del coeficiente de confianza de 0.95 que es
considerado como satisfactorio para fines prácticos en la mayoría de los casos, pero con la misma
lógica podría usarse otro valor cercano a la unidad, por ejemplo 0.92,0.98,etc.
Los métodos propuestos para la estimación por intervalo se apoyan en el supuesto de normalidad
en las observaciones. Sin embargo, cuando la población estudiada no es normal, pero el tamaño
de la muestra es grande, es posible utilizar el teorema central del límite para suponer normalidad
(aproximada) en el estimador y aplicar así la metodología planteada para la obtención del
intervalo de confianza para el parámetro.
) X
P= , en donde X es el número de éxitos y n el número total de ensayos o tamaño de la
n
muestra. Puede demostrarse que este estimador es insesgado y tiene varianza mínima.
) Pq
P ~ N P,
n
13
De este modo, un intervalo de confianza del 100(1 − α ) por ciento para el parámetro P está dado
por:
) )) )
pq
P ± zα / 2 . En esta expresión se ha utilizado el valor de P en lugar del parámetro P en la
n
desviación estándar, ya que es desconocido. Sin embargo, esta sustitución introduce muy poco
error cuando n es grande.
Ejemplo: En una muestra de 100 semillas, se obtuvo un 80% de germinación. Obtener un intervalo
de confianza del 95% para el verdadero porcentaje.
) p) q) 0,8 * 0,20
P ± zα / 2 = 0,80 ± * 1,96 = 0,0784 . Por lo cual,
n 100
1.7.2.3 Intervalo de confianza para la diferencia de dos medias. Supóngase que se toman
muestras aleatorias en forma independientes para dos poblaciones A y B. Si las poblaciones son
normales o el tamaño de la muestra es grande, entonces se puede pensar que las medias
presentan distribución normal, así:
σ2
X 1 ~ N µ1 , 1 para la población A;
n1
σ2
X 2 ~ N µ 2 , 2 para la población B.
n2
Sea D = X 1 − X 2 , entonces:
E ( D ) = E ( X 1 − X 2 ) = µ1 − µ 2 = µ D
σ 12 σ 22
Var (D ) = Var ( X 1 − X 2 ) = + = σ D2 , ya que las muestras son independientes.
n1 n2
Puesto que la suma o diferencia de dos variables normales independientes presenta distribución
normal, entonces:
D ~ N (µ D , σ D2 )
14
Ahora se pueden aplicar los métodos expuestos anteriormente para obtener un intervalo de
confianza bajo distribución normal.
σ 12 σ 22
D ± zα / 2 * σ D O bien X 1 − X 2 ± zα / 2 +
n1 n2
s12 s 22
L1 = ( X 1 − X 2 ) − zα / 2 +
n1 n 2
s12 s 22
L2 = ( X 1 − X 2 ) + z α / 2 +
n1 n2
Ejemplo: se han cultivado dos variedades de maíz bajo condiciones muy uniformes, una regional
(A) y otra mejorada (B). El número de parcelas sembradas de cada variedad fue n A = 40 y
n B = 32 . Los rendimientos obtenidos por parcela y las varianzas estimadas fueron:
D= XB −X A = 34 − 25 = 9
2,2 6,3
L1 = 9 − 1,96 + = 8,016
40 32
2,2 6,3
L2 = 9 + 1,96 + = 9,984 . Por lo tanto, un intervalo de confianza aproximado del 95% para
40 32
la diferencia media entre la variedad mejorada y la regional es [8 , 016 ; 9 , 984 ] kg.
1.7.2.4 Intervalo de confianza para la diferencia entre dos proporciones. Supóngase que dos
poblaciones binomiales A y B tienen parámetros P1 y P2 , respectivamente. Se extraen muestras
) )
independientes de tamaños n1 y n2 , respectivamente, y se calculan los estimadores P1 y P2 .
15
) )
Entonces la diferencia entre las proporciones P1 − P2 se estima por P1 − P2 . La esperanza y la
varianza de estas diferencias son:
) )
E ( P1 − P2 ) = P1 − P2
)) ))
) ) ) ) P1 q1 P2 q 2
Var ( P1 − P2 ) = Var ( P1 ) + Var ( P2 ) = + , ya que las muestras son independientes.
n1 n2
)) ))
) ) P1 q1 P2 q 2 ) )
P1 − P2 ± zα / 2 + . Este intervalo es aproximado pues se ha utilizado P1 y P2 en lugar
n1 n2
de P1 y P2 que son desconocidos.
Solución:
) 400
P1 = = 0,80 ; q)1 = 0,20
500
) 476
P2 = = 0,68 ; q) 2 = 0,32
700
O sea que la diferencia entre las proporciones de plantas afectadas está en el intervalo
[0,071;0,169 ] con un coeficiente de confianza de 0,95.
1.7.3 Estimación por intervalos - muestras pequeñas. En la sección anterior el intervalo de
confianza planteado se apoya en la distribución Z, en donde
16
X −µ
Z= . El estadístico Z presenta distribución normal cuando la población estudiada es
σ
n
normal. También puede aproximarse a la normal en cualquier población si el tamaño de la
muestra es grande. La metodología propuesta supone que el valor de σ es conocido, lo cual no es
común en la práctica. Sin embargo, cuando el tamaño de la muestra n es grande, es posible
sustituir a σ por s en las expresiones correspondientes y obtener así intervalos de confianza
aproximados.
Sin embargo, ¿qué sucede si el tamaño de la muestra es pequeño? En este caso no es conveniente
aproximar a σ por s , por lo cual se requiere un procedimiento alternativo.
X −µ
Es posible demostrar que el estadístico sigue una distribución de t que presenta las
s
n
siguientes propiedades:
iii) Está definida por su parámetro que son los grados de libertad n-1, o sea, el divisor usado al
calcular s 2 correspondiente a la muestra.
iv) Es de forma semejante a la normal estándar, sin embargo, la distribución de t es menos alta en
el centro y tiene colas más altas.
En vista de que el parámetro es n-1 o sea sus grados de libertad, entonces existe una distribución
de t diferente para cada valor de los grados de libertad. A medida que el número de grados de
libertad aumenta, la distribución de t tiende a la normal estándar; se ha comprobado que cuando
el número de grados de libertad es de 30 o más, las probabilidades de ambas curvas son muy
semejantes.
17
P(t ≥ tα ) = P(t ≤ −tα ) = α . Con frecuencia se encuentran tablas de dos colas, en donde las
probabilidades indican el porcentaje del área en ambas colas de la curva ( α / 2 en cada cola).
1.7.3.2 Intervalo de confianza para la media. Cuando se tienen muestras pequeñas (n<30) se
desea un intervalo de confianza para el parámetro µ , entonces es posible utilizar las propiedades
de la distribución de t, así:
X −µ s
t= , en donde s X =
sX n
P( −tα / 2 ≤ t ≤ tα / 2 = 1 − α
Por lo cual,
X −µ
1 − α = P (− tα / 2 ≤ t ≤ tα / 2 ) = P( −tα / 2 ≤ ≤ tα / 2 )
sX
= P( X − s X * tα / 2 ≤ µ ≤ X + s X * tα / 2 ) = P(L1 ≤ µ ≤ L2 ) . En donde,
L1 = X − s X * tα / 2
L2 = X + s X * t α / 2
Ejemplo: Para estimar el peso promedio de los rábanos de cierta variedad se ha tomado una
muestra de 12 unidades, obteniéndose los siguientes valores en gramos: 88, 96, 103, 89, 94, 100,
98, 104, 95, 92, 90, 87.
Solución:
X = 94,67 ; s 2 = 32,97
s2 32,97
sX = = = 1,66 . El valor de tα / 2 se obtiene en las tablas con n-1 grados de libertad,
n 12
por lo cual: tα / 2 (11) = 2,20
Entonces:
De acuerdo con lo anterior, un intervalo de confianza del 95% para el peso promedio µ de los
rábanos es [91,91;98,32 ] g.
18
La distribución de t fue derivada considerando muestras aleatorias a partir de una distribución
normal, por lo cual, su uso es válido cuando se estudian poblaciones normales. Sin embargo, la
experiencia ha demostrado que pueden tolerarse desviaciones moderadas de este requisito.
Muchos investigadores conceptúan que si la distribución de las observaciones es en forma de
montículo, puede utilizarse la distribución de t con el fin de obtenerse inferencias aproximadas a
los parámetros.
Un estimador apropiado para la varianza de la población σ 2 está dado por s 2 que se obtiene
mediante la expresión:
∑ (X )
2
−X
=
i
s 2
, en donde n es el tamaño de la muestra. El valor s 2 es un estimador
n −1
insesgado de la varianza poblacional σ 2 .
1.7.3.4 Distribución Ji cuadrado. Si se considera que Z es una variable aleatoria con distribución
normal estándar, entonces:
χ 2 (ν ) = Z 12 + Z 22 + ... + Zν2
Lo cual indica que la variable aleatoria generada por esta suma de variables al cuadrado presenta
distribución Ji cuadrado con ν grados de libertad.
La nueva variable es positiva y su parámetro son los grados de libertad, o sea, el número de
variables independientes que se suman. Puede demostrarse que si se tienen dos o más variables
aleatorias independientes con distribución Ji cuadrado, entonces, su suma tendrá distribución Ji
cuadrado con los grados de libertad correspondientes a la suma de los grados de libertad de las Ji
cuadrado, esto es:
k
χ 2 (ν 1 ) + χ 2 (ν 2 ) + ... + χ 2 (ν k ) = χ 2 (ν ) , con ν = ∑ν i
i =1
19
Se puede demostrar que el valor esperado de una variable aleatoria con distribución Ji cuadrado
son sus grados de libertad, o sea:
[
E χ 2 (ν ) = ν]
La forma de la distribución es asimétrica y sus probabilidades están tabuladas, de tal forma que
una vez definida la distribución por sus grados de libertad, es posible encontrar en la tabla un valor
χ α2 (ν ) tal que:
( )
P χ 2 ≥ χ α2 (ν ) = α
Por lo cual χ α2 (ν ) es aquel valor de la variable aleatoria Ji cuadrado tal que el área bajo la curva a
su derecha es α
( )
P χ 2 ≥ χ 02,05(20 ) = 0,05
χ 02,05(20) = 31,41
Teniendo en cuenta esta propiedad, es posible derivar un intervalo de confianza para la varianza
de la población.
20
Utilizando las tablas de la distribución χ (2n −1) se encuentran los valores χ12 y χ 22 tales que
( )
P χ 12 ≤ χ 2 ≤ χ 22 = 1 − α
( )
La figura muestra la P 3,25 ≤ χ 102 ≤ 20,5 = 1 − α = 0,95 .
χ 12 = χ (21−α / 2 )(n −1) y χ 22 = χ (2α / 2 )(n −1) en las tablas, por lo cual:
P χ 12 ≤
(n − 1)s 2 ≤ χ 2 = 1 − α
2
σ2
(n − 1)s 2
(n − 1)s 2 = 1 − α
P ≤ σ 2
≤
χ2 χ 12
2
O sea:
( )
P L1 ≤ σ 2 ≤ L2 = 1 − α , con L1 =
(n − 1)s 2 y L2 =
(n − 1)s 2
χ 22 χ 12
21
Solución:
Por lo cual:
L1 =
(n − 1)s 2 =
9 * 7,82
= 4,15
χ 2
2 16,92
L2 =
(n − 1)s 2 =
9 * 7,82
= 21,20
χ 2
1 3,32
Entonces se espera que la varianza σ del método se encuentre entre los valores 4,15 y 21,20 con
2
Sea Z una variable aleatoria con distribución normal estándar y sea χ (2ν ) una variable con
distribución Ji cuadrado con ν grados de libertad e independiente de Z, entonces la relación:
Z
presenta distribución de t Student con ν grados de libertad.
χ2
ν
Z=
X −µ
y además,
(n − 1)s 2 ~ χ (2n −1)
σ σ 2
22
Entonces:
X −µ
σ
n X −µ
t= =
(n − 1)s 2 s
σ 2 (n − 1) n
La ecuación anterior es la que se ha utilizado para la obtención de los intervalos de confianza con
muestras pequeñas.
1.8.1 Concepto de hipótesis y tipos de errores. Una hipótesis estadística es una afirmación que se
hace sobre uno o varios modelos probabilísticos. Por lo general esta afirmación se refiere a los
parámetros para explicar las características de las poblaciones o fenómenos en estudio. La prueba
de hipótesis es el procedimiento utilizado a partir de una muestra para juzgar si la hipótesis es
factible.
Una hipótesis puede ser por ejemplo, que el porcentaje de germinación de cierta semilla sea de
90% o más, o que no existe diferencia entre los promedios µ1 y µ 2 de dos poblaciones.
Una hipótesis que será sometida a prueba por el investigador constituye la hipótesis planteada y
por lo general se le indica como hipótesis nula H O (que incluye la opción de “no diferencia”).
Por ejemplo:
H 0 : P ≥ 0,90 , que indica que la proporción P de germinación de cierta semilla es mayor o igual a
0,90.
H 0 : µ1 = µ 2 , que indica que no existe diferencia entre las medias de dos poblaciones.
Se le llama hipótesis alternativa a la o las hipótesis que pueden ser aceptadas como ciertas si es
que la hipótesis planteada se rechaza por ser poco probable que resulte verdadera. El número de
hipótesis alternativas puede ser una o dos, dependiendo del conocimiento que tenga el
investigador.
Por ejemplo, si un productor de semillas afirma que el porcentaje de germinación de una semilla
es ≥ 90%, entonces la hipótesis alternativa será:
Si en un ensayo interesa probar el rendimiento de un cultivo con y sin fertilización, entonces las
hipótesis serán:
23
H 0 : µ 0 = µ1
H A : µ1 > µ 0
Si el investigador no tiene bases para descartar una de las hipótesis alternativas, entonces la
prueba será de dos colas. Por ejemplo, al comparar el rendimiento de dos variedades mejoradas,
las hipótesis son:
H 0 : µ1 = µ 2
H A : µ1 ≠ µ 2
Con base en los valores obtenidos en la muestra es posible calcular un sólo valor que se denomina
estadístico de prueba. El conjunto de todos los valores que el estadístico de prueba puede tomar
se divide en dos conjuntos o regiones, uno correspondiente a la región de rechazo y otro a la
región de aceptación. Si el estadístico de prueba toma un valor dentro de la región o zona de
rechazo, entonces la hipótesis nula es rechazada y se decide a favor de la hipótesis alternativa; si
el estadístico de prueba toma un valor en la región de aceptación, la hipótesis nula es aceptada.
La aceptación de la hipótesis alternativa tiene carácter de prueba, pues es tomada como cierta con
un pequeño porcentaje de duda, usualmente del 1% o del 5%. En cambio, la aceptación de la
hipótesis nula no conlleva carácter de prueba pues carece de respaldo probabilístico, debe
interpretarse en el sentido de que la diferencia obtenida en el experimento no permite probar con
alta confiabilidad que los parámetros verdaderos difieren.
Debe anotarse que una hipótesis estadística es esencialmente diferente de una proposición
matemática que puede aceptarse como verdadera o falsa en forma concluyente, en cambio una
hipótesis estadística se fundamenta en el comportamiento de una variable aleatoria (el estadístico
de prueba) y por lo tanto está sujeta a errores cuando se acepta o se rechaza.
ii) Siendo falsa la hipótesis planteada en la población, el investigador estudiando la muestra llega
a esta hipótesis, por lo cual la decisión tomada es correcta. Por ejemplo: para estudiar el efecto
24
del inóculo Rhizobium sp sobre la altura de las plantas, se formula la hipótesis nula H 0 : µ 0 = µ1
en donde µ 0 es la media de altura de plantas sin inóculo y µ1 es la media de altura de plantas con
inóculo, frente a la alternativa H A : µ1 > µ 0 . Si en la situación real de la población de plantas, el
inóculo tiene efecto sobre la altura de las plantas o sea que se rechaza H 0 y la muestra conduce
al investigador a rechazar una hipótesis, entonces la decisión será correcta.
iii) Siendo cierta la hipótesis planteada en la población, sin embargo, el investigador estudiando la
muestra, rechaza la hipótesis, entonces estará cometiendo un error que se denomina tipo I.
Por ejemplo, si la situación es que la calidad del aguacate no se afecta con el enlatado y el
investigador al analizar una muestra concluye que si se afecta, entonces estará cometiendo un
error, por lo cual la decisión que ha tomado con respecto a la población es incorrecta.
iv) Siendo falsa la hipótesis planteada en la población, sin embargo, el investigador estudiando la
muestra, acepta la hipótesis, estará cometiendo un error que se denomina tipo II. Ejemplo: al
estudiar el efecto del inóculo en la población, la situación real es que el inóculo tiene efecto sobre
el crecimiento de las plantas y el investigador al examinar la muestra concluye que el inóculo no
tiene efecto, estará cometiendo un error y la decisión será incorrecta.
Con el error tipo I, se rechaza una hipótesis que es cierta y con el error tipo II se acepta una
hipótesis que es falsa.
Considérese el siguiente experimento: cierta semilla que posee un 90% de germinación, se somete
durante cierto tiempo a determinadas condiciones de almacenamiento. Después del periodo de
almacenamiento, un investigador desea estudiar si el porcentaje de germinación ha disminuido;
para ello toma una muestra de semillas al azar y determina su viabilidad. Las hipótesis planteadas
con respecto a la población son:
H 0 : P = 0,90
H A : P < 0,90
25
)
Si la hipótesis nula es cierta, el estadístico P que se ha obtenido a partir de una muestra de
tamaño n, tendrá cierta distribución alrededor del parámetro P = 0,90 . Sin embargo, por efectos
)
del muestreo P es una variable aleatoria que puede tomar valores tan bajos que resulten
improbables en la distribución con P = 0,90 , lo cual conllevaría a rechazar la hipótesis
H 0 : P = 0,90 a pesar de ser cierta. Lo anterior indica que se estaría cometiendo un error tipo I al
rechazar con la muestra una hipótesis que es cierta. Al investigador le interesa que la probabilidad
α de cometer este error sea baja.
Los valores de P que superen a cierto valor crítico caerían dentro de la región de rechazo de
H 0 : P = 0,90 . Los valores de P que sean inferiores a ese valor crítico, caerían dentro de la zona de
aceptación de la hipótesis nula.
Para un tamaño de muestra fija, al disminuir α o sea la probabilidad de cometer error tipo I, se
aumenta β y viceversa. Por otro lado, si se aumenta el tamaño de la muestra entonces las
) p) * q)
varianzas de los estimadores disminuyen VarP = , lo cual hace que la forma de las
n
distribuciones sea más aguda y por consiguiente disminuyen α y β . Lo anterior tiene una
explicación lógica, ya que al aumentar el tamaño de la muestra n, habrá mayor información
disponible sobre la cual se pueda apoyar la decisión y entonces se espera que disminuyan las
probabilidades de errores tipo I y II.
La probabilidad de cometer error tipo II, varía, dependiendo del verdadero valor del parámetro
poblacional que se está probando (el cual es desconocido), entonces tampoco es posible evaluar
esta probabilidad β , ni fijarse a voluntad. El máximo valor de α o error tipo I sí puede ser fijado
por el investigador, previamente, y de acuerdo a éste, es posible definir las regiones de aceptación
o rechazo para el estadístico de prueba.
En una prueba, la hipótesis alternativa es rechazada con probabilidad β , cuando es cierta, y por
lo tanto, es aceptada con probabilidad 1 − β . Esta capacidad para detectar la hipótesis alternativa
cuando es cierta, es lo que se denomina potencia de la prueba (1 − β ) . Es posible, entonces
construir una curva de potencia teniendo en cuenta el valor de P y valores hipotéticos del
parámetro P0 para un tamaño de muestra n dado y un nivel de significancia previamente
escogido.
i) Se plantean las hipótesis con respecto a la(s) población (es) en estudio. La hipótesis alternativa
es la hipótesis estadística que el investigador supone que es verdadera, mientras que la hipótesis
nula es la que supone como falsa y por lo tanto desea rechazar.
ii) Se especifica el nivel de significancia, o sea la máxima probabilidad de cometer error tipo I que
el investigador está dispuesto a aceptar. Son usuales valores de α = 0,05 ó α = 0,01, aunque
podría ser otro valor relativamente bajo. Si se rechaza al nivel α = 0,05 se dice que los resultados
26
muestrales son diferentes en forma significativa. Si se rechaza al nivel α = 0,01 se dice que el
resultado de la prueba es altamente significativo. La selección del nivel α depende de la confianza
que desee el investigador en su prueba.
En general, las consecuencias que los errores tipo I y II pueden ocasionar, varían de acuerdo a la
naturaleza del problema que se está estudiando. Por ejemplo, supóngase que una empresa de
agroquímicos lanza al mercado un insecticida garantizando por lo menos un determinado
porcentaje de mortalidad de cierta plaga. Una oficina de control estatal realiza el chequeo
correspondiente. Las hipótesis planteadas por el investigador son:
H 0 : µ ≥ µ0
H A : µ < µ0
En este caso, un error tipo I en la investigación conllevaría a rechazar la hipótesis nula siendo
verdadera, lo cual implicaría negación de la licencia de venta del producto, con el consiguiente
perjuicio para el productor. Pero también existe el riesgo de que se acepte la hipótesis nula siendo
falsa (error tipo II), por lo cual el error afectaría al consumidor. El investigador en su deseo de
proteger al consumidor puede disminuir el valor de β , aumentando el nivel de α o
aumentando el tamaño de la muestra.
iii) Se define el estadístico de prueba, cuya distribución muestral se conoce bajo el supuesto de
que la hipótesis nula es verdadera.
Es posible utilizar como estadístico de prueba el estimador del parámetro θ teniendo en cuenta
las hipótesis que se han formulado, de tal modo que si las hipótesis se refieren a la media µ el
estadístico de prueba será X o si se refiere a la varianza σ 2 , el estadístico de prueba será s 2
Sin embargo, los estadísticos de prueba más utilizados son los valores de la distribución
probabilística generada por el estimador una vez que se acepta la hipótesis nula como cierta.
Por ejemplo:
t=
X −µ
; Z=
X −µ
; χ2 =
(n − 1)s 2 ; F=
s12
, etc.
s σ σ2 s 22
n n
iv) Regla de decisión. De acuerdo con la distribución del estadístico de prueba, se adopta una regla
de decisión que define una región de rechazo y una región de aceptación. La región de rechazo
está formada por los valores del estadístico de prueba que son improbables bajo la hipótesis nula,
mientras que la región de aceptación son los valores del estadístico de prueba que tienen mayor
probabilidad de ocurrir si la hipótesis nula es verdadera.
El valor crítico del estadístico de prueba para definir estas regiones se obtiene teniendo en cuenta
su distribución de acuerdo a la hipótesis nula, el nivel de significancia α que ha sido previamente
establecido y la ubicación de la hipótesis alternativa.
La regla de decisión indica que si el valor estadístico está en la región de rechazo, la hipótesis nula
se rechaza con un nivel de significancia α . Si el valor del estadístico está en la zona de aceptación,
27
entonces la hipótesis nula no se rechaza al nivel de significancia α establecido. La aceptación de
la hipótesis nula debe interpretarse en el sentido de que los datos muestrales no proporcionan
suficiente evidencia para que se produzca el rechazo al nivel α escogido; en ningún caso debe
tomarse la hipótesis nula como verdadera, ya que su aceptación nunca reviste carácter de prueba.
1.8.4 Hipótesis referentes a la media de una población. Se desea probar la hipótesis de que la
media de la población es igual a un valor dado µ 0 frente a una alternativa conveniente.
H 0 : µ = µ0
O bien:
H 0 : µ = µ0
O µ < µ0
Una vez definido el nivel de significancia α la metodología para adelantar la prueba consiste en
obtener la muestra, calcular el estadístico de prueba y verificar si éste se ubica en la región de
rechazo o aceptación, lo cual lo definirá el criterio de aceptar o rechazar H 0 . El estadístico usual
es:
X − µ0
t= , para muestras pequeñas, o bien,
sX
X − µ0
Z= , para muestras grandes o con σ conocida.
σX
1.8.4.1 Prueba de una cola. Si al estudiar el promedio de una característica se sabe por los
antecedentes que se tienen que una hipótesis alternativa se puede descartar, el procedimiento se
denomina prueba de una cola. Por ejemplo:
H 0 : µ = µ0
28
X − µ0
tc = . El valor de t en las tablas que define la zona de aceptación o rechazo es t c , de este
sX
modo la región de rechazo R es:
R = {t t ≥ tα (n −1 ) }
Si t ∈ R , entonces se rechaza H 0
Si t ∉ R, entonces se acepta H 0
Ejemplo: el contenido promedio de aceite de una variedad de maní es del 38%. A través de de un
proceso de selección se obtiene una nueva variedad y se supone que ésta presenta un contenido
de aceite superior a la variedad original. Se toma una muestra al azar de 60 plantas y se determina
el contendido de aceite para cada una. Con base en los valores encontrados se tiene:
X = 42%; s 2 = 87
H 0 : µ = 38
H A : µ > 38
s2 87 42 − 38
sX = = = 1,204 ; tc = = 3,32
n 60 1.204
29
En vista de que t c > t 0,05 (59 ) , entonces se rechaza H 0 con un nivel de significancia del 0,05 y se
puede afirmar que la nueva variedad presenta un contenido de aceite superior a la original. Esta
afirmación presenta un respaldo probabilístico superior al 95%.
1.8.4.2. Prueba de dos colas. Cuando no se tiene criterio para suponer el cumplimiento de una de
las hipótesis alternativas, entonces se plantean las hipótesis:
H 0 : µ = µ0
H A : µ ≠ µ0
X − µ0
tc =
sX
En vista de que se tiene una prueba bilateral o de dos opciones para la hipótesis alternativa,
entonces el nivel de significancia α se reparte en dos regiones de rechazo, de tal modo que a
α
cada cola de la distribución del estadístico corresponde un valor .
2
En este caso la región crítica R está formada por: R = R1 ∪ R2 en donde, para muestras
pequeñas, R1 = t / t ≤ −t α y R2 = t / t ≥ t α
2 2
Rechazar H 0 si t c ≥ tα / 2
30
Ejemplo: una máquina desgranadora de maíz está calibrada para procesar 60 kg por minuto. Para
realizar un chequeo, se toman 10 muestras obteniéndose los siguientes valores: 58, 61, 59, 57, 60,
63, 56, 59, 58, 60. ¿Presentan los resultados evidencia suficiente para afirmar que la máquina está
desajustada?
Usar α = 0,05
H 0 : µ = 60
H A : µ ≠ 60
X = 59,1 ; s = 2,025
s 2,025 X − µ0 59,1 − 60
sX = = = 0,64 ; tc = = = −1,40
n 10 sX 0,64
En vista de que t c < t (α / 2 ) , entonces no se rechaza H 0 con un nivel de significancia del 0,05 y se
puede concluir que no hay razón para pensar que la máquina esté descalibrada.
1.8.5 Hipótesis sobre la varianza de una población normal. La varianza es uno de los parámetros
de la distribución normal, su evaluación y prueba puede resultar de interés cuando se estudia el
grado de uniformidad alcanzado por un proceso o una población.
Con este parámetro también se pueden presentar pruebas de una o dos colas, dependiendo de la
naturaleza del problema.
i) H 0 : σ 2 ≤ σ 02 H A : σ 2 > σ 02
ii) H 0 : σ 2 ≥ σ 02 H A : σ 2 < σ 02
i) H 0 : σ 2 = σ 02 H A : σ 2 ≠ σ 02
χ 02 =
(n − 1)s 2
σ 02
31
Si H 0 es cierta se espera que el estadístico χ 02 , se distribuya como una verdadera Ji cuadrado
con n-1 grados de libertad.
Las regiones críticas con un nivel α de significancia para las hipótesis mencionadas serían, en su
orden:
{
i) R = χ / χ ≥ χ α ( n −1)
2 2 2
}
2
{
ii) R = χ / χ ≤ χ (1−α ) (n −1))
2 2
}
{
iii) R = χ 2 / χ 2 ∈ R1 ∪ R2 }
En donde:
{
R1 = χ 2 / χ 2 ≤ χ (21−α / 2 )(n −1)) }
{
R2 = χ 2 / χ 2 ≥ χ α2 / 2(n−1) }
El valor χ α (n −1) es el valor de la abscisa en una distribución χ 2 con n-1 grados de libertad, de tal
2
Ejemplo: Con el fin de establecer la variabilidad que presenta un equipo para determinar el
contenido de humedad de los cereales, se ha preparado una muestra homogénea con un 20% de
humedad. En ciertos procesos de investigación se requiere que la desviación típica en las
condiciones sea menor de 0,5%. Se toman 8 lecturas con el aparato y se obtienen los siguientes
valores:
32
20,7; 21,9; 20,3; 19,3; 19,6; 19,3; 20,6; 21,4.
Probar con un nivel de significancia α = 0,05 . Entonces, σ 2 = 0,25 y las hipótesis a probar son:
H 0 : σ 2 ≥ 0,25
H A : σ 2 < 0,25
7 * 0,634
χ 02 = = 17,75
0,25
Puesto que la hipótesis alternativa corresponde a la cola izquierda, se debe buscar el valor crítico
de χ 2 en esta región o sea, el correspondiente a χ (21−α )(7 ) = χ 02,95(7 ) = 2,1673
1.8.6 Hipótesis sobre la proporción de una población. Si el investigador tiene interés en probar
hipótesis que se refieren a la proporción de individuos que poseen cierta característica en una
población, puede utilizar métodos derivados de la aproximación a la normal, cuando se justifique
tal aproximación (np y nq mayores que 5).
Las pruebas pueden ser de una o dos colas como en el caso de hipótesis sobre medias, pero
utilizando como estadístico de prueba la variable Z, ya que éste surge de una aproximación de la
Binomial a la normal. El estadístico de prueba es entonces:
)
P − P0
Zc =
p0 q0
n
Ejemplo: considérese el caso de la semilla que ha sido almacenada con un 90% de germinación. Al
cabo de cierto tiempo se desea saber si ha disminuido la germinación, para lo cual se hace una
prueba con base en 200 semillas tomadas al azar, encontrándose un porcentaje de germinación de
87%. ¿Presentan evidencia estos resultados para afirmar que la semilla ha disminuido su
germinación? Usar α = 0,05
H 0 : P = 0,90
H A : P < 0,90
33
Se trata entonces de una prueba de una cola, ya que se descarta la opción de que la semilla haya
aumentado su poder germinativo.
El valor de Z α que define la región crítica corresponde al valor tabulado en la cola de la izquierda
de la distribución normal estándar, o sea − Z α = − Z 0,05 = −1,65 .
Las poblaciones en estudio pueden darse en la naturaleza, por ejemplo los suelos de dos regiones,
las condiciones ambientales de dos localidades, la densidad de la madera de dos especies
forestales, etc., o también pueden ser generadas por el investigador bajo condiciones apropiadas,
por ejemplo, estacas de cierta especie que han sido sometidas a dos reguladores de crecimiento
diferentes, plantas a las que se ha aplicado dos fertilizantes para evaluar su efecto sobre el
rendimiento, mediciones de una sustancia mediante dos métodos, etc. Cada una de estas
poblaciones está sometida a condiciones especiales que se desean estudiar y se denominan
tratamientos. Las conclusiones obtenidas son entonces válidas para poblaciones bajo condiciones
similares.
1.8.7.1 Comparación de medias con variables pareadas. Una de las formas de experimentación
más simple consiste en parear unidades que pueden ser parcelas, plantas, ramas, hojas, trozos de
madera, etc., en forma tal que los miembros de cada par sean similares y a cada uno de ellos se
asigna un tratamiento al azar.
Los pares de individuos pueden ser diferentes, pero los individuos dentro de cada par deben ser
homogéneos, de tal modo que las diferencias resultantes entre los miembros de cada par, al final
del experimento, deben ser atribuidas fundamentalmente a los tratamientos.
Para el análisis estadístico, las diferencias (d i ) obtenidas entre los individuos de cada par se
consideran como variables aleatorias correspondientes a una población de diferencias.
34
La variabilidad de las d i en la muestra será tanto menor, cuanto más similares sean los individuos
de cada par, lo cual conlleva a un aumento en la capacidad del experimento para probar pequeñas
diferencias entre los tratamientos.
Considérese una muestra formada por n pares de observaciones, cada par recibe los dos
tratamientos X y Y al azar. La información resultante se indica mediante la siguiente notación:
(
D ~ N µ d , σ d2 )
En donde las diferencias d i que toma la variable aleatoria son independientes con media
µ d = E (X − Y ) = µ x − µ y
H 0 : µ x = µ y ⇔ µ x − µ y = µd = 0
H A : µ x ≠ µ y ⇔ µ x − µ y = µd ≠ 0
La hipótesis alternativa podría ser también de una sola cola. Obsérvese que las hipótesis
referentes a medias de dos poblaciones, pueden plantearse como hipótesis sobre la media de una
población de diferencias d i a partir de una muestra de tamaño n extraída de esa población, o sea:
H 0 : µd = 0
H A : µd ≠ 0
Los métodos para probar esta hipótesis relacionada con la media de una población normal (de
diferencias) son los mismos que se trataron anteriormente.
35
d − µd
tc = , que bajo la hipótesis nula H 0 : µ d = 0 tomará la forma:
sd
d
tc = , el cual presenta distribución t con n-1 grados de libertad.
sd
El valor del estadístico de prueba se confronta con el valor tabulado al nivel de significancia α
correspondiente.
Ejemplo: Los métodos siguientes corresponden a un trabajo que se hizo con el objetivo de
estudiar un nuevo método para determinar el peso específico de la madera sin cortar los árboles,
utilizando un pequeño barreno. En el ensayo se tomaron 30 muestras de árboles de Pinus patula
consistentes en rodajas obtenidas a diferentes alturas; cada rodaja se sometió a dos tratamientos,
a saber:
A. Evaluación del peso específico por el método tradicional que se realiza con base en un pequeño
trozo de madera obtenido después de cortar el árbol.
B. Evaluación del peso específico usando un pequeño barreno, conocido como barreno Presler.
Este método no requiere derribar el árbol.
H 0 : µd = 0
H A : µd ≠ 0
36
d − µd d
tc = ; bajo H 0 es t c =
sd sd
2
Para obtener s d , se calcula primero s d
( d)
∑ − ∑n
2
i
d i2
s d2 = = 0,0022613
n −1
Por lo cual:
sd2 0,0022613
sd = = = 0,00868
n 30
d = 0,0055
0,0055
El valor de t c es entonces: t c = = 0,633349
0,00868
En vista de que t < t 0, 05 entonces no se rechaza la hipótesis nula, o sea que los datos no
proporcionan evidencia para afirmar que los dos métodos difieren.
Para la aplicación del método de las variables pareadas se ha hecho énfasis en que los individuos
de cada par sean similares, aunque existan diferencias entre los pares. De hecho, si se presentan
grandes diferencias entre los pares, se amplía el alcance de la inferencia, pues la validez de las
conclusiones, se puede aplicar a las diferentes condiciones. Además, si los miembros de cada par
son muy similares se gana en precisión, pues la diferencia obtenida en cada par estará reflejando
en forma cercana los efectos de los tratamientos.
El parear observaciones resulta ventajoso, como se indicó antes, si los individuos de cada par son
similares, o sea, si el valor de la variable que se mide en ellos, tiende a ser alta o baja para ambos
individuos; lo cual indica que los miembros de cada par poseen, antes de iniciar el experimento,
cierto grado de covarianza o variación conjunta.
37
De este modo, con variables pareadas se espera que la varianza de las diferencias sea menor que
con muestras independientes, siempre y cuando exista cierto grado de covarianza o variación
conjunta entre las variables X, Y.
Sin embargo, debe tenerse en cuenta que los grados de libertad del estadístico de prueba t en el
caso de muestras independientes es 2(n-1), como se verá posteriormente, mientras que con
variables pareadas es (n-1). Esta disminución en los grados de libertad para el caso de variables
pareadas conlleva cierta pérdida de precisión en las estimaciones y en las pruebas, pues el valor de
t en las tablas aumenta a medida que los grados de libertad disminuyen, lo cual hace que los
intervalos de confianza para las diferencias sean más amplios y los errores en las pruebas
aumenten. De acuerdo con lo anterior debe tenerse en cuenta que la técnica del pareamiento no
siempre es ventajosa y, por el contrario, puede resultar desacertada si no existe una verdadera
razón para formar los pares, de tal modo que se garantice cierto grado de uniformidad entre los
individuos que conforman los pares.
En forma intuitiva se considera razonable utilizar para la comparación el cociente de las dos
s12
varianzas muestrales 2 de tal modo que si el cociente está cercano a 1, no habrán razones
s2
suficientes para pensar que las varianzas poblacionales σ 12 y σ 22 difieren. Por otro lado, un valor
muy grande o muy pequeño estaría proporcionando evidencia de una diferencia entre las
varianzas poblacionales.
Distribución de F:
χ (2m ) / m
F= , presenta distribución F con m y n grados de libertad. La distribución F está
χ (n ) / n
completamente definida por los parámetros m y n que son los grados de libertad de las variables
Ji cuadrado que la originan.
Los valores de la variable aleatoria son mayores que cero y la forma de la distribución es
asimétrica, pero la asimetría disminuye a medida que aumenta el número de grados de libertad.
Las probabilidades de la distribución F se han tabulado con valores F0 para niveles de α tales que:
P(F ≥ F0 ) = α
38
El valor de F0 se puede indicar como Fα ( m , n ) que significa que a la derecha de este valor existe un
área o probabilidad en la curva igual a α .
Una propiedad que puede resultar útil para el cálculo de probabilidades en la distribución F
consiste en que si la variable X presenta distribución F con m y n grados de libertad, entonces, su
1
inversa Y = tendrá distribución F con n y m grados de libertad. Esta propiedad se desprende
X
inmediatamente de la distribución F.
1
F(1−α )(m,n ) =
Fα (n ,m )
Sea t una variable aleatoria con distribución t de Student con n grados de libertad. Entonces, el
cuadrado de t se distribuye como F con 1 y n grados de libertad.
t n2 = F1,n
Demostración:
Sea Z una variable aleatoria con distribución normal estándar; sea Y una variable aleatoria con
distribución Ji cuadrado con n grados de libertad, entonces por definición:
Z Z2
t= , por lo cual t =
2
, pero Z 2 se distribuye como χ 12 , por lo tanto,
χ 2
(n ) / n
χ 2
(n ) / n
39
χ 12/ 1
t n2 = ~ F1, n
χ n2 / n
En la comparación de dos varianzas, se supone que las poblaciones que se estudian son normales y
que las varianzas son extraídas en forma independiente. A continuación se presenta el método
para las pruebas correspondientes.
Sea X 1 , X 2 ,..., X n una muestra aleatoria de una población normal, tal que
(
X ~ N µ X , σ X2 . )
Sea Y1 , Y2 ,..., Ym una muestra aleatoria de una población normal, tal que
(
Y ~ N µ Y , σ Y2 . )
(n − 1)s x2 (m − 1)s y2
~ χ (n −1) ~ χ (m −1)
2 2
Entonces: y
σ 2
x σ 2
y
s y2 / σ y2 s x2 / σ x2
~ F(m −1),(n −1) , O también: ~ F(n −1),(m −1)
s x2 / σ x2 s y2 / σ y2
Por lo cual esta distribución permite probar hipótesis sobre varianzas. Las hipótesis más comunes
son:
i) H 0 : σ X2 = σ Y2 H A : σ X2 ≠ σ Y2
ii) H 0 : σ X2 = σ Y2 ; H A : σ X2 › σ Y2
s 2y
FC = ~ F(m −1),(n −1)
s x2
Con base en esta distribución se pueden obtener el (los) valor (es) de F que define (n) las regiones
de aceptación o rechazo.
El criterio de decisión para ambas pruebas es el siguiente: Para el caso (i) que es una prueba de
dos colas, se rechaza H 0 si:
40
Para el caso (ii) se rechaza H 0 si Fc ≥ Fα (m −1),(n −1)
Ejemplo: se estudian dos métodos para determinar el contenido de magnesio en el suelo. Por el
método A, se han realizado 14 lecturas, obteniéndose s 2A = 1,8 y con el método B se tomaron 11
lecturas obteniéndose un valor s B2 = 2,9 . Probar con un nivel de significancia α = 0,10 si las
varianzas de los métodos difieren.
H 0 : σ A2 = σ B2
H A :σ A2≠ σ B2
1,8
Fc = = 0,6206
2,9
Como se trata de una prueba de dos colas, se deben obtener en las tablas los dos valores críticos:
1 1
F0,95(13,10 ) = = = 0.3744
F0,05(10,13) 2,671
En la prueba de dos colas, para evitar el cálculo de los dos valores de F (a la izquierda y a la
derecha de la distribución) que definen la región de aceptación o rechazo, se puede obtener el
valor de Fc , así:
s 2 mayor
Fc =
s 2 menor
Este valor se confronta con el valor Fα / 2 o sea el correspondiente al lado derecho de la curva. Si
Fc > Fα / 2 entonces se rechaza H 0 con un nivel de significancia α .
A continuación, se deducirán los fundamentos generales de las pruebas, bajo el supuesto de que
las poblaciones son normales
41
Considérese que se han tomado dos muestras de tamaños n1 y n 2 correspondientes a dos
poblaciones que presentan distribución normal con parámetros (µ ,σ )
1
2
1 y (µ 2 )
, σ 22 ,
respectivamente. De este modo:
σ2 σ2
X 1 ~ N µ1 , 1 , X 2 ~ N µ 2 , 2
n1 n2
()
E d = µ d = µ1 − µ 2
()
Var d = σ d2 =
σ 12
n1
+
σ 22
n2
, ya que las muestras son independientes,
σ2 σ2
Entonces: d ~ N µ1 − µ 2 , 1 + 2
n1 n2
Por lo cual:
d − µd
~ N (0,1) (1)
σ 12 σ 22
+
n1 n2
Además,
d − µd
σ 12 σ 22
+
n1 n2
~ t ( n1 +n2 − 2 ) (3)
(n1 − 1)s 21 (n 2 −1)s 22
+
σ 12 σ 22
n1 + n2 − 2
42
d − µd
2σ 2
n d − µd
= ~ t 2 (n −1)
(n − 1)(s12 + s 22 ) s12 + s 22
2σ 2 (n − 1) n
Antes de efectuar la prueba de medias deberá establecerse que las varianzas poblacionales son
homogéneas o sea σ 12 =σ 22= σ 2 mediante una prueba F. Obsérvese que si las varianzas
poblacionales son homogéneas, entonces s12 y s 22 serán estimadores del mismo parámetro σ 2 .
H 0 : µ1 = µ 2 ⇔ µ1 − µ 2 = µ d = 0
d
Bajo la hipótesis nula, el estadístico de prueba será t c = , con
sd
s12 + s 22
d = X 1 − X 2 y sd =
n
Este valor se confronta con el tabulado que define las regiones de aceptación o rechazo, el cual
corresponde a tα , 2 ( n −1) o tα / 2 , 2 (n −1) para las pruebas de una y dos colas, respectivamente.
Naranja agria (A): 5,20; 4,29; 3,30; 4,00; 4,50; 5,50; 5,20; 5,00; 5,20; 5,73.
Limón: 2,80; 5,00; 3,20;3,01; 3,55; 3,80; 2,95; 3,52; 3,20; 3,52.
X A = 4,79 X B = 3,46 n = 10
s A2 = 0,568 s B2 = 0,393
H 0 : σ A2 = σ B2
H A :σ A2≠ σ B2
43
s 2A 0,568
Fc = = = 1,445
s B2 0,393
La prueba de varianzas es de dos colas. Si se toma para esta prueba α = 0,10 , el valor tabulado es
Fα / 2 (n1 −1,n2 −1) = F0,05(9, 9 ) = 3,18 . Como Fc < F0,05 , se acepta H 0 , por lo cual se considera que las
varianzas son homogéneas.
H0 : µA = µB
H A : µ A ≠ µB
En vista de que t c > tα / 2 (18 ) , se rechaza la hipótesis nula con un nivel de significancia α = 0,05 , por
lo cual puede afirmarse que las dos especies de cítricos tienen diferente contenido de pectina,
siendo mayor el de la naranja agria.
d − µd
1 1
σ 2 +
n1 n2 d − µd
= ~ t ( n1 +n2 − 2 )
(n − 1)(s12 + s 22 ) 1 1
s +
2
σ 2 (n1 + n2 − 2 ) p
n1 n 2
En donde, s 2p =
(n1 − 1)s12 + (n2 − 1)s 22
n1 + n2 − 2
Obsérvese que s c2 es una varianza promedio que se obtiene ponderando las varianzas muestrales
s 21 y s 22 por sus grados de libertad respectivos, lo cual resulta razonable al suponer que los
estimadores s 21 y s 22 corresponden a la misma varianza σ 2 .
Para aplicar esta expresión debe establecerse primero la prueba de homogeneidad de varianzas
σ 12 =σ 22= σ 2 . Luego, al considerar la hipótesis nula:
44
H 0 : µ1 = µ 2 ⇔ µ1 − µ 2 = µ d = 0 , el estadístico de prueba será:
d XA − XB
tc = = , el cual se confronta con el valor crítico de t obtenido para un nivel de
sd 1 1
s 2p +
n1 n2
significancia α , con n1 + n2 − 2 grados de libertad.
Ejemplo: Se estudiaron dos sistemas de secamiento de la madera con respecto a los defectos que
se producen en las tablas. Para ello, se tomaron al azar 20 tablas secadas por el sistema A y 10 por
el sistema B. A continuación se presenta el grado de combado en milímetros obtenido al aplicar
cada uno de los dos sistemas:
A: 42, 40, 37, 37, 34, 37, 40, 37, 35, 38, 35, 42, 40, 39, 36, 43, 36, 43, 38, 41.
B: 35, 40, 37, 34, 37, 40, 37, 35, 37, 42.
X A = 38,5 X B = 37,4 n A = 20
s A2 = 7,6 s B2 = 6,5 nB = 10
H 0 : σ A2 = σ B2
H A :σ A2≠ σ B2
s 2A 7,6
Fc = = = 1,17
s B2 6,5
El valor de F en las tablas es F0,025 (19 , 9 ) = 3,69 . En vista de que Fc < F0,025 se concluye que no
existe evidencia para afirmar que las varianzas son heterogéneas.
H0 : µA = µB
H A : µ A ≠ µB
45
d XA−XB
tc = =
sd 1 1
s 2p +
n1 n2
s 2p =
(n1 − 1)s12 + (n2 − 1)s22 =
19 * 7,6 + 9 * 6,5
= 7,25
n1 + n 2 − 2 20 + 10 − 2
d − µd
σ 12 σ 22
+
n1 n2
, en términos de valores muestrales, pues de todos modos resultan
(n1 − 1)s 2
1
+
(n 2 −1)s 22
σ 12 σ 22
n1 + n2 − 2
involucradas las varianzas poblacionales que son desconocidas. Por lo cual no es posible aplicar la
distribución de t como en los casos anteriores para las pruebas de hipótesis.
A continuación se presenta una de las soluciones más utilizadas que fue formulada por Cochran
(1964):
d X1 − X 2
t′ = = =
sd s12 s 22
+
n1 n2
El valor de este estadístico se compara con un valor de t * derivado de los valores tabulados, así:
46
w1t1 + w2 t 2
t* = en el cual t1 y t 2 son los valores tabulados con un nivel α o α / 2 (dependiendo
w1 + w2
si la prueba es de una o dos colas) con los grados de libertad n1 − 1 y n2 − 1 , respectivamente.
s12 s2
w1 = y w2 = 2
n1 n2
Obsérvese que si los dos tamaños de muestras son iguales n1 = n2 = n , entonces el valor de t *
queda así:
Ejemplo: Se estudió la extracción de nutrientes efectuada por dos tipos diferentes de maíz DH-205
(amarillo) Y DH-250 (blanco) en los suelos del Valle del Cauca. Para ello, se tomaron muestras de
12 parcelas del híbrido amarillo y 8 del blanco. Una de las variables estudiadas fue el contenido de
nitrógeno en la semilla.
A: DH-205: 1,48; 1,49; 1,40; 1,41; 1,76; 1,75; 1,40; 1,41; 1,20; 1,20; 1,73; 1,73.
X A = 1,496; s 2A = 0,041 n A = 12
X B = 1,268; s B2 = 0,00384 nB = 8
H 0 : σ A2 = σ B2
H A :σ A2≠ σ B2
s 2A 0,041
Fc = 2
= = 10,67
s B 0,00384
El valor de F en las tablas es F0, 05(11,7 ) = 3,6 . Puesto que Fc > F0,05(11,7 ) entonces se concluye que
las varianzas son heterogéneas.
47
Para efectuar la prueba de promedios, las hipótesis son:
H0 : µA = µB
H A : µ A ≠ µB
w1t1 + w2 t 2 s 2 0,041
t* = , con w1 = 1 = = 0,00342
w1 + w2 n1 12
s 22 0.00384
w2 = = = 0.00048
n2 8
Entonces:
En vista de que t ′ > t * se rechaza H 0 , por lo cual se concluye que los dos híbridos de maíz extraen
diferente cantidad de nitrógeno del suelo, siendo mayor el correspondiente al hibrido amarillo DH-
205.
X1 − X 2
~ N (0,1)
σ 12 σ 22
+
n1 n2
La expresión anterior se basa en el teorema central del límite, que supone distribución
aproximadamente normal para promedios cuando los tamaños de muestra son grandes.
Es posible aproximar en este caso los valores de σ 12 y σ 22 para obtener el estadístico de prueba
Zc .
48
X1 − X 2
Zc =
s12 s 22
+
n1 n2
Las reglas de decisión son las mismas de la prueba de t , teniendo en cuenta que en este caso, los
puntos críticos se obtienen en la tabla de la distribución normal estándar.
Ejemplo: para estudiar diferentes defectos ocasionados a la madera bajo dos sistemas de
secamiento, se tomaron 50 tablas de Eucalipto, que fueron sometidas a secamiento al aire (A) y 42
fueron sometidas a secamiento al horno (B). Uno de los defectos evaluados fue el grado de
abarquillado, expresado en cm.
X A = 1,8434; s 2A = 0,2669 n A = 50
X B = 1,2879; s B2 = 0,7475 n B = 42
H0 : µ A = µB
H A : µ A ≠ µB
X1 − X 2 1,8434 − 1,2879
Zc = = = 4,07
s12 s 22 0,2269 0,5587
+
+
n1 n2 50 42
El valor de Z α / 2 (la prueba es de dos colas), se obtiene en las tablas. Usando α = 0,05 , se tiene:
Z 0,025 = 1,96
Puesto que Z c ∈ R , entonces se rechaza H 0 , por lo cual se puede afirmar que el sistema de
secamiento al aire presenta un mayor grado de abarquillado que el sistema de secamiento al
horno.
) Pq
P1 ~ N P1 , 1 1
n1
49
) Pq
P2 ~ N P2 , 2 2
n2
Entonces:
) ) Pq P q
P1 − P2 ~ N P1 − P2 , 1 1 + 2 2
n1 n2
La expresión permite efectuar pruebas de hipótesis y obtener intervalos de confianza con respecto
a P1 − P2 , utilizando los métodos derivados de la normal que se han tratado anteriormente. Las
hipótesis que interesan son:
i) H 0 : P1 = P2 ⇔ P1 − P2 = 0
H A : P1 ≠ P2 ⇔ P1 − P2 ≠ 0
ii) H 0 : P1 ≤ P2 ⇔ P1 − P2 ≤ 0
H A : P1 > P2 ⇔ P1 − P2 > 0
iii) H 0 : P1 ≥ P2 ⇔ P1 − P2 ≥ 0
H A : P1 < P2 ⇔ P1 − P2 < 0
Para generar un estadístico de prueba debe notarse que bajo la hipótesis nula ( P1 − P2 ), las dos
poblaciones tienen la misma proporción (desconocida) que se indica por P. En este caso se tiene:
) ) pq pq
P1 − P2 ~ N 0, +
n1 n2
El parámetro P que es desconocido puede estimarse utilizando la información contenida en las
muestras, por lo cual:
) n p) + n2 p) 2 ) )
P= 1 1 ; q = 1− P
n1 + n2
Bajo la hipótesis nula, el estadístico Z c presenta una distribución aproximadamente N (0,1) , por
lo cual se puede utilizar este valor para efectuar la prueba correspondiente.
50
Ejemplo: Se estudió el poder germinativo del café después de haberla sometido a dos sistemas de
secamiento: secamiento al sol (A) y utilizando Guardiola, máquina para secar café (B). Los tamaños
de muestra utilizados y los porcentajes de germinación fueron:
¿Puede afirmarse que los dos sistemas de secamiento afectan de forma diferente la germinación
de la semilla de café?
H 0 : PA = PB
H A : PA ≠ PB
El punto crítico para definir las regiones de aceptación y de rechazo, se obtiene en la tabla de la
normal estándar, teniendo en cuenta que la prueba es de dos colas.
Z α / 2 = Z 0,025 = 1,96
Puesto que Z c > Z α / 2 , el estadístico de prueba se ubica en la zona de rechazo; por lo cual existe
evidencia para afirmar que las semillas sometidas a los dos sistemas de secamiento presentan
diferente porcentaje de germinación, siendo mayor utilizando secamiento al sol.
En la aplicación de una prueba estadística cualquiera se asocian dos tipos de errores, conocidos
como error tipo I y error tipo II.
El error tipo I (α ) se comete al rechazar una hipótesis nula que es verdadera, y el error tipo II (β )
al aceptar una hipótesis nula falsa. El error tipo I es también llamado de significancia de una
51
prueba. No hay nombre específico para el error tipo II. La expresión 1 − β se denomina el poder
de una prueba.
En un experimento tradicional, asumiendo k tratamientos y sus efectos fijos, las hipótesis nulas y
alternativas pueden ser formuladas así:
La prueba F es, en este caso, la indicada para la comprobación o no de la validez de las hipótesis. Si
existen más de dos tratamientos, el hecho que la prueba F resulte significativa, apenas indica que
existe alguna diferencia entre los tratamientos, pero no específica donde se encuentran las
diferencias. En este caso otras pruebas deben ser empleadas para detectarlas. Estas pruebas se
denominan pruebas de comparación de medias o de separación de medias.
La prueba F se calcula obteniendo el cociente entre el cuadrado medio del factor que se está
probando y el cuadrado medio del error experimental. Los cuadrados medios representan las
estimaciones de las varianzas respectivas, esto es, la varianza del factor y la varianza del error. Su
significancia se verifica al compararse el valor calculado con los valores tabulados, a los niveles de
probabilidad disponibles, según los grados de libertad asociados a cada varianza.
Por convención, se asume que una prueba es significativa cuando la probabilidad a ella asociada es
igual o menor que 5%. Es lógico que este nivel de significancia pueda ser modificado de acuerdo
con el tipo de trabajo que se ejecuta, con los riesgos involucrados en la aplicación de los
resultados o por otros motivos. En un experimento con drogas para curar alguna enfermedad, por
ejemplo, en que puede haber riesgo de muerte del paciente por la aplicación de una dosis errada,
el nivel de significancia debe ser mucho menor que 5%, por ejemplo, 0,01%. En trabajos con
cultivares, donde puede ocurrir la sustitución de un material por otro equivalente, el nivel de
significancia podría ser mayor que 5%. En todo caso, el investigador debe definir el nivel de
significancia adecuado para su trabajo, según sus conocimientos, más este nivel debe ser definido
a priori, esto es, antes de la ejecución del ensayo y de la colecta de cualquier dato.
BIBLIOGRAFÍA
COCHRAN, W.; COX, G. 1990. Diseños experimentales. 2ª. Ed., México: Trillas, 661 p.
DANIEL, W. 1999. Bioestadística Base para el Análisis de las Ciencias de la Salud. Tercera edición.
Editorial Limusa S.A. de C.V. Grupo Noriega Editores, México, D.F.,878 p.
GÓMEZ, H. 1997. Estadística Experimental Aplicada a las Ciencias Agrícolas. Medellín: Universidad
Nacional de Colombia Sede Medellín, 571 p.
52
MARTÍNEZ, C. 2005. Estadística y Muestreo. 12 ed. Bogotá. Ecoe edicines. 1100 p.
MELO, O.; LÓPEZ, L.; MELO, S. 2007. Diseño de Experimentos Métodos y Aplicaciones. Pro-offset
Editorial S. A. 668 p.
PIMENTEL, F.1985. Curso de estatística experimental. 11ª ed. Piracicaba: Livraria Nobel S.A., 466p.
STEEL, G.R.; TORRIE, H.J. 1985. Bioestadística Principios y Procedimientos. Segunda edición.
Bogotá-Colombia. Editorial McGraw Hill Latinoamericana, 622 p.
53