Está en la página 1de 53

DISEÑO DE EXPERIMENTOS

Material compilado por Carlos Enrique Cardona Ayala


Ingeniero Agrónomo, Ph.D.
Facultad de Ciencias Agrícolas, Universidad de Córdoba
Montería, Córdoba, Colombia

CAPITULO I

1. INTRODUCCIÓN A LA ESTADÍSTICA EXPERIMENTAL

1.1 PROYECTO DE INVESTIGACIÓN.

A continuación se resumen las etapas que deben seguirse en cualquier investigación.

1.1.1 Formulación del problema: a partir del conocimiento existente, se debe definir muy
claramente el problema o aspecto desconocido a investigar. Formular preguntas e hipótesis bien
claras, decidir que se va a estudiar y que tipos de datos o medidas deberán ser tomadas, además
definir el tiempo y el costo necesarios para su realización.

1.1.2 Diseño del experimento: definir el tamaño de la muestra, los tratamientos que se van a
aplicar, la cantidad de datos a obtener, en que momentos, donde y como será instalado el ensayo,
los métodos estadísticos que se van a utilizar.

1.1.3 Conducción del ensayo y colecta de datos: montaje del ensayo, según la metodología o
diseño establecido y colecta de datos de acuerdo al cronograma definido. Esta es la parte que más
tiempo consume y es la más importante, pues de la precisión de la colecta de los datos dependen
los resultados de la etapa siguiente.

1.1.4 Tabulación y análisis de datos: los datos deben ser ordenados y analizados según el diseño
experimental seleccionado y las pruebas estadísticas programadas.

1.1.5 Discusión de los resultados: el investigador debe discutir los resultados de acuerdo con los
análisis efectuados, según el conocimiento existente o adquirido y elaborar las respuestas a las
preguntas e hipótesis formuladas durante la fase de planeación.

1. 2 ELEMENTOS BÁSICOS CONCEPTUALES DEL DISEÑO DE EXPERIMENTOS

1.2.1 Factor. Lo que se aplica en un ensayo de forma no homogénea, por ejemplo, variedad,
cuando se prueban varias de ellas.

1.2.2 Nivel. Las diferentes manifestaciones de un factor, por ejemplo, las dosis de abonamiento
empleado, los espaciamientos utilizados. Los cultivares que se prueban, diferentes temperaturas
de cocción, etc.

1.2.3 Tratamiento. Cada uno de los niveles de un factor o cada una de las combinaciones de los
niveles de dos factores, cuando se prueba más de un factor.

1.2.4 Testigo o control. Tratamiento patrón de comparación. Puede ser ausencia de un factor
(dosis cero de un abono, por ejemplo) o la aplicación usual de un factor (variedad recomendada
para sembrar en una región, espaciamiento común usado por los agricultores, etc).

1
1.2.5 Diseño. Esquema adoptado para distribuir los tratamientos.

1.2.6 Unidad experimental o parcela. Cosa, animal o persona o parte de ellos, a los cuales se les
aplica tratamiento. Puede ser un área de suelo, un vaso, una vaca, una caja de petri, un número de
plantas, etc.

Cuando es imposible o resulta inconveniente medir la unidad experimental, se acude al


submuestreo. Entonces ¿cómo saber si la estimación que se está haciendo con las submuestras es
o no muy variable?

Se calcula la media y la desviación estándar de las submuestras, luego si el coeficiente de variación


es mayor de 25%, hay que considerar la posibilidad de tomar más muestras.

ssubm
CV = *100 . Para estimar el número de muestras usar la siguiente fórmula:
X subm

tα2 / 2 s subm
2
n=
E2

Donde, n es el tamaño mínimo de la muestra requerido para garantizar la precisión deseada bajo
una confiabilidad 1 − α .

tα / 2 es el valor de la tabla de la distribución de t;


2
ssubm Es la varianza de la submuestra;

E = X − µ es el error marginal o margen de error que asume el investigador

1.2.7 Área útil. Porción de la unidad experimental efectivamente utilizada en la evaluación del
tratamiento.

1.2.8 Bordura (efecto de bordes). Parte de la unidad experimental no colectada para la evaluación
del efecto de tratamiento. Es utilizada para evitar efectos de competencia o de contaminación
entre parcelas vecinas. Normalmente está constituida por el mismo material del área útil. En
algunos casos puede estar conformada por materiales distintos, como en el caso de experimentos
en fitopatología, por ejemplo, el caso en que los bordes de los bloques son sembrados
anticipadamente para que sirva de fuente de inóculo para el ensayo, como manera de garantizar
mayor uniformidad de infección.

1.2.9 Repetición. Cada una de las aplicaciones de un tratamiento.

1.2.10 Bloque. Conjunto ambiental homogéneo que contiene todos los tratamientos o parte de
ellos. En el diseño cuadrado latino, en el que se presentan dos tipos de bloques, estos reciben las
denominaciones de columnas y filas.

1.2.11 Error experimental. Una característica de todo material experimental es la variación.


Asociada con la unidad experimental está el error experimental, este error es el reflejo de que las

2
unidades experimentales (UE) no son iguales. También se puede decir que es una medida de la
variación existente entre las respuestas de las UE tratadas en forma similar. Al error experimental
contribuyen:

a) El error de tratamiento, el cual resulta de cualquier falta de uniformidad en la realización física


del experimento o en alguna o algunas repeticiones uno o más tratamientos. Por ejemplo, si se
van a administrar 30 ppm de cierta sustancia, se administran 29 ó 31 ppm.

b) El error de estado o variabilidad inherente al material al cual se aplican los tratamientos, el cual
es debido a los cambios aleatorios en el estado físico de una unidad experimental. Por ejemplo, en
un experimento de nutrición con ratas como material experimental, los individuos tendrán
constitución genética diferente, ésta es una variabilidad inherente al material experimental o error
de estado. Si las ratas se ubican en jaulas sujetas a diferencias de calor, luz y otros factores, ésto
constituye una falta de uniformidad en la realización física del experimento o error de
tratamiento.

En resumen, el error experimental es un valor que representa la variación de las medidas


(observaciones) de las variables de respuesta, por efecto de factores o variables no controlables
que actúan sobre las unidades experimentales, como por ejemplo, pequeñas variaciones en el
ambiente o condiciones ambientales donde se desarrolla el experimento que pasan
desapercibidas o no son conocidas por el investigador. Además de eso, los errores pueden ser
cometidos en la toma de datos, como en la lectura de los equipos (errores groseros). Sin importar
el tipo de error que se cometa, su efecto sobre las variables de respuesta representa el error
experimental.

Los diseños experimentales, entonces deben ser escogidos, de forma tal que minimicen los errores
asociados a las condiciones ambientales y, en relación con los errores groseros, se minimizan con
un buen entrenamiento en la toma de las medidas requeridas.

En términos prácticos, la diferencia entre parcelas (unidades experimentales) con los mismos
tratamientos se denomina error experimental. Su estimación permite decidir si la diferencia
observada entre tratamientos es real o es debida al azar.

Así pues, el error experimental es una medida de la variación que existe entre las unidades
experimentales tratadas en forma similar. Esta variación proviene de dos fuentes:

 Variabilidad inherente al material experimental


 Variabilidad debida a la falta de uniformidad de las condiciones donde se lleva a cabo el
experimento.

Los diseños experimentales, para reducir los efectos de las variaciones ambientales, deben ser
estructurados siguiendo los principios básicos de la experimentación, que son: repetición,
aleatorización y control local (o bloqueo).

1.2.12 Grados de libertad. Los grados de libertad son el número de variables aleatorias
independientes de una muestra aleatoria.

Cada elemento de la muestra se considera una variable aleatoria independiente. Cuando se calcula
la media muestral se pierde un grado de libertad. Una vez conocido el valor de la media muestral,
sólo n-1 de las variables de la muestras permanecen independientes.

3
Si se tiene una muestra de 4 elementos y la media muestral es 10, sólo 3 de las variables de la
muestra pueden variar libremente puesto que la cuarta variable queda determinada.

10 = (X1+X2+X3+X4)/4) → X4 = 40-X1-X2-X3

Por ejemplo, si X1=9, X2=15, X3=10 (variables independientes), la cuarta variable debe ser
necesariamente 6, porque X4 = 40-9-15-10 = 6 para que la media muestral sea 10.

En el análisis de varianza, por grados de libertad (GL) "degrees of freedom" (DF) se entiende el
número efectivo de observaciones que contribuyen a la suma de cuadrados, es decir, el número
total de observaciones menos el número de datos que sean combinación lineal de otros.

1.2.13 Pruebas de significación. Nivel de confianza (1-α), nivel de significación (α). El nivel de
confianza hace referencia a la probabilidad de que la estimación efectuada se ajuste a la realidad.
Cualquier información que se quiera recoger está distribuida según una ley de probabilidad (Gauss
o Student), así se llama nivel de confianza a la probabilidad de que el intervalo construido en torno
a un estadístico capte el verdadero valor del parámetro. Los valores que se suelen utilizar para el
nivel de confianza son el 95%, 99% y 99,9%.

El término "nivel de significación" suele generar confusiones y no muchos investigadores lo


comprenden bien. Cuando se habla de "significativo" en términos generales, se suele implicar que
algo es importante, mientras que en estadística el concepto se refiere a algo probablemente
cierto. Es posible que el hallazgo de una investigación sea cierto sin que sea importante. Cuando
los estadísticos dicen que un resultado es "altamente significativo" quieren decir que es muy
probable que sea cierto. No (necesariamente) quieren decir que es altamente importante.

Los niveles de significación indican la probabilidad de que un resultado se deba al azar. El nivel
más frecuente, que se utiliza para indicar que algo es digno de credibilidad, es 0,95. Esto significa
que el hallazgo tiene un 95% de probabilidades de ser cierto. Sin embargo, este valor también se
utiliza de manera confusa. Ningún paquete de estadística mostrará "95%" o "0,95" para indicar
este nivel. En su lugar, aparecerá "0,05", para indicar que el hallazgo tiene un cinco por ciento
(0,05) de probabilidades de no ser cierto, que es lo inverso a un 95% de probabilidades de ser
cierto. Un valor de "0,01" significa que existe un 99% (1-0,01= 0,99) de probabilidades de que sea
cierto o 1% de que no sea cierto.

También puede decirse que el nivel de significación de un test es un concepto estadístico asociado
a la verificación de una hipótesis. En pocas palabras, se define como la probabilidad de tomar la
decisión de rechazar la hipótesis nula cuando ésta es verdadera (decisión conocida como error de
tipo I, o "falso positivo"). La decisión se toma a menudo utilizando el valor p (o p-valor): si el valor
p es inferior al nivel de significación, entonces la hipótesis nula es rechazada. Cuanto menor sea el
valor p, más significativo será el resultado obtenido. El análisis de varianza lleva a la realización de
pruebas de significación estadística, usando la denominada distribución F de Snedecor.

Cuando se analizan niveles de significación, se suele pensar que un nivel del 95% es sagrado. Si una
prueba revela una probabilidad de 0,06, significa que tiene un 94% de probabilidades de ser cierta.
No se puede tener la misma seguridad si presenta una probabilidad del 95% de ser cierta, pero lo
más posible es que lo sea. El nivel del 95% proviene de publicaciones académicas, en donde, por lo
general, una teoría debe tener al menos un 95% de probabilidades de ser cierta para que sea lo

4
suficientemente confiable como para comunicarla. En el mundo de los negocios, si algo tiene un
90% de probabilidades de ser cierto (probabilidad = 0,1), no se puede considerar comprobado,
pero es muy probable que sea mejor actuar como si fuera cierto que como si fuera falso.

Si se realizan muchas pruebas, los resultados falsamente significativos representan un problema.


Esto se debe a que un 95% de probabilidades de que algo sea cierto significa que existe un 5% de
probabilidades de que sea falso. Es decir: de cada 100 pruebas que presentan resultados
significativos al nivel del 95%, las probabilidades son que cinco arrojen resultados falsamente
significativos. Si se tomara un conjunto aleatorio de datos sin sentido y se efectuaran 100 pruebas
de significación, las probabilidades serían que cinco de ellas arrojaran resultados falsamente
negativos. Como se puede observar, cuantas más pruebas se efectúan, mayor problema implican
los positivos falsos.

No hay manera de saber cuáles son los resultados falsos: simplemente se sabe que están
presentes. Una manera de atenuar el problema consiste en restringir la cantidad de pruebas a un
grupo pequeño escogido antes de recopilar los datos. Si esto no resulta práctico, existen otras
maneras de resolver este problema. El mejor método desde un punto de vista estadístico consiste
en repetir el estudio y observar si se obtienen los mismos resultados. Si algo resulta
estadísticamente significativo en dos estudios distintos, es probable que sea cierto. En la vida real,
no suele resultar práctico repetir un estudio, pero se puede recurrir a la técnica de "mitades
partidas", que implica dividir la muestra aleatoriamente en dos mitades y efectuar las pruebas en
cada una. Si algo resulta significativo en ambas mitades, es probable que sea cierto. El problema
esencial de esta técnica es que cuando se parte el tamaño de una muestra, la diferencia tiene que
ser más grande para ser estadísticamente significativa.

El último error frecuente también es importante. La mayoría de las pruebas de significación


presuponen que se dispone de una muestra completamente aleatoria. Si la muestra no lo es, una
prueba de significación puede exagerar la precisión de los resultados, porque sólo tiene en cuenta
el error aleatorio. La prueba no puede tener en cuenta márgenes de error que provengan de
errores no aleatorios (por ejemplo, una muestra mal seleccionada).

1.3. PRINCIPIOS BÁSICOS DEL DISEÑO EXPERIMENTAL

1.3.1 Repetición. Se refiere a la implantación de cada tratamiento en más de una unidad


experimental. Su utilización está vinculada a la necesidad de evaluación de la variabilidad del
material experimental. Permite estimar el error experimental, el cual se convierte en la unidad
básica de medición para determinar si las diferencias presentadas son estadísticamente
diferentes. Permite además, hacer una estimación precisa del efecto de un factor si se usa la
media muestral (y) para estimar tal efecto. Por ejemplo si σ 2 es la varianza de los datos y se
tienen r repeticiones, entonces la varianza del promedio muestral es

σ2
σ y2 =
r
En resumen, las funciones de la repetición son:

 Permite estimar el error experimental

5
 Mejora la precisión de un experimento, mediante la reducción de las varianzas de las
medias de los tratamientos. Cuanto menor es la dispersión de los datos mayor es la
precisión, entonces la precisión está en función de la desviación estándar
 Aumenta el radio de acción de la inferencia del experimento
 Aumenta la exactitud de la estimación del error experimental. La exactitud se refiere a
cuán cerca del valor real se encuentra el valor medido. En términos estadísticos, la
exactitud está relacionada con el sesgo de una estimación. En estadística se llama sesgo de
un estimador a la diferencia entre su esperanza matemática y el valor verdadero del
parámetro que se estima. Un estimador cuyo sesgo es nulo se llama insesgado o centrado.

1.3.2 Aleatorización. Es la distribución de los tratamientos en las unidades experimentes en forma


aleatoria, sin ninguna interferencia por parte del investigador. Para cada tipo de diseño
experimental existe una forma adecuada de hacer la aleatorización de los tratamientos.

Los métodos estadísticos requieren que las observaciones (o errores) sean variables aleatorias y
que se distribuyan independiente y aleatoriamente. La aleatorización, usualmente, hace válido
este supuesto. Mediante una apropiada aleatorización del experimento, se procura la eliminación
promedia de los efectos de los factores extraños que se pueden presentar.

En razón a la correlación entre parcelas adyacentes, los errores tienden a estar correlacionados en
ausencia de aleatorización. Por lo tanto, la aleatorización tiende a distribuir los efectos
correlacionados de las parcelas adyacentes, asegurando una distribución independiente de los
errores.

La posibilidad de detectar diferencias entre tratamientos aumenta en la medida que el error


experimental disminuye. Es imprescindible tener en cuenta todos los medios posibles para
minimizar el error experimental o sea la variación entre unidades experimentales que reciben el
mismo tratamiento.

En resumen la aleatorización busca los siguientes propósitos:

 Obtener una estimación válida del error experimental y las medias de los tratamientos.

 Evitar sesgos al comparar las medias de los tratamientos, evitando que un tratamiento sea
favorecido sobre otro. Se debe evitar una distribución así:

A A A A
B B B B
C C C C

1.3.3 Control local (o bloqueo). Hace referencia al control de la heterogeneidad del ambiente o
terreno donde se instala el experimento. Es la técnica que utilizan los investigadores para tratar de
que la variación de las respuestas se deba principalmente a factores controlables por el modelo
estadístico utilizado, es decir, permite aumentar la precisión de un experimento. Consiste en la
agrupación de las parcelas experimentales en subconjuntos homogéneos, cuando se sabe que el
total de las parcelas no posee la homogeneidad exigida. Un bloque es una porción de material
experimental que debe ser más homogénea que el conjunto total del material experimental.

6
A cada experimento puede ser asociado un modelo matemático. Este modelo debe contener,
dependiendo del contexto y del tratamiento estadístico a ser empleado, los efectos de los factores
y del error que afectan cada observación, o parámetros y otras variables a ellos asociados, o, una
combinación de estas situaciones.

1.4 LAS ESTRUCTURAS DE UN DISEÑO EXPERIMENTAL

1.4.1 Estructura de tratamientos. La estructura de tratamientos de un diseño experimental está


formada por un conjunto de tratamientos, combinaciones de tratamientos, o poblaciones que el
experimentador ha seleccionado para estudiar y/o comparar. Se construye a partir de los factores
o tratamientos que se han de comparar.

La escogencia de los tratamientos debe responder a los siguientes interrogantes:

• ¿Cuáles factores variarán?


• ¿Cuáles niveles probar?
• ¿Se va a probar la interacción entre los factores?
• ¿Qué tipos de testigos o estándares serán necesarios?
• ¿Los factores son continuos o discretos?

1. 4.2 Estructura de diseño. La estructura de diseño experimental consiste en la agrupación de las


unidades experimentales en bloques o grupos homogéneos.

Una vez elegida tanto la estructura de diseño como la estructura de tratamientos, el diseño
experimental queda definido mediante la descripción exacta del método de asignación aleatoria
(aleatorización) en las unidades experimentales (en la estructura de diseño). Por lo tanto el diseño
experimental comprende:

 La selección de la estructura de tratamientos.


 Las selección de la estructura de diseño y
 El método de aleatorización.

1.5 SUPUESTOS BÁSICOS DE LA ESTADÍSTICA EXPERIMENTAL PARAMÉTRICA

Para la realización de los análisis estadísticos paramétricos, algunos supuestos básicos son
necesarios y deben ser obedecidos, por lo menos, aproximadamente, so pena de incurrir en
interpretaciones o conclusiones erradas. Los principales supuestos son:

Los errores son independientes, con distribución normal, con media µ = 0 , varianza σ 2 y modelo
matemático lineal y aditivo. Además, se exige que los errores tengan todos la misma varianza y
que los datos sean cuantitativos, esto es, que encuadren en las escalas de proporción o de
intervalo.

Debe tener en cuenta el investigador que los errores nunca pueden ser eliminados, sólo pueden
ser minimizados, lo cual se consigue por medio de un conjunto de actividades o procedimientos,
entre las que se destacan las siguientes:

 Uniformización de las parcelas experimentales

7
 Parcela experimental de tamaño apropiado
 Uso de bordes
 Utilización de un número adecuado de repeticiones y, preferiblemente, igual para
todos los tratamientos
 Manejo de las unidades experimentales de forma homogénea
 Uso del diseño estadístico adecuado para las condiciones de realización del
experimento.

Cuando las varianzas no son iguales o aproximadamente iguales, o el modelo no es absolutamente


aditivo, o los datos no son de tipo cuantitativo, algunas transformaciones de los datos pueden ser
aplicadas para que estas condiciones se verifiquen. En muchos casos esto no es posible o efectivo,
entonces los procesos no paramétricos deben ser aplicados.

1.6. ESTADÍSTICAS DESCRIPTIVAS

1.6.1 Medidas de tendencia central

1.6.1.1 Moda. Valor más frecuente en una serie de valores. Si existe apenas u valor más frecuente,
la muestra o población es unimodal. Si más de un valor presenta mayor frecuencia, la muestra será
bimodal (dos valores) o multimodal (más de dos valores). Cuando los valores aparecen una única
vez, la muestra o población es amodal.

Ejemplo 1: 1, 2, 3, 4, 4, 4, 5, 6,7 (Unimodal), la moda es 4, con frecuencia 3.

Ejemplo 2: 1, 2, 3, 3, 4, 4, 5, 5, 5, 6, 6, 6,7, 8 (serie bimodal), las modas son 5 y 6, con frecuencia 3.

1.6.1.2 Mediana. Valor que divide una muestra o población ordenada en dos partes. Es el valor
central en una serie con número impar de elementos o la media aritmética de los valores centrales
en una serie con número par de elementos.

Ejemplo 1: 1, 2, 3, 4, 5, 6, 7, 9, 2. La mediana es el número 5.

Ejemplo 2: 1, 2, 3, 4, 6, 7, 8, 10, 11, 12. La mediana es la media aritmética de 6 y 7, esto es, 6,5

1.6.1.3 Media. La media o media aritmética es el valor obtenido por el cociente entre la suma de
los valores de una muestra o población y su número.
n

∑X i
µ= i =1
(Media de la población)
N
n

∑X
i =1
i
X = (Media de la muestra)
n

Se puede verificar por las definiciones de moda y mediana que la existencia de valores extremos
no afecta su valor, lo que no ocurre con la media aritmética, que es fuertemente afectada por la
existencia de valores extremos en la muestra o serie de valores analizados. A pesar de esto, la
media aritmética es un estimador de mínimos cuadrados, no viciado, de la media de una
población.

8
1.6.2 Medidas de dispersión

1.6.2.1 Varianza. Obtenida por el cociente entre la suma de cuadrados de los desvíos de cada
medida en relación a su media y el número de grados de libertad (de la muestra), o por el número
de individuos (de la población).

n 2

∑(y
i =1
i − y)
s =
2
(Varianza de la muestra)
n −1

n 2

∑ ( yi − y )
σ2 = i =1
(Varianza de la población)
N

Las siguientes fórmulas permiten hacer los mismos cálculos, de manera más fácil:
2
 n 
n  ∑
 yi 

∑ yi −  i =1 
2

i =1 n
s2 = ;
n −1
2
 n 
n  ∑
 yi 

∑ yi2 −  i =1 
N
σ2 = i =1
N

1.6.2.2. Desviación típica o patrón o estándar. Es la raíz cuadrada de la varianza.

s = s2 ; σ = σ 2

1.6.2.3. Coeficiente de variación (CV). Es el cociente entre la desviación típica y la media,


expresada en porcentaje.

s
CV = * 100
X

El coeficiente de variación es una expresión de la precisión de un experimento. Cada variable


posee una escala propia de coeficientes de variación que está relacionada con su variabilidad
intrínseca.

1.6.2.4. Error estándar de la media. El error estándar de la media, es decir, el error debido a la
estimación de la media poblacional a partir de las medias muestrales, es la desviación estándar de
todas las posibles muestras (de un tamaño dado) escogidos de esa población.

s
; También se puede expresar así: s x =
s
ES x =
n n

9
Videos de estadística descriptiva:

http://www.youtube.com/watch?v=BkSHNKjARYU

http://www.youtube.com/watch?v=IuX22-Epxzc

http://www.youtube.com/watch?v=E-Vpyi6hO9k

1.7 LA INFERENCIA ESTADÍSTICA

La inferencia estadística es el conjunto de métodos y técnicas que permiten inducir, a partir de la


información empírica proporcionada por una muestra, cual es el comportamiento de una
determinada población con un riesgo de error medible en términos de probabilidad.

Los métodos paramétricos de la inferencia estadística se pueden dividir, básicamente, en dos:


métodos de estimación de parámetros y métodos de contraste de hipótesis. Ambos métodos se
basan en el conocimiento teórico de la distribución de probabilidad del estadístico muestral que se
utiliza como estimador de un parámetro.

Los estimadores considerados antes de tomar la muestra, por ser funciones de variables aleatorias
son a su vez variables aleatorias.

Se pueden considerar dos formas de estimación: puntual y por intervalo.

1.7.1 Estimación puntual. Es un número o punto que estima el parámetro de interés, al cual se
llega utilizando la información de la muestra. Ejemplo: la media aritmética muestral X es un
estimador de µ , el parámetro de la población; la varianza de la muestras s 2 es un estimador de
) x
la varianza σ 2 de la población; la proporción muestral p = es un estimador de la proporción de
n
la población p . En una estimación puntual es conveniente indicar además del estimador (que es
un estadístico o función de las observaciones que se espera que refleje las características del
parámetro desconocido), el valor de la varianza o la desviación típica para dar una idea de la
confiabilidad del valor estimado.

Los estimadores considerados antes de tomar la muestra, por ser funciones de variables
aleatorias, son a su vez variables aleatorias. Una vez obtenidos los valores en la muestra, ya son
valores particulares de esa variable aleatoria y se les denomina estimaciones.

La estimación se divide en tres grandes bloques, cada uno de los cuales tiene distintos métodos
que se usan en función de las características y propósitos del estudio:

1. La estimación puntual puede abordarse por tres métodos: Método de los momentos; Método
de la máxima verosimilitud; Método de los mínimos cuadrados.

2. La estimación por intervalos.

3. La estimación bayesiana.

10
1.7.2 Estimación por intervalo, muestras grandes. Si se tiene una muestra aleatoria procedente
de una población con parámetro θ entonces un intervalo de confianza (L1 , L2 ) para dicho
parámetro es tal que

P (L1 ≤ θ ≤ L 2 ) = 1 − α en donde L1 y L2 se conocen como límites del intervalo y son


estadísticos, o sea, funciones de la muestra aleatoria, y el valor de (1 − α ) es conocido como nivel
de confianza.

Obsérvese que L1 y L2 son variables aleatorias, por lo cual (L1 , L2 ) es un intervalo aleatorio
antes de elegir la muestra; una vez se ha obtenido la muestra y se han definido valores
particulares para L1 y L2 , ya el intervalo deja de ser aleatorio, por lo cual en esta etapa carece de
sentido aplicar el concepto de probabilidad.

El intervalo aleatorio debe interpretarse en el sentido de que la probabilidad de que contenga al


parámetro es igual a 1 − α y no “la probabilidad de que el parámetro θ caiga en el intervalo”
porque θ es un número fijo. Se puede considerar que si se toman muestras repetidas de la misma
población y se obtienen los intervalos de confianza respectivos para el parámetro θ , entonces se
espera que el (1 − α ) por ciento de estos intervalos incluirán a θ .

1.7.2.1 Intervalo de confianza para la media. Considérese una población normal en donde se ha
tomado una muestra grande para estimar los parámetros y se desea obtener intervalos para µ
con coeficiente de confianza (1 − α ) , entonces:

X −µ
Z= ~ N (0,1)
σX

Si se indica como zα / 2 el valor de la tabla de Z, tal que el área de la derecha de zα / 2 es igual a


α / 2 , entonces P( Z > zα / 2 ) = α / 2 , en forma similar, P( Z < − zα / 2 ) = α / 2 por la simetría de la
curva, entonces: P(− zα / 2 < Z < zα / 2 ) = 1 − α

De acuerdo con lo anterior:

X −µ
P(− zα / 2 < Z< zα / 2 ) = P(− zα / 2 < < zα / 2 )
σX

11
= P(−σ X * zα / 2 < X − µ < σ X * zα / 2 )
= P( X − σ X * zα / 2 < µ < X + σ X * zα / 2 )
= P (L1 < µ < L2 ) = 1 − α

En donde:

σ
L1 = X − σ X * zα / 2 = X − * zα / 2
n
σ
L2 = X + σ X * zα / 2 = X + * zα / 2
n

Así se ha obtenido un intervalo (L1 , L2 ) con un coeficiente de confianza 1 − α para el parámetro


µ . Los estadísticos L1 y L2 se denominan límites de confianza (inferior y superior,
respectivamente).

Ejemplo: Al estimar la altura de árboles de Eucaliptus saligna, obtenidos a partir de una muestra
aleatoria con n=136; s = 3,45 y X = 15,08 . En vista del tamaño grande de la muestra, se puede
aproximar a σ por el valor 3.45 para obtener un intervalo de confianza para la media:

Para un intervalo de confianza 1 − α = 0,95 , se tiene:

zα / 2 = Z 0,025 = 1,96 , en las tablas, por lo cual:

3,45
L1 = X − σ X * zα / 2 = 15,08 − *1,96 = 14,50
136
3.45
L2 = X + σ X * zα / 2 = 15,08 + * 1,96 = 15,66
136

Por lo tanto, se estima que la altura promedia de los árboles está entre 14,50 y 15,66 m con un
coeficiente de confianza de 0.95. Este coeficiente de confianza indica que al repetirse el muestreo
se espera que el 95% de los intervalos obtenidos en esta forma contendrán a µ .

El ancho del intervalo de confianza depende de varios factores como se desprende de la ecuación
para los límites:

σ
Lìmites = X ± zα / 2
n

Puede observarse que la amplitud del intervalo depende de la varianza poblacional, del tamaño de
la muestra, del valor zα / 2 , el cual a su vez depende del coeficiente de confianza 1 − α .

Si se aumenta el coeficiente de confianza, aumenta el valor de zα / 2 y por lo tanto el intervalo se


amplía, lo cual está de acuerdo con la intuición, o sea, si se desea estar más seguros de que el

12
intervalo va a contener a µ , se debiera aumentar el ancho del intervalo. Esta situación puede
observarse al considerar diferentes coeficientes de confianza, así:

Coeficiente de α zα / 2 Intervalo
confianza ( 1 − α )
0,90 0,10 1,64 σ
X ± 1,64
n
0,95 0,05 1,96 σ
X ± 1,96
0,99 0,01 2,58 n
σ
X ± 2,58
n

Por otro lado, si se aumenta el tamaño de la muestra n, el valor X debería estar más cercano al
parámetro µ , por lo cual es de esperarse un intervalo más estrecho. También se desprende que
en poblaciones más uniformes (con menor varianza) los intervalos de confianza son más
estrechos, o sea, que la estimación de la media será más precisa.

La elección del valor 1 − α depende del grado de confiabilidad que desee el investigador en su
estimación. Por tradición se ha generalizado el uso del coeficiente de confianza de 0.95 que es
considerado como satisfactorio para fines prácticos en la mayoría de los casos, pero con la misma
lógica podría usarse otro valor cercano a la unidad, por ejemplo 0.92,0.98,etc.

Los métodos propuestos para la estimación por intervalo se apoyan en el supuesto de normalidad
en las observaciones. Sin embargo, cuando la población estudiada no es normal, pero el tamaño
de la muestra es grande, es posible utilizar el teorema central del límite para suponer normalidad
(aproximada) en el estimador y aplicar así la metodología planteada para la obtención del
intervalo de confianza para el parámetro.

1.7.2.2 Intervalo de confianza para el parámetro P de una distribución Binomial. Si X es una


variable aleatoria con distribución binomial, el mejor estimador del parámetro P es:

) X
P= , en donde X es el número de éxitos y n el número total de ensayos o tamaño de la
n
muestra. Puede demostrarse que este estimador es insesgado y tiene varianza mínima.

Cuando se tienen muestras pequeñas es posible obtener el intervalo de confianza para P


utilizando las probabilidades de la distribución Binomial. Sin embargo, son comunes las tablas y
gráficos con los límites de confianza respectivos.
)
Para el caso de muestras grandes, la distribución P es aproximadamente normal debido al
teorema central del límite; por lo cual:

)  Pq 
P ~ N  P, 
 n 

13
De este modo, un intervalo de confianza del 100(1 − α ) por ciento para el parámetro P está dado
por:

) )) )
pq
P ± zα / 2 . En esta expresión se ha utilizado el valor de P en lugar del parámetro P en la
n
desviación estándar, ya que es desconocido. Sin embargo, esta sustitución introduce muy poco
error cuando n es grande.

Ejemplo: En una muestra de 100 semillas, se obtuvo un 80% de germinación. Obtener un intervalo
de confianza del 95% para el verdadero porcentaje.

n = 100 ; p) = 0,80; q) = 0,20

Los límites de confianza para P se obtienen así:

) p) q) 0,8 * 0,20
P ± zα / 2 = 0,80 ± * 1,96 = 0,0784 . Por lo cual,
n 100

L1 = 0,7216 Y L2 = 0,8784 . Entonces un intervalo de confianza del 95% para el verdadero


porcentaje está entre 72,16% y 87,84%.

1.7.2.3 Intervalo de confianza para la diferencia de dos medias. Supóngase que se toman
muestras aleatorias en forma independientes para dos poblaciones A y B. Si las poblaciones son
normales o el tamaño de la muestra es grande, entonces se puede pensar que las medias
presentan distribución normal, así:

 σ2 
X 1 ~ N  µ1 , 1  para la población A;
 n1 

 σ2 
X 2 ~ N  µ 2 , 2  para la población B.
 n2 

Sea D = X 1 − X 2 , entonces:

E ( D ) = E ( X 1 − X 2 ) = µ1 − µ 2 = µ D

σ 12 σ 22
Var (D ) = Var ( X 1 − X 2 ) = + = σ D2 , ya que las muestras son independientes.
n1 n2
Puesto que la suma o diferencia de dos variables normales independientes presenta distribución
normal, entonces:

D ~ N (µ D , σ D2 )

14
Ahora se pueden aplicar los métodos expuestos anteriormente para obtener un intervalo de
confianza bajo distribución normal.

De este modo, un intervalo de confianza para µ D con un coeficiente de confianza 1 − α es:

σ 12 σ 22
D ± zα / 2 * σ D O bien X 1 − X 2 ± zα / 2 +
n1 n2

El intervalo propuesto se ha obtenido bajo el supuesto de que σ 12 y σ 22 son parámetros


conocidos, lo cual usualmente no ocurre, pero si los tamaños de las muestras son relativamente
grandes (por ejemplo, mayores de 30), entonces se pueden utilizar los estimadores
correspondientes para obtener un intervalo de confianza aproximado; de este modo los límites de
confianza para la diferencia de dos muestras serían:

s12 s 22
L1 = ( X 1 − X 2 ) − zα / 2 +
n1 n 2

s12 s 22
L2 = ( X 1 − X 2 ) + z α / 2 +
n1 n2

Ejemplo: se han cultivado dos variedades de maíz bajo condiciones muy uniformes, una regional
(A) y otra mejorada (B). El número de parcelas sembradas de cada variedad fue n A = 40 y
n B = 32 . Los rendimientos obtenidos por parcela y las varianzas estimadas fueron:

X A = 25 kg, s 2A = 2,2 ; X B = 34; s B2 = 6,3

Obtener un intervalo de confianza del 95% para la diferencia media.

D= XB −X A = 34 − 25 = 9

zα / 2 = 1,96 , por lo cual,

2,2 6,3
L1 = 9 − 1,96 + = 8,016
40 32

2,2 6,3
L2 = 9 + 1,96 + = 9,984 . Por lo tanto, un intervalo de confianza aproximado del 95% para
40 32
la diferencia media entre la variedad mejorada y la regional es [8 , 016 ; 9 , 984 ] kg.

1.7.2.4 Intervalo de confianza para la diferencia entre dos proporciones. Supóngase que dos
poblaciones binomiales A y B tienen parámetros P1 y P2 , respectivamente. Se extraen muestras
) )
independientes de tamaños n1 y n2 , respectivamente, y se calculan los estimadores P1 y P2 .

15
) )
Entonces la diferencia entre las proporciones P1 − P2 se estima por P1 − P2 . La esperanza y la
varianza de estas diferencias son:
) )
E ( P1 − P2 ) = P1 − P2
)) ))
) ) ) ) P1 q1 P2 q 2
Var ( P1 − P2 ) = Var ( P1 ) + Var ( P2 ) = + , ya que las muestras son independientes.
n1 n2

Cuando el tamaño de las muestras es grande, entonces el estimador de la diferencia tiende a la


distribución normal, por lo cual un intervalo de confianza para P1 − P2 con un coeficiente de
confianza 1 − α está dado por:

)) ))
) ) P1 q1 P2 q 2 ) )
P1 − P2 ± zα / 2 + . Este intervalo es aproximado pues se ha utilizado P1 y P2 en lugar
n1 n2
de P1 y P2 que son desconocidos.

Ejemplo: Al estudiar dos variedades de plantas de crisantemo A y B afectadas por cierta


enfermedad bajo condiciones de invernadero, se tomaron al azar 500 plantas de A, de las cuales
400 resultaron afectadas y 700 de B, de las cuales 476 resultaron afectadas. Obtener un intervalo
de confianza para la diferencia entre las proporciones de susceptibilidad en las dos variedades;
usar un coeficiente de confianza de 0,95.

Solución:

) 400
P1 = = 0,80 ; q)1 = 0,20
500

) 476
P2 = = 0,68 ; q) 2 = 0,32
700

Por lo cual un intervalo de confianza del 0,95 para P1 − P2 es:

0,80 * 0,20 0,68 * 0,32


(0,80 − 0,68) ± 1,96 +
500 700

L1 = 0,12 − 0,049 = 0,071


L2 = 0,12 + 0,049 = 0,169

O sea que la diferencia entre las proporciones de plantas afectadas está en el intervalo
[0,071;0,169 ] con un coeficiente de confianza de 0,95.
1.7.3 Estimación por intervalos - muestras pequeñas. En la sección anterior el intervalo de
confianza planteado se apoya en la distribución Z, en donde

16
X −µ
Z= . El estadístico Z presenta distribución normal cuando la población estudiada es
σ
n
normal. También puede aproximarse a la normal en cualquier población si el tamaño de la
muestra es grande. La metodología propuesta supone que el valor de σ es conocido, lo cual no es
común en la práctica. Sin embargo, cuando el tamaño de la muestra n es grande, es posible
sustituir a σ por s en las expresiones correspondientes y obtener así intervalos de confianza
aproximados.

Sin embargo, ¿qué sucede si el tamaño de la muestra es pequeño? En este caso no es conveniente
aproximar a σ por s , por lo cual se requiere un procedimiento alternativo.

1.7.3.1 La distribución de t de Student. William Sealy Gosset (1876-1937) estudió la distribución


que se genera al trabajar con muestras pequeñas procedentes de poblaciones normales y publicó
sus resultados bajo el seudónimo de Student; por esta razón la distribución se conoce como de t
de Student o simplemente distribución de t.

X −µ
Es posible demostrar que el estadístico sigue una distribución de t que presenta las
s
n
siguientes propiedades:

i) Es simétrica y con media cero

ii) Toma valores entre − ∞ y + ∞

iii) Está definida por su parámetro que son los grados de libertad n-1, o sea, el divisor usado al
calcular s 2 correspondiente a la muestra.

iv) Es de forma semejante a la normal estándar, sin embargo, la distribución de t es menos alta en
el centro y tiene colas más altas.

En vista de que el parámetro es n-1 o sea sus grados de libertad, entonces existe una distribución
de t diferente para cada valor de los grados de libertad. A medida que el número de grados de
libertad aumenta, la distribución de t tiende a la normal estándar; se ha comprobado que cuando
el número de grados de libertad es de 30 o más, las probabilidades de ambas curvas son muy
semejantes.

La distribución de t se ha tabulado ampliamente. En la primera columna de la tabla de t se


encuentran los grados de libertad; en el cuerpo de la tabla aparecen diferentes valores de tα (ν ) en
donde ν son los grados de libertad, de tal modo que:

P(t ≥ tα (ν ) ) = α . En vista de que la curva es simétrica, también se cumple que:

17
P(t ≥ tα ) = P(t ≤ −tα ) = α . Con frecuencia se encuentran tablas de dos colas, en donde las
probabilidades indican el porcentaje del área en ambas colas de la curva ( α / 2 en cada cola).

1.7.3.2 Intervalo de confianza para la media. Cuando se tienen muestras pequeñas (n<30) se
desea un intervalo de confianza para el parámetro µ , entonces es posible utilizar las propiedades
de la distribución de t, así:

X −µ s
t= , en donde s X =
sX n

P( −tα / 2 ≤ t ≤ tα / 2 = 1 − α

Por lo cual,
X −µ
1 − α = P (− tα / 2 ≤ t ≤ tα / 2 ) = P( −tα / 2 ≤ ≤ tα / 2 )
sX
= P( X − s X * tα / 2 ≤ µ ≤ X + s X * tα / 2 ) = P(L1 ≤ µ ≤ L2 ) . En donde,
L1 = X − s X * tα / 2
L2 = X + s X * t α / 2

Ejemplo: Para estimar el peso promedio de los rábanos de cierta variedad se ha tomado una
muestra de 12 unidades, obteniéndose los siguientes valores en gramos: 88, 96, 103, 89, 94, 100,
98, 104, 95, 92, 90, 87.

Obtener un intervalo de confianza del 95% para el peso promedio.

Solución:

X = 94,67 ; s 2 = 32,97

s2 32,97
sX = = = 1,66 . El valor de tα / 2 se obtiene en las tablas con n-1 grados de libertad,
n 12
por lo cual: tα / 2 (11) = 2,20

Entonces:

L1 = X − s X * tα / 2 = 94,67 − 1,66 * 2,20 = 91,01

L2 = X + s X * tα / 2 = 94 ,67 + 1,66 * 2,20 = 98,32

De acuerdo con lo anterior, un intervalo de confianza del 95% para el peso promedio µ de los
rábanos es [91,91;98,32 ] g.

18
La distribución de t fue derivada considerando muestras aleatorias a partir de una distribución
normal, por lo cual, su uso es válido cuando se estudian poblaciones normales. Sin embargo, la
experiencia ha demostrado que pueden tolerarse desviaciones moderadas de este requisito.
Muchos investigadores conceptúan que si la distribución de las observaciones es en forma de
montículo, puede utilizarse la distribución de t con el fin de obtenerse inferencias aproximadas a
los parámetros.

1.7.3.3 Intervalos de confianza para varianzas-distribución ji cuadrado. En ciertos ensayos puede


resultar de gran interés para el investigador la estimación de la varianza poblacional. Por ejemplo,
en los instrumentos de medición científica se debe esperar poca variabilidad en las medidas para
así garantizar una determinada precisión en las estimaciones. Los artículos que se producen en un
proceso industrial deben tener un mínimo de variabilidad con el objeto de reducir el número de
productos cuyo tamaño esté por fuera de los límites aceptables y que podrían ser descartables. Así
mismo, la obtención de productos agrícolas uniformes con respecto a ciertas características puede
resultar de gran importancia para efectos de mercadeo e industrialización. También en los
procesos de mejoramiento genético de las plantas se requiere evaluar y descomponer la
variabilidad de las poblaciones en sus diferentes fuentes.

Un estimador apropiado para la varianza de la población σ 2 está dado por s 2 que se obtiene
mediante la expresión:

∑ (X )
2
−X
=
i
s 2
, en donde n es el tamaño de la muestra. El valor s 2 es un estimador
n −1
insesgado de la varianza poblacional σ 2 .

Para la obtención de un intervalo de confianza para σ 2 se utiliza la distribución Ji cuadrado.

1.7.3.4 Distribución Ji cuadrado. Si se considera que Z es una variable aleatoria con distribución
normal estándar, entonces:

χ 2 (ν ) = Z 12 + Z 22 + ... + Zν2

Lo cual indica que la variable aleatoria generada por esta suma de variables al cuadrado presenta
distribución Ji cuadrado con ν grados de libertad.

La nueva variable es positiva y su parámetro son los grados de libertad, o sea, el número de
variables independientes que se suman. Puede demostrarse que si se tienen dos o más variables
aleatorias independientes con distribución Ji cuadrado, entonces, su suma tendrá distribución Ji
cuadrado con los grados de libertad correspondientes a la suma de los grados de libertad de las Ji
cuadrado, esto es:

k
χ 2 (ν 1 ) + χ 2 (ν 2 ) + ... + χ 2 (ν k ) = χ 2 (ν ) , con ν = ∑ν i
i =1

Este resultado se conoce como la propiedad reproductiva de la Ji cuadrado.

19
Se puede demostrar que el valor esperado de una variable aleatoria con distribución Ji cuadrado
son sus grados de libertad, o sea:

[
E χ 2 (ν ) = ν]
La forma de la distribución es asimétrica y sus probabilidades están tabuladas, de tal forma que
una vez definida la distribución por sus grados de libertad, es posible encontrar en la tabla un valor
χ α2 (ν ) tal que:

( )
P χ 2 ≥ χ α2 (ν ) = α

Por lo cual χ α2 (ν ) es aquel valor de la variable aleatoria Ji cuadrado tal que el área bajo la curva a
su derecha es α

La figura muestra la P χ10


2
( )
≥ 18,3 = α = 0,05

Ejemplo: En una distribución Ji cuadrado con 20 grados de libertad, encontrar el valor de la


variable tal que la probabilidad de un valor mayor o igual sea 0,05, o sea:

( )
P χ 2 ≥ χ 02,05(20 ) = 0,05

Para 20 grados de libertad y α = 0,05 se obtiene en la tabla:

χ 02,05(20) = 31,41

1.7.3.5 Intervalo de confianza para la varianza. Si se ha obtenido una muestra aleatoria de


tamaño n a partir de una población normal, es posible demostrar que:

(n − 1)s 2 ~ χ (2n −1)


σ 2

Teniendo en cuenta esta propiedad, es posible derivar un intervalo de confianza para la varianza
de la población.

20
Utilizando las tablas de la distribución χ (2n −1) se encuentran los valores χ12 y χ 22 tales que

( )
P χ 12 ≤ χ 2 ≤ χ 22 = 1 − α

( )
La figura muestra la P 3,25 ≤ χ 102 ≤ 20,5 = 1 − α = 0,95 .

Los valores χ12 = 3,25 y χ 22 = 20,5 corresponden a:

χ 12 = χ (21−α / 2 )(n −1) y χ 22 = χ (2α / 2 )(n −1) en las tablas, por lo cual:


P χ 12 ≤
(n − 1)s 2 ≤ χ 2  = 1 − α
2
 σ2 
 (n − 1)s 2
(n − 1)s 2  = 1 − α
P ≤ σ 2
≤ 
 χ2 χ 12 
2

O sea:

( )
P L1 ≤ σ 2 ≤ L2 = 1 − α , con L1 =
(n − 1)s 2 y L2 =
(n − 1)s 2
χ 22 χ 12

De acuerdo a lo anterior se ha obtenido un intervalo con un coeficiente de confianza 1 − α para la


varianza de la población σ 2 . Los límites de confianza son entonces L1 Y L2 .

Ejemplo: Se desea evaluar un método para la determinación de aflatoxinas en cereales


almacenados. Para ello se efectuó una contaminación previa de 100 partes por millón (ppm) en
una porción del material. Después de homogenizar la sustancia se obtienen 10 determinaciones,
cuyos valores en ppm fueron: 104, 96, 102, 99, 103, 100, 98, 103, 97, 102. Obtener un intervalo de
confianza del 90% para la varianza σ 2 .

21
Solución:

n = 10; s 2 = 7,82; α = 0,10

χ12 = χ (21−α / 2 )(n −1) = χ 02,95(9 ) = 3,32

χ 22 = χ (2α / 2 )(n −1) = χ 02,05(9 ) = 16,92

Por lo cual:

L1 =
(n − 1)s 2 =
9 * 7,82
= 4,15
χ 2
2 16,92

L2 =
(n − 1)s 2 =
9 * 7,82
= 21,20
χ 2
1 3,32

Entonces se espera que la varianza σ del método se encuentre entre los valores 4,15 y 21,20 con
2

un coeficiente de confianza del 90%.

1.7.3.6 La distribución Ji cuadrado y la distribución t. Se tiene que el estadístico t para muestras


X −µ
pequeñas es t = ; sin embargo, la definición de la distribución de t, propiamente, se deriva
s
n
a partir de la distribución Ji cuadrado en la siguiente forma:

Sea Z una variable aleatoria con distribución normal estándar y sea χ (2ν ) una variable con
distribución Ji cuadrado con ν grados de libertad e independiente de Z, entonces la relación:

Z
presenta distribución de t Student con ν grados de libertad.
χ2
ν

Si en la expresión anterior se considera que:

Z=
X −µ
y además,
(n − 1)s 2 ~ χ (2n −1)
σ σ 2

22
Entonces:

X −µ
σ
n X −µ
t= =
(n − 1)s 2 s
σ 2 (n − 1) n

La ecuación anterior es la que se ha utilizado para la obtención de los intervalos de confianza con
muestras pequeñas.

1.8 PRUEBAS DE HIPÓTESIS

1.8.1 Concepto de hipótesis y tipos de errores. Una hipótesis estadística es una afirmación que se
hace sobre uno o varios modelos probabilísticos. Por lo general esta afirmación se refiere a los
parámetros para explicar las características de las poblaciones o fenómenos en estudio. La prueba
de hipótesis es el procedimiento utilizado a partir de una muestra para juzgar si la hipótesis es
factible.

Una hipótesis puede ser por ejemplo, que el porcentaje de germinación de cierta semilla sea de
90% o más, o que no existe diferencia entre los promedios µ1 y µ 2 de dos poblaciones.

Una hipótesis que será sometida a prueba por el investigador constituye la hipótesis planteada y
por lo general se le indica como hipótesis nula H O (que incluye la opción de “no diferencia”).

Por ejemplo:

H 0 : P ≥ 0,90 , que indica que la proporción P de germinación de cierta semilla es mayor o igual a
0,90.

H 0 : µ1 = µ 2 , que indica que no existe diferencia entre las medias de dos poblaciones.

Se le llama hipótesis alternativa a la o las hipótesis que pueden ser aceptadas como ciertas si es
que la hipótesis planteada se rechaza por ser poco probable que resulte verdadera. El número de
hipótesis alternativas puede ser una o dos, dependiendo del conocimiento que tenga el
investigador.

Por ejemplo, si un productor de semillas afirma que el porcentaje de germinación de una semilla
es ≥ 90%, entonces la hipótesis alternativa será:

H A : P < 90%; en este caso se dice que la prueba es de una cola.

Si en un ensayo interesa probar el rendimiento de un cultivo con y sin fertilización, entonces las
hipótesis serán:

23
H 0 : µ 0 = µ1

H A : µ1 > µ 0

En donde µ 0 es el rendimiento promedio sin fertilización y µ1 el rendimiento promedio con


fertilización. Obsérvese que de acuerdo a la naturaleza del problema se ha descartado la hipótesis
H A : µ1 < µ 0 , pues se espera que el fertilizante no va a disminuir los rendimientos.

Si el investigador no tiene bases para descartar una de las hipótesis alternativas, entonces la
prueba será de dos colas. Por ejemplo, al comparar el rendimiento de dos variedades mejoradas,
las hipótesis son:

H 0 : µ1 = µ 2

H A : µ1 ≠ µ 2

Esta hipótesis alternativa presenta dos opciones µ1 › µ 2 y µ1 ‹ µ 2 , pues no se conoce,


previamente, cuál de las dos variedades tendrá mayor rendimiento.

La decisión de aceptar o rechazar la hipótesis nula se basa en la información obtenida a partir de


una muestra extraída de la población de interés.

Con base en los valores obtenidos en la muestra es posible calcular un sólo valor que se denomina
estadístico de prueba. El conjunto de todos los valores que el estadístico de prueba puede tomar
se divide en dos conjuntos o regiones, uno correspondiente a la región de rechazo y otro a la
región de aceptación. Si el estadístico de prueba toma un valor dentro de la región o zona de
rechazo, entonces la hipótesis nula es rechazada y se decide a favor de la hipótesis alternativa; si
el estadístico de prueba toma un valor en la región de aceptación, la hipótesis nula es aceptada.

La aceptación de la hipótesis alternativa tiene carácter de prueba, pues es tomada como cierta con
un pequeño porcentaje de duda, usualmente del 1% o del 5%. En cambio, la aceptación de la
hipótesis nula no conlleva carácter de prueba pues carece de respaldo probabilístico, debe
interpretarse en el sentido de que la diferencia obtenida en el experimento no permite probar con
alta confiabilidad que los parámetros verdaderos difieren.

Debe anotarse que una hipótesis estadística es esencialmente diferente de una proposición
matemática que puede aceptarse como verdadera o falsa en forma concluyente, en cambio una
hipótesis estadística se fundamenta en el comportamiento de una variable aleatoria (el estadístico
de prueba) y por lo tanto está sujeta a errores cuando se acepta o se rechaza.

1.8.2 Tipos de errores.

i) Siendo cierta la hipótesis planteada en la población, el investigador estudiando la muestra llega


a la conclusión de aceptar dicha hipótesis, por lo cual toma una decisión correcta. Por ejemplo, si
la calidad organoléptica del aguacate enlatado bajo ciertas condiciones es igual a la del aguacate
fresco, y la muestra permite confirmar esta situación, se estará tomando una decisión correcta.

ii) Siendo falsa la hipótesis planteada en la población, el investigador estudiando la muestra llega
a esta hipótesis, por lo cual la decisión tomada es correcta. Por ejemplo: para estudiar el efecto

24
del inóculo Rhizobium sp sobre la altura de las plantas, se formula la hipótesis nula H 0 : µ 0 = µ1
en donde µ 0 es la media de altura de plantas sin inóculo y µ1 es la media de altura de plantas con
inóculo, frente a la alternativa H A : µ1 > µ 0 . Si en la situación real de la población de plantas, el
inóculo tiene efecto sobre la altura de las plantas o sea que se rechaza H 0 y la muestra conduce
al investigador a rechazar una hipótesis, entonces la decisión será correcta.

iii) Siendo cierta la hipótesis planteada en la población, sin embargo, el investigador estudiando la
muestra, rechaza la hipótesis, entonces estará cometiendo un error que se denomina tipo I.

Por ejemplo, si la situación es que la calidad del aguacate no se afecta con el enlatado y el
investigador al analizar una muestra concluye que si se afecta, entonces estará cometiendo un
error, por lo cual la decisión que ha tomado con respecto a la población es incorrecta.

iv) Siendo falsa la hipótesis planteada en la población, sin embargo, el investigador estudiando la
muestra, acepta la hipótesis, estará cometiendo un error que se denomina tipo II. Ejemplo: al
estudiar el efecto del inóculo en la población, la situación real es que el inóculo tiene efecto sobre
el crecimiento de las plantas y el investigador al examinar la muestra concluye que el inóculo no
tiene efecto, estará cometiendo un error y la decisión será incorrecta.

Estas diferentes posibilidades se presentan en la siguiente tabla:

Situación real desconocida


Situación planteada H 0 es cierta H 0 es falsa
Decisión tomada con Aceptar H 0 Decisión correcta Error tipo II
la muestra Error tipo I Decisión correcta
Rechazar H 0

Con el error tipo I, se rechaza una hipótesis que es cierta y con el error tipo II se acepta una
hipótesis que es falsa.

La probabilidad de cometer un error tipo I se designa con α y se denomina nivel de significancia


(a veces se designa con 1 − α ); los más utilizados son 0,05 y 0,01. La probabilidad de cometer un
error tipo II, se designa por β . La bondad de una prueba se mide a través de las probabilidades de
cometer errores tipo I y II, que en general deben ser bajas.

Considérese el siguiente experimento: cierta semilla que posee un 90% de germinación, se somete
durante cierto tiempo a determinadas condiciones de almacenamiento. Después del periodo de
almacenamiento, un investigador desea estudiar si el porcentaje de germinación ha disminuido;
para ello toma una muestra de semillas al azar y determina su viabilidad. Las hipótesis planteadas
con respecto a la población son:

H 0 : P = 0,90

H A : P < 0,90

25
)
Si la hipótesis nula es cierta, el estadístico P que se ha obtenido a partir de una muestra de
tamaño n, tendrá cierta distribución alrededor del parámetro P = 0,90 . Sin embargo, por efectos
)
del muestreo P es una variable aleatoria que puede tomar valores tan bajos que resulten
improbables en la distribución con P = 0,90 , lo cual conllevaría a rechazar la hipótesis
H 0 : P = 0,90 a pesar de ser cierta. Lo anterior indica que se estaría cometiendo un error tipo I al
rechazar con la muestra una hipótesis que es cierta. Al investigador le interesa que la probabilidad
α de cometer este error sea baja.
Los valores de P que superen a cierto valor crítico caerían dentro de la región de rechazo de
H 0 : P = 0,90 . Los valores de P que sean inferiores a ese valor crítico, caerían dentro de la zona de
aceptación de la hipótesis nula.

Si la hipótesis nula es falsa, indicaría que la proporción de germinación es menor de 0.90. Su


verdadero valor P0 sería desconocido para el investigador, pero se puede estimar a través del
muestreo.

Para un tamaño de muestra fija, al disminuir α o sea la probabilidad de cometer error tipo I, se
aumenta β y viceversa. Por otro lado, si se aumenta el tamaño de la muestra entonces las
 ) p) * q) 
varianzas de los estimadores disminuyen VarP =  , lo cual hace que la forma de las
 n 
distribuciones sea más aguda y por consiguiente disminuyen α y β . Lo anterior tiene una
explicación lógica, ya que al aumentar el tamaño de la muestra n, habrá mayor información
disponible sobre la cual se pueda apoyar la decisión y entonces se espera que disminuyan las
probabilidades de errores tipo I y II.

La probabilidad de cometer error tipo II, varía, dependiendo del verdadero valor del parámetro
poblacional que se está probando (el cual es desconocido), entonces tampoco es posible evaluar
esta probabilidad β , ni fijarse a voluntad. El máximo valor de α o error tipo I sí puede ser fijado
por el investigador, previamente, y de acuerdo a éste, es posible definir las regiones de aceptación
o rechazo para el estadístico de prueba.

En una prueba, la hipótesis alternativa es rechazada con probabilidad β , cuando es cierta, y por
lo tanto, es aceptada con probabilidad 1 − β . Esta capacidad para detectar la hipótesis alternativa
cuando es cierta, es lo que se denomina potencia de la prueba (1 − β ) . Es posible, entonces
construir una curva de potencia teniendo en cuenta el valor de P y valores hipotéticos del
parámetro P0 para un tamaño de muestra n dado y un nivel de significancia previamente
escogido.

1.8.3 Pasos en la realización de una prueba de hipótesis

i) Se plantean las hipótesis con respecto a la(s) población (es) en estudio. La hipótesis alternativa
es la hipótesis estadística que el investigador supone que es verdadera, mientras que la hipótesis
nula es la que supone como falsa y por lo tanto desea rechazar.

ii) Se especifica el nivel de significancia, o sea la máxima probabilidad de cometer error tipo I que
el investigador está dispuesto a aceptar. Son usuales valores de α = 0,05 ó α = 0,01, aunque
podría ser otro valor relativamente bajo. Si se rechaza al nivel α = 0,05 se dice que los resultados

26
muestrales son diferentes en forma significativa. Si se rechaza al nivel α = 0,01 se dice que el
resultado de la prueba es altamente significativo. La selección del nivel α depende de la confianza
que desee el investigador en su prueba.

En general, las consecuencias que los errores tipo I y II pueden ocasionar, varían de acuerdo a la
naturaleza del problema que se está estudiando. Por ejemplo, supóngase que una empresa de
agroquímicos lanza al mercado un insecticida garantizando por lo menos un determinado
porcentaje de mortalidad de cierta plaga. Una oficina de control estatal realiza el chequeo
correspondiente. Las hipótesis planteadas por el investigador son:

H 0 : µ ≥ µ0

H A : µ < µ0

En este caso, un error tipo I en la investigación conllevaría a rechazar la hipótesis nula siendo
verdadera, lo cual implicaría negación de la licencia de venta del producto, con el consiguiente
perjuicio para el productor. Pero también existe el riesgo de que se acepte la hipótesis nula siendo
falsa (error tipo II), por lo cual el error afectaría al consumidor. El investigador en su deseo de
proteger al consumidor puede disminuir el valor de β , aumentando el nivel de α o
aumentando el tamaño de la muestra.

iii) Se define el estadístico de prueba, cuya distribución muestral se conoce bajo el supuesto de
que la hipótesis nula es verdadera.

Es posible utilizar como estadístico de prueba el estimador del parámetro θ teniendo en cuenta
las hipótesis que se han formulado, de tal modo que si las hipótesis se refieren a la media µ el
estadístico de prueba será X o si se refiere a la varianza σ 2 , el estadístico de prueba será s 2

Sin embargo, los estadísticos de prueba más utilizados son los valores de la distribución
probabilística generada por el estimador una vez que se acepta la hipótesis nula como cierta.

Por ejemplo:

t=
X −µ
; Z=
X −µ
; χ2 =
(n − 1)s 2 ; F=
s12
, etc.
s σ σ2 s 22
n n

iv) Regla de decisión. De acuerdo con la distribución del estadístico de prueba, se adopta una regla
de decisión que define una región de rechazo y una región de aceptación. La región de rechazo
está formada por los valores del estadístico de prueba que son improbables bajo la hipótesis nula,
mientras que la región de aceptación son los valores del estadístico de prueba que tienen mayor
probabilidad de ocurrir si la hipótesis nula es verdadera.

El valor crítico del estadístico de prueba para definir estas regiones se obtiene teniendo en cuenta
su distribución de acuerdo a la hipótesis nula, el nivel de significancia α que ha sido previamente
establecido y la ubicación de la hipótesis alternativa.

La regla de decisión indica que si el valor estadístico está en la región de rechazo, la hipótesis nula
se rechaza con un nivel de significancia α . Si el valor del estadístico está en la zona de aceptación,

27
entonces la hipótesis nula no se rechaza al nivel de significancia α establecido. La aceptación de
la hipótesis nula debe interpretarse en el sentido de que los datos muestrales no proporcionan
suficiente evidencia para que se produzca el rechazo al nivel α escogido; en ningún caso debe
tomarse la hipótesis nula como verdadera, ya que su aceptación nunca reviste carácter de prueba.

El rechazo de la hipótesis nula es más contundente que su aceptación. Cuando se rechaza, el


riesgo de equivocación está bajo control, limitando su valor máximo a α ; en cambio cuando se
acepta, el riesgo de equivocación β , depende del verdadero valor del parámetro, que es
desconocido, por lo cual la decisión tiene cierto grado de incertidumbre y se queda con el criterio
de que los datos muestrales no proporcionan evidencia para dudar del cumplimiento de la
hipótesis nula.

1.8.4 Hipótesis referentes a la media de una población. Se desea probar la hipótesis de que la
media de la población es igual a un valor dado µ 0 frente a una alternativa conveniente.

H 0 : µ = µ0

H A : µ ≠ µ 0 (Prueba de dos colas)

O bien:

H 0 : µ = µ0

H A : µ > µ 0 (Prueba de una cola)

O µ < µ0

Una vez definido el nivel de significancia α la metodología para adelantar la prueba consiste en
obtener la muestra, calcular el estadístico de prueba y verificar si éste se ubica en la región de
rechazo o aceptación, lo cual lo definirá el criterio de aceptar o rechazar H 0 . El estadístico usual
es:

X − µ0
t= , para muestras pequeñas, o bien,
sX

X − µ0
Z= , para muestras grandes o con σ conocida.
σX

1.8.4.1 Prueba de una cola. Si al estudiar el promedio de una característica se sabe por los
antecedentes que se tienen que una hipótesis alternativa se puede descartar, el procedimiento se
denomina prueba de una cola. Por ejemplo:

H 0 : µ = µ0

H A : µ > µ 0 . Para realizar la prueba se calcula el valor de t c o Z, según el tamaño de la muestra


pequeño o grande, respectivamente.

28
X − µ0
tc = . El valor de t en las tablas que define la zona de aceptación o rechazo es t c , de este
sX
modo la región de rechazo R es:

R = {t t ≥ tα (n −1 ) }
Si t ∈ R , entonces se rechaza H 0

Si t ∉ R, entonces se acepta H 0

Ejemplo: el contenido promedio de aceite de una variedad de maní es del 38%. A través de de un
proceso de selección se obtiene una nueva variedad y se supone que ésta presenta un contenido
de aceite superior a la variedad original. Se toma una muestra al azar de 60 plantas y se determina
el contendido de aceite para cada una. Con base en los valores encontrados se tiene:

X = 42%; s 2 = 87

Se desea probar si el contenido de aceite ha cambiado.

Se plantean las siguientes hipótesis:

H 0 : µ = 38

H A : µ > 38

Para calcular el valor del estadístico t , primero se obtiene s X .

s2 87 42 − 38
sX = = = 1,204 ; tc = = 3,32
n 60 1.204

Tomando un α = 0,05 , se obtiene el valor de t en las tabla con 59 grados de libertad,


t 0,05 (59 ) = 1,67

29
En vista de que t c > t 0,05 (59 ) , entonces se rechaza H 0 con un nivel de significancia del 0,05 y se
puede afirmar que la nueva variedad presenta un contenido de aceite superior a la original. Esta
afirmación presenta un respaldo probabilístico superior al 95%.

1.8.4.2. Prueba de dos colas. Cuando no se tiene criterio para suponer el cumplimiento de una de
las hipótesis alternativas, entonces se plantean las hipótesis:

H 0 : µ = µ0

H A : µ ≠ µ0

En este caso la hipótesis alternativa puede tomar cualquiera de las opciones µ › µ 0 o µ ‹ µ 0 .

El estadístico de prueba sigue siendo el valor de t c o Z, según el tamaño de la muestra.

X − µ0
tc =
sX

En vista de que se tiene una prueba bilateral o de dos opciones para la hipótesis alternativa,
entonces el nivel de significancia α se reparte en dos regiones de rechazo, de tal modo que a
α
cada cola de la distribución del estadístico corresponde un valor .
2

En este caso la región crítica R está formada por: R = R1 ∪ R2 en donde, para muestras
   
pequeñas, R1 = t / t ≤ −t α  y R2 = t / t ≥ t α 
 2   2 

Si t c ∈ R , entonces se rechaza H 0 con un nivel de significancia de α . Otra forma de expresar la


regla de decisión es:

Rechazar H 0 si t c ≥ tα / 2

30
Ejemplo: una máquina desgranadora de maíz está calibrada para procesar 60 kg por minuto. Para
realizar un chequeo, se toman 10 muestras obteniéndose los siguientes valores: 58, 61, 59, 57, 60,
63, 56, 59, 58, 60. ¿Presentan los resultados evidencia suficiente para afirmar que la máquina está
desajustada?

Usar α = 0,05

Las hipótesis a probar son:

H 0 : µ = 60

H A : µ ≠ 60

Para calcular el valor del estadístico t , primero se obtiene X y s X .

X = 59,1 ; s = 2,025

s 2,025 X − µ0 59,1 − 60
sX = = = 0,64 ; tc = = = −1,40
n 10 sX 0,64

El valor de tα / 2 con 9 grados de libertad se obtiene en las tablas, t 0,025(9 ) = 2,26

En vista de que t c < t (α / 2 ) , entonces no se rechaza H 0 con un nivel de significancia del 0,05 y se
puede concluir que no hay razón para pensar que la máquina esté descalibrada.

1.8.5 Hipótesis sobre la varianza de una población normal. La varianza es uno de los parámetros
de la distribución normal, su evaluación y prueba puede resultar de interés cuando se estudia el
grado de uniformidad alcanzado por un proceso o una población.

Con este parámetro también se pueden presentar pruebas de una o dos colas, dependiendo de la
naturaleza del problema.

Las hipótesis para las pruebas de una cola serían:

i) H 0 : σ 2 ≤ σ 02 H A : σ 2 > σ 02

ii) H 0 : σ 2 ≥ σ 02 H A : σ 2 < σ 02

Las hipótesis para las pruebas de dos colas serían:

i) H 0 : σ 2 = σ 02 H A : σ 2 ≠ σ 02

El estadístico de prueba es:

χ 02 =
(n − 1)s 2
σ 02

31
Si H 0 es cierta se espera que el estadístico χ 02 , se distribuya como una verdadera Ji cuadrado
con n-1 grados de libertad.

Las regiones críticas con un nivel α de significancia para las hipótesis mencionadas serían, en su
orden:

{
i) R = χ / χ ≥ χ α ( n −1)
2 2 2
}
2
{
ii) R = χ / χ ≤ χ (1−α ) (n −1))
2 2
}
{
iii) R = χ 2 / χ 2 ∈ R1 ∪ R2 }
En donde:

{
R1 = χ 2 / χ 2 ≤ χ (21−α / 2 )(n −1)) }
{
R2 = χ 2 / χ 2 ≥ χ α2 / 2(n−1) }
El valor χ α (n −1) es el valor de la abscisa en una distribución χ 2 con n-1 grados de libertad, de tal
2

modo que a la derecha de este punto corresponde un área α .

Ejemplo: Con el fin de establecer la variabilidad que presenta un equipo para determinar el
contenido de humedad de los cereales, se ha preparado una muestra homogénea con un 20% de
humedad. En ciertos procesos de investigación se requiere que la desviación típica en las
condiciones sea menor de 0,5%. Se toman 8 lecturas con el aparato y se obtienen los siguientes
valores:

32
20,7; 21,9; 20,3; 19,3; 19,6; 19,3; 20,6; 21,4.

Probar con un nivel de significancia α = 0,05 . Entonces, σ 2 = 0,25 y las hipótesis a probar son:

H 0 : σ 2 ≥ 0,25

H A : σ 2 < 0,25

Si se rechaza H 0 entonces se podría aceptar el equipo como adecuado con un nivel de


significancia α .

El valor de s 2 en la muestra es 0,634, por lo cual:

7 * 0,634
χ 02 = = 17,75
0,25

Puesto que la hipótesis alternativa corresponde a la cola izquierda, se debe buscar el valor crítico
de χ 2 en esta región o sea, el correspondiente a χ (21−α )(7 ) = χ 02,95(7 ) = 2,1673

En vista de que χ 02 › χ (1−α )(7 ) , el estadístico no pertenece a la zona de rechazo y se acepta H 0 ,


2

por lo cual se concluye que el equipo no garantiza la uniformidad requerida.

1.8.6 Hipótesis sobre la proporción de una población. Si el investigador tiene interés en probar
hipótesis que se refieren a la proporción de individuos que poseen cierta característica en una
población, puede utilizar métodos derivados de la aproximación a la normal, cuando se justifique
tal aproximación (np y nq mayores que 5).

Las pruebas pueden ser de una o dos colas como en el caso de hipótesis sobre medias, pero
utilizando como estadístico de prueba la variable Z, ya que éste surge de una aproximación de la
Binomial a la normal. El estadístico de prueba es entonces:
)
P − P0
Zc =
p0 q0
n

Ejemplo: considérese el caso de la semilla que ha sido almacenada con un 90% de germinación. Al
cabo de cierto tiempo se desea saber si ha disminuido la germinación, para lo cual se hace una
prueba con base en 200 semillas tomadas al azar, encontrándose un porcentaje de germinación de
87%. ¿Presentan evidencia estos resultados para afirmar que la semilla ha disminuido su
germinación? Usar α = 0,05

Las hipótesis a probar son:

H 0 : P = 0,90

H A : P < 0,90

33
Se trata entonces de una prueba de una cola, ya que se descarta la opción de que la semilla haya
aumentado su poder germinativo.

El estadístico de prueba es:


)
P − P0 0,87 − 0,90
Zc = = = −1,414
p 0 q0 0,9 * 0,1
n 200

El valor de Z α que define la región crítica corresponde al valor tabulado en la cola de la izquierda
de la distribución normal estándar, o sea − Z α = − Z 0,05 = −1,65 .

En vista de que el valor Z C corresponde a la zona de aceptación, entonces no se rechaza H 0 , por


lo cual no existen razones suficientes para afirmar que el porcentaje de germinación de la semilla
ha disminuido.

1.8.7 Comparación de dos poblaciones. El investigador a menudo está interesado en efectuar


comparaciones entre los parámetros de dos poblaciones. Por ejemplo cuando estudia el
rendimiento promedio de una variedad mejorada para una zona agrícola con respecto al
rendimiento medio de una variedad regional (prueba de promedios) o la variabilidad que
presentan dos materiales genéticamente diferentes para ser sometidos a un programa de
selección (prueba de varianzas) o los porcentajes de germinación de dos lotes de semillas (pruebas
de proporciones).

Las poblaciones en estudio pueden darse en la naturaleza, por ejemplo los suelos de dos regiones,
las condiciones ambientales de dos localidades, la densidad de la madera de dos especies
forestales, etc., o también pueden ser generadas por el investigador bajo condiciones apropiadas,
por ejemplo, estacas de cierta especie que han sido sometidas a dos reguladores de crecimiento
diferentes, plantas a las que se ha aplicado dos fertilizantes para evaluar su efecto sobre el
rendimiento, mediciones de una sustancia mediante dos métodos, etc. Cada una de estas
poblaciones está sometida a condiciones especiales que se desean estudiar y se denominan
tratamientos. Las conclusiones obtenidas son entonces válidas para poblaciones bajo condiciones
similares.

1.8.7.1 Comparación de medias con variables pareadas. Una de las formas de experimentación
más simple consiste en parear unidades que pueden ser parcelas, plantas, ramas, hojas, trozos de
madera, etc., en forma tal que los miembros de cada par sean similares y a cada uno de ellos se
asigna un tratamiento al azar.

Los pares de individuos pueden ser diferentes, pero los individuos dentro de cada par deben ser
homogéneos, de tal modo que las diferencias resultantes entre los miembros de cada par, al final
del experimento, deben ser atribuidas fundamentalmente a los tratamientos.

Para el análisis estadístico, las diferencias (d i ) obtenidas entre los individuos de cada par se
consideran como variables aleatorias correspondientes a una población de diferencias.

34
La variabilidad de las d i en la muestra será tanto menor, cuanto más similares sean los individuos
de cada par, lo cual conlleva a un aumento en la capacidad del experimento para probar pequeñas
diferencias entre los tratamientos.

Considérese una muestra formada por n pares de observaciones, cada par recibe los dos
tratamientos X y Y al azar. La información resultante se indica mediante la siguiente notación:

Pares Observaciones Diferencias


1 X1 Y1 d1
2
X2 Y2 d2
3
. X3 Y3 d3
. . . .
. . . .
n . . .
Xn Yn dn

Si se considera que los pares son independientes y además que:


(
X ~ N µ x , σ x2 )
(
Y ~ N µ y , σ y2 )
Entonces la variable aleatoria D = X − Y tendrá distribución normal o sea:

(
D ~ N µ d , σ d2 )
En donde las diferencias d i que toma la variable aleatoria son independientes con media
µ d = E (X − Y ) = µ x − µ y

Las hipótesis que le interesa probar al investigador son:

H 0 : µ x = µ y ⇔ µ x − µ y = µd = 0
H A : µ x ≠ µ y ⇔ µ x − µ y = µd ≠ 0

La hipótesis alternativa podría ser también de una sola cola. Obsérvese que las hipótesis
referentes a medias de dos poblaciones, pueden plantearse como hipótesis sobre la media de una
población de diferencias d i a partir de una muestra de tamaño n extraída de esa población, o sea:

H 0 : µd = 0

H A : µd ≠ 0

Los métodos para probar esta hipótesis relacionada con la media de una población normal (de
diferencias) son los mismos que se trataron anteriormente.

El estadístico de prueba es:

35
d − µd
tc = , que bajo la hipótesis nula H 0 : µ d = 0 tomará la forma:
sd

d
tc = , el cual presenta distribución t con n-1 grados de libertad.
sd

El valor del estadístico de prueba se confronta con el valor tabulado al nivel de significancia α
correspondiente.

Ejemplo: Los métodos siguientes corresponden a un trabajo que se hizo con el objetivo de
estudiar un nuevo método para determinar el peso específico de la madera sin cortar los árboles,
utilizando un pequeño barreno. En el ensayo se tomaron 30 muestras de árboles de Pinus patula
consistentes en rodajas obtenidas a diferentes alturas; cada rodaja se sometió a dos tratamientos,
a saber:

A. Evaluación del peso específico por el método tradicional que se realiza con base en un pequeño
trozo de madera obtenido después de cortar el árbol.

B. Evaluación del peso específico usando un pequeño barreno, conocido como barreno Presler.
Este método no requiere derribar el árbol.

Método Diferencia Método Diferencia


Rodaja A B di Rodaja A B di
1 0,500 0,544 -0,044 16 0,541 0,507 0,034
2 0,451 0,477 -0,023 17 0,547 0,451 0,096
3 0,416 0,461 -0,045 18 0,480 0,569 -0,089
4 0,417 0,434 -0,017 19 0,561 0,584 -0,023
5 0,378 0,376 0,002 20 0,582 0,576 0,006
6 0,326 0,321 0,005 21 0,478 0,443 0,035
7 0,532 0,566 -0,034 22 0,554 0,461 0,093
8 0,471 0,517 -0,046 23 0,481 0,453 0,028
9 0,443 0,434 0,009 24 0,455 0,447 0,008
10 0,428 0,496 -0,068 25 0,491 0,438 0,053
11 0,459 0,475 -0,016 26 0,506 0,458 0,048
12 0,348 0,424 -0,076 27 0,470 0,429 0,041
13 0,593 0,554 0,039 28 0,430 0,437 -0,007
14 0,553 0,517 0,036 29 0,482 0,423 0,059
15 0,541 0,471 0,070 30 0,468 0,475 -007
Medias 0,479 0,474 0,0055

Para comparar los resultados se plantean las siguientes hipótesis:

H 0 : µd = 0

H A : µd ≠ 0

El estadístico de prueba es:

36
d − µd d
tc = ; bajo H 0 es t c =
sd sd

2
Para obtener s d , se calcula primero s d

( d)
∑ − ∑n
2
i
d i2
s d2 = = 0,0022613
n −1

Por lo cual:

sd2 0,0022613
sd = = = 0,00868
n 30

d = 0,0055

0,0055
El valor de t c es entonces: t c = = 0,633349
0,00868

Puesto que la prueba es de dos colas, el valor crítico de la distribución de t es t α / 2 . Si se utiliza un


α = 0,10 con n-1=29 grados de libertad, el valor tabulado es: t 0,05(29 ) = 1,70

En vista de que t < t 0, 05 entonces no se rechaza la hipótesis nula, o sea que los datos no
proporcionan evidencia para afirmar que los dos métodos difieren.

Para la aplicación del método de las variables pareadas se ha hecho énfasis en que los individuos
de cada par sean similares, aunque existan diferencias entre los pares. De hecho, si se presentan
grandes diferencias entre los pares, se amplía el alcance de la inferencia, pues la validez de las
conclusiones, se puede aplicar a las diferentes condiciones. Además, si los miembros de cada par
son muy similares se gana en precisión, pues la diferencia obtenida en cada par estará reflejando
en forma cercana los efectos de los tratamientos.

El parear observaciones resulta ventajoso, como se indicó antes, si los individuos de cada par son
similares, o sea, si el valor de la variable que se mide en ellos, tiende a ser alta o baja para ambos
individuos; lo cual indica que los miembros de cada par poseen, antes de iniciar el experimento,
cierto grado de covarianza o variación conjunta.

Lo anterior se puede analizar comparando la varianza de las diferentes D = X − Y bajo dos


situaciones, con muestras independientes y con muestras pareadas.

Con muestras independientes:

Var(D ) = Var( X − Y ) = Var( X ) + Var(Y )

Con muestras pareadas:

Var(D ) = Var( X − Y ) = Var( X ) + Var(Y ) − 2Cov( X , Y )

37
De este modo, con variables pareadas se espera que la varianza de las diferencias sea menor que
con muestras independientes, siempre y cuando exista cierto grado de covarianza o variación
conjunta entre las variables X, Y.

Sin embargo, debe tenerse en cuenta que los grados de libertad del estadístico de prueba t en el
caso de muestras independientes es 2(n-1), como se verá posteriormente, mientras que con
variables pareadas es (n-1). Esta disminución en los grados de libertad para el caso de variables
pareadas conlleva cierta pérdida de precisión en las estimaciones y en las pruebas, pues el valor de
t en las tablas aumenta a medida que los grados de libertad disminuyen, lo cual hace que los
intervalos de confianza para las diferencias sean más amplios y los errores en las pruebas
aumenten. De acuerdo con lo anterior debe tenerse en cuenta que la técnica del pareamiento no
siempre es ventajosa y, por el contrario, puede resultar desacertada si no existe una verdadera
razón para formar los pares, de tal modo que se garantice cierto grado de uniformidad entre los
individuos que conforman los pares.

1.8.7.2. Comparación de varianzas de dos poblaciones. Distribución de F. El investigador en


ciertos casos puede estar interesado en comparar las varianzas de dos poblaciones. Por ejemplo,

Cuando desea comparar la precisión de un dispositivo o un método para la medición de cierta


característica con respecto a otra, la estabilidad o uniformidad en dos procesos de producción, la
variabilidad de dos poblaciones de plantas, etc.

En forma intuitiva se considera razonable utilizar para la comparación el cociente de las dos
s12
varianzas muestrales 2 de tal modo que si el cociente está cercano a 1, no habrán razones
s2
suficientes para pensar que las varianzas poblacionales σ 12 y σ 22 difieren. Por otro lado, un valor
muy grande o muy pequeño estaría proporcionando evidencia de una diferencia entre las
varianzas poblacionales.

Los fundamentos para la comparación de varianzas se apoyan en la distribución de F.

Distribución de F:

Sean χ (m ) y χ (n ) dos variables aleatorias independientes con distribución Ji cuadrado con m y n


2 2

grados de libertad, respectivamente. Entonces, la variable aleatoria F definida como:

χ (2m ) / m
F= , presenta distribución F con m y n grados de libertad. La distribución F está
χ (n ) / n
completamente definida por los parámetros m y n que son los grados de libertad de las variables
Ji cuadrado que la originan.

Los valores de la variable aleatoria son mayores que cero y la forma de la distribución es
asimétrica, pero la asimetría disminuye a medida que aumenta el número de grados de libertad.

Las probabilidades de la distribución F se han tabulado con valores F0 para niveles de α tales que:

P(F ≥ F0 ) = α

38
El valor de F0 se puede indicar como Fα ( m , n ) que significa que a la derecha de este valor existe un
área o probabilidad en la curva igual a α .

Una propiedad que puede resultar útil para el cálculo de probabilidades en la distribución F
consiste en que si la variable X presenta distribución F con m y n grados de libertad, entonces, su
1
inversa Y = tendrá distribución F con n y m grados de libertad. Esta propiedad se desprende
X
inmediatamente de la distribución F.

La mayoría de las tablas de F contienen los valores F( m , n ) correspondientes a la cola de la derecha


de la distribución. Si se requiere calcular F(1−α )(m , n ) o sea un valor ubicado en la cola de la
izquierda, se puede aplicar la siguiente expresión:

1
F(1−α )(m,n ) =
Fα (n ,m )

Otra propiedad interesante es aquella que relaciona la distribución de F y la t .

Sea t una variable aleatoria con distribución t de Student con n grados de libertad. Entonces, el
cuadrado de t se distribuye como F con 1 y n grados de libertad.

t n2 = F1,n

Demostración:

Sea Z una variable aleatoria con distribución normal estándar; sea Y una variable aleatoria con
distribución Ji cuadrado con n grados de libertad, entonces por definición:

Z Z2
t= , por lo cual t =
2
, pero Z 2 se distribuye como χ 12 , por lo tanto,
χ 2
(n ) / n
χ 2
(n ) / n

39
χ 12/ 1
t n2 = ~ F1, n
χ n2 / n

Comparación de dos varianzas:

En la comparación de dos varianzas, se supone que las poblaciones que se estudian son normales y
que las varianzas son extraídas en forma independiente. A continuación se presenta el método
para las pruebas correspondientes.

Sea X 1 , X 2 ,..., X n una muestra aleatoria de una población normal, tal que

(
X ~ N µ X , σ X2 . )
Sea Y1 , Y2 ,..., Ym una muestra aleatoria de una población normal, tal que

(
Y ~ N µ Y , σ Y2 . )
(n − 1)s x2 (m − 1)s y2
~ χ (n −1) ~ χ (m −1)
2 2
Entonces: y
σ 2
x σ 2
y

Como las muestras son independientes, entonces:

s y2 / σ y2 s x2 / σ x2
~ F(m −1),(n −1) , O también: ~ F(n −1),(m −1)
s x2 / σ x2 s y2 / σ y2

Por lo cual esta distribución permite probar hipótesis sobre varianzas. Las hipótesis más comunes
son:

i) H 0 : σ X2 = σ Y2 H A : σ X2 ≠ σ Y2

ii) H 0 : σ X2 = σ Y2 ; H A : σ X2 › σ Y2

Bajo la hipótesis nula, entonces el estadístico

s 2y
FC = ~ F(m −1),(n −1)
s x2

Con base en esta distribución se pueden obtener el (los) valor (es) de F que define (n) las regiones
de aceptación o rechazo.

El criterio de decisión para ambas pruebas es el siguiente: Para el caso (i) que es una prueba de
dos colas, se rechaza H 0 si:

Fc ≥ Fα / 2 (m −1),(n −1) , o si:

Fc ≤ F(1−α / 2 )(m −1),(n −1)

40
Para el caso (ii) se rechaza H 0 si Fc ≥ Fα (m −1),(n −1)

Ejemplo: se estudian dos métodos para determinar el contenido de magnesio en el suelo. Por el
método A, se han realizado 14 lecturas, obteniéndose s 2A = 1,8 y con el método B se tomaron 11
lecturas obteniéndose un valor s B2 = 2,9 . Probar con un nivel de significancia α = 0,10 si las
varianzas de los métodos difieren.

H 0 : σ A2 = σ B2

H A :σ A2≠ σ B2

El estadístico toma el valor:

1,8
Fc = = 0,6206
2,9

Como se trata de una prueba de dos colas, se deben obtener en las tablas los dos valores críticos:

F 0 ,05 (13,10 )= 2,887

1 1
F0,95(13,10 ) = = = 0.3744
F0,05(10,13) 2,671

La regla de decisión consiste en rechazar H 0 si Fc ≥ 2,887 o si Fc ≤ 0,3744 . Puesto que


Fc = 0,6206 , entonces no hay razón para afirmar que las varianzas de los dos métodos son
diferentes.

En la prueba de dos colas, para evitar el cálculo de los dos valores de F (a la izquierda y a la
derecha de la distribución) que definen la región de aceptación o rechazo, se puede obtener el
valor de Fc , así:

s 2 mayor
Fc =
s 2 menor

Este valor se confronta con el valor Fα / 2 o sea el correspondiente al lado derecho de la curva. Si
Fc > Fα / 2 entonces se rechaza H 0 con un nivel de significancia α .

1.8.7.3 Comparación de medias de dos poblaciones (muestras independientes). Para comparar


los promedios de dos poblaciones, la metodología usual consiste en tomar muestras aleatorias
independientes en cada población y calcular el estadístico de prueba con base en el cumplimiento
de la hipótesis nula y confrontar éste con un valor crítico tabulado bajo un nivel de significancia α
dado.

A continuación, se deducirán los fundamentos generales de las pruebas, bajo el supuesto de que
las poblaciones son normales

41
Considérese que se han tomado dos muestras de tamaños n1 y n 2 correspondientes a dos
poblaciones que presentan distribución normal con parámetros (µ ,σ )
1
2
1 y (µ 2 )
, σ 22 ,
respectivamente. De este modo:

 σ2   σ2 
X 1 ~ N  µ1 , 1  , X 2 ~ N  µ 2 , 2 
 n1   n2 

Sea d = X 1 − X 2 , por lo tanto,

()
E d = µ d = µ1 − µ 2

()
Var d = σ d2 =
σ 12
n1
+
σ 22
n2
, ya que las muestras son independientes,

 σ2 σ2
Entonces: d ~ N  µ1 − µ 2 , 1 + 2 
 n1 n2 

Por lo cual:

d − µd
~ N (0,1) (1)
σ 12 σ 22
+
n1 n2

Además,

(n1 − 1)s12 + (n2 − 1)s 22 ~ χ (n1 +n2 − 2 )


2
(2)
σ 2
1 σ 2
2

Ahora, por definición de la distribución de t y utilizando (1) y (2), se tiene que:

d − µd
σ 12 σ 22
+
n1 n2
~ t ( n1 +n2 − 2 ) (3)
(n1 − 1)s 21 (n 2 −1)s 22
+
σ 12 σ 22
n1 + n2 − 2

La anterior expresión de la distribución de t es la que se utilizará en las pruebas de hipótesis.

1.8.7.3.1 Con varianzas homogéneas y tamaños de muestras iguales:

Si en la expresión (3) se aplica: σ 12 =σ 22= σ 2 y n1 = n2 = n , entonces se tiene que:

42
d − µd
2σ 2
n d − µd
= ~ t 2 (n −1)
(n − 1)(s12 + s 22 ) s12 + s 22
2σ 2 (n − 1) n

Antes de efectuar la prueba de medias deberá establecerse que las varianzas poblacionales son
homogéneas o sea σ 12 =σ 22= σ 2 mediante una prueba F. Obsérvese que si las varianzas
poblacionales son homogéneas, entonces s12 y s 22 serán estimadores del mismo parámetro σ 2 .

Para efectuar la prueba de medias, se plantea la hipótesis nula:

H 0 : µ1 = µ 2 ⇔ µ1 − µ 2 = µ d = 0

Frente a una alternativa, según el problema.

d
Bajo la hipótesis nula, el estadístico de prueba será t c = , con
sd

s12 + s 22
d = X 1 − X 2 y sd =
n

Este valor se confronta con el tabulado que define las regiones de aceptación o rechazo, el cual
corresponde a tα , 2 ( n −1) o tα / 2 , 2 (n −1) para las pruebas de una y dos colas, respectivamente.

Ejemplo: Para determinar el contenido de pectina en cítricos, se tomaron muestras


independientes de frutos de naranja agria y limón y se determinó el contenido de pectina en los
desechos (albedo +bagazo):

Naranja agria (A): 5,20; 4,29; 3,30; 4,00; 4,50; 5,50; 5,20; 5,00; 5,20; 5,73.

Limón: 2,80; 5,00; 3,20;3,01; 3,55; 3,80; 2,95; 3,52; 3,20; 3,52.

Efectuar la prueba de promedios correspondientes, usar α = 0,05

Los valores obtenidos con base en las muestras son:

X A = 4,79 X B = 3,46 n = 10

s A2 = 0,568 s B2 = 0,393

En primer lugar se realiza la prueba de homogeneidad de varianzas.

H 0 : σ A2 = σ B2

H A :σ A2≠ σ B2

43
s 2A 0,568
Fc = = = 1,445
s B2 0,393

La prueba de varianzas es de dos colas. Si se toma para esta prueba α = 0,10 , el valor tabulado es
Fα / 2 (n1 −1,n2 −1) = F0,05(9, 9 ) = 3,18 . Como Fc < F0,05 , se acepta H 0 , por lo cual se considera que las
varianzas son homogéneas.

Para la prueba de promedios se plantean las hipótesis:

H0 : µA = µB

H A : µ A ≠ µB

XA−XB 4,79 − 3,46


El estadístico de prueba a usar es: t c = = = 4,29
s 2A s B2 0,568 0,393
+
+
n1 n2 10 10

Como la prueba de promedios es de dos colas y se ha escogido un nivel α = 0,05 , entonces se


compara el valor calculado con el valor tabulado tα / 2, 2 ( n −1) = t 0,025,18 = 2,10

En vista de que t c > tα / 2 (18 ) , se rechaza la hipótesis nula con un nivel de significancia α = 0,05 , por
lo cual puede afirmarse que las dos especies de cítricos tienen diferente contenido de pectina,
siendo mayor el de la naranja agria.

1.8.7.3.2 Con varianzas homogéneas y tamaños de muestras diferentes. En este caso:


σ 12 =σ 22= σ 2 y n1 ≠ n2 , por lo cual, se tiene que:

d − µd
1 1 
σ 2  + 
 n1 n2  d − µd
= ~ t ( n1 +n2 − 2 )
(n − 1)(s12 + s 22 ) 1 1 
s  + 
2

σ 2 (n1 + n2 − 2 ) p
 n1 n 2 

En donde, s 2p =
(n1 − 1)s12 + (n2 − 1)s 22
n1 + n2 − 2

Obsérvese que s c2 es una varianza promedio que se obtiene ponderando las varianzas muestrales
s 21 y s 22 por sus grados de libertad respectivos, lo cual resulta razonable al suponer que los
estimadores s 21 y s 22 corresponden a la misma varianza σ 2 .

Para aplicar esta expresión debe establecerse primero la prueba de homogeneidad de varianzas
σ 12 =σ 22= σ 2 . Luego, al considerar la hipótesis nula:

44
H 0 : µ1 = µ 2 ⇔ µ1 − µ 2 = µ d = 0 , el estadístico de prueba será:

d XA − XB
tc = = , el cual se confronta con el valor crítico de t obtenido para un nivel de
sd 1 1 
s 2p  + 
 n1 n2 
significancia α , con n1 + n2 − 2 grados de libertad.

Ejemplo: Se estudiaron dos sistemas de secamiento de la madera con respecto a los defectos que
se producen en las tablas. Para ello, se tomaron al azar 20 tablas secadas por el sistema A y 10 por
el sistema B. A continuación se presenta el grado de combado en milímetros obtenido al aplicar
cada uno de los dos sistemas:

A: 42, 40, 37, 37, 34, 37, 40, 37, 35, 38, 35, 42, 40, 39, 36, 43, 36, 43, 38, 41.

B: 35, 40, 37, 34, 37, 40, 37, 35, 37, 42.

Efectuar la prueba de promedios correspondiente. Usar α = 0,05 .

Con base en las muestras, se obtiene:

X A = 38,5 X B = 37,4 n A = 20

s A2 = 7,6 s B2 = 6,5 nB = 10

En primer lugar se realiza la prueba de varianzas:

H 0 : σ A2 = σ B2

H A :σ A2≠ σ B2

El estadístico de prueba es:

s 2A 7,6
Fc = = = 1,17
s B2 6,5

El valor de F en las tablas es F0,025 (19 , 9 ) = 3,69 . En vista de que Fc < F0,025 se concluye que no
existe evidencia para afirmar que las varianzas son heterogéneas.

Las hipótesis planteadas para los promedios son:

H0 : µA = µB

H A : µ A ≠ µB

El estadístico de prueba es:

45
d XA−XB
tc = =
sd 1 1 
s 2p  + 
 n1 n2 

s 2p =
(n1 − 1)s12 + (n2 − 1)s22 =
19 * 7,6 + 9 * 6,5
= 7,25
n1 + n 2 − 2 20 + 10 − 2

d XA−XB 38,5 − 37,4


Por lo cual, t c = = = = 1,052
sd 
1 1   1 1
s 2p  +  7,25 + 
 n1 n2   20 10 

Como la prueba es de dos colas, se obtiene el valor tabulado tα / 2 ( n1 +n2 − 2 ) o sea,

t 0 ,025 (28 ) = 2,048

Como t c < tα / 2 ( 28 ) , el estadístico de prueba se encuentra en la zona de aceptación, por lo cual se


concluye que no existen razones para afirmar que los dos métodos de secamiento de la madera
produzcan efectos diferentes frente a esa variable (grado de combado).

1.8.7.3.3 Con varianzas heterogéneas y tamaño de muestras iguales o diferentes.

Cuando las varianzas poblacionales σ 21 y σ 22 son diferentes, no es posible simplificar la


expresión:

d − µd
σ 12 σ 22
+
n1 n2
, en términos de valores muestrales, pues de todos modos resultan
(n1 − 1)s 2
1
+
(n 2 −1)s 22
σ 12 σ 22
n1 + n2 − 2
involucradas las varianzas poblacionales que son desconocidas. Por lo cual no es posible aplicar la
distribución de t como en los casos anteriores para las pruebas de hipótesis.

A continuación se presenta una de las soluciones más utilizadas que fue formulada por Cochran
(1964):

d X1 − X 2
t′ = = =
sd s12 s 22
+
n1 n2

El valor de este estadístico se compara con un valor de t * derivado de los valores tabulados, así:

46
w1t1 + w2 t 2
t* = en el cual t1 y t 2 son los valores tabulados con un nivel α o α / 2 (dependiendo
w1 + w2
si la prueba es de una o dos colas) con los grados de libertad n1 − 1 y n2 − 1 , respectivamente.

s12 s2
w1 = y w2 = 2
n1 n2

Obsérvese que si los dos tamaños de muestras son iguales n1 = n2 = n , entonces el valor de t *
queda así:

w1tα (n −1) + w2 tα (n −1)


t* = = tα (n −1)
w1 + w2

Ejemplo: Se estudió la extracción de nutrientes efectuada por dos tipos diferentes de maíz DH-205
(amarillo) Y DH-250 (blanco) en los suelos del Valle del Cauca. Para ello, se tomaron muestras de
12 parcelas del híbrido amarillo y 8 del blanco. Una de las variables estudiadas fue el contenido de
nitrógeno en la semilla.

Los valores del porcentaje de nitrógeno se indican a continuación:

A: DH-205: 1,48; 1,49; 1,40; 1,41; 1,76; 1,75; 1,40; 1,41; 1,20; 1,20; 1,73; 1,73.

B: DH-252: 1,23; 1,22; 1,21; 1,24; 1,37; 1,36; 1,26; 1,26.

Efectuar la prueba de promedios correspondiente.

Con base en las observaciones se obtienen los siguientes resultados:

X A = 1,496; s 2A = 0,041 n A = 12

X B = 1,268; s B2 = 0,00384 nB = 8

En primer lugar, se realiza la prueba de comparación de varianzas:

H 0 : σ A2 = σ B2

H A :σ A2≠ σ B2

El estadístico de prueba es:

s 2A 0,041
Fc = 2
= = 10,67
s B 0,00384

El valor de F en las tablas es F0, 05(11,7 ) = 3,6 . Puesto que Fc > F0,05(11,7 ) entonces se concluye que
las varianzas son heterogéneas.

47
Para efectuar la prueba de promedios, las hipótesis son:

H0 : µA = µB

H A : µ A ≠ µB

El estadístico para la prueba aproximada es:

d XA−XB 1,496 − 1,268


t′ = = = = 3,65
sd s 2A s B2 0,041 0,00384
+ +
n A nB 12 8

El valor de comparación t * se obtiene así:

w1t1 + w2 t 2 s 2 0,041
t* = , con w1 = 1 = = 0,00342
w1 + w2 n1 12

s 22 0.00384
w2 = = = 0.00048
n2 8

t1 = t 0, 025 (11) = 2,20 ; t 2 = t 0 ,025 (7 ) = 2,36

Entonces:

w1t1 + w2 t 2 0,00342 * 2,20 + 0,00048 * 2,36


t* = = = 2,22
w1 + w2 0,00342 + 0,00048

En vista de que t ′ > t * se rechaza H 0 , por lo cual se concluye que los dos híbridos de maíz extraen
diferente cantidad de nitrógeno del suelo, siendo mayor el correspondiente al hibrido amarillo DH-
205.

Cuando el tamaño de las muestras es grande, se puede utilizar el estadístico basado en la


distribución normal estándar para una prueba aproximada de promedios, de este modo:

X1 − X 2
~ N (0,1)
σ 12 σ 22
+
n1 n2

La expresión anterior se basa en el teorema central del límite, que supone distribución
aproximadamente normal para promedios cuando los tamaños de muestra son grandes.

Es posible aproximar en este caso los valores de σ 12 y σ 22 para obtener el estadístico de prueba
Zc .

48
X1 − X 2
Zc =
s12 s 22
+
n1 n2

Las reglas de decisión son las mismas de la prueba de t , teniendo en cuenta que en este caso, los
puntos críticos se obtienen en la tabla de la distribución normal estándar.

Ejemplo: para estudiar diferentes defectos ocasionados a la madera bajo dos sistemas de
secamiento, se tomaron 50 tablas de Eucalipto, que fueron sometidas a secamiento al aire (A) y 42
fueron sometidas a secamiento al horno (B). Uno de los defectos evaluados fue el grado de
abarquillado, expresado en cm.

Los valores obtenidos fueron:

X A = 1,8434; s 2A = 0,2669 n A = 50

X B = 1,2879; s B2 = 0,7475 n B = 42

En vista de que el tamaño de las muestras es relativamente grande, es posible utilizar el


estadístico Z c . Las hipótesis planteadas son:

H0 : µ A = µB

H A : µ A ≠ µB

X1 − X 2 1,8434 − 1,2879
Zc = = = 4,07
s12 s 22 0,2269 0,5587
+
+
n1 n2 50 42

El valor de Z α / 2 (la prueba es de dos colas), se obtiene en las tablas. Usando α = 0,05 , se tiene:

Z 0,025 = 1,96

Puesto que Z c ∈ R , entonces se rechaza H 0 , por lo cual se puede afirmar que el sistema de
secamiento al aire presenta un mayor grado de abarquillado que el sistema de secamiento al
horno.

1.8.7.4 Comparación de dos proporciones binomiales. Cuando interesa comparar proporciones


correspondientes a dos poblaciones, si el tamaño de las muestras es grande, es posible utilizar una
aproximación a la normal para efectuar las pruebas de hipótesis. De este modo, si:

)  Pq 
P1 ~ N  P1 , 1 1 
 n1 

49
)  Pq 
P2 ~ N  P2 , 2 2 
 n2 
Entonces:

) )  Pq P q 
P1 − P2 ~ N  P1 − P2 , 1 1 + 2 2 
 n1 n2 
La expresión permite efectuar pruebas de hipótesis y obtener intervalos de confianza con respecto
a P1 − P2 , utilizando los métodos derivados de la normal que se han tratado anteriormente. Las
hipótesis que interesan son:

i) H 0 : P1 = P2 ⇔ P1 − P2 = 0

H A : P1 ≠ P2 ⇔ P1 − P2 ≠ 0

ii) H 0 : P1 ≤ P2 ⇔ P1 − P2 ≤ 0

H A : P1 > P2 ⇔ P1 − P2 > 0

iii) H 0 : P1 ≥ P2 ⇔ P1 − P2 ≥ 0

H A : P1 < P2 ⇔ P1 − P2 < 0

Para generar un estadístico de prueba debe notarse que bajo la hipótesis nula ( P1 − P2 ), las dos
poblaciones tienen la misma proporción (desconocida) que se indica por P. En este caso se tiene:

) )  pq pq 
P1 − P2 ~ N  0, + 
 n1 n2 
El parámetro P que es desconocido puede estimarse utilizando la información contenida en las
muestras, por lo cual:

) n p) + n2 p) 2 ) )
P= 1 1 ; q = 1− P
n1 + n2

De acuerdo a lo anterior, un estadístico aproximado para probar las hipótesis es:


)
P1 − P2
Zc = )) ))
Pq Pq
+
n1 n 2

Bajo la hipótesis nula, el estadístico Z c presenta una distribución aproximadamente N (0,1) , por
lo cual se puede utilizar este valor para efectuar la prueba correspondiente.

50
Ejemplo: Se estudió el poder germinativo del café después de haberla sometido a dos sistemas de
secamiento: secamiento al sol (A) y utilizando Guardiola, máquina para secar café (B). Los tamaños
de muestra utilizados y los porcentajes de germinación fueron:

Tratamiento Tamaño de muestra % de germinación


A 368 92
B 336 84

¿Puede afirmarse que los dos sistemas de secamiento afectan de forma diferente la germinación
de la semilla de café?

Las hipótesis a probar son:

H 0 : PA = PB

H A : PA ≠ PB

Bajo H 0 , el estimador del parámetro P es:

) n p) + n 2 p) 2 368 * 0,92 + 336 * 0,84


P= 1 1 = = 0,88 , entonces q) = 0,12
n1 + n2 368 + 336

El estadístico de prueba es:


)
P1 − P2 0,92 − 0,84
Zc = ) ) = = 3,20
Pq) Pq) 0,88 * 0,12 0,88 * 0,12
+ +
n1 n 2 368 336

El punto crítico para definir las regiones de aceptación y de rechazo, se obtiene en la tabla de la
normal estándar, teniendo en cuenta que la prueba es de dos colas.

Z α / 2 = Z 0,025 = 1,96

Puesto que Z c > Z α / 2 , el estadístico de prueba se ubica en la zona de rechazo; por lo cual existe
evidencia para afirmar que las semillas sometidas a los dos sistemas de secamiento presentan
diferente porcentaje de germinación, siendo mayor utilizando secamiento al sol.

1.8.8 Pruebas de hipótesis en experimentos con dos o más tratamientos. Al ejecutar un


experimento, el investigador busca comprobar alguna hipótesis que estableció. Dos tipos de
hipótesis son formuladas: la hipótesis nula (HO) en la que se declara la no existencia del efecto de
lo que se está probando, y la hipótesis alternativa (H1) que declara la existencia de ese efecto, la
cual puede ser de tipo bilateral (diferente) o unilateral (mayor que o menor que).

En la aplicación de una prueba estadística cualquiera se asocian dos tipos de errores, conocidos
como error tipo I y error tipo II.

El error tipo I (α ) se comete al rechazar una hipótesis nula que es verdadera, y el error tipo II (β )
al aceptar una hipótesis nula falsa. El error tipo I es también llamado de significancia de una

51
prueba. No hay nombre específico para el error tipo II. La expresión 1 − β se denomina el poder
de una prueba.

En un experimento tradicional, asumiendo k tratamientos y sus efectos fijos, las hipótesis nulas y
alternativas pueden ser formuladas así:

H0= τ i = o para todo i, donde i=1, 2, 3,…, k; 0 también: H 0 : µ1 = µ 2 = ... = µt

H1= τ i ≠ 0 para algún i

La prueba F es, en este caso, la indicada para la comprobación o no de la validez de las hipótesis. Si
existen más de dos tratamientos, el hecho que la prueba F resulte significativa, apenas indica que
existe alguna diferencia entre los tratamientos, pero no específica donde se encuentran las
diferencias. En este caso otras pruebas deben ser empleadas para detectarlas. Estas pruebas se
denominan pruebas de comparación de medias o de separación de medias.

La prueba F se calcula obteniendo el cociente entre el cuadrado medio del factor que se está
probando y el cuadrado medio del error experimental. Los cuadrados medios representan las
estimaciones de las varianzas respectivas, esto es, la varianza del factor y la varianza del error. Su
significancia se verifica al compararse el valor calculado con los valores tabulados, a los niveles de
probabilidad disponibles, según los grados de libertad asociados a cada varianza.

Por convención, se asume que una prueba es significativa cuando la probabilidad a ella asociada es
igual o menor que 5%. Es lógico que este nivel de significancia pueda ser modificado de acuerdo
con el tipo de trabajo que se ejecuta, con los riesgos involucrados en la aplicación de los
resultados o por otros motivos. En un experimento con drogas para curar alguna enfermedad, por
ejemplo, en que puede haber riesgo de muerte del paciente por la aplicación de una dosis errada,
el nivel de significancia debe ser mucho menor que 5%, por ejemplo, 0,01%. En trabajos con
cultivares, donde puede ocurrir la sustitución de un material por otro equivalente, el nivel de
significancia podría ser mayor que 5%. En todo caso, el investigador debe definir el nivel de
significancia adecuado para su trabajo, según sus conocimientos, más este nivel debe ser definido
a priori, esto es, antes de la ejecución del ensayo y de la colecta de cualquier dato.

BIBLIOGRAFÍA

COCHRAN, W.; COX, G. 1990. Diseños experimentales. 2ª. Ed., México: Trillas, 661 p.

DANIEL, W. 1999. Bioestadística Base para el Análisis de las Ciencias de la Salud. Tercera edición.
Editorial Limusa S.A. de C.V. Grupo Noriega Editores, México, D.F.,878 p.

DÍAZ, A. 1999. Diseño de Experimentos. Editorial Universidad de Antioquia. 347 p.

GÓMEZ, H. 1997. Estadística Experimental Aplicada a las Ciencias Agrícolas. Medellín: Universidad
Nacional de Colombia Sede Medellín, 571 p.

GÓMEZ, H. 1999. Algunos Métodos Estadísticos para el Estudio de Poblaciones de


Microorganismos. Universidad Nacional de Colombia Sede Medellín, 216 p.

GUTIÉRREZ-PULIDO, H. y DE LA VARA-SALAZAR, R. 2012. Análisis y Diseño de Experimentos. 3ª


edición, Mc Graw Hill, México, D.F. 489 P.

52
MARTÍNEZ, C. 2005. Estadística y Muestreo. 12 ed. Bogotá. Ecoe edicines. 1100 p.

MARTÍNEZ, R.; MARTÍNEZ, N. 1997.Diseño de experimentos. Bogotá: Fondo Nacional Universitario,


Universidad Nacional de Colombia, 480 p.

MELO, O.; LÓPEZ, L.; MELO, S. 2007. Diseño de Experimentos Métodos y Aplicaciones. Pro-offset
Editorial S. A. 668 p.

MONTGOMERY, D. 1991. Diseño y Análisis de Experimentos. Grupo Editorial Iberoamericana. |588


p.

MONTGOMERY, D.; Runger, G. 1996. Probabilidad y Estadística Aplicadas a la Ingeniería. McGraw


Hill Interamericana Editores, S.A. de C.V., México, D.F., 894 p.

PIMENTEL, F.1985. Curso de estatística experimental. 11ª ed. Piracicaba: Livraria Nobel S.A., 466p.

RESENDE, M. 2002. Genética Biométrica e Estatística no Melhoramento de Plantas perennes.


Brasília: Embrapa, 975 p..

SAHAGÚN, J. 1994. Estadística Descriptiva y Probabildad: Una Perspectiva Biológica. Universidad


Autónoma de Chapingo, México, 341 p.

SAMPER, F.; CARRERA, J. 1990. Geoestadística. Universidad Politécnica de Catalunya. 484 p.

STEEL, G.R.; TORRIE, H.J. 1985. Bioestadística Principios y Procedimientos. Segunda edición.
Bogotá-Colombia. Editorial McGraw Hill Latinoamericana, 622 p.

WALPOLE, R.E.; MYERS, R. H. 1992. Probabilidad y Estadística. McGraw-Hill Interamericana de


México, S.A., 797 p.

ZIMMERMAN, F. J. 2004. Estatística aplicada à pesquisa agrícola. Santo Antônio de Goiás:


Embrapa: Arroz e Feijão. 402 p.

53

También podría gustarte