Está en la página 1de 17

DISEÑOS EXPERIMENTALES

DISEÑO ESTADÍSTICO DE EXPERIMETNTOS


MAG. FERNANDO R. ARCE ZÑÍGA
DISEÑO DE EXPERIMENTOS
Es una técnica estadística muy usada en la industria, medicina, biotecnología,
agronomía, Ciencias Sociales, entre otros campos del saber humano, con la
finalidad de mejorar los bienes y servicios y eso implica mejorar procesos,
optimizar recursos, y reducir los tiempos y costos de producción. Los encargados
de la producción de artículos siempre están preocupados por mejorar su producto,
motivo por el cual continuamente van probado o experimentando los procesos ya
sea manualmente o usando softwares para simular mejoras, estas pruebas o
simulaciones se hacen en las materias primas, los tiempos de fabricación, las
combinaciones de sus ingredientes, las tecnologías usadas, etc. Pero siempre
maximizando sus recursos y minimizando sus errores o pérdidas. Si estos
cambios van acompañados con métodos científicos como la estadística los
resultados tienen una base científica confiable y válida.
Los diseños experimentales tienen una larga historia, pues el ser humano siempre
está en proceso de mejorar su estándar de vida y eso no cambiará; por lo tanto,
continuamente los bienes que se producen en beneficio de los propios seres
humanos seguirán mejorando y eso implica experimentar, los pioneros en el
campo de la investigación científica específicamente en los diseños
experimentales han sido muchos, entre ellos podemos citar a: Aristóteles, Francis
Bacón, Galileo Galilei, John Stuart Mill entre otros, este proceso de
experimentación científica usando la estadística fue iniciada por el Sir Ronald A.
Fisher entre los años veinte y treinta del siglo pasado (Primera etapa), con sus
estudios en el campo de la agricultura, el uso del análisis de varianza, la
aleatorización y de los diseños factoriales; por otro lado, también los trabajaos de
Campbell y Stanley en los diseños experimentales en forma general; contribuyeron
también Frank Yates, William Cochran, Oscar Kemthorne etc, luego vino la era
industrial (Segunda etapa) en el que intervino la técnica del diseño de las
superficies de respuesta liderado por George Box, posteriormente en la década de
los setenta se ahondó en la calidad de los productos (Tercera etapa), en este
campo el trabajo del japonés Genichi Taguchi con su diseño robusto de
parámetros aumentó el interés por los experimentos diseñados, por su parte el
indú Raj Chandra Bose y el americano Dorian Shainin con el Sistema Shainin
aportaron a la consolidación de los diseños experimentales, y a partir de los años
90 (Cuarta etapa), aparecen los diseños óptimos de experimentos con más
frecuencia, con la finalidad de optimizar tiempos, recursos y calidad, los que
estudiaron la teoría de la optimalidad fueron: Fedorov (1972), Silvey (1980), Muller
(1997), Goos (2002), Dette (2004), Atkinson(2007), etc. A partir de esta década los
Diseños experimentales se tecnificaron con el uso de los softwares estadísticos
muy necesarios para el procesamiento de datos.
INTRODUCCIÓN A LOS DISEÑOS EXPERIMENTALES

DISEÑO. Diseñar consiste en bosquejar un plan o estrategia para obtener


información requerida en una investigación, en este caso en una investigación
científica.
Diseñar significa hacer un plan detallado para la ejecución de una acción o
idea.
Hay muchas acepciones sobre diseño uno de ellos dice que es el proceso de
planificación de actividades, métodos u objetivos representados mediante un
proyecto a ejecutar.
EXPERIMENTO. Es una acción de manipulación intencionada que se realiza a las
variables independientes con la finalidad de observar los cambios que se producen en la
variable dependiente o respuesta, bajo ciertas condiciones establecidas.
En otras palabras, experimento es una prueba que consiste en provocar un fenómeno en
unas condiciones determinadas con el fin de analizar sus efectos o de verificar una
hipótesis o un principio científico.
Asimismo, experimento es un procedimiento que se lleva a cabo para apoyar, refutar
o validar una hipótesis.
Acción → Reacción (Efecto)
DISEÑO EXPERIMENTAL. Es una técnica estadística que consiste en planificar una serie
de pasos o actividades necesarias para realizar un experimento aleatorio, el cual nos
permite identificar y cuantificar las causas o variables independientes que al ser
manipuladas intencionalmente producen efectos o cambios en la variable dependiente
que interesa o motiva la investigación, en base a la información estadística recogida.
También se puede definir como planificar una serie de pasos para realizar un
experimento científico con la finalidad de obtener datos apropiados que puedan
ser procesados y analizados por medio de las técnicas estadísticas con el objeto
de obtener conclusiones válidas y objetivas acerca del fenómeno en estudio.
Diagrama de un proceso para realizar una experimentación científica
TIPOS DE EXPERIMENTOS:
Existen dos tipos de experimentos

a) EXPERIMENTO DETERMINÍSTICO
Es cuando el experimento conduce a un solo resultado.
Ejemplo:
- Medir el área de un círculo dado.
- Medir el volumen de un cubo.
- Medir la distancia entre dos puntos fijos. Etc.

b) EXPERIMENTO ALEATORIO
Es cuando el experimento conducirá a dos o más resultados igualmente factibles.
Ejemplo.
- Medir el peso de un conjunto de personas en un centro laboral según su
procedencia.
- Cuantificar las ganancias diarias de los centros comerciales según categoría.
- Medir el efecto de una dieta alimenticia en un conjunto de vacas según raza.
- Medir la producción de papa por hectárea, de acuerdo a las variedades,
- Medir la influencia que tienen el docente y el contexto en el rendimiento académico
de los estudiantes.
Acción → efecto
Análisis de Varianza. Es una técnica estadística que consiste en dividir la
varianza total de todos los datos en sub varianzas que corresponden a sus
componentes, con la finalidad de determinar si hay diferencias significativas entre
estos componentes. Los diseños experimentales usan el análisis de varianza para
comparar promedios entre tratamientos.
Los modelos del ANVA son técnicas de análisis multivariante de dependencia, que
se utilizan para analizar datos procedentes de diseños experimentales con una o
más variables independientes cualitativas (medidas en escalas nominales u
ordinales) y una variable dependiente cuantitativa (medida en escala de intervalo o
de razón). En este contexto las variables independientes se llaman factores y sus
diferentes estados, categorías o divisiones se llaman niveles o tratamientos y la
variable dependiente se llama variable respuesta. Esta técnica permite comparar
básicamente los promedios de los t tratamientos con la finalidad de determinar si
existe diferencia significativa entre ellos, o entre las t poblaciones.
Hipótesis Estadística. Es una proposición o suposición sobre los parámetros de
una o más poblaciones. Es preciso aclarar que una hipótesis es una proposición
sobre la población o distribución en estudio y no sobre la muestra.
Prueba de Hipótesis. Es un procedimiento que consiste en realizar una serie de
pasos para verificar la veracidad o falsedad de una suposición (hipótesis).
En Estadística la secuencia de pasos son los siguientes.
(Revisar Inferencia Estadística)

1) Plantear la hipótesis nula y su alternativa.


Hipótesis Nula Ho, es la hipótesis base a la que hay que probar.
En diseños experimentales, en esta hipótesis se plantea que no hay efecto de
los factores en estudio en la variable respuesta.
Ejemplo:
Ho: P = 0.00045 proporción de infectados en la población peruana con el
COVID 19
= La urea no favorece el crecimiento de las plantas.
Hipótesis Alternativa H1: es la hipótesis que contradice a la hipótesis nula.
En los diseños experimentales, en esta hipótesis se plantea que hay efecto de
las los factores en estudio en la variable respuesta.
H1 : P ≠ 0.00045
= la urea favorece el crecimiento de las plantas.
2) Determinar el nivel de significancia α
Los valores más comunes están entre el 1% y el 5%
α = la probabilidad de cometer error tipo I, o la probabilidad de rechazar Ho
siendo ésta falsa.
Ejemplo α = 0,05
3) Determinar la distribución muestral del parámetro, específicamente del
estadígrafo de prueba. (Recordar el curso de probabilidades-distribuciones
muestrales)
Ejemplo, para la proporción es la distribución normal.
^p−P
Z= → N (0,1)
PQ
√ N
Para el ANVA o comparar varianzas es la distribución F
4) Establecer la regla de decisión, para lo cual es necesario determinar el punto
crítico según el nivel de significancia, el estadígrafo y el tipo de prueba de la
hipótesis alternativa.
Ejemplo para probar una hipótesis sobre la proporción, el punto crítico es igual
a Zo ∓1.96, cuando el alfa igual a 0,05; entonces la regla de decisión es: se
rechaza Ho sí el valor del Z experimental es superior a 1.96 o inferior a -1,96,
caso contrario no se rechaza Ho.
5) Realizar el experimento para obtener los datos, procesarlos y calcular el valor
experimental, por ejemplo, Ze = 0,866
Si escogemos una muestra de 15000 personas de los cuales se comprueba
que 9 (p = 9/15000 = 0.0006) personas están infectadas con el virus, entonces
para el ejemplo
0.0006−0.00045
=¿
Ze = ( 0.00045)(0.99955) 0.866
√ 15000
6) Tomar la decisión de rechazar o no rechazar Ho de acuedo a la información
dada en el paso anterior.
Ejemplo: Como Ze = 0.866 es menor que 1.96 y mayor que – 1.96; por lo tanto,
está dentro de la región de No Rechazo de Ho, entonces se concluye que no
hay evidencia suficiente para rechazar la hipótesis nula dada.

PRINCIPIOS BÁSICOS DE LOS DISEÑOS EXPERIMENTALES:


1.Aleatorización. Este principio indica que las unidades experimentales deben
ser asignados a los tratamientos o viceversa en forma aleatoria, y es la única
manera de evitar errores sistemáticos y asegurar la imparcialidad en la
obtención de los datos.
2.Repetición. Toda prueba debe ser repetida bajo las mismas condiciones,
con la finalidad de tener mayor precisión o exactitud en los resultados y
también estimar el error experimental, sin ella no podría realizarse un ANVA
(Análisis de varianza).
3.Control Local o Balanceo. Consiste en controlar todas las variables
intervinientes, a fin de que los efectos sean exclusivamente de la variable o
variables independientes en estudio. También es necesario que la
distribución de las unidades experimentales sea equitativa o balanceada.
DEFINICIÓN DE TÉRMINOS USADOS
1. FACTOR. Es la variable independiente que el investigador tiene bajo control y
que debe ser aplicado a las unidades experimentales para ver el efecto que
pueda producir en la variable respuesta.
2. VARIABLE RESPUESTA. Es la variable dependiente en la que se refleja el
efecto que pueda producir la variable independiente o factor en la unidad
experimental asignada.
3. VARIABLE INTERVINIENTE, son las variables exógenas o variables que
pueden influir en la variable respuesta y que el investigador no lo puede
controlar ni excluir, pero si reducir sus efectos, el efecto de estos forman parte
del componente error en los modelos de los diseños experimentales.
4. NIVEL DE UN FACTOR. son las diversas cantidades, dosis, valores,
categorías o clasificaciones de los factores, que deben ser aplicados a las
unidades experimentales, en otras palabras, es el grado de intensidad de un
factor que se debe aplicar a una unidad experimental.
5. TRATAMIENTO. Es cada uno de los niveles de un factor que deben ser
aplicados a una unidad experimental; en términos más amplios, es el conjunto
particular de condiciones experimentales que se deben aplicar a las unidades
experimentales. En caso de que haya más de un factor o variable
independiente en estudio, un tratamiento es la combinación específica de
niveles de los factores en estudio o de los que intervienen en el experimento.
6. ERROR EXPERIMENTAL. Describe el fracaso de llegar a resultados
idénticos con dos unidades experimentales tratadas idénticamente, este error
puede surgir de errores experimentales en sí, de errores de observación, de
errores de medición, de la variabilidad del material experimental, de los
efectos combinados de todos los factores extraños o exógenos que pudieran
influir y que no han sido considerados o controlados. También hay que tener
en cuenta en estos errores los ocasionados por el efecto de borde en los
experimentos agrícolas.
7. UNIDAD EXPERIMENTAL. Es el ente más pequeño o elemental al cual se le
aplica un tratamiento en una reproducción del experimento básico. La unidad
experimental dependerá del tipo de estudio que se realiza; por lo tanto, puede
ser una persona, un animal, o una cosa; así en biología la unidad experimental
puede ser una muestra de tejido fibroso, un ratón, una colonia de bacterias,
etc., en un experimento agrícola la unidad experimental podría ser una parcela
de terreno, una planta, un surco, una hoja, etc.
8. TESTIGO. El testigo o control es el tratamiento de comparación adicional que
no está afectado por ningún tratamiento, y que se sugiere que no debe faltar
en ningún experimento; por ejemplo, si se hacen tratamientos con cinco
niveles de fertilizantes, el testigo puede ser aquel tratamiento que no incluye
fertilizante alguno, en medicina el testigo toma el nombre de placebo. La
elección del tratamiento testigo es de gran importancia en cualquier
investigación, este se constituye como referencial del experimento y sirve para
la comparación de los tratamientos en prueba.
9. MEDIDA. Una medida es el valor de la variable, que resulta como
consecuencia de determinar la dimensión de la magnitud de una variable en
relación con una unidad de medida preestablecida y convencional, en especial
de la variable dependiente o respuesta mediante el cual se determina el efecto
de un tratamiento aplicado a una unidad experimental.
10. BALANCEO. Es la distribución de las unidades experimentales adecuadas y
en cantidades equitativas a cada uno de los tratamientos.
11. EFECTO PRINCIPAL. El efecto principal de un factor, es una medida del
cambio en la variable respuesta correspondiente a cambios en el nivel de un
factor promediado sobre todos los niveles de los otros factores, es decir,
permaneciendo fijos los otros factores. El número de efectos principales es
igual al número de factores que intervienen en el diseño.
12. INTERACCIÓN. Es la respuesta diferencial de un nivel de un factor en
combinación con los diferentes niveles de otro u otros factores aplicados
simultáneamente; es decir, la interacción es un efecto adicional debido a la
influencia combinada de 2 o más factores.
El número de interacciones depende del número de factores que intervienen
en el diseño, así, por ejemplo, con un factor no existe interacción, con dos
factores existe una sola interacción, con tres factores existen tres
interacciones dobles y una triple, con cuatro factores existen seis interacciones
dobles, cuatro triples y una cuádruple, etc.
13. VALIDEZ INTERNA. Se dice que un experimento es válido internamente, si
arroja resultados que estén libres de sesgos y esto depende de un buen
control del error experimental y de las variables exógenas.
14. VALIDEZ EXTERNA. Es la capacidad de generalización que tienen los
resultados de un experimento, la validez externa depende del empleo de una
adecuada aleatorización y de la suficiente repetición del experimento.
PASOS PARA EJECUTAR UN EXPERIMENTO
Los pasos para realizar un trabajo usando los diseños experimentales estadísticos
son los siguientes:
1. Determinación y Planteamiento de un problema del contexto
2. Especificación de los objetivos.
3. Formulación de las hipótesis con un nivel de significación adecuado.
4. Selección del diseño experimental correspondiente, especificando los factores,
sus niveles, las unidades experimentales y el número de repeticiones (tamaño
de muestra) que se harán y el costo del trabajo a realizarse.
5. Determinar el lugar del trabajo (experimentación) a realizarse.
6. Ejecutar el experimento, es decir aplicar los tratamientos a las unidades
experimentales dadas, o manipular las variables independientes en estudio.
7. Recolección de los datos previstos, es decir medir la variable respuesta, para
determinar la magnitud de los efectos producidos en las unidades
experimentales usadas.
8. Procesamiento de los datos usando los medios disponibles.
9. Verificación de las hipótesis, discusión y obtención de las conclusiones,
estableciendo los nuevos conocimientos adquiridos.
10. Presentación del informe final, con las recomendaciones para mejorar el
experimento.
DISEÑO CON UN FACTOR
2.1. DISEÑO COMPLETAMENTE ALEATORIO.
El Diseño Completamente Aleatorio (DCA), es aquel en el cual los tratamientos
son asignados completamente al azar a las unidades experimentales o viceversa,
este diseño no impone ningún tipo de restricciones, salvo que las unidades
experimentales sean totalmente homogéneas.
Ventajas:
a) Es fácil de planificar y analizar, siendo muy flexible al número de tratamientos y
repeticiones.
b) El número de repeticiones por tratamiento puede ser diferente, a pesar de que
es recomendable tener el mismo número de repeticiones por tratamiento.
c) No es necesario estimar las parcelas o datos perdidos.
Desventajas:
El diseño es eficiente sólo para un pequeño número de tratamientos y para
material experimental homogéneo.
Los DCA, debido a su aleatorización irrestricta, es conveniente que se utilicen unidades
experimentales de las más homogéneas posibles; por ejemplo, animales de la misma
edad, del mismo peso, de la misma raza, similar estado fisiológico; parcelas de igual
tamaño, incluso personas, etc., de manera que se disminuya la magnitud del error
experimental, ocasionado por la variación intrínseca de las unidades experimentales.
Este diseño es muy apropiado para experimentos de laboratorio, invernadero, animales
de bioterio, aves, conejos, cerdos, vacas, etc
DISEÑO CON UNA OBSERVACIÓN POR UNIDAD EXPERIMENTAL Y CON
IGUAL NÚMERO REPETICIONES.
MODELO ESTADÍSTICO
Yij =  + i + ij  i = 1, 2, 3,……....t; j = 1, 2, 3,……..n
Donde:
Yij : Es el valor de la respuesta, efecto o rendimiento observado, en el i-ésimo
tratamiento y en la j-ésima repetición. Son variables aleatorias.
 : Es el efecto medio verdadero. Es una constante.
i : Es el efecto del i-ésimo tratamiento. Son variables distribuidas en forma
normal con media cero y varianza 2t, sí el modelo a usar es a efectos
aleatorios. En cambio, sí el modelo es a efectos fijos, entonces  i = 0
ij : Es el efecto del error experimental en el i-ésimo tratamiento, de la j-ésima
repetición. Incluye efectos de factores exógenos no considerados en el
estudio. Es una v.a. con DNI (0,2)
t : Es el número de tratamientos.
n : Es el número de repeticiones (tamaño de muestra).

SUPUESTOS
El modelo estadístico debe cumplir los siguientes supuestos:
1.- Aditividad, los efectos del modelo son aditivos.
2.- Linealidad, las relaciones entre los factores y los efectos del modelo son
lineales.
3.- Normalidad, los errores o residuos son variables aleatorias y deben tener una
distribución normal con media cero y varianza constante 2
4.- Independencia, los resultados obtenidos en el experimento son
independientes entre sí. En otras palabras, los errores deben ser
independientes entre sí.
5.- Homogeneidad de varianzas, Las diferentes poblaciones generadas por la
aplicación de los diferentes tratamientos deben tener varianzas iguales u
homogéneas (2).
Nota. - Para detectar el cumplimiento o no de estos supuestos, se realizan
pruebas especiales que el estudiante ya debe conocer, como las pruebas de
normalidad e independencia, en lo referente al supuesto de las varianzas
homogéneas se tratará posteriormente.

TIPOS DE MODELOS:
Los t niveles del factor en un experimento pueden elegirse de dos maneras:
a) MODELO I (MODELO A EFECTOS FIJOS) Modelo de Análisis de Varianza, es
cuando el investigador determina los t tratamientos en forma específica y desea
probar la hipótesis sobre la igualdad de las medias de los tratamientos
considerados y las conclusiones no pueden extenderse a los demás tratamientos
que no fueron considerados.
b) MODELO II (MODELO A EFECTOS VARIABLES) Modelo de Componentes de
Varianza, es cuando el investigador selecciona una muestra aleatoria de t
tratamientos de una población grande de tratamientos existentes, por consiguiente
las conclusiones se extienden a todos los tratamientos de la población,
considerados o no en el experimento, asimismo los i son variables aleatorias.

I) MODELO A EFECTOS FIJOS.

En este caso se hará un ANVA según el modelo I, en consecuencia se probará la


igualdad de los efectos de los tratamientos; es decir, Ho: 1 = 2 = …= t; o e su
lugar H0: i = 0  i = 1,2,3,….t. Además, los efectos de los tratamientos i se
considerará como desviaciones de la media global , esto es:
Yij =  + i + ij
Yij = i + ij
i =  + i
i =  - i
 i = 0
Por otro lado, para los cálculos se usará la siguiente simbología:
Ti = Yi. = Total de las observaciones bajo el i-ésimo tratamiento
n
∑ Yij
Yi. = j=1

Y
∑ Yij
= j=1
i. /n = Yi. /n. Es el promedio de las observaciones bajo el i-ésimo
tratamiento.
t n
Y . . = T =∑ ∑ Yij
i=1 j=1 Es el gran total de todas las observaciones.
Y .. = media total de todas las observaciones
t n

Y .. =
∑ ∑ Yij/N
i=1 j=1 = T/nt
N = nt
Fc = T2/nt = Factor de corrección

Myy = Fc = Suma de cuadrados debido a la media


Tyy = Suma de cuadrados de los tratamientos.
n
∑ Ti 2
=( i=1 /n) - Myy
SCT =  Y2 - Myy : Suma de cuadrados del total.
t n
∑ ∑ Y 2ij
 Y2 = i=1 j=1

SCE = Eyy =  Y2 - Tyy - Myy: Suma de cuadrados del error.

CUADRO DEL ANVA


FUENTE DE GRADOS SUMA DE CUADRADO Fe
VARIACIÓN DE CUADRAD S MEDIOS EXPERI-
LIBERTAD OS MENTAL
Debido a la M = Myy/1
Media 1 FC = Myy = Myy --
Debido a los
Tratamientos t-1 Tyy Tr = Tyy/(t-1) Fe =
Tr/E
Debido al
Error t(n-1) Eyy E = Eyy/t(n- --
1)
Total N = tn Y 2
-- --

CUADRO DEL ANVA SIMPLIFICADO


FUENTE DE GRADOS SUMA DE CUADRADO Fe
VARIACIÓN DE CUADRAD S MEDIOS EXPERI-
LIBERTAD OS MENTAL
Debido a los
Tratamientos t-1 Tyy Tr = Tyy/(t-1) Fe =
Tr/E

Debido al t(n-1) Eyy E = Eyy/t(n- --


Error 1)
Total N-1 = tn-1  Y2 - Myy -- --

CUADRO DE RECOPILACIÓN DE DATOS

Tratamientos Totales *
Muestra
1 2 3 ……… t
01 Y11 Y21 Y31 ……… Yt1 Y.1
02 Y12 Y22 Y32 ……… Yt2 Y.2
03 Y13 Y23 Y33 ……… Yt3 Y.3
04 Y14 Y24 Y34 ……… Yt4 Y.4
. . . . . . .
. . . . . . .
. . . . . .
n Y1n Y2n Y3n …….. Ytn Y.n
Total T1 T2 T3 …….. Tt T = Y..
Medias Y Y Y ……. Y t
Y ..
1 2 3

*Estos totales servirán cuando las muestras se conviertan en bloques, por otro
lado, los tratamientos y las muestras pueden cambiar de posición.
La prueba de Hipótesis como ya se dijo, consiste en probar la igualdad de las
medias 1, 2, 3,…,t de los t tratamientos, si usamos la igualdad i = 0, equivale
a plantear la hipótesis:
Ho: 1 =2 =3 =………=t, o
: i = 0  i = 1, 2, 3, ...., t
H1: 1 2 3 ……….t, o
: i  0 para algún i = 1, 2,3,…., t
Por lo tanto, sí la hipótesis nula es verdadera, entonces cada observación estará
constituida por la media global  más un error aleatorio ij, esto equivale a afirmar
que todas las n observaciones se toman de una población con distribución normal
con media  y varianza 2 y que los cambios en los niveles del factor no tienen
efecto sobre la respuesta promedio. Además, tanto el cuadrado medio del error
experimental y el cuadrado medio de los tratamientos, son estimaciones de 2, por
consiguiente el F experimental, Fe = Tr/E está distribuida como una F con (t-1) y
t(n-1) grados de libertad, y si el valor de Fe excede al valor de la Fo (tabular) con
un nivel de significancia  dado, se rechaza la hipótesis nula; en consecuencia se
concluye que existen diferencias significativas entre los t tratamientos.
El valor esperado de los cuadrados medios de los tratamientos y el error depende
del tipo de modelo, y son importantes para el planteamiento de las pruebas
estadísticas, estos son los siguientes:

Modelo I:
t

E (Tr) = 2 + n 1 i2/ (t-1); E (CME) = 2
CME = Cuadrado Medio del Error

Modelo II
E (Tr) = 2 + n2t ; E (CME) = 2
En ambos casos la Fe es igual a Tr/E.
Como se sabe, el ANVA en los DCA divide a la variabilidad total de los datos
contenidos en la muestra en dos componentes:
SUMA DE CUADRADOS = SUMA DE CUADRADOS + SUMA DE CUADRADOS
DEL TOTAL ENTRE TRATAMIENTOS DENTRO DE TRATAMIENTOS (ERROR)

SCT = SCTr + SCE


t n t n
∑ ∑ (Y ij−Y ∑∑
SCT = i=1 j=1 ..)2 = i=1 j=1 (Yij - Y i. + Y i. - Y ..)2
t n t t n
∑ ∑ (Y ij−Y ∑ (Y i. ∑ ∑ (Y ij−Y
= i=1 j=1 ..)2 = n i=1 - Y ..)2 + i=1 j=1 )2
i.

Puesto que el doble producto es cero


t n t − n
∑ ∑ (Y i. ∑ (Y i. ∑(
2 i=1 j=1 - Y ..) (Yij - Y i. ) =2 i=1 - Y ..) j=1 Yij - Y i.)
t n t
∑ ∑ (Y i. ∑ (Y i.
2 i=1 j=1 - Y ..)(Yi.- n Y ) =2
i. i=1 - Y ..)(Yi.- nYi./n) = 0

Ejemplo Nº 1
Un fabricante de cartones para confeccionar cajones, está interesado en mejorar
la resistencia a la tensión de su producto, el Departamento de Ingeniería de la
empresa piensa que la resistencia a la tensión es una función de la concentración
de madera dura en la pulpa, para lo cual se sometieron a prueba 24 especímenes
en un probador de tensión de laboratorio en un orden aleatorio, probando seis
especímenes por cada uno de los cuatro niveles dados, los resultados se
presentan en el cuadro siguiente. Pruebe sí existe diferencia significativa entre los
cuatro niveles con un 99% de seguridad.

Concentración Observaciones
de madera
dura en la 1 2 3 4 5 Total Promedio
pulpa en % 6
5% 7 8 15 11 9 60 10,00
10
10% 12 17 13 18 19 94 15,67
15
15% 14 18 19 17 16 102 17,00
18
20% 19 25 22 23 18 127 21,17
20
Total 383 15,96

Solución:
1) Ho: 1 = 2 = 3 = 4; No hay diferencia significativa entre los 4 niveles en
estudio.
H1: 1  2  3  4; Por lo menos uno de los niveles en estudio es diferente
a los demás
2)  = 0,01
3) El estadígrafo o la función pivotal es una F con 3 y 20 grados de libertad.
4) Se rechazará Ho si Fe es mayor a Fo = 4,94
5) T = 383
Myy = (383)2/24 = 6112,04
Tyy = (602 + 942 + 1022 + 1272)/6 – 6112,04 = 382,79
Y2 = 72 + 82 +152+………..+ 202 = 6625
SCE = Eyy = 6625 – 6112,04 – 382,79 = 130,17

Cuadro del ANVA


Fuente de Grados Suma de Cuadrados
Variación de Cuadrados Medios Fe
Libertad
Media 1 6112,04 6112,04 --
Tratamiento 3 382,79 127,60 19,6
s
Error Exp. 20 130,17 6,51 --
Total 24 6625,00 -- --

Cuadro del ANVA


Fuente de Grados Suma de Cuadrados
Variación de Cuadrados Medios Fe
Libertad
Tratamiento 3 382,79 127,60 19,6
s
Error Exp. 20 130,17 6,51 --
Total 23 512,96 -- --

6) Como Fe = 19,6  Fo = 4,94, se rechaza Ho; por lo tanto, hay diferencias


significativas en la resistencia media entre los 4 niveles de concentración de
madera, siendo el del 20% el que da mayor resistencia.

Ahora Usted puede analizar la gráfica y sacar sus propias conclusiones

G.1.GRÁFICO DE CAJAS
30

20

10
RESISTENCIA

0
N= 6 6 6 6

5 10 15 20

CONCENTRACION DE MADERA

2.2. COEFICIENTE DE VARIACIÓN:


Es una medida de variabilidad o de dispersión que indica el grado de dispersión de
los datos respecto a su promedio, sin tener en cuentas las unidades de medida de
la variable y sirve para analizar el grado de homogeneidad de los resultados
experimentales, para una mejor apreciación es necesario compararlo con un
estándar o con el de otro experimento de similares características. En el DCA el
CME es el estimador de la varianza de los datos en estudio y el coeficiente de
variación se calcula usando la siguiente fórmula.
√CME
CV(Y) = Y .. x 100
El coeficiente de variación para el ejemplo anterior es el siguiente:

√6,51
CV(Y) = 15,96 x 100 = 15,99% esto quiere decir que hay una variación de las
resistencias de casi el 16% respecto al promedio de resistencias.

También podría gustarte