Está en la página 1de 16

INSTITUTO TECNOLÓGICO SUPERIOR DE

COATZACOALCOS
Ingeniería Industrial
Enero-Junio 2023

ESTADISTICA INFERENCIAL II
Unidad III: Diseño de experimentos de un factor.

Israel Hernandez Isidro 21080712 4°CI


Nombre del Alumno Numero de Control Grado y Grupo

Docente: Bricio Jiménez Ventura

Actividad: Investigación de la unidad III

Fecha: 17/Mayo/2023
Contenido

INTRODUCCIÓN ............................................................................................................... 3

3.1 Familia de diseños para comparar tratamientos ....................................................... 4

3.2 El modelo de efectos fijos ...................................................................................... 6

3.3 Diseño completamente aleatorio y ANOVA ............................................................... 9

3.4 Comparaciones o pruebas de rangos múltiples ....................................................... 11

3.5 Verificación de los supuestos del modelo ................................................................ 12

CONCLUSIÓN ................................................................................................................. 14

GLOSARIO DE TERMINOS............................................................................................... 15

REFERENCIAS BIBLIOGRAFICAS ...................................................................................... 16


INTRODUCCIÓN

La importancia de la elaboración de esta investigación documental ha sido con la


intención de facilitar al lector una aproximación al análisis estadístico. Dicha
investigación abordara de manera resumida pero clara el tema II de Estadística
Inferencial III de acuerdo con el programa de estudio del instituto superior de
Coatzacoalcos. El cual se refiere a Diseño de experimentos de un factor. dicho
tema comprende de solamente de 5 subtemas.

En el trabajo que se presentara a continuación hablaremos acerca de los diseños


experimentales para un factor, en donde principalmente entendemos como diseño
experimental al esquema de cómo realizar un experimento.

El objetivo fundamental de los diseños experimentales radica en el determinar si


existe una diferencia significativa entre los diferentes tratamientos del experimento
y en caso que la respuesta es afirmativa, cuál sería la magnitud de esta diferencia.

El Diseño de Experimentos tuvo su inicio teórico a partir de 1935 por Sir Ronald A.
Fisher, quién sentó la base de la teoría del Diseño Experimental y que a la fecha
se encuentra bastante desarrollada y ampliada. Actualmente las aplicaciones son
múltiples, especialmente en la investigación de las ciencias naturales, ingeniería,
laboratorios y casi todas las ramas de las ciencias sociales.

El diseño de experimental ha resultado ser una herramienta de gran impacto en la


actualidad para el progreso de la industria, debido a que contribuye a conocer los
procesos de una manera más profunda, lo cual permite hacer mejoras en calidad
y bajar los costos de producción por medio de métodos estadísticos.

3
3.1 Familia de diseños para comparar tratamientos

Se llaman Experimentos Factoriales a aquellos experimentos en los que se estudia


simultáneamente dos o más factores, y donde los tratamientos se forman por la
combinación de los diferentes niveles de cada uno de los factores.
Los experimentos factoriales en si no constituyen un diseño experimental si no que ellos
deben ser llevados en cualquiera de los diseños tal como DCA, DBCA, DCL, DCGL
Los experimentos factoriales se emplean en todos los campos de la investigación, son
muy útiles en investigaciones exploratorias en las que poco se sabe acerca de muchos
factores.

VENTAJAS:
1.- Permite estudiar los efectos principales, efectos de interacción de factores, efectos
simples y efectos cruzados.
2.- Todas las unidades experimentales intervienen en la determinación de los efectos
principales y de los efectos de interacción de los factores, por lo que el número de
repeticiones es elevado para estos casos.
3.- El número de grados de libertad para el error experimental es alto, comparándolo con
los grados de libertad de los experimentos simples de los mismos factores, lo que
contribuye a disminuir la variancia del error experimental, aumentando por este motivo la
precisión del experimento.

DESVENTAJA:
1.- Se requiere un mayor número de unidades experimentales que los experimentos
simples y por lo tanto se tendrá un mayor costo y trabajo en la ejecución del experimento.
2.- Como en los experimentos factoriales c/u de los niveles de un factor se combinan con
los niveles de los otros factores; a fin de que exista un balance en el análisis estadístico se
tendrá que algunas de las combinaciones no tienen interés práctico, pero deben incluirse
para mantener el balance.

4
3.- El análisis estadístico es más complicado que en los experimentos simples y la
interpretación de los resultados se hace más difícil a medida que aumenta el número de
factores y niveles por factor en el experimento.

Los diseños experimentales más utilizados para comparar tratamientos son:

1. Diseño completamente al azar (DCA)


2. Diseño en bloque completamente al azar (DBCA)
3. Diseño en cuadro latino (DCL)
4. Diseño en cuadro grecolatino (DCGL)

La diferencia fundamental entre estos diseños es el número de factores de bloque que


incorporan o controlan de forma explícita durante el experimento. La comparación de los
tratamientos en cuanto a la respuesta media que logran, en cualquiera de estos diseños,
se hace mediante la hipótesis que se prueba con la técnica estadística llamada Análisis de
Varianza (ANOVA) con uno, dos, tres o cuatro criterios de clasificación, dependiendo del
número de factores de bloques incorporados al diseño.

5
3.2 El modelo de efectos fijos

En estadística, el análisis de la varianza (ANOVA, ANalysis Of VAriance, según


terminología española) es una colección de modelos estadísticos y sus
procedimientos asociados, en el cual la varianza está particionada en ciertos
componentes debidos a diferentes variables explicativas.

El análisis de la varianza parte de los conceptos de regresión lineal.

El primer concepto fundamental es que todo valor observado puede expresarse


mediante la siguiente función:

Donde Y sería el valor observado (variable dependiente), y X el valor que toma la


variable independiente.
Sería una constante que en la recta de regresión equivale a la ordenada en el
origen, es otra constante que equivale a la pendiente de la recta, y “e” es una
variable aleatoria que añade a la función cierto error que desvía la puntuación
observada de la puntuación pronosticada.
Por tanto, a la función de pronóstico la podemos llamar "Y prima":

Podemos resumir que las puntuaciones observadas equivalen a las puntuaciones


esperadas, más el error aleatorio:
(1.1)
Sabiendo este concepto, podemos operar con esta ecuación de la siguiente forma:
1) Restamos a ambos lados de la ecuación (para mantener la igualdad) la media
de la variable dependiente:

2) Substituimos el error (e) por la ecuación resultante de despejar la ecuación 1.1:

6
Por tanto...

Y reorganizando la ecuación:

Ahora hay que tener en cuenta que la media de las puntuaciones observadas es
exactamente igual que la media de las puntuaciones pronosticadas:

Por tanto:

Podemos ver que nos han quedado 3 puntuaciones diferenciales. Ahora las
elevamos al cuadrado para que posteriormente, al hacer el sumatorio, no se
anulen:

Y desarrollamos el cuadrado:

Podemos ver que tenemos los numeradores de las varianzas, pero al no estar
divididas por el número de casos (n), las llamamos Sumas de Cuadrados., excepto
en el último término, que es una Suma Cruzada de Cuadrados (el numerador de la
covarianza), y la covarianza en este caso es cero (por las propiedades de la
regresión lineal, la covarianza entre el error y la variable independiente es cero).
Por tanto:

O lo mismo que:

de un factor, que es el caso más sencillo, la idea básica del análisis de la varianza
es comparar la variación total de un conjunto de muestras y descomponerla como:

Donde:

Es un número real relacionado con la varianza, que mide la variación

7
debida al "factor", "tratamiento" o tipo de situación estudiado.
Es un número real relacionado con la varianza, que mide la variación dentro
de cada "factor", "tratamiento" o tipo de situación.
En el caso de que la diferencia debida al factor o tratamiento no sea
estadísticamente significativa puede probarse que las varianzas muestrales son
iguales:

Donde:
Es el número de situaciones diferentes o valores del factor que se están
comparando. (Número de muestras)
Es el número de mediciones en cada situación se hacen o número de valores
disponibles para cada valor del factor. (Tamaño de las muestras)
Así lo que un simple test a partir de la F de Snedecor puede decidir si el factor o
tratamiento es estadísticamente significativo.

El modelo de efectos fijos (es cuando se estudian todos los posibles tratamientos)
de análisis de la varianza se aplica a situaciones en las que el experimentador ha
sometido al grupo o material analizado a varios factores, cada uno de los cuales le
afecta sólo a la media, permaneciendo la "variable respuesta" con una distribución
normal.

Este modelo se supone cuando el investigador se interesa únicamente por los


niveles del factor presentes en el experimento, por lo que cualquier variación
observada en las puntuaciones se deberá al error experimental.

Donde es el parámetro de escala común a todos los tratamientos, llamado media


global; es un parámetro que mide el efecto del tratamiento y es el error atribuible a
la medición.

8
3.3 Diseño completamente aleatorio y ANOVA

El método ANOVA con un factor de clasificación también llamado Diseño


Completamente al Azar (DCA) es el más simple de los diseños experimentales
para comparar distintas poblaciones y evaluar su variabilidad, dado que solamente
considera la variación entre poblaciones y el error aleatorio.

Muchas comparaciones, como las antes mencionadas, se hacen con base en el


diseño completamente al azar (DCA), que es el más simple de todos los diseños
que se utilizan para comparar dos o más tratamientos, dado que sólo consideran
dos fuentes de variabilidad: los tratamientos y el error aleatorio.

En la siguiente unidad veremos diseños que consideran la influencia de otras


fuentes de variabilidad (bloques). Este diseño se llama completamente al azar
porque todas las corridas experimentales se realizan en orden aleatorio completo.

De esta manera, si durante el estudio se hacen en total N pruebas, éstas se


corren al azar, de manera que los posibles efectos ambientales y temporales se
vayan repartiendo equitativamente entre los tratamientos.

El análisis de la varianza de un criterio (ANOVA de un criterio) es una metodología


para analizar la variación entre muestras y la variación al interior de las mismas
con varianzas, en lugar de rangos. Como tal, es un método estadístico útil para
comparar dos o más medias poblacionales.

El objetivo del análisis de varianza en el DCA es probar las hipótesis de igualdad


de los tratamientos con respecto a la media de la correspondiente variable de
respuesta:

9
Nota: Primeramente, explicare el cálculo manual tradicional para ANOVA,
posteriormente el simplificado y más práctico, así como su solución utilizando un
paquete computacional. El método de ANOVA con un criterio requiere del cálculo
de dos estimaciones independientes para, la varianza poblacional común.

Estas dos estimaciones se denotan por y. Se denomina estimación de la varianza


entre muestras (Método entre). Se denomina estimación de la varianza al interior
de las muestras (Método dentro) El estadístico entonces resulta y tiene una
distribución muestral que sigue una distribución F. Estadístico F para el ANOVA
con un criterio (2,3) El cual se contrastara con el valor de encontrado en tablas en
relación a los grados de libertad del numerador entre grados de libertad del
denominador y con un nivel de significancia () prefijado.

Se rechaza el si se deduce que, si es grande, se contradice la hipótesis de que no


hay efectos de tratamientos; en cambio, si es pequeño se confirma la validez de
diseños completamente al azar y ANOVA.

El método dentro de estimación de la varianza produce una estimación válida sin


importar si la hipótesis nula de las medias poblacionales iguales es cierta. Esto se
debe a que la variabilidad de los valores de la muestra se determina comparando
cada elemento.

10
3.4 Comparaciones o pruebas de rangos múltiples
La prueba de rango múltiple Duncan es una comparación de las medias de
tratamientos todos contra todos de manera que cualquier diferencia existente entre
cualquier tratamiento contra otro se verá reflejado en este análisis.

Utiliza un nivel de significancia variable que depende del número de medias que
entran en cada etapa de comparación. La idea es que a medida que el número de
medias aumenta, la probabilidad de que se asemejen disminuye.

Para obtener los comparadores Duncan, se toman de la tabla de Duncan los


valores de acuerdo al número de tratamientos y con los grados de libertad del
error.

Cada uno de estos valores será multiplicado por el error estándar de la media y
éstos serán los comparadores para determinar cuáles diferencias son
significativas.

La comparación de las diferencias se hace en forma diagonal, o sea que en el


ejemplo el comparador 0.42 sirve para comparar las diferencias 0.29, 0.34 y 0.31.

Se acostumbra a marcar con un asterisco las diferencias que resultan


significativas (al 5% de probabilidad) y con dos asteriscos las que sean altamente
significativas (al 1% de probabilidad).

11
3.5 Verificación de los supuestos del modelo
Para estimar los parámetros , 1, 2, 3 y 4 se puede emplear mínimos
cuadrados minimizando:

k n

  (yij −  −  i)2
i= 1 j= 1

con respecto a y a las i , sujetas a la restricción

Esto se puede hacer por el método de los Multiplicadores de Lagrange. Derivando


la penúltima expresión respecto de e igualando a cero:

k n

  −2 (yij −  −  i) 0
i= 1 j= 1

k n k n k n

  yij −   −   i 0
i= 1 j= 1 i= 1 j= 1 i= 1 j= 1

k n

  yij − k n − 0 0
i= 1 j= 1

12
para un i dado:

n n n n

 −2 (yij −  −  i) 0  i  yij −  
j= 1 j= 1 j= 1 j= 1

La evaluación de los supuestos de un modelo se basa en la verificación de las


propiedades empíricas que se derivan de ellos.

Si se cumple la monotonía podremos encontrar estas características en los datos:

a) todos los pares de ítems tendrán


correlaciones no negativas para todos
los subgrupos de sujetos que difieren
en el mismo rasgo (Mokken, 1971);

b) todo par de ítems tendrá una


asociación condicional (CA) en
cualquier grupo de personas con una
particular puntuación empírica (X+)
(Rosenbaum, 1984);

c) para cualquier ítem i la proporción de personas que lo respondan


correctamente será no-decreciente sobre los grupos de puntuación creciente (X+),
donde X+ se estima sobre el resto de n-1 ítems; finalmente.

d) la puntuación total (X+) tendrá una regresión monótona no-decreciente sobre la


habilidad (Lord y Novick, 1968), implica una correlación positiva entre ambos.

13
CONCLUSIÓN

De manera personal, y a manera de conclusión, puedo decir que el diseño


experimental es de gran importancia y de gran utilidad no solo en la
industria, si no como se ha visto anteriormente, dicho diseño es de gran
utilidad en diversas áreas tales como la informática, la biotecnología, la
industria y el área farmacéutica entre muchas otras, debido a que dicho diseño
nos permite reducir al máximo la variabilidad de los procesos, estudiando los
factores que son considerados como de más alta influencia sobre un proceso.

De esta manera, a través del diseño experimental para un factor, la industria o


cualquier otra área que aplique o utilice dicho diseño podrá corregir defectos en
sus procesos, reducir tiempos, dinero y esfuerzos, así como analizar y detectar
errores para poder corregirlos en los diversos procesos que lleva a cabo.

El diseño de experimentos de un factor es una técnica esencial en la investigación


científica para analizar el efecto de una variable independiente en una variable
dependiente. Este tipo de diseño permite controlar todas las variables que no son
de interés para determinar el efecto del factor en la variable dependiente.

El análisis estadístico de los datos obtenidos permite determinar si existe una


relación significativa entre el factor y la variable dependiente, y si hay diferencias
significativas entre los diferentes niveles del factor. Este tipo de diseño es
ampliamente utilizado en diversas áreas de la investigación científica y es
fundamental para el avance del conocimiento en estas áreas.

14
GLOSARIO DE TERMINOS

• Unidad experimental: son los objetos, individuos, intervalos de espacio o


tiempo sobre los que se experimenta.

• Variable de interés o respuesta: es la variable que se desea estudiar y


controlar su variabilidad.

• Factor: son las variables independientes que pueden influir en la variabilidad


de la variable de interés.

• Factor tratamiento: es un factor del que interesa conocer su influencia en la


respuesta.

• Factor bloque: es un factor en el que no se está interesado en conocer su


influencia en la respuesta, pero se supone que ésta existe y se quiere
controlar para disminuir la variabilidad residual.

• Niveles: cada uno de los resultados de un factor. Según sean elegidos por el
experimentador o elegidos al azar de una amplia población se denominan
factores de efectos fijos o factores de efectos aleatorios.

• Observación experimental: es cada medición de la variable respuesta.

• Ortogonalidad de factores: dos factores FI y FJ con I y J niveles,


respectivamente, son ortogonales si en cada nivel i de FI el número de
observaciones de los J niveles de FJ están en las mismas proporciones.

• Diseño equilibrado o balanceado: es el diseño en el que todos los


tratamientos son asignados a un número igual de unidades experimentales.

15
REFERENCIAS BIBLIOGRAFICAS

•ALEA, V. et al. (1999) Estadística Aplicada a les Ciències Econòmiques i Socials.


Barcelona: Edicions McGraw-Hill EUB

Bustos, R. (2020). Diseño experimental para un factor. StuDocu. Recuperado 25


de noviembre de 2021, de https://www.studocu.com/es-mx/document/instituto-
politecnico-nacional/estadistica/estadistica-iii-investigacion-del-diseno-
experimental-para-un-factor/8418982

Gutiérrez H. y De la Vara R. (2008) Análisis y diseño de experimentos; México:


McGraw Hill
https://www.academia.edu/41280762/Analisis_y_diseno_experimentos

Badii, M.H, J. Castillo, M. Rodríguez, A. Wong & P. Villalpando (2007) Diseños


experimentales e investigación científica; Universidad Autónoma de Nuevo León:
México http://eprints.uanl.mx/12482/1/A5.pdf

Soto, M. (2016, 26 enero). NOMENCLATURA Y SIMBOLOGIA EN EL DISEÑO


EXPERIMENTAL. Apuntes - MoRaRzL. Recuperado 25 de noviembre de 2021,
de https://www.clubensayos.com/Ciencia/NOMENCLATURA-Y-SIMBOLOGIA-EN-
EL-DISE%C3%91O-EXPERIMENTAL/3110298.html

Jiménez, C. P. (2019). Identificación de los efectos de los diseños experimentales.


SlidePlayer. Recuperado 25 de noviembre de 2021, de
https://slideplayer.es/slide/14808223/

Hernández D. (2014) La importancia de la aleatorización de los experimentos de


prueba. Recuperado 25 de noviembre de 2021, de
https://es.scribd.com/doc/220947358/4-5-La-Importancia-de-La-Aleatorizacion-de-
Prueba Olivares

16

También podría gustarte