Está en la página 1de 133

CAPITULO I

REPRESENTACION DE DATOS
A menudo, las mediciones son hechas con una muestra de ‘n’ artículos tomados de un gran conjunto
de artículos. Este gran conjunto se denomina „población‟. Por ejemplo, se puede haber tomado una muestra
de 100 lapiceros de un lote de 10,000 producidos, con el objeto de efectuar mediciones de la calidad de
lapiceros. Generalmente se desea “generalizar” los resultados obtenidos de la muestra hacia la población
de la cual fue extraída. Esta generalización se denomina inferencia de la muestra a la población. La
inferencia solo es posible si la muestra es totalmente representativa de la población. Por ejemplo, de la
muestra de 100 lapiceros se concluye que el 1% de esa muestra (1 lapicero) presenta defectos al escribir.
De esto se infiere que en el lote de 10,000 lapiceros, 100 de ellos presentaran defectos al escribir. El
conjunto de datos obtenidos debe ser organizado, resumido y mostrado antes de que se intente alguna
interpretación. Gráficos de ploteo y diagramas son muy útiles para observar adecuadamente la información
obtenida.
En lo referente a notación, n representa el número de observaciones en un conjunto de datos; las
observaciones están representadas por una variable con subíndice; por ejemplo, X1, X2 , …,Xn . Así, la
representación de cinco valores, n = 5, de la resistencia a la fractura de una aleación medidas por un
ingeniero será: X1 = 2310; X2 = 2325, X3 = 2315, X4 = 2340, X5 = 2335 (en unidades psi).

1.1 Organización y reporte de datos: Tablas y Gráficas


Los datos tal como se obtienen de una investigación están en forma desordenada, por lo que es difícil
su interpretación y análisis. Debido a esto se deben organizar en forma de Tablas y Gráficas para permitir
una visualización clara y rápida de todo el conjunto. En la tabulación y descripción de los datos se debe
seguir ciertos principios generales.

1.1.1.Principios generales sobre la construcción de Tablas.


1. Las Tablas se explicarán por sí mismas enteramente, se ha de dar suficiente información en el título y en
los encabezados de las columnas para permitir que el lector identifique fácilmente su contenido.
2. Cada variable numérica debe contener sus unidades.
3. La función del rayado debe dar claridad de interpretación. Debe evitarse el rayado excesivo e
innecesario.
4. No se debe incluir demasiada información en una sola Tabla.
5. Las anotaciones numéricas de cero se deben escribir explícitamente en vez de usar guión, ya que este
se usará para indicar datos que faltan o no se han observado.
6. Una anotación numérica no debe comenzar con punto decimal.
7. Los números que indican valores de la misma característica se han de dar con el mismo número de
cifras decimales.
Ejemplo:

Tabla Nro. x.x: Cantidades de mineral en el proceso de lixiviación.


Tanque Alimentación Desechos
Nro.
(1) (2)
TMH % H2O TMS %Cu Contenido %Cu Contenido
oxidado de Cu, Kg. oxidado de Cu, Kg.
4 7.160 2.43 6.986 8.35 583 0.35 24
6 3.580 2.50 3.491 8.44 295 0.40 14
10 7.000 2.58 6.819 8.50 580 0.45 31
12 3.500 2.40 3.416 8.10 311 0.54 18
14 3.600 2.45 3.152 8.00 316 0.60 21
16 3.800 2.50 3.705 8.40 311 0.50 19
18 3.600 2.40 3.514 8.70 306 0.60 21
TOTAL 32.240 2.47 31.443 8.59 2702 0.49 148
(1) Toneladas métricas húmedas. (2)Toneladas métricas secas.

1
1.1.2. Principios generales sobre construcción de gráficas
1. Las gráficas se han de explicar enteramente por si mismas.
2. Las escalas vertical (ordenada) y horizontal (abscisas) estarán rotuladas con claridad dando las
unidades y con los mismos intervalos para las ordenadas y abscisas respectivamente.
3. No se debe abarcar demasiada información en un solo gráfico. Es mejor hacer varios gráficos que
comprimir demasiada información en uno solo.
4. La finalidad de las gráficas es dar una visión general y no una imagen detallada del conjunto de datos.
5. Debe evitarse la inclusión de números dentro del cuerpo de la gráfica.
Ejemplos:

P
rod
ucció
ndetrig
oym
aizenlaG
ran
jaX
XX P
rod
ucc
iónd
etr
igoyma
ize
nlag
ran
jaX
XX
3
00 280
T
RIG
O
M
AIZ
2
60 240

2
20 200

160
1
80
Fanegas

1
40
Fanegas 120

80
1
00
40
6
0 T
R IGO
1
9701
9711
9721
9731
9741
9751
9761
9771
9781
9791
980 0
19701971197219731974197519761977197819791980 M
AIZ
A
ño
A
ño
Figura Nro..... Gráfica de series de tiempo de producción de la granja XXX Figura Nro......: Grafico de barras de producción de
la granja XXX

Sup
erfic
iesd
ezo
n a
sde
lmund
o

U
RSS
,7,9
A
frica
,11
,7

S
uda
m erica
,6,9

O
cea
nía
,3,3
A
sia
,10
,4

N
ortea
m erica
,9,4 E
uro
pa,1
,9

Figura Nro. ......: Gráfico de pastel de distribución de áreas en el mundo.

1.2. Tipos de datos.


Los datos estadísticos se obtienen mediante la observación o medición de las características de las
unidades elementales de una muestra. Una variable es una función que asigna valores a los resultados
obtenidos de un experimento. Para seleccionar un procedimiento estadístico a utilizar es necesario conocer
que tipo de datos tenemos; estos pueden ser: continuos, discretos, nominales o categóricos y ordinales o
jerarquizados.
Los que provienen de variables continuas, tales como temperatura, viscosidad, velocidad, peso,
longitud, etc., están dentro de esta categoría. En general, los datos continuos son los que se obtienen al
medir con algún instrumento.
Una variable discreta es la que puede asumir solo ciertos valores, por lo general enteros. Los datos
discretos surgen al contar el número de conceptos que posee cierta característica, como por ejemplo la los
defectos en un lote de tela, los accidentes de trabajo en una fábrica, el número de alumnos dentro de un
salón de clase, etc.

2
Tanto los datos continuos como los discretos se conocen como datos cuantitativos. Por otra parte, los
dos tipos de datos restantes, los ordinales y los nominales, son datos cualitativos y se les convierte a
números antes de trabajar con ellos.
Los datos nominales comprenden categorías como sexo, color de ojos o de piel, animales con o sin
síntoma de determinada enfermedad, con defecto o sin defecto, turno de producción, lote producido, etc.
Los datos ordinales o jerarquizados se refieren a evaluaciones subjetivas según preferencia o logro.
Por ejemplo si un investigador desea analizar el efecto de cierta lesión cerebral sobre la conducta materna
de ratones, puede establecer como criterio de evaluación la calidad de nido que construye: excelente,
bueno, regular o malo. Estos términos son reducidos luego a números, (1, 2, 3,…) calificándose así las
características que se evalúa.
Es interesante observar que algunas poblaciones pueden proporcionar los cuatro tipos de datos, por
ejemplo:

POBLACIÓN CONTINUOS DISCRETOS NOMINALES ORDINALES


Automóviles peso, longitud número de defectos por colores tamaño
auto.
Ratas de Peso, edad Número de crías por rata Color: negra,
laboratorio blanca, gris

A pesar de la clasificación señalada, para la mayor parte de las aplicaciones estadísticas, basta con
clasificar los datos como cuantitativos y cualitativos.
Es importante destacar en este punto que según el tipo de datos que se este analizando, la evaluac ión
estadística difiere. Es así que existe tratamiento estadístico de datos si estos son discretos; si son datos
continuos, el tratamiento difiere en cierta medida. Estos tipos de datos se tratan respectivamente por la
Distribución Binomial y la Distribución Normal.

1.3. Diagramas circulares y diagramas de barras


Los datos se pueden agrupar según la frecuencia y la proporción o porcentaje de cada categoría y
representar gráficamente mediante diagramas circulares (gráficas de pastel) y diagramas de barras. Por
ejemplo se ha recolectado 80 datos correspondientes a los colores de animales según se especifica en la
Tabla:1.1

Tabla 1.1: Frecuencia y % según casos para ejemplificar diagramas


CASOS FRECUENCIA %
Blancos 48 60
Manchados 16 20
Negros 12 15
Pardos 4 5

Para construir el diagrama circular se procede a dividir el circulo de acuerdo a las proporciones dadas,
º º º
así 360 equivale al 100%; 216 equivale al 60 %, 72 al 20%, etc. Para distinguir las distintas regiones se
utilizan diferentes colores o puntos, rayas, cruces, etc. El diagrama de barras representa los datos
estableciendo barras que se levantan desde la abscisa hasta una altura correspondiente al dato a representar,
como se muestra en la Figura 1.1.:
D
ia
gra
m aCirc
ula
r D
ia
gra
m ad
eBa
rra
s:D
is
trib
ució
ndeA
nim
ale
spo
rCo
lor
D
istrib
ució
ndeA
nim
ale
spo
rCo
lor 6
0

P
ardos
,5,0%
5
0
N
egros
,15,0%
4
0

3
0

2
0
M
anc
hados
,20,0% Bla
ncos
,60,0%

1
0

0
Bla
nco
s M
an
cha
dos N
egro
s Pa
rdo
s

Figura 1.1: Diagrama de pastel y de barras para datos de colores de animales.


3
1.4 Diagramas de Pareto
Alfredo Pareto (1848 – 1923) llevó a cabo muy completos estudios sobre distribución de la riqueza en
Europa. Descubrió que unos cuantos concentraban la mayor parte de la riqueza, en tanto que era muy
grande el número de pobres. Esta desigual distribución de la riqueza se convirtió en parte fundamental de
la teoría económica y se convirtió en un concepto universal. De esto se acuño las frases minoría vital y
mayoría útil.
Un diagrama de Pareto es una gráfica en donde se organizan diversas clasificaciones de datos por
orden descendente, de izquierda a derecha, como puede observarse en la Figura 1.2. En este caso, las
clasificaciones de datos corresponden a tipos de fallas producidas en el campo.
La minoría vital aparece a la izquierda de la gráfica y la mayoría útil a la derecha. Hay veces que hay que
combinar elementos de la mayoría útil en una sola clasificación denominada otro, y que en la Figura se
designa con ‘o’. Siempre que se utilice la categoría otros, esta deberá colocarse en el extremo derecho. La
escala vertical es para el uso de valores, en tanto que la escala horizontal se coloca categorías.
Mediante el diagrama de Pareto se puede detectar los problemas que tienen más relevancia. Por lo
general, alrededor del 80% de los resultados generales se origina en el 20% de los elementos. La gráfica es
muy útil al permitir identificar visualmente de una sola revisión las minorías características vitales a las que
es importante prestar atención.
Conviene aclarar que una mejora en la calidad de la minoría vital, por ejemplo del 50%, producirá mucho
mayor rendimiento que una mejora del 50% de la mayoría útil. Asimismo, la experiencia ha mostrado que es
más fácil lograr una mejora del 50% de la minoría vital.
El diagrama de Pareto se utiliza constantemente ; por ejemplo; supóngase que la falla tipo F es el
objetivo de los esfuerzos correctivos del programa de elevación de la calidad. Se comisiona a un equipo de
ingenieros para que investigue y efectúe mejoras sobre ese tipo de fallas. La siguiente vez que se efectue
otro análisis de Pareto, ya debe ser el tipo de falla C el objetivo de la corrección, y de esta forma el proceso
de mejora continua, hasta lograr que las fallas se conviertan en un problem a insignificante en un contexto
generalizado de lograr mejorar los atributos de calidad de un proceso.

D
ia
gra
mad
ePa
reto
T
ip
osd
eFa
lla
s

2
7
2
4
2
1
1
8
1
5
1
2
9
Frecuencia

6
3
0
F C A E D B O C
ANT

Figura 1.2: Diagrama de Pareto para tipos de fallas

1.5 Gráficas de Series de Tiempo


Las gráficas consideradas hasta el momento son métodos visuales muy útiles para mostrar la variabilidad
presente en los datos. Sin embargo, con frecuencia el tiempo es un factor importante que contribuye a la
variabilidad observada en los datos, y los métodos anteriores no lo toman en cuenta.
Una serie de tiempo, o secuencia de tiempo, es un conjunto de datos en los que las observaciones se
registran en el orden en que ocurren. La gráfica de una serie de tiempo es un diagrama en el que el eje
vertical denota el valor observado (por ejemplo X = Ventas), mientras que el eje horizontal denota tiempo
(que puede ser en años, minutos, días, etc.).Cuando se grafican las mediciones como una serie de tiempo,
a menudo se observan tendencias, ciclos u otras características importantes de los datos que, de otra
forma, pasarían inadvertidas.
Por ejemplo, la Figura 1.3 presenta la gráfica de una serie de tiempo de las ventas anuales de una
compañía durante los últimos diez años. La impresión general que ofrece esta gráfica es que las ventas
tienen una tendencia a crecer. Existe cierta variabilidad en esta tendencia, donde, las ventas en algunos
años aumentaron con respecto a las del año anterior, mientras que las ventas de otros años disminuyeron.

4
V
enta
s19
82a1
991
1
35

1
30

1
25

1
20

1
15
VENTAS

1
10

1
05

1
00

9
5

9
0
1
982 1
983 1
984 1
985 1
986 1
987 1
988 1
989 1
990 1
991

A
ÑO

Figura 1.3: Ventas de una compañía por año.

1.6 Cartas de Control


Estos gráficos representan otra manera útil de examinar la variabilidad en datos que dependen del tiempo.
La Figura 1.4 representa una carta de control para los datos de concentración de un proceso químico
tomadas cada hora. La línea central de la carta de control representa el promedio de las mediciones de
concentración para las 20 primeras muestras (91.45g/l). El límite superior de control y el límite inferior de
control son un par de límites obtenidos estadísticamente que reflejan la variabilidad inherente o natural del
proceso. Estos límites están localizados a tres desviaciones estándar de los valores de concentración por
encima y por debajo de la línea central. Si el proceso está trabajando como se debe, sin ninguna fuente
externa de variabilidad presente en el sistema, las mediciones de concentración deberán fluctuar de manera
aleatoria alrededor de la línea central, y casi todas ellas deben caer dentro de los límites de control.

C
artad
eCo
ntro
l:Ob
serva
ció
nvs. C
oncen
tra
ció
n
1
05

1
01.0
1
00

9
5
9
1.4
5
9
0
Concentración

8
5
8
2.0
8
0

7
5
1 5 1
0 1
5 2
0 2
5 3
0
Ob
serv
ació
n

Figura 1.4: Carta de Control para los datos de un proceso químico.

En la carta de control de la Figura 1.4 el marco visual de referencia proporcionado por la línea central y
los límites de control, indica que algún cambio o perturbación alrededor de la muestra 20 ha tenido efecto
sobre el proceso, ya que todas las observaciones que siguen están por debajo de la línea central, y mas
aún, dos de ellas se encuentran por debajo del límite inferior de control. Esto constituye un indicador muy
fuerte de que el proceso requiere de una acción correctiva. Si se puede encontrar y eliminar la causa que
originó el cambio, podrá mejorarse de manera considerable el rendimiento del proceso.
Las cartas de control son una aplicación muy importante de la estadística para la vigilancia, control y
perfeccionamiento de un proceso. La rama de la estadística que hace uso de las cartas de control se
conoce como Control Estadístico de Procesos, CEP. Estos métodos son procedimientos para vigilar la
variación de un proceso y para generar información de la estabilidad del proceso, ya que un proceso

5
inestable resultará en la producción de artículos defectuosos, baja calidad y en general, pérdida de la
confianza del consumidor.
Si bien es cierto las gráficas de control son recursos excelentes para resolver problemas al facilitar el
mejoramiento de la calidad, también es cierto que su utilidad es limitada cuando se trata de monitorear y
mantener un proceso.

1.7. Diagramas de dispersión.


La manera más sencilla de definir si existe una relación causa y efecto entre dos variables, es dibujando
un diagrama de dispersión. En la Figura 1.5 muestra la relación que existe entre presión y volumen de un
gas. A medida que aumenta la presión, el volumen del gas disminuye. Aquí se establece una situación de
dependencia e independencia; en donde la variable Presión es independiente y la variable volumen
depende de los efectos de la presión. La variable independiente se colocara siempre en el eje X y la
variable dependiente o respuesta, en el eje Y,
D
ia
gra
m ad
eDisp
ersió
n
R
ela
ció
nPr
esió
n-V
olu
m end
eunGa
s
2
,0

1
,8

1
,6

1
,4

1
,2
VOLUMEN(Litros)

1
,0

0
,8

0
,6

0
,4

0
,2
0,0 0
,6 1
,2 1
,8 2
,4 3
,0 3
,6
P
RES
ION(Kg
/cm
2)

Figura 1.5: Diagrama de dispersión para la relación P – V de un gas..

1.8. Diagramas de puntos, distribución de frecuencias e histograma.


El siguiente ejemplo, Tabla 1.2, permitirá ilustrar la forma de graficar los resultados de medicion es. Se
anota en esta tabla la resistencia a la compresión ( unidades de 100 libras por pulgada cuadrada) de 90
bloques de concreto. Estas mediciones fueron efectuadas para medir la variabilidad entre los bloques
comprados a un proveedor.
Esta información sin un tratamiento previo y sin gráficos apropiados no es muy útil. Para obtener
información concreta de los datos obtenidos se puede elaborar un diagrama de puntos. En este diagrama se
marca en un eje horizontal las observaciones realizadas. En la Figura 1.6 se muestra un diagrama de
puntos para las 10 primeras observaciones. Este diagrama muestra la variabilidad existente en 10
observaciones. Esta gráfica permite ver con rapidez y facilidad la ubicación o tendencia central de los
datos; así como su dispersión o variabilidad

Tabla 1.2 (a): Resistencia a la compresión de bloques de concreto (100 libras por pulgada cuadrada). Tal
como se obtuvieron los datos.

48.2 53.9 50.0 44.5 42.2 42.3 32.3 31.3 60.9 47.5
43.5 37.9 41.1 57.6 40.2 45.3 51.7 52.3 45.7 53.4
51.0 45.7 45.9 50.0 32.5 67.2 55.1 58.6 48.6 50.3
45.1 46.8 47.4 38.3 41.5 44.0 62.2 62.9 56.3 35.8
38.3 33.5 48.5 47.4 48.6 41.3 55.2 52.1 34.3 31.6
38.2 46.0 47.0 41.2 38.8 48.4 48.2 32.8 47.9 43.3
48.3 54.5 54.1 44.5 46.2 44.4 45.1 41.5 43.4 38.1
38.1 41.6 43.1 43.7 48.8 37.2 33.6 28.7 33.8 37.4
43.5 44.2 53.0 45.1 51.9 56.6 48.5 38.0 47.3 48.8

6
Tabla 1.2 (b): Resistencia a la compresión de bloques de concreto (100 libras por pulgada cuadrada). Tabla
ordenada.

28.7 34.3 38.1 41.6 44.0 45.7 47.4 48.8 51.9 55.2
31.3 35.8 38.1 42.2 44.2 45.7 47.4 48.2 52.1 56.3
31.6 37.2 38.8 42.3 44.4 45.9 47.5 48.2 52.3 56.6
32.3 37.4 40.2 43.1 44.5 46.0 47.9 48.3 53.0 57.6
32.5 37.9 41.1 43.3 44.5 46.2 48.4 50.0 53.4 58.6
32.8 38.2 41.2 43.4 45.1 46.8 48.5 50.0 53.9 60.9
33.5 38.3 41.3 43.5 45.1 46.9 48.5 50.3 54.1 62.2
33.6 38.3 41.5 43.5 45.1 47.0 48.6 51.0 54.5 62.9
33.8 38.0 41.5 43.7 45.3 47.3 48.8 51.7 55.1 67.2

El diagrama de puntos es una gráfica muy útil para visualizar un conjunto pequeño de datos. Las
gráficas permiten ver con rapidez y facilidad la ubicación o tendencia central de los datos, así como su
dispersión o variabilidad. A menudo estos diagramas son útiles al comparar dos ó más conjuntos de datos.
Si el número de observaciones es pequeño, a menudo es difícil identificar algún patrón específico; sin
embargo, el diagrama de puntos es útil y puede proporcionar información sobre características poco usuales
de datos. Cuando el número de observaciones es moderadamente grande, pueden ser más útiles otros
tipos de gráficas.

1.00

0.80
32 40 48 56 64
Resistencia a compresión

Figura 1.6: Diagrama de puntos para 10 mediciones de resistencia a la compresión.

Para las 90 observaciones este diagrama no sería muy útil por la gran cantidad de puntos que tendrían
que agruparse en una escala corta. Para gran cantidad de datos es mejor construir una Tabla de
distribución de frecuencias, como se muestra en la Tabla 1.3 y graficar los resultados en forma de un
histograma como se muestra en la Figura 1.7.
Para determinar la frecuencia de distribución, primero se ordena las observaciones de menor a mayor,
Xmin, Xmax. El rango de los datos se establece según:

R = Xmax - Xmin = 67.2 - 28.7 = 38.5

Este valor de R muestra un valor de la extensión de la variabilidad. El rango de los datos se divide en
intervalos, los cuales se conoce como intervalos de clase o celdas. Las clases deben tener el mismo ancho
con la finalidad de mejorar la información visual en la distribución de frecuencias. El número de intervalos
depende del número de observaciones y de la dispersión de los datos. También dependerá del número de
observaciones que se tenga, por lo que se podrá tener más intervalos con menores longitudes con mayor
cantidad de datos. Se ha visto que en muchos casos resulta satisfactorio usar entre 5 y 20 clases, y que el
número de clases debe aumentar en función de n. En la práctica se obtiene buenos resultados si se hace la
selección del número de clases aproximadamente igual a:
Nro. de clases  n
En el ejemplo, se determina 10 intervalos, cada uno de los cuales con un ancho de 4. La primera clase se
inicia en 28.0 a 32 (sin incluir 32), la segunda de 32 a 36 (sin incluir 36), etc. La clase final corresponde
64.0 - 68.0. Los puntos finales de cada celda se denominan límites de celda y el valor central de cada celda
el punto medio. Luego se cuenta el número de valores que pertenecen a cada clase y se elabora una tabla
de distribución de frecuencia. Por convención, si el valor de una observación corresponde exactamente a un
límite, se respeta la designación del intervalo cerrado al comienzo y abierto al final. Así cada observación
caerá en alguna de las clases establecidas. En la tabla se anotara la frecuencia, fi, es decir, el número de
ocurrencia de observaciones en cada clase. La frecuencia relativa, fi/n resulta de dividir la frecuencia
respectiva entre el total de observaciones. La frecuencia acumulada se obtiene de:

7
i
f cum   f J  f 1  f 2  ... f i (i  1, 2,..., k )
J 1

y la frecuencia relativa acumulada:

i
f cum 1
n

n
f
J 1
J

Tabla 1.3: Distribución de frecuencias


Intervalo Punto Frecuenci Frecuenci Frecuenci Frecuenci
Medi a fi a Relativa a a
o fi/n Acumulad Acumulad
a fcum a Relativa
fcum /n
[28.0 - 30.0  3 0.033 3 0.033
32.0[
[32.0 - 34.0  8 0.089 11 0.122
36.0[
[36.0 - 38.0  10 0.111 21 0.233
40.0[
[40.0 - 42.0  15 0.167 36 0.400
44.0[
[44.0 - 46.0  22 0.244 58 0.644
48.0[
[48.0 - 50.0  15 0.167 73 0.811
52.0[
[52.0 - 54.0  9 0.100 82 0.911
56.0[
[56.0 - 58.0  4 0.044 86 0.955
60.0[
[60.0 - 62.0  3 0.033 89 0.988
64.0[
[64.0 - 66.0  1 0.011 90 1.000
68.0[
90 1.000

Un histograma esta formado por un conjunto de rectángulos que representan la frecuencia de una
categoría; representa gráficamente las frecuencias correspondientes a los valores observados. En el
histograma, según la Figura 1.7, se gráfica en la abscisa las clases y en la ordenada o bien la frecuencia o
la frecuencia relativa. El histograma muestra como están distribuidos los valores de la variable de interés;
condensa la información en forma tal que la comprensión visual se hace muy fácil mostrando los valores
típicos, dispersión y forma de la distribución.
En la Figura 1.8 se gráfica la frecuencia acumulada vs. los límites superiores de cada intervalo.. Una
ojiva es la línea que conecta los puntos. Las zonas de mayor pendiente en la curva respectiva,
corresponden a las clases más frecuentes. La frecuencia acumulada muestra por ejemplo que 36 de 90
observaciones (ó 40 %de las observaciones) son menores que 44. Similarmente, que 89 de 90 (98.8 %de
las observaciones) son menores que 64. La definición de frecuencia acumulada implica que la ojiva no es
decreciente y siempre se encuentra entre 0 y 1.
El histograma de la Figura 1.7 es aproximadamente simétrico, con un solo pico o „joroba‟ en la parte
media. Este pico representa a la clase de mayor frecuencia, que en el ejemplo corresponde a la clase del
44 al 48. El punto medio de la clase es el 46, el cual se denomina „moda‟ y representa el valor más
frecuente en el conjunto de datos. Este tipo de distribuciones con un solo pico en el medio son muy
comunes. Lo son tanto que muchas de ellas se les denomina distribuciones normales.
Los histogramas de la Figura 1.9 (a) (b) tienen un solo pico pero no son simétricas. Se dicen que son
distribuciones sesgadas a la izquierda o la derecha. Pueden corresponder a índices de mortalidad humana,
la que es mayor a ciertas edades. El histograma de la Figura 1.9(c) presenta dos picos o dos modas. A este
8
tipo de histogramas se les denomina „bimodales‟. Pueden explicarse, por ejemplo, por la presencia de dos
diferentes tipos de procesos, dos máquinas diferentes, o que las condiciones de una fábrica varia.

H
istogramaparaB
loque
sdeConc
reto O
jivaPa
ralo
sda
tosd
eResisten
ciaalaC
omp
resió
n
1
,0
2
4
2
2
2
0 0
,8
1
8
1
6
0
,6
1
4
1
2

Frec.Acum.Relat.
Frecuencia

1
0 0
,4

8
6
0
,2
4
2
0
,0
0 2
5 3
0 3
5 4
0 4
5 5
0 5
5 6
0 6
5 7
0
24 2
8 3
2 3
6 4
0 4
4 4
8 5
2 5
6 6
0 6
4 6
8
R
esis
ten
ciaalaC
omp
res
ión
Re
siste
nciaalaC
omp
resió
n(1
00lb
/pu
lg2
)

Figura 1.7: Histograma para las mediciones de Figura 1.8: Gráfico de los datos de resistencia
a la
resistencia a la compresión compresión, frecuencia acumulada.

(a) (b)

(c)

Figura 1.9: Tipos de histogramas.

Una distribución de frecuencias dice también cual es la variación de los datos. Contesta a la pregunta
¿cuánta variación existe?. Si una distribución es pequeña y la otra grande, estando ambas dibujadas en la
misma escala horizontal, ello significa que la primera tiene menos variación que la segunda, Figura 1.9.

9
Figura 1.10: Distribuciones de variabilidad menor y mayor respectivamente.

Una característica adicional de una distribución por frecuencias es la simetría de sus variaciones. La
distribución puede ser simétrica o estar cargada a uno de los lados. Si se trata del segundo caso, se dice
que la distribución es asimétrica. Una distribución asimétrica tiene un solo pico, pero esta situado en el
extremo superior o inferior de ella. Cuando la cola más larga de la curva se encuentra a la derecha, se dice
que es asimétrica a la derecha o asimétrica positiva. Cuando la cola más larga de la curva esta a la
izquierda, la curva es asimétrica a la izquierda o asimétrica negativa.

Figura 1.11: Distribución positivamente asimétrica y negativamente asimétrica respectivamente.

El modelo positivamente asimétrico es muy común en los datos económicos y comerciales; por
ejemplo la distribución del ingreso familiar; o también el número de tiendas que venden al por menor es
mayor que las tiendas que venden al por mayor, sin embargo estas últimas registran mayores cantidades de
ventas.
Un histograma condensa la información de modo que sea fácil su comprensión visual. Los
histogramas pueden exhibir cierta sensibilidad con respecto al numero de clases y ancho. Para conjuntos de
pequeños de datos, los histogramas pueden cambiar claramente de apariencia si el número de clases o el
ancho de estas cambia. Los histogramas son más estables si el conjunto de datos es grande, de preferencia
de 75 a 100 o más datos. Sin embargo, frecuentemente es necesario sintetizar la información de modo
„numérico‟ para caracterizar los datos de manera estadística. En especial, se requiere de medidas de
centralización y de dispersión.

EJERCICIOS GRUPO 1
1. Los siguientes datos muestran el número de toneladas de materiales transportados por vía acuática a un
país en 1972:
PRODUCTO CANTIDAD, MILES DE TON
Petróleo y derivados 63,150
Carbón 20,100
Acero 13,800
Arena y grava 11,700
Fibras 7,650
Madera 4,650
Químicos 8,700
Conchas marinas 1,650
Otros 18,600
10
a) Construya una tabla de porcentajes para los datos anteriores y calcule la porción a asignar a cada
categoría.
b) Construya un diagrama de barras y una gráfica de pastel para los datos anteriores.

2. La distribución en la siguiente Tabla nuestra el número de accionistas de una empresa, clasificados por el
número de acciones que poseen:

ACCIONES NÚMERO DE ACCIONISTAS


menos de 1000 486
1000 -1999 372
2000 - 2999 210
3000 - 3999 117
4000 - 4999 43
5000 - 5999 27
6000 - ó más 13

a) Construya una tabla de porcentajes para los datos anteriores y calcule la porción a asignar a cada
categoría.
b) Construya un diagrama de barras y una gráfica de pastel para los datos anteriores.

3. Aproximadamente dos tercios de los accidentes automovilísticos se deben a una inadecuada forma de
conducir. Construya un diagrama de Pareto para los siguientes datos: (a) Dar vuelta en sentido incorrecto:
3.6%; (b) Velocidad de manejo excesiva para las condiciones imperantes: 28.1 %; (c) Distancia insuficiente
entre dos vehículos: 8.1 %; (d) Violaciones a la indicaciones de preferencia: 30.1 %; (e) Ocupar carriles de
la izquierda o permanecer al centro: 3.3 %; (f) Rebasar mal : 3.2 %; (g) Otras causas: 23.6 %.

4. Un equipo de proyecto estudia el costo que implicaría las descomposturas en una línea para embotellar
bebidas refrescantes. El análisis en miles de dólares correspondientes a tres meses son: (a) Regulador de
presión: 30; (b) Ajuste de gusano de alimentación: 15; (c) Atoramiento de la cabeza de cobre: 6; (d)
Pérdidas de enfriamiento: 52; (e) Reemplazo de válvulas: 8; (f) Otras: 5. Construya un diagrama de Pareto.

5. Los siguientes datos corresponden a la resistencia a la tensión (100 psi) y dureza (Rockwell E) de aluminio
moldeado en matriz. Dibuje un diagrama de dispersión y defina la relación respectiva:
(0.5; 1.62), (1.5; 0.75), (2.0; 0.62), (3.0; 0.46), (2.5; 0.52), (1.0; 1.00), (0.8; 1.35), (1.2; 0.89), 2.8; 0.48), (3.2;
0.43), (1.8; 0.71), (0.3; 1.80). Dibuje un diagrama de dispersión y defina la relación correspondiente.

6. Los datos de la cantidad de agua utilizada, (en pulgadas) y el rendimiento de alfalfa en toneladas por acre,
son las siguientes:

Agua 12 18 24 30 36 42 48 60
Rendimiento 5.3 5.7 6.3 7.2 8.2 8.7 8.4 8.2

Dibuje un diagrama de dispersión y analice los datos.

7. Los datos siguientes representan el número de ciclos transcurridos hasta que se presenta una falla en una
prueba de piezas de aluminio sujetas a un esfuerzo alternante repetido de 21,000 psi a 18 ciclos por
segundo:
1115 1567 1223 1782 1055 798 1016 2100 910 1501
1310 1883 375 1522 1764 1020 1102 1594 1730 1238
1540 1203 2265 1792 1330 865 1605 2023 1102 990
1502 1270 1910 1000 1608 2130 706 1315 1578 1468
1258 1015 1018 1820 1535 1421 2215 1269 758 1512
1315 845 1452 1940 1781 1109 785 1260 1416 1750
1085 1674 1890 1120 1750 1481 885 1888 1560 1642
Construya una tabla de frecuencias y un histograma para los datos anotados.

11
8. Los siguientes datos son mediciones de viscosidad de un producto químico tomadas cada hora (de arriba
abajo y de izquierda a derecha):

47.9 48.8 48.6 43.2 43.0


47.9 48.1 48.0 43.0 42.8
48.6 48.3 47.9 43.5 43.1
48.0 47.2 48.3 43.1 43.2
48.4 48.9 48.5 43.0 43.6
48.1 48.6 48.1 42.9 43.2
48.0 48.0 48.0 43.6 43.5
48.6 47.5 48.3 43.3 43.0
Construya una gráfica de series de tiempo para estos datos.

9. La siguiente tabla muestra las velocidades orbitales de los planetas de nuestro sistema solar. Representar
estos datos con el gráfico apropiado.

Planeta Velocidad,
Millas/seg.
Mercurio 28.7
Venus 21.8
Tierra 18.5
Marte 15.0
Júpiter 8.1
Saturno 6.0
Urano 4.2
Neptuno 3.4
Plutón 3.0

12
CAPITULO II

MEDIDAS DE CENTRALIZACION Y DISPERSION


Del mismo modo que las gráficas pueden mejorar la presentación de los datos, las descripciones
numéricas también tienen gran valor. Estas descripciones son números que sintetizan la información
contenida en un serie de datos y le dan plena validez objetiva a una evaluación.
El valor central o típico del conjunto de datos , en el sentido que es el más representativo del grupo de
datos, se le denomina promedio. Este valor pertenece a la serie de Medidas de Tendencia Central. Los
promedios basados en sus propiedades matemáticas pueden clasificarse en dos categorías: promedios
computados (media aritmética, media geométrica y media armónica), y promedios de posición (mediana y
moda).
Además de la tendencia central de los valores a agruparse en las cercanías de un valor promedio, es
necesario saber cuanto se dispersan o varían; es decir, si están cerca uno del otro o alejados. Las medidas
de este acercamiento o alejamiento se conocen como Medidas de Variabilidad o de Dispersión y las más
usadas son el rango, la varianza, desviación estándar y coeficiente de variación.

2.1. Medidas de centralización


Una característica importante de un conjunto de números es su localización o tendencia central. Esto
se evalúa a través del promedio, mediana, moda, media geométrica, cuartiles, etc.

a) Promedio ó Media Aritmética:


La media aritmética, por su facilidad de computación y largo uso, es el promedio más conocido y más
comúnmente usado. A veces se le llama simplemente la media o promedio; pero cuando se hace referencia
a otros tipos de medias deben emplearse los adjetivos apropiados.
Para un grupo de datos, x1, x2, x3,...,xn, la medida más conocida de centralización es el promedio
aritmético de n observaciones. Ya que los datos usualmente corresponden a una muestra de una gran
población (en el ejemplo de la Tabla 1.2, 90 muestras de bloques de concreto tomadas de la cantidad total o
población), este promedio se refiere al promedio de muestra y se define como:
_ n
1 1
x
n
( x1  x 2  x 3  ... x n ) 
n
x
i 1
i

_
Nótese que la suma de las desviaciones de cada muestra con respecto al promedio, x i  x debe dar cero;
esto es:
n _ n _

 ( x  x)   x  ( n x)
i 1
i
i 1
i 0

Se puede imaginar al promedio como el punto de balance que mantiene una barra completamente
horizontal. Es decir, los valores de las observaciones de un lado de la media igualan a los valores de las
observaciones del otro lado de ella.
Si consideramos las 10 primeras observaciones de la Tabla 1.2 (Cap. I), se encuentra que:
_
454.1
x  45.41
10
y para el conjunto de las 90 observaciones, el promedio es 45.54.
Un inconveniente del promedio es que se ve muy afectado por la presencia de un solo dato que se
encuentre muy lejos del conjunto de las observaciones. Así por ejemplo, si en vez de escribir 50.0, por error
se escribe 5.00, el promedio de 10 observaciones baja hasta 40.91, siendo el real 45.41.

b. Media Ponderada
Teóricamente, todas las medias aritméticas son promedios ponderados. Si no se asignan pesos
específicos a todos y cada uno de los valores de una serie, a cada una se le asigna un peso igual a 1. Al
computar la media aritmética con datos agrupados, las frecuencias de clases pueden considerarse como
una serie de pesos para los puntos medios. Cuando se usan pesos diferentes en el cómputo, puede decirse
apropiadamente que la media aritmética es ponderada.
En algunas circunstancias, no todas las observaciones tienen el mismo peso. Sean los valores X1, X2
,..., Xn asociados a pesos w1, w2,..., wn que dependen de la significación e importancia de esos números; en
este caso:
13
Xw
w1 X 1  w2 X 2  ...  wn X n

 wX
w1  w2  ...  wn w
c. Media a partir de datos agrupados
Debido a que los valores individuales de la muestra se pierden al agruparse, para calcular la media
aritmética se usa los puntos medios o centros de clase como representantes de clase. En consecuencia,
si mi es el centro de clase y fi la frecuencia de clase, la media aritmética se define como:
K

f m  f m  f 3 m3  ...  f n mn f i mi
X 1 1 2 2  i 1

n n
donde k es el número de clases.

d. Media geométrica, G
La media geométrica de una serie de „n‟ números, x1,x2,...,xn, es la raíz N-ésima del producto de los
números:

n
G n x1 x 2 ...x n  n  Xi
i 1

La media geométrica se emplea por ejemplo en microbiología para calcular títulos de disolución
promedio y para promediar cantidades en forma de proporciones y tasas de crecimiento o de cambios y en
general cuando convenga hacer una transformación logarítmica. La computación de la media geométrica se
facilita reduciendo la fórmula a su forma logarítmica:

log x1  log x2  log x3  ...  log xn 1 n


log G 
n

n
 log X
i 1
i

Por ejemplo, la media geométrica de 2, 4 y 8 libras es:

G  3 (2) (4) (8)  4 lb


Para la misma serie el promedio aritmético es 4.7 lb. Es cierto siempre que la media aritmética es
mayor que la media geométrica para cualquier serie de valores positivos, a menos que las pa rtidas que se
promedian sean del mismo valor, en cuyo caso los dos promedios son iguales.
A causa de esta relación, para computar la media geométrica a partir de datos agrupados se puede
utilizar la siguiente expresión:

f 1 log m1  f 2 log m2  f 3 log m3  ...  f n log mn 1 n


log G 
n

n
 f log m
i 1
i

Puede observarse que la media geométrica sólo es significativa para conjunto de observaciones que
son todos positivos. La media geométrica se adapta especialmente a las razones de promedios, índices de
cambio y series distribuidas logarítmicamente. En ciertos casos especiales de razones de promedios o
porcentajes, como la computación del índice de precios, la media geométrica puede dar resultados
significativos y lógicos que la media aritmética no da.
La media geométrica da igual ponderación a las tasas iguales. Es decir, al promediar tasas de cambio
geométricamente, la tasa que muestra el doble de su base es compensada por otra muestra la mitad de su
base ; la tasa que muestra cinco veces su base, es compensada por otra que muestra un quinto su base; y
así sucesivamente. Las tasa de cambio son ordinariamente expresadas en porcentajes. Puesto que la base
para cada proporción expresada en porciento es siempre igual a 100%, el promedio de dos proporciones las
cuales se compensan, deberá ser 100 % también. El siguiente cuadro da una ilustración de que la media
geométrica proporciona una mejor respuesta que la que proporciona la media aritmética:

14
Elemento Unidades venidas Tasa de cambio
1984 1985 1984 (base) 1985
A 5 yd 25 yd 100 % 500 %
B 50 lb 10 lb 100 % 20 %

Media Aritmética 100 % 20%  500 %


260% =
2
Media Geométrica 100 %
100% = 20 x 500

e. La Media Harmónica.
Si se toma el recíproco del valor de cada partida, se calcula la media aritmética de los recíprocos y se
toma el recíproco de esta media, el resultado se conoce como media harmónica. O más
sintéticamente, la media harmónica es el recíproco de la media aritmética de los recíprocos de las
observaciones. La formula es:
1 1 n
H  
1 / x1  1 / x 2  ...  1 / x n  (1 / x)  (1 / x)
n n
Para facilitar los cálculos se puede utilizar:

1 1 / x1  1 / x2  ...  1 / xn
 
 (1 / x)
H n n

La media harmónica para los siguientes valores: 2, 4 y 8 es:

1 1 / 2 1 / 4  1 / 8 7
 
H 3 24
H  3.43

Para los mismos datos, la media aritmética es 4.7 y la media geométrica es 4. Para cualquier serie
cuyos valores no sean iguales y que no tengan ningún valor de cero, la media harmónica es siempre menor
que la media aritmética y la media geométrica. Así, la media harmónica se considera que tiene una
tendencia hacia abajo, en tanto que la media aritmética la tiene hacia arriba.
La media harmónica se utiliza en el cálculo de tasas medias de tiempo en ciertas condiciones y
ciertos tipos de precios. También se adapta bien a una situación en que las observaciones se expresan
inversamente a lo que se requiere en el promedio; es decir cuando por ejemplo, se desea el costo medio
por unidad , pero los datos muestran el número de unidades producidas por cantidad de costo. Obsérvese
la siguiente ilustración que describe lo señalado.
Supóngase que se ha gastado lo siguiente:
- Un dólar por 3 docenas de naranjas;
- Un dólar por 4 docenas de naranjas;
- Un dólar por 5 docenas de naranjas.
De esto resulta que los precios por docena son respectivamente: 33 ½ , 25 y 20 centavos, cuyo promedio
es:
(33 ½ + 25 + 20)/3 = 26 centavos. Siendo que se compró 12 docenas de naranjas, resultaría que 26 *12 =
3.12 dólares sería el cálculo de pago efectuado, lo cual contradice la realidad que correspondió a 3.0
dólares. Se puede observar que los datos expresan „tantas docenas por dólar‟. Estas son expresiones
inversas; en consecuencia el promedio puede obtenerse por la media harmónica, según:

1 1 / 33.33  1 / 25  1 / 20
  0.04
H 3

H  25 centavos
Se puede comprobar que la media aritmética ponderada también da resultados precisos.

15
f. Mediana
Es una medida de centralización mucho menos sensible a variaciones en una observación. La mediana
es la observación del medio cuando las observaciones se ordenan en forma creciente en un grupo impar de
n observaciones. Si n es par, la mediana es el promedio de las dos observaciones intermedias.
Sean X1, X2 ...Xn una muestra acomodada en orden creciente de magnitud, entonces la mediana se
define como la parte media , ó:
 X ([n 1] / 2 ) impar

Med   X ( n / 2 )  X (([n / 2 ]1)
 par
 2
Si se toma por ejemplo las 10 primeras observaciones de la Tabla 1.2 (Cap. I) y se les ordena
crecientemente, se tiene:

31.3 32.3 42.2 42.3 44.5 47.5 48.2 50.0 53.9 60.9
 
46.0
La sensibilidad de la mediana es mucho menor que el promedio a las variaciones por error de alguno de
los datos. En el ejemplo de la Tabla 1.2 (Cap. I), la mediana es el promedio de los valores de las posiciones 45
y 46 y corresponde a 45.5.
La característica típica de la mediana es que divide la distribución en dos partes iguales. En este
sentido, la mediana es también un punto de equilibrio. Así, la mediana es especialmente signific ativa para
describir observaciones que se anotan o puntúan, como tasas, calificaciones y clasificaciones, en vez de
contarse o medirse. Sin embargo, no tiene sentido para datos completamente cualitativos.

g. Moda
Representa el valor más frecuente en el conjunto de datos. En un histograma, el pico representa la
clase de mayor frecuencia; el punto medio de esta clase, también se llama moda. En el ejemplo de los
bloques de concreto, la mayor clase es la que corresponde al intervalo [44 – 48] y el punto medio de esta
clase ea 46 que corresponde a la moda.
Puesto que la moda es el punto de mayor concentración, la moda es el promedio más común para una
distribución. A causa de esta propiedad, la moda carece de significado si la distribución no tiene un gran
número de observaciones. La moda es un promedio muy inestable y su verdadero valor es difícil de
determinar.
Para distribuciones simétricas, el promedio, la mediana y la moda tienen aproximadamente el mismo
valor. Para el caso particular de las 90 observaciones de la resistencia a la compresión de los bloques de
concreto se tiene:
_
x  45.54 ; Med = 45.5; Moda = 46.0
Para las distribuciones sesgadas, estos valores no son iguales. Para una distribución positivamente
asimétrica, la media tiene el valor más grande, la moda el más pequeño y la mediana aproximadamente un
tercio de la distancia de la media a la moda. Para una distribución negativamente asimétrica, la media es
menor, la moda es mayor y la mediana se encuentra a una distancia de un tercio desde la media hacia la
moda.
La moda es con frecuencia el concepto que la mayoría de las personas tienen en mente cuando
hablan de promedios. El „consumidor medio‟ suele significar el consumidor que aparece con mayor
frecuencia en relación a su cuadro de consumo u otra cualidad; el tamaño modal de zapatos para hombre
es el tamaño típico comprado , porque más personas compraran ese tamaño que cualquier otro. Así, se usa
la moda con preferencia a otros promedios si se desea indicar el valor más típico de la serie.

h. Cuartiles.
La mediana (ya sea de una población ó de una muestra) divide a los datos en dos partes iguales.
También es posible dividir los datos en más de dos partes. Cuando se divide un conjunto ordenado de datos
en cuatro partes iguales, los puntos de la división se conocen como cuartiles. El primer cuartil o cuartil
inferior, q1, es un valor que tiene aproximadamente la cuarta parte (25%) de las observaciones por debajo
de el, y el 75% restante por encima de el. El segundo cuartil , q2, tiene aproximadamente la mitad (50%) de
las observaciones por debajo de él, a su vez equivale a la mediana. El tercer cuartil o cuartil superior tiene
aproximadamente tres cuartas partes (75%) de las observaciones por debajo de él. Al igual que en el caso

16
de la mediana, es posible que los cuartiles no sean únicos, y en tales casos, si dos observaciones
satisfacen la definición, se utiliza el promedio de ellas.
El rango intercuartil (q3 – q1) contiene el 50% central, con un 25% por debajo y otro 25% por arriba. A
menudo se emplea como medida de dispersión

h) Percentiles
Cuando un conjunto ordenado de datos se divide en cien partes iguales, los puntos de división reciben
el nombre de percentiles. El 100k-iésimo percentil pk, es un valor tal que al menos 100k% de las
observaciones están en el valor o por debajo de él, y al menos el 100(1-k)% están en el valor o por encima
de él.

Ejemplo:
Una serie de análisis químico de un gran lote de material tiene un contenido de 80 g de elemento útil
por tonelada del material. Para comprobar esta afirmación se toma 25 muestras del material con los
siguientes resultados:

77 81 76 86 79 79 80 77 89 77 78 85 80
75 79 88 81 78 82 80 76 83 81 85 79

Comprobar la ley promedio del concentrado y definir los cuartiles de la muestra tomada.
Los datos tomados se ordenan según:

75 76 76 77 77 77 78 78 79 79 79 79 80
80 80 81 81 81 82 83 85 85 86 88 89

Promedio = 80.44 g/T


Mediana, X13 = 80

1 25 3  3
posicion de q1  n    0.5   0.5  6.75 posicion de q3  n    0.5   25*   0.5  19.25
4 4 4  4

 X  X  77  78  X  X  82  83
q1   6 7    77.5  p0.25 q3   19 20    82.5  p0.75
 2  2  2  2

rango int ercuartil  q3  q1  82.5  77.5  5.0

 i  0.5
100   es el percentil de X i
 n 
 4  0.5 
X 4  77 es el cuarto valor  100   14  p014  77
 25 
 19  0.5 
X 19  82  100   74  p0.74  82
 25 

2.2. Variabilidad
La variedad no es sólo la sal de la vida, sino también la esencia de la estadística. Los datos
cuantitativos, materia prima para el análisis estadístico, se caracterizan siempre por diferencias de valor
entre las observaciones individuales. Estas diferencias cuantitativas son tan importantes como la tendencia
de las cifras a agruparse alrededor de un valor central en una serie. De igual modo que decimos que la
Estadística es la ciencia de los promedios, podemos decir igualmente que todos los métodos estadísticos
son técnicas para estudiar la variación.
La estadística es una disciplina a la que le concierne el proceso de obtener datos y comprender los
problemas en presencia de la variabilidad. Los métodos estadísticos tienen como propósito fundamental
entender la variabilidad. La variabilidad, o dispersión en mediciones y procesos, es un hecho de la vida.

17
Virtualmente todo proceso varía. Si los métodos de medición son suficientemente precisos, por ejemplo se
encontrará que el diámetro de pernos varia de uno a otro, el rendimiento de un proceso químico varía con el
tiempo, o que el porcentaje de artículos defectuosos varía de un lote a otro, etc.
Hay múltiples razones para la presencia de esta variabilidad. Proviene de ligeras diferencias en las
condiciones en las cuales se realiza la producción. La variabilidad puede reflejar diferencias en las materias
primas, diferencias entre maquinas u operadores, diferencias de las condiciones de operación por cambios
en variables tales como temperatura, humedad, presión, etc. También el muestreo puede ser una causa de
la variabilidad, puesto que esta operación aportará muestras representativas con diferentes características
cada vez que se realiza la operación. Ya que la variabilidad proviene de los procesos, es común referirse a
la variabilidad de procesos.
Parte de la variabilidad proviene de las operaciones de medición. Por ejemplo para determinar la
humedad de cierto pigmento, esta no tendrá exactamente el mismo valor luego de varias mediciones de la
misma muestra. Semejante fenómeno se verifica en todo proceso productivo. La variabilidad de medición es
el ruido que distorsiona la verdadera señal del proceso.
Por otro lado, mucha variación o variabilidad degrada la calidad de la producción y ocasiona pérdidas
a una empresa. Si un gran número de productos son producidos fuera de las especificaciones, y si los
productos no son inspeccionados antes de salir de una fábrica, entonces la empresa puede enfrentar los
siguientes problemas:
a) La cantidad de quejas se incrementa;
b) Recursos adicionales se deberán emplear para reparar los artículos que estén bajo garantía;
c) Los clientes buscarán un producto de mayor confiabilidad.

El problema de variabilidad se cuantifica de acuerdo a los límites de especificación que son la


referencia para la inspección de los productos y asegurar ausencia de defectos en el embarque de
productos terminados. Un producto es aceptable si se encuentra dentro de los límites de especificación o
será inaceptable si se encuentra fuera de los límites de especificación.
Las pérdidas de la compañía se deben a producción fuera de los límites de especificación. Cuando el
problema aparece, la solución no es incrementar la inspección. Esto requeriría mayor fuerza laboral y
aumento de costos por retratamiento y pérdidas. Consecuencia de ellos los precios finales se incrementaran
con el lógico malestar en los consumidores. Eventualmente, el consumidor encontrará un mejor proveedor,
redundando en pérdidas de mercado.
Para obtener un producto de calidad a costo reducido y de buena calidad, se debe diseñar el proceso
para producir según el valor del objetivo, y no para producir dentro de las especificaciones. Para minimizar
las pérdidas debidas a variación con respecto al objetivo, la variabilidad del producto debe ser reducida,
como se muestra en la Figura 2.1. El producto A tiene mayor proporción de artículos cerca del objetivo, por
lo tanto resulta una producción con menores pérdidas
A fin de encontrar efectiva y económicamente los valores de las variables de entrada que optimicen el
proceso, se requiere de apropiados diseños experimentales. Las pruebas de diseños experimentales
indicaran las variables que deben ser controladas precisamente y cuales de ellas afectarán
significativamente en las condiciones finales del producto.

Producto
A
Frecuencia

Producto
B

limite Objetivo limite


inferior superior
Figura 2.1: Alta calidad implica reducción de la varianza alrededor del objetivo.

2.3. Medidas de variación


La localización o tendencia central no necesariamente proporciona información suficiente para describir
datos de manera adecuada. Las medidas de la variación de los datos de uso más común son el rango,

18
varianza y la desviación estándar. Por ejemplo, considérese los datos de resistencia a la tensión (en psi)
de dos muestras, X, Y, de una aleación metálica:

Muestra X 130 150 145 158 165 140


Muestra Y 90 128 205 140 165 160

80 100 120 140 160 180 200 220

Muestra X Medias muestrales = 148


Muestra Y
Figura 2.2: Diagrama de puntos de la resistencia a la tracción.

La media de ambas muestras es 148 psi, sin embargo, en la Figura 2.2 se observa mayor variabilidad para
la muestra Y.
La variabilidad o dispersión es una parte natural e integral de toda medición. La más simple medida de
variación es el rango, definido como la diferencia entre la mayor y la menor de las observaciones. La
2
medida más común de la variabilidad es la varianza de muestra, s , y la desviación estándar de muestra,
_
s, que es la raíz cuadrada de la varianza. El cuadrado de la distancia x i  x que es ( x i  x ) 2 para las xi
_
observaciones con respecto al promedio general x proporciona alguna información sobre la variabilidad. La
varianza de muestra es un promedio especial del cuadrado de estas distancias. Para una muestra de n
determinaciones, x1, x2,...,xn se define como:
2
 n 
  xi 
xi   i 1 
n

1  _ 2
  _ 2
  _ 2
 1 n  _ 2

 2


n
s  n  1 x  x    x 2  x   ...  x n  x     xi  x  
2 i 1


1
      n  1 i 1   n  1
y para una población con n determinaciones, se define como:

 x  
2
i
2  i 1

n
A pesar de haber definido la varianza como un promedio de n distancias, la sumatoria respectiva se
_
divide entre (n-1). Para justificar este procedimiento tengamos en cuenta que las n desviaciones ( xi  x )
2
sumadas entre si dan cero. Por ello se necesitan solo (n-1) de estas desviaciones para calcular s . Además,
el utilizar el divisor (n-1) en lugar de n no representa una importante diferencia numérica si la cantidad de
observaciones es lo suficientemente grande.
2 2
Una varianza s  0 mide la separación de las observaciones alrededor del promedio. Si s = 0 se
2
dice que no hay ninguna variación porque las n observaciones deben ser las mismas. Ya que s es un
promedio de cuadrados, sus unidades son el cuadrado de las unidades de medición de x. Si por ejemplo x
2 2
es medida en Kg., s tiene unidades de Kg. .
La raíz cuadrada de la varianza de muestra proporciona la medida conocida como la desviación
estándar de muestra:
2
1 n  _

s    xi  x 
2
s n  1 i 1  

Del ejemplo de los bloques de concreto tenemos que para las diez primeras observaciones:
_
x = 45.41; s2 = 82.62 y s = 8.1
y para las 90 observaciones:
19
_
x = 45.51; s2 = 58.74 y s = 7.66
En el ejemplo de los bloques de concreto, Tabla 1.2, para n = 10 observaciones, se encuentra que 7 de
las 10 observaciones caen dentro a una desviación estándar del promedio; las otras tres (31.3, 32.3 y 60.9)
caen fuera de estos límites. En general, se observa que algo más de la mitad de todas las observaciones
_
que se efectúen se encontraran dentro del intervalo ( x  s ). Más de tres cuartos de las observaciones
_ _
caerán en el intervalo ( x  2 s ) y todas las observaciones caerán en el intervalo ( x  3 s ).
Es válido comparar las desviaciones estándar si deseamos comparar las dispersiones de dos ó más
series que tienen la misma o casi la misma media y que se expresan con la misma unidad. Sin embargo,
hay casos en que diferentes distribuciones pueden tener diferentes medias o se expresan en diferentes
unidades. Así resulta difícil comparar las desviaciones estándar. Por ejemplo, la desviación estándar de la
aleación X y la aleación Y de la Figura 2.2. son 12.57 y 38.76 respectivamente. Los valores absolutos de
estas variaciones alrededor de los promedios (300 % mayor una que la otra) no proporcionan la base de
una comparación adecuada. Para estos propósitos, la medida más adecuada es el cálculo del coeficiente
de variación CV que expresa la desviación estándar como porcentaje del promedio, según:

s s
CV  _
ó % CV 
*100 _
x x
Esta medida indica que las observaciones caen, en promedio, a aproximadamente CV % del promedio. Se
usa para comparar distribuciones con diferentes unidades o para comparar las dispersiones de dos
distribuciones diferentes. En el ejemplo de las 10 primeras observaciones de los bloques de concreto se
tiene que:

% CV  100 s  100 * 9.1  20.04


_
45.41
x
así, las observaciones que están a una desviación estándar del promedio están a 20 % del valor de la
media aritmética. Si por ejemplo, el promedio y desviación estándar de los salarios de médicos es 1 500 y
20 000 respectivamente y para profesores es de 1 000 y 12 000, la variación de los ingresos de los médicos
no es 50 % mayor; entonces:

100 *1 500 100 *1 000


CV X   7 .5 % CVY   8.3 %
20 000 12 000

2.3.1 ¿Cómo mide la varianza muestral la variabilidad?


Considérese la Figura 2.3, que ilustra las variaciones de los valores medidos de resistencia y las
desviaciones xi  x . Entre más grande sea la variabilidad en los datos, mayor será la magnitud de las
desviaciones xi  x . Puesto que la suma de las desviaciones xi  x siempre es cero, se debe utilizar una
medida de la variabilidad que cambie las desviaciones negativas en cantidades positivas. El elevar al
2
cuadrado las desviaciones es el método que emplea la varianza muestral. En consecuencia, si S es
2
pequeña, entonces existe una variabilidad pequeña en los datos, pero si S es grande, entonces la
variabilidad también lo es.

80 100 120 140 160 180 200 220

148

Figura 2.3: Manera en que la varianza mide la variabilidad mediante las desviaciones xi  x

20
De los datos de la Figura 2.2, se tiene:

1 6
 
n  1 i 1
 2
X i  X  158  S X2
1 6
 
n  1 i 1
2
Yi Y  1502  SY2

Naturalmente, la muestra Y presenta mayor dispersión o variabilidad de los datos, lo cual se observa
en el diagrama de puntos y en los valores calculados de la varianza.

2.3.2. Ejemplo de aplicación


El ingeniero jefe de una planta concentradora de hierro recibió quejas respecto al producto de la planta
de peletización referidas a la falta de uniformidad en la distribución del tamaño de los pellets  . Es importante
mantener lo más uniforme posible el tamaño de los pellets para asegurar un adecuado funcionamiento del
posterior proceso de tratamiento de tales pellets.
Se desea evaluar el problema y sugerir modificaciones con el uso de técnicas estadísticas.
Primeramente se recolecta información de los récords de producción de planta durante los pasados meses.
Se obtienen valores de la producción pellets de la malla por la que pasan en 80%, Tabla 2.1 (a).
Si la especificación del producto es 80 % malla 45 m  5 m, que modificaciones se propondrían al
ingeniero jefe en base al análisis estadístico de la información obtenida?

Tabla 2.1 (a) Datos de los meses anteriores para la producción de Pellets; malla por la que pasa el 80 % de
la producción diaria. Datos tal como se obtuvieron.

48.4 46.2 68.5 61.1 45.5 34.1 50.9 56.8 54.1 45.0
32.9 43.7 50.4 54.8 32.8 50.7 48.8 71.5 60.5 41.8
53.2 30.2 61.3 35.0 65.2 50.7 76.0 68.5 30.5 48.5
54.7 31.8 58.1 30.2 47.0 45.0 35.8 54.7 52.7 66.3
41.3 31.8 64.4 58.3 48.9 38.3 48.5 66.5 50.0 54.3
73.3 60.8 43.4 65.0 51.3 58.9 58.5 48.0 54.2 58.3
53.5 51.6 48.3 53.1 60.8 70.2 38.8 56.1 54.1 54.1
65.5 58.9 72.1 46.8 53.0 38.2 51.1 38.4 54.6 45.2
50.8 34.5 54.6 41.2 45.6 52.1 56.7 60.8 55.9 43.8
36.8 62.8 50.1 58.9 53.9 62.5 67.2 33.2 60.0 37.2
64.8 58.7 73.0 45.5 40.1 44.7 51.0 45.8 55.9 55.2
54.1 50.1 47.3 58.3 54.7 54.2 44.0 62.3 61.5 58.8
35.9 48.4 35.5 55.8 37.8 52.2 54.2 62.2 32.6 55.0
34.0 38.6 58.9 46.3 43.6 47.9 60.2 57.4 54.4 53.5
58.8 47.1 56.1 62.0 52.2 38.0 56.5 36.6 58.0 45.9
54.8 37.2 48.1 28.4 52.9 58.8 50.5 53.5 43.9 58.0
41.9 58.6 57.8 58.6 38.8 43.8 47.0 48.7 38.4 54.8
55.1 42.1 45.6 50.9 74.0 48.4 51.3 65.8 45.7 28.8
68.7 58.8 50.7 37.4 43.1 41.9 46.4 53.6 60.0 62.9
50.2 58.1 43.6 58.0 44.3 62.6 61.7 57.1 60.5 22.4

Es muy útil para el análisis que sigue, ordenar los datos obtenidos, Tabla 2.1 (b). Esta operación
permitirá identificar el valor máximo y el valor mínimo y definir el rango como una medida de la variabilidad.
La mediana y los cuartiles también son fácilmente identificables con este ordenamiento.


Aglomerado de mineral hecho a partir de partículas finas de mineral.
21
Tabla 2.1 (b) Datos de los meses anteriores para la producción de Pellets; malla por la que pasa el 80 % de
la producción diaria. Datos ordenados.

22.4 36.8 43.1 45.9 48.9 52.2 54.6 57.4 58.9 62.9
28.8 37.2 43.4 46.2 50.0 52.7 54.6 57.8 58.9 64.4
28.4 37.2 43.6 46.3 50.1 52.9 54.7 58.0 60.0 64.8
30.2 37.4 43.6 46.4 50.1 53.0 54.7 58.0 60.0 65.0
30.2 37.8 43.7 46.8 50.2 53.1 54.7 58.0 60.2 65.2
30.5 38.0 43.8 47.0 50.4 53.2 54.8 58.1 60.5 65.5
31.8 38.4 43.8 47.0 50.5 53.3 54.8 58.1 60.5 65.8
31.8 38.6 43.9 47.1 50.7 53.5 54.8 58.3 60.8 66.3
32.6 38.8 44.0 47.3 50.7 53.5 55.0 58.6 60.8 66.5
32.8 38.2 44.3 47.9 50.7 53.6 55.1 58.6 60.8 67.2
32.9 38.3 44.7 48.0 50.8 53.9 55.2 58.7 61.1 68.5
33.2 38.4 45.0 48.1 50.9 54.1 55.8 58.8 61.3 68.5
34.0 38.8 45.0 48.4 50.9 54.1 55.9 58.8 61.5 68.7
34.1 40.1 45.2 48.5 51.0 54.1 55.9 58.8 61.7 70.2
34.5 41.2 45.5 48.3 51.1 54.1 56.1 58.8 62.0 71.5
35.0 41.3 45.5 48.4 51.3 54.2 56.1 58.3 62.2 72.1
35.3 41.8 45.6 48.4 51.3 54.2 56.5 58.3 62.3 73.0
35.8 41.9 45.6 48.5 51.6 54.2 56.7 58.5 62.5 73.3
35.9 41.9 45.7 48.7 52.1 54.3 56.8 58.9 62.6 74.0
36.6 42.1 45.8 48.8 52.2 54.4 57.1 58.9 62.8 76.0

Con estos datos, se obtiene los siguientes cuadros con información obtenida mediante el uso de un
programa estadístico de computadora; incluye la Tabla de Frecuencias e Histograma

Figura 2.4: Salidas por computadora de los datos de pellets

22
El histograma de la Figura 2.5 muestra la distribución de los datos bajo la figura de una campana, lo
que demuestra una distribución normal de la producción de los pellets. Es evidente también la simetría
mostrada alrededor del intervalo [50, 55]. Este intervalo a su vez incluye al promedio de esta muestra.
El intervalo de especificación de producto pelletizado es [40, 50] m. De la Tabla 2.1(b) se puede
observar que X33 = 38.8 y X83 = 50.1 cuyos percentiles son 16.25% y 41.25% respectivamente. De esto
último se deduce que el 16.25% de la producción se encuentra por debajo del límite inferi or de
especificación y el (100 - 41.25) = 58.75% de la producción se encuentra por encima del límite superior de
especificación. Es decir, que el (16.25 + 58.75) = 75 % de los pellets son producidos fuera de los límites de
especificación.

Histograma:Distribuc
ióndelaProduc
cióndePe
lle
ts

4
8

4
4

4
0

3
6

3
2

2
8
Nodeobsservaciones

2
4

2
0

1
6

1
2

0
<=2
0 (2
0,2
5] (2
5,3
0] (3
0,3
5] (3
5,4
0] (4
0,4
5] (4
5,5
0] (5
0,5
5] (5
5,6
0] (6
0,6
5] (6
5,7
0] (7
0,7
5] (7
5,8
0] >8
0

M
allap
orlaq
uep
asael 8
0%,µm
Figura 2.5: Histograma de la producción de la planta pelletizadora de hierro.

Si bien, la simple determinación del promedio de tamaños nos da una indicación de la calidad de
producción, ese valor no es suficiente para el análisis de la producción. El dato más importante tal vez, es el
que nos indica que 75 de cada 100 pellets son producidos fuera de las especificaciones requeridas.
Como conclusiones del análisis realizado, se recomienda reducir el tamaño de descarga de los pellets a
tamaños alrededor de 45 m y reducir la variabilidad en el tamaño del producto, de modo que se produzcan
pellets más ajustados a los límites de especificación.

2.4. Diagramas de caja


El diagrama de caja (ó diagrama de caja y bigote) es una representación visual que describe al mismo
tiempo varias característica importantes de un conjunto de datos, tales como el centro, la dispersión, la
desviación de la simetría y la identificación de observaciones que se alejan de manera poco usual del resto
de los datos.
El diagrama de caja presenta en un rectángulo los tres cuartiles, y los valores mínimo y máximo de los
datos. El rectángulo delimita el rango intercuartil con la arista izquierda (ó inferior) ubicada en el primer
cuartil, q1, y la arista derecha (ó superior) en el tercer cuartil, q3. Se dibuja una línea a través del rectángulo
en la posición que corresponde al segundo cuartil, q 2 ó mediana. De cualquiera de las aristas del rectángulo
se extiende una línea ó bigote que va hacia los valores extremos. Estas son obs ervaciones que se
encuentran entre 0 y 1.5 veces el rango intercuartil a partir de las aristas del rectángulo. Las observaciones
que están 1.5 a 3 veces el rango intercuartil a partir de las aristas del rectángulo reciben el nombre de
valores atípicos. Las observaciones que están mas allá de tres veces el rango intercuartil se conocen como
valores atípicos extremos
Por ejemplo, para los datos de la Tabla 2.1, el diagrama de caja se muestra en la Figura 2.6 obtenido
mediante el uso de un programa estadístico de computadora. Se observa bastante simetría con respecto al
23
valor central, lo cual da una indicación adicional de la distribución normal de los datos obtenidos. En este
caso no se presentan valores atípicos.
Los diagramas de caja son muy útiles para hacer comparaciones gráficas entre conjuntos de datos, ya
que tienen un gran impacto visual y son fáciles de comprender. Por ejemplo en la Figura 2.7 se presentan
los diagramas comparativos para un índice de calidad de fabricación de dispositivos electróni cos de tres
plantas distintas. El examen de este diagrama revela que existe mucha variabilidad en la planta 2 y que es
necesario que las plantas 2 y 3 incrementen sus índices de calidad.

Dia
g ra
m ad
eca
jap
aralo
sdato
sdePe
lle
ts
85

75

65

55

45

35
M
ax=76
M
in=2
2.4
25 7
5%=5
8.6
5
2
5%=4
4.5
15
Ma
lla80%pa
ssing M
ed
ian=5
2.2

Figura 2.6: Diagrama de caja para los datos de la pelletizadora de mineral de hierro.

120

110

100

90

80

70
1 2 3
Figura 2.7: Diagramas de caja comparativos de un índice de calidad de tres plantas distintas.

2.5. Otros tipos de medición.


Existen dos tipos de mediciones que se utilizan mucho para analizar un grupo de datos. Se trata de la
Asimetría o Sesgo (Skewness en Inglés) y la Curtosis (Kurtosis en Inglés).

a. Sesgo ó Asimetría.
El sesgo o grado de asimetría, es la falta de simetría de una distribución. Si la curva de frecuencias
de una distribución tiene una cola más larga a la derecha del máximo central que a la izquierda, se dice
que la distribución esta sesgada a la derecha o que tiene sesgo positivo. Si es al contrario se dice que
esta sesgada a la izquierda o tiene sesgo negativo.
En distribuciones sesgadas, la media tiende a situarse con respecto a la moda al mismo lado que la
cola más larga. Este parámetro proporciona un valor que indica falta de simetría en los datos. Su formula
general es:

 X 
h
3
i X
i 1
m3 n
a3  3 
S S3

24
La asimetría es un número que indica el grado de desviación de la simetría. Si el valor de a 3 es cero,
los datos son simétricos; si es mayor de cero (positivo), los datos se inclinan hacia la derecha, lo cual
significa que la base larga está a la derecha; si es menor de cero (negativo), los datos se inclinan hacia
la izquierda, es decir, que la base larga de la curva está a la izquierda.

b. Curtosis.
Es la medida de agudeza de los datos; normalmente se toma en relación a la distribución normal.
Una distribución que presenta un apuntamiento relativo alto, tal como la de la curva de la Figura 2.8(a),
se llama leptocurtica, mientras que la curva de la Figura 2.8(b), que es más achatada, se llama
platicúrtica. La distribución normal de la Figura 2.8(c), que ni es muy apuntada ni achatada, se llama
mesocúrtica.

(a) Leptocúrtica (b) Platicúrtica (c) Mesocúrtica


Figura 2.8: Curtosis en las distribuciones.

Una medida de curtosis emplea el momento de cuarto orden con respecto a la media, expresado en
forma adimensional y dado por :

 X X
n
4
i
i 1
m4 n
a4  4 
S S4

En el caso de una distribución normal, mesocúrtica, el valor de curtosis es a4 = 3.0. Si a4 >3.0, la


altura de la distribución es mayor de lo normal, es decir, es leptocúrtica. Si a4< 3.0 la altura de la
distribución es inferior que la normal o platicúrtica. Existen algunos paquetes de software para normalizar
los datos a cero, restándole a la respuesta 3.

25
EJERCICIOS GRUPO 2
2
1. La fuerza de tensión (en lb/pulg ) de unas muestras de fibra sintética son:
12 15 18 16 15 14 16 17.
a) Construir el diagrama de puntos.
b) Calcular el promedio de muestra, varianza y desviación estándar.
3
2. A continuación se presentan los datos de consumo de O 2 (oxígeno) por el salmón (mm /hr):

105 95 94 112
83 80 96 93
69 71 108 75
94 84 102 94
Calcular la media, mediana, moda, varianza y desviación estándar.

3. Los siguientes son los números de imperfecciones observadas en 50 muestras, tomadas de rollos de telas:
2 0 4 4 1 4 0 3 2 0
0 1 1 1 0 1 2 4 1 1
1 5 2 2 5 3 4 0 4 0
0 0 3 0 1 4 2 1 2 0
3 1 3 4 2 0 5 6 3 2
a) Calcular la media, varianza, desviación estándar, mediana y moda.
b) Agrupar los datos en una tabla de frecuencias, mostrando clases, límites, frecuencias, frecuencias
acumuladas y % acumulado.
c) Construir una ojiva para los datos agrupados y calcular q1 y q3

4. Los siguientes datos son mediciones de viscosidad de un producto químico tomadas cada hora:
47.9 47.9 48.6 48.0 48.4 48.1 48.0 48.6
48.8 48.1 48.3 47.2 48.9 48.6 48.0 47.5
48.6 48.0 47.9 48.3 48.5 48.1 48.0 48.3
43.2 43.0 43.2 43.1 43.0 42.9 43.6 43.3
43.0 42.8 43.1 43.2 43.6 43.2 43.5 43.0
a) Construya un histograma y un diagrama de caja para esta serie de datos.
b) ¿Cuáles son los percentiles 90 y 10 de estos datos?
c) Las especificaciones sobre la viscosidad del producto son 48  2, ¿qué conclusiones puede obtener
sobre el desempeño del proceso?

5. Un fabricante de aleaciones metálicas esta preocupado por las quejas de sus clientes acerca de la falta de
uniformidad en el punto de fusión de filamentos metálicos producidos. 50 filam entos se seleccionaron y
sus puntos de fusión determinados. Los siguientes son los resultados obtenidos:

320 325 314 314 313 329 320 329 317 316
331 326 328 312 308 327 316 308 321 319
322 320 325 319 318 305 314 329 323 327
323 335 320 318 310 313 328 330 322 310
324 324 318 317 322 324 320 324 311 317

a) Construir la distribución de frecuencias y mostrar el histograma.


b) Calcular el promedio, mediana, varianza de muestra y desviación estándar.
c) Cuantas observaciones caen dentro del limite de un desviación estándar alrededor del promedio?.
Dentro de dos desviaciones estándar?

26
CAPITULO III

ESTADÍSTICA DESCRIPTIVA.
Si se mide la corriente que circula por un alambre de cobre delgado, lo que se está haciendo es un
experimento. Sin embargo, al repetir la medición durante varios días, los resultados que se obtienen son un
poco diferentes debido a pequeñas variaciones en las variables que no están controladas en el
experimento, como son los cambios de temperatura ambiente, ligeras variaciones en el instrumento de
medición y pequeñas impurezas en la composición química del alambre en distintas partes, además de las
variaciones de la fuente de corriente. En consecuencia se dice que este experimento, así como muchos
otros, tiene un componente aleatorio. En algunos casos, las variaciones aleatorias observadas son tan
pequeñas en relación con las metas del experimento, que pueden ignorarse. Sin embargo, la variación casi
siempre está presente y su magnitud puede llegar a ser tan importante a tal grado, que las conclusiones del
experimento no sean muy evidentes
Otro ejemplo de experimento es la selección de una pieza de la producción de un día y la medición con
bastante exactitud de la longitud de está. En la práctica pueden presentarse pequeñas variaciones de las
longitudes de las medidas, por muchas causas, tales como vibraciones, fluctuaciones de temperatura,
diferencias entre quienes toman las mediciones, calibraciones, desgastes en la herramienta de corte,
desgaste en los cojinetes y cambios en la materia prima. Incluso el procedimiento de medición puede
producir variaciones en los resultados finales.
En estos tipos de experimentos, las mediciones de interés, (la corriente en el alambre de cobre, la
longitud de una pieza maquinada), pueden representarse con una variable aleatoria. Es razonable modelar
el rango de los valores posibles de la variable aleatoria con un intervalo (finito o infinito) de números reales.
Por ejemplo, para la longitud de una parte maquinada, este modelo permite que las mediciones del
experimento produzcan cualquier valor dentro de un intervalo de números reales. Este intervalo puede
concebirse como un continuo de valores , en consecuencia se define que “si el rango de una variable
aleatoria X contiene un intervalo (ya sea infinito o finito) de números reales, entonces X es una variable
aleatoria continua.

3.1 Variable aleatoria


Si arrojamos dos dados, sabemos que la suma X de los puntos que caen hacia arriba debe ser un
número entero entre 2 y 12, pero no podemos predecir que valor de X aparecerá en el siguiente ensayo y
podemos decir que X depende del azar. El tiempo de vida de un foco que se extrae aleatoriamente de un
lote de focos depende también del azar.
Si las observaciones no se dan en términos de números, podemos asignarles números y reducir las
observaciones cualitativas al caso cuantitativo. Por ejemplo, si se lanza una moneda 3 veces, el número de
“caras” es una variable aleatoria X que toma los valores 0, 1, 2 ó 3 (que representan en número de veces
que se obtiene “caras” en los 3 lanzamientos de la moneda). Así tenemos que la función que asigna
números o valores a cada uno de los elementos del espacio muestra con una probabilidad definida, se
denomina variable aleatoria.
El espacio de muestra es el dominio de la función y el conjunto de valores que la variable puede tomar
es el rango de la función, que es un subconjunto de números reales. Si el rango de X es el conjunto de
números enteros Z o un subconjunto de Z, la variable aleatoria se llama variable aleatoria discreta, y si el
rango es el conjunto de números reales, R, o un subconjunto de R, la variable aleatoria se llama variable
aleatoria continua. Son ejemplos de variables aleatorias continuas: la estatura, el peso, la edad, el
volumen, el pH, etc. Algunos ejemplos de variables discretas son : el número de alumnos en una clase, el
número de accidentes de automóvil, número de piezas defectuosas por lote, etc.
La posibilidad de ocurrencia de un valor para la variable aleatoria se determina en términos de su
probabilidad. Supóngase un suceso E, que de un total de n casos posibles, todos igualmente factibles,
puede presentarse en h de los casos. Entonces la probabilidad de aparición del suceso (llamada su
ocurrencia) viene dada por:
h
p  P E  
n

27
Ejemplo: Sea E el suceso de que aparezcan los números 3 ó 4 en una sola tirada de un dado. Hay seis
casos que pueden presentarse, que son: 1, 2, 3, 4, 5 y 6. Los seis casos son igualmente posibles. Puesto
que E puede presentarse con dos de estos casos, entonces: p = P{E} = 2/6 = 1/3
Recuerdese que la probabilidad de un suceso es un número comprendido entre 0 y 1. Si el suceso es
imposible (no puede ocurrir) su probabilidad es cero. Si es un suceso cierto (tiene que ocurrir) su
probabilidad es uno.
La naturaleza del estudio que se considera en el presente curso, condiciona a que solo se aborde el
caso de variables aleatorias continuas, dejando de lado el tratamiento de variables aleatorias discretas.

3.2 Distribución de variables aleatorias continuas


Una función f(x) es una función de densidad de probabilidad, fdp, de la variable aleatoria continua X, si
para cualquier intervalo de números reales [a,b], se tiene:

1. f ( x )  0

2. 

f ( x ) dx  1

 f (u) du
b
3. P( a  X  b) 
a
Es decir, la probabilidad P(a  X < b) es el área sombreada de la gráfica de f(x), Figura 4.1, para las
líneas verticales x = a y x = b. Esta área da la probabilidad de que X se encuentre entre a y b. En cierto
sentido, f(x) es el límite de la frecuencia relativa normalizada de un histograma al incrementarse el número
de clases y cuando los intervalos de clase tienden a cero.

f(x)

a b x
Figura 3.1: Gráfico de la densidad de probabilidad f(x). El área sombreada representa P(a  X < b).

Ya que áreas tales como P(a  X < b) para toda a < b, representan probabilidades, se requiere que el
área total debajo del gráfico de f(x) y x, sea igual a 1. Mas aún que las probabilidades son siempre
positivas, se necesita que: f(x)  0; x  R. Es interesante observar que si el espacio bajo la curva
corresponde a un solo valor de x, x = b entonces:

b
P(X = b) =
 f ( x) dx  0
b

Esto concuerda con lo intuitivo, porque si el espacio R es un intervalo con infinita cantidad de puntos, la
probabilidad de un solo punto en particular es cero.

Ejemplo: Consideremos una rueda con una aguja giratoria balanceada:


0

3/4 1/4

1/2

28
La aguja al ser girada se detendrá en cualquier punto entre 0 y 1. Un modelo razonable para la variable
aleatoria X es f(x) = 1; x  R = {x; 0  x < 1}, o de otra forma:

f(x) = 1; 0 x< 1

Tal fdp es constante en el espacio R. Para este modelo la probabilidad de:


1
2
P( 41  X  21 )   1. dx  0.25
1
4

y
0. 7

.  X  0.7)   1. dx  0.6
P(01
0.1
Hay ciertas convenciones que se usan en el contexto de la variables aleatorias continuas. Ya que en
un caso continuo P(X=x) = 0, para todo x  R , se tiene que:
P(a < X < b) = P(a  X < b) = P(a < X  b) = P(a  X  b)

Esto es, se puede incluir o excluir los signos de igualdad en estas expresiones sin cambiar la probabilidad.
En el caso de la rueda giratoria, para:

0. 6 0. 6
P(X < 0.6) =

f ( x ) dx   f ( x) dx  0.6
0

porque en la ilustración f(x) = 0 cuando - < x < 0.

3.3 La distribución normal


La distribución normal es la más importante distribución en el estudio de la estadística, debido a que
son muchos los fenómenos que son normalmente distribuidos. Esta distribución fue desarrollada el siglo
pasado por el matemático alemán Karl F. Gauss, de modo que la distribución normal se conoce también
como distribución Gaussiana.
Si X tiene una distribución normal, con promedio  y varianza  , su fdp es:
2

  x   2 
 
1  2 
2

f ( x)  e - < x <  (1)


 2
_
Se debe distinguir al promedio de muestra x del promedio de población , y de la varianza de muestra, s
2

con la varianza de población  .


2

La fdp de la distribución normal se abrevia generalmente diciendo que X es N(,  ); es decir, X es


2

normalmente distribuida con promedio , y varianza  . El gráfico de f(x) es la bien conocida curva de
2

campana o curva de Gauss mostrada en la Figura 4.2. El gráfico de N(,  ) es simétrico para x =  y
2

alcanza su máximo valor en este punto.

f(x)

    

2
Figura 3.2: Función de densidad de probabilidad de la distribución N(,  ).

29
En general , se dice que X es N(,  ) y se quiere determinar:
2

  x   2 
 
1
P a  X  b  
b  2 2 
e dx (2)
a  2
Si en la ecuación (2) hacemos que z = (x-)/ tal que x =  + z y dx/dz =  , (dx = dz) se tiene que:

 z2 
1  
P a  X  b  
b
e   dz
2
(3)
a 2

Se puede observar que la integral de la ecuación (3) no es fácil de determinar por lo que se recurre al uso
de métodos numéricos. En Tablas aparecen tabulados los valores de esta integral para una distribución
N(0,1), (Función Estándar de Distribución Normal) representada por:

 w2 
1  
 ( z )  P Z  z   
z
e   dw
2
 2
Una variable aleatoria normal con  = 0 y  = 1 recibe el nombre de variable aleatoria normal estándar y se
2

denota como Z.
Las distribuciones normales sólo varían con respecto a la media y/o la desviación estándar. La media
determina la posición de una curva sobre el eje horizontal. La desviación estándar determina el grado de
amplitud o dispersión entre los elementos. La Figura 4.3 (a) muestra dos distribuciones normales con
idénticas desviaciones estándar, pero con medias distintas. La Figura 4.3 (b) muestra dos distribuciones
normales con idénticas medias y diferentes desviaciones estándar

X
Valores de los elementos en la población

Figura 3.3 (a): Distribuciones estándar: medias diferentes y desviaciones estándar iguales.

X
Valores de los elementos en la población

Figura 3.3 (b): Distribuciones estándar: medias iguales y desviaciones estándar distintas.

Hay un número infinito de funciones de densidad normal, una para cada combinación de  y . La
media  mide la ubicación de la distribución y la desviación estándar  mide la dispersión.
No es posible obtener una expresión de forma cerrada par la integral de la función de densidad normal.
Sin embargo, se puede calcular el área debajo de la curva normal utilizando procedimientos de
aproximación. Se dice entonces que:

30
Si X es una variable aleatoria normal con media  y varianza  , entonces:
2

X 
Z

es una variable aleatoria normal con media cero y varianza 1. La variable aleatoria Z se denomina variable
normal estándar.
Las áreas de la variable normal estándar se dan en la Tabla A de los apéndices. Son las áreas bajo la
curva normal entre z = - y un valor cualquiera de z, valores que definen la probabilidad de algún evento.
Por ejemplo, la probabilidad (1.5) = 0.932 corresponde al área sombreada de la Figura 4.4

f(z)
z

-2 -1 0 1 z 2
x
Figura 3.4: Función de densidad de probabilidad.

Con esta notación se puede escribir una probabilidad determinada, como por ejemplo:

P(-1 < Z < 1.5) = (1.5) - (-1.0)

o sea, se determina el área hasta 1.5 en la fdp y se resta el área de la curva de - a -1. Debido a la simetría
de f(x) alrededor de z, es correcto que (-1.0) = 1 - (1.0), o en términos más generales:
(-z) = 1- (z)

Así, se puede determinar:


P(-1 < Z < 1.5) = (1.5) - [1 - (1.0)]

= 0.9332 - (1 - 0.8413) = 0.7745

Lo anterior corresponde a la distribución estándar N(0,1) . Supóngase ahora de que X es N( = 75,  =
2

100) y queremos determinar P(70 < X <90). En estos casos, la Tabla respectiva puede ser utilizada según:

P(a < Z < b) =  


b    a  
   
     
Esto es, se puede estandarizar la distribución en referencia para una distribución N(0, 1).

Ejemplo: si X N(75, 100), entonces:


P(70 < X < 90) =   90  75    70  75
 10   10 
= (1.5) - (-0.5) = 0.6247

P(80 < X < 95) =   95  75    80  75


   
 10   10 
= (2.0) - (0.5)
= 0.9772 - 0.6915 = 0.2857

P(55 < X < 65) =   65  75    55  75


 10   10 
= (-1.0) - (-2.0)
= 0.9772 - 0.8413 = 0.1359
31
La Figura 3.5 presenta un resumen de varios resultados útiles relacionados con la distribución normal. Para
cualquier variable aleatoria normal:

P( -  < X <  + ) = 0.6827


P( -2 < X <  +2) = 0.9545
P( - 3 < X <  + 3) = 0.9973

f(x)

      


68%
95%

99%

Figura 3.5: Probabilidades asociadas a una distribución normal

Debido a que más del 0.9973 de la probabilidad de una distribución normal está comprendida en el
intervalo ( - 3 < X <  + 3), a menudo se hace referencia a la cantidad 6 como el ancho de la
distribución normal. El área que se está más allá de 3 de la media es muy pequeña
Un mejor entendimiento de la distribución normal y de sus parámetros  y  se logra con lo siguiente
evaluación de probabilidades. Si X es N(,  ), para un valor k > 0 tenemos que:
2

 (  k)     (  k)   
P(  k  X    k )         2( k )  1
    

Para valores selectos de k, se obtiene las siguientes probabilidades:

K 1 1.282 1.645 2 2.576 3


P( - k < X <  + k) 0.6826 0.80 0.9 0.9544 0.99 0.9974

3.4. Distribución de muestra.


Se ha estimado parámetros como el promedio  y la desviación estándar,  de una distribución
normal, basados en observaciones x1, x2,...,xn que fueron obtenidos por muestreo de una población de
interés. Sin embargo hay que reconocer que generalmente estos estimados no son iguales a los verdaderos
_
valores de la población considerada. Es decir: x  ; s  . De esto resulta por ejemplo, que si se repite
_
varias veces el muestreo de una misma población y de cada muestreo de obtiene x y s, cada uno de los
_ _ _
respectivos valores diferirán entre si. Si realizamos N muestreos, se obtendrá x 1 , x 2 ,,..., x n promedios.
_
2
Estos estimadores ( x , s , s,) por lo tanto tendrán una distribución, de lo que resulta que es necesario
evaluar la confiabilidad de los estimadores. Se estará hablando por ejemplo de la varianza de promedios. Si
esta varianza es muy grande, no se tendrá mucha confianza en la evaluación hecha mediante varios
muestreos. Todo esto da sentido a la expresión distribución de muestra o distribución de estimadores de
muestreos.
El muestreo introduce variabilidad en los estimadores. Esta fuente de variabilidad se denomina
variabilidad de muestreo o variabilidad debido al muestreo.

32
_
3.4.1 Distribución del promedio de muestra, x
Considerando el promedio de una muestra de tamaño n:

 1 n  1  1  1
X  X 1   n  X 1   n  X 2 ...  n  X n
n i 1

tomada de una población de media  y varianza 2, entonces X es un valor de una variable aleatoria cuya
distribución tiene media . Para muestras de población infinitas, la varianza de esta distribución es  /n, o
2

lo que es lo mismo:
 
2 

E ( X )   ; VAR ( X )  ; D.E.( X ) 
n n
_
esto es, el promedio de muestra x es el mismo que el de la distribución. Sin embargo, la varianza es la
_
minima de la distribución, pero dividida por el tamaño de la muestra. El promedio de muestra x es el más
_
común estimador del promedio de población , ambos valores, ( x , ) diferirán entre si cada vez que se
evalúe un promedio de muestra.
_ _
El hecho de que VAR( x ) = 2/n muestra que la variabilidad del estimador x alrededor del promedio
 tiende a cero según que el número de observaciones en la muestra crezcan. Hacia el límite, cuanto más
grande sea n, el promedio de la población  quedará determinado con mayor precisión.

Ahora bien, si X es un valor de una variable aleatoria de tamaño n, cuya distribución tiene media  y
varianza 2 entonces:
  
 
X  
Z  
  
 
 n 

es el valor de una variable aleatoria cuya función de distribución se aproxima a la de la distribución normal

centrada y estandarizada (tipificada); es decir, X será N(0, 1). Esto implica que la combinación lineal de
variables aleatorias es también normalmente distribuida. Por lo tanto, si se toma una muestra de una

distribución normal con promedio  y varianza 2 entonces la distribución de X es:

  2
N   , 
 n 
y la distribución de Z es N(0, 1)

3.4.2 Intervalos de confianza para Promedios


Se trata de determinar un intervalo en el que se encuentre con alta probabilidad el promedio

desconocido . Se utiliza la distribución de X que es aproximadamente N(,  /n) para valores grandes de
2

n.
Para una determinada probabilidad, (1-) se puede encontrar un valor tal como z (/2) de la tabla
normal, tal que:

  
X 
P  z ( / 2)   z( / 2)   1  
  
 n 

ya que Z es una distribución simétrica, N(0, 1) alrededor de cero, entonces:

33
  
P Z   z( / 2)  P Z  z( / 2)   / 2 
Generalmente  es una valor pequeño tal como 0.1, 0.05 ó 0.01.
De este modo, si (1 - ) = 0.95, entonces z ( /2) = z(0.025) = 1.96; y si (1 - ) = 0.90 entonces z ( /2) =
z(0.05) = 1.645.
Las desigualdades:

X 
 z ( / 2) z ( / 2)

n
son equivalentes a:
   
X  z ( / 2)    X  z ( / 2)
n n

Así, las probabilidades para cada una de estas desigualdades es (1 - ). En particular:
 
    
P  X  z ( / 2)    X  z ( / 2)   1 
 n n
 

Obsérvese que X esta en los extremos de las desigualdades y el parámetro constante, pero desconocido
esta en el medio. Así, la probabilidad de que el intervalo aleatorio;
 
 X  z( / 2)  , X  z( / 2)  

 n n
 
incluya el promedio desconocido , es (1 - ). Para simplificar el intervalo, se le puede escribir:
 
X  z (  / 2)
n

3.4.3 Intervalos de confianza para 1 - 2


 

2 con varianzas  1 y  2
2 2

Sean los promedios de muestra X y Y estimadores de 1 y


respectivamente. Si las muestras son tomadas de distribuciones normales, las distribuciones respectivas
para esos promedios serán:
N ( 1 , 12 / n1 ) y N (  2 , 22 / n2 )
 

El estimador apropiado para 1 - 2 es la diferencia de los promedios de muestra X y Y . Se debe asumir


que se trata de dos muestras aleatorias seleccionadas independientemente. Por consiguiente:
     12  22
Var ( X  Y )  Var ( X )  Var (Y )  
n1 n2
 

por lo que la distribución de muestra de X  Y es:


 2 2 
N  1  2 , 1  2 
 n1 n2 
con lo que se puede deducir que:
 
  
 X  Y  z (  / 2)  1   2 , X  Y  z (  / 2)  1   2
2 2   2 2

 n1 n2 n1 n2 
 
 
incluye 1 - 2 a 100(1-) por ciento de confianza.
2
Si las varianzas de muestra (s ) son conocidas y las varianzas de población ( ) desconocidas, es
2

posible que el intervalo:


34
 
  2 2 
 x  y  z ( / 2) s1  s2 
 n1 n2 
 
 
proporcione aproximadamente al 100(1-) por ciento de confianza para 1 - 2

3.5. Inferencias con pequeñas muestras y varianzas desconocidas


El uso de la teoría anterior requiere que se conozca . Si n es grande, se puede usar también esa
teoría cuando no se conoce  y puede ser reemplazada por s. Para muestras de tamaño n < 3 0, llamadas
muestras pequeñas, esta aproximación no es muy buena y va siendo tanto peor a medida que n disminuya;
por lo tanto, no se puede tener mucha confianza en s como aproximación de .
Cuando ocurre así, se puede probar el siguiente teorema:

"Si X es la media de una muestra aleatoria de tamaño n tomada de una población normal con la media
 y varianza  , entonces:
2


x 
t
s
n
es el valor de una variable aleatoria que tiene una distribución t-Student de parámetro r = n - 1 grados de
libertad.
En este caso no se requiere conocer  y se debe trabajar con una población normal.
La forma general de una distribución t es similar a la de una distribución normal; ambas tienen la forma
de campana y son simétricas con respecto a la media. Como la distribución normal tipificada o
estandarizada, la distribución t tiene media cero, pero su varianza depende del parámetro r ( según
nomenclatura de algunos autores) llamado número de grados de libertad. La fdp para la distribución t-
student con r grados de libertad es:

c
f (t )    t  
 
( r 1)/ 2
1 t 2 / r

donde c es un valor tal que el área debajo de f(t) = 1. Se puede demostrar que E(t) = 0 y Var(t) = r/r-2 para
r>2. La varianza de t es mayor de 1 pero se aproxima a ese valor cuando n. Esta densidad se parece
mucho a la distribución N(0, 1), especialmente para valores grandes de r.
En la Tabla respectiva figuran los porcentajes mayores de probabilidades de cola, tal que:

P[T > t(; r)] = 

Ya que la distribución de f(t) es simétrica alrededor de cero, se tiene:

P[T< -t(; r)] = P[T > t(; r)]

3.5.1 Intervalos de confianza para promedios


Con el hecho de que:

x
t
s
n
t(r) = t(n-1), se puede escribir:

35
 

 x  
P t ( / 2; n  1)   t ( / 2; n  1)   1  
 s 
 n 
lo que se puede escribir:

 
 s  s 
P  x  t ( / 2; n  1)    x  t ( / 2; n  1)   1 
 n n
 
o sea que el intervalo;


s
xt ( / 2;n  1)
n

proporciona un 100(1-) de confianza para el intervalo en que se encuentre . De otro modo, ese es el
intervalo con (1-) de probabilidad para encontrar .

3.5.2 Intervalos de confianza para 1 - 2


Por consideraciones semejantes que las señaladas para grandes muestras, se puede demostrar que el
intervalo que provee del 100((1-) por ciento de confianza para el intervalo de 1 - 2, tratándose ahora de
pequeñas muestras es:
 
1 1
x  y t ( / 2;r n1 n2 2)S p 
n1 n2
Siendo:
n1 1S x2 n2 1S y2
S p2 
n1 n2 2
3.6. Distribución 2, (Chi Cuadrado)
Al igual que el promedio es una variable aleatoria, la varianza es también una variable aleatoria con
2
una distribución muestral. La distribución muestral teórica de s se encuentra ligada a una distribución
gamma de parámetros  = r/2 y  = 2 llamada distribución Chi Cuadrado (  ). Como s no puede ser
2 2

negativa, es de esperar una distribución muestral que no sea normal. Concretando se tiene:
"Si s2 es la varianza de una muestra aleatoria de tamaño n tomada de una población normal, que
tiene varianza 2, entonces:
(n  1) s2
 
2
2
es el valor de una variable aleatoria que tiene distribución 2 con parámetro r = n - 1 llamado grados de
libertad"
En la Tabla respectiva se anotan valores seleccionados de 2(; r), donde el área bajo la curva de la
distribución 2 (tomada a la derecha) es igual a .

3.6.1 Intervalos de Confianza para la varianza


Se trata de estimar dentro de unos determinados límites de confianza la varianza y desviación estándar
de la población, , a partir de la desviación estándar muestral, s.
2
Si S es la varianza muestral de una muestra aleatoria de n observaciones tomadas de una distribución
normal con varianza desconocida  , entonces un intervalo de confianza 100(1-) por ciento para  es:
2 2

(n  1) S 2 (n  1) S 2
 2 
2 / 2, n 1 12 / 2, n 1
36
Por ejemplo, si  0.025 y  0.975 son los valores de 2 (llamados valores críticos), para que el 2.5% del
2 2

área se encuentre en cada cola de la distribución, entonces el intervalo de confianza al 95% para la
varianza es:
s 2 (n  1) s 2 ( n  1)
  2
 02.975,n 1  02.025,n 1

y para la desviación estándar:

s n 1 s n 1
 
 0.975,n 1  0.025,n 1

3.7 Razón de dos varianzas de muestras


Supóngase ahora que se tiene dos distribuciones normales independientes y se quiere comparar sus
varianzas  1 y 2
2 2
definiendo un intervalo de confianza para la relación:
 12 /  22
Esto es importante cuando se quiere determinar si dos muestras tienen varianzas igual es. Si esto ocurre,
las dos muestras tendrán aproximadamente la misma varianza, lo cual significa que su razón será
aproximadamente 1. Supóngase que se tienen dos poblaciones normales con varianzas  1 y 2
2 2

respectivamente. Se toman muestras aleatorias independientes de tamaños n1 y n2 de las poblaiciones 1 y 2


2 2
respectivamente, y sean S1 y S 2 las varianza muestrales; entonces el cociente:
S 12 /  12
F
S 22 /  22
tiene una distribución F con es un valor de una variable aleatoria que tiene la distribución F con r1= n1 - 1
grados de libertad en el numerador y r= n2 – 1 grados de libertad en el denominador.
La función de densidad de probabilidad se asemeja bastante a la 2 . Los porcentajes superiores de F(
; r1, r2) son tal que P[F > F(; r1, r2)] =  para probabilidades de cola  = 0.05 y  = 0.01 y se dan en la
Tabla respectiva.
2 2
Si S1 y S 2 son las varianzas muestrales de dos muestras aleatorias de tamaños n1 y n2
 y
2
1
2
2
respectivamente, tomadas de dos poblaciones normales e independientes son varianzas
desconocidas entonces un intervalo de confianza 100(1-) por ciento para  1 /  2 es:
2 2

S 12  12 S 12
f 1 / 2; n2 1, n1 1   f  / 2; n 2 1, n1 1
S 22  22 S 22
donde
f1 / 2; n2 1,n1 1 y f  / 2; n2 1,n1 1 son los puntos críticos superior e inferior que corresponden al porcentaje /2
de la distribución F con n2-1 y n1-1 grados de libertad en el numerador y en el denominador respectivamente.

EJERCICIOS GRUPO 3

1. Hallar el área bajo la curva de distribución normal en cada uno de los siguientes casos:
a) Entre z = 0 y z = 1.2 e) A la izquierda de z = -0.6
b) Entre z = -0.68 y z = 0 f) A la derecha de z = - 1.28
c) Entre z = - 0.46 y z = 2.21 g) Entre z = 0.81 y z = 1.94
d) A la derecha de z = 2.05 y a la izquierda de z = - 1.44

Rpta: a) 0.384; b) 0.2517; c) 0.6636

37
2. Sea Z N(0,1). Determine:
a) P(-0.7 < Z < 1.3)
b) P(0.2 < Z < 1.1)
c) P(-1.9 < Z < -0.6)

Rpta: a) 0.6612; b) 0.285; c) 0.2456

3. Sea X N(25,16). Determine:


a) P(19 < X < 24)
b) P(X >23)
c) P( X < 25)

Rpta: a) 0.3345; b) 0.6915; c) 0.5

4. Si X es N(5,4), encontrar el valor de c tal que:


a) P(X < c) = 0.8749
b) P(c <X) = 0.6406
c) P( X < c) = 0.95

Rpta: a) 1.15; b) –0.36; c) 1.645

5. Se tiene una población infinita con media µ = 53 y varianza  2 = 400. Cuál es la probabilidad de obtener
una muestra entre 5 y 56?
Rpta.: 0.5514.

6. Supóngase que las especificaciones del diámetro de un eje de motor son 0.25  0.002 pulgadas. Si la
producción de estos ejes esta distribuida normalmente con µ = 0.251 pulg. y  = 0.001 pulg. Qué
porcentaje de los ejes se encuentran dentro de las especificaciones?
Rpta.: 84 %

7. Si los diámetros de cojinetes de bolas se distribuyen normalmente con media 0.6140 pulgadas y desviación
estándar 0.0025 pulgadas, determinar el porcentaje de cojinetes de bolas con diámetros:
a) Entre 0.610 y 0.618 pulgadas;
b) Mayor que 0.617 pulgadas;
c) Menor que 0.608 pulgadas.
Rpta.: a) 88.04 %; b) 11.51 %; c) 0.82 %

8. El peso promedio de cierta marca de carretillas es 31 Kg. Debido a la variabilidad de la materia prima y de
las condiciones de producción, el peso de estas carretillas es una variable aleatoria. Si la distribución es
normal con  = 0.5 Kg:
a) Cuál es la probabilidad de que una muestra de carretilla aleatoriamente seleccionada pese más de 32.0
Kg?
b) Cuál es la probabilidad de que una muestra de carretilla aleatoriamente seleccionada pese entre 30.0 y
30.5 Kg?
Rpta.: a) 2.28 %; b) 13.59 %

8. La media de los diámetros interiores de una muestra de 200 arandelas producida por una máquina es de
0.502 pulgadas y la desviación estándar 0.005 pulgadas. El propósito para el que se destinan estas
arandelas permite una tolerancia máxima de en el diámetro de 0.496 a 0.508 pulgadas, de otro modo las
arandelas tienen que desecharse. Determinar el porcentaje de arandelas de desecho producidas por la
máquina, suponiendo que los diámetros se distribuyen normalmente.
Rpta.: 23.02 %

9.El espesor de placas metálicas es una variable de interés. Debido a muchos factores, tales como variaciones
en las características del metal, diferentes operarios y diferentes máquinas, el espesor varía y puede ser

38
considerado como una variable aleatoria con µ = 20 mm y  = 0.04 mm. Cuánto de placas de desecho se
puede esperar si el espesor :
a) Tiene que ser por lo menos 18.95 mm?
b) Puede ser máximo 20.10 mm?
c) Pueden diferir máximo 0.05 mm del objetivo de 20 mm?
d) Como se establecerían los límites de tolerancia, (20 - c) y (20 + c), de tal modo que se produzca un
máximo de 5 % de desechos?
e) Asúmase que el promedio se ha desplazado a µ = 20.10 mm. Calcular el porcentaje de placas metálicas
que excedan los límites de tolerancia de la parte (d) de este problema.
Rpta.: a) 9.56 %; b) 0.62 %; c) 21.12 %; d) [18.92; 20.784]; e) 70.54 %

_
11 El promedio y la desviación estándar de 42 exámenes de ingreso son x = 680, s = 35. Encontrar a 99% de
confianza el intervalo para el promedio poblacional.
Rpta.: [666.1; 693.9]

12. Las medidas de los diámetros de una muestra al azar de 200 cojinetes de bolas hechos por una
determinada máquina durante una semana dieron un promedio de 0.824 pulgadas y una desviación
estándar de 0.042 pulgadas. Hallar los límites de confianza para el diámetro medio de todos los cojinetes
al:
a) 95 %; b) 99 %
Rpta.: a) [0.818; 0.8298]; b) [0.816; 0.832]

13. Una compañía tiene 500 cables. Un ensayo con 40 cables elegidos al azar dieron una media de resistencia
a la rotura de 2400 lbs y una desviación estándar de 150 lb. Cuáles son los límites de confianza al 95 y 99
% para estimar la media de la resistencia a la rotura de los 460 cables restantes?
Rpta.: a) [2353.51; 2446.49]; b) [2338.81; 2461.19]

14. Si una variable U tiene una distribución de t-Student con r = 10, hallar el valor de la constante C, tal que:
a) P(U>C) = 0.05 b) P(-C  U  C) = 0.98 c) P(U  C) = 0.9
Rpta.: a) 1.812; b) 2.764; c) 1.37

15. Una muestra de 12 medidas de resistencia a la rotura de hebras de algodón dio una media de 7.38 onzas
y una desviación estándar de 1.24 onzas. Hallar los intervalos de confianza para la resistencia real, al:
a) 95 %; b) 99 %.
Rpta.: a) [6.59; 8.17]; b) [6.268; 8.492]

16. Cinco medidas del tiempo de una reacción química fueron registradas como 0.28, 0.30, 0.27, 0.33, 0.31
segundos. Hallar los límites de confianza para el tiempo real de reacción al:
a) 95 %; b) 99 %.
Rpta.: a) [0.268; 0.328]; b) [0.249; 0.347]

En un proceso químico se fabrica cierto polímero. Normalmente, se hacen mediciones de viscosidad


después de cada corrida, y la experiencia acumulada indican que la variabilidad del proceso es muy
estable con = 20. Las siguientes son 15 mediciones de viscosidad por corrida:
724; 718; 776; 760; 745; 759; 795; 756; 742; 740; 761; 749; 739; 747; 742.
Encuentre un intervalo de confianza bilateral al 90% para la viscosidad media del polímero.
Rpta.: a) 750.2  8.495

Se piensa que la concentración del ingrediente activo de un detergente líquido para ropa es afectada por
el tipo de catalizador utilizado en el proceso de fabricación. Se sabe que la desviación estándar de la
concentración activa es de 3 g/l, sin importar el tipo de catalizador utilizado. Se realizan 10 observaciones
con cada catalizador, y se obtienen los datos siguientes:
Catalizador 1: 57.9; 66.2; 65.4; 65.4; 65.2; 65.6; 67.6; 63.7; 67.2; 71.0
Catalizador 2: 66.4; 71.7; 70.3; 68.3; 64.8; 68.6; 68.6; 64.9; 65.3; 68.8
¿Existe alguna evidencia que indique que las concentraciones activas medias dependen del catalizador
utilizado?
Rpta.: a) [-5.08; 0.1797]; No existe evidencia.
39
El administrador de un lote de automóviles prueba dos marcas de llantas radiales. Para ello asigna al azar
una llanta de cada marca a las dos ruedas posteriores de ocho automóviles y luego corre los automóviles
hasta que las llantas se desgastan. Los datos obtenidos en kilómetros son :

Automóvi Marca 1 Marca 2


l
1 36925 34318
2 45300 42280
3 36240 35500
4 32100 31950
5 37210 38015
6 48360 47800
7 38200 37810
8 33500 32215

¿Qué llanta cree que preferirá el administrador?


Rpta.: [-7887.34; 6874.14]; Ambas rinden igual.

Hallar  12 y  22 tales que el área bajo la distribución  2 ( , r ) correspondiente a r = 20 entre  12 y  22


sea 0.95 suponiendo iguales las áreas a la izquierda de  12 y a la derecha de  22
Rpta.: 34.17; 8.591

30. Si la variable U se distribuye en  2 ( , r ) con r = 7, hallar  12 y  22 tales que:


P(U >  22 ) = 0.25;
P(  12  U   22 ) = 0.90
P(U <  12 ) = 0.95
Rpta.: a) 16.013; b) 14.067; 2.167; c) 14.067.

31.La desviación estándar de la duración de 10 bombillas fabricadas por una compañía es de 120 hor as.
Hallar los límites de confianza para la desviación estándar de todas las bombillas fabricadas por la
compañía al:
a) 95 %; b) 99 %.
Resolver este problema si para 25 bombillas se encuentra s = 120 horas.
Rpta.: a) [82.54; 219]; [93.7; 166.38]

32. Dos compuestos de caucho fueron probados para resistencia a la tracción. Se prepararon 14 muestras
rectangulares, 7 para cada una de las muestras A y B. Durante la experimentación se observó que dos
espécimenes de B estuvieron defectuosos por lo que se les eliminó de la prueba. La fuerza de tracción ( en
unidades de 100 psi) fueron como sigue:
A = 32 30 33 32 29 34 32
B = 33 35 36 37 35
Calcular al 90 % de confianza el intervalo para  12 /  22 . Comente los resultados.
Rpta: [0.2143; 5.82]; no hay diferencia entre las dos varianzas.

40
CAPITULO IV

PRUEBAS DE HIPOTESIS ESTADISTICA


La recolección y análisis de datos son componentes muy importantes de los métodos científicos de
investigación. Los datos se utilizan para confirmar o rechazar teorías e hipótesis, y estas deben ser
confirmadas con datos provenientes de experimentos cuidadosamente planificados. Si los datos contradicen
las teorías formuladas, se deberá buscar adecuadas explicaciones o nuevas teorías. Estas ideas
introductoras ilustran el hecho de que los datos obtenidos a partir de muestras se utilizan para decidir entre
hipótesis elaboradas.
La inferencia estadística estudia los métodos que señalan como emplear datos obtenidos de muestras
aleatorias para inducir, por generalización, características a las poblaciones de las que se ha obtenido las
muestras. Más recientemente, los métodos de inferencia estadística se han unificado bajo los conceptos
generales de la teoría de la decisión, es decir, bajo los conceptos generales de la manera de tomar
decisiones en condiciones de incertidumbre.
Las pruebas de hipótesis estadística se encargan de analizar procedimientos para confirmar o rechazar
hipótesis acerca de la distribución de variables aleatorias. Las hipótesis están confinadas a términos de
parámetros de población. Esto es, hecha una determinada afirmación sobre una población, deseamos saber
si los resultados de una muestra contradicen o no tal afirmación. Por ejemplo, dos hipótesis pueden
especificar que el promedio de la tensión de ruptura de cierta aleación es mayor (no es mayor) que 2000
lb.; o que la variabilidad de un proceso A es mayor (no es mayor) que aquella de un proceso B; o que la
tensión de tracción de 5 diferentes probetas son las mismas (no son las mismas); etc.
Así como ocurrió con la construcción de los estimadores por intervalos de confianza, las pruebas de
hipótesis también se apoyan en la distribución de probabilidad de los estimadores. De esta manera, las
distribuciones de probabilidad de la media muestral y la varianza muestral, serán utilizadas para las
respectivas pruebas sobre la media y la varianza poblacional.

4.1. Ejemplo ilustrativo.


Supóngase que se quiere determinar si ciertos cambios en un proceso productivo reducen el tiempo
que le toma a un obrero completar una tarea de ensamblaje de un producto. Supóngase que en condiciones
normales, en promedio, un trabajador emplea 30 minutos en completar la tarea de ensamblaje. También se
sabe que ese tiempo promedio presenta variación; esto es, el tiempo de ensamblaje es una variable
aleatoria que se puede representar por X. Mas aún, existe suficiente información para asegurar que X esta
normalmente distribuida y tiene promedio  = 30 y una desviación estándar  = 1. Esto implica que
aproximadamente 95% de los tiempos de ensamblaje se encuentran entre 28 y 32 minutos.
En este ejemplo se va a evaluar una hipótesis relacionada al parámetro , con el supuesto de que  = 1
aún después de los cambios efectuados. Luego de concretados los cambios en el proceso de ensamblaje,
se plantean dos hipótesis:

- La hipótesis del no cambio (hipótesis nula), que establece que  sigue siendo 30 minutos; y
- La hipótesis alternativa que sugiere que  < 30 minutos.

Para determinar la validez de una de estas hipótesis se procede a la recolección de información.


Primeramente se elige aleatoriamente a un solo trabajador para evaluar el efecto de los cambios
realizados. Se observa que este trabajador emplea 29 minutos en la tarea normal de ensamblaje. Con este
dato, y teniendo en consideración que X proviene de N(30, 1) se evalúa:

 29  30 
 
P X  29   
 1 
  01587
.

es decir, hay aproximadamente 16 % de probabilidades de que el tiempo de ensamblaje sea 29 minutos,


siendo que X proviene de N(30, 1). Esto indica de que un tiempo de 29 min. no es un evento muy raro en

esa distribución. Continuando la toma de datos se evalúa n = 5 trabajadores, para los cuales X  29min.

Luego se toma n = 25 trabajadores que presentan X  29 min. Reiterando que X proviene de N(30, 1), la

probabilidad de que X  29 min. para 25 trabajadores es:


41
 
 
2930   
PX  29  
 P X   5  0.0000003
 1   
 
 25 

Esto hace que para una N(30, 1), con n = 25, X  29 min. es un evento extremadamente improbable.
Ciertamente, esto quita consistencia a la hipótesis de que  sigue siendo 30 minutos. Por ello se puede
afirmar que, efectivamente, el tiempo de ensamblaje de cada trabajador se ha reducido.
En términos técnicos, se dice que: los cambios efectuados en el proceso productivo originan una
diferencia estadísticamente significativa en el tiempo de ensamblaje; o bien, que la diferencia en el tiempo
de ensamblaje, 30 - 29 = 1 es estadísticamente significativa.
Es necesario aclarar que una diferencia estadísticamente significativa no siempre es de utilidad
práctica; ya que por ejemplo, la reducción de 01 minuto en el promedio  no podría representar ahorros
importantes en el proceso productivo. La decisión final de adoptar los cambios concierne a una evaluación
de estructura de costos, que estas técnicas estadísticas no pueden resolver.

4.2. Definición de hipótesis


Para llegar a tomar decisiones, conviene hacer determinados supuestos o conjeturas acerca de las
poblaciones que se estudian. Tales supuestos, que pueden ser ciertos ó no, se denominan hipótesis
estadísticas. Por ejemplo, si se quiere decidir si un procedimiento es mejor que otro, se formulan las
hipótesis:
- No hay diferencia estadística entre los dos procesos; y
- Si existe diferencia estadística entre los dos procesos.
La primera se define como la hipótesis del "no cambio" o “hipótesis nula” y se simboliza por Ho. La segunda
se denomina “hipótesis alternativa” y se simboliza por H1.
Por ejemplo, una empresa produce circuitos impresos con probabilidad histórica de producto fallado
igual al 3% (P = 0.03). Un ingeniero de producción sugiere cambios en el proceso y asegura que tales
cambios causarán una reducción de la probabilidad de falla; es decir, asegura que P < 0.03. Por lo tanto, se
deberá evaluar:
Ho : P = 0.03 (Hipótesis Nula)
H1 : P < 0.03 (Hipótesis Alternativa)

4.3 Tipos de errores


Definidas las hipótesis es posible cometer dos tipos de error. Se ilustra estos tipos de errores con el
siguiente ejemplo.
Un fabricante de pintura asegura que un galón de pintura producida en su planta puede cubrir en
promedio 400 pies cuadrados de superficie. Se toma una muestra de 36 galones y se observa que en
promedio cubren 385 ft2. Siendo que el promedio  es desconocido, se establece el siguiente criterio
técnico para tomar decisiones con respecto a esa pintura:

Intervalo de Intervalo de Intervalo de


rechazo indiferencia aceptación

u
385 400

Según esto, es importante hacer notar que x puede exceder los 400 ft2 aunque  sea menor que 385 ft2 o

que x sean menor que 385 ft2 y que  exceda los 400 ft2 . Esto ilustra el hecho de que los errores son
inevitables cuando las decisiones se toman apoyándose en los resultados de muestras aleatorias.
Consecuentemente, estos errores pueden ser de dos tipos diferentes y se describen esquemáticamente en
la siguiente figura:

42
u se encuentra u se encuentra
en la zona de en la zona de
aceptación rechazo

Se acepta No hay Error


la afirmación Error TIPO II

Se rechaza Error No hay


la afirmación TIPO I Error

Nótese que si  esta en el intervalo de indiferencia, no hay ningún error grave, cualquiera sea la decisión
tomada.
Para juzgar las ventajas de cualquier criterio de decisión, es esencial conocer las probabilidades de
tener errores del Tipo I y del Tipo II. Estas probabilidades se denotan con  y  respectivamente:
 = P[Error tipo I]
 = P[Error tipo II]

4.3 Nivel de significación


Se acostumbra a fijar niveles de significación de 0.1, 0.05 y 0.01, aunque se puede fijar otros valores.
Si por ejemplo, se fija un nivel de significación del 0.05 (5%) al diseño de un ensayo de hipótesis, entonces
hay aproximadamente 5 ocasiones en 100 en que se rechazaría una hipótesis cuando debería ser
aceptada. En otras palabras, se estaría 95% seguro de que se toma la decisión adecuada.

4.4. Hipótesis referente a la media


Se trata de contrastar la hipótesis de la media de una población igual a un valor determinando frente a
otra alternativa conveniente. Es decir, hay que contrastar:

Ho : 
o
x es igual que o

Frente a una de las siguientes hipótesis:



H1 : 
o
x es significativamente menor que o

H1 : 
o
x es significativamente mayor que o


H1 :  o
x es significativamente diferente que o

Para efectuar una prueba con un nivel de significación  se escoge una región crítica (es decir una
_
región de rechazo de Ho ) para x < c, tal que:

P[ x  c; 
o] = 
_
Ya que bajo Ho x es N(o,2/n), la región crítica esta dada por:
_
X  o
  z ( )

n
donde z() es el punto superior de porcentaje de N(0, 1).
La cantidad:
_
X  o
Z

n

43
se denomina el estadístico estandarizado o tipificado. Si este estadístico es un valor menor de - z(), se
rechaza Ho y se acepta H1. Por el contrario, si Z es mayor que -z() , se dice que no hay suficiente
evidencia para rechazar H1, por lo que se acepta Ho.
En general, las regiones críticas para contrastar Ho :  o se pueden expresar como se indica
en la Tabla 4.1:

Tabla 4.1: Regiones críticas para contrastar Ho : 


o

Hipótesis alternativa, H1 Rechazar Ho :


 oSi:

o Z < -z()

o Z > +z()

 o Z < -z(/2) ó Z > +z(/2)

Para entender la correcta orientación de la región crítica, el siguiente la Figura 4.1 es muy útil para el
caso de Ho :  o y H1 :  o.

Rechaza Acepta
Ho Ho

Distribución de
muestra de x bajo
Ho(

x
c µo
Figura 4.1: Ilustración gráfica de la prueba Ho : 
o versus H1 : 
o

En la Figura 4.1, c representa el valor crítico. La región a la derecha de este punto es la región de
aceptación de Ho y la región a la izquierda de c es la de aceptación de H1 . El punto c es tal que la
probabilidad de rechazar Ho es . El gráfico muestra que el valor crítico c debe ser menor que  o y es
determinado por:

c   o  z ( )
n
El valor de  depende de cada aplicación. Un valor muy frecuentemente utilizado es  = 0.05. si altos
costos están asociados a la evaluación, conviene utilizar valores más pequeños de . Sin embargo, para
valores pequeños de  implica un valor alto de z() y la prueba se torna muy conservadora, tal que se
rechaza Ho solo en casos muy extremos.
Otra forma de conducir las pruebas de hipótesis es utilizando el concepto de valor de probabilidad o el

valor 'p'. Por ejemplo, en el caso de disminución de tiempos de ensamblaje de un producto, si x = 28.68
para N(30, 1), se puede obtener un valor p, tal que:
 _
  
_   x  o   29.68  30 
p  P[ X  x ]  P Z    P Z     ( 1866
. )  0.031
    1 
 n   34 

En este caso se rechaza Ho si el valor de p es menor que . = 0.05 (es decir para un nivel de significación
de 0.05). Esto se ilustra en la Figura 4.2.
44
Rechaza Acepta
Ho Ho

 = 0.05

p = 0.031

c x
µo
_
x = 29.68 29.72
30
z (0.031) z (0.05)
(-1.866) (-1.645)
Figura 4.2: Ilustración del valor de probabilidad o el valor 'p'.

Si ahora se trata de decidir si un procedimiento determinado ha producido un incremento en  se


esta en la circunstancia de probar Ho :  o versus H1 :  o . En este caso, se rechaza

Ho en favor de H1 cuando x > c, como se ilustra en la Figura 4.3.

Acepta Rechaza
Ho Ho

x
µo c

Figura 4.3: Ilustración gráfica de la prueba Ho : 


o versus H1 : 
o

Si se quiere probar a un nivel de significación ., se requiere que una probabilidad de falso rechazo de
Ho sea ., es decir:

  
  X  o c o 
P[ X c;   o ] P  Z   
   

 n n  

de modo que se rechaza Ho si el estadístico estandarizado:

45
_
X  o
 z ( ) o equivalentemente

n
  
_ _   X  o 
valor p  P  X  x;   o  1 
    
 
 n 

Las pruebas Ho :  o versus H1 :  o y Ho :  o versus H1 :


 o son llamadas pruebas a un solo nivel o de una cola. Hay ocasiones en que pruebas a dos
lados son apropiadas, de modo que se contrasta Ho :  o versus H1 :   o. Esto se
ilustra en la Figura 4.4

Rechaza Acepta Rechaza


Ho Ho Ho

 

x
c µo
Figura 4.4: Ilustración gráfica de la prueba Ho :  
o versus H1 :  o

En este caso, con un nivel de significación ., se rechaza Ho si:


_  

X   X  o 
 z (  / 2) valor p  2 P Z  
  n 
n  

4.5. Hipótesis referente a medias de pequeñas muestras.


Los anteriores conceptos asumen que se tiene una distribución N(0,1) con 2 conocida. Si ahora la
varianza 2 es estimada por la varianza de muestra s 2, la distribución de muestra:
_
x 
t
s
n
es una distribución t con n-1 = r grados de libertad y los valores críticos z() deben ser reemplazados por t(
; n-1). Si acaso n es grande (por lo menos 30) se puede utilizar la Tabla normal.
Las regiones críticas resultantes se muestran en la Tabla de t-Student, en donde por ejemplo t(; n-1)
es el área a la derecha bajo la curva de distribución t con n-1 grados de libertad y es igual a , Figura 4.5

46
Acepta Rechaza
Ho Ho

 r grados de
libertad

x
µo t(r)

Figura 4.5: Ilustración gráfica de la prueba Ho : 


o versus H1 : 
o para muestras
pequeñas
Tabla 4.2: Regiones críticas para contrastar Ho : 
o

Hipótesis Rechazar Ho : 


o
alternativa, Si:
H1
 o t < -t(,r)

o t > +t(,r)

 o t < -t(/2,r ) ó t > +t(/2,r)

4.6. Hipótesis referente a dos medias


Una de las pruebas más importante que se hace en estadística es aquellas para las que se compara
dos métodos diferentes. Por ejemplo, si se han considerado dos tipos de acero para ser usado en ciertas
vigas de estructura metálica, se tomarán muestras y decidirá cual es mejor al comparar sus resistencias
medias. Generalmente se compara las medias de dos distribuciones, de lo que resulta que se establecen
las hipótesis nula y alternativa: Ho :  o versus H1 :  o , ó H1 :  o ó H1 :
  o.

4.6.1 Comparación de dos muestras independientes grandes


Consideremos dos muestras aleatorias cada una con una distribución independiente y con promedios
y   12 y  22
2 , varianzas respectivamente y de tamaño n1 y n2, denotadas por:
x , x ,..., x y y , y ,... y
1 2 n 1 2 n
1 2
y que son aproximadamente:
  
N  1 ,  12 / n1 y N  2 ,  22 / n2 
Se asume que  y  son conocidas.
2 2
1 2

Bajo la hipótesis nula Ho : 


o ó que 
o = 0, la variable aleatoria:
 
x y
Z
 12  22

n1 n2
es N(0,1). Se rechaza Ho y se acepta H1 cuando Z  z() a una prueba de nivel de significación .

4.6.2 Comparación con pequeñas muestras


Si las varianzas  1 y  2 son desconocidas, estas pueden ser reemplazadas por las varianzas de
2 2

2 2
muestra, S1 , S 2 . En este caso se toma en consideración los grados de libertad r1 = n1 - 1 y r2 = n2-1, y
bajo la hipótesis nula Ho :  o , la variable aleatoria:

47
_ _
x y
T
n1  1S x2  n2  1S y2  1  1
 
n1  n2  2  n1 n2 
tiene una distribución t-Student t( ; n1 + n2 - 2 ). Si se rechaza Ho:  o y se acepta H1 :
 o , cuando T +t( ; n1 + n2 - 2 ) se obtiene una prueba con nivel de significación .
Similarmente, en una prueba Ho:  o versus H1 :  o , se acepta H1 cuando T -t( ;
n1 + n2 - 2 ). En una prueba Ho:  o versus H1 :   o , se acepta H1 cuando T t( ;
n1 + n2 - 2 ).

4.6.3 Pruebas de comparación por pares


Hasta aquí se ha asumido que las observaciones provienen de dos grupos independientes entre si. En
la mayoría de aplicaciones esto es válido, pero hay circunstancias en las que se debe asumir dependencia
entre las observaciones. Por ejemplo, considérese una máquina que mide la dureza de un metal por la
profundidad de la marca hecha por la punta de la máquina en la probeta a evaluar. Esta máquina dispone
de dos puntas, diferentes la una a la otra, aun cuando la variabilidad de las dos parece ser la misma.
Si se desea evaluar si existe diferencia en las medidas de dureza de ambas puntas, se puede optar por
ejemplo en tomar 20 probetas de metal y aleatoriamente escoger 10 probetas para cada una de las puntas.
Este sencillo y lógico procedimiento puede tener desventajas. Supóngase que las 20 probetas fueron
obtenidas de distintas existencias del mismo material, que podrían tener algunas diferencias físicas entre si,
(por ejemplo, diferente dureza entre los distintos lotes). Esto contribuiría a incrementar el error experimental,
variabilidad y haría más difícil detectar las diferencias entre ambas puntas.
Para salvar esta posibilidad de obtener una conclusión errónea, se puede optar por otro procedimiento.
Si cada probeta es lo suficientemente grande, se puede utilizar cada una de las probetas para medir la
dureza con las dos puntas. El orden y ubicación de medición se deberá ejecutar aleatoriamente. En este
caso las mediciones están mutuamente relacionadas y se dice que hay dependencia entre las
observaciones.
En tales situaciones, se analiza las diferencias Wi = Xi - Yi. Estas diferencias, W1 = X1 - Y1; W2 = X2
- Y2; ...; Wn = Xn - Yn son muestras aleatorias de tamaño n provenientes de una distribución con promedio

1 - 2 y varianza  w Las variables W1, W2,...,Wn son independientes (provienen de diferentes objetos).
2

Asumiendo que W es normal, se puede utilizar la prueba estadística:

W
T 
Sw n

donde Sw es la desviación estándar de las diferencias, W. Una prueba de hipótesis por ejemplo puede ser

Ho: 

W Sw 
n  t  , n  1
o versus H1 :  o . Se acepta H1 si Si n es
suficientemente grande, se puede utilizar la distribución normal.

4.7 Prueba para  1   2


2 2

Supóngase que se tiene interés en dos poblaciones normales independientes, donde las medias y
varianzas de la población, 1 ,  1 ,  2 y , 2 son desconocidos. Se desea probar las hipótesis sobre la
2 2

igualdad de las dos varianzas H :  1   2 por ejemplo. Si se tienen dos muestras aleatorias de tamaño n
2 2
o 1
S x2 y S y2
tomada de la población 1, y otra de tamaño n2 proveniente de la población 2 y sean las respectivas
varianzas muestrales. Para probar las alternativas:
H0 :  21   22
H1 : 12   22

48
se utiliza el estadístico:
S2
F  12
S2

tiene una distribución F con n1 y n2 grados de libertad.

H0 :  21   22 S x2 S y2  F  ; n1  1, n2  1
y se acepta H1 : 1   2 si
2 2
Se rechaza

49
EJERCICIOS GRUPO 4
1. Se desea contrastar la hipótesis µ = 0 frente a la alternativa µ >0 sobre la base de una muestra aleatoria de
tamaño 9 obtenida de una población normal con  2  1 a un nivel de significación de 0.05. Verificar cual de
_
las alternativas es la correcta. Rpta.: H 1 es cierta si x >0.55

2. Se desea contrastar la hipótesis µ = 0 frente a la alternativa µ >0 sobre la base de una muestra aleatoria de
_
tamaño 100 obtenida de una población normal con  2  1 . Si la hipótesis se debe rechazar cuando x >
0.233, cuál es el nivel de significación empleado? Rpta.:  = 0.01

 0 sobre la base de una muestra aleatoria


3. Queremos contrastar la hipótesis µ = 0 frente a la alternativa µ
de tamaño 25 obtenida de una población normal con   1 . Si  = 0.05 hallar el conjunto de valores de x
2

para los que la hipótesis debe aceptarse. Rpta.: [ -0.392; 0.392]

4. La duración media de una muestra de 100 tubos fluorescentes producidos por una compañía resulta ser de
1,570 horas con una desviación estándar de 120 horas. Si el promedio histórico de los tubos producidos por
la compañía es de 1,600. Verificar si la duración de los tubos es inferior a 1,600 horas a un nivel de
significación de 0.05. Rpta.: La duración de focos es inferior.

7. Se estudia el rendimiento de un proceso químico. De la experiencia previa con este proceso se sabe que la
desviación estándar del rendimiento es 3. En los cinco días anteriores de operación de la planta, se han
observado los siguientes rendimientos:
91.6% 88.75% 90.8% 88.95% 91.3%
a) ¿Existe evidencia de que el rendimiento no es del 90% con  = 0.05?.
b) Cuál es el valor p de esta prueba?
Rpta.; (a) No; (b)0.6406]

9. En el pasado una máquina ha producido arandelas con un grosor de 0.05 pulgadas. Para determinar si la
máquina sigue en buenas condiciones de producción, se toma una muestra de 10 arandelas que resultan
tener un grosor medio de 0.053 pulgadas y una desviación estándar de 0.003 pulgadas. Ensayar la
hipótesis de que la máquina este en buenas condiciones de producción a un nivel de significación del 0.05.
Rpta.: ,   0.05

11. Se analizan dos catalizadores para determinar la forma en que afectan el rendimiento promedio de un
proceso químico. De manera específica, ella catalizador 1 es el que se está empleando en este momento;
pero el catalizador 2 también es aceptable. Debido a que el catalizador 2 es más económico, éste puede
adoptarse siempre y cuando no cambie el rendimiento del proceso. Se hace una prueba en una planta
piloto; los resultados obtenidos son:

Observación Catalizador 1 Catalizador 2


#
1 91.5 88.19
2 94.18 90.95
3 92.18 90.46
4 95.39 93.21
5 91.79 97.19
6 88.07 97.04
7 94.72 91.07
8 88.21 92.75

¿Existe alguna diferencia entre los rendimientos promedio de ambos catalizadores al 0.05 de significación?
Rpta.: No existe diferencia.

50
14. Un ensayo sobre la resistencia a la rotura de 6 cuerdas fabricadas por una compañía mostró una
resistencia media de 7,750 lb y una desviación estándar de 145 lb, mientras que el fabricante sostenía que
la resistencia media de sus cuerdas era de 8,000 lb. Se puede admitir la afirmación del fabricante a un nivel
de significación a) del 0.05; y b) del 0.01?
Rpta.: (a) =8000 lb.

15. Un laboratorio de pruebas desea contrastar si el promedio de vida de cierta herramienta de corte es de
2,000 piezas, frente a la alternativa de que es menos de 2,000. Qué conclusión se d eberá obtener a un
nivel de significación del 0.01, si 6 pruebas mostraron como vidas de las herramientas 2010, 1980, 1920,
2005, 1975, y 1950 piezas?
Rpta. :  = 2000

16. Se afirma que la resistencia de un alambre eléctrico se puede reducir como mínimo en 0.05 ohms aleando
el material. Se hacen 25 pruebas en alambre aleado y otras tantas en alambre sin aleación, dando los
siguientes resultados:
Media, ohms Desviación estándar, ohms
Alambre aleado 0.089 0.003
Alambre sin 0.141 0.002
aleación
Empleando un nivel de significación del 0.05 de determinar si esa afirmación es cierta.
Rpta.: 1 - 2 > 0.05

51
CAPITULO V

LA TEORIA DEL MUESTREO

Una muestra es una pequeña porción de un lote de material, el cual contiene todos los componentes,
en la misma proporción que existe en el original. El objeto de cualquier procedimiento de muestreo es
obtener un porción representativa del todo. Las propiedades analizadas de la muestra pueden ser usadas
para predecir o pronosticar las propiedades de la población de la cual la muestra fue extraída.
El control de calidad de cualquier industria se basa en procedimientos de muestreo constantes y
regulares. Además, es necesario un conocimiento de estadística aplicada para el caso que se desee
pronosticar las características de la población a partir de los resultados de muestreo. El rol del análisis
estadístico es grande en cualquier tecnología donde se desee establecer la validez de un conjunto de datos
de pruebas experimentales y donde se requiera tomar decisiones.
El muestreo y la inferencia estadística son utilizados en circunstancias en las cuales no es factible
obtener información de todos los integrantes de una población, tales como en el análisis químico y biológico,
control de calidad industrial ó investigaciones sociales. El método más elemental de muestreo es el
muestreo aleatorio, basado en la teoría de probabilidades. Según esto, cada elemento de la población que
es muestreada tiene la misma probabilidad de ser seleccionado. Por ejemplo, en una clase de 50
estudiantes, para obtener una muestra aleatoria de ese grupo, cada estudiante tiene exactamente la misma
probabilidad, 1/50, de ser seleccionado.
Las prácticas deficientes de muestreo son una causa primordial de inexactitudes en los valores
calculados. Desafortunadamente, el muestreo preciso requiere de grandes cantidades de materiales, lo que
hace del muestro una tarea difícil y costosa. El costo de las instalaciones y personal para el muestreo es
directo y tangible, pero los beneficios de un muestreo preciso, aunque indirectos, menos tangibles y de corto
alcance, pueden ser más significativos. Como los análisis numéricos pueden obtenerse con tanta facilidad
sobre muestras deficientes que sobre muestras buenas, fácilmente se genera un falso sentido de seguridad
en la mente del ingeniero en la oficina, cuando solamente ve los resultados numéricos y no observa como
fueron tomadas las muestras en el campo.
La composición del material que se mueve en un proceso es característicamente irregular, excepto en
casos muy especiales. Idealmente un proceso continuo operando en estado uniforme deberá dar un flujo de
materiales uniforme, pero no se puede suponer tal estado; son necesarios el muestreo y el análisis para
conocer las características reales de la población que se analiza.

5.1. Razones para el muestreo


Al desarrollarse una investigación estadística se deben seguir ciertos pasos o etapas después de definir el
problema en términos estadísticos. Antes de recolectar los datos, se debe decidir de que forma se van a
colectar dichos datos; es decir los procedimientos a utilizar para obtener la muestra, de manera que
podamos aprender algo acerca de la población sobre la base de datos extraídos de una parte de ella.
Las razones para el muestreo se pueden definir como las siguientes: primero, las poblaciones que se
investigan pueden ser infinitas, y en tales casos el muestreo es el único procedimiento posible; segundo,
aún en casos de poblaciones finitas, muy frecuentemente el muestreo es el único procedimiento práctico,
pues la población finita puede constar de millares o millones de elementos y su recolección completa es
prácticamente imposible; en tercer lugar, la medición de propiedades de una población a veces requiere de
la destrucción de sus elementos, para determinar determinadas propiedades físicas por ejemplo.
Los resultados obtenidos por el estudio de una muestra pueden ser iguales o aún más precisos que los
hallados de una cuenta completa de la población, puesto que, ante la posibilidad de evaluar a toda una
población, el tiempo que requeriría ello podría conducir a que en el transcurso de la evaluación se
produjesen cambios importantes que al finalizar la evaluación, el resultado sería diferente.

5.2 Bases del muestreo


Aunque la diversidad es una cualidad universal de los datos, no hay virtualmente ninguna población
estadística en la práctica cuyos elementos varíen entre si sin límite. Los hechos de que cualquier población
tiene propiedades características y que las variaciones de sus elementos son claramente limitadas, hace
posible que se escoja una muestra relativamente pequeña y al azar que pueda reflejar bastante bien las
características de la población.
Otra propiedad interesante e importante de los datos es la regularidad o uniformidad. Las fuerzas
relacionadas, pero independientes que producen la variabilidad de una población están a menudo tan
52
equilibradas y concentradas que tienden a generar iguales valores arriba y abajo de cierto valor central
alrededor del cual tienden a agruparse la mayor parte de los valores.
Debido a la uniformidad estadística, si se escoge una muestra grande al azar, las características de
esta muestra difieren muy poco de las características de la población. La uniformidad o regularidad es la
tendencia de las características mensurables al agruparse alrededor de cierto “centro de gravedad”. La
medida de tal tendencia central es un promedio del que divergen las observaciones individuales en cierta
forma definida. Los promedios son más estables que los valores individuales. Además, los promedios
resultan más estables cuantas más observaciones haya en la muestra.
La razón básica de que cantidades mayores de datos tienden a exhibir menos fluctuación es una
tendencia de las unidades de datos a “compensarse unas con otras”. El mismo efecto de compensación
puede esperarse cuando aumenta el tamaño de la muestra.
En la práctica, para hacer inferencias generalmente solo tomamos una muestra. Sea esta grande o
pequeña, estamos casi seguros de que sus características no son exactamente las de la población. ¿Cómo
podemos estar seguros entonces sobre el grado de confianza de nuestras conclusiones?. La respuesta a la
pregunta es aleatoriedad. La medición objetiva de los errores por muestreo requiere que la muestra sea al
azar. Esto es así porque este conocimiento solo puede ser obtenido aplicando las leyes matemáticas de
probabilidad, las que a su vez, solo pueden ser aplicadas a muestras al azar.

5.4. Probabilidad y muestreo


Para ilustrar estadísticamente el problema del muestreo, consideremos el siguiente ejemplo. Se tiene
una población de 100 frijoles, la cual consiste de 10 frijoles negros y 90 frijoles blancos (los frijoles negros
representan al elemento de interés y los blancos a los demás constituyentes de una población). Si se sacara
una muestra de 10 frijoles de la población, ¿cuáles son las probabilidades de conseguir una muestra que
contenga: 0, 1, 2, 3 y 4 frijoles negros respectivamente?

Solución:
La probabilidad de obtener un número de frijoles negros de una muestra total se calcula m ediante la
siguiente expresión:
n!
P( x  negro)  p x q n x
x !(n  x )!
donde:
p = probabilidad de que haya un frijol negro en la población.
q = probabilidad de que haya un frijol blanco en la población
x = número de frijoles negros en la muestra extraída
n = tamaño de la muestra.

10
p  01
. ; q  1  01
.  0.9; n  10
100
Para x = 0, es decir, cero negros y diez blancos:

10!
P(0 negros)  . ) 0 (0.9) 10  0.349
(01
0! 10!
10!
P(1 negro)  . ) 1 (0.9) 9  0.387
(01
1! 9!
Similarmente:
P (2 negros)  0194
.
P (3 negros)  0.057
P (4 negros)  0.011

Obsérvese que en una muestra de 10 frijoles, obtener un frijol negro y nueve blancos, sería una
muestra representativa del total, y esta combinación tiene una probabilidad de 0.387, o sea, se tiene
aproximadamente 39 % de posibilidades de obtener una muestra totalmente representativa del todo.
Obsérvese ahora el problema del muestreo de otra manera. Se tiene un recipiente con 250 frijoles
negros y 750 frijoles blancos. Los frijoles negros representan al elemento de interés y los blancos a los
demás constituyentes de una población. Se sacan del recipiente muestras de 100 frijoles y se contabiliza el

53
número de frijoles negros de cada muestra extraída. Se repite el procedimiento por 1,000 veces. Los
resultados reales del experimento se dan en la Tabla 5.1. y se comparan con los resultados teóricos que se
obtienen utilizando la formula:
n!
P( x  negro)  p x q n x
x !(n  x )!
Tabla 5.1: Valores reales y calculados del experimento de extracción de frijoles.

54
n= 100 negros= 250 p= 0.25
total= 1000 q= 0.75

Acum Acum
x n-x P(x) P(x) *1000 REAL P(x) P(x)*1000
9 91 0.000 0 0.000 0
10 90 0.000 0 0.000 0
11 89 0.000 0 0.000 0
12 88 0.001 1 0.001 1
13 87 0.001 1 0.002 2
14 86 0.003 3 0.005 5
15 85 0.006 6 6 0.011 11
16 84 0.010 10 10 0.021 21
17 83 0.017 17 12 0.038 38
18 82 0.025 25 22 0.063 63
19 81 0.037 37 35 0.100 100
20 80 0.049 49 48 0.149 149
21 79 0.063 63 61 0.211 211
22 78 0.075 75 78 0.286 286
23 77 0.085 85 89 0.371 371
24 76 0.091 91 100 0.462 462
25 75 0.092 92 100 0.553 553
26 74 0.088 88 94 0.642 642
27 73 0.081 81 84 0.722 722
28 72 0.070 70 72 0.792 792
29 71 0.058 58 57 0.850 850
30 70 0.046 46 44 0.896 896
31 69 0.034 34 31 0.931 931
32 68 0.025 25 24 0.955 955
33 67 0.017 17 14 0.972 972
34 66 0.011 11 9 0.984 984
35 65 0.007 7 5 0.991 991
36 64 0.004 4 3 0.995 995
37 63 0.002 2 2 0.997 997
38 62 0.001 1 0.999 999
39 61 0.001 1 0.999 999
40 60 0.000 0 1.000 1000
41 59 0.000 0 1.000 1000
42 58 0.000 0 1.000 1000

Histogramas de muestras de frijoles


110
Real
100 Calculada

90
Frecuencia (Nro. de muestras)

80

70

60

50

40

30

20

10

0
9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41
Nro. de frijoles negros por muestra de 100

Figura 5.2: Histograma del experimento de extracción de muestras de 100 frijoles.

De estos resultados tabulados se puede observar que si se sacan 1,000 muestras, solamente 92 de las
1,000 representarían correctamente el valor de la población; es decir, 92 muestra contienen 25 frijoles
55
negros y 75 blancos cada una. Sin embargo, las otras 908 muestras también serían valores verdaderos,
causales o al azar y no pueden ser descartados.
La Figura 5.2 describe la distribución normal de la extracción de frijoles, según los valores calculados y
los valores reales observados. Nótese la gran aproximación existente entre ambos gráficos. Obsérvese
también que la gran mayoría de extracciones caen en el intervalo [19, 31] frijoles negros en una muestra de
100. Asociado este concepto de probabilidad a una operación de muestreo, el obtener una muestra
totalmente representativa del total tiene muy bajas probabilidades; mas bien, la mayoría de muestras
obtenidas adecuadamente se distribuirán en un rango determinado alrededor del verdadero valor.

5.5. Prueba de normalidad


La distribución normal es un modelo teórico que describe la variabilidad en la variable X, y se asume
que los parámetros de población  y  son conocidos. Supóngase que estos parámetros son desconocidos
y se desea estimar estos de una muestra de tamaño n, los naturales estimadores son el promedio y
_
varianza de muestra respectivamente, x y s 2 . Ya que son sólo estimados de los parámetros de población  y
, no se sabe si la distribución normal proporciona el modelo apropiado para el análisis de la variabilidad de
las observaciones en consideración.
Tal vez la manera más simple de verificar si las observaciones provienen de una distribución normal es
elaborando el histograma de las observaciones. Ya que la frecuencia relativa de un histograma es un
estimado de la densidad de probabilidad, se debe verificar si el gráfico se asemeja a la curva de la
“campana” correspondiente a la distribución normal. Sin embargo, es difícil verificar si un pequeño número
de datos proviene de una distribución normal.
Los percentiles, qi, normales dependen de los parámetros  y  . En la práctica se puede reemplazar
_
estos parámetros por sus estimados x y s 2 . Alternativamente, se puede graficar los valores estandarizados
_
zi versus los respectivos percentiles xi Ya que q i  x  s z i y que bajo normalidad xi  qi se encuentra que los
puntos de un diagrama de dispersión de zi vs. xi deben caer aproximadamente en una línea recta con
_
pendiente 1/s y que pasa por el punto ( x , 0) . Tal gráfico se denomina gráfico de probabilidad normal. Si se
observa desviaciones del patrón lineal, es suficiente evidencia de que los datos no provienen de una
distribución normal.

Ejemplo: Para ilustrar el procedimiento, se tomara los 10 primeros datos de la Tabla 1.2 de Resistencia a la
Compresión de Bloques de Concreto. Estos datos ordenados según su posición ordinal son como sigue:

Orden 1 2 3 4 5 6 7 8 9 10
Valor 31.3 32.3 42.2 42.3 44.5 47.5 48.2 50.0 53.9 60.9

Si diversos valores se repiten, se les asigna la posición ordinal promedio.


Se calcula Pi = (i - 0.5)/n. Los valores estandarizados normales satisfacen Pi = P(Z  zi) = (zi) para i =
1, 2, …,n y se determinan de la Tabla Normal. Por ejemplo, zi satisface P1 = (1 - 0.5)/10 = 0.05 = P(Z  z1) y
esta dado por z1 = -1.645. El segundo satisface P2 = (2 - 0.5)/10 = 0.15 = P(Z  z2) y esta dado por z2 = -
1.04; y así sucesivamente. Estos valores se anotan en la última columna de la Tabla 5.2. El gráfico de los
valores normales vs. las observaciones, se da en la Figura 5.2.

56
Tabla 5.2. Primeras 10 observaciones de la Tabla 1.2 de Resistencia a la compresión de bloques de
concreto y sus valores normales.
Observación Posición i  0.5 Valor Normal
Pi 
n
48.2 7 0.65 0.39
53.9 9 0.85 1.04
50.0 8 0.75 0.67
44.5 5 0.45 -0.13
42.2 3 0.25 -0.67
42.3 4 0.35 -0.39
32.3 2 0.15 -1.04
31.3 1 0.05 -1.64
60.9 10 0.95 1.64
47.5 6 0.55 0.13

Probabilidad Normal

2.0
1.5
Valor normal

1.0
0.5
0.0
-0.5
-1.0
-1.5
-2.0
20 30 40 50 60 70

Observaciones

Figura 5.2: Gráfico de probabilidad normal.

Ya que los datos exhiben una relación lineal bastante buena, se puede aceptar con seguridad que los
datos provienen de una distribución normal.

5.6. Eliminación de datos.


Normalmente se acepta que cuanto más grande sea el número de medidas de una muestra dada, mayor
será la confianza de que su media sea el valor verdadero; por tanto es conveniente obtener tantas medidas
como sea posible; sin embargo, hay un límite práctico, sea por el método de medida utilizado o la cantidad
de muestra disponible. El problema es decidir cuales deben ser aceptadas y cuales rechazadas. La prueba
de la desviación estándar y el Criterio Q son métodos para decidir el rechazo de algunos de los datos
obtenidos.

a). Prueba de la Desviación Estándar.


Si se han hecho muchas medidas a una muestra, las observaciones se aproximarán a una curva de
distribución normal. Esta distribución indica que cualquier dato tiene un 99/7% de probabilidad de caer en
el intervalo x  3. Normalmente, cuando se utiliza la desviación estándar como criterio de rechazo, se
toma el valor de 3. Se rechaza si el valor de una medida particular esta fuera de este intervalo.

b). El Criterio Q.
Puede utilizarse para rechazar una medida sobre un población de 3 a 10 medidas de una cantidad a
cualquier nivel de confianza, aunque en circunstancias normales se utiliza el 90%; es decir, si se rechaza
una medida según este criterio, se hace con una confianza del 90%. Para el aplicar el criterio Q se
ordenan las medidas en orden creciente, tomándose los valores más divergentes , superior e inferior ,
calculándose el rango (Mn – M1) y con el los cocientes Q para el mayor y menor valores, según:

57
M 2  M1 M n  M n 1
Q1  Q2 
M n  M1 M n  M1

Como los valores que podrían eliminarse son M1 ó Mn, el criterio Q se aplica a ambos. Estos valores se
comparan con los que se anotan en la Tabla Nro. 5.3. Si Q1 y Q2 son mayores que el valor dado en la
Tabla, el dato puede ser rechazado con cierto límite de confianza; por ejemplo, si Q1 tiene un valor de
0.60 y el número de datos, n = 7, el dato puede ser eliminado con un límite de confianza del 90%.

Tabla Nro. 5.3: Valores de Q para rechazar datos con límite de confianza del 90%
Número de Q90%
observaci
ones
3 0.94
4 0.76
5 0.64
6 0.56
7 0.51
8 0.47
9 0.44
10 0.41
Ejemplo: Se efectúan 6 determinaciones de Fe en una misma muestra mineral, siendo los resultados los
siguientes:
% Fe 14.28 14.20 13.99 13.18 13.92 14.30

De donde : x  13.98 % y s  0.420


El valor de s considera los 6 datos. Si se descarta la peor medida, 13.98 %, los nuevos valores
calculados son: x  14.14 % y s  0.170
De modo que 3s = 3 * 0.170 = 0.59.
El límite de aceptación es: %Fe = 14.14  0.170 = [13.97; 14.31]
El valor 13.18 % no se encuentra dentro de estos límites, por lo que se puede desechar. El
procedimiento se repite ahora con el peor valor de los restantes cinco datos. Hecho ello, se observa que
13.92 cae dentro de los nuevos límites, por lo que este dato no se desecha.
El criterio Q . Considera los datos ordenados

% Fe 13.18 13.92 13.99 14.20 14.28 14.30

El rango {M6 – M1] = (14.30 – 13.18) = 1.12


M  M1 13.92 13.18 M  M n 1 14.30 14.28
Q1  2   0.66 Q2  n   0.01
M n  M1 1.12 M n  M1 1.12
El Q90% = 0.56; con lo que se determina que el dato de 13.92 % se elimina. Repitiendo el procedimiento
se encuentra que el resto de valores es aceptable. Por lo tanto, el valor aceptables de %Fe = 14.14.

5.7 Determinación del tamaño de muestra.


La determinación del tamaño de muestra es muy importante, puesto que si se toma una muestra muy
pequeña, no será representativa; y si la muestra es muy grande, se estaría desperdiciando recursos. Por
ello el tamaño de muestra adecuado deberá ser considerado correctamente.

5.7.1. Tamaño de muestra para definir el intervalo de confianza del promedio


Se está planificando un experimento y se quiere estar 100(1-) por ciento seguro de que el estimado
esta a h unidades del parámetro desconocido . Por ejemplo, queremos estar con el 95 % de confianza que
nuestro estimado se encuentre a h =2 unidades de . ¿Cuán grande debemos tomar la muestra n para
estimar  con tal precisión?.
Ya que:

58
 
    
P  X  z ( / 2)    X  z ( / 2)   1 
 n n
 
lo que se puede graficar según:

X  z ( / 2 )  / n  
X  z ( / 2)  / n 

De modo que la longitud del intervalo alrededor del promedio, h, es:


h  z (  / 2)  / n 
De ésta última expresión se tiene:

 2  z (  / 2) 
2

n
h2
expresión que permite calcular el número mínimo de muestras, n, a considerarse en un muestreo. Esto
requiere conocer 2. En muchas circunstancias, se puede tener una aproximación razonable a 2 de
anteriores pruebas o datos.
La expresión anterior denota que el tamaño de muestra, n, se incrementa al incrementarse el
coeficiente de confianza (1 - ) y disminuye al incrementarse h. Algunas veces se requerirá bastante
precisión, por lo que n debe ser muy grande. Pero si no es posible recolectar grandes muestras, se deberá
reducir el coeficiente de confianza o incrementar el ancho del rango h.

5.7.2. Tamaño de muestra para evaluar la diferencia de dos promedios


Si se conocen (al menos aproximadamente) las desviaciones estándar 1 y 2 y los tamaños de las dos
muestras se consideran iguales, n1 = n2 = n, entonces puede determinarse el tamaño requerido de la
muestra, de modo que se tenga confianza del 100(1-) por ciento en que el error en la estimación de 1 -2
sea menor que h. El tamaño requerido para la muestra de cada población es:
( 12   22 )  z ( / 2)
2

n
h2
5.8. Muestreo mediante incrementos
El muestreo por incrementos es el término aplicado a la forma de muestreo, en el que un número de
incrementos, específicamente medidos, se sacan de la población y se compositan para formar la muestra
apropiada. El número real de incrementos requeridos y el tamaño de cada incremento, son funciones de los
patrones se segregación y dispersión de los valores de la población. Cuando el muestreo mediante
incrementos se efectúa correctamente, los resultados deben ser representados por una curva de
distribución normal, donde la frecuencia se plotea contra el grado. Entonces es posible aplicar la teoría de
la probabilidad a los resultados iniciales de muestreo y predecir el número de incrementos que sería
requerido para dar un error específico probable de estimación a cualquier nivel de confianza deseado.
Ya que :

59
Z
 x  
S
n
Z S   x   n
sea e   x     error de estimacion  numero de unidades de diferencia
con respecto al valor promedio
2
 Z S
n   numero de muestras
 e 

Ejemplo de aplicación
Doce muestras de 5 libras son tomadas de un lote de mineral que contiene cinc, los cuales ensayaron
lo siguiente en % se Zn:
7.04; 8.10; 8.85; 6.25; 7.69; 8.76; 8.35; 7.57; 7.96; 8.30; 8.50 y 7.48.
¿Cuántos incrementos deben ser compositados con el objeto de que la muestra compósito ensaye dentro
del 2 % del ensaye verdadero a un nivel de confianza del 95 %?

Solución:
Valor promedio, x  7.99
Varianza, S 2
 0.718
Desviacion estandar, S  0.847
 2 
Error permisible de estimacion e    * 7.99  01598
.
 100 
Z  196
. para 95% de nivel de confianza
2
 196
. * 0.847 
n =   108
 01598
. 

Se debe compositar 108 muestras de mineral para que el resultado final se encuentre en un rango 2%
alrededor del verdadero promedio.

60
CAPITULO VI

ANALISIS DE REGRESIÓN

6.1. Introducción
El objetivo de muchas investigaciones científicas es el comprender y explicar las relaciones entre
variables. Frecuentemente, se requiere conocer como y en que medida una variable de respuesta se
relaciona con un grupo de variables. El análisis de regresión es un técnica estadística para el modelamiento
y la investigación de la relación entre dos o más variables. Por ejemplo, en un proceso químico, supóngase
que el rendimiento del proceso esta relacionado con la temperatura de operación. El análisis de regresión
puede usarse para construir un modelo que permita predecir el rendimiento para una temperatura dada. El
modelo que se obtenga también puede usarse para la optimización del proceso, tal como hallar la
temperatura que maximiza el rendimiento, o para fines de control.
Como ilustración considérese los datos de rendimiento en carretera en kilómetros por galón de
gasolina (KPG) para una muestra de 10 automóviles, según se observa en la Tabla 6.1

Tabla 6.1: Rendimiento en kilómetros por galón de diversos tipos de automóviles.


Nro. Automóvil Peso /(1000) Kg. Rendimiento, KPG
1 Toyota Corona 1.179 44.7
2 Ford mustang Ghia 1.315 37.1
3 Mazda GLC 0.907 55.5
4 VW Rabbit 0.862 51.9
5 Buick Century 1.542 32.8
6 AMC Concord 1.542 28.3
7 Chevy Caprice 1.724 27.3
8 Ford Country 1.600 24.8
9 Chevette 0.998 48.8
10 AMC Sprint 1.225 44.7

La Figura 6.1 presenta el diagrama de dispersión de los datos contenidos en la Tabla 6.1. El diagrama
es solo una gráfica en la que cada par (x, y) está representado por un punto en el sistema de coordenadas
X,Y. El análisis de este diagrama indica que, si bien una curva no pasa exactamente por todos los puntos,
existe una evidencia fuerte de que los puntos están dispersos de manera aleatoria alrededor de una línea
recta.

Diagrama de disperción:Rendimiento de Vehículos


60

55

50
Rendimiento, KPG

45

40

35

30

25

20
0.8 1.0 1.2 1.4 1.6 1.8
Peso de carro, Kg

Figura 6.1: Diagrama de dispersión para el rendimiento de vehículos.

El consumo de combustible mantiene cierta relación con el esfuerzo (fuerza por distancia) requerido
para desplazar el vehículo. Ya que la fuerza es proporcional al peso, es de esperarse que el consumo de
61
combustible también sea proporcional al peso. Por consiguiente, es razonable suponer que la media de la
variable aleatoria Y esta relacionada con X por la siguiente relación lineal:

E (Y )     o   1 X
donde la pendiente, o , y la ordenada al origen, i ,de la recta reciben el nombre de coeficientes de
regresión. Si bien la media de Y es una función lineal de x, el valor real observado de Y no cae de manera
exacta sobre la recta. La manera apropiada para generalizar este hecho con un modelo probabilístico
lineal es suponer que el valor esperado de Y es una función lineal de x, pero que para un valor fijo de x el
valor real de Y esta determinado por el valor medio de la función (el modelo lineal) más un término que
representa un error aleatorio, así:

Y   o  1X  

donde  es el error aleatorio. Este modelo recibe el nombre de modelo de regresión lineal, ya que sólo tiene
una variable independiente o regresor (X).
Naturalmente, una relación precisa entre peso y consumo de combustible debe tener en consideración
otros factores tales como eficiencia de uso de combustible, diseño de motor, forma del chasis, etc., factores
que al no ser considerados, contribuyen a hacer más dispersos los datos. A pesar de ello supóngase que el
modelo de regresión verdadero para el caso del rendimiento de los automóviles se ajusta a la línea recta
mostrada en la Figura 6.2. El modelo de regresión verdadero: E (Y )     o   1 X es una recta de
valores promedio; esto es, cualquier punto de la recta corresponde al valor esperado de Y para su
correspondiente X. La pendiente  1 puede interpretarse como el cambio de la media de Y por unidad de
cambio de X. Además, la variabilidad de Y en un valor particular de X está determinada por la varianza del
error. Esto implica que existe una distribución de valores de Y para cada X, y que la varianza de esta
distribución es la misma para cada X. Nótese que se ha utilizado una distribución normal para describir la
variación aleatoria de . La variación de  mide que tan dispersos se encuentran los valores medidos con
respecto a los calculados, de modo que, según el valor de  de  determina el grado de dispersión de las
2

observaciones. Por lo tanto, cuando  tiene un valor pequeño, los valores observados de Y caen cerca de
2

la línea, y cuando  es grande, los valores observados de Y pueden desviarse considerablemente de la


2

línea. Dado que  es constante, la variabilidad en Y para cualquier valor de X es la misma.


2

Recta Verdadera de
Y Regresión
Y = X

x2

x1

x1 x2 X

Figura 6.2: Distribución de Y para valores de X1 y X2

6.2. Regresión lineal simple


El caso de regresión lineal simple considera solo un regresor o predictor X, y una variable
dependiente o respuesta Y. Existen tres parámetros en este modelo: los coeficientes  0,  1 y la varianza 
2

la cual estima la dispersión de los datos alrededor de la línea de regresión. Normalmente, estos parámetros
son desconocidos y deben ser calculados de los datos de muestra. Las estimaciones de 1 y  2 deben dar
como resultado una línea que, en algún sentido, se „ajuste mejor‟ a los datos. El científico alemán Karl
Gauss (1777-1855) propuso estimar esos parámetros de modo que se minimice la suma de los cuadrados
62
de las desviaciones en los valores de Y. Este criterio para estimar los coeficientes de regresión se conoce
como método de los mínimos cuadrados.
^ ^
El método de mínimos cuadrados permite calcular los estimadores  o y  1 de  0 y  1 mediante las
siguientes expresiones:

 n   n 
  yi    xi 
n
 i 1   i 1 

y
i 1
i xi 
n
1  2
 n

  xi 
n
 i 1 
x
i 1
2
i 
n

 
 0  y  1 x
donde
1 n 1 n
y  y
n i 1 i
x 
n
x
i 1
i


Una expresion equivalente para  1 esta dada por:

 x  x  y i  y    x x y
n

i i i

i 1
1  
 x  x
n

 x  x
2 2
i i
i 1

Por tanto, la línea de regresión estimada o ajustada es:

  

Y    X
Observese que cada par de observaciones satisface la relacion:
 

Yi      X i  ei i  1, 2,..., n

donde ei  yi  y recibe el nombre de residuo.

El residuo describe el error en el ajuste del modelo en la i-ésima observación yi . Más adelante se utilizarán
los residuos para proporcionar información sobre la adecuación del modelo ajustado.

Ejemplo
Para los datos de la Tabla 6.1 de rendimiento de combustible de vehículos, tenemos:

63
10 10 10

 xi  12,894
i 1
 xi2  17.469 *10 6
i 1
y
i 1
i  396.9
10 10

y
i 1
i
2
 16,822.55 x
i 1
i y i  482,527.4

396.9 * 12,894

482,527.4 
10
    0.03465
(12 ,894) 2
17.469 * 10 
6
10

   39.69  34.66 * 1289
.  84.366

Por lo tanto el modelo queda definido como:

Y  84.366  0.03465 X

Un programa estadístico de computadora proporciona el modelo y gráfico de regresión, según se muestra


en la Figura 6.3.
Diagrama de Dispersión y Regresión: Rendimiento de Vehículos
y = 84.366 - 0.035*x + eps
60

55

50
Rendimiento, KPG

45

40

35

30

25

20
800 1000 1200 1400 1600 1800
Peso de carro, Kg

Figura 6.3. Modelo de regresión y gráfico para rendimiento de vehículos.

La pendiente estimada por  1 = -0.035 KPG/Kg. significa que el aumento de 1 Kg. en el peso del
vehículo este avanza 0.035 Km. (35 m.) menos por cada galón consumido; ó también, que una persona
dentro del vehículo que pese 70 Kg. ocasionará una reducción en el rendimiento del vehículo de 2.45 Km.
Esto último dicho de otra forma implica que, para un vehículo que rinde 40 KPG, el transporte de una
persona que pesa 70 Kg. implicará un consumo de 2.45/40 = 0.06 galones por cada 40 Km. de recorrido.
Nótese que los datos incluyen valores de peso entre 862 y 1,724 Kg. por lo que para valores fuera de
este rango, la eficiencia de vehículo puede ser diferente. La intersección  0 = 84.37 no se le puede asociar
ningún significado, pues implicaría el rendimiento de un vehículo de peso 0 Kg.

6.2.1 Valores residuales y ajustados


 
Los estimados por mínimos cuadrados de   y   permiten estimar (ajustar) la línea de regresión
dada por:

64
  
Y   o  1 X

El cálculo de ésta expresión para los niveles x1, …, xn proporciona los valores ajustados:
  
Yi   o   1 X i para i = 1, 2, …,n

  
Las respectivas diferencias entre las observaciones Y1, Y2,…,Yn y los valores ajustados Y , Y ,..., Yn son
 
denominados residuales, y están dados por:

ei  Yi  Y

 Yi    o   1 X i 
 
i  1, 2,..., n.
La estimación de residuos para el ejemplo de consumo de combustible por automóviles se muestra en el
cuadro 6.1, tal como se obtuvo de un programa estadístico de computadora.
Obsérvese que la suma de residuales es cero, lo cual es general para toda evaluación de residuos, es
decir, para un análisis de regresión:

e 0
i 1
i

Cuadro 6.1: Análisis de residuos para el modelo de regresión de consumo de combustible.

STATISTICA: Multiple Regression


0 1 2 3 4 5 6
CASE OBSERVED PREDICTD RESIDUAL STANDARD STANDARD STD.ERR.
VALUE VALUE PRED. V. RESIDUAL PRED.VAL.

1 44.70 43.51521 1.18479 .36056 .44535 .899983


2 37.10 38.80299 -1.70300 -.08361 -.64014 .844532
3 55.50 52.93966 2.56035 1.24890 .96242 1.390785
4 51.90 54.49884 -2.59884 1.39587 -.97689 1.496644
5 32.80 30.93774 1.86226 -.82498 .70001 1.114870
6 28.30 30.93774 -1.63775 -.82498 -.61562 1.114870
7 27.30 24.63169 2.66831 -1.41938 1.00300 1.513936
8 24.80 28.92812 -4.12812 -1.01440 -1.55173 1.231637
9 48.80 48.78662 -.98663 .95170 -.37087 1.191629
10 44.70 41.92138 2.77863 .21033 1.04447 .861698
Minimum 24.80 24.63169 -4.12812 -1.41938 -1.55173 .844532
Maximum 55.50 54.49884 2.77863 1.39587 1.04447 1.513936
Mean 38.69 38.69000 -.00000 .00000 -.00000 1.166058
Median 40.90 40.36218 .09908 .06336 .03724 1.153250

Un modelo lineal en términos generales esta definido por:


  
Y   o  1 X  
en donde el término  es una variable aleatoria con media cero y varianza  . Puesto que los valores de X
2

son fijos, Y es una variable aleatoria de promedio  =  0 +  1X y varianza  . Por consiguiente, los valores
2
 

 y  dependen de los valores de Y observados. Por consiguiente, los estimadores de mínimos


0 1

cuadrados de los coeficientes de regresión pueden verse como variables aleatorias.


Para obtener inferencias con respecto a los coeficientes de regresión  0 y  1 es necesario estimar la
varianza, la que corresponde a la varianza del término de error  en el modelo de regresión. Esta varianza
refleja la variación alrededor de la verdadera recta de regresión.
Los residuos e se emplean en el cálculo de  . La suma de los cuadrados de los residuos , o Suma
2

de los Cuadrados del Error, SS E (Sum Square Error) es:

65
n n 2

  Y  Y 

SS E  e
i 1
2
i 
i 1
i

por lo tanto:

SS E
2 
n2

6.2.2 Inferencias en el modelo de regresión


El modelo de regresión pretende usar información de una variable independiente para explicar la
variabilidad en la respuesta Y. Ignorando la información contenida en x1, x2,…, xn, se puede medir la
variabilidad entre las respuestas Y1, Y2, …,Yn utilizando:

2
 n 
  Yi 
n
 
2 n
 i 1 
 
_

 Yi  Y   Yi
2
  SS TO
i 1 i 1 n

que se le denomina suma total de cuadrados, SSTO, (total sum of squares).


Las variaciones de los valores ajustados según la ecuación de regresión con res pecto al promedio de
los valores de Y se mide según:

2
n
 

i 1
 Y i  Y   SSR
 

y se denomina suma de cuadrados debido a la regresión, SSR, (regresion sum of squares).


Generalmente, no toda la variación es explicada por el modelo de regresión. Los residuos , ei, expresan
un componente adicional, que es medida por:
n n 2

SS E   e    Yi  Y 

2
i
i 1 i 1
que se denomina suma de cuadrados debida al error, SSE , (error sum squares). De todo esto se puede
demostrar que:
SSTo = SS R + SSE
2
Todos estos conceptos conducen a la definición del Coeficiente de Determinación, R que es una
medida estadística de el ajuste de los valores medidos a la ecuación de regresión. Se representa por:
2
  n  
 n   i 
Y 
 X Y    X   i 1  
n

 i 1 i i
 i 1   n  
i

   
SS R SS E    
R2   1 
SS TO SS TO   n  
2
 n  
2

 n  i 
X    i  
Y
 X 2   i 1    Y 2   i 1  
n

 i 1
i
n   i 1
i
n 
  
   


Para ilustrar el significado de esas expresiones, supóngase que 1  0 lo cual indica que no existe

relación entre X y Y; es decir Y = o; ó Y1 = Y2 = … = Yn. Por lo tanto: Y  Y y SSR = 0 y SSTO = SSE y R
2

=0. En una segunda situación, supóngase que todos los puntos de la ecuación ajus tada pasan por los punto

medidos; o sea Yi  Yi entonces SSE = 0 y SSTO = SSR , y R =1 lo cual indica que existe un excelente ajuste
2

entre lo real y calculado. De esto último y en la ecuación:


SS R SS E
R2   1
SS TO SS TO
66
2
se puede observar que R = 1 cuando hay un excelente ajuste entre lo medido y calculado; por el contrario,
2
R = 0 cuando no existe ninguna relación entre X y Y. De esto sigue que:

0R 1
2

2
Esto explica que mientras el valor de R sea más cercano a 1 mejor será el ajuste predicho por la ecuación
de regresión.
2
En el ejemplo de el rendimiento de vehículos, se calcula fácilmente R = 0.94706, lo cual indica que
existe un buen ajuste predicho por la ecuación de regresión.
La salida que proporciona un programa de computadora se muestra en Cuadro 6.2:

Cuadro 6.2: Resultados de Regresión de un programa de computadora

Missing data casewise deleted


MULTIPLE REGRESSION RESULTS:
Variables were entered in one block

Dependent Variable: RENDIMIE


Multiple R: .973172525
Multiple R-Square: .947064764
Adjusted R-Square: .940447859
Number of cases: 10
F ( 1, 8) = 143.1281 p < .000002
Standard Error of Estimate: 2.660332365
Intercept: 84.366006027 Std.Error: 3.827912 t( 8) = 22.040 p < .000000
6.2.3 Prueba de hipótesis en la regresión lineal simple
Una parte importante al evaluar la adecuación de un modelo de regresión lineal es la prueba de
hipótesis estadísticas sobre los parámetros del modelo y la construcción de ciertos intervalos de confi anza.
Para probar hipótesis sobre la pendiente y la ordenada al origen del modelo de regresión, debe hacerse la
hipótesis adicional de que el componente del error del modelo , tiene una distribución normal, es decir  es
N(0, ).

6.2.3.1. Uso de pruebas t


Si se desea probar la hipótesis de que la pendiente es igual a una constante,  10 las hipótesis
apropiadas son:
Ho :  1 =  10
H1 :  1   10
donde se ha considerado una hipótesis alternativa a dos colas (bilateral).Para evaluación de estas hipótes is
se calcula el estadístico de prueba siguiente:
 
1  10 1  10
T0  
 
 se(1 )
S xx
donde

 
n
S xx   xi  x
2

i 1

 
 se(1 )  error estandar estimado de la pendiente
S xx
To tiene una distribución t con n-2 grados de libertad. Puede rechazarse Ho si:
TO  t ( / 2, n  2)
De modo similar para  o se pueden probar las hipótesis:
Ho :  0 =  00
H1 :  0   00

67
donde se ha considerado una hipótesis alternativa a dos colas (bilateral).Para evaluación de estas hipótesis
se calcula el estadístico de prueba siguiente:
 
0  00 0  00
T0   
 1 x2 
 se(0 )
  2

 n S xx 
 
1 x 
2

donde:  2     se(0 )  error estandar de la ordenada al origen
 n S xx 
To tiene una distribución t con n-2 grados de libertad. Puede rechazarse Ho si:
TO  t ( / 2, n  2)
Un caso especial muy importante de las hipótesis anteriores es:
Ho :  1 = 0
H1 :  1  0
las cuales están relacionadas con la significancia de la regresión. Aquí, si se rechaza H1 y acepta H0 es
equivalente a concluir que no hay ninguna relación lineal entre X e Y.

Ejemplo: Luego de una evaluación y cálculo de un grupo de 20 datos se obtuvo el siguiente modelo lineal;
Y = 74.20 + 14.97 X
Se calculo Sxx = 0.68 y  = 1.17. De esto:
2

 
1 1 14.97
T0  
    11.41
se(1 ) 117
. / 0.68

S xx

de Tablas se obtiene t(0.05, 18) = 2.88. Con estos resultados se decide rechazar Ho. El valor p de esta
-8.
prueba es 1.13 x 10
6.2.3.2. Análisis de la varianza y prueba F
Para probar la significancia de una regresión se utiliza el método de análisis de la varianza, ANAVA.
Como base para la prueba, el procedimiento particiona la variabilidad total en componentes más
manejables. La identidad del análisis de la varianza es el siguiente:

y  y     yi  y 


n n 2 n 2

  y  yi 
2  
i i
i 1 i 1 i 1
Los dos componentes del lado derecho de esta ecuación miden respectivamente: a) la cantidad de
variabilidad en yi tomada en cuenta por la recta de regresión; y, b) la variación residual que queda sin
explicar por la recta.
Lo usual es utilizar las siguientes definiciones:

y 
n
2
i y  S yy ( Suma Total de Cuadrados Corregida ). Tambien simbolizado por SS TO
i 1
n 2

  y  y

 SS R ( Suma de Cuadrados de la Re gresion)
i 1
i 
n 2

  y  y i 

i  SS E ( Suma de Cuadrados de los Errores
i 1
De modo que la última ecuación puede escribirse:
Syy = SSR + SSE
La suma total de cuadrados Syy tiene (n-1) grados de libertad, y SSR y SSE tiene (1) y (n-2) grados de
libertad respectivamente..
Es posible demostrar que SSE / y SSR / son variables aleatorias independientes con distribución
2 2

Chi cuadrado con (n-2) grados de libertad. Para el contraste de las hipótesis:

Ho :  1 = 0
H1 :  1  0
68
se utiliza el estadístico F expresado de la siguiente forma:
SS / 2  / 1 SS R / 1 MS R
F  
R

SS E /   / ( n  2)
2
SS E / (n  2) MS E

observese que MS E   2
Este estadístico tiene distribución F( ; 1, n-2) con lo que H0 debe rechazarse si F0 > F( ; 1, n-2).
Las cantidades MSR y MSE reciben el nombre de medias de cuadrados. En general, una media de
cuadrados siempre se calcula dividiendo una suma de cuadrados entre su número de grados de libertad. Lo
usual es acomodar el procedimiento de prueba en una Tabla de Análisis de la Varianza, según se observa
en la Tabla 6.2.

Tabla 6.2: Tabla de ANAVA para un modelo de regresión linear simple.


Fuente de Suma de Grados de libertad, Media de F Valor p
variación cuadrados, gl cuadrados, MS
SS
Regresión SSR 1 MSR = SSR/1 MSR / MSE Area de
Error SSE n-2 MSE = SSE/(n-2) probabi-
Total SSTO n-1 lidad

Los grandes valores de F indican que  1 es diferente de cero. Esto implica de que si la relación F
excede el 100 punto de porcentaje de la distribución F(1, n-2), o de otra forma, si F > F (  ; 1, n-2) se
rechaza Ho y acepta H1 a un nivel de significación , lo que significa que  1 es diferente de cero. El valor p
es un valor de área o probabilidad asociado al valor de F0 . Si el valor p es menor que el nivel de
significación fijado, , se acepta H1.

6.2.5 Evaluación de la adecuación del modelo


Un modelo de regresión lineal simple puede que ajuste datos que presentan una escasa relación linear.
Un ajuste lineal no es apropiado para datos que siguen un modelo cuadrático u otro más complicado. Tales
modelos puede no ser consistentes con los supuestos asociados a los modelos de regresión lineal simple.
Además, este modelo de regresión debe ser ajustarse a datos para los cuales la variabilidad en los valores
respuesta de Y son aproximadamente constantes para todos los valores de X. Por ejemplo, el modelo no
sería adecuado para datos en los que la variabilidad en Y se incrementa al incrementarse los valores de X.
Esto estaría en contradicción con el principio de constancia de la varianza.
6.2.5.1.Análisis residual.
Es muy importante revisar los supuestos para un modelo de regresión. Las principales herramientas
útiles para verificar el modelo son la evaluación de residuos, tales como:

a) Gráficos de residuos versus los valores ajustados de Y.


b) Gráficos de residuos versus los valores de X.
c) Gráficos de residuos versus otras variables que no fueron incluidas en el modelo original, e. g. orden
cronológico, si los datos son obtenidos secuencialmente.

Si los supuestos de regresión satisfacen el modelo, no debe observarse ningún „patrón‟ en esos
gráficos. Los residuos deben aparecer variando aleatoriamente en un área horizontal 2 alrededor de la
línea de cero. Por ejemplo, los gráficos de la Figura 6.4 muestran patrones que no satisfacen el requisito de
constancia de la varianza. En el primero de ellos por ejemplo, se observan desviaciones negativas en los
valores extremos y desviaciones positivas en los valores medios; en el segundo gráfico, las desviaciones se
e]incrementan para valores altos. De ellos se deduce que el modelo obtenido en cada caso no se ajusta
plenamente a los datos obtenidos.

69
e e

0
0

Y Y
Figura 6.4: Gráficos de residuos que muestran determinados patrones.

Con los datos de la Tabla 6.1 y con la aplicación de un programa estadístico de computadora se
obtienen los gráficos de las Figuras 6.5, 6.6 y 6.7. La Figura 6.5 repite el análisis de regresi ón con la línea
ajustada, (linea central) los valores reales y las línea alrededor de esta representando el intervalo de
confianza al 95% para el modelo de ajuste.

PESO_KG vs. RENDIMIE


RENDIMIE = 84.366 - .0346 * PESO_KG
Correlation: r = -.9732
60

55

50

45
RENDIMIE

40

35

30

25

Regression
20
800 1000 1200 1400 1600 1800 95% conf id.

PESO_KG

Figura 6.5: Curva de regresión e intervalos de confianza para el rendimiento de vehículos

70
Valores Ajustado vs. Residuos
Dep endent variable: RENDIM IENTO
4

0
Residuos

-1

-2

-3

-4

-5 Regression
22 28 34 40 46 52 58 95% conf id.

Valores Ajustados

Figura 6.6: Relación de valores calculados y residuos de ajuste.


 
La Figura 6.6 muestra el gráfico de los valores calculados vs residuos, esto es Yi vs (Yi  Yi ) . Se
observa en el que los 10 datos presentan residuos distribuidos sin patrones evidentes. Semejante
conclusión se obtiene de la Figura 6.7. Obviamente, los datos son muy pocos para obtener una conclusión
definitiva acerca de la validez del modelo en función de la evaluación de los residuos, pero queda con ello
definido el procedimiento de análisis para cuando se disponga de mayor información.
De encontrarse patrones en estos gráficos de residuos estaría indicando la presencia de un
componente no explicado por el modelo. Por ejemplo, si al obtener mayor información de rendimiento de
vehículos se observasen algunos patrones, se evaluaría la posibilidad de considerar otras variables, tales
como numero de cilindros, desplazamiento de los pistones, potencia, etc.
Raw residuals vs. PESO_KG
Raw residuals = .00000 + 0.0000 * PESO_KG
Correlation: r = -.0000
4

1
Raw residuals

-1

-2

-3

-4
Regression
-5
800 1000 1200 1400 1600 1800 95% confid.

PESO_KG

Figura 6.7: Relación de variable independiente y residuos de ajuste.

71
2
6.2.5.2.Coeficiente de determinación (R )
Como se vio anteriormente, la cantidad:
SS R SS E
R2   1
SS TO SS TO
recibe el nombre de coeficiente de determinación y se utiliza con mucha frecuencia para juzgar la
2
adecuación de un modelo de regresión. A menudo se hace frecuencia de manera vaga a R como la
cantidad de variabilidad en los datos que es explicada o tomada en cuenta por el modelo de regresión.
2
Para el ejemplo de rendimiento de combustible de vehículos, se determinó el valor de R = 0.9471; lo que
significa, que el modelo determinado toma en cuenta el 94.71% de la variabilidad presente en los datos.
2 2
El estadístico R debe emplearse con precaución, ya que siempre es posible hacer R igual a uno
mediante la adición al modelo de un número suficiente de términos. Por ejemplo, puede obtenerse un ajuste
2
“perfecto” a n puntos con un polinomio de grado (n-1) . Además R siempre aumenta si se añade una
variable al modelo, lo que no implica necesariamente que el nuevo modelo sea mejor que el anterior.
Amenos que la suma de los cuadrados de los errores del nuevo modelo se vea disminuida por una cantidad
igual que al error cuadrático medio original, el nuevo modelo tendrá un error cuadrático medio mayor que el
anterior debido a la pérdida de un grado de libertad en el error; por lo tanto, en realidad el nuevo modelo es
peor que el anterior.
2
Se debe tener en cuenta que R no mide cuan apropiado resulta ser el modelo, ya que esto puede
inflarse de manera artificial con la adición al modelo de términos polinomiales en X de grado superior.
2 2
Incluso, R puede ser grande si X y Y están relacionadas de manera NO lineal. Finalmente, a pesar de R
sea grande, esto no necesariamente implica que el modelo de regresión proporcionará predicciones
precisas de observaciones futuras.

6.2.6. Transformaciones que llevan a una línea recta


Al reconocer la existencia de falta de ajuste en un modelo de regresión se deben tomar acciones para
corregir el defecto. Naturalmente, un diagrama de dispersión es el primer análisis a realizar, el cual puede
en muchos casos revelar la falta de ajuste lineal. El coeficiente de determinación, el análisis de residuos son
pruebas definitivas de la falta de ajuste. En el caso de que la varianza no es constante, se debe intentar
alguna transformación.
En algunas circunstancias, la función no lineal puede expresarse como una línea recta mediante el
empleo de una transformación adecuada. Estos modelos no lineales son denominados intrínsecamente
lineales. Como ejemplo de un modelo no lineal que es intrínsecamente lineal, considérese la siguiente
función exponencial:

Y   o e 1 x 
Esta función es intrínsecamente lineal, puesto que puede transformarse en una línea recta mediante una
transformación logarítmica:

ln Y  ln  o   i X  ln 
Esta transformación requiere que los términos de error transformados ln  sean normales, con media cero y
varianza  y que estén distribuidos de manera independiente.
2

Otra función intrínsecamente lineal es:

 1
Y   o  1    
 X
Mediante el empleo de la transformación recíproca Z = 1/X, el modelo queda linealizado como:

Y   o  1 Z  
Si la varianza de Y se incrementa proporcionalmente al nivel de Y, se puede tratar transformaciones
como : Y , 1 , log Y , etc u otras potencias de Y . Los gráficos de estas transformaciones versus los valores
Y
de X indicará que transformación en particular estabiliza mejor la varianza.

72
6.3. Modelo de regresión lineal múltiple
Muchas aplicaciones del análisis de regresión involucran situaciones donde se tiene más de una
variable de regresión. Un modelo de regresión que contiene más de un regresor recibe el nombre de
modelo de regresión múltiple.
Como ejemplo, supóngase que la vida eficaz de una herramienta de corte depende de la velocidad de
corte y el ángulo de la herramienta. El rendimiento de un proceso químico no solo puede estar afectado por
la concentración de un elemento, sino por la concentración de varias sustancias, temperatura, etc . Un
modelo de regresión múltiple que puede describir esta relación es el siguiente:

Y   o  1 X 1   2 X 2  

donde Y representa la vida de la herramienta; X1 la velocidad de corte; X2 el ángulo de la herramienta; y 


un término de error aleatorio. Se utiliza el término lineal porque la ecuación del modelo de regresión múltiple
es una función lineal de los parámetros conocidos  o ,  1 y  2 La ecuación del modelo de regresión describe
un plano en el espacio tridimensional, Figura 6.8. El parámetro o es la intersección del plano. Los
parámetros  1 y  2 se conocen como coeficientes de regresión parciales, ya que  1 mide el cambio
esperado en Y por unidad de cambio de X1 cuando X2 se mantiene constante, y  2 mide el cambio
esperado en Y por unidad de cambio en cuando X2 cuando X1 se mantiene constante.

X2

X1
Figura 6.8: Representación gráfica de un modelo se regresión lineal múltiple con dos regresores.

En general, la variable dependiente o respuesta Y, puede estar relacionada con k variables


independientes o regresores. El modelo:

Y = o +  1 X1 +  2 X2 +…+  k Xk + 

recibe el nombre de modelo de regresión lineal múltiple con k variables de regresión. Este modelo describe
un hiperplano en el espacio de dimensión k formado por las variables de regresión. Los modelos que tienen
una estructura más compleja que la dada por esta ecuación se pueden analizar con frecuencia por técnicas
de regresión lineal múltiple.

6.3.1 Estimación de los parámetros


Generalmente los coeficientes de regresión  o , 1,  2 ,…  k así como la varianza de los errores son
desconocidos y deben ser estimados a partir de datos tomados de la práctica real. Al igual que en el modelo
de regresión lineal simple, se utiliza el criterio de los mínimos cuadrados para calcular esos coeficientes. En
general, las ecuaciones que permiten el cálculo respectivo son:

73
  n  n  n n
n  o   1  X i1   2  X i 2  ...   k X ik  Y i
i 1 i 1 i 1 i 1
 n  n  n  n n
 o  X i1   1  X i21   2  X i1 X i 2  ...   k X i1 X ik  X Y
i1 i
i 1 i 1 i 1 i 1 i 1

.
.
.
 n  n  n  n n
 o  X ik   1  X ik X i1   2  X ik X i 2  ...   k X 2
ik  X Y
ik i
i 1 i 1 i 1 i 1 i 1

Estas son llamadas la ecuaciones normales. La solución de estas ecuaciones es relativamente sencilla
aunque algo laborioso el cálculo manual dependiendo de la cantidad de regresores a considerar. En vista de
que los programas estadísticos de computadora presentan la opción de regresión múltiple, la obtención del
modelo de regresión se torna muy practico con el uso de un programa de computadora.

6.3.2 Medidas de adecuación del modelo


Pueden emplearse varias técnicas para medir la adecuación de un modelo de regresión, entre las que
se tiene las siguientes:

a) Coeficiente de determinación múltiple


Definido como:
SS R SS E
R2   1
SS TO SS TO

es una medida de la magnitud de la reducción de la variabilidad de Y obtenida mediante el empleo de las


variables de regresión. Al igual que en el caso de la regresión simple 0  R  1. Sin embargo, un valor
2
2
grande de R no necesariamente implica que el modelo de regresión sea bueno. La adición de una variable
2
al modelo siempre aumenta R , sin importar si la variable es o no estadísticamente significativa. Es así
2
como modelos que tienen valores grandes de R pueden proporcionar predicciones pobres de nuevas
observaciones o estimaciones de la respuesta.

b) Análisis residual

Los residuos del modelo de regresión múltiple , definidos como ei  Yi  Y i desempeñan un papel
importante al juzgar la adecuación del modelo, al igual que lo tienen con la regresión lineal simple. Para tal
propósito son muy útiles las gráficas de los residuos. Una gráfica de probabilidad normal de los residuos es
un elemento apropiado para juzgar sobre la valides del modelo; desviaciones de los residuos con respecto a
la normalidad son indicio de que el modelo no es el más adecuado.

6.4. Modelos de regresión polinomiales


El modelo lineal:

Y = o +  1 X1 +  2 X2 +…+  k Xk + 

es un modelo general que puede emplearse para ajustar cualquier relación li neal en los parámetros
desconocidos . Esto incluye la clase importante de modelos de regresión polinomiales. Por ejemplo, el
polinomio de segundo grado en una variable:

Y =  o +  1 X1 +  11 X + 
2

y el polinomio de segundo grado de dos variables:

Y   0  1 X 1   2 X 2  11 X 12   22 X 22  12 X 1 X 2  

74
son modelos de regresión no lineales.
Los modelos de regresión polinomiales se utilizan mucho cuando la respuesta es curvilineal y el posible aplicar
principios generales de la regresión múltiple.

4. Ejemplos de aplicación
Con los siguientes ejemplos se desarrollaran aplicaciones prácticas de lo los conceptos de regresión
lineal
4.1. Evaluación en el cambio de rendimiento de proceso
En uno de los pasos para eliminación de agua de concentrados finos en una Planta Concentradora se
usa un proceso de filtración en batch usando una serie de filtros de placa-y-lona. Un día, y sin aparente
razón, la capacidad del circuito de filtración se redujo en un 20% aproximadamente y ha permanecido por
varios días en tal situación. El Superintendente de Planta quiere saber por qué y si será necesario comprar
filtros adicionales para recuperar los anteriores niveles.
El tiempo requerido para colectar un volumen V de filtrado de una pulpa con una concentración de
sólidos de concentración C (volumen de sólido por unidad de volumen de filtrado) a una presión constante
P se representa por el siguiente modelo semiteórico:

V 2 rC
t (4.1)
2 A 2 P

donde  es la viscosidad del fluido, A es el área de filtración y r es la resistencia específica de la torta.


Cuando la torta filtrada es compresible, la resistencia de torta r se incrementa con el incremento de la
presión, P según la siguiente relación empírica:

r = ro +  (P)
n
(4.2)

Los valores previamente determinados de las constantes para el concentrado normal de la planta son
6
ro = 3.1x10 (ft)
-2
 = 1.1 x 105 (psi-.9 ft-2) n = 0.90

Un análisis de los registros de operación de planta determina que no hubo cambios significativos en las
condiciones de operación en las últimas semanas a excepción del tamaño del concentrado, que en la
actualidad es algo más fino de lo que era antes al problema surgido. Al revisarse la literatura técnica se
encuentra que el parámetro ro de la ecuación (4.2) es sensible a la distribución de tamaños; por lo tanto, se
decide reevaluar la relación para un material más fino.
Se efectúan unas pruebas experimentales cuyos resultados se anotan en la siguiente Tabla:

DATOS EXPERIMENTALES
-2
Pi (psi) r i (ft)
6
40 9.34x10
6
40 9.92x10
6
70 13.13x10
6
70 12.23x10
6
60 12.31x10
6
60 11.76x10
6
30 8.85x10
6
30 8.71x10
6
50 11.57x10
6
50 11.16x10
6
80 13.21x10
6
80 13.72x10

El procedimiento a seguir para analizar y proponer una solución al problema surgido, puede efectuarse
según el siguiente esquema:

75
A) Revisar la validez de la ecuación 4.2:
1.Inténtese ajustar los datos experimentales con los siguientes modelos:

a ) r  ro  X
b) r  ro e X
c) r  ro X 
considerando X = P , intente la linearización de las ecuaciones b y c.
.9

2. Identificar el mejor modelo en base a un análisis de residuos.


3. Haga un gráfico de la curva ajustada y el intervalo al 95% de confianza.

B) Verificar los cambios en los parámetros ro y  de la ecuación 4.2


1. Efectuar la prueba de comparación de ro estimado de los datos experimentales con el valor previo al
problema.
2. Efectuar la prueba de comparación de  estimado de los datos experimentales con el valor previo al
problema.

4.2. Análisis de modelos de regresión


1. Velocidad de una máquina: El número de piezas producidas por una maquina, (Y) se sabe que esta
relacionada linealmente a la velocidad ajustada en la maquina (X). Los datos de la Tabla siguiente fueron
obtenidos recientemente:

i 1 2 3 4 5 6 7 8 9 10 11 12
Xi 200 400 300 400 200 300 300 400 200 400 200 300
Yi 28 75 37 53 22 58 43 96 46 52 30 69

a) Asumiendo que el modelo de regresión es apropiado, obténgase una función de regresión y un gráfico
de residuos vs. X. Qué se observa del gráfico de residuos?
2
b) Calcular la varianza de muestra S de la Y observaciones para cada una de las tres velocidades de
máquina: X = 200, 300 y 400. Que se sugiere de los valores des la varianza de las tres muestras con
respecto a la igualdad de esos valores?
  
c) Calcular: Y , Y y Y para cada uno de los niveles de X. Sugiera una transformación apropiada para
2
S S S
estabilizar la varianza.
d) Haga la transformación sugerida en la parte c y obtenga la línea de regresión con los datos
transformados. Haga el gráfico de residuos vs. X ¿Qué concluye de este gráfico?

2. Una compañía minera esta tratando de desarrollar un modelo para hidrociclones que utilizan en su
planta de molienda. Se decide utilizar el modelo empírico de Rao y Lynch, el cual consiste de cuatro
ecuaciones. Para una de ellas, la ecuación de agua en el overflow , se han desarrollado dos modelos:
Modelo expandido:
2 2
WOF = K1 + B1(WF) + B2(SPIG) + B3(WF*SPIG) + B4(WF ) + B5(SPIG)
Modelo reducido:
WOF = K2 + C1(WF) + c2(SPIG)
donde:
WOF = Flujo másico de agua en el overflow (tph)
WF = Flujo másico de agua en el pulpa de alimentación (tph)
SPIG = diámetro del apex (pulgadas)
a) Ajustar los dos modelos a los datos experimentales obtenidos.
b) Simplificar el modelo expandido, en lo posible, eliminando una variable a la vez, hasta encontrar la
forma más simple.
c) Compare el modelo reducido obtenido con el modelo reducido de Rao y Lynch.

76
DATOS EXPERIMENTALES

WOF (tph) WF (tph) SPIG (pulg.)


38.4 50.0 2.5
34.8 50.0 3.0
28.2 50.0 3.5
66.1 75.0 2.5
63.3 75.0 3.0
56.4 75.0 3.5
93.1 100.0 2.5
86.0 100.0 3.0
81.8 100.0 3.5
118.5 125.0 2.5
114.7 125.0 3.0
19.9 125.0 3.5

77
EJERCICIOS GRUPO 6

1. Se prueban dos fórmulas diferentes de un combustible oxigenado para motor en cuanto al octanaje. La
varianza para el octanaje de la formula 1 es de 1.5, mientras que para la formula 2 es de 1.2 ¿Qué tamaño
de muestra se requiere para cada población si se desea tener una confianza de 95% de que el error al
estimar la diferencia entre las medias de octanaje sea menor que uno?

2. Un ingeniero analiza la resistencia a la compresión del concreto. La resistencia esta distribuida normalmente
con una varianza de 1000 (psi)2 . Si se desea estimar la resistencia a la compresión con un error menor de
15 psi para un nivel de confianza de 99%. ¿qué tamaño de muestra debe emplearse para este fin?

3. Se desea probar una hipótesis de que el punto de fusión de una mezcla es de 1200 oC. Si el punto de
fusión difiere mas de 20 oC se tendrá que cambiar su composición. Sea  = 0.01 y  = 15 oC, ¿cuántas
determinaciones deben hacerse?

4. Se usa un reactivo químico para obtener un precipitado de una sustancia en una solución dada. Los datos
son los siguientes:
Reactivo 7.2 4.8 5.2 4.9 5.4 6.4 6.8 8.0 6.0 6.7 7.0 8.0 7.3 4.6 4.2
Precipitado 8.4 5.4 6.3 6.8 8.0 11.1 12.3 13.3 8.4 8.5 9.4 12.7 9.3 7.0 5.1

a. Haga un diagrama de dispersión.


b. Determine la ecuación de la recta y représentela en el diagrama anterior.
c. ¿Cuál es la cantidad de precipitado estimada si se usa 7.1 de reactivo?
d. Pruebe la hipótesis al 1 % de significación de que  = 0 y de que  = 2

5. Los datos de concentración de licor verde Na2S y la producción de papel de una máquina son:
Nro de 1 2 3 4 5 6 7 8 9 10 11 12 13
observación
Na2S, g/l 40 42 49 46 44 48 46 43 53 52 54 57 58
Producción, 825 830 890 895 890 910 915 960 990 101 101 103 105
ton/día 0 2 0 0

a. Ajuste el modelo de regresión lineal simple con la concentración de licor verde como Y y la producción
como X. Dibuje el diagrama de dispersión de los datos y del modelo ajustado de dichos datos.
b. Encuentre el valor ajustado de Y que corresponde a X= 910 así como el residuo correspondiente.
c. Encuentre la concentración promedio de licor verde cuando la tasa de producción es de 950 toneladas
por día.
d. Pruebe la significancia de la regresión con  = 0.05. encuentre el valor p de esta prueba.
e. Pruebe Ho :  o = 0 contra Ho :  1  0 con  = 0.05.¿Cuál es el valor p de esta prueba?
f. Haga una gráfica de los residuos de y calculado contra x. Comente las gráficas.

6. En una planta se destila aire líquido para producir oxígeno, nitrógeno y argón. Se cree que el porcentaje de
impureza del oxígeno está linealmente relacionado con la cantidad de impurezas que hay en el aire, medida
mediante el “conteo de contaminación” en partes por millón (ppm). Los datos son los siguientes:
Pureza, % 93. 92. 92. 91. 94. 94. 93. 93. 93. 92. 92. 91. 90. 91. 91.
3 0 4 7 0 6 6 1 2 9 2 3 1 6 9
Contam., ppm 1.1 1.4 1.3 1.5 1.0 0.7 1.2 0.9 0.8 1.2 1.4 1.8 2.0 1.7 1.6
0 5 6 9 8 5 0 9 3 2 7 1 3 5 8

a. Ajuste un modelo de regresión lineal a los datos.


b. ¿Parece razonable la relación lineal entre la pureza y el conteo de la contaminación?.
c. Construya el intervalo de confianza de 95% para la pendiente y la ordenada en el origen del modelo de
regresión lineal.
d. Pruebe la significancia de la regresión con  = 0.05. encuentre el valor p de esta prueba.
e. Pruebe Ho :  o = 0 contra Ho :  1  0 con  = 0.05.¿Cuál es el valor p de esta prueba?
f. Haga una gráfica de los residuos de y calculado contra x. Comente las gráficas.

78
7. El rendimiento de una reacción química depende de la concentración del reactivo y de la temperatura de
operación. Los datos obtenidos son los siguientes:

Rendimiento 81 89 83 91 79 87 84 90
Concentrac. 1.00 1.00 2.00 2.00 1.00 1.00 2.00 2.00
Temperatur 150 180 150 180 150 180 150 180
a

a. Ajuste el modelo lineal de regresión múltiple a los datos.


b. Pruebe la significancia del modelo de regresión

12. Ajuste el modelo de regresión polinomial de segundo orden utilizando los siguientes datos:

Y   0  1 X 1   2 X 2  11 X 12   22 X 22  12 X 1 X 2  

Y 26 24 175 160 163 55 62 100 26 30 70 71


X1 1.0 1.0 1.5 1.5 1.5 0.5 1.5 0.5 1.0 0.5 1.0 0.5
X2 1.0 1.0 4.0 4.0 4.0 2.0 2.0 3.0 1.5 1.5 2.5 2.5

13. Se piensa que la potencia consumida al mes por una planta química está relacionada con la temperatura
ambiente promedio (X1), el número de días al mes , (X2), la pureza producto del producto (X3) y las
toneladas del producto producidas (X4) . Los datos correspondientes al año pasado son:

Y 240 236 290 274 301 316 300 296 267 276 288 261
X1 25 31 45 60 65 72 80 84 75 60 50 38
X2 24 21 24 25 25 26 25 25 24 25 25 23
X3 91 90 88 87 91 94 87 86 88 91 90 89
X4 100 95 110 88 94 99 97 96 110 105 100 98

a. Ajuste un modelo de regresión lineal múltiple a los datos.


o
b. Prediga el consumo de potencia para un mes en el que X1 = 75 F, X2 = 24 días, X3 = 90% y X4 = 98
toneladas.
c. Pruebe la significancia de la regresión utilizando  = 0.01. ¿Cuál es el valor P de esta prueba?
d. Utilice la prueba t para evaluar la contribución al modelo de cada variable de regresión. Si se emplea  =
0.01, ¿qué conclusiones se puede obtener?.
2
e. Calcule R . Interprete esta cantidad.
f. Haga una gráfica de residuos contra valores calculados. Interprete la gráfica.

14. Considere los datos siguientes, los cuales son resultado de un experimento para determinar el efecto de X =
tiempo de prueba en horas a una temperatura particular sobre Y = cambio en la viscosidad del aceite:

Y -1.42 -1.39 -1.55 -1.89 -2.43 -3.15 -4.05 -5.15 -6.43 -7.89
X 0.25 0.5 0.75 1.00 1.25 1.50 1.75 2.00 2.25 2.50

a. Ajuste los datos a un polinomio de segundo orden.


b. Pruebe con  = 0.05 la significancia de la regresión.
c. Pruebe con  = 0.05 la hipótesis de que  11 = 0

79
15. A continuación se presentan los datos sobre solubilidad de la fracción molar de un soluto Y, a temperatura
constante y los parámetros de Hansen de solubilidad parcial por dispersión, dipolo y enlace de hidrógeno
respectivamente:

# 1 2 3 4 5 6 7 8 9
Obs.
Y 0.2220 0.39500 0.42200 0.43700 0.42800 0.46700 0.44400 0.37800 0.49400
0
X1 7.3 8.7 8.8 8.1 8.0 8.7 8.3 7.6 9.0
X2 0.0 0.0 0.7 4.0 0.5 1.5 2.1 5.1 0.0
X3 0.0 0.3 1.0 0.2 1.0 2.8 1.0 3.4 0.3

# 10 11 12 13 14 15 16 17 18
Obs.
Y 0.4560 0.45200 0.11200 0.43200 0.10100 0.23200 0.30600 0.09230 0.11600
0
X1 8.4 8.3 7.7 8.8 7.3 8.5 8.5 7.4 7.8
X2 3.7 3.6 2.8 4.2 2.5 2.0 2.5 2.8 2.8
X3 4.1 2.0 7.1 2.0 6.8 6.6 5.0 7.8 7.7

# 19 20 21 22 23 24 25 26
Obs.
Y 0.0764 0.43900 0.09440 0.11700 0.07260 0.04120 0.25100 0.00002
0
X1 7.7 9.3 7.8 7.1 7.7 7.4 7.3 7.6
X2 3.0 1.7 3.3 3.9 4.3 6.0 2.0 7.8
X3 8.0 4.2 8.5 6.6 8.5 9.9 5.2 20.7

a. Ajuste el modelo:
Y   0   1 X 1   2 X 2   3 X 3   12 X 1 X 2   13 X 1 X 3   23 X 2 X 3   11 X 12   22 X 22   33 X 2  
b. Pruebe la significancia de la regresión con  = 0.05
c. Haga una gráfica de los residuos y comente sobre la adecuación del modelo.

80
CAPITULO VII

DISEÑO DE EXPERIMENTOS

7.1. Generalidades
En 1964 las compañías americanas generaban alrededor de 6 mil millones de dólares en superávit
comercial de exportación, sin darse cuenta que estaban bajo el ataque de compañías extranjeras. Ya por el
año de 1984 en los Estados Unidos se producía un déficit de la balanza comercial de 123 mil millones de
dólares. En este período de 20 años la productividad en los Estados Unidos se incremento tan solo en un
35 %, comparado con un 60 % de algunos países europeos, y con un sorprendente 120 % en el Japón. El
mismo país que tenía la reputación de producir “chatarra” en los años 50 - 60, ahora amenazaba la
supervivencia de la industria americana al producir productos de alta calidad y bajos precios.
Como ocurrió aquello? Es bien conocido que mucho de este sorprendente cambio en la calidad de los
productos japoneses se debió a controles de calidad de los productos introducidos mediante el us o de el
diseño de experimentos y el control de calidad durante la producción mediante técnicas estadísticas.
Irónicamente, estas técnicas fueron desarrolladas mayormente en los Estados Unidos hace unos 60 años
atrás, pero las compañías americanas no se preocuparon en implementar estas técnicas. Esta
despreocupación era debida principalmente a la escasa competencia que existía después de la postguerra
lo que no hacia útil el preocuparse excesivamente por controles de calidad. Después de la Segunda Guerra
Mundial, los japoneses eran muy receptivos a las ideas de los estadísticos y como resultado, los japoneses
llegaron a ser expertos en calidad y pronto sus empresas prosperaron. Así, todos en una compañía, desde
los gerentes hasta los operarios de línea, fueron adiestrados en estas técnicas, no solo para controlar la
calidad de producción , sino para mejorar continuamente los procesos productivos.

7.2. Qué es un diseño experimental?


Los investigadores e ingenieros realizan experimentos virtualmente en todos los campos del saber, por
lo general para descubrir algo acerca de un proceso o sistema en particular. Literalmente un experimento es
una prueba o ensayo. Un experimento diseñado es una prueba o serie de pruebas en las cuales se inducen
cambios deliberados en las variables de entrada de un proceso o sistema, de manera que sea posible
observar e identificar las causas de los cambios en el trabajo de optimización.
El proceso o sistema bajo estudio puede representarse por medio del modelo de la Figura 7.1. Su ele
ser posible visualizar el proceso como una combinación de una serie de recursos (máquinas, métodos,
personas, etc.) que transforman alguna entrada (por lo general un material) en una salida que tiene una ó
más respuestas observables. Algunas variables del proceso son controlables, x1, x2,..., xp, mientras que
otras son z1, z2, ..., zp son incontrolables (aunque en un experimento se la puede controlar). Por ejemplo,
en un proceso de endurecimiento por templado de un acero, el tiempo y temperatura son variables
controlables; mientras que el contenido de carbono y elementos aleantes son variables incontrolables.
Factores controlables
X1 X2 Xp

...
Entradas Salida
PROCESO

...

Z1 Z2 Zp
Factores incontrolables
Figura 7.1: Modelo general de un proceso o sistema.

En esencia, un diseño experimental es un acercamiento científico que permite a un investigador


entender mejor un proceso y a determinar la manera en que las variables de ingreso afectan una respuesta
o variables de salida. Las condiciones de cada una de las variables de ingreso tienen efecto en las
respuestas de producción; algunas de ellas tendrán un efecto más pronunciado que otras. Además, estas
variables interactuan entre si, es decir, se desarrolla entre ellas una interdependencia que modifica su
efecto individual. Un aporte tan importante como el de evaluar el efecto de cada variable, es que un diseño

81
experimental también permite medir el nivel de interacción entre las variables de ingreso y fijar los mejores
valores de estas variables de modo que la respuesta proporcione las mejores condiciones .
Supóngase por ejemplo, que un ingeniero esta interesado en estudiar el efecto que tienen sobre una
aleación de aluminio dos procesos diferentes de endurecimiento: a) el templado en aceite y b) el templado
en agua salada. En este caso el objetivo del investigador es determinar cual de las dos soluciones produce
el máximo grado de dureza sobre la aleación mencionada. El ingeniero debe someter un cierto número de
probetas de la aleación a cada medio de templado, después medir la dureza de las muestras. La dureza
promedio de las probetas tratadas en cada solución servirá para determinar cuál de las dos soluciones es
la mejor.
Al diseñar el experimento en mención, viene a la mente algunas preguntas importantes;
a) Son estas soluciones los únicos medios de templado?
b) Existen otros factores que puedan afectar la dureza de las muestras? Tipo de probeta por ejemplo.
c) Cuántas probetas de debe considerar para el estudio?
d) Que diferencia en los niveles promedio de dureza entre las dos soluciones debe considerarse
importante?
En cualquier experimento, los resultados y conclusiones que pueden obtenerse dependen, en gran
parte, de la forma en que los datos fueron recopilados. Por ejemplo, supóngase que en las pruebas de
templado se usan probetas de un tipo para templado en aceite, y de otro tipo para templado en agua. Luego
al comparar los resultados, no será posible decir cuanta de la diferencia observada se debe a la diferencia
de los medios de templado y cuanta al tipo de probeta. De este modo, el método utilizado en la obtención
de los datos ha afectado las conclusiones que pueden deducirse del experimento.

7.3. Tipos de experimentación.


Ahora bien, la manera como pueden ser llevados a cabo los experimentos pueden ser de dos formas:
- Experimentación pasiva, denominada también convencional o clásica.
- Experimentación activa, conocida como diseños experimentales.

7.3.1 Experimentación pasiva


En este tipo de experimentación los experimentos son llevados a cabo variando una variable a la vez.
Esto es por ejemplo en el caso de dos variables controlables, en una primera corrida experimental se hace
variar la primera variable mientras que la segunda se mantiene constante, y después variar la segunda
variable mientras que la primera se mantiene constante.
Consideremos el siguiente ejemplo: un jefe de planta conoce que la temperatura y presión de
producción de ciertos artículos tienen efecto en la cantidad de artículos deficientes. Decide entonces diseñar
unos experimentos para probar la el efecto de temperatura y presión en la cantidad de productos
defectuosos. El diseño consiste en (1) seleccionar dos niveles de temperatura, T1 y T2 y dos niveles de
presión, P1 y P2; y, (2) Mantener la presión P 1 fija y variar la temperatura en sus dos niveles fijados. Hecha
la experimentación se observan los registrados en la Tabla 7.1.

Tabla 7.1: Aproximación uno-a-la-vez (parte I)


Presión Temperatura Respuesta

P1 T1 0.030
P1 T2 0.015

Se concluye de esto que la combinación P 1 - T2 proporciona menor cantidad de defectos. Ya que la


temperatura T2 es la que mejor responde, se prueba variaciones de presión a T2. Los resultados se
observan en la Tabla 7.2:

Tabla 7.2: Aproximación uno- a- la- vez (parte II)


Presión Temperatura Respuesta

P1 T2 0.015
P2 T2 0.010

82
A primera vista se concluye que la combinación P 2 - T2 proporciona el más bajo índice de defectos,
1%. Este tipo de experimentación se denomina “diseño uno a la vez”. Este método no es muy conveniente
cuando se investiga dos o más variables, ya que no considera la posible interacción que ocurre entre las
variables, teniendo además la probabilidad de conducirnos a un falso óptimo.

7.3.2 Experimentación activa


Los experimentos son llevados a cabo mediante un diseño predeterminado (diseño de experimento s),
el cual es un plan organizado de experimentos que permiten evaluar simultáneamente todas las variables
consideradas y además, evaluar la fuerza de interacción entre las variables y reducir el número de
experimentos a llevarse a cabo.
En el ejemplo anterior, supóngase que combinación no probada P 2 - T1 produce una interacción como
se observa en la Figura 7.2. La interacción se interpreta del siguiente modo: cuando la temperatura cambia
de T1 a T2 el cambio en los productos defectuosos es diferente, dependiendo de los valores de presión
fijados. Es de observarse que el diseño apropiado debería probar todas las cuatro combinaciones de
presión y temperatura, y evaluar las interacciones, tal como se hace en un diseño factorial completo.
0.030

0.025
Proporcion de defectos

0.020

0.015 P1

0.010
P2

0.005

0.000
Temperatura
T1 T2

Figura 7.2. Gráfico de interacción Presión - Temperatura.

En la optimización de los procesos, la utilización de los diseños experimentales, junto con una
estrategia adecuada de optimización, es el mejor método para encontrar los valores óptimos de las
variables de la manera más rápida y eficiente posible.

7.4. Aplicaciones de los Diseños Experimentales


Los métodos de diseño experimental tienen amplia aplicación en muchas disciplinas. En efecto, es
posible considerar a la experimentación parte del proceso de investigación científica y una de las formas en
que aprendemos acerca de la forma en que funcionan los sistemas o procesos.
El diseño experimental es un medio de importancia crítica en el medio de la ingeniería para mejorar el
rendimiento de un proceso. También se emplea extensamente en el desarrollo de nuevos procesos. La
aplicación de técnicas de diseño experimental en una fase temprana de un proceso:

- Da la mayor información por experimento, que la experimentación clásica. El investigador que hace uso de
esta técnica reduce el tiempo de experimentación y mejora su eficiencia, especialmente cuando son
muchas las variables de potencial importancia.
- Permite una colección y análisis organizado de la información obtenida, que conduce a conclusiones
confiables mediante un análisis estadístico.
- Gran confiabilidad de los resultados.
- Permite evaluar las interacciones entre las variables experimentales, y que conducen a predicciones más
confiables de las respuestas en áreas no directamente cubiertas por la experimentación.
- Mejora del rendimiento del proceso.
- Menor variabilidad y mayor apego a los requerimientos u objetivo.
- Menor tiempo de desarrollo.
- Menores costos globales.
83
El uso de diseño experimental en las tareas de desarrollo de nuevos procesos y diseño de ingeniería,
puede dar por resultado productos con mayor confiabilidad y mejor funcionamiento, menores costos, y
menor tiempo de diseño y desarrollo del producto.

7.5. Principios básicos


Para que un experimento se realice en la forma más eficiente, es necesario emplear métodos
científicos en su planeación. El diseño estadístico de experimentos es el proceso de planear un
experimento para obtener datos apropiados, que pueden ser analizados mediante métodos estadísticos,
con el objeto de producir conclusiones válidas y objetivas. La metodología estadística es el único enfoque
objetivo para analizar un problema que involucre datos sujetos a errores experimentales. De ese modo, es
establecen dos aspectos en cualquier problema experimental:
- el diseño del experimento; y,
- el análisis estadístico de los datos.
Los tres principios básicos en el diseño de experimentos son el de:
a) Obtención de réplicas;
b) Aleatorización; y
c) Análisis por bloques.

La réplica se refiere a la repetición del experimento básico. Este concepto tiene dos propiedades
importantes. En primer lugar permite obtener una estimación del error experimental; tal estimación se
convierte en la unidad básica para determinar si las diferencias observadas en los datos son
estadísticamente significativas. En segundo lugar, el uso de réplicas permite al experimentador calcular una
_

estimación más precisa del efecto de un factor en el experimento, si se usa por ejemplo la media, y , como
una estimación de dicho efecto; esto porque la varianza, de un muestra de tamaño n, tendrá una varianza
igual a 2/n , lo que implica que la variabilidad de una respuesta experimental tiende a cero cuando n es
más grande.
La aleatorización es la piedra angular que fundamenta el uso de métodos estadísticos en el diseño de
experimentos. Se entiende por aleatorización el hecho de que tanto la asignación del material experimental
como el orden en que se realizan las pruebas individuales se determinan aleatoriamente. Los métodos
estadísticos requieren que las observaciones (o los errores) sean variables aleatorias independientes.
Además, al aleatorizar adecuadamente un experimento se ayuda a 'cancelar' los efectos de factores
extraños que pudieran estar presentes.
El análisis por bloques es una técnica que se usa para incrementar la precisión del experimento. Un
bloque es una porción del material experimental que sea más homogénea que el total del material. Al
realizar un análisis por bloques. se hacen las comparaciones entre las condiciones de interés del
experimento dentro de cada bloque.

7.6. Directrices para el diseño de experimentos


Para usar un enfoque estadístico al diseñar y analizar un experimento, se requiere que todos los
participantes en él tengan de antemano una idea clara de qué es exactamente lo que se va a estudiar, cómo
se van a recopilar los datos y , al menos, una idea cualitativa de cómo se van a analizar. A continuación se
ofrece una guía del procedimiento recomendado.

A) Comprensión y planteamiento del problema


Aunque puede parecer obvio, en la práctica no es sencillo darse cuenta de que existe un problema que
requiere experimentación, ni diseñar un planeamiento claro y aceptable. Es necesario desarrollar todas las
ideas sobre los objetivos del experimento. Suele ser importante solicitar la opinión de todas las partes
implicadas, quienes pueden aportar con conocimiento detallado de algún proceso. Un planteamiento claro
del problema contribuye a un mejor conocimiento del fenómeno y de la solución final del problema.

B) Elección de factores y niveles


La elección de los factores o variables, intervalos y niveles específicos a los cuales se hará el
experimento, son tareas que deben emprenderse desde el inicio. También la forma de controlar esos
factores y los métodos de medición. Es importante fijar todos los factores que pueden ser de interés, y no
depender demasiado de experiencias pasadas, en particular durante las primeras etapas, cuando el objetivo
es la caracterización del proceso.

84
C) Selección de la variable de respuesta
Al seleccionar la respuesta o variable dependiente, se debe estar seguro que la respuesta que se va a
medir realmente provea información útil acerca del proceso de estudio. Usualmente, el promedio o la
desviación estándar (ó ambos) de la característica medida, serán la variable de respuesta. La capacidad de
medición es también un factor importante, y si esta es deficiente, no podrá esperarse mas que la detección
de efectos relativamente grandes.

D) Elección del diseño experimental


Para elegir el diseño que se va a emplear, es necesario considerar el tamaño de muestra (número de
repeticiones), seleccionar el orden adecuado para los ensayos experimentales, y determinar si hay
implicado bloqueo u otras restricciones de aleatorización.

E) Realización del experimento


Es vital aquí, verificar que el proceso de experimentación se desarrolle de acuerdo a lo planificado. En
esta fase, los errores en el procedimiento suelen anular la validez experimental.

F) Análisis de datos
Se requiere de un análisis estadístico de los datos, los cuales por lo general no son complicados. Se
debe tener en cuenta que el análisis estadístico solo hace posible obtener el probable error de una
conclusión o asignarle un nivel de confiabilidad a los resultados. Las técnicas estadísticas, aunadas a un
buen conocimiento técnico del proceso y al sentido común, suelen llevar a conclusiones razonables.

H) Conclusiones y recomendaciones
Para esta etapa, es muy útil utilizar métodos gráficos. También es importante realizar corridas de
seguimiento y pruebas de confirmación para dar validez a las conclusiones del experimento.

7.7. Clasificación de los diseños experimentales


La gran variedad de aplicaciones de los diseños experimentales (caracterización de procesos, diseño
de productos, optimización de procesos, aplicaciones en ingeniería de calidad) no ha permitido una
clasificación bien definida de estos. Desde el punto de vista de la optimización se pueden clasificar teniendo
en cuenta el orden del modelo matemático a obtenerse (diseños de primer o segundo orden). Desde el
punto de vista de la manera en que son llevados los diseños experimentales pueden clasificarse en
simultáneos y secuenciales. Desde el punto de vista del objetivo (caracterización de procesos, diseño de
productos, etc.) se tiene diseños por comparación simple hasta diseños jerárquicos o anidados.

7.7.1 Experimentos por comparación simple


Se usan para comparar dos condiciones (a menudo tratamientos). El objetivo es analizar si dos
fórmulas diferentes de un producto producen resultados equivalentes. Este tratamiento requiere la
aplicación de conceptos estadísticos tales como variables aleatorias, distribución de probabilidades,
distribuciones muestrales y pruebas de hipótesis.

7.7.2 Diseños experimentales de primer orden


Son experimentos que conducen a optimización. Permiten estimar adecuadamente los coeficientes 
de la ecuación o modelo matemático empírico de la siguiente expresión:

Y   o   1 X 1   2 X 2 ...   k X k

Donde Y es la respuesta o variable de salida (variable dependiente) que es función de las variables de
entrada X1, X2,...,Xk. El más simple caso, con una sola variable de entrada, k = 1, proporciona un modelo
como el siguiente:

Y   o   1 X1
El modelo permite predecir los valores de Y sobre un rango limitado de valores de X.
Para dos o más variables, la situación se complica por la posible existencia de interacciones entre
variables, lo que indica que las variables no actúan independientemente sobre la variable respuesta. el
modelo empírico para dos variables será:

Y  0   1 X 1   2 X 2   12 X 1 X 2

85
donde  12 es el denominado parámetro de interacción. Cuando  12 es cero, se obtiene un modelo
estrictamente de primer orden con dos líneas rectas paralelas entre si. Cuando  12 es diferente de cero, el
modelo es interactivo y las líneas no son paralelas y se interceptan entre si.
Los diseños experimentales que permiten estimar modelos de primer orden son:

- Diseños factoriales;
- Diseños factoriales fraccionados;
- Diseños de Placckett y Burman; etc.

La utilización de diseños de primer orden son de gran importancia en la etapa inicial de optimización,
donde al inicio de la investigación se tiene gran número de variables . El objetivo es estudiar el efecto de
cada una de esas variables en la respuesta del proceso, eliminando aquellas que resulten poco
significativas o con pendientes cercanas a cero.

7.7.3 Diseños experimentales de segundo orden


Se denomina así a aquellos que permiten estimar los parámetros  j,  uj ,  jj de la ecuación general:
 k k k
Y  0  
j 1
j Xj  
uj 1
uj Xu X j  
j 1
jj X 2j

Si consideramos el caso de una sola variable controlable, el modelo de segundo orden toma la forma:

Y   0   1 X1   11 X 2

donde el término  11 es denominado el término de curvatura y el punto máximo corresponde a -  1/2 11


Si consideramos ahora el caso de dos variables, el modelo de segundo orden interactivo toma la
siguiente forma:

Y   0   1 X 1   2 X 2   11 X 12   22 X 22   12 X 1 X 2

donde  11 y  22 son los parámetros de curvatura y  12 es el parámetro de interacción; la Figura 7.3


muestra en forma gráfica una ecuación como esta, en la cual se puede observar la región óptima.
Los diseños experimentales más comunes que permiten estimar modelos de segundo orden son:
- Diseños rotables: hexagonal, octogonal, etc.;
- Diseños compuestos: compuesto central, compuestos de más de tres variables, etc.
Estos diseños de segundo orden son indispensables en la etapa final de optimización, donde un
modelo de estos puede descubrir aproximadamente la región óptima.
Recuperación

Te
mp
era
tura

ión
rac
nc ent
Co

Figura 7.3: Representación gráfica de una ecuación de segundo orden, tipo:



Y   0   1 X 1   2 X 2   11 X 12   22 X 22   12 X 1 X 2 producto de un diseño hexagonal.

86
7.8. Modelos matemáticos
Un modelo matemático es un sistema de ecuaciones algebraicas o diferenciales que representan
cuantitativamente el proceso o algunos aspectos del proceso. Su formulación depende del conocimiento de
las leyes que gobiernan el proceso y de la habilidad de expresarlas matemáticamente.
Por ejemplo, se puede construir un modelo matemático que defina el tiempo de solidificación de un
lingote de acero, la velocidad de enfriamiento para evitar rajaduras de piezas de colada continua, un modelo
para optimizar la recuperación metálica de una planta concentradora, etc.,
Los modelos matemáticos se clasifican en: teóricos, semi-empiricos, empíricos.

7.8.1 Modelos matemáticos teóricos


Son derivados fundamentalmente de las leyes físicas y se basan en la aplicación de ecuaciones de
balance de materia y energía y en leyes de la termodinámica, cinética, etc. Los fenómenos de transferencia
de calor y masa, flujos de fluidos, están dentro de esta categoría. Usualmente esas representaciones
aparecen en forma de ecuaciones diferenciales parciales.

7.8.2 Modelos matemáticos semi-empíricos.


También están basados en las leyes físicas, pero se incorporan cierta cantidad de empirismo debido
básicamente a un modelo muy complejo o la falta de datos.
7.8.3 Modelos matemáticos empíricos
Estos modelos no están basados en las leyes físicas. Se usan estos modelos cuando el proceso
presenta una relación matemática muy compleja o desconocida y depende de las variables de entrada y
salida, ignorando la estructura interior o fenómeno del proceso. La manera de construir este tipo de modelos
es a través de las técnicas de Diseños Experimentales.

7.9 Experimentos con un solo factor


Frecuentemente en la experimentación se quiere comparar más de dos tratamientos. Por ejemplo, se
quiere estudiar la efectividad de varios inhibidores de corrosión, el efecto de varios catalizadores en el
rendimiento químico de un proceso, la durabilidad de varios tipos de material, etc. Los experimentos
deberán ser diseñados para investigar los posibles efectos de tratamiento.
Se debe aquí enfatizar en el concepto de aleatorización. La aleatorización garantiza la validez de la
inferencia frente a distorsiones no especificadas; hace que esas distorsiones se difundan uniformemente
entre los tratamientos.
En los experimentos con un solo factor se debe efectuar experimentos completamente aleatorizados y
se extiende el análisis de dos a k niveles (tratamientos) de un solo factor. En el análisis se asume que las
muestras que se observan de los k tratamientos provienen de grupos independientes. En este diseño
experimental las unidades son agrupadas en bloques homogéneos y los k tratamientos son aleatoriamente
asignados a cada bloque.

7.8.1 Experimentos de un solo factor completamente aleatorizados


Asúmase que se tiene bajo estudio k tratamientos. Para el i-ésimo tratamiento, la respuesta Y es una
variable aleatoria que varía alrededor de un promedio de tratamiento desconocido i = 1, 2, ..., k; se asume
que para cada grupo de tratamiento, la distribución de la respuesta Y alrededor del su promedio de grupo es
normal y que las varianzas son las mismas para todos los grupos de tratamiento. Esta última asunción
indica que la "precisión" de las observaciones es la misma para cada grupo. Un ejemplo, con k=3
distribuciones de tratamiento, se muestra en la Figura 7.4. Se asume que estas distribuciones obtenidas con
muestras de diferentes grupos de tratamiento son independientes entre si, lo cual es muy importante para el
análisis de datos.

87
Tratamiento 1

Tratamiento 2

Tratamiento 3

Figura 7.4: Gráfico de tres distribuciones normales con varianzas iguales.

Supóngase por ejemplo que se quiere estudiar la tensión de ruptura de tres diferentes aleaciones. Las
mediciones deberán estar distribuidas normalmente y con varianza semejante. Se quiere averiguar si son
iguales o no los promedios 1, 2,... k de los k tratamientos. Si son iguales, se dice que no hay diferencia
debida a los diferentes niveles de este factor. Si se determina que son diferentes, se necesitará determinar
cuan diferentes son esos promedios entre si; así por ejemplo, pueden ser diferentes porque 1 es mayor
que 2 = 3, o tal vez porque los tres son diferentes entre si.
7.8.2 Ejemplo de aplicación
Un ingeniero desea comparar las propiedades de resistencia de tres tipos diferentes de vigas. La de
tipo A esta hecha de acero y las de tipo B y C son hechas de dos diferentes tipos de aleación más caras.
Los resultados de deflección por aplicación de una fuerza de 3000 lb se anota en la Tabla 7.3. Para realizar
los experimentos de medición, el ingeniero se aseguró que las vigas son muestras totalmente
representativas, y no simplemente una elección de las primeras vigas que se tuvieron a la mano. Para
asegurar la aleatoriedad de las mediciones, el ingeniero asignó un número al azar a cada una de las 20
vigas, y según ello realizó los experimentos.

Tabla 7.3: Deflección de tres tipos diferentes de vigas

y 
ni
2
Tipo ni Observaciones yi ij  y
j 1

A 8 82, 86, 79, 83, 85, 84, 86, 87 84 48


B 6 74, 82, 78, 75, 76, 77 77 40
C 6 79, 79, 77, 78, 82, 79 79 14

Una visualización clara de los resultados se muestra en el siguiente diagrama de puntos, Figura 7.5:

Aleación C

Aleación B

Aleación A

75 80 85 90
Deflección (en 1/1000 pulg.)
Figura 7.5: Diagrama de punto para las observaciones en tres grupos. El promedio de grupo se señala por la
flecha.
88
El diagrama de puntos muestra dos aspectos muy importantes: a) La variabilidad de las observaciones
dentro del grupo, o variabilidad dentro del tratamiento; b) La variabilidad entre los grupos, o variabilidad
entre tratamientos.
Si la variabilidad entre tratamientos es más grande de lo que es de esperar, la posibilidad de que los
tratamientos sean iguales queda seriamente cuestionada. El diagrama de puntos anotado, permite visualizar
esta variabilidad entre grupos.
De modo análogo a la expresión de la varianza de muestra, se determina:
2

 
k ni
SS Error    Yij  Yi
i 1 j 1

que es denominada suma de cuadrados del error dentro del tratamiento o error de suma de cuadrados
(Error Sum Squares). Esta cantidad, dividida por el número de grados de libertad, N - k, se conoce como
promedio del cuadrado del error (Mean Square Error) ó promedio del cuadrado debido al error:
SS Error
MS Error 
N k
Este es un promedio ponderado de la varianzas de muestra:
k
Si2 : MS Error  wi Si2
i 1

donde wi = (ni - 1)/(N-k). Este es un estimador insesgado de la varianza 2 y mide la variabilidad interna.
En el ejemplo, la suma de cuadrados dentro del tratamiento:
SS Error = 48 + 40 + 14 = 102
y los grados de libertad están dados por: (8-1) + (6-1) + (6-1) = 17; por lo tanto el estimado insesgado de 2
es:
MSError = 102/17 = 6.0

Ahora, hay otro tipo de variabilidad que puede ser calculada; esto es, la variación entre los promedios
de tratamiento alrededor de el gran promedio. El gran promedio:

k ni
1
Y
N
 Y
i 1 j 1
ij

es la suma de todas las observaciones dividida el número total de observaciones. Si a cada promedio Yi se
le da su tamaño de muestra ni como su peso al calcular la suma de cuadrados, tal suma de cuadrados:
     
2 2 2
SSTratamiento  ni Y 1  Y  n2 Y2  Y  ...  nk Yk  Y
2

 
k
  ni Yi  Y
i 1

se denomina suma de cuadrados entre tratamientos, o simplemente suma de cuadrados de tratamiento


(Treatment Sum of Squares). Esta mide la variabilidad entre promedios de tratamientos. Será cero, si los
promedios de tratamiento son iguales.
Intuitivamente se observa que esta suma de cuadrados tiene k-1 grados de libertad, y a la proporción:
SS
MSTratamiento  Tratamiento
k 1
es el promedio de cuadrados debido al tratamiento (Mean Square Treatment)
En el ejemplo:
SSTratamiento = 8(84 - 80.4)2 + 6(77 - 80.4)2 + 6(79 - 80.4)2 = 184.8

Ya que k - 1 = 3 - 1 = 2 grados de libertad, el promedio de cuadrados debido a tratamiento es:

MSTratamiento = 184.8/2 = 92.4

89
Definidos los dos tipos de variación: la suma de cuadrados dentro y entre tratamiento; la suma de
cuadrados alrededor del gran promedio, SSTO, es la suma de estas dos sumas de cuadrados:

SSTO = SS Error + SSTratamiento

7.8.2.1. Tabla de Análisis de la Varianza


Toda esa descomposición de sumas de cuadrados se registra frecuentemente en una Tabla. Ya que
esta Tabla considera varias sumas de cuadrados o estimados de las varianzas, se le denomina Tabla de
Análisis de la Varianza o Tabla ANAVA y se muestra en la Tabla 7.4. En esta Tabla, la primera

Tabla 7.4: Tabla ANAVA para un diseño completamente aleatorizado.

Fuente SS g.l. MS F
2 SSTratamiento MSTratamiento
 n Y  Y 
k
Tratamient i i
k-1 k 1 MS Error
o i 1

  Y 
k ni SS Error
2
Error Yi N-k
i 1 j 1
ij
N k

  Y 
k ni
2 N-1
Total ij Y
i 1 j 1

columna identifica las fuentes de variación, la segunda las sumas de los cuadrados, la tercera los grados de
libertad, la cuarta el promedio de los cuadrados y la última columna la proporción F que se analizara más
adelante en esta sección.

En el ejemplo se tiene:

Tabla 7.5: Tabla ANAVA para el ejemplo de la vigas tipo A, B y C.

Fuente SS g.l. MS F
Tratamient 184.8 2 92.4 15.4
o
Error 102.0 17 6.0
Total 286.8 19

7.8.2.2 Prueba F para los efectos de tratamiento


Se desea probar la hipótesis nula de que todos los tratamientos son iguales, versus la hipótesis
alternativa de que todos los tratamiento son diferentes:

Ho :  2 = ...n
H1 : Todos los tratamientos no son los mismos.

La prueba estadística para evaluar esto lo proporciona la razón F = MSTratamiento/MSError. El numerador,


y por lo tanto esta razón es "pequeña" si Ho es cierta, lo que corresponde al caso en que los promedios de
tratamiento son muy parecidos. Por otro lado, si el numerador es grande y por ende la razón señalada si H1
es cierta, lo que corresponde al caso en que los promedios de tratamiento son diferentes.
La razón MSTratamiento/MSError. tiene distribución F, con k - 1 y N - k grados de libertad. Si alguno de
los promedios, 1, 2,... k,es diferente, el numerador y la razón misma tienden a ser grandes. Esto
conduce al siguiente procedimiento:

Si F  F(; k - 1, N - k) se acepta H1

90
En este caso se dice que la razón F = MSTratamiento/MSError. es significativa y que hay diferencias
estadísticamente significativas entre los promedios de grupos. Por otro lado:

Si F  F(; k - 1, N - k) se acepta Ho

En el ejemplo,. F = MSTratamiento/MSError. = 15.4. Para el valor crítico  = 0.05, de Tablas se obtiene


F(0.05; 2. 17) = 3.58. Se concluye que existe fuerte evidencia de que los promedios de tratamiento son
diferentes, de modo que se rechaza Ho :  2 = ..., n a un nivel de significación de 0.05. Para
el valor crítico  = 0.01, F(0.01; 2. 17) = 6.11, por lo cual también se rechaza Ho : 
2 = ...n a
un nivel de significación de 0.01.

7.8.2.3 Procedimiento de Tukey para comparación múltiple


Una vez que se ha concluido que los promedios de tratamiento no son los mismos, se debe investigar
de que forma difieren entre si. Por ejemplo, en el caso de la vigas, las del grupo A pueden ser diferentes a
las del grupo B y C juntas, o que los tres tipos de vigas pueden ser diferentes entre si. Para obtener
conclusiones valederas al respecto, se puede hacer comparaciones por pares. Si hay k tratamientos, se
puede establecer k(k-1)/2 posibles tratamientos por pares. El error que se puede tener al hacer múltiples
comparaciones se hace mayor que al hacer comparación de un solo par. Esto se tiene en cuenta cuando se
establece el procedimiento de Tukey para comparación múltiple. Se calcula intervalos de confianza
 s según:

q ; k ,  
Y r 
 Ys 
2
MS Error
1 1

nr ns

donde q(; k, ) es el 100(1-) por ciento de la distribución Estudiantizada (Tabla C8) que compara los
promedios k con  = N - k grados de libertad del promedio cuadrado de error. Esto permite establecer
intervalos de confianza en comparaciones por pares. Si el intervalo que se defina para cada par de
comparación incluye el cero, se concluye que no hay diferencia significativa entre los dos tratamientos.
Estrictamente hablando, este procedimiento es válido solo para muestras de igual tamaño; sin embargo, es
una buena aproximación si los valores ni no son muy diferentes.
En el ejemplo de la comparaciones de la vigas, se puede establecer un total de 3(3-1)/2 = 3
comparaciones en pares, asociadas según:


B; 
C; 
C.

Ya que q(0.05; 3, 17) = 3.62, y :


 
q0.05; 3,17 / 2 MS Error  2.56 6.0  6.27

los intervalos de la comparación Tukey son:

1 1
84  77  6.27  ; o 3.61   A   B  10.39
8 6
1 1
84  79  6.27 .   A   C  8.39
 ; o 161
8 6
1 1
79  77  6.27 .   C   B  5.62
 ; o  162
6 6

De esta comparaciones múltiples, se concluye que es mayor que


C y ; y que C ,  no
son muy diferentes entre si.

91
Ejercicio de aplicación
La resistencia a la tracción de una fibra sintética es de interés de un fabricante. Se sospecha que la
tensión es afectada por el porcentaje de algodón en la fibra. Cinco niveles en porcentaje de algodón son
considerados y se efectúa 5 mediciones de cada nivel. Las 25 pruebas ejecutadas aleatoriamente se
reportan a continuación.
2
% de Algodón Resistencia a la tracción, lbs/pulg
15 7 7 15 11 9
20 12 17 12 18 18
25 14 18 18 19 19
30 19 25 22 19 23
35 7 10 11 15 11

a) Representar los datos usando gráficos de caja.


b) Construir la Tabla de ANAVA y probar la hipótesis: Ho: 1 = 2 = … = 5, H1: al menos uno de los i no es
igual a los otros.
c) Graficar los promedios de tratamiento vs. El porcentaje de algodón utilizado.
d) Usar el procedimiento de Tukey para conducir una comparación múltiple.
e) Decidir si existe diferencia en la resistencia a la tracción debida a la cantidad de algodón utilizado.

92
CAPITULO VIII

DISEÑO DE EXPERIMENTOS: DISEÑOS CON DOS O MÁS FACTORES

En la sección anterior se investigó la diferencia entre k tratamientos (o niveles) de un solo factor, (ej.
resistencia de una viga). Ahora por ejemplo, un ingeniero está interesado en los efectos de la temperatura y
el tiempo del ciclo en la brillantez del teñido de telas producidas en una fábrica de tejidos. Podría estudiar el
proceso, a dos niveles de temperatura, (350 y 400 oF); y dos niveles de tiempo de ciclo (40 y 50). La
experimentación en este caso debe incluir 4 combinaciones de factores de nivel. Para este propósito, y en
los que intervienen dos o más factores, los diseños factoriales son los más eficientes.
Al inicio de un trabajo de optimización, cuando todavía no se tiene un buen conocimiento del
comportamiento del proceso a optimizar, generalmente la lista de factores o variables que pueden influir en
el proceso son muchas. El objetivo principal en una primera etapa de optimización es la de identificar
aquellas variables que tengan gran influencia en el proceso. Para es ta fase, los diseños factoriales son los
más recomendados.

8.1. Diseño factorial 2k


Un diseño factorial es aquel en el que se investigan todas las posibles combinaciones de los niveles de
los factores en cada ensayo completo o réplica del experimento. Los niveles representan los valores que
pueden tomar las variables o factores. Si consideramos por ejemplo 2 niveles, el diseño se denomina diseño
factorial a dos niveles o diseño factorial 2k. El número total de experimentos a llevarse a cabo viene definido
por la relación:

N= 2k

donde:

k = número de variables;
N = número total de experimentos.
Con el siguiente ejemplo se ilustra adecuadamente el desarrollo de un diseño factorial.

8.2. Ejemplo a evaluar mediante Diseño Factorial


Una empresa confecciona productos metálicos niquelados. Sus compradores no están completamente
satisfechos con las características del niquelado en las piezas metálicas. En la empresa se constituye un
equipo de evaluación que identifica el problema como incapacidad de lograr la capa de níquel con el
espesor adecuado, siendo esta dificultad el resultado de las condiciones del proceso productivo.
Se desarrollan en la empresa estudios de experimentación para incrementar la calidad del producto
niquelado. En las evaluaciones preliminares, quedó plenamente comprobado que el espesor de la capa de
níquel es la causa de los reclamos de los compradores. El espesor de la capa de níquel se evalúa utilizando
un profilómetro, instrumento que proporciona mediciones exactas y estables del espesor de la capa de
níquel.

8.2.1 Selección de factores


A pesar de que son muchos los factores que intervienen en el proceso de niquelado, tales como
temperatura de la solución, tiempo de recubrimiento, pH, contenido de fósforo, contenido de níquel en
solución, voltaje, densidad de corriente, etc.; para los propósitos de este ejemplo, se selecciona las
variables de tiempo y temperatura del baño para la evaluación experimental. Esto hecho no invalida la
posibilidad de utilizar la cantidad de variables que se estime necesario. Por lo tanto, las otras variables del
proceso se mantendrán constantes durante la experimentación.
Tanto la temperatura como el tiempo de inmersión en el baño son variables cuantificables, cuyos
valores se fijan a dos niveles según lo siguiente:

Factor Nivel (-) Nivel (+)


Temperatura, oC 16 32
Tiempo, seg. 4 12

93
Adicionalmente, por experiencias y conocimiento del proceso, se espera que ocurra una fuerte
interacción entre estas dos variables; esto es, que las variaciones ocurridas en una de las variables influyan
en la otra y estos efectos interactuados se reflejen en el espesor del níquel.

8.2.2 Tratamiento de datos.


Con dos factores fijados a dos niveles, ( + y -), se decide utilizar un diseño factorial completo, en donde
N = 2k = 22 = 4 experimentos. Los valores de las variables a experimentar se codifican con valores +1 y -1,
como se indica en la Tabla 8.1.

Tabla 8.1: Matriz de diseño con valores actuales y codificados para pruebas de niquelado.
Valores actuales Valores codificados
Prueba A B A B
# Temp. oC Tiempo, seg.

1 16 4 -1 -1
2 16 12 -1 +1
3 32 4 +1 -1
4 32 12 +1 +1

La sección de la Tabla con valores actuales sirve de guía para conducir los experimentos, y la sección con
los valores codificados para los propósitos de cálculos y evaluación de datos.
En general, los experimentos deben ejecutarse lo más aleatoriamente posible, sin seguir
necesariamente el orden en el que la Tabla de diseño dicta. En este caso particular, la temperatura es una
variable que no facilita la aleatorización, pues es difícil modificarla rápidamente a los valores en que se
necesita experimentar. En este caso, debe tomarse medidas para evitar inducir variabilidad diferente a cada
prueba.
Con los recursos que se dispone, se decide efectuar 5 pruebas con cada una de las 4 combinaciones,
midiendo el espesor de la capa de níquel como la variable respuesta. En lo posible, estas repeticiones se
efectúan aleatoriamente; es decir, no repitiendo la misma combinación 5 veces continuadas. Los resultados
obtenidos por la experimentación se resumen en la Tabla 8.2.

Tabla 8.2: Datos de evaluación del proceso de niquelado.

Prueb A Temp. B Tiempo Espesor, Promedio


a oC Seg. Micropulg.
#
1 16 (-1) 4 (-1) 116.1 116.9 112.6 118.7 114.9 115.8
2 16 (-1) 12 (+1) 116.5 115.5 118.2 114.7 118.3 116.8
3 32 (+1) 4 (-1) 106.7 107.5 105.2 107.1 106.5 106.7
4 32 (+1) 12 (+1) 123.2 125.1 124.5 124.0 124.7 124.3

De la observaciones de los resultados resulta evidente que la mejor combinación de variables


o
corresponde a 32 C y 12 seg. la que proporciona el mejor espesor de níquel. Sin embargo, una "elección a
ganador" por simple inspección de los resultados es una actitud altamente negativa. Ello no permite evaluar
cual de las variables tiene mayor efecto y trunca, tanto posibles sub-optimizaciones, como predecir la
respuesta de valores no experimentados con las variables.
El procedimiento de evaluación se continua determinando el promedio de los valores altos y el
promedio de los valores bajos para cada variable. Luego se calcula el efecto , que representa la diferencia
entre los valores altos y bajos:

94
Promedi A Temp. B Tiempo
o oC Seg.

(-) 116.3 111.3 Promedio de espesor para valores


bajos
(+) 115.5 120.6 Promedio de espesor para valores altos
-0.8 +8.3 Efecto 
Promedio general = 115.93

De esos cálculos se observa el efecto del factor temperatura equivalente a -0.8 micropulgadas. Esto
significa que el aumento la temperatura de 16 a 32 oC ocasiona una disminución en el espesor en 0.8
micropulgadas. Similarmente, el factor efecto tiempo es de +8.3; es decir, el aumento de tiempo de
residencia dentro del baño de 4 a 12 seg. ocasiona un aumento en el espesor en 8.3 micropulgadas.
Comparando efectos, el factor tiempo resulta ser aproximadamente 12 veces más importante que el factor
temperatura en el espesor de la capa de níquel.
A continuación se elabora gráficos con los valores promedios obtenidos, como se observa en las
Figuras 8.1. En estas se debe destacar el hecho de la interacción que existe entre los dos factores en
estudio. Esto se evidencia por el hecho que en ambos gráficos no existe paralelismo entre las rectas
trazadas.

125

T=32oC
Espesor,  pulg.

t = 12 seg
120

115 T=16 oC

t = 4 seg.
110

105
16 32 4 12
Temp. oC Tiempo, seg

Figura 8.1: Gráfico de interacción para temperatura y tiempo en el proceso de niquelado.

A fin de cuantificar los efectos de interacción, ya develados con los gráficos de la Figura 8.1, se elabora
una Tabla con las variables codificadas y adicionando una columna de interacción AB. Esta columna se
obtiene multiplicando los valores codificados correspondientes a los dos factores. Esto se observa en la
Tabla 8.3.

Tabla 8.3: Matriz codificada con columna de interacción


Prueba # A B AB Promedio
1 -1 -1 +1 115.8
2 -1 +1 -1 116.8
3 +1 -1 -1 106.7
4 +1 +1 +1 124.3

Se puede determinar matemáticamente el efecto de interacción entre los dos factores, utilizando la
columna AB y la respuesta obtenida para cada combinación:

Valores Interacción AB
(-) 116.8  106.7 Promedio de interacción para valores
 11175
.
2 bajos
(+) .  124.3
1158 Promedio de interacción para valores
 120.05
2 altos
120.05 - 111.75 = 8.3 Efecto 

95
El alto valor del efecto  para la interacción AB, indica la fuerte interacción que existe entre esas dos
factores.El siguiente paso es calcular los "medios efectos" para cada columna. Estos "medios efectos" serán
usados en la ecuación de predicción a definirse posteriormente.

A (Temp.) B (tiempo) AB
/2 -0.8/2 = -0.4 8.3/2 = 4.65 8.3/2 = 4.15

En las Figuras, 8.2 y 8.3, se resumen los datos obtenidos hasta el momento.
La variable B (tiempo) y la interacción AB muestran tener gran influencia en el proceso de niquelado,
en cambio, la variable A (temperatura) no tiene mucha significación en el proceso.
A continuación se debe evaluar cuales de los factores e interacciones son importantes. Para ello se
dispone de tres procedimientos:
a) Análisis gráfico;
b) Análisis de la Varianza, ANAVA;
c) Análisis de regresión.
125

B AB
Espesor,  pulg.

120

A
115

110

105
16 32 4 12 -1 +1
Temp. oC Tiempo, seg Interacción

Figura 8.2: Promedios para cada efecto.

5
B
AB
4
Valor absoulto /2

1
A
0

Figura 8.3: Diagrama PARETO para valores /2 o medios efectos.

8.2.3 Análisis gráfico


Este análisis se basa en la simple inspección de los gráficos desarrollados luego del análisis de datos
efectuados. Mediante este procedimiento se hace el análisis y selección de los factores más importantes y
se usaran para definir la ecuación de predicción. El diagrama de Pareto muestra que factores tienen mayor
importancia; sin embargo, un profundo conocimiento técnico del proceso en estudio puede ser gravitante
para predecir la importancia de un factor.
La forma general de la ecuación de predicción es:


 A    
Y  Y    A   B  B   AB  AB  ...
2   2   2 

donde:

Y = la respuesta de predicción o Y estimado
Y = promedio de los valores de respuesta.

96
A/2 = medio efecto para el factor A
B/2 = medio efecto para el factor B
AB/2 = medio efecto para el factor AB

Consecuentemente, de la observación de los resultados gráficos se concluye que los factores B


(tiempo) e interacción A-B (tiempo - temperatura) tienen importancia significativa en el proceso de
niquelado. Sin embargo, el modelo matemático incluirá el factor temperatura a pesar que no muestra
incidencia significativa en el proceso. Esto en razón a que técnicamente se reconoce que la temperatura es
importante en el proceso de niquelado. Con estas consideraciones, el modelo matemático queda definido de
la siguiente manera:

Y = 115.93 - 0.4 A + 4.65 B + 4.15 AB

8.2.4 Verificación del modelo


A continuación se prueba el modelo con valores ya experimentados. Así por ejemplo, si consideramos
A = 32 oC y B = 4 seg., entonces el modelo responde:

Y = 115.93 - 0.4 (+1)+ 4.65 (-1) + 4.15 (+1)(-1) = 106.73

Ahora, si A = 32 oC y B = 12 seg.,, entonces:



Y = 115.93 - 0.4 (+1)+ 4.65 (+1) + 4.15 (+1)(+1) = 124.33

Nótese que los valores actuales de las variables son reemplazados en la ecuación de predicción con los
valores codificados.
Se observa que la ecuación de predicción responde correctamente a combinaciones de valores ya
experimentados. Esto da seguridad para que el modelo pueda ser utilizado para predecir combinaciones no
probadas y/o predecir un valor objetivo.
Supóngase ahora que se fija como objetivo el tener una capa de níquel de 120 micropulgadas. Ya que
se dispone de 2 variables y se decide técnicamente que la temperatura debe fijarse a 32 oC, la ecuación
puede usarse según:

120 = 115.93 - 0.4 (+1)+ 4.65 (B) + 4.15 (+1)(B)


B = 0.508

Ya que este valor de B es un valor codificado del tiempo, para obtener el valor real se procede según lo
siguiente:
0.54 seg

-1 0 +1
4 seg 8 seg 12 seg

El tiempo real se obtendrá de un simple cálculo de interpolación. Para este valor codificado de B =
0.508 se obtiene un tiempo de 9.04 seg. Por lo tanto, con 9.04 seg. y 32 oC, el niquelado deberá tener una
capa de 120 micropulgadas de espesor.
Se debe proceder ahora con las pruebas confirmativas para determinar la validez total del modelo
obtenido. Las pruebas de confirmación se llevarán a cabo con 32 oC de temperatura del baño y 10 seg. de
tiempo de inmersión de la pieza en el baño de níquel.
Con esos valores fijados de los factores, se realizan 5 pruebas de verificación y se obtienen los
siguientes resultados de micropulgadas de espesor de la capa de níquel:
120.5; 122.7; 117.4; 125.3; 117.0.

    
115 120 125
Espesor en micropulgadas

Ya que hay una distribución razonable alrededor de 120, se concluye que el modelo obtenido es válido.
97
8.3 Análisis de la varianza
El análisis gráfico, no-estadístico, se complementa con el estudio de análisis de la varianza, lo cual
aporta el criterio objetivo para completar la evaluación. Este análisis se desarrolla con un ejemplo: Se
realiza una investigación sobre el efecto de dos factores en la velocidad de reacción de un proceso, sean
estas la concentración de un reactivo (Z 1) y la cantidad de un catalizador, (Z 2). Los niveles de los factores
son los siguientes:

Factores Nivel (-) Nivel (+)


Z1: Reactivo (%) 15 20
Z2: Catalizador (sacos) 1 2

Con estos valores se ejecuta un diseño experimental con 2 2 = 4 experimentos y tres replicas en cada
prueba. La Tabla 8.4 señal el diseño a utilizar.

Tabla 8.4: Matriz de diseño experimental para 2 factores


N Factores actuales Factores codificados
Z1 Z2 X1 X2 X 1X 2
1 15 1 -1 -1 +1
2 20 1 +1 -1 -1
3 15 2 -1 +1 -1
4 20 2 +1 +1 +1

Se realizan los experimentos aleatoriamente con réplicas también aleatorizadas, y los resultados se
muestran en la siguiente Tabla.

Tabla 8.5: Matriz de diseño experimental para 2 factores con 3 réplicas.


N Factores Respuestas Total Yr
respuestas
X1 X2 X 1X 2 I II II
1 -1 -1 +1 28 25 27 80
26.67
2 +1 -1 -1 36 32 32 100
33.33
3 -1 +1 -1 18 19 23 60
20.00
4 +1 +1 +1 31 30 29 90
30.00
Promedio general Y = 27.50
Los promedios de bajo y alto nivel para los factores e interacción y el efecto  se muestran a continuación:

Promedi X1 X2 X 1X 2
o
(-) 23.335 30 26.665
(+) 31.665 25 28.335
Efecto  8.33 -5 1.67

El análisis de la varianza se inicia planteando la siguiente ecuación que representa a la variabilidad


total de los datos en sus partes componentes:

SSTotal  SS Efectos  SS Error

donde
SSTotal = Suma total de cuadrados.
SSEfectos = Suma de cuadrados debida a los tratamientos.
SSError = Suma de cuadrados debida al error.

98
Para el análisis de la varianza de un diseño factorial donde con varias réplicas en los puntos del
diseño, la suma total de cuadrados viene definido por:

2 2 r
Y2
SSTotal     Yijk2 
i 1 j 1 k 1 Nr
donde:
N = número de pruebas experimentales;
r = número de réplicas en el diseño.

O sea, SSTotal es igual a la suma de cada una de las respuestas elevadas al cuadrado, menos la suma de
todas las respuestas elevada al cuadrado dividida el número total de experimentos por el número de
réplicas efectuadas
En el ejemplo:

SSTotal  (28  25  27  ... 30  29 ) 


2 2 2 2 2  28  25  27  ... 30  29
2

4 *3

 9398 
 330
2

12
= 323
La suma de cuadrados de los efectos e interacciones se da por la siguiente relación:
2
 N 
  X ij Yj 
 i 1 
SS Efecto 
Nr
En el ejemplo:

100  90  80  60


2

SS X 1   208.33
4 *3

90  60  80  100


2

SS X 2   75.00
4 *3
80  90  100  60
2

SS X 1 X 2   8.33
4 *3
SS Efectos  SS X1  SS X 2  SS X1 X 2  208.33  75.00  8.33  29166
.

SS  SS Efectos  SS Error
De la ecuación Total , se obtiene SSError: de la siguiente forma:
SSError = SSTotal - SSEfecto = 323 - 291.66 = 31.34

A través del cálculo del efecto  se observa que la variable X 1, (concentración del reactivo) tiene
incidencia importante en el proceso. La manera precisa y estadística de medir la importancia de esa variable
es por el Teorema de Cochran, que se resume en la siguiente expresión:

MS Efectos
Fo 
MS Error
donde:
MSEfectos = SSEfectos/glT

MSErrror = SSError/glE
de aquí:
glT = grados de libertad de los efectos e interacciones. Igual a 1 en los diseños factoriales a dos niveles (2-
1=1)
99
glE = grados de libertad de la suma de cuadrados del error. Igual a:
nr

n i 1
ri 1
Esto es, la sumatoria de el número de réplicas menos 1

Una variable o una interacción es significativa si se cumple la siguiente condición:

Fo > F(; glT , glE )

En el ejemplo:
glT = 2 - 1 = 1

glE = (3-1) + (3-1) + (3-1) + (3-1) = 8

MSEfectos(X1) = 208.33/1 = 208.33

MSEfectos(X2) = 75/1 = 75

MSEfectos(X1X2) = 8.33/1 = 8.33

MSError = 31.34/8 = 3.92


Con todos estos datos se construye la Tabla de Análisis de la Varianza. Tabla 8.6

Tabla 8.6: Análisis de la Varianza para el ejemplo.


Fuente SS g.l. MS Fo
X1 208.33 1 208.33 53.15
X2 75.00 1 75.00 18.13
X 1X 2 8.33 1 8.33 2.13
Error 31.34 8 3.92
Total 323.00

Para un nivel de significación  = 0.01; glT = 1; glE = 8 entonces F(0.01; 1, 8) = 11.26


La condición Fo > F(; glT , glE ) se cumple para X 1 y X2. Por lo tanto, solo las variables X 1 y X2
tienen incidencia significativa en el proceso. Con esto se formula el modelo matemático y es como sigue:
 8.33 5
Y  27.50  X1  X 2
2 2

Y  27.5  4.165 X 1  2.5 X 2

Nótese que los valores a sustituir para las variables corresponde a los valores codificados +1 y -1

Obtenido este modelo, debe ser verificado experimentalmente para comprobar su validez.

8.3.1 Análisis de residuos


Para saber cuan distanciados están los valores que se predicen con el modelo de los valores
experimentales, se efectúa el análisis de residuos. Este análisis considera los residuales igual a:

Y Y
y que se resumen en la Tabla 8.7.

100
Tabla 8.7: Análisis de residuos para el ejemplo.

Yr
R = (Yr - Y )

N X1 X2 Y1 Y2 Y3 Y
Y
RY1 Ry2 RY3
1 -1 -1 28 25 27 26.67 25.83 +2.16 -0.835 +1.16
5 5 5
2 +1 -1 36 32 32 33.33 34.16 +1.83 -2.165 -2.165
5 5
3 -1 +1 18 19 23 20.00 20.83 -2.835 -1.835 +2.16
5 5
4 +1 +1 31 30 29 30.00 28.16 +1.83 +0.83 -0.165
5 5 5

Con estos datos se calcula la suma de cuadrados residual del modelo, SSMR

2
 Y  Y 
 

Nr

SSM R  
i 1 Nr  I

donde:

Y = Y estimado o respuesta según el modelo.
Y = Y observado o respuesta experimental
Nr = número total de experimentos.
I = número de parámetros del modelo matemático.
Nr-I = grados de libertad del residuo = glR

En el ejemplo:

SSM R 
2.1652   0.8352  ...   0165
.  39.67
2

  4.41
(4) (3)  (3) 9

Para determinar estadísticamente si el modelo matemático hallado representa adecuadamente a los


datos experimentales, se realiza la prueba F:

SSM R 4.41
Fo    1124
.
MS Error 3.92

El modelo es adecuado si:

Fo  F(; glR , glE )

Si en el ejemplo:  = 0.05; glR = 9; , glE = 8

F(0.05; 9, 8 ) = 3.39

Entonces el modelo matemático es adecuado.

8.3.2 Decodificación del modelo a escala natural


En el ejemplo, el modelo codificado obtenido fue:

Y  27.5  4.165 X 1  2.5 X 2
es decir, en este modelo los valores de las variables X 1 y X2 se representan por valores (+1) y (-1). Para
que en el modelo se pueda reemplazar los valores reales de las variables, se calcula lo siguiente:
101
Centro del diseño
(20  15) (2  1)
Z Xo 1   17.5 Z Xo 2   15
.
2 2
Radio del Diseño
(20  15) (2  1)
Z X 1   2.5 Z X 2   0.5
2 2
Relación E
Zo 17.5 Z Xo 2 15
.
EX1  X1  7 EX2   3
Z X 1 2.5 Z X 2 0.5

lo cual se resume en el siguiente cuadro:

X1 X2
Nivel Inferior (-) 15 1
Nivel Superior (+) 20 2
Centro del diseño, (Zo) 17.5 1.5
Radio del Diseño ( Z) 2.5 0.5
Relación E 7 3

El modelo decodificado se calcula según:


Y D  ao  a1 X 1  a2 X 2

y se obtiene:

   
ao  Y   X 1  E X 1   X 2  E X 2
 2   2 

= 27.5 - (4.165)(7) - (-2.5)(3) = 5.845


  X1 
 
 2  4.165
a1    1666
.
Z X 1 2.5

 X2 
 
 2  2.5
a2     5.0
Z X 2 0.5

Con lo que el modelo decodificado se expresa:



Y D  5845
.  1666
. Z1  5.0 Z2

En términos generales:
k
j k
  ij 
ao  Y     E j     Eij ; i  j
j 1  2  ij 1  2 

j   ij 
  k 1  
 2  2 
aj   ; i j
Z j ij 1 Z j
  ij 
 
 2 
a ij 
 Z Z 
i j

102
8.4. Diseños factoriales fraccionados a dos niveles
Los diseños factoriales completos son buenos en el sentido que proveen estimados para los efectos de
todos los factores, así como los efectos de posibles interacciones. Una desventaja es que estos diseños
requieren mayores cantidades de experimentos cuando más de cuatro factores se necesitan evaluar. Por
ejemplo, no es inusual necesitar desarrollar un experimento con 10 factores a dos niveles. Un diseño
factorial completo requeriría 2 10 = 1,024 experimentos, lo cual son demasiados para ejecutarse.
Como una alternativa a la posibilidad de tener gran cantidad de variables, se presentan los diseños
factoriales fraccionados, en los que se ejecuta solo una fracción del total de experimentos que se requieren.
Lo negativo del método es que parte de la información sobre interacciones se llega a perder.
Supóngase que se tiene tres factores, A, B, y C y se les quiere evaluar mediante un diseño factorial.
Para esto se tiene dos alternativas:

a) Un diseño factorial completo con 8 experimentos;


b) Un diseño factorial fraccionado con 4 experimentos.

Esta dos alternativas se presentan en las Tablas 8.8 y 8.8. En esas Tablas, AB, AC, CB y ABC
representan la interacción entre los tres factores.
Obsérvese que en la Tabla 8.9 la columna A es igual a la columna BC; B = AC; C = AB. Ya que los
valores de tales columnas son iguales, no es posible determinar si el efecto calculado de la columna A es
debido al factor A o debido a la interacción BC. Usualmente las interacciones son relativamente pequeñas
comparadas con los efectos de los factores, lo que en parte justifica el uso de los diseños fraccionados.

Tabla 8.8: Diseño factorial completo con tres factores a dos niveles, N =-23 = 8

N A B C AB AC BC ABC
1 -1 -1 -1 +1 +1 +1 -1
2 -1 -1 +1 +1 -1 -1 +1
3 -1 +1 -1 -1 +1 -1 +1
4 -1 +1 +1 -1 -1 +1 -1
5 +1 -1 -1 -1 -1 +1 +1
6 +1 -1 +1 -1 +1 -1 -1
7 +1 +1 -1 +1 -1 -1 -1
8 +1 +1 +1 +1 +1 +1 +1

Tabla 8.9: Diseño factorial fraccionado con tres factores a dos niveles, en 4 pruebas.
N A B C= A*B AB AC BC ABC
1 -1 -1 +1 +1 -1 -1 +1
2 -1 +1 -1 -1 +1 -1 +1
3 +1 -1 -1 -1 -1 +1 +1
4 +1 +1 +1 +1 +1 +1 +1

Consideremos ahora por ejemplo que se tiene cuatro factores A, B, C, y D; a evaluar un diseño
factorial fraccionado con 8 pruebas. Un diseño completo incluiría N = 2 4 = 16 pruebas. Para elaborar la
matriz codificada de diseño, obsérvese la Tabla 8.8 con 23 = 8. Es obvio en esta Tabla que la columna de
interacción ABC es poco probable de producirse con un efecto significativo; de modo que para 4 factores la
Tabla 8.8 puede reescribirse como se observa en la Tabla 8.10, considerando las respectivas interacciones.

103
Tabla 8.10: Diseño factorial fraccionado con cuatro factores a dos niveles, 8 pruebas.

N A B C D= ABC AB=CD AC=BD BC=AD


1 -1 -1 -1 -1 +1 +1 +1
2 -1 -1 +1 +1 +1 -1 -1
3 -1 +1 -1 +1 -1 +1 -1
4 -1 +1 +1 -1 -1 -1 +1
5 +1 -1 -1 +1 -1 -1 +1
6 +1 -1 +1 -1 -1 +1 -1
7 +1 +1 -1 -1 +1 -1 -1
8 +1 +1 +1 +1 +1 +1 +1

En general, un diseño factorial fraccionado esta definido por: 2 k-p donde:


k = número de factores a estudiar ;
p = número de factores a confundir.

104
k
8.5. Diseño factorial 2 con réplica en el punto central del diseño
El diseño factorial 2k asume una relación lineal entre las variables y la respuesta. De ser cierta la
linealidad, el modelo debe predecir adecuadamente todos los puntos del diseño, inclusive el punto central.
Aunque no se verifique linealidad perfecta, el modelo funcionará bastante bien si la linealidad se cumple de
manera aproximada. De no predecir adecuadamente el modelo, especialmente en el punto central, se
afirma que el modelo no es suficiente para explicar las respuestas en tal región y es posible asumir la
existencia de curvatura. Se debe realizar pruebas en el punto central del diseño para dar un es timado del
efecto de curvatura.

Respuesta

Y1

Y2

-1 0 +1
Variable A
Figura 8.4: Modelo lineal fijado a nivel bajo y alto, con probable curvatura en el centro.

8.5.1 Ejemplo de aplicación


Un ingeniero químico se encuentra estudiando el rendimiento de un proceso. Existen dos variables de
interés: tiempo y temperatura de reacción. Debido a que el ingeniero duda de la suposición de linealidad,
decide utilizar un diseño 22 , con una sola prueba en cada punto externo del diseño y 5 réplicas en el punto
central.
El diseño y los resultados se muestran en la Figura
Temperatura, X2

160; +1
40.0 41.5

40.3
40.5
155; 0 40.7
40.2
40.6

39.3 40.9
150; -1

Tiempo de
-1 0 +1 reaccion, X1
30 35 40

Figura 8.5: Diseño factorial con réplica en el centro del diseño.

La Tabla 8.11 muestra los valores actuales y codificados del diseño.

105
Tabla 8.11: Matriz del diseño factorial con réplicas en el centro y respuestas experimentales.
Prueba Z1 Z2 X1 X2 X 1X 2 Respuesta
# Tiempo Temper Y
.
1 30 150 -1 -1 +1 38.3
2 40 150 +1 -1 -1 40.9
3 30 160 -1 +1 -1 40.0
4 40 160 +1 +1 +1 41.5
5 15535 0 0 40.3
5 15535 0 0 40.5
5 15535 0 0 40.7
5 15535 0 0 40.2
5 15535 0 0 40.6
Promedio general (exceptúa los puntos en el centro) = 40.425
Los promedios de bajo y alto nivel para los factores e interacción y el efecto  se muestran a
continuación:

X1 X2 X 1X 2
Promedi
o
(-) 38.65 40.1 40.45
(+) 41.2 40.75 40.40
Efecto  1.55 0.65 -0.05

Obsérvese que los puntos replicados en el centro no son considerados en el cálculo de los efectos;
mas bien serán utilizados para hallar la suma de cuadrados del error.

8.5.1 Análisis de la varianza


El análisis de la varianza difiere algo del efectuado cuando se efectúan réplicas en cada punto del
diseño. Implica el cálculo de:

SSEfectos = Suma de cuadrados debida a los tratamientos.


SSError = Suma de cuadrados debida al error.
SSCurvatura = Suma de cuadrados debida a la curvatura.

La suma de cuadrados de los efectos e interacciones se da por la siguiente relación:


2
 N 
  X ij Yj 
 i 1 
SS Efecto 
Nr

La suma de cuadrados debida al error se calcula con la siguiente expresión:

 
no
o 2
SS Error   Yi o  Y
i 1
donde:

Yi o  réplicas en el punto central del diseño.


no = número de réplicas en el centro.
o
Y  promedio de todas las réplicas.
La suma de cuadrados debida a la curvatura se calcula con la siguiente expresión:

106
SSCurvatura 

N no Y  Y
o

N  no
donde:
Y  promedio de puntos exteriores del diseño.
En el ejemplo, la suma de cuadrados debida a los tratamientos es:
415.  40.9  40.0  39.3
2

SS X 1   2.4025
(4) (1)

40.0  415.   40.9  39.3


2

SS X 2   0.4225
(4)(1)
39.3  415.   40.9  40.0
2

SS X 1 X 2   0.0025
(4)(1)

La suma de cuadrados del error:


o
Y  40.46

SSError = (40.3-40.46)2 +(40.5-40.46)2 + (40.7-40.46)2+ (40.2-40.46)2 + (40.6-40.46)2 = 0.172

glE  no 1 = 5-1 = 4; (grados de libertad del error)

La suma de cuadrados debida a la curvatura:

(4)(5) (40.425  40.46) 2


SSCurvatura   0.00272
4 5

Tabla 8.12: Análisis de la Varianza para el ejemplo.


Fuente SS g.l. MS Fo
X1 2.4025 1 2.4025 55.87
X2 0.4225 1 0.4225 8.83
X 1X 2 0.0025 1 0.0025 0.058
Curvatura 0.00272 1 0.00272
0.0063
Error 0.172 4 0.043
Total 3.00222 8

Evaluando el estadístico F versus Fo, se tiene:

F(; glT , glE ) = F(0.05; 1, 4) = 7.71

Una variable, una interacción ó la curvatura es significativa si se cumple la siguiente condición:

Fo > F(; glT , glE )

Como esta condición se cumple para X 1 y X2, el modelo matemático queda definido:
 155
. 0.65
Y  40.425  X1  X2
2 2

Y  40.425  0.775 X 1  0.325 X 2

107
8.5.2 Análisis de residuos

 
N X1 X2 Yr Y R = (Yr - Y )
1 -1 -1 38.3 38.32 -0.025
5
2 +1 -1 40.9 40.87 0.025
5
3 -1 +1 40.0 38.97 0.025
5
4 +1 +1 41.5 41.52 0.025
5

2
 Y  Y 
 

Nr

SSM R  
i 1 Nr  I

SSM R 
 0.0252  ...  (0.025) 2  0.0025
(4)(1)  (3)

SSM R 0.0025
Fo    0.06
MS Error 0.043
El modelo es adecuado si: Fo  F(; glR , glE ). En el ejemplo:  = 0.05; glR = 1; , glE = 4
F(0.05; 1, 4 ) = 7.71. Entonces el modelo matemático ajusta adecuadamente los datos experimentales.

8.5.3 Ejemplo de aplicación: efecto de curvatura importante


Al inicio de la etapa de optimización de un proceso de flotación de un mineral sulfurado de cobre, un
investigador elige tres variables que, según su criterio puede mejorar la recuperación metálica de cobre.
Estas variables son la dosificación del colector, pH y porcentaje de sólidos según:

Factor Nivel (-) Nivel (+)


Z1: Dosificación de 0.02 0.06
colector
Z2: pH 10 11
Z3: % de sólidos 27.5 33.5

El investigador decide realizar un diseño 2 3 = 8 experimentos con tres réplicas en el centro. La Tabla
8.13 muestra el diseño y sus resultados.

108
Tabla 8.13: Matriz del diseño factorial con réplicas en el centro y respuestas.
N Z1 Z2. Z3 X1 X2 X3 X 1X X 1X X 2X X 1X 2 X Respues
2 3 3 3 ta
Y
1 0.02 10 27.5 -1 -1 -1 +1 +1 +1 -1 94.0
2 0.06 10 27.5 +1 -1 -1 -1 -1 +1 +1 94.0
3 0.02 11 27.5 -1 +1 -1 -1 +1 -1 +1 94.6
4 0.06 11 27.5 +1 +1 -1 +1 -1 -1 -1 92.2
5 0.02 10 33.5 -1 -1 +1 +1 -1 -1 +1 92.5
6 0.06 10 33.5 +1 -1 +1 -1 +1 -1 -1 92.5
7 0.02 11 33.5 -1 +1 +1 -1 -1 +1 -1 93.2
8 0.06 11 33.5 +1 +1 +1 +1 +1 +1 +1 92.1
9 0.04 9.5 30.5 0 0 0 92.5
9 0.04 9.5 30.5 0 0 0 92.4
9 0.04 9.5 30.5 0 0 0 92.4
Promedio general (exceptúa puntos en el centro) Y = 93.1375

Con los datos obtenidos se calcula el efecto  para cada una de las variables e interacciones, como
sigue:
X1 X2 X3 X 1X 2 X 1X 3 X 2X 3 X 1 X 2X 3
 -0.87 -0.22 -1.12 -0.87 0.32 0.37 .0325

Tabla 8.14: Análisis de la Varianza para el ejemplo.


Fuente SS g.l. MS Fo
X1 1.5313 1 1.5313 458.37 Colector
5
X2 0.1013 1 0.1013 pH
30.375
X3 2.5313 1 2.5313 758.37 % sólidos
5
X 1X 2 1.5313 1 1.5313 458.37 Colector-pH
5
X 1X 3 0.2112 1 0.2112 Colector-%sól.
63.375
X 2X 3 0.2813 1 0.2813 pH-%Sólid.
84.375
X 1X 2X 3 0.2112 1 0.2112 Colector-pH-%
sól.
63.375
Curvatura 1.0819 1 1.0819 324.55
6
Error 0.0067 2 0.0033
Total 7.4873 10

F(; glT , glE ) = F(0.01; 1, 2) = 98.5

 0.87 112
. 0.87
Y  931375
.  X1  X3  X1 X 2
2 2 2

Y  931375
.  0.435 X 1  0.56 X 3  0.435 X 1 X 2

Siendo el efecto de la curvatura muy significativo, se concluye que la región óptima se encuentra en el
centro del diseño. Con estos resultados, el investigador decide aplicar un diseño de escalamiento. Además,
en razón de la significación de la interacción X1X2 es de esperar que el pH también tenga significación en el
proceso, por lo que se le deberá incluir en la etapa de escalamiento.
109
Análisis de residuos

 
N X1 X3 X 1X Yr Y R = (Yr - Y )
2
1 -1 -1 +1 94.0 93.7 0.3
2 +1 -1 -1 94.0 93.7 0.3
3 -1 -1 -1 94.6 94.57 0.025
5
4 +1 -1 +1 92.2 92.82 -0.625
5
5 -1 +1 +1 92.5 92.57 -0.075
5
6 +1 +1 -1 92.5 92.57 -0.075
5
7 -1 +1 -1 93.2 93.45 -0.25
8 +1 +1 +1 92.1 91.70 -0.4
2
 Y  Y 
 
Nr
  Fo 
SSM R 0.20125
  60.985
SSM R   SSM R 
0.20125
 0.20125 MS Error 0.0033
i 1 Nr  I 84

El modelo es adecuado si: Fo  F(; glR , glE ). En el ejemplo:  = 0.01; glR = 4; , glE = 2
F(0.05; 4, 2 ) = 98.25. Entonces el modelo matemático ajusta adecuadamente los datos experimentales.

8.6 Ejemplo de diseño factorial fraccionado


En la investigación para optimizar un proceso de flotación de un mineral sulfurado de cobre, se
investiga la influencia de cuatro factores: tiempo de molienda, pH, dosificación del colector y dosificación del
espumante. En el siguiente cuadro se muestran los valores a considerar durante el experimento:

Factor Nivel (-) Nivel (0) Nivel (+)


Z1: Tiempo de molienda, min 5.0 6.5 8.0
Z2: pH 8.5 8.5 9.5
Z3: Colector, lb/Ton (Z-200) 0.1 0.15 0.20
Z4: Espumante, lb/ton (Dowfroth 200) 0.2 0.30 0.40

Para las 4 variables (k=4), se puede utilizar un diseño 24-1 = 8 experimentos. El diseño se lleva a cabo
con tres réplicas en el centro. La variable codificada X4 se reemplaza por los valores codificados
correspondientes a la interacción X1X2X3 ya que esta interacción tiene muy pocas probabilidades de ser
importante.

110
Tabla 8.14: Matriz del diseño factorial fraccionado con réplicas en el centro y respuestas.

N X1 X2 X3 X4 X 1X X 1X X 1X Z1 Z2 Z3 Z4 Y
2 3 4 t, min. pH Colect, Espum
lb/ton .
lb/ton
1 -1 -1 -1 -1 +1 +1 +1 5 8.5 0.1 0.2 87.7
2 +1 -1 -1 +1 -1 -1 +1 8 8.5 0.1 0.4 90.4
3 -1 +1 -1 +1 -1 +1 -1 5 9.5 0.1 0.4 87.5
4 +1 +1 -1 -1 +1 -1 -1 8 9.5 0.1 0.2 92.0
5 -1 -1 +1 +1 +1 -1 -1 5 8.5 0.2 0.4 84.0
6 +1 -1 +1 -1 -1 +1 -1 8 8.5 0.2 0.2 86.4
7 -1 +1 +1 -1 -1 -1 +1 5 9.5 0.2 0.2 85.0
8 +1 +1 +1 +1 +1 +1 +1 8 9.5 0.2 0.4 88.2
9 0 0 0 0 6.5 8.5 0.15 88.9 0.3
9 0 0 0 0 6.5 8.5 0.15 88.7 0.3
9 0 0 0 0 6.5 8.5 0.15 88.5 0.3
Promedio general (exceptúa puntos en el centro) Y = 87.65
o
Promedio para pruebas en el centro Y = 88.70

De la Tabla 8.14 se deduce que X4 = X1X2X3 , X1X2 = X3X4 ; X1X3 = X2X4 ; X1X4 = X2X3

Con los datos obtenidos se calcula el efecto  para cada una de las variables e interacciones, como
sigue:

X1 X2 X3 X4 X 1X 2 X 1X 3 X 1X 4
 3.2 1.05 -3.5 -0.25 0.65 -0.1 0.35

Siguiendo el proceso de cálculo arriba señalado, es decir calculando:

2
 N 
  X ij Yj 
 
SS Efecto  i 1
Nr

 
no
o 2
SS Error   Yi o  Y
i 1

SSCurvatura 

N no Y  Y
o

N  no
se construye la Tabla del análisis de la varianza.

111
Tabla 8.15: Análisis de la Varianza para el ejemplo.

Fuente SS g.l. MS Fo
X1 20.48 1 20.48 512.0 Tiempo

X2 2.205 1 2.205 55.125 pH

X3 24.50 1 24.50 612.5 Colector

X4 0.125 1 0.125 3.125 Espumant


e
X 1X 2 0.845 1 0.845 21.125
X 1X 3 0.32 1 0.32 8.0
X 1X 4 0.245 1 0.245 6.125
Curvatura 2.405 1 2.405 61.125
Error 0.08 2 0.04
Total 51.205 10

F(; glT , glE ) = F(0.01; 1, 2) = 98.5


El modelo matemático es:
 3.2 35
.
Y  87.65  X1  X3
2 2

Y  87.65  165
. X 1  175
. X3

Análisis de residuos
 
N X1 X3 Yr Y R = (Yr - Y )
1 -1 -1 87.7 87.8 -0.1
2 +1 -1 90.4 91.0 -0.6
3 -1 -1 87.5 87.8 -0.3
4 +1 -1 92.0 91.0 1.0
5 -1 +1 84.0 84.3 -0.3
6 +1 +1 86.4 87.5 -1.1
7 -1 +1 85.0 84.3 0.7
8 +1 +1 88.2 87.5 0.7
2
 Y  Y 
  Fo 
SSM R 0.0748
  18.70
Nr
 3.74
SSM R   SSM R  0.748 MS Error 0.04
i 1 Nr  I 83

El modelo es adecuado si: Fo  F(; glR , glE ).; F(0.05; 5, 2 ) = 18.30. Entonces el modelo matemático
ajusta adecuadamente los datos experimentales.

8.7. Diseños de Plackett - Burman


Este diseño desarrollado por Plackett y Burman en 1946 permite estudiar un gran número de variables,
reduciéndolas luego a un grupo pequeño para posterior experimentación. Es un tipo especial de diseño
factorial fraccionado, donde se puede estudiar k variables en N pruebas experimentales, donde N > k y
otorga la posibilidad de experimentar con N-1 variables. El modelo contempla el uso de las denominadas
variables ficticias (no representan a ninguna variable experimental) y se utilizan para determinar la varianza
del error experimental. Por esta última razón, es conveniente introducir en el diseño por lo menos 2
variables ficticias.
Para construir un diseño de P-B, se toma un vector de tamaño n determinado y con el se generan los
restantes vectores. Por ejemplo, si n = 8 combinaciones, el vector generador consiste de n-1 = 7 valores
que son : (+ + + - + - -). La matriz de diseño se completa como sigue:

112
a) Utilizar el vector generador como la primera fila, n1
b) La segunda fila, n2, se llena tomando el primer valor de n1 y colocándolo en el último lugar de la fina n2 y
deslizando luego los demás valores de n1 delante de ese primer valor.
c) La tercera fila, n3, se construye utilizando el último valor de la fila n2 y colocándolo en el último lugar de la
fila n3 y deslizando a partir de ese los restantes valores de n2 .
d) Continuar hasta que todas las (n-1) filas se completen.
e) Completar la fila n con valores negativos (-1)

Los vectores generadores para los diversos diseños P-B son como sigue:

n=8 + + + - + - -
n = 12 + + - + + + - - - + -
n =16 + + + + - + - + + - - + - - -
n = 20 + + - - + + + + - + - + - - - - + + -
n = 24 + + + + + - + - + + - - + + - - + - + - - - -
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23

Obsérvese que los valores de n son múltiplos de 4 y el total de variables a experimentar (inclusive las
variables ficticias) es igual a n-1.
Supóngase que se quiere experimentar con 4 variables (k=4), el número de pruebas es n = 8 y el total
de variables a considerar es n-1 = 7, según la Tabla 8.16. Obsérvese que si son 4 variables reales y 7 el
total de variables a considerar, entonces 3 variables serán ficticias.

Tabla 8.16: Diseño P-B con 4 variables reales, 3 variables ficticias y 8 pruebas

N X1 X2 X3 X4 F1 F2 F3
1 + + + - + - -
2 + + - + - - +
3 + - + - - + +
4 - + - - + + +
5 + - - + + + -
6 - - + + + - +
7 - + + + - + -
8 - - - - - - -

Ahora supóngase que se desea experimentar con 8 variables. Se escoge un diseño P-B con 12 pruebas y
11 variables. La matriz codificada se da en la Tabla 8.17.

Tabla 8.17: Diseño P-B con 8 variables reales, 3 variables ficticias y 12 pruebas
N X1 X2 X3 X4 X5 X6 X7 X8 F1 F2 F3
1 + + - + + + - - - + -
2 + - + + + - - - + - +
3 - + + + - - - + - + +
4 + + + - - - + - + + -
5 + + - - - + - + + - +
6 + - - - + - + + - + +
7 - - - + - + + - + + +
8 - - + - + + - + + + -
9 - + - + + - + + + - -
10 + - + + - + + + - - -
11 - + + - + + + - - - +
12 - - - - - - - - - -
113
8.8.1. Ejemplo de diseño P-B
En el estudio de separación de Molibdeno del concentrado bulk Cu-Mo se parte de las siguientes
premisas:
- El NaHS actúa como depresor de la chalcopiritra (CuFeS 2). Se investiga el efecto del NaHS en términos
de la estabilidad del HS -, para lo cual se controla el potencial redox de la solución.
- El nitrógeno actúa en la flotación como agente protector que evita la oxidación del NaHS. Se evalúa si el
N2 ejerce algún efecto en la eficiencia de separación.
- Se evalúa también el tiempo de acondicionamiento y el tiempo de flotación.

Se considera los siguientes tres criterios de optimización:


a) Eficiencia de separación del Molibdeno, Y1.

b) Eficiencia de concentración, Y2.

c) Consumo de NaHS, Y3

En el siguiente cuadro se muestran los valores a considerar durante el experimento:

Factor Nivel (-) Nivel (+)


Z1: Potencial redox, mV. - 400 -200
Z2: Carbón activado, lb/ton 0 2
Z3:Gas Nitrógeno Oxígeno
Z4: Tiempo de acondicionamiento, 2 5
min.
Z5: Tiempo de flotación, min. 5 10

Tabla 8.18: Diseño P-B con para flotación de Molibdeno.

N X X F1 X X X F2 Z1 Z Z3 Z4 Z5 Y1. Y2. Y3.


1 2 3 4 5 2
1 + + + - + - - -200 2 N2 5 5 18.00 1.48 2.90
2 + + - + - - + -200 2 O2 2 5 2.30 0.15 6.50
3 + - + - - + + -200 0 N2 2 10 9.00 0.65 3.30
4 - + - - + + + -400 2 N2 5 10 84.00 22.97 5.80
5 + - - + + + - -200 0 O2 5 10 15.10 1.77 7.80
6 - - + + + - + -400 0 O2 5 5 38.80 4.98 15.40
7 - + + + - + - -400 2 O2 2 10 74.60 16.53 14.90
8 - - - - - - - -400 0 N2 2 5 45.90 5.13 7.00
8.8.1.1. Evaluación para eficiencia de separación, Y1.
Con los datos obtenidos se calcula el efecto  para cada una de las variables para eficiencia de
separación, Y1.
X1 X2 F1 X3 X4 X5 F2
 -48.48 17.48 -0.96 -6.70 6.20 18.10 -4.62

Según este cuadro, el factor más importante es el potencial redox, ( X1 ). El paso de -200 mV. a -400
mV mejora 48.48 % la recuperación.

114
Siguiendo el proceso de cálculo se determina:
2
 N 
  X ij Yj 
no
SS Error    EF 
2
 
SS Efecto  i 1 i 1
Nr
donde:
EF = efecto de las variables ficticias.
SS Error  ( 0.96) 2  ( 4.62) 2  22.27

SS Error
MS Error 
nF
donde:
nF = número de variables ficticias.

22.27
MS Error   1114
.
2

Con todos esos cálculos que se construye la Tabla del análisis de la varianza.

Tabla 8.19: Análisis de la Varianza para el ejemplo de flotación de Molibdeno.


Fuente SS g.l. MS Fo
X1 4895.55 1 4895.55 438.45 Potencial
redox,
X2 596.85 1 596.85 Carbón
53.58 activado
F1 1.90 1 1.90 0.17
X3 91.80 1 91.80 Gas
8.26
X4 78.75 1 78.75 Tiempo
7.07 acondic
X5 735.36 1 735.36 Tiempo flotac.
66.01
F2 42.78 1 42.78 3.84
Error 22.27 2 11.14
Total 6435.34 9
F(; glT , glE ) = F(0.05; 1, 2) =18.51

El modelo matemático es:



Y  36.34  24.74 X 1  8.64 X 2  9.59 X 5

Análisis de residuos
X1 X2 X5  
N Yr Y R = (Yr - Y )
1 + + - 18.00 9.65 8.35
2 + + - 2.30 9.65 -8.35
3 + - + 9.00 12.55 -2.55
4 - + + 84.00 78.31 4.70
5 + - + 15.10 12.55 2.55
6 - - - 38.80 42.85 -3.05
7 - + + 74.60 78.31 -4.70
8 - - - 45.90 42.05 3.06

115
2
 Y  Y 
 
 Nr

SSM R  
i 1 Nr  I

215.24
SSM R   5381
.
84
SSM R 5381 .
Fo    4.82
MS Error 1114
.

El modelo es adecuado si: Fo  F(; glR , glE ).; F(0.05; 4, 2 ) = 18.25. Entonces el modelo matemático
ajusta adecuadamente los datos experimentales.

8.8.1.2. Evaluación para eficiencia de concentración del molibdeno, Y2

Tabla 8.20: Diseño P-B con para flotación de Molibdeno.

N X X F1 X X X F2 Z1 Z Z3 Z4 Z5 Y2.
1 2 3 4 5 2
1 + + + - + - - -200 2 N2 5 5 1.48
2 + + - + - - + -200 2 O2 2 5 0.15
3 + - + - - + + -200 0 N2 2 10 0.65
4 - + - - + + + -400 2 N2 5 10 22.97
5 + - - + + + - -200 0 O2 5 10 1.77
6 - - + + + - + -400 0 O2 5 5 4.98
7 - + + + - + - -400 2 O2 2 10 16.53
8 - - - - - - - -400 0 N2 2 5 5.13

Con los datos obtenidos se calcula el efecto  para cada una de las variables para eficiencia de
concentración del molibdeno, Y2

X1 X2 F1 X3 X4 X5 F2
 -11.54 7.30 -1.44 -1.85 2.04 7.40 1.11

SS Error  ( 144
. ) 2  ( 111
. ) 2  3.32

3.32
MS Error   166
.
2
Con todos esos cálculos que se construye la Tabla del análisis de la varianza.

116
Tabla 8.21: Análisis de la Varianza para el ejemplo de flotación de Molibdeno.

Fuente SS g.l. MS Fo
X1 266.34 1 266.34 160.44 Potencial
redox,
X2 106.58 1 106.58 106.58 Carbón
activado
F1 4.18 1 4.18 2.52
X3 6.84 1 6.84 4.12 Gas
X4 8.28 1 8.28 4.99 Tiempo
acondic
X5 108.37 1 108.37 65.88 Tiempo flotac.
F2 2.46 1 2.46 1.48
Error 3.32 2 1.66
Total 507.38 9

F(; glT , glE ) = F(0.05; 1, 2) =18.51


El modelo matemático es:

Y  6.63  5.77 X 1  3.65 X 2  3.70 X 5

Análisis de residuos

X1 X2 X5  
N Yr Y R = (Yr - Y )
1 + + - 1.48 0.81 0.67
2 + + - 0.15 0.81 -0.66
3 + - + 0.65 0.91 -0.26
4 - + + 22.97 18.75 3.32
5 + - + 1.77 0.91 0.26
6 - - - 4.98 5.05 -0.07
7 - + + 16.53 18.75 -3.32
8 - - - 5.13 5.05 0.08

2177
.
SSM R   5.44
84

SSM R 5.44
Fo    3.28
MS Error 166
.

El modelo es adecuado si: Fo  F(; glR , glE ).; F(0.05; 4, 2 ) = 18.25. Entonces el modelo matemático
ajusta adecuadamente los datos experimentales.

117
8.8.1.3. Evaluación para consumo de NaHS, Y3

Tabla 8.22: Diseño P-B con para flotación de Molibdeno.

N X X F1 X X X F2 Z1 Z Z3 Z4 Z5 Y3.
1 2 3 4 5 2

1 + + + - + - - -200 2 N2 5 5 2.90
2 + + - + - - + -200 2 O2 2 5 6.50
3 + - + - - + + -200 0 N2 2 10 3.30
4 - + - - + + + -400 2 N2 5 10 5.80
5 + - - + + + - -200 0 O2 5 10 7.80
6 - - + + + - + -400 0 O2 5 5 15.40
7 - + + + - + - -400 2 O2 2 10 14.90
8 - - - - - - - -400 0 N2 2 5 7.00

Con los datos obtenidos se calcula el efecto  para cada una de las variables para consumo de NaHS, Y3

X1 X2 F1 X3 X4 X5 F2
 5.65 -0.85 2.35 6.40 0.05 0.00 -0.40

SS Error  (2.35) 2  ( 0.40) 2  5.68

5.68
MS Error   2.84
2

Con todos esos cálculos que se construye la Tabla del análisis de la varianza.

Tabla 8.23: Análisis de la Varianza para el ejemplo de flotación de Molibdeno.


Fuente SS g.l. MS Fo
X1 63.85 1 63.85 22.47 Potencial
redox,
X2 1.45 1 1.45 0.51 Carbón
activado
F1 11.05 1 11.05 3.89
X3 81.92 1 81.92 28.83 Gas
X4 0.00 1 0.00 0.00 Tiempo
acondic
X5 0.00 1 0.00 0.00 Tiempo flotac.
F2 0.32 1 0.32 0.11
Error 5.68 2 2.84
Total 164.26

F(; glT , glE ) = F(0.025; 1, 2) =38.51


Con lo cual se concluye que no hay variable significativa a ese nivel de significación. De todos modos, el
gas que se utiliza, influye en el consumo del NaHS, siendo importante en la reducción de costos del
proceso.

118
8.8.1.4. Conclusiones
De las tres evaluaciones se concluye que el potencial redox tiene importante influencia en el proceso, y
que a valores más negativos (-400 mV) es beneficiosa para la eficiencia de separación, así como para la
eficiencia de concentración del molibdeno, influyendo también en el consumo del NaHS.
También se concluye que el uso del nitrógeno es beneficioso porque reduce el consumo de NaHS.

8.8. Operaciones Evolutivas (EVOP) con diseños Factoriales.


Casi nunca es cierto que los procesos industriales sean operados en las mejores condiciones. A menudo
el trabajo a escala reducida en el que se basa el diseño de muchos procesos, sólo proporciona una burda
aproximación a las condiciones óptimas a utilizar en la producción industrial. La operación evolutiva
(EVOP, Evolutionary Operation), es una forma continua de operar un proceso productivo de forma que
además de producir, genere información sobre como mejorarlo a base de ejecutar diseños factoriales
durante la producción. Para evitar cambios apreciables en las características del producto se efectúan
pequeños cambios en los niveles de las variables de proceso. Para determinar los efectos de estos
cambios, será pues necesario repetir varias veces los experimentos elementales y promediar los
resultados.
El método EVOP esta ideado para ser llevado a cabo por los operadores del proceso en la planta,
mientras se continúa manufacturando producto satisfactorio. Por lo tanto, las circunstancias son muy
diferentes a las laboratorio o planta piloto, donde:
- Hay que dedicar dinero y tiempo para investigar;
- Se puede variar muchos factores simultáneamente en experimentos cuidadosamente llevados a cabo
por técnicos especializados.
- La producción de material invendible no es problema.
En esta situación es aconsejable en general estudiar el máximo número de factores en cada diseño
manteniendo la relación (factores estudiados)/(experimentos elementales realizados) tan alta como sea
posible. Si en cierta fase de la investigación hay que realizar 16 experimentos elementales, en general es
4
mejor utilizarlos para estudiar cuatro variables en un diseño factorial 2 ó mejor aún, estudiar 5 factores en
5 3
media fracción de un factorial 2 , que estudiar 3 factores en un diseño 2 duplicado.
Como contraste, considerese la situación en las que se utilizan la operación evolutiva. En ellas:
a. Como la relación señal/ruido se debe mantener baja, se necesita generalmente un gran número de
experimentos elementales para detectar los efectos de los cambios.
b. Esos experimentos elementales no son mas que operaciones necesarias para la fabricación, que se
hubiesen hecho de cualquier modo y no representan un aumento de coste apreciable.
c. En la línea de producción, las cosas se deben mantener muy simples y normalmente sólo es factible
variar dos o tres factores en fase de investigación.
2 3
En estas circunstancias, es razonable utilizar diseños factoriales 2 ó 2 replicados, a menudo añadiendo
un punto central.
A medida que se va disponiendo de los resultados, se van actualizando continuamente las medidas y los
efectos estimados y se presentan en un tablón informativo, que puede ser una pizarra corriente.
En un estudio reportado en la literatura, se plantea como objetivo disminuir el coste por tonelada de
cierto producto de una planta petroquímica. En una fase de la investigación dos variables consideradas
importantes son:
1. La taza de reflujo de una columna de destilación;
2. La relación de flujo de reciclado.

Se esperaba que los cambios de la magnitud planeada introducirían efectos transitorios que
desaparecerían en 6 horas. Se dejaron 18 horas más de operación en condiciones estacionarias para hacer
las mediciones necesarias.
2
La respuesta que se evalúa es el costo medio por tonelada. El diseño empleado fue un factorial de 2
con un punto central. Los resultados al final de la Fase I se muestran en la Tabla 8.24 y son medidas
obtenidas luego de 5 repeticiones
.

119
Tabla 8.24: Experimentación EVOP de una planta petroquímica. Fase I
Relación Flujo Costo por tonelada
Reflujo Reciclado.
6.7 7.5 92
6.7 8.0 86
7.1 7.5 95
7.1 8.0 91
6.9 7.75 92

Relación Flujo Reciclado. Interacción


Reflujo
Efectos y
errores tipo 4.0 1.5 5.0 1.5 1.0 1.5

En este momento se consideró que había suficientes pruebas para justificar un cambio a menor relación
de flujo y mayor reciclado. La fase II se abordo con cinco ciclos más, que confirma que se consiguen costos
más bajos, como se observa en la Tabla 8.25.

Tabla 8.25: Experimentación EVOP de una planta petroquímica. Fase II


Relación Flujo Costo por tonelada
Reflujo Reciclado.
5.9 8.0 83
5.9 8.5 80
6.7 8.0 84
6.7 8.5 81
6.3 8.25 82

Relación Flujo Reciclado. Interacción


Reflujo
Efectos y
errores tipo 1.0 1.0 3.0 1.0 0.0 1.0

Con los cambios realizados se ensayaron con valores aún más altos para reciclado, lo cual motivó la
fase III, Tabla 8.26; esta fase concluyó después de 4 ciclos y condujo a la conclusión de que el costo más
bajo se obtiene con un valor de reflujo cercano a 6.3 y un reciclado de alrededor de 8.5, con un costo por
tonelada de 80 libras.

Tabla 8.26: Experimentación EVOP de una planta petroquímica. Fase III


Relación Flujo Costo por tonelada
Reflujo Reciclado.
5.9 8.25 84
5.9 8.75 86
6.7 8.25 83
6.7 8.75 85
6.3 8.5 80

Relación Flujo Reciclado. Interacción


Reflujo
Efectos y
errores tipo -1.0 1.5 2.0 1.5 0.0 1.5

120
CAPITULO IX

METODOS Y DISEÑOS DE SUPERFICIES DE RESPUESTAS

9.1. Introducción
La metodología de superficies de respuesta, MSR, (ó RSM, Response Surface Methodology), es un
conjunto de técnicas matemáticas y estadísticas, útiles para modelar y analizar problemas en los cuales una
respuesta de interés es influida por varias variables, y el objetivo es optimizar la respuesta. Por ejemplo, un
ingeniero desea determinar los niveles de temperatura, (X1) y presión (X2) que maximicen el rendimiento
(Y) de un proceso. El rendimiento del proceso es función de los niveles de temperatura y presión, o sea;
Y = f(X1, X2) + 
donde  representa el error experimental observado en la respuesta Y. Si la respuesta esperada se denota
por E(Y) = f(X1, X2) =  , entonces la superficie representado por:
 = f(X1, X2)
se denomina superficie de respuesta.
Rendimiento Esperado, E(Y) =

Condiciones
actuales de
operación
de
icas
Graf rnos
o
cont
50
60
70 40
Te
m
pe
ra X 2
tu
ra si,
o
C, n,p
sió
Pre
X
1

Figura 9.1: Gráfica de contornos con una superficie tridimensional

Es posible representar gráficamente la superficie de respuestas como se muestra en la Figura 9.1,


donde  se gráfica contra los niveles X1,y X2. Obsérvese que la respuesta se representa como una
superficie sólida en un espacio tridimensional. Para visualizar mejor la forma de una superficie de respuesta,
a menudo se gráfica los contornos de dicha superficie, como se muestra en la Figura 9.1 En esta gráfica de
contornos se trazan líneas de respuesta constante en el plano X1, X2. Cada contorno corresponde a una
altura específica de la superficie de respuesta. Tal gráfica es útil para estudiar los niveles de X1,y X2 que
dan por resultado cambios en la forma o altura de la superficie de respuesta.
En la mayoría de problemas de MSR, la forma de la relación entre la respuesta y las variables
independientes se desconoce. Por ello, el primer paso en la MSR consiste en determinar una aproximación
apropiada a la relación funcional real entre Y y el conjunto de variables independientes. Por lo general, se
emplea un polinomio de orden bajo sobre alguna región de las variables independientes. Si la respuesta es
descrita adecuadamente por una función lineal entre las variables independientes, la función de
aproximación es el modelo de primer orden:

Y =  o +  1 X1 +  2 X2 + ... +  k Xk + 

Debe usarse un polinomio de mayor grado, por ejemplo el modelo de segundo orden,

k k
Y   o    i X i    ii X i2     ij X i X j  
i 1 i 1 i i

121
cuando existe curvatura en el sistema. Casi todos los problemas de MSR utilizan uno o ambos polinomios
de aproximación. Por supuesto, es imposible que un modelo polinomial sea una aproximación razonable de
la relación funcional real sobre todo el dominio de las variables independientes. Sin embargo, funcionan
muy bien en regiones relativamente pequeñas de las variables independientes.
La MSR es una técnica secuencial. A menudo, cuando se considera un punto sobre la superficie de
respuesta alejado del óptimo, como las condiciones de operación actuales de la Figura 9.1, el polinomio de
primer grado es apropiado porque existe poca curvatura en el sistema. En este caso, el objetivo consiste en
guiar al experimentador rápida y eficientemente a la cercanía general del punto óptimo. Una vez que se ha
determinado la región del punto óptimo, puede emplearse un modelo más elaborado, como por ejemplo el
de superficie de respuesta de segundo grado, y realizar un análisis para localizar el óptimo. A partir de la
Figura 9.1, se observa que el análisis de la superficie de respuesta puede interpretarse como el "ascenso a
la loma", donde la cima representa el punto de la respuesta máxima. Si el óptimo real es un punto de
respuesta mínima, se puede pensar en el "descenso hacia un valle"

9.2. Método de máxima pendiente en ascenso.


Con frecuencia, la estimación inicial de las condiciones de operación óptimas para un sistema estará
alejada del óptimo real. En tales circunstancias, el objetivo del experimento es moverse rápidamente a la
vecindad general del óptimo. Se desea usar un procedimiento experimental simple y económicamente
eficiente. En la lejanía de un óptimo, generalmente se supone que el modelo de primer orden es una
aproximación adecuada a la superficie real en regiones pequeñas de la X.
El método de máxima pendiente con ascenso es un procedimiento para recorrer secuencialmente a lo
largo de la trayectoria de la máxima pendiente; en otras palabras, en la dirección del máximo i ncremento de
la respuesta. Por supuesto, si se desea la minimización, se hablará del método de máxima pendiente en
descenso. El modelo de primer orden ajustado es:

  k 
Y      i Xi
i 1

y la superficie de respuesta, o sea, las curvas de nivel de Y, constan de una serie de rectas paralelas, como
se muestra en la Figura 9.2. La dirección del ascenso máximo es aquella en la que Y aumenta más
rápidamente. Esta dirección es paralela a la normal de la superficie de respuesta ajustada. Por lo general, la
trayectoria de máxima pendiente en ascenso se toma como la recta que atraviesa el centro de la región de
interés y es normal a la superficie ajustada. Por lo tanto, los incrementos a lo largo de

X2

Región de la supercicie Trayectoria de máxima


de respuesta de primer pendiente de ascenso
orden ajustada

Y= 50

Y= 40
Y= 30
Y= 20
Y= 10

X1

Figura 9.2: Superficie de respuesta de primer orden y trayectoria de máxima pendiente de ascenso.

la trayectoria son proporcionales a los coeficientes  i. El tamaño del incremento lo determina el


experimentador con base a su experiencia con el proceso u otras consideraciones prácticas.
Los experimentos se llevan a cabo a lo largo de la trayectoria de máximo ascenso hasta que deje de
observarse un incremento adicional en la respuesta. Entonces puede ajustarse un nuevo modelo de primer
orden, determinar una nueva trayectoria de ascenso máximo y continuar con el procedimiento. Por último, el
122
experimentador llagará a la cercanía del óptimo. Usualmente esto sucede cuando ocurre una falta de ajuste
del modelo de primer orden.

9.2.1 Ejemplo de aplicación.


Una ingeniera química está interesada en determinar las condiciones de operación que maximizan el
rendimiento de una reacción. Dos variables controlables influyen en este rendimiento: el tiempo y la
temperatura de reacción. Actualmente ella opera sobre el proceso con un tiempo de reacción de 35 minutos
y temperatura de 155 oF. Esto produce un rendimiento de cerca de 40 %. Ya que es poco probable que esta
región contenga el óptimo, se ajustará a un modelo de primer orden y se aplicará el método d e ascenso
máximo.
La ingeniera decide que la región de exploración para ajustar el modelo de primer orden debe ser 30 -
40 minutos de reacción y 150 - 160 oF. Se codifican estas variables naturales mediante las siguientes
expresiones:

Z1  35 Z2  155
X1  ; X2 
5 5

Siendo X1 y X2 las variables codificadas y Z1 y Z2 las variables naturales.


El diseño que se emplea es un diseño factorial 2 2, con cinco réplicas en el punto central

Tabla 9.1: Matriz del diseño factorial con 5 réplicas en el centro y respuestas experimentales.

Prueba Z1 Z2 X1 X2 X 1X 2 Respuesta
# Tiempo, Y
Temper. oF
min
1 30 150 -1 -1 +1 38.3
2 30 160 -1 +1 -1 40.0
3 40 150 +1 -1 -1 40.9
4 40 160 +1 +1 +1 41.5
5 35 155 0 0 40.3
5 35 155 0 0 40.5
5 35 155 0 0 40.7
5 35 155 0 0 40.2
5 35 155 0 0 40.6
Promedio general (exceptúa los puntos en el centro) = 40.425

X1 X2 X 1X 2
Promedi
o
(-) 38.65 40.1 40.45
(+) 41.2 40.75 40.40
Efecto  1.55 0.65 -0.05

Tabla 9.2: Análisis de la Varianza para el ejemplo.


Fuente SS g.l. MS Fo
X1 2.4025 1 2.4025 55.87
X2 0.4225 1 0.4225 8.83
X 1X 2 0.0025 1 0.0025 0.058
Curvatura 0.00272 1 0.00272 0.063
Error 0.172 4 0.043
Total 3.00222 8

123
F(; glT , glE ) = F(0.05; 1, 4) = 7.71

El modelo matemático queda definido:

 155
. 0.65
Y  40.425  X1  X2
2 2

Y  40.425  0.775 X 1  0.325 X 2

Habría que desplazarse 0.775 unidades en la dirección de X 1 por cada 0.325 unidades en la dirección
X2, para alejarse del centro del diseño, (el punto X1 = 0, X2 = 0) a lo largo de la trayectoria de máximo
ascenso. Por lo tanto, dicha trayectoria de máximo ascenso pasa por el punto ( X 1 = 0, X2 = 0) y tiene
una pendiente igual a 0.325/0.775.
A continuación se asigna un incremento, i, a una de las variables; por supuesto depende del criterio
del investigador, pero se acostumbra a hacer los incremento a la variable de mayor  en el modelo
matemático obtenido. La ingeniera decide usar 5 minutos como tamaño de incremento básico del tiempo de
reacción. Se calcula los incrementos de las demás variables en función de la ya fijada, en forma
proporcional de la siguiente forma:
 X1  X 2  X k
  ... 
 1 Z1  2  Z2  k  Zk

donde:

 X i
 Incrementos naturales para la variable X i
ZiMAX  ZiMIN
 Zi   radio del diseno
2
 i = parámetro en el modelo matemático.
Habiéndose definido como incremento de tiempo, X1,de 5 minutos, el incremento de temperatura, X2,
se calcula:
5  X
 2

 40  30   160  150 
(0.775)  (0.325)  
 2   2 

 X 2
 2.097
Un criterio adicional para definir los incrementos de las variable en el proceso de ascenso se establece
con el uso de la siguiente expresión:
A i A 1 A2
xi  1 o x1  1 x2  1
 k 2 2
 k 2 2
 k 2 2

 j   j   j 


 j 1   j 1   j 1 
donde:
xi = valor codificado del incremento de la variable i.
A = número de experimento a realizar. Por ejemplo, para el primer incremento de (x1) y,
(x2), A vale 1. Para el segundo incremento, A vale 2 y así sucesivamente.
 j = Coeficiente de regresión para las variables del modelo (excluye las interacciones).

Considerando que los incrementos se inician desde el punto central, se elabora la Tabla 9.3 con las
respuestas de experimentación respectiva.

124
Tabla 9.3: Experimento de máximo ascenso para el ejemplo.
Variables naturales Variables Respuesta
Zi codificadas ,
Xi Y
Z1 Z2 X1 X2
Origen 35 155 0 0
 5 2.097 1.00 0.4194
Origen +  40 157.097 1.00 0.4194 41.00
Origen + 2 45 158.194 2.00 0.8338 41.9
Origen + 3 50 161.291 3.00 1.2573 43.1
. . . . .
. . . . .
. . . . .
Origen +9 80 173.873 8.00 3.7746 77.6
Origen + 10 85 175.97 9.00 4.1940 80.3
Origen + 11 90 178.067 11.00 4.6134 78.2
Origen + 12 95 180.164 12.00 5.0328 75.1

La ingeniera calcula los puntos a lo largo de la trayectoria de ascenso, según se muestran en la Tabla
9.3 y observa el rendimiento en cada punto, hasta notar un decremento en la respuesta. Se observa un
incremento en la respuesta hasta el décimo incremento; sin embargo a partir del undécimo se produce un
decremento en el rendimiento. Por lo tanto, se debe ajustar otro modelo de primer orden en la cercanía
general del punto Z1 = 85 min., Z2 =175 oF.
Se ajusta un nuevo modelo de primer orden alrededor del punto Z1 = 85 min., Z2 =175 oF. La región de
exploración para Z1 es 80 -90 min. y para Z2 es 170 - 180 o F. Se utiliza un diseño 2 2, centrado en cinco
punto. Los datos se expresan en la Tabla

Tabla 9.4: Matriz del diseño factorial con 5 réplicas en el centro y respuestas experimentales para el
segundo modelo de primer orden.
Prueba Z1 Z2 X1 X2 X 1X 2 Respuesta
# Tiempo, Y
Temper. oF
min
1 80 170 -1 -1 +1 76.5
2 80 180 -1 +1 -1 77.0
3 90 170 +1 -1 -1 78.0
4 90 180 +1 +1 +1 78.5
5 85 175 0 0 78.9
5 85 175 0 0 80.3
5 85 175 0 0 80.0
/5 85 175 0 0 78.7
5 85 175 0 0 78.8
Promedio general (exceptúa los puntos en el centro) = 77.75
o
Promedio para pruebas en el centro Y = 78.94

X1 X2 X 1X 2
Promedi
o
(-) 76.75 77.25 77.5
(+) 78.75 78.25 78.0
Efecto  2.00 1.00 0.50

125
Tabla 9.5: Análisis de la Varianza para el ejemplo.
Fuente SS g.l. MS Fo
X1 4.00 1 4.00
75.47
X2 1.00 1 1.00 18.86
X 1X 2 0.25 1 0.25 4.72
Curvatura 9.658 1 9.658 201.09
Error 0.212 4 0.053
Total 16.120 8

F(; glT , glE ) = F(0.05; 1, 4) = 7.71

El modelo matemático queda definido:


 2.00 100
.
Y  77.75  X1  X2
2 2

Y  77.75  10
. X 1  0.5 X 2

La curvatura que presenta este modelo matemático indica que este no es una aproximación adecuada;
además que indica la proximidad del punto óptimo. En este momento debe hacerse un análisis adicional
para localizar el óptimo con mayor precisión.

9.3. Diseños para ajustar modelos de segundo orden: el diseño factorial 3 k y diseño central compuesto
Los diseños de primer orden no conducen a determinar superficies que describan un máximo o un
mínimo. Por esta razón se requiere por lo menos de un modelo de segundo orden. El diseño factorial 2 k no
puede ser utilizado para estimar los coeficientes en un modelo de segundo orden tal como:
k k
Y   o    i X i    ii X i2    ij Xi X j  
i 1 i 1 i  j

Esto porque se necesita por lo menos tres diferentes niveles para cada factor para estimar una función de
segundo orden. Se puede utilizar un diseño factorial 3k, donde cada factor se dispone a tres niveles: (+), (0),
y (-). Para k = 2 se diseña la matriz codificada según se muestra en la Tabla 9.6.

Tabla 9.6: Matriz codificada para un diseño factorial 3 2.


N X1 X2
1 -1 -1
2 0 -1
3 +1 -1
4 -1 0
5 0 0
6 +1 0
7 -1 +1
8 0 +1
9 +1 +1

Un problema con los diseños factoriales 3 k es que el número de pruebas se incrementa rápidamente
con k. Otros diseños, tales como el diseño compuesto central (dcc) han sido desarrollados para simplificar el
número de pruebas. En estos se inicia el trabajo con un diseño factorial 2 k y se adicionan 2k puntos
axiales, de la siguiente forma:
(  w, 0,..., 0),(0,  w, 0,..., 0),...,(0,...,  w)
126
Tabla 9.7:Diseño compuesto central k = 2 Tabla 9.8: Diseño compuesto central k = 3

N X1 X2 N X1 X2 X3
1 -1 -1 1 -1 -1 -1
2 +1 -1 2 +1 -1 -1
3 -1 +1 3 -1 +1 -1
4 +1 +1 4 +1 +1 -1
5 -w 0 5 -1 -1 +1
6 w 0 6 +1 -1 +1
7 0 -w 7 -1 +1 +1
8 0 w 8 +1 +1 +1
9 0 0 9 -w 0 0
: : 10 w 0 0
n 0 0 11 0 -w 0
12 0 w 0
13 0 0 -w
14 0 0 w
15 0 0 0
: : :
. . .
n 0 0 0
X
2

X
1

Figura 9.3: Diseño compuesto central k = 2 Figura 9.4: Diseño compuesto central k = 3
Además, se hacen varias observaciones en el punto central (0, 0, ... ,0), sean estos n1. Esto conduce a un
total de n = 2k + 2k + n1. pruebas, un número que es mucho menor que 3k. Mas aún, si w  1, cada variable
se mide a 5 puntos diferentes, sean ellos, -w, -1, 0, 1, y w; esto permite realizar un mejor estimado de la
curvatura.
El diseño compuesto central para k = 2 factores, se muestra en la Tabla 9.7. El valor de w se
selecciona por el experimentador. Se pueden utilizar diversos criterios para hacer la selección. Por ejemplo
se puede escoger w = 2 . Entonces el diseño es rotable, porque, geométricamente, todos los puntos del
diseño corresponden a un círculo de radio 2 .
El diseño compuesto central para k = 3 factores, se muestra en la Tabla 9.8. Frecuentemente, con k =
3
4
3, w se selecciona como w = 2 = 1.682. Nótese que con un punto central (n1.= 1) este diseño consta de
solo 15 pruebas, mientras que el diseño 3 3 requiere 27 pruebas. Para más de tres variables, la ventaja,
para el diseño compuesto central en términos de número de pruebas, se hace más notoria.

9.3.1 Interpretación del modelo de segundo orden


Un modelo de segundo orden con dos variables, k = 2, se da por:

E (Y )   o   1 X 1   2 X 2   11 X 12   22 X 22   12 X 1 X 2

127
Dependiendo de los valores de los coeficientes, se puede describir diferentes superficies de respuesta. Los
tres más comunes son aquellos con un máximo, un mínimo, ó un punto "silla de caballo". Gráficos de los
contornos de estos tres tipos de superficie se muestran en la Figura 9.5.

X2 X2
X2

90 70
80 80
50
70 90
60 90
70
80 80
90 70
60
50

X1 X1 X1

(a) (b) (c)

Figura 9.5: Gráficos de contornos de modelos de segundo orden : a) mínimo; b) máximo, c) "silla de
caballo".

Alejándose del punto crítico (el punto del óptimo) en cualquier dirección, resulta en una disminución (o
incremento) de la respuesta. Sin embargo, en el caso del punto en "la silla de caballo" el experimentador
puede obtener un incremento o disminución en la respuesta cuando se aleje del punto crítico, dependiendo
de la dirección que tome.
Para determinar el punto crítico, denominado también el punto estacionario, se establece las siguientes
derivadas igual a cero:

 E ( y)
  1  2 11 X 1   12 X 2  0
 X1
 E ( y)
  2  2 22 X 2   12 X 1  0
 X2

Esto conduce a determinar el punto estacionario, según:

 12  2  2  22  1
X 1, 0 
4 11  22   122
 12 1  2 11  2
X 2,0 
4 11  22   122

Para determinar la naturaleza de la superficie en el punto estacionario, se debe investigar la segunda


derivada:
 2 E (Y )  2 E (Y )  2 E (Y )
 2  11 ;   12 ;  2  22
 X12
 X1  X 2  X 22

Si las dos soluciones de la ecuación cuadrática:

2  11   2  22 
    122  0

sean  1 y  2 son ambas negativas, la función tiene un máximo en el punto estacionario (X1,0, X2,0). Si
ambas son positivas, existe un mínimo; sin embargo, si presentan diferentes signos, se trata de una
superficie de "silla de caballo".
Ahora, existen diversos métodos analíticos que se pueden utilizar para investigar la naturaleza de las
superficies de respuesta. Por ejemplo en el caso del la "silla de caballo", esos métodos indican la dirección
128
en la que se debe mover a fin de incrementar la respuesta. En el caso del máximo, esos métodos indican la
dirección en la que la disminución de la respuesta es la más lenta. Esta información es importante, ya que
indica al experimentador la dirección en la cual la respuesta es menos sensible a cambios en los factores de
ingreso. Esos métodos están fuera del objetivo de este curso y tan solo se indicará que con k = 2 factores,
se puede graficar los contornos de la superficie estimada de segundo orden y efectuar evaluaciones
gráficas.

9.4. Ejemplo de aplicación


Se continua con el ejemplo de la ingeniera química que está interesada en determinar las condiciones
de operación que maximizan el rendimiento de una reacción. Las dos variables controlables que influyen en
este rendimiento son el tiempo y la temperatura de reacción. El modelo de primer orden que se obtuvo
anteriormente:

Y  77.75  10
. X 1  0.5 X 2

indicaba que este no respondía adecuadamente a los datos experimentales, por el notorio efecto de
curvatura.

La experimentadora decide aumentar estos datos con suficientes puntos para ajustar un modelo de
segundo orden a través de un diseño compuesto central. Diseña cuatro observaciones:

. ;  X 1  0, X 2   1414
considerando 2  1414 .  y en  X 1   1414
. , X 2  0

El conjunto completo de los datos se muestra en la Tabla 9.9 y el diseño en la Figura 9.6

Tabla 9.9: Diseño compuesto central para el Ejemplo.

N Variables naturales Variables Respuesta


codificadas Y
Z1 Z2 X1 X2
1 80 170 -1 -1 76.5
2 80 180 -1 +1 77.0
3 90 170 +1 -1 78.0
4 90 180 +1 +1 78.5
5 85 175 0 0 78.9
6 85 175 0 0 80.3
7 85 175 0 0 80.0
8 85 175 0 0 78.7
9 85 175 0 0 78.8
10 92.07 175 1.414 0 78.4
11 77.93 175 -1.414 0 75.6
12 85 182.07 0 1.414 78.5
13 85 167.93 0 -1.414 77.0

Un modelo de segundo orden:

E (Y )   o   1 X 1   2 X 2   11 X 12   22 X 22   12 X 1 X 2

se ajusta mediante mínimos cuadrados usando los datos codificados. el resultado es:

Y  79.9408  0.9949 X 1  0.5151 X 2  1377
. X 12  10018
. X 22  0.25 X 1 X 2

129
X2
+2

(0, 1.414)

(-1,1) (1,1)

X1
-2 (-1.414, 0) (0,0) (1.414, 0) +2

(-1,-1) (1,-1)

(0, -1.414)

-2

Figura 9.6: Diseño compuesto central para el ejemplo.

El punto estacionario se da por:

 12  2  2  22  1 (0.25) (0.5151)  2( 1.008) (0.9949)


X 1, 0    0.389
4 11  22   122 (4) ( 1377
. ) ( 1.008)  (0.25) 2

 12 1  211  2 (0.25) (0.9949)  (2) ( 1377


. ) (0.5151)
X 2,0    0.3056
4 11  22   122 (4) ( 1.377) ( 1008
. )  (0.25) 2
En términos de las variables naturales, el punto estacionario, tienen los siguientes valores:
Z  85 Z  85
X1  1 ; 0.399  1  Z1  86.945 min
5 5

Z2  175 Z  175
X2  ; 0.3056  2  Z2  176.53 o F
5 5
Usando la ecuación de segundo orden obtenida con el diseño experimental, y reemplazando los
valores en el punto estacionario, (X2 = 0.389, X2 = 0.3056), se obtiene:

Y 80.213
La forma más simple de caracterizar la superficie de respuesta consiste en construir una gráfica de
contornos del rendimiento en función del tiempo y temperatura. El gráfico tridimensional que se obtenga
permitirá observar las tendencias de la respuesta por cambios en los valores de tiempo y temperatura.
Los valores propios de  1,  2 son las raíces de la ecuación:

2  11   2  22 
    122  0

que se reduce a:

 2 + 4.7576  + 5.4554 = 0

Las raíces de esta ecuación cuadrática son  1 = - 1.415  2 = - 0.964. Siendo ambos valores negativos, el
punto estacionario es un máximo.
De ese modo, a pesar que el experimentador inicio su estudio con un tiempo de reacción de 35 minutos
y temperatura de 155 oF produciendo un rendimiento de cerca de 40 %., una secuencia de experimentos
iterativos le ha conducido a un máximo.

130
9.5. Diseños experimentales para ajustar superficies de respuesta
El ajuste y análisis de superficies de respuestas se facilita en gran medida con la elección apropiada de
un diseño experimental. Cuando se selecciona un diseño de superficie de respuesta, algunas de las
características deseables de un diseño son como sigue:
a) Proporciona una distribución razonable d puntos de datos (y por lo tanto de información) en toda la
región de interés.
b) Permite investigar la idoneidad del modelo, incluyendo la falta de ajuste.
c) Permite la realización de experimentos en bloques.
d) Permite la construcción secuencial de diseños de orden superior.
e) Proporciona una estimación de error interna.
f) No requiere de número grande de corridas.
g) No requiere demasiados niveles de la variables independientes.
h) Asegura la simplicidad de los cálculos de los parámetros del modelo.

Algunas veces estas características son conflictivas, así que debe aplicarse el buen juicio en la
elección del diseño.

9.5.1. Diseños para ajustar el modelo de primer orden


Si se desea ajustar el modelo de primer orden de k variables:
n
Y   o   i X i  
i 1

hay una clase única de diseños que minimizan la varianza de los coeficientes de regresión, estos son los
diseños ortogonales de primer orden. Esta clase de diseños ortogonales de primer orden incluye diseños
k k
factoriales 2 y fraccionales de la serie 2 , en los que los efectos principales no son alias entre sí. Al usar
estos diseños se considera que los k factores se codifican a los niveles estandarizados  1. Como ejemplo,
3
supongamos que se usa el diseño 2 para ajustar el diseño de primer orden:

Y  o  1 X1  2 X 2  3 X 3  

se usa el siguiente diseño:

-1 -1 -1
1 -1 -1
-1 1 -1
1 1 -1
-1 -1 1
1 -1 1
-1 1 1
1 1 1
k
El diseño 2 no permite la estimación del error experimental a menos que se repitan algunos ensayos . Un
método común para incluir la repetición de ensayos consiste en aumentar las repeticiones en el centro. La
adición de puntos centrales no tiene influencia sobre las i para i  1, pero como resultado, la estimación de
 0 es el promedio general de todas las observaciones. Además, agregar puntos centrales no altera las
propiedades del diseño.
Otro diseño ortogonal de primer orden es el simplex. Este se representa por una figura regular con k+1
vértices en k dimensiones. Así, para k=2 el diseño simplex es un triángulo equilátero; mientras que para
k=3 es un tetraedro regular; como se muestra las Figuras 9.7

131
x1
x3

x2
x1

x2

(a) (b)
Figura 9.7: Diseño simplex para : (a) k-2 variables; (b) k=3 variables.

9.5.2. Diseños para ajustar un modelo de segundo orden


Un diseño experimental para ajustar un modelo de segundo orden debe tener por lo menos tres
niveles de cada factor. Existen muchos diseños que podrían emplearse para ajustar un modelo de segundo
orden, así que elegir el modelo apropiado es útil con el objeto de establecer un criterio de diseño apropiado.
Un criterio importante en un diseño de segundo orden es la rotabilidad. Se dice que un diseño experimental
es rotable o girable si la varianza de la respuesta predicha en algún punto de X es función solo de la
distancia al punto desde el centro del diseño y no es una función de dirección. Además, un diseño con esta
propiedad dejará sin cambio la varianza de la respuesta cuando el diseño se haga rotar alrededor del
centro. De aquí el nombre de rotable.
La rotabilidad es una propiedad muy importante en la elección de un diseño de superficie de respuesta.
Dado que la finalidad de la RSM es la optimización y se desconoce la localización del óptimo antes de
correr el experimento, tiene sentido usar un diseño que proporcione estimaciones igualmente precisas en
todas direcciones. Obsérvese que todo diseño ortogonal de primer orden es rotable.
2 k
Un diseño 3 no es rotable, por este motivo, un diseño 3 y sus fracciones no son buenas elecciones
como diseños de superficie de respuesta de segundo orden. Un diseño central compuesto es rotable; y es
probablemente el diseño experimental más utilizado para ajustar superficies de respuesta de segundo
orden.
k
Un diseño central compuesto tiene dos factores de porción factorial que contiene 2 puntos para lograr
la invariabilidad ante el giro. Para el caso en que k= 2 los puntos de porción factorial equivalen a 1.414. Otra
propiedad útil del diseño central compuesto es que puede “crecer” a partir de un diseño factorial de primer
k
orden (el 2 ) agregando puntos axiales y quizá algunos puntos centrales.
Existen otros diseños rotables que ocasionalmente son útiles en problemas con dos o tres variables.
Estos diseños consisten en puntos igualmente espaciados sobre una circunferencia (k=2) o una esfera
(k=3), y son polígonos regulares o poliedros. A menudo estos arreglos se conocen como dise nos
equirradiales , porque los puntos del diseño son equidistantes del origen.
El diseño equirradial con k=2, se obtiene combinando n2  5 puntos igualmente espaciados sobre una
circunferencia con n1  1 puntos en su centro. El pentágono y el hexágono son diseños particularmente
útiles para k=2. Estos diseños se muestran en la Figura 9.8. Para k=3 los únicos arreglos equirradiales que
contienen suficientes puntos para permitir la estimación de todos los parámetros del modelo de segundo
orden son icosaedro (20 puntos) y el dodecaedrro (12 puntos).

x2
x2

x1 x1

Figura 9.8: Diseños equirradiales para dos variables, pentágono y hexágono.

132
La matriz de diseño para un diseño pentagonal y hexagonal se establece como sigue;

Tabla 9.10: Diseño pentagonal k = 2 Tabla 9.11: Diseño hexagonal k = 2

N X1 X2 N X1 X2
1 1.0 0.0 1 1.0 0.0
2 0.309 0.951 2 0.5 0.866
3 -0.809 0.588 3 -0.5 0.866
4 -0.809 -0.588 4 -1.0 0.0
5 0.309 -0.951 5 -0.5 -0.866
6 0.0 0.0 6 0.5 -0.866
7 0.0 0.0
8 0.0 0.0
9 0.0 0.0

133

También podría gustarte