Está en la página 1de 39

Catedrático: Ing.

Bartolo Carlin Beltrán

Alumno: Balfren Bustillo Marrero

Grado: 9A

Reynosa, Tamps. 17 de abril del 2021


Índice
4. Experimentos factoriales completos 2k
4.1 Introducción al diseño factorial 2k
4.2 Ventajas de la experimentación factorial sobre la experimentación de un
Factor a la vez.
4.3 Representación y análisis gráfico.
4.4 Análisis estadístico (ANOVA)
4.5 Estimación puntual, por intervalos, coeficiente de correlación.
5. Regresión y Correlación.
5.1 Introducción al diseño factorial fraccionado 2k-p
5.2 Conceptos básicos de experimentos fraccionados 2k-p
5.3 Análisis de diseño 2k-p.
5.4 Representación grafica análisis de medida.
5.5 (ANDEM) Análisis estadístico.
5.6 (ANOVA)
5.7 Exactitud del modelo (R2)
5.8 Estimación puntual y por intervalos
5.9 Diseños plegados (Fol Over Disegn) y el incremento de la resolución del diseño.
5.10 Economía en la experimentación fraccional.
5.11 Ensamble secuencial en la experimentación fraccional.
5.12 Experimentos Placket-Burman.
5-13 Planeación, diseño y análisis de experimentos fraccionados con bloques.
6. Diseño de experimentos con la metodología de Taguchi
6.1 Filosofía y función de perdida de Taguchi
6.2 Razón señal-Ruido.
6.3 Concepto de robustez y su aplicación a diseño de experimentos.
6.4 Aplicaciones de los conceptos de Taguchi en el diseño y análisis de experimentos
4.0. EXPERIMENTOS FACTORIALES COMPLETOS 2K

4.1 Introducción al diseño factorial 2k


Los diseños factoriales son ampliamente utilizados en experimentos en los que intervienen varios
factores para estudiar el efecto conjunto de éstos sobre una variable de interés. Existen varios casos
especiales del diseño factorial general que resultan importantes porque se usan ampliamente en el
trabajo de investigación, además de constituir la base para otros diseños de gran valor práctico. Uno
de los más importantes de estos casos especiales ocurre cuando se tienen k factores, cada uno con
dos niveles. Estos niveles pueden ser cuantitativos como sería el caso de dos valores de
temperatura, presión o tiempo, pero también pueden ser cualitativos como sería el caso de dos
máquinas, dos operadores, los niveles "superior" e "inferior" de un factor, o quizás, la ausencia o
presencia de un factor. Una réplica completa de tal diseño requiere que se recopilen 2 x 2 x .... x 2 =
2k observaciones y se conoce como diseño general 2 k.

Como se menciona en [1], se podría definir el diseño estadístico de experimentos también


denominado diseño experimental, como una metodología basada en herramientas matemáticas y
estadísticas cuyo objetivo es ayudar al experimentador a: Seleccionar la estrategia experimental
óptima que permita obtener la información buscada con el mínimo costo.  Evaluar los resultados
experimentales obtenidos, garantizando la máxima fiabilidad en las conclusiones que se obtengan. El
diseño experimental es aplicado ampliamente al estudio de los procesos de producción. Un proceso
puede considerarse como una “caja negra” a la cual ingresan diversas variables que interactúan para
producir un resultado. Las variables que ingresan al proceso se denominan variables de entrada, y el
resultado, variable de salida. El nivel de la variable de salida depende de los niveles que adopten las
variables de entrada, y los gerentes y técnicos se benefician al saber qué combinación de variables
de entrada produce el mejor nivel en la variable de salida. La búsqueda de

combinaciones óptimas de las variables de entrada da lugar al diseño experimental, que es una
prueba (o un conjunto de pruebas) durante la cual se realizan cambios sistemáticos y controlados a
las variables de entrada para medir el efecto sobre la variable de salida.
4.2 Ventajas de la experimentación factorial sobre la experimentación de un factor a la vez
Las ventajas de la experimentación factorial descrita, dependen naturalmente de la finalidad del
experimento. Supóngase por ahora que, que el propósito es investigar los efectos de cada factor,
sobre algún intervalo pre asignado que está cubierto por los niveles de ese factor usados en el
experimento. En otras palabras, el objeto es obtener un cuadro amplio de los efectos de los factores,
más bien que encontrar, por ejemplo, la combinación de los niveles de los factores que dan una
respuesta máxima (que era el objetivo principal en el primer, segundo y tercer caso). Un
procedimiento para esto es conducir experimentos separados, cada uno de los cuales considerará
un solo factor (pero ya se ha visto que este método no es nada eficiente). Otro procedimiento es
incluir todos los factores simultáneamente por medio de un experimento factorial. Si todos los
factores son independientes en sus efectos, el método factorial significará un ahorro considerable de
tiempo y material dedicado a los experimentos. El ahorro se deriva de dos hechos: primero, cuando
los factores son independientes todos los efectos simples de un factor son iguales a su efecto
principal, de tal manera que los

efectos principales son las únicas cantidades necesarias para describir completamente las
consecuencias de las variaciones en el factor. Segundo, en un experimento factorial cada efecto se
estima con la misma precisión que si todo el experimento se hubiese dedicado a ese solo factor. Por
lo tanto, si hubiese k factores únicos, todos a dos niveles y todos independientes, el método del
factor único necesitaría k veces el material experimental que requeriría un arreglo factorial de la
misma precisión. La ganancia obtenida de los arreglos factoriales, en este caso es bastante
substancial. Las consideraciones de tipo práctico pueden disminuir esta ganancia. El experimentador
frecuentemente carece de los recursos para conducir un experimento grande con varios tratamientos
y debe trabajar únicamente con uno o dos factores a la vez. Además, ya se ha hecho notar con
anterioridad que, conforme aumenta el número de combinaciones de tratamientos en un
experimento, el error estándar por unidad también aumenta. Por lo tanto, este error es más probable
que sea más alto para un experimento factorial grande, que para un experimento similar con uno o
dos factores como el 2k
4.3 Representación y análisis gráfico
El diseño estadístico de experimentos es precisamente la forma más eficaz de hacer pruebas. El
diseño de experimentos consiste en determinar cuáles pruebas se deben realizar y de qué manera,
para obtener datos que, al ser analizados estadísticamente, proporcionen evidencias objetivas que
permitan responder las interrogantes planteadas, y de esa manera clarificar los aspectos inciertos de
un proceso, resolver un problema o lograr mejoras. Algunos problemas típicos que pueden
resolverse con el diseño y el análisis de experimentos son los siguientes:

1. Comparar a dos o más materiales con el fin de elegir al que mejor cumple

los requerimientos.

2. Comparar varios instrumentos de medición para verificar si trabajan con la

misma precisión y exactitud.

3. Determinar los factores (las x vitales) de un proceso que tienen impacto

sobre una o más características del producto final.

4. Encontrar las condiciones de operación (temperatura, velocidad, humedad,

por ejemplo) donde se reduzcan los defectos o se logre un mejor desempeño

del proceso.

5. Reducir el tiempo de ciclo del proceso.

6. Hacer el proceso insensible o robusto a oscilaciones de variables ambientales.

7. Apoyar el diseño o rediseño de nuevos productos o procesos.

8. Ayudar a conocer y caracterizar nuevos materiales.

En general, cuando se quiere mejorar un proceso existen dos maneras básicas de obtener la
información necesaria para ello: una es observar o monitorear vía herramientas estadísticas, hasta
obtener señales útiles que permitan mejorarlo; se dice que ésta es una estrategia pasiva. La otra
manera consiste en experimentar, es decir, hacer cambios estratégicos y deliberados al proceso
para provocar dichas señales útiles. Al analizar los resultados del experimento se obtienen las
pautas a seguir, que muchas veces se concretan en mejoras sustanciales del proceso. En este
sentido, experimentar es mejor que sentarse a esperar a que el proceso nos indique por sí solo cómo
mejorarlo. El diseño de experimentos (DDE) es un conjunto de técnicas activas, en el sentido de que
no esperan que el proceso mande las señales útiles, sino que éste se “manipula” para que
proporcione la información que se requiere para su mejoría.

El saber diseño de experimentos y otras técnicas estadísticas, en combinación con conocimientos


del proceso, sitúan al responsable del mismo como un observador perceptivo y proactivo que es
capaz de proponer mejoras y de observar algo interesante (oportunidades de mejora) en el proceso y
en los datos donde otra persona no ve nada.

4.4 Análisis estadístico (ANOVA)

Un análisis de varianza (ANOVA) prueba la hipótesis de que las medias de dos o más poblaciones
son iguales. Los ANOVA evalúan la importancia de uno o más factores al comparar las medias de la
variable de respuesta en los diferentes niveles de los factores. La hipótesis nula establece que todas
las medias de la población (medias de los niveles de los factores) son iguales mientras que la
hipótesis alternativa establece que al menos una es diferente.

Para ejecutar un ANOVA, debe tener una variable de respuesta continua y al menos un factor
categórico con dos o más niveles. Los análisis ANOVA requieren datos de poblaciones que sigan
una distribución aproximadamente normal con varianzas iguales entre los niveles de factores. Sin
embargo, los procedimientos de ANOVA funcionan bastante bien incluso cuando se viola el supuesto
de normalidad, a menos que una o más de las distribuciones sean muy asimétricas o si las varianzas
son bastante diferentes. Las transformaciones del conjunto de datos original pueden corregir estas
violaciones.

Por ejemplo, usted diseña un experimento para evaluar la durabilidad de cuatro productos de
alfombra experimentales. Usted coloca una muestra de cada tipo de alfombra en diez hogares y
mide la durabilidad después de 60 días. Debido a que está examinando un factor (tipo de alfombra),
usted utiliza un ANOVA de un solo factor.

Si el valor p es menor que el nivel de significancia, entonces usted concluye que al menos una media
de durabilidad es diferente. Para información más detallada sobre las diferencias entre medias
específicas, utilice un método de comparaciones múltiples como el de Tukey.

El nombre "análisis de varianza" se basa en el enfoque en el cual el procedimiento utiliza las


varianzas para determinar si las medias son diferentes. El procedimiento funciona comparando la
varianza entre las medias de los grupos y la varianza dentro de los grupos como una manera de
determinar si los grupos son todos parte de una población más grande o poblaciones separadas con
características diferentes

4.5 Estimación: puntual, por intervalos, coeficiente de correlación

Puntual: Una estimación puntual de un parámetro poblacional es cuando se utiliza un único valor
para estimar ese parámetro, es decir, se usa un punto en concreto de la muestra para estimar el
valor deseado.

Cuando estimamos un parámetro de forma puntual, podemos saber con certeza, cual es ese valor.
Imaginemos una población de 30 personas de las que seleccionamos una muestra de 20 para las
que conocemos sus edades. Estimar de forma puntual la media de edad, sería tan sencillo como
sumar esos 20 datos y dividirlos entre el total de la muestra estadística.

Pensemos ahora en que queremos estimar la altura media de esa muestra. Al contrario que antes,
no tenemos el valor de la altura de cada persona. En este caso no podríamos realizar una estimación
puntual, es decir, no podríamos hallar un valor concreto de esa altura media. En este caso
tendríamos que realizar una estimación por intervalos, es decir, podríamos acotar el valor más alto y
más bajo de las alturas de las personas con cierta seguridad o lo que en estadística se conoce como
cierto nivel de confianza

Por Intervalos:

La estimación por intervalos consiste en establecer el intervalo de valores donde es más probable se
encuentre el parámetro. La obtención del intervalo se basa en las siguientes consideraciones:

a) Si conocemos la distribución muestral del estimador podemos obtener las probabilidades de


ocurrencia de los estadísticos muestrales.

b) Si conociéramos el valor del parámetro poblacional, podríamos establecer la probabilidad de


que el estimador se halle dentro de los intervalos de la distribución muestral.

c) El problema es que el parámetro poblacional es desconocido, y por ello el intervalo se establece


alrededor del estimador. Si repetimos el muestreo un gran número de veces y definimos un intervalo
alrededor de cada valor del estadístico muestral, el parámetro se sitúa dentro de cada intervalo en un
porcentaje conocido de ocasiones. Este intervalo es denominado "intervalo de confianza".

Ejemplo

Se generan 100000 muestras aleatorias (n=25) de una población que sigue la distribución Normal, y
resulta:
La distribución de las Medias muestrales aproxima al modelo Normal:

En consecuencia, el intervalo dentro del cual se halla el 95% de las Medias muestrales es

(Nota: Los valores +-1.96 que multiplican la Desviación Típica de la distribución muestral son los
valores cuya función de distribución es igual a 0.975 y 0.025 respectivamente y se pueden obtener
en las tablas de la distribución Normal estandarizada o de funciones en aplicaciones informáticas
como Excel). Seguidamente generamos una muestra de la población y obtenemos su Media, que es
igual a 4.5. Si establecemos el intervalo alrededor de la Media muestral, el parámetro poblacional
(5.1) está incluido dentro de sus límites:

Ahora bien, la distancia de un punto A a un punto B es la misma que de B a A. Por esa razón, la
distancia desde m a la Media muestral es la misma que va de la Media muestral a m. En
consecuencia, si hacemos un muestreo con un número grande de muestras observamos que el 95%
de las veces (aproximadamente) el valor de la Media de la población (m) se encuentra dentro del
intervalo definido alrededor de cada uno de los valores de la Media muestral. El porcentaje de veces
que el valor de m se halla dentro de alguno de los intervalos de confianza es del 95%, y es
denominado nivel de confianza.
Si queremos establecer un intervalo de confianza en que el % de veces que m se halle dentro del
intervalo sea igual al 99%, la expresión anterior es:

(Obtenemos el valor +-2.58 que multiplica la Desviación Típica de la distribución muestral en las
tablas de la distribución Normal estandarizada o de funciones en aplicaciones informáticas como
Excel), y son los valores cuya función de probabilidad es igual a 0.995 y 0.005 respectivamente)

Coeficiente de correlación: El coeficiente de correlación r es un valor sin unidades entre -1 y 1.


La significancia estadística se indica con un valor p. Por lo tanto, usualmente las correlaciones se
escriben con dos números clave: r = y p = .

 Cuanto más se aproxima r a cero, más débil es la relación lineal.

 Los valores de r positivos indican una correlación positiva, en la que los valores de ambas
variables tienden a incrementarse juntos.

 Los valores de r negativos indican una correlación negativa, en la que los valores de una
variable tienden a incrementarse mientras que los valores de la otra variable descienden.

 Los valores 1 y -1 representan una correlación "perfecta" positiva y negativa,


respectivamente. Dos variables perfectamente correlacionadas cambian conjuntamente a
una tasa fija. Decimos que tienen una relación linear; cuando representados en un gráfico
de dispersión, todos los puntos correspondientes a los datos pueden conectarse con una
misma línea recta.

 El valor p nos ayuda a determinar si podemos o no concluir de manera significativa que el


coeficiente de correlación de la población es diferente a cero, basándonos en lo que
observamos en la muestra.

5.0. REGRESION Y CORRELACION

5.1 Introducción al diseño factorial fraccionado 2K-p


La notación 2k – l significa una fracción a la mitad del diseño factorial completo 2k, k > 2 con 1 2 2k =
2k – 1. No tiene sentido fraccionar el diseño factoria1 22 porque prácticamente desaparece: al tener
sólo cuatro tratamientos, fraccionarlo a la mitad implicaría correr dos tratamientos y con ellos no se
podrían estimar ni siquiera los dos efectos principales. A continuación, se muestra cómo se fracciona
a la mitad un diseño factorial y se ilustra el método para 3, 4 y 5 factores. Diseño factorial
fraccionado 23 – 1 El primer diseño que se puede fraccionar (aunque veremos que no se re
comienda hacerlo) es la factorial completa 23, el cual, escrito en la notación estándar, se muestra en
la tabla 8.2. Si queremos fraccionar a la mitad este diseño, entonces es necesario seleccionar cuatro
de entre los ocho tratamientos. De entrada, sabemos que existen

Tabla Diseño factorial completo 23 y contraste ABC.

(4 8) = 70 posibles grupos de 4 tratamientos, por lo que surge la interrogante sobre cuál o cuáles de
esas 70 posibles fracciones son las más apropiadas. Es adecuada aquella fracción (diseño factorial
fraccionado 23 – 1) que permita estimar los efectos de mayor interés. Recordemos que con el diseño
23 completo se pueden estimar siete efectos: A, B, C, AB, AC, BC y ABC. De acuerdo con su
jerarquía, el efecto menos importante a priori es la interacción triple ABC, así que éste es el efecto
más sacrificable para generar la fracción a la mitad, de manera que se pierda un mínimo de
información. La generación de la fracción se hace con base en los signos del contraste ABC: los
signos “+” del contraste ABC señalan a los tratamientos que conforman la llamada fracción principal,
y los signos “–” indican la fracción complementaria (véase tabla 8.2). Los dos diseños factoriales
fraccionados 23 – 1 así generados, proporcionan la misma calidad de información sobre los efectos
potencialmente importantes. Se puede mostrar que cualquier otra elección de cuatro tratamientos
daría peores resultados. En la tabla 8.3, la fracción 1 es la fracción principal generada por I = +ABC y
la fracción 2 o complementaria se genera con I = –ABC. La letra I surge porque este efecto
generador hace las veces de identidad o neutro multiplicativo, como se muestra más adelante. De
aquí que el efecto no estimable ABC se llama generador de la fracción, puesto que su contraste es la
base para construir las dos fracciones. Obsérvese que en las corridas que forman ambas fracciones
en la tabla 8.3, todos los factores están dos veces en nivel más y dos veces en nivel menos, además
(por ejemplo, los dos primeros tratamientos de la fracción 1) en las corridas en que un factor tiene los
mismos signos, los otros factores tienen un signo más y uno menos. Lo anterior se desprende de la
propiedad de ortogonalidad. Al correr alguna de las fracciones que se muestran en la tabla 8.3 no se
podrá estimar el efecto ABC, puesto que no tiene contraste; por ejemplo, para la fracción 1, el
contraste ABC tiene sólo signos +, por lo que no existe tal contraste. Debido a que el “contraste
ABC” sólo tiene signos positivos, podemos decir que se confunde o se alía con el total de los datos,
o dicho de otro modo, el efecto ABC se confunde con la media global m. En la figura 8.1 se muestra
la representación geométrica de las dos fracciones del diseño 23, nótese que cada fracción tiende a
cubrir toda la región experimental delimitada por el cubo.

5.2. Conceptos básicos de Experimentos fraccionados 2K-p

En un diseño factorial, es necesario medir la variable respuesta para dos o más valores de cada
factor. ... En un diseño factorial fraccionado 2k-p = n, se denomina k al número de variables del
experimento, p al grado de fraccionamiento y n al número de observaciones de un experimento.
5.3. Análisis del diseño 2K-p
Las fracciones 2k-1 exigen realizar la mitad de pruebas de las que exigiría el plan completo. Para
valores elevados de K este nivel de reducción puede ser insuficiente, y se precisarán diseños en los
que el número de pruebas sea inferior (por ejemplo, analizar los efectos de 8 factores realizando sólo
16 pruebas, que serían la dieciseisava parte del diseño completo). En general se denominan 2K-P a
las fracciones que permiten estudiar K factores realizando 2K-P pruebas. ¿Autoevaluación:) Cómo
se denominará la fracción que permite estudiar 7 factores en 8 pruebas? ) Y la que permite estudiar
8 factores en 32 pruebas? Por tanto, las fracciones 2K-2 exigen la cuarta parte de pruebas que el
diseño completo, las 2K-3 la octava parte, etcétera... En general una fracción 2K-P se construye a
partir de P generadores, seleccionando del plan completo aquellas pruebas en las que dicho
generadores tienen un signo determinado (por ejemplo, todos ellos signo +). La selección de los
generadores debe realizarse evitando que se confundan entre sí efectos potencialmente importantes.
Autoevaluación: Se desea construir una fracción para estudiar 5 factores en 8 pruebas.) ¿Sería una
buena solución utilizar como generadores las interacciones ABCDE y ABCD? (Escribir las pruebas
resultantes y comprobar lo que pasa con el efecto E) Regla importante : si dos efectos son
generadores (es decir tienen signo constante en todas las pruebas de la fracción) el efecto resultante
de multiplicar las letras de ambos y tachar los cuadrados también es un generador Como regla
general la selección de los efectos debe realizarse intentando que el orden de los mismos (o sea el
número de letras que es 1 para los efectos simples, 2 para las interacciones dobles,...) sea lo más
elevado posible, teniendo en cuenta también el orden de los efectos inducidos indirectamente y que
resultan como "producto" de los considerados. La forma práctica de proceder para construir una
fracción 2K-P es la siguiente: - Se construye el Plan Factorial completo con los K-P primeros factores
- Se asignan los P factores restantes a columnas correspondientes a interacciones entre los primeros
factores. Estas interacciones se seleccionan intentando que los órdenes de los generadores
resultantes sean lo más elevados posibles. En la siguiente tabla se recogen algunas asignaciones
aconsejables para diseños de 8 y 16 pruebas, con un número de factores comprendido entre 4 y 8
Nota: es posible también construir fracciones factoriales 2K-P utilizando en Statgraphics la opción
Especial ... Experimental Design ... Create Design y marcando la opción Screening

Confusión de efectos en diseños 2K-P

Supongamos que se desea construir una Fracción para estudiar el efecto de 6 Factores (A, B, C, D,
E y F) en 16 pruebas (Fracción 26-2)

1. Se construye un Plan Factorial completo con los 4 Factores A, B, C, D

2. Se asigna el Factor E a la interacción ABC

3. Se asigna el Factor F a la interacción BCD

Por haberse asignado E=ABC  ABCE es un "generador"

Por haberse asignado F=BCD  BCDF es un "generador"

El "producto" de generadores (tachando los cuadrados) es otro generador:

ABCD*BCDF = ABCDEF  ADEF es también un generador

El diseño es de Resolución IV (número de términos del generador más corto es 4)

Los "alias" de cualquier efecto (o sea los efectos con los que está confundido)

se hallan obteniendo su producto con los diferentes generadores y tachando

los cuadrados

Alias del Efecto simple A:


A*ABCE  A

2BCE  BCE

A*BCDF  ABCDF

A*ADEF  A

2DEF  DEF

A estará "confundido" con las interacciones BCD, DEF y ABCDF

Alias de la interacción AB:

AB*ABCE  A2B

2CE  CE

AB*BCDF  AB2CDF  ACDF

AB*ADEF  A2BDEF  BDEF

AB está "confundida" con otra interacción doble (CE) y con dos interacciones de orden superior
ACDF y BDEF

En una planta de fabricación por inyección de piezas de plástico se realizó un experimento para
reducir el número de rugosidades ("mark flows") que aparecían en las piezas. Cada prueba consistió
en fabricar 100 piezas y obtener el número medio de rugosidades (contadas de una forma
normalizada) que aparecían. Se decidió estudiar los 8 factores siguientes, todos ellos a dos niveles,
uno bajo (-) y otro alto (+):

A: Recorrido de inyección B: Temperatura del molde

C: Temperatura del fundido D: Apertura de la boquilla

E: 1ª Velocidad de inyección F: 2ª Velocidad de inyección

G: Punto de cambio (inyec/mantén) H: Fuerza de cierre del molde

El diseño experimental utilizado fue la fracción factorial 28-4 de Resolución IV, que resulta de aplicar
lo aconsejado en la tabla final de 12.4.1. Dicho diseño tiene los 4 generadores iniciales definidos en
dicha tabla, y 11 generadores adicionales indirectos, resultantes de productos entre los iniciales.
Cada efecto está, en consecuencia, confundido con otros11. Puede constatarse que el diseño es de
resolución IV, porque los efectos simples no resultan confundidos con interacciones dobles y pueden
estimarse bien. Las interacciones dobles, por el contrario, están confundidas entre sí en grupos, por
lo que no va a ser posible estimar sus efectos individuales.
5.4. Representación gráfica Análisis de medias

El análisis de medias es una alternativa gráfica del ANOVA que prueba la igualdad de las medias
poblacionales. La gráfica muestra cada una de las medias de los niveles de los factores, la media
general y los límites de decisión. Si un punto se encuentra fuera de los límites de decisión, existe
evidencia de que la media de los niveles del factor representada por ese punto es significativamente
diferente de la media general.

Por ejemplo, usted está investigando de qué manera la configuración de temperatura y aditivo afecta
la clasificación de su producto. Después del experimento, utiliza el análisis de medias para generar la
siguiente gráfica.

La gráfica superior muestra que los efectos de interacción se encuentran claramente dentro de los
límites de decisión, lo que significa que no hay evidencia de interacción. Las dos gráficas de la parte
inferior muestran las medias de los niveles de los dos factores, donde se observa que el efecto
principal es la diferencia entre la media y la línea central. En la gráfica de la parte inferior izquierda,
el punto que representa la tercera media del factor Temperatura se muestra mediante un símbolo
rojo, lo que indica que hay evidencia de que la media de 200 para la Temperatura es
significativamente diferente de la media general cuando α = 0.05. Los efectos principales para los
niveles 1 y 3 del factor Aditivo se encuentran claramente fuera de los límites de decisión de la gráfica
de la parte inferior derecha, lo que significa que existe evidencia de que estas medias son diferentes
de la media general.

5.5. (ANDEM) análisis estadístico


El análisis estadístico es un componente del análisis de datos. En el contexto de la inteligencia de
negocios (BI), el análisis estadístico requiere recoger y escudriñar cada muestra de datos individual
en una serie de artículos desde los cuales se puede extraer las muestras.

El análisis estadístico puede ser dividido en cinco pasos discretos, de la siguiente manera:

Describir la naturaleza de los datos a ser analizados.

Explorar la relación de los datos con la población subyacente.

Crear un modelo para resumir la comprensión de cómo los datos se relacionan con la población
subyacente.

Probar (o refutar) la validez del modelo.

Emplear el análisis predictivo para ejecutar escenarios que ayudarán a orientar las acciones futuras.

El objetivo del análisis estadístico es identificar tendencias. Un negocio de venta al por menor, por
ejemplo, podría utilizar el análisis estadístico para encontrar patrones en los datos no estructurados y
semiestructurados de los clientes que se puedan utilizar para crear una experiencia para la cliente
más positiva y aumentar las ventas.
5.6. (ANOVA)
Un análisis de varianza (ANOVA) prueba la hipótesis de que las medias de dos o más poblaciones
son iguales. Los ANOVA evalúan la importancia de uno o más factores al comparar las medias de la
variable de respuesta en los diferentes niveles de los factores. La hipótesis nula establece que todas
las medias de la población (medias de los niveles de los factores) son iguales mientras que la
hipótesis alternativa establece que al menos una es diferente.

Para ejecutar un ANOVA, debe tener una variable de respuesta continua y al menos un factor
categórico con dos o más niveles. Los análisis ANOVA requieren datos de poblaciones que sigan
una distribución aproximadamente normal con varianzas iguales entre los niveles de factores. Sin
embargo, los procedimientos de ANOVA funcionan bastante bien incluso cuando se viola el supuesto
de normalidad, a menos que una o más de las distribuciones sean muy asimétricas o si las varianzas
son bastante diferentes. Las transformaciones del conjunto de datos original pueden corregir estas
violaciones.

Por ejemplo, usted diseña un experimento para evaluar la durabilidad de cuatro productos de
alfombra experimentales. Usted coloca una muestra de cada tipo de alfombra en diez hogares y
mide la durabilidad después de 60 días. Debido a que está examinando un factor (tipo de alfombra),
usted utiliza un ANOVA de un solo factor.

Si el valor p es menor que el nivel de significancia, entonces usted concluye que al menos una media
de durabilidad es diferente. Para información más detallada sobre las diferencias entre medias
específicas, utilice un método de comparaciones múltiples como el de Tukey.

El nombre "análisis de varianza" se basa en el enfoque en el cual el procedimiento utiliza las


varianzas para determinar si las medias son diferentes. El procedimiento funciona comparando la
varianza entre las medias de los grupos y la varianza dentro de los grupos como una manera de
determinar si los grupos son todos parte de una población más grande o poblaciones separadas con
características diferentes.
5.7. Exactitud del modelo (R2)
El coeficiente determina la calidad de una función o modelo para intentar replicar los resultados dado
que el objetivo principal del R-cuadrado es el de predecir futuros resultados o bien probar una
hipótesis.

Pero para poder entender este concepto antes empecemos por definir qué son los denominados
Modelos de Regresión. Estos modelos estudian la relación entre una variable dependiente objetivo o
de interés y un conjunto de variables explicativas de la misma (o llamadas variables independientes).
Y para eso nos tenemos que adentrar en el mundo de los cálculos que pertenecen al mundo de la
Estadística.

• Por un lado puede existir una variable dependiente o que también es llamada variable de interés
variable respuesta o variable “Y”.

• Por el otro puede existir un conjunto de variables explicativas o independientes que suelen
expresarse como “X1 X2…Xn” siendo “n” la cantidad de variables explicativas o independientes.

Podemos encontrar las siguientes situaciones:

1. Existe una relación funcional entre ellas en el sentido de que el conocimiento de las variables
dependientes determina completamente el valor que toma la variable respuesta. Un ejemplo podría
ser la relación que existe entre el tiempo (Y) que tarda un auto en recorrer una distancia y dicha
distancia (X) a velocidad constante.

2. No existe ninguna relación entre la variable dependiente y las variables explicativas: el


conocimiento de estas últimas no proporciona ninguna información sobre el comportamiento de la
variable dependiente. Cualquier ejemplo de los más disparatados puede ser elegido: la relación entre
la cantidad de alumnos en un aula promedio por país y el precio de la acción de Apple (AAPL).

3. Hay un caso intermedio en el que existe cierta relación entre la variable dependiente y las
variables explicativas en el sentido de que el conocimiento de estas últimas permite predecir con
mayor o menor exactitud el valor de la variable respuesta. Se incorpora en el modelo una variable
aleatoria de media cero al que denominaremos error de observación.

De las tres situaciones anteriores las relaciones intermedias entre las distintas variables son las que
ocurren en la mayoría de los casos.

A modo de ejemplo: ¿cuáles son las variables que explican la inflación? Podemos hablar de la tasa
de emisión monetaria de la expectativa de inflación calculada en base a la proyección del consenso
de las encuestas privadas del uso de la capacidad instalada o de la demanda de dinero entre otras.
Todas ellas contribuyen de alguna manera en la formación del nivel de precios en una economía.

Estos temas se estudian y se cuantifican con los denominados Modelos de Regresión los cuales
estiman una función de regresión determinada y el modelo probabilístico que sigue el error aleatorio
para estimar la función de distribución de la variable de ese error. La función de regresión nos dirá
cuál es la relación funcional de la variable dependiente con las variables independientes que nos
permitirá tener una idea general del comportamiento de la variable dependiente en función del
comportamiento de las variables independientes.

La estimación de ambas funciones se hace a partir del conocimiento de una serie de datos que
sirven de muestra de las variables bajo estudio.

A la diferencia entre el valor observado de la variable y el valor predicho por el modelo (es decir el
error) la llamaremos “residuo”. La media cuadrática de los residuos es la varianza residual:

• Si la varianza residual es cero el modelo explica el 100% de valor de la variable.

• Si la varianza residual coincide con la varianza de la variable dependiente el modelo no explica


nada y el coeficiente de determinación es del 0%.

En el mundo de las finanzas el denominado “R-cuadrado” se aplica básicamente a estudiar cuánto


del rendimiento de una cartera puede ser explicado a través del rendimiento del mercado en general
o un índice de referencia.

Estadísticamente el R² puede tomar valores entre 0 y 1: en el caso de que el rendimiento total de una
cartera coincidiera exactamente con el del mercado en general o de su índice de referencia su R-
cuadrado sería igual a uno. Si el rendimiento total de una cartera no tuviera relación alguna con los
retornos del mercado el R-cuadrado será cero.

Es decir que indica qué tan “buena” es la correlación o la explicación de los movimientos entre los
dos grupos de variables.

El valor del coeficiente de determinación aumenta cuando se incluyen nuevas variables explicativas
o independientes en el modelo. Se incrementa hasta cuando son poco significativas o tienen poca
correlación con la variable dependiente.

5.8. Estimación puntual y por intervalos

Los problemas de diferencia estadística se dividen en estimación y pruebas de hipótesis, aunque en


realidad son dos problemas de decisión y por lo tanto no se pueden manejar con un enfoque
limitado.

La diferencia principal entre las dos clases de problemas es que los problemas de estimación
debemos determinar el valor de un parámetro o los valores de varios parámetros de un continuo
posible de alternativas mientras que en las pruebas de hipótesis debemos de medir si aceptamos o
rechazamos un valor especifico o un conjunto de valores específicos de un parámetro.

La estimación de un parámetro involucra el uso de los datos muéstrales en conjunción con alguna
estadística. Existen dos formas de llevar a cabo la anterior estimación, puntual o por intervalo.

En la primera se busca que con base a los datos muéstrales de origen a una estimulación
evaluada del parámetro y que recibe el nombre de estimador puntual. Para la segunda se determina
un intervalo en la que forma probable se encuentre el valor de parámetro y recibe el nombre de
intervalo de confianza.

ESTIMACIÓN POR INTERVALOS


La estima de un parámetro poblacional dada por un número se llama estima del punto del parámetro.
La estima de un parámetro poblacional dada por dos números entre los cuales se considera que se
encuentra dicho parámetro se llama estima de intervalo del parámetro.

EJEMPLO: Si se dice que una distancia viene dada por 5.28 pies, se está dando una estima de
punto. Si, por otra parte, se dice que la distancia es 5,28 +- 0.03 pies, es decir, la distancia real se
encuentra entre 5.25 y 5.31 pies, se está dando una estima de intervalo,

La precisión o conocimiento del error de una estima se conoce también como su seguridad.

Dos problemas de diferencia estadística se dividen es problemas de estimación y pruebas de


hipótesis, aunque en realidad son dos problemas de decisión y por lo tanto no se pueden manejar
con un enfoque limitado.

La diferencia principal entre las dos clases de problemas es que los problemas de estimación
debemos determinar el valor de un parámetro o los valores de varios parámetros de un continuo
posible de alternativas mientras que en las pruebas de hipótesis debemos de medir si aceptamos o
rechazamos un valor especifico o un conjunto de valores específicos de un parámetro.

La estimación de un parámetro involucra el uso de los datos muéstrales en conjunción con alguna
estadística. Existen dos formas de llevar a cabo la anterior estimulación puntual o intervalo.

En la primera se busca que con base a los datos muéstrales de origen a una estimulación
evaluada del parámetro y que recibe el nombre de estimador puntual. Para la segunda se determina
un intervalo en la que forma probable se encuentre el valor de parámetro y recibe el nombre de
intervalo de confianza.
5.9. Diseños plegados (Fold Over design) y el incremento de la resolución del diseño

El diseño de experimentos (DOE) es una herramienta estadística muy eficaz y potente que puede
ayudar a comprender y mejorar los procesos y diseñar mejores productos.

DOE permite evaluar los efectos principales de un proceso, así como los efectos de interacción (el
efecto del factor A, por ejemplo, puede ser mucho mayor cuando el factor B se establece en un nivel
específico, lo que lleva a una interacción). En ciencia y en negocios, necesitamos realizar
experimentos para identificar los factores que tienen un efecto significativo. El objetivo del DOE es
reducir los costes experimentales, la cantidad de pruebas, tanto como sea posible mientras se
estudian tantos factores como sea posible para identificar los más importantes.

Fraccionamiento de un diseño

Supongamos que se necesitan estudiar los efectos de 6 factores de dos niveles en una respuesta.
Un diseño factorial completo requeriría no menos de 64 ejecuciones. En la práctica, tener seis
variables predictivas es muy común, pero ejecutar 64 pruebas es muy costoso y difícil de justificar.
Es por eso que los diseños factoriales fraccionados se utilizan a menudo para reducir el número de
ejecuciones en DOE de dos niveles. Los diseños factoriales fraccionarios son muy populares, y
hacer una media fracción, un cuarto de fracción o una octava fracción de un diseño factorial
completo puede reducir considerablemente los costes y el tiempo necesarios para un experimento.

Para estudiar 6 factores, se puede utilizar un diseño de 32 ejecuciones (media fracción del diseño
completo), un diseño de 16 ejecuciones (fracción de cuarto) o incluso un diseño de 8 ejecuciones
(octava fracción). En Minitab, se puede acceder rápidamente a la tabla de diseños factoriales que se
muestra a continuación seleccionando Estadísticas> DOE> Factorial> Crear diseño factorial ... y
haciendo clic en "Mostrar diseños disponibles".

Obsérvese que el diseño de 8 ejecuciones para estudiar los efectos de 6 factores de dos niveles está
coloreado de rojo. Esto se debe a que se paga un precio por reducir el número de ejecuciones de 64
a 8: se han generado alias (efectos confusos), por lo que la interpretación de los resultados se vuelve
más difícil y arriesgada. En la tabla, rojo significa que algunos factores se confunden con
interacciones de dos factores:
Diseño de resolución III

En un diseño de 8 carreras con seis factores, por ejemplo, el factor A se confunde con la interacción
BD. Llamamos a esto un diseño de resolución III desde A = BD, lo que significa que tenemos tres
elementos en esta cadena de alias. Un experimentador no puede separar sus efectos confusos: si el
efecto de A o BD es significativo, no puede estar absolutamente seguro de si esto se debe al factor A
o a la interacción BD.
5.10. Economía en la experimentación fraccional Ensamble secuencial en la
experimentación fraccional

ECONOMIA EXPERIMENTAL FRACCIONAL:

Se trata de una metodología joven, puesto que se ha visto frenada por comentarios que afirman que
la Economía no es una ciencia, que el comportamiento humano no puede ser analizado con la
misma objetividad que los átomos y moléculas, puesto que interfieren juicios de valor, concepciones
filosóficas y sesgos ideológicos. Samuelson y Nordhaus (1985) en sus Principios de Economía
afirmaban que una forma de encontrar las leyes económicas podría ser a través de los experimentos
controlados, aunque el problema sería que muchos factores se escaparían al control y, por esa
razón, el economista debía en todo caso contentarse con observar.

El auge y proyección de futuro de la Economía Experimental es patente: - Bernoulli (1738)


experimenta con la paradoja de San Petersburgo. - Thurstone (1931) experimenta con la
determinación de las curvas de indiferencia de los sujetos. - Chamberlin (1948) realiza el primer
experimento de mercado y cuestiona los modelos de la competencia perfecta y monopolística. -
Mosteller y Nogee (1951) construyeron experimentalmente funciones de utilidad. - Flood (1952) testa
experimentalmente el primer juego: el dilema del prisionero

Fuerte arranque en los 60 y 70 con Plott, Smith y Selten y A partir de los 90, las publicaciones este
campo asaltan los journals de alto impacto internacional. y 2002 V. Smith gana el Premio Nobel por
sus contribuciones a la Economía Experimental

Existen 3 ingredientes básicos en un experimento :

1. Entorno: define dotaciones iniciales, preferencias y costes. Dicho entorno se controla utilizando
premios monetarios para inducir la configuración valor/coste deseado.

2. Institución: define los mensajes de comunicación en el mercado (subasta, ofertas...), las reglas
que gobiernan el intercambio de información y las reglas a partir de las cuales se cierran los
contratos.

3. Comportamiento: observado de los sujetos experimentales como función del entorno y de la


institución (que son las variables controladas).
ENSAMBLE SECUENCIAL EN LA EXPERIMENTACION FRACCIONAL:

Experimentar significa variar deliberadamente las condiciones habituales de trabajo para encontrar
mejores maneras de proceder y ganar al mismo tiempo un conocimiento más profundo de nuestros
productos y/o procesos. La principal barrera que se opone a la utilización de estas técnicas en la
industria aparte de la formación inicial del personal- es que requieren una inversión en tiempo,
materias primas, etc. Lo cual provoca que, aun suponiendo que se decida Ilevar adelante la
investigación, el número de experimentos a realizar sea siempre limitado. La consigna es, por tanto,
obtengamos la máxima información con el mínimo de recursos. En la manera de utilizar los recursos
disponibles para la investigación, podemos distinguir claramente tres posible. estrategias:

a) Experimentar sin planificar: Seguramente es la más utilizada. Se usa la intuición para realizar
pruebas, sin excesivo orden y en forma individual (por iniciativas personales), aprovechando
momentos que por las circunstancias averías, relajación en la carga de trabajo, necesidad de
solucionar un problema, etcétera sean propicios. Seguramente esta manera de proceder no puede
ser considerada como una estrategia.

b) Decidir de golpe cómo se va a invertir todo el presupuesto: Consiste en decidir, a la vista de los
recursos disponibles, objetivo de la investigación, etc., el número de experimentos que se pueden
realizar y utilizar las técnicas del diseño de experimentos para planificar la totalidad de experimentos
a realizar.

c) Estrategia secuencial: Se trata de, partiendo de los mismos datos y cuidadoso análisis de la
situación anterior, decidir en qué van a consistir solamente un reducido número de experimentos.
Invertir del orden del 40°I° del presupuesto en una primera decisión es la proporción recomendable.

Entre las tres estrategias, sin ninguna duda, la preferible es la tercera. Esta reserva una parte del
presupuesto para poder aclarar las cuestiones confusas que hayan surgido siempre surgen como
consecuencia del análisis del primer experimento y, además, permite aproximarse paulatinamente a
la zona donde los resultados son óptimos invirtiendo en ella un mayor número de experimentos.
5.11. Experimentos Placket-Burman
Los diseños de Plackett-Burman por lo general son diseños de 2 niveles de resolución III. En un
diseño de resolución III, los efectos principales forman estructura de alias con las interacciones de 2
factores. Por lo tanto, solo debe utilizar estos diseños cuando esté dispuesto a presuponer que las
interacciones de 2 factores son insignificantes.

Utilice los diseños de Plackett-Burman para identificar los factores más importantes a principios de la
fase de experimentación. Minitab genera diseños para un máximo de 47 factores. Cada diseño se
basa en el número de corridas, de 12 a 48, y siempre es un múltiplo de 4. El número de factores
debe ser menor que el número de corridas. Por ejemplo, un diseño con 20 corridas permite estimar
los efectos principales para un máximo de 19 factores.

Por ejemplo, supongamos que usted está examinando los diversos factores que afectan la textura de
los helados: contenido de grasa, temperatura de pasteurización, proceso de homogeneización,
velocidad de mezcla, temperatura de extracción, emulsionante, estabilizador y velocidad de
enfriamiento. Puede usar un experimento de Plackett-Burman para identificar los efectos principales
más importantes, usar diseños factoriales fraccionados o completos para estudiarlos más a fondo y
luego usar diseños de superficie de respuesta para optimizar el proceso.

Después de crear el diseño, realizar el experimento para obtener los datos de respuesta e ingresar
los datos en la hoja de trabajo, puede analizar el diseño
con Estadísticas > DOE > Factorial > Analizar diseño factorial.

Estos son los diseños hasta n = 48, donde n es el número de corridas. En todos los casos excepto n
= 28, el diseño puede ser especificado por una sola columna. La siguiente tabla muestra las
columnas que especifican los diseños. En la tabla siguiente, solo se muestra la primera columna
(escrita como una fila para ahorrar espacio). Esta columna se permuta de manera cíclica para
obtener una matriz (n - 1) x (n - 1). Posteriormente se agrega una última fila con todos los signos
negativos. Para n = 28, el diseño comienza con las primeras 9 filas. Luego estos se dividen en 3
bloques de 9 columnas cada uno. A continuación, los 3 bloques se permutan (siguiendo el orden de
las filas) cíclicamente y se agrega una última columna con todos los signos negativos para obtener el
diseño completo.

Para diseños de 12, 20 y 24 corridas, cada uno de los efectos principales se confunde parcialmente
con más de una interacción de 2 factores.
Cada diseño puede tener hasta k = (n - 1) factores. Si usted especifica una k que es menor que (n -
1), solo se utilizan las primeras k columnas.

NOTA
Los diseños de Plackett-Burman con 8 o 16 corridas no están disponibles en Crear diseño factorial,
porque cada uno tiene un diseño factorial correspondiente de 2 niveles con una resolución igual o
mejor. Para abrir Crear diseño factorial, vaya a Estadísticas > DOE > Factorial > Crear diseño
factorial.

5.12. Planeación, diseño y análisis de experimentos fraccionados con bloques

Todas nuestras actividades asociadas con planear y realizar estudios de investigación tienen
implicaciones estadísticas, es por ello que prácticamente en todos los campos de estudio y
empresariales se llevan a cabo experimentos, por lo general para descubrir algo acerca de un
proceso o sistema en particular.

En ingeniería, la experimentación desempeña un papel importante en el diseño de nuevos productos,


el desarrollo de procesos de manufactura y el mejoramiento de procesos. El objetivo en muchos
casos sería desarrollar un proceso robusto, es decir, un proceso que sea afectado en forma mínima
por fuentes de variabilidad externas [1].

Como ejemplo de un experimento, suponga que un ingeniero químico tiene interés en los resultados
obtenidos por las mediciones de los promedios del metal pesado cadmio por 5 diferentes
laboratorios, los resultados de cada laboratorio presentan cierta variación, esta variación puede
deberse al azar o a que los laboratorios tienen métodos diferentes de análisis que dan resultados
significativamente diferentes. El diseño de experimentos es una técnica estadística que permite
decidir cuál de estas dos conjeturas es la verdadera disminuyendo la probabilidad de cometer un
error.

El "Diseño de Experimentos" es una técnica estadística sistemática cuyo objetivo es realizar un, a
serie de pruebas en las que se inducen cambios deliberados para averiguar si determinados factores
influyen en la variable de interés o de estudio y, si existe influencia de algún factor en el proceso o
producto, cuantificarla.
El diseño de experimentos es altamente efectivo para aquellos procesos, que su rendimiento se ve
afectado por varios factores. Con esta técnica se puede conseguir entre otras cosas, mejorar el
rendimiento de un proceso, reducir la variabilidad o los costos de producción, así como aumentar la
calidad de los productos o servicios [1].

En general los experimentos se usan para estudiar el desempeño de procesos y sistemas. El


proceso o sistema puede representarse como se muestra en la figura 1. El proceso puede por lo
general visualizarse como una combinación de máquinas métodos, personas u otros recursos que
transforman cierta entrada (con frecuencia cierto material) en una salida que tiene una o más
respuestas observables. Algunas variables del proceso x1, x2..., xn son controlables, mientras que
otras z1, z2..., zm son no controlables [2].

Los objetivos del diseño de experimentos podrían comprender los siguientes puntos:

 Determinar cuáles son las variables que tiene mayor influencia sobre la respuesta y.

 Determinar cuál es el ajuste de las x que tiene mayor influencia para que y esté casi siempre
cerca del valor nominal deseado.

 Determinar cuál es el ajuste de las x que tiene mayor influencia para que la variabilidad
de y sea reducida.

 Determinar cuál es el ajuste de las x que tiene mayor influencia para que los efectos de las
variables z1, z2,...,zm sean mínimos.

El diseño experimental es una herramienta de importancia fundamental en el ámbito industrial


(ingeniería) e incluso en las empresas de servicio para mejorar el desempeño de un proceso de
manufactura o servicio. También tiene múltiples aplicaciones en el desarrollo de nuevos productos y
procesos El diseño de experimentos se puede utilizar en las industrias para:
 Mejorar los procesos, ya sea mejorando su eficiencia, su confiabilidad o su rendimiento.

 Asistir en la solución problemas.

 Aprender de los procesos y sus fallos.

 Establecer relaciones de causa-efecto entre las entradas (input) de un proceso y sus salidas
(output).

 Identificar los factores que tiene el mayor impacto y el menor en los procesos y/o productos.

 Lograr una producción de productos que cumplan con las especificaciones que sean a su vez
robustos a ruidos externos.

 Establecer una región (o ventana) del proceso donde unos factores pueden operar,
averiguando la sensibilidad al cambio de algunos factores en la respuesta.

 Fijar especificaciones y tolerancias lógicas para productos y procesos.

 Obtener una ecuación polinómica que modele el comportamiento de la respuesta de un


proceso en una región de variación de los factores.

 Verificar si la solución adoptada apara mejorar un proceso, realmente obtiene los resultados
esperados
6. DISENO DE EXPERIMENTOS CON LA METODOLOGIA DE TAGUCHI

6.1. Filosofía y función de pérdida de Taguchi


La función de perdida de la calidad, comúnmente llamada función de perdida de Taguchi (por su
creador Genichi Taguchi, en la segunda mitad del s.XX), es una herramienta de cálculo usada en
ingeniería para el control de calidad. Esta herramienta sirve para evaluar de forma numérica la
“pérdida de calidad” en un proyecto, producto o servicio, con respecto a su nivel de calidad óptimo.

La idea fundamental de las metodologías creadas por Genichi Taguchi son poder diseñar y fabricar
productos en poco tiempo con alta calidad, evitando tener que usar el método de prueba y error, que
es más caro y lento. Para conseguir estas mejoras, se intentan optimizar los diseños de los
productos y de los procesos de fabricación a través de la ingeniería de calidad y la
estadística.

La función de perdida de la calidad de Taguchi

La función de perdida nos ofrece una forma de calcular la “pérdida de calidad” que sufre un aspecto
analizado con respecto al objetivo de calidad que le hayamos fijado al mismo. Esto significa, que
para una característica fijada en nuestro producto o proceso, la función de pérdida nos dirá cuándo
nos estamos alejando de nuestro objetivo.

La función de perdida es la siguiente:

L = K * (Y – M) ^2

Donde…
L es el resultado de la función, medido generalmente en unidades monetarias.
Y es el valor ideal de la característica analizada (nuestro objetivo a alcanzar para ese parámetro).
M es la media de valores obtenidos de la característica analizada en la situación real.
K es una constante que se encarga de convertir (Y – M) ^2 a unidades monetarias.

Por lo tanto, si para una característica analizada, el valor L es de cero, significará que la calidad
obtenida es la calidad deseada (nuestro objetivo). Si L es mayor que cero, entonces significa que nos
estamos alejando del objetivo.
Por ejemplo, si la característica analizada (tiempo de producción, tiempo de entrega, coste…)
queremos que sea Y=30 unids., pero en la práctica estamos midiendo que de media es M=35 unids.,
y esta desviación (al cuadrado) supone un coste de K=5€/unid. ^2, entonces L=5*(35-30) ^2, o sea
L=125€. Conviene tener en cuenta que al haber una resta al cuadrado el valor de L siempre será
mayor o igual a cero, que Y-M crecerá cuadráticamente y que K debe ser expresado en las unidades
coherentes.

Usar la función de pérdida para el control de la calidad

En el diseño y fabricación de un producto todos los


parámetros de este y de su proceso de fabricación deben estar controlados. Una desviación en estos
parámetros supone una pérdida en la calidad, por ello debemos manejarnos en unos rangos donde
el producto sea válido, es decir, poder fluctuar en rangos de acción donde dentro de los mismos el
producto cumpla las características que se especifican. Para ello, puede ser importante definir cuáles
son los parámetros clave donde se pueden dar con mayor facilidad las pérdidas de calidad, y tener
más controlados estos parámetros clave.

Una vez identificados dichos parámetros, procedemos a determinar su situación, es decir, analizar si
L = K * (Y – M)2 es cero o si es un valor alto, para posteriormente ver qué causa dicha pérdida de
calidad buscando el problema raíz. El siguiente paso es hacer una interpretación de los resultados
obtenidos, de este modo podemos hacer una valoración global de las pérdidas de calidad a nivel
económico e implantar soluciones para minimizar estas pérdidas a medida de lo posible.

6.2. Razón señal-ruido


Realmente, cuando hablamos de productos de audio son muchos los parámetros de los que los
fabricantes nos informan, pero salvo que tengas claro qué es cada uno de ellos de poco servirán
salvo para comprar los valores de un producto con los de otro, y aun así quizá no sepas si para un
determinado producto es mejor una mayor SNR o quizá el producto con una menor relación señal
ruido sea el más adecuado, así que vamos a entrar en materia para poder determinarlo
adecuadamente.

¿Qué es la relación señal-ruido o SNR?

La relación señal-ruido, S/R o del inglés SNR (Signal to Noise Ratio) se define como la proporción
existente entre la potencia de salida de la señal que se transmite y la potencia del ruido que la
corrompe (por lo tanto, hablamos únicamente de dispositivos que emiten sonido y nunca de
dispositivos que lo captan). Este margen se mide, como casi todo lo relacionado con el audio, en
decibelios.
A menudo, muchos fabricantes utilizan el término rango dinámico como sinónimo de la SNR, pero
debéis tener cuidado porque alguno lo emplea como estrategia de marketing para que parezca que
es la SNR cuando en realidad el rango dinámico sirve para indicar la distancia entre el nivel de pico
de salida y el ruido de fondo. Que en las especificaciones técnicas de un dispositivo aparezca la
relación señal-ruido indicada en decibelios, por lo tanto, no significa nada si no va acompañado de
los puntos de referencia utilizados, así como las ponderaciones.

Para indicar correctamente el margen dinámico, la medida de decibelios debe ir acompañada de la


curva de ponderación y el nivel de referencia que han utilizado para medirlo. Por ejemplo, imaginad
un dispositivo que tiene estas características: 60 dB, CIR 468-3 (ref. 1 KHz, 320 nWb/m −1). En este
caso:

 CIR 468-3 es la curva de ponderación.

 1 KHz es la frecuencia utilizada como referencia.

 320 nWb/m−1 es el nivel magnético en el que se ha grabado el nivel de referencia.

Obviamente, si quieres comprar equipos en lo que se refiere a su respuesta en frecuencia, estos


deben haber medido la relación señal-ruido utilizando la misma curva de ponderación y nivel de
referencia, algo que afortunadamente es lo más frecuente en la industria, así que los niveles de SNR
son normalmente comparativos.

El factor de ruido

Cuando hablamos del ruido en un dispositivo de audio no nos referimos al ruido de fondo, ya que
esto obviamente puede cambiar dependiendo de las circunstancias, ubicación, o si hay un señor
tocando el claxon de su vehículo en un semáforo cerca de tu ventana. No, el ruido cuando hablamos
de audio se refiere a la magnitud de ruido generada por el propio dispositivo electrónico, como por
ejemplo el ruido que un amplificador mete en la señal.
Esta magnitud de ruido se puede expresar mediante el denominado factor de ruido (F), que es el
resultado de dividir la relación señal-ruido en la entrada (S/R)ent por la relación señal-ruido de la
salida (S/R)sal, cuando los valores de la señal y el ruido se expresan en valores simples. La fórmula

por lo tanto se expresaría de la siguiente manera:

No obstante, y muy a nuestro pesar, los valores de la relación señal ruido se expresan en decibelios
y por lo tanto hablamos de una fórmula logarítmica. Dado que el factor de ruido también debe ser
expresado en decibelios como magnitud de audio que es, entonces la fórmula quedaría de la
siguiente manera:

El factor de ruido es una magnitud muy importante en los sistemas de transmisión de audio ya que
mientras el ruido externo nunca se podrá eliminar totalmente, la reducción del ruido generado por los
propios equipos de audio depende del cuidado de su diseño, así que dicho de otra manera, cuanto
menor sea el factor de ruido es que el fabricante ha mimado más su diseño, entregando una mejor
calidad.

¿Es mejor una mayor o menor SNR?

Resumiendo lo anterior para que quede más claro, la relación señal-ruido es lo que separa la
potencia emitida de un dispositivo con el ruido que lo afecta, y por lo tanto cuanta mayor sea esta
diferencia, mejor. Así pues, a la hora de escoger una tarjeta de sonido, amplificador u otro dispositivo
emisor de audio, cuando te fijes en sus especificaciones técnicas debes saber que aquel que tenga
mayor SNR proporcionará una mayor potencia de señal, que tenderá menos a verse afectada por el
ruido de la propia señal.

Ahora bien, ¿qué valor de SNR podemos considerar como bueno? Depende de la categoría del
producto, pero cuando hablamos por ejemplo de la tarjeta de sonido integrada en una placa base
normal de PC, un SNR de 90 dB ya es bastante decente. Por supuesto, en soluciones dedicadas
deberemos buscar valores más elevados, a ser posible que pasen de los 100 dB.

Algunos fabricantes también mencionan el factor de ruido en las características técnicas de sus
equipos, y a este respecto lo que deberéis buscar es precisamente lo contrario, un valor que cuanto
más pequeño sea mejor. Lamentablemente, la mayoría de fabricantes de electrónica de consumo no
expresan este valor, que como hemos explicado antes es bastante importante, y solo es frecuente
verlo definido en productos diseñados para el audio profesional.
Precisamente, este es un parámetro que aunque la mayoría de fabricantes conocen no lo publican,
«escondiendo sus vergüenzas» por decirlo de alguna manera si su producto no es bueno. Por este
motivo lo normal es que solo los fabricantes de productos de audio profesional publiquen este valor,
ya que si su producto es efectivamente bueno y de calidad no tendrán nada que esconder. En todo
caso, tampoco te preocupes porque ninguno de los productos de audio a los que les tienes echado el
ojo no especifiquen este factor, ya que para un usuario de a pie tampoco es que vaya a marcar la
diferencia.

6.3. Concepto de robustez y su aplicación a diseño de experimentos

Herramienta creada por Genichi Taguchi, que implica diseñar un producto que sobrepase las
expectativas del cliente en sus características más importantes y ahorrar dinero en las que al cliente
no le interesan. Implica diseñar un proceso de producción capaz de fabricar el producto en todo su
rango de variación normal, dentro de las especificaciones del proceso.

Taguchi establece que es más barato trabajar en el rediseño de los productos y sus procesos de
fabricación, que, en el control de calidad de los mismos, porque las acciones de mejora de calidad
son más económicas, en cuanto más cercanas estén a la etapa de diseño.

En el diseño robusto de un producto se minimiza su posibilidad de errores, buscando que tenga


mínima variación en las características de calidad importantes para el cliente y en consecuencia se
minimiza el costo de calidad.

Estas pérdidas incluyen no solo los costos de calidad de la compañía que inciden en elevar su
precio, sino también los costos ocasionados a cualquier persona que se ve afectada por la calidad
del producto.
6.4. Aplicaciones de los conceptos de Taguchi en el diseño y análisis de experimentos.
Los orígenes del diseño experimental se remontan a las primeras décadas del siglo XX, cuando
Ronald Fisher introdujo el concepto de aleatorización y el análisis de varianza. En estos últimos
años, la teoría y aplicaciones del diseño de experimentos se consolidaron y expandieron y, en varias
industrias, las contribuciones de Gen'ichi Taguchi, abrieron el camino de aplicaciones rutinarias. En
este documento de trabajoi se presentan ejemplos hipotéticos del empleo de estas técnicas en la
industria farmacéutica, tanto en situaciones de diseño como de manufactura y de servicios. El
objetivo es motivar y consolidar el interés de los profesionales por estos temas, así como difundir las
ideas de Taguchi sobre el diseño robusto y la función de pérdida cuadrática. El trabajo está
organizado del siguiente modo. La sección I destaca el papel del diseño experimental en la mejora
de los procesos y la importancia básica del análisis de varianza. La sección II es una revisión del
análisis de varianza que, a través de ejemplos numéricos, procura dar una perspectiva intuitiva de
los conceptos. La sección III introduce los experimentos factoriales, con aplicaciones farmacéuticas
de diseño y de servicio. El enfoque de Taguchi se esboza en la sección IV y se lo compara con los
métodos tradicionales. La sección V brinda breves recomendaciones para el uso de estos métodos.

BIBLIOGRAFIA
https://www.redalyc.org/pdf/849/84921327018.pdf

https://economipedia.com/definiciones/estimacion-puntual.html#:~:text=Una%20estimaci%C3%B3n
%20puntual%20de%20un,certeza%2C%20cual%20es%20ese%20valor.

https://www.jmp.com/es_mx/statistics-knowledge-portal/what-is-correlation/correlation-coefficient.html

https://gc.scalahed.com/recursos/files/r161r/w19537w/analisis_y_diseno_experimentos.pdf

[1] Análisis y diseño de experimentos; Humberto

Gutiérrez Pulido-Román de la Vara Salazar. Editorial

McGraw-Hill

Regresión y diseño de experimentos; Daniel Peña

Sánchez de Rivera. Editorial Alianza.

[2] Diseño de experimentos, principios estadísticos para

el análisis y diseño de investigaciones; R.O Kuehl,

editorial Thompson 2001.

[3] Diseño de experimento métodos y aplicaciones; Luis

Alberto López Pérez, Oscar Orlando Melo Martínez,

Sandra esperanza Melo Martínez. Universidad Nacional

de Colombia, Facultad de ciencias.

https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-statistics/anova/supporting-
topics/basics/understanding-analysis-of-means/

leonardo.zamudio@zayra.com.mx

amempleos@bbbmex.com

https://www.pdcahome.com/funcion-de-perdida-taguchi/#:~:text=La%20funci%C3%B3n%20de%20perdida
%20de,la%20segunda%20mitad%20del%20s.&text=Esta%20herramienta%20sirve%20para%20evaluar,su
%20nivel%20de%20calidad%20%C3%B3ptimo.

También podría gustarte