Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1474567817646TEsisenPDF PDF
1474567817646TEsisenPDF PDF
T E S I S
QUE PRESENTA:
DIRECTOR DE TESIS:
Resumen
Abstract
Introducción…………………………………………………………………………… 1
Conclusiones…………….………………………………….……………………………. 87
Referencias
Índice de gráficas.
Índice de tablas.
Tabla 3.4 Diseño con arreglos int-ext, para robustecer la calidad del maíz………… 67
Tabla 3.4.5 Efectos estimados para porcentaje de humedad (SN objetivo) ……………. 76
Tabla 3.4.6 ANOVA para el análisis de la función…………………………………….. 76
Índice de imágenes.
Índice de cuadros.
factores de control y externamente factores de ruido. Las diferencias entre factores como
temperatura, tiempo, caudal de aire dentro de la secadora se basaron en la variable de
respuesta, característica del producto incluyendo el factor operador y, por otra parte, la
influencia de las condiciones climáticas como; la humedad relativa, humedad ambiente,
humedad de entrada del grano y variedad del grano. La comparación enfocada a la calidad
realizada se interesó entre un silo con tratamiento y otro sin tratamiento y finalmente entre
una temporada y otra con interés sobre ganancia monetaria. Se concluye que el factor
temperatura es el más significativo, seguido del tiempo y el caudal de aire, y en cuanto al
factor operador no existió diferencia significativa en sus medias. Finalmente, hubo mejora
en la calidad del producto (daños por secadora) y aumento en el rendimiento de tonelaje (peso
específico), al obtenerse 150 toneladas por encima del silo sin tratamiento.
ABSTRACT
This paper studied the process of corn drying by means of a Design of Experiments (DOE)
methodology and a main technique of Orthogonal Array (internal/external) was chosen, to
propose a cuantitative method that leads to the most amount and value of kernels, as well as
̅̅̅̅
𝑌̅ 2
service (speed). The functions of signal/noise 10 𝑙𝑜𝑔10 [𝑆 2 ] and (-10 𝑙𝑜𝑔10 (S2)) were chosen,
along with an Analysis of Variance (ANOVA) considering control factors and external noise
factors. The difference between the factors like temperature, time and airflow inside the dryer
were based on the response variable, the characteristic of the product including operating
factor and, on the other hand, the influence of climate conditions like: relative humidity,
environmental humidity, initial kernel humidity and kernel variety. The comparison of the
quality was focused between a treated and an untreated silo and finally between two different
seasons. It was concluded that the factor of temperature was the most significant, followed
by time, airflow and as for the operating factor, there was no significant difference between
the means. Finally, there was an improvement in the quality of the product (damage by
drying) and an increase in the performance of tonnage (specific weight), obtaining 150 tons
more than the untreated silo.
Introducción.
El secado artificial del maíz es una práctica ampliamente difundida, que al mismo tiempo
origina una serie de diversos problemas que afecta en los costos y la calidad del producto. El
secado constituye un cuello de botella para la mayoría de las plantas de acopio, sobre todo
aquellas ubicadas en las regiones en donde la recepción de este producto acepta con niveles
por encima de 15.0% de humedad.
La información de esta tesis parte de los antecedentes e importancia del maíz, donde se
demuestra que ha sido tan importante a escala nacional e internacional, consolidándose como
una de las principales bases alimentarias. Se explica también en forma organizada como es
que esta técnica cumple con la resolución del problema dentro del proceso de secado,
analizando los factores y finalmente aplicando el diseño de experimentos para poder así,
realizar las conclusiones y recomendaciones que se le ofrecen al personal de la empresa
donde se realizaron las pruebas, tomándose de forma segura las decisiones finales.
El fundamento teórico detalla las ventajas y desventajas del secado artificial del grano como
tema principal que afecten en su calidad y desarrollo del mismo, quedando en práctica el
seguimiento de la metodología del diseño de experimento como aplicación en la empresa,
apoyado mediante la utilización del software estadístico Minitab y Statgraphics
principalmente.
1
El procedimiento se realiza de manera que cumpla con todos los pasos e indicaciones
aplicadas actualmente en el sector de almacenamiento y acopio de maíz, las actividades
principales llevadas a práctica que componen todo el proceso de flujo de la gramínea, así
como también se muestra un croquis representativo para facilitar la comprensión del flujo y
recorrido del maíz dentro de la empresa y después ubicar de forma más explícita los factores
que intervienen en el proceso de secado incluyendo el análisis de varianza de respuesta como
objetivo y el cálculo de la normalidad y prueba de hipótesis.
El centro de acopio GRANISSA, presenta una necesidad latente en una de sus operaciones a
realizar, llamado secado artificial de maíz, siendo este un punto crítico de control, ya que si
no cumple con la especificación de calidad que es en el intervalo de 14.0% al 15.5% de
humedad surgen problemas, es decir, que constatando que en los registros anteriores se ha
observado que algunas muestras de humedad del grano después de haber pasado por la
secadora, sé han obtenido valores mayores del 15.5% (ocupa recirculación) y menores de
13.0% (puede sufrir daños) de humedad, que ha implicado gasto extra, reproceso, demora y
disgustos e inconformidad de parte de los clientes.
2
La empresa actualmente presenta estadísticamente una pérdida de producto de 10% una vez
aplicado el secado artificial y se mejorará el nivel de calidad del grano de maíz por encima
del porcentaje actual. El equipo secador de maíz cuenta con controles de operación donde el
flujo y la temperatura se determinan por medio de la experiencia del operador (no por medios
cuantitativos), estos niveles son observados por medio de un display que marca todos los
movimientos realizados en cuanto a los factores de tiempo y temperatura, pero presenta la
desventaja de que no marca automáticamente el porcentaje de pérdida de humedad, por lo
que se procede al muestreo.
¿De qué manera se podría lograr que el proceso de secado artificial de maíz blanco, mejore
la calidad del producto minimizando pérdidas?
Objetivo general.
Objetivos específicos.
Identificar los factores, niveles y variables que intervienen en la calidad del producto
obtenido por el secado.
3
Interpretar los resultados utilizando métodos gráficos considerando todos los datos
observados.
Dentro del estudio a realizar se comprende que el tipo de secadora estacionaria o fija es la
que corresponde para este caso, omitiendo la secadora de flujo continuo y la de columnas, la
experimentación se llevará a cabo en una sola empresa, pero subrayando que este tipo de
secadora la utilizan varias empresas almacenadoras en el estado de Sinaloa. Las variedades
que entran dentro de este estudio son Dekalb 2030, DK 2038 y DK 3000 ya que son las únicas
que maneja la empresa en cuestiones de granos de maíz hasta el momento. Los niveles a
estudiar que se tomaron para cada factor se determinaron en base a la experiencia propia de
los operadores que laboran en planta y el responsable de la misma. Para el caso de la
temperatura se utilizaron el nivel alto y bajo correspondiente a 120 oF – 180oF, para el caso
del tiempo se utilizaron también dos niveles de 15 y 30 minutos, para el tercer factor que fue
el caudal de aire se utilizó un alto y un bajo correspondiente a 1 628 m³/minuto -
3,000 m³/minuto, para el cuarto y último factor controlable se tomó al operador del primer y
segundo turno respectivamente. En cuanto a los factores ambientales como la humedad de
entrada del grano, temperatura ambiente, humedad relativa y variedad se tomaron en cuenta
para un arreglo externo identificados como factores de “ruido” y finalmente se descartaron
las impurezas y el grano quebrado debido a que en un punto anterior existe una etapa de
cribado que funcionó correctamente disminuyendo los niveles de estos últimos.
Una de las limitaciones importantes es la disponibilidad del tiempo, así como la utilización
de recursos como la materia prima y energéticos, ya que se complica detener las actividades
propias de la empresa, por lo que la alta dirección optó por desarrollar esta experimentación
en base a la observación del proceso de secado y muestreo de acuerdo a las tareas rutinarias
de los trabajadores.
4
Capítulo I. La Industria del maíz en Sinaloa y su proceso de industrialización .
El maíz es el único cereal de origen americano que se ha convertido en uno de los cultivos
principales en todo el mundo y el aumento de su consumo como alimento básico se debió a
que rinde más que el trigo, el centeno o la cebada. Gracias a su bajo precio, se convirtió en
el alimento principal y la fuente central de energía y proteínas para la gente. Actualmente,
85% de los países cultivan maíz. (SIAP, 2014).
5
La superficie cosechada de maíz a nivel mundial tuvo una TMAC de 1.4%, lo que significó
un incremento de 138.8 millones de hectáreas en 1998 a 161.0 millones de hectáreas en 2008.
El 71% de la superficie cosechada lo concentraron 12 países, como en el caso del volumen
de producción, Estados Unidos, China y Brasil se mantuvieron en los tres primeros lugares
con 21%, 18% y 9% de la superficie cosechada respectivamente y TMAC de 0.7%, 1.5% y
2.9% respectivamente. Por su parte, México ocupó el 4° lugar en superficie cosechada de
maíz con el 5% del total mundial, pero con una tendencia ligeramente a la baja reflejada en
una TMAC de -0.6%. 6. (Sagarpa-Siap, 2012)
A nivel nacional el grano que más se produce es el maíz, esto debido a que constituye la
principal fuente de energía para la dieta alimenticia de los mexicanos y por otro lado se utiliza
como forraje para el consumo animal. De acuerdo con datos del Sistema Información
Agroalimentaria de Consulta (SIACON) la producción de maíz ha presentado una tendencia
al alza durante los últimos once años, esto en virtud de que en 1998 se produjeron 18, 454,710
toneladas y para el 2008 el volumen de producción fue de 24´410,279 toneladas, lo que
significa una TMAC de 2.6%. (Sagarpa-Siap, 2012)
Por lo que podemos afirmar que a nivel mundial México es uno de los países que figuran en
la producción de Maíz de distinta variedad. El maíz es el cultivo más importante de México.
El maíz blanco en grano se utiliza principalmente para la elaboración de las tradicionales
tortillas y tamales, pero de él también pueden obtenerse aceite e insumos para la fabricación
de barnices, pinturas, cauchos artificiales y jabones. (SIAP, 2014).
6
Producción agrícola en México 2014 (toneladas)
Avena forrajera
2% Otros
20%
Maíz forrajero
3% Fresa (planta)
Noche buena (planta) 39%
3%
Maíz grano
Plantero de
5%
tabaco
(planta)
28%
Gráfica 1.1.2 Elaboración propia con datos tomados del (SIAP, 2014). Producción agrícola
en México 2014. [En línea] http://www.siap.gob.mx/
Maíz grano
Sorgo grano
32.3 30% Chile verde
Tomate rojo (Jitomate)
Trigo grano
8% Papa
5% 5% Frijol
5% 7% 8%
Otros
Gráfica 1.1.3 Elaboración propia con datos obtenidos del (SIAP, 2014). Principales cultivos
en México en base al valor de la producción 2014. [En línea] http://www.siap.gob.mx/
La planta del maíz es de aspecto robusto. Recuerda al de una caña. Tiene un solo tallo de
gran longitud, sin ramificaciones, que puede alcanzar hasta cuatro metros de altura, es decir,
poco más de la altura de dos hombres. Al hacerle un corte presenta una médula esponjosa.
La planta tiene flores tanto masculinas como femeninas. La inflorescencia masculina es un
espigón o penacho amarillo que puede almacenar de veinte a 25 millones de granos de polen.
7
La femenina tiene menos granos de polen, mil como máximo, y se forman en unas estructuras
vegetativas denominadas espádices. (SIAP, 2014).
Imagen 1.1 Planta de maíz. (SIAP, 2014). Imagen 1.1.2 Maíz blanco nacional. (SIAP,
2014). [En línea] http://www.siap.gob.mx/ [En línea] http://www.siap.gob.mx/
El maíz requiere una temperatura cálida, entre 25 y 30ºC, y mucho sol para desarrollarse
bien. Sufre después de los 30ºC o con temperaturas frías menores a 8ºC. Además, necesita
mucha agua, alrededor de cinco milímetros de lluvia o riego diarios, en promedio. El maíz
se adapta muy bien a todo tipo de suelos, especialmente los ligeramente ácidos, profundos,
ricos en materia orgánica, con buen drenaje para no permitir encharcamientos que asfixiarían
las raíces. El maíz se siembra de forma manual, depositando la semilla en los surcos, o con
maquinaria. Se debe enterrar a una profundidad de cinco centímetros cada veinte o 25
centímetros, para que al crecer cuente con suficiente espacio. Entre surco y surco la
separación debe ser de aproximadamente un metro. El suelo necesita haber alcanzado una
temperatura de cuando menos 12ºC para la siembra. Para que la semilla germine, necesita de
15 a 20ºC. (SIAP, 2014).
8
tallos de la planta. La mazorca también se tritura y la cosecha se limpia por un dispositivo de
dos tamices. En la recolección, lo recomendable es que las mazorcas se encuentren bien
secas. (SIAP, 2014)
Tabla 1.1 Elaboración propia, extraída de datos del SIAP, Porcentaje de producción anual
a nivel nacional en el periodo 1998-2014. [En línea] http://www.siap.gob.mx/
Series1 Series2
Gráfica 1.1.4 Elaboración propia con datos extraídos del SIAP, 2014. Comparación entre
la producción de maíz nacional y el estado de Sinaloa en el periodo 1998-2014. [En línea]
http://www.siap.gob.mx/
9
Según la Secretaría de Economía Sinaloa, es el líder nacional en la producción de alimentos,
la cercanía geográfica al mercado de Estados Unidos, así como la experiencia e
instrumentación tecnológica en la industria alimenticia, propician el desarrollo de Sinaloa.
Una llanura ecológica con tierra fértil, abundante luz solar, esteros y 11 ríos entre la Sierra
Madre y el Mar de Cortés, hacen de Sinaloa la plataforma ideal para la producción y
procesamiento de alimentos con extraordinaria calidad. Esto hace factible la instalación de
industrias manufactureras de clase mundial, que combinadas al desarrollo y establecimiento
de empresas en tecnologías de información (TI), software e industria turística diversificada,
resultan ser el binomio para impulsar los negocios en materia logística y de biotecnología.
El Producto Interno Bruto (PIB) del estado ascendió a más de 324 mil millones de pesos en
2013, con lo que aportó 2.1% al PIB nacional. En México se registraron 23,316
investigadores en enero de 2015, de los cuales 1.5% corresponden a Sinaloa. La mayoría de
los investigadores del estado se concentraron en las áreas de Biotecnología y Agropecuaria,
así como en Ciencias Sociales. (SE, 2015)
2,741,315.89 1,476,451.00
2,618,852.00
2014 2013 2012 2011 2010 2009 2008 2007 2006 2005 2004 2003 2002 2001 2000 1999 1998
Gráfica 1.1.5 Elaboración propia extraída con datos del (SIAP, 2014), Producción anual de
maíz (tons.) en el estado de Sinaloa en el periodo 1998-2014. [En línea]
http://www.siap.gob.mx/cierre-de-la-produccion-agricola-por-cultivo/.
10
Desde 1993 Sinaloa se convirtió en uno de los principales estados abastecedores de maíz en
México, al aportar más de 2 millones de toneladas al año. Durante la década de los noventa
su producción promedio fue de 1.78 millones de toneladas, notoriamente superior a las 143
mil toneladas que la entidad aportaba en los ochenta. En el año 2000 Sinaloa ocupó el
segundo lugar en la producción de este alimento, superado sólo por el estado de Jalisco, y
seguido muy de cerca por los estados de Chiapas y México, cuya producción también superó
los dos millones de toneladas. Debido a que Sinaloa presenta los rendimientos más altos a
nivel nacional, la entidad cuenta con una importante ventaja comparativa en la producción
de maíz. Además, es el principal productor de maíz en el ciclo otoño-invierno, lo que le
permite tener mayor acceso al mercado nacional, pues la mayoría de las entidades
productoras obtienen su mayor oferta en el ciclo primavera-verano. No obstante, las fuertes
ventajas en la producción de maíz, Sinaloa presenta serios problemas de comercialización.
Aún en presencia de la Compañía Nacional de Subsistencias Populares (Conasupo) la entidad
tenía problemas para poder comercializar su producción. Durante el ciclo otoño-invierno
1997/1998 la región norte de la entidad sólo tenía capacidad para almacenar 260 mil
toneladas de maíz, en tanto que la producción por cosechar ascendía a 901 mil toneladas.
Tampoco tenía la capacidad de movilizar las cosechas hacia los centros consumidores debido
a que Ferrocarriles Mexicanos fue incapaz de otorgar las 150 unidades diarias que demandaba
el sector en el periodo de cosechas. Esta situación se sigue presentando y es probable que la
desaparición de Conasupo haya agudizado esta problemática. Los problemas de
comercialización no son exclusivos del maíz como producto, ni de Sinaloa como entidad.
Los estados que cuentan con excedentes de granos se enfrentan a problemas de
comercialización similares. Según información de Secofi (2001), en 1994 las importaciones
de maíz fueron de 2.22 millones de toneladas. El crecimiento del consumo, que pasó de 6.69
millones de toneladas en 1995 a 8.26 millones de toneladas en 1996 (SAGARPA, 1998),
determinó que las importaciones rebasaran en más de tres millones la cuota pactada para el
último de los dos años. En 1997 las importaciones descienden, en relación con 1996,
ubicándose en 2.47 millones de toneladas, y para 1998, 1999 y 2000 vuelven a superar los 5
millones de toneladas. Vale la pena mencionar que, no obstante, las importaciones de maíz
superaron la cuota establecida en el TLCAN, no fue sino hasta diciembre de 2000 que el
Gobierno estableció el Impuesto General de Importación para las mercancías originarias de
11
América del Norte. Para el maíz importado proveniente de tales países se estableció un
arancel de 3% al maíz blanco, y de 1% al maíz amarillo(Salazar et al., 2006). Para el año
2001, los cupos de importación autorizados por el gobierno superaron en un amplio margen
la cuota establecida en el TLCAN, al rebasar los cinco millones de toneladas. De acuerdo
con algunas opiniones, las experiencias de 1996, 1998, 1999 y 2000 son un ejemplo de la
posición del gobierno mexicano en la construcción de un dumping técnico a los productores
de maíz, y por el cual se entiende como la acción de inundar el mercado con importaciones
baratas. Por lo general, el dumping lo realiza un país sobre otro, pero en este caso lo realizó
el mismo gobierno de México. (Salazar et al., 2006).A continuación se observan los gráficos
correspondientes a los estados más productivos de grano de maíz del país en los últimos 10
años.
6,000,000.00
5,000,000.00
4,000,000.00
3,000,000.00
2,000,000.00
1,000,000.00
0.00
Jalisco
Jalisco
Jalisco
Michoacán
Michoacán
Michoacán
Sinaloa
Sinaloa
Sinaloa
Chiapas
Chiapas
Chiapas
México
México
México
2008 2007 2006
Gráfica 1.1.6 Elaboración propia con datos tomados del SIAP. Entidades con mayor
producción de maíz (2006-2008). [En línea] http://www.siap.gob.mx/
6,000,000.00
5,000,000.00
4,000,000.00
3,000,000.00
2,000,000.00
1,000,000.00
0.00
Jalisco
Jalisco
Jalisco
Michoacán
Michoacán
Michoacán
Sinaloa
Sinaloa
Sinaloa
Chiapas
Chiapas
Guerrero
Guerrero
México
México
Gráfica 1.1.7 Elaboración propia con datos tomados del SIAP. Entidades con mayor
producción de maíz (2009-2011). [En línea] http://www.siap.gob.mx/
12
4,000,000.00
3,500,000.00
3,000,000.00
2,500,000.00
2,000,000.00
1,500,000.00
1,000,000.00
500,000.00
0.00
Jalisco
Jalisco
Jalisco
Michoacán
Michoacán
Sinaloa
Michoacán
Sinaloa
Sinaloa
Chiapas
Chiapas
Guanajuato
México
México
México
2014 2013 2012
Gráfica 1.1.8 Elaboración propia con datos obtenidos del SIAP. Entidades con mayor
producción de maíz (2012-2014). [En línea] http://www.siap.gob.mx/
Como podemos observar en las gráficas anteriores el estado de Sinaloa ha sido el mayor
productor en el país. Si el consumo nacional real fuera menor al consumo nacional aparente,
una de las regiones más afectadas sería Sinaloa que incrementaría sus inventarios ante la
imposibilidad de poder comercializar sus grandes excesos de producción. Esta situación
restaría competitividad a la producción de maíz del productor sinaloense debido al costo en
que incurriría por almacenar el grano. Debido a la importancia del estado en la producción
nacional de maíz, este trabajo tiene como objetivo principal determinar los efectos que la
imposición de los cupos de importación tiene sobre los niveles de almacenamiento en el
estado de Sinaloa. (Salazar et al., 2006)
13
bajas calorías; Aceites: comestible de uso doméstico y alimentos para bebé; Almidón: para
la elaboración de pan, atole, alimentos infantiles, cerveza, cartón corrugado y papel; Glucosa:
para la fabricación de dulces, caramelos y chicles; Colorante: en los procesos para la
elaboración de refrescos, cerveza, licores, embutidos y panificación; Esta variedad de
productos que actualmente se fabrican a partir del maíz, hasta hace unos pocos años no habían
significado problema alguno para la dinámica de la oferta mundial. Con la entrada de los
biocombustibles a escena desde hace menos de una década, se observa que la oferta mundial,
aunque reacciona a los incrementos de los precios, no lo ha podido hacer a la misma
velocidad a la que se mueve la demanda. Si a lo anterior le sumamos los efectos adversos del
cambio climático en la producción agrícola de los últimos años, podemos explicar una buena
parte de los incrementos en los precios de los productos agrícolas y su impacto en el sector
alimentario mundial. (SE, 2012).
Transporte
Inicio
Fin Encostalado
No
Entrada de Camión cumple
Embarque Muestreo y análisis
con carga
de maíz (NMX)
Cumple No
Muestreo y análisis cumple Carga de maíz Almacenado
de maíz (NMX)
Cumple Transporte en
elevadores
Toma de peso en Se rechaza
bruto Cumple
Determinación de
Descarga de maíz humedad (NMX)
en volcador No cumple
Cuadro 1.1 Elaboración propia. Proceso de flujo del acopio de maíz blanco.
14
El proceso de acopio de maíz blanco se presenta de la siguiente manera.
M A I Z
N° 003810
Observaciones:
Paso 2. En la báscula se registra el peso inicial con el camión cargado, pero antes de eso se
muestrea el camión,
Nombre y firma para efectos de rechazo o aceptación
del responsable. delyproducto.
Nombre Después de que se
firma del transportista.
acepta, se procede a descargar la unidad para que al final se realice el pesaje de tara para
determinar el peso neto.
15
Imagen 1.1.2 Homogeneización de maíz. Imagen 1.1.3 Determinadores de humedad.
El muestreo se define como el método o conjunto de prácticas que tienen por objeto la
obtención de una muestra de un lote o de una remesa del que se desea conocer sus
características de calidad. La porción extraída debe conservar fielmente las condiciones de
donde proviene el material que se evalúa. La muestra puede definirse como una porción, que,
aunque ha sido extraída de una población total, en este caso los granos, conserva
proporcionalmente la misma composición que la del universo de donde proviene. (Maritimo
et al., 2006)
El muestreo deberá ser realizado por una persona honesta, con los conocimientos, capacidad
y experiencia adecuada para desempeñar de manera correcta sus funciones. Deberá contar
con la agudeza suficiente y una capacidad de observación que le permita reconocer
situaciones que solo son detectables al momento de muestreo, como por ejemplo en el caso
de temperaturas anormales y olores objetables. (Maritimo et al., 2006)
Para el caso de maíz en camiones, se utilizará la sonda de once alvéolos separados (1.80
metros de longitud). Deberá considerarse el volumen del lote para poder determinar el
número de inserciones que tendrán que hacerse para la obtención de la muestra
representativa, de esta manera en los camiones con capacidad menor a 25 toneladas deberán
hacerse cinco inserciones (caja normal), en los de 25 a 45 toneladas (caja grande) serán ocho
inserciones. (DICONSA, 2014).
16
2 4
3
3 5
1
Fig 1.1.3. Puntos de muestreo para un camión con carga de 25 toneladas aproximadamente.
2 4 8
3 7
1 5 9
Fig 1.1.4. Elaboración propia. Puntos de muestreo para un camión con carga de 30 a 45
toneladas aproximadamente.
17
6.- Análisis selectivo. (Quebrados, pigmentados y por daños). Por daños: Por calor, insectos,
germen café, hongos y podridos. Otros daños: Inmaduros, germinados, roedor, manchados y
por microorganismos. (DICONSA, 2014)
Una vez analizado el maíz, se descarga el camión por efecto de gravedad, cayendo el maíz
a una fosa protegida por una malla filtradora y posteriormente por una pre-criba para que este
se almacene con el mínimo de impurezas.
Imagen. 1.1.4 Descarga de Maíz en la empresa GRANISSA. Fig. 1.1.5 Etapa precribado.
(Aguirre, 1988)
18
El proceso de secado artificial se realiza cuando la humedad excede de un porcentaje mayor
de 15.5%, entonces, el manejo de la secadora debe ser el óptimo ya que aquí surge un punto
crítico de control, donde el operador registra la humedad de entrada para determinar los
niveles de temperatura y tiempo que va aplicar desde los controles de la máquina.
>| |
19
Al aplicar el descuento de maíz, la empresa se protege, ya que a la hora de secar el grano de
maíz disminuye su peso. Calculando el descuento para humedad 18 para un peso neto de 28
toneladas: Para poder aplicar descuento al maíz, se requiere de que el grano posea una
humedad mayor a 14.0, por cada décima se le aumenta 1.16. Si el grano trae una humedad
del 18 primero restamos 18 menos 14, y observamos que existen cuatro décimas de
diferencia. Entonces, 4 por 1.16 es igual a 4.64 y eso lo dividimos entre 100; por lo tanto el
valor sería 0.0464. El peso neto del camión lo multiplicamos por 0.0464 lo que nos resulta:
(28000 kg) (0.0464) = 1299.2 = 1299 kg deducidos. (DICONSA, 2014)
20
Se debe recordar que todos los granos son materiales higroscópicos, es decir, están
intercambiando humedad en forma permanente con el aire que los rodea. Este intercambio
ocurre hasta que se alcance una condición de equilibrio, la que está definida como: La
humedad en la que a una temperatura dada y, con el aire a una humedad relativa dada, el
grano no toma ni pierde humedad. Es por estas razones que las secadoras, utilizan aire
caliente como agente desecante, ya que se hace vapor y la extrae de los granos húmedos. Con
el aire caliente que producen las secadoras se rompe el equilibrio higroscópico, y esta rotura
produce una migración de la humedad de cada grano (agua interior), hacia las capas
exteriores, migración que es mucho más fuerte cuanto más caliente es el aire, o este
circulando más fuertemente. (de Bahía, 2011)
21
El último paso es el embarque,
normalmente se realiza por vía
ferrocarril y en camiones de carga ya
que GRANISSA es una empresa
trasnacional que trabaja para empresas
como Cargill y Bachoco.
Clasificación.
Especificaciones:
El maíz en sus tres grados de calidad, a que se refiere esta norma y con el objeto de facilitar
su comercialización, debe cumplir con las siguientes características:
Olor. El característico al grano de maíz sano, seco y limpio. No se permite el maíz que
presente olores de humedad, fermentación, rancidez, enmohecido o cualquier otro olor
extraño, esto se determina de acuerdo al método descrito en el inciso 7.1. (Aplicaci et al.,
2002).
Humedad. La clasificación del maíz puede realizarse con diferentes niveles de humedad, sin
embargo se considera que el contenido de humedad que permite el manejo, conservación y
almacenamiento del maíz, es del 14 %. Esto se determina de acuerdo al método descrito en
el inciso 7.3 (Aplicaci et al., 2002)
22
Densidad (peso hectolítrico). Para el caso de maíz blanco en la elaboración de tortillas de
maíz y productos de maíz nixtamalizados de calidad comercial, se considera que el grano
deberá tener una densidad mínima de 74 kg/hl. Esto se determina de acuerdo al método
descrito en el inciso 7.4 de la norma (Aplicaci et al., 2002)
Aflatoxinas. Los granos de maíz destinados a consumo humano, deben cumplir las
tolerancias referentes a aflatoxinas producidas por los hongos Aspergillus flavus, A.
parasiticus y A. nomius determinadas por la Secretaría de Salud. (Aplicaci et al., 2002)
23
Tabla de especificaciones. (Aplicaci et al., 2002).
Tabla de especificaciones.
En base a que en algunas ocasiones se han observado detalles del personal operador de
secadoras para lograr que la humedad del grano permanezca dentro de la especificación
permitida, surge la idea de realizar un análisis más profundo para evitar dichos desperfectos;
Cuando se emplea la secadora se originan algunas pérdidas de grano, como roturas y
producción de polvo, que no suelen ser muy altas, y que, en general, se compensan, como se
24
explicó anteriormente. La pérdida más importante es el sobre secado. Algunos cerealistas
realizan un sobre secado, para tener una mayor seguridad de almacenamiento, o para reducir
los problemas de "revenido" cuando despachan inmediatamente la mercadería a puerto. El
sobre secado puede tener alguna ventaja cuando se vende grano al exterior, pues los
compradores extranjeros obtienen una mercadería más seca, más segura, no están pagando
agua y requieren menos volúmenes de transporte para un mismo tonelaje. La diferencia
favorable para el vendedor se establecerá si los compradores están dispuestos a pagar un
precio extra por ese sobre secado. Pero el sobre secado tiene otro costo extra: el mayor
consumo de energía, que aumenta en mayor proporción cuanto más bajo es el contenido de
humedad final. El sobre secado representa, entonces, mucho dinero que se pierde, no sólo
para cerealistas, sino para la economía del país. (de Dios, 1996)
La palabra “calidad” aplicada al maíz es una propiedad multifacética y está afectada por
diversos factores, algunos de los cuales pueden ser modificados: el cultivar, las prácticas
culturales, el manejo post cosecha y el transporte. Actualmente se observa una tendencia
hacia la producción de maíces con características de calidad diferenciada para satisfacer los
variados aspectos de la demanda. Estas características están directamente asociadas con el
uso final del producto y justifican su comercialización con identidad preservada en
contraposición al grueso de la producción que lo hace como “commodity”. Los progresos en
la utilización del maíz dependerán de la nueva información que se produzca, como resultado
de investigaciones, sobre las interrelaciones de las propiedades físicas, químicas y biológicas
del granos de maíz con el genotipo, el ambiente de cultivo y el manejo pre y post cosecha
(Informe INTA, 2010).
El deterioro biológico de los granos (“grain spoilage”) es una variable que debe ser
controlada, tanto para el secado como en el almacenamiento. Este deterioro es una función
de la respiración de los granos y depende fuertemente de su temperatura y contenido de
humedad, así como del tiempo al que los granos son expuestos a esas condiciones. El
deterioro biológico puede disminuirse secando los granos hasta humedades inferiores a los
valores establecidos como seguros para el almacenamiento y acopiándolos en estructuras
adecuadas a temperaturas razonablemente bajas. Los valores de humedad seguros dependen
25
del tipo de grano, de la duración del almacenamiento y de las condiciones climáticas del lugar
de acopio, siendo para el maíz en México y Argentina es del 14,5% de humedad.
(Fernando, Rodriguez, & Lateral, 2001).
Francia es hoy en día el primer país productor de granos de Europa, y uno de los más
importantes del mundo. Su producción anual se acerca a los 60 000 000 t, de las cuales unas
30 000 000 corresponden al trigo y casi 14 000 000 al maíz. Este crecimiento francés se ha
experimentado en las últimas décadas, y ha sido causa para que se haya adoptado una
tecnología moderna para el manejo post cosecha de los granos. Esto se verifica
principalmente, en las instalaciones de almacenamiento y dentro de ellas, por las eficientes
técnicas de secado. (de Dios, 1996)
El maíz se cosecha en Francia con elevados contenidos de humedad que, en algunos reglones,
puede llegar al 40%. La mayoría de la producción se cosecha entre 30 y 35%. Entonces, el
secado constituye una preocupación fundamental para el acopio, por la alta acumulación de
partidas húmedas en la apoca de recolección, y por los elevados consumos de energía que
26
requiere la operación. Ante tal circunstancia se ha ingeniado para diseñar secadoras de
elevada eficiencia energética, que pueden procesar grandes volúmenes en poco tiempo y que
al mismo tiempo no afectan demasiado la calidad del grano. Gracias a la acción
mancomunada de fabricantes de secadoras, de grandes acopladores y cooperativas, y con el
apoyo de instituciones de investigación, se ha logrado tener hoy en el mercado francés
secadoras modernas que ellos llaman de la "nueva generación y que posiblemente, sean las
mejores a nivel internacional.(FAO, 1993)
Entre los institutos de investigación que han trabajado en estos aspectos debe destacarse al
ITCF (Instituí Technique des Céréales et Fourrages), en su Estación Experimental de
Boigneville. Muchas de las innovaciones que se detallan que tienen su origen en aquella
experiencia francesa, haciéndose referencia en cada oportunidad a la fuente respectiva.(de
Dios, 1996)
27
secadoras durante un período prudencial. Tan perjudicial como una secadora deficiente, lo es
otra buena, manejada por personal incompetente. (FAO, 1993)
Toda secadora nueva debe estar provista de un manual donde estén indicadas las
especificaciones y medidas de la máquina, seguido (o en manual separado) de las
instrucciones para su correcto uso y ajustes. Dos argentinos, Marcelo Valfioriani y Marcelo
Lombardo, combinaron en el diseño Mega que vienen perfeccionando desde hace 12 años,
las virtudes de los sistemas existentes de caballete y de columna para las secadoras de granos.
(El Universo, 2011)
El secado artificial consiste en alterar las propiedades físicas del aire, (aumentar su velocidad
y temperatura y en algunos casos reducir su contenido de humedad) para secar las semillas.
Dependiendo de la forma en que fluyan las semillas en el proceso de secamiento. Se pueden
considerar tres sistemas de secamiento artificial: secamiento estacionario, secamiento
continuo y secamiento intermitente, además se debe de tener en cuenta que el precio de la
secadora representa el 50% de una instalación de secado (Aguirre, 1988).
A continuación se muestra una tabla donde se muestran las imágenes de las secadoras
convencionales más utilizadas en la actualidad.
28
Imagen del tipo de secadora. Características / Funcionamiento
Secadora de Flujo Continuo. Este
tipo de secadora maneja un flujo
constante del grano, la cual consta
de dos etapas, la primera de arriba
hacia abajo, es donde se aplica
aire caliente para evaporar el agua
contenida en el grano, y la
segunda etapa para enfriar el
grano de forma considerable. Se
utilizan principalmente en USA.
[En línea] http://www.graindryers.com/
Secadora estacionaria. Este tipo
de secadora trabaja solo cuando el
espacio donde se almacena
temporalmente el grano para su
secado, está totalmente lleno, el
grano esta pseudo-estacionado
secándose hasta lograr su nivel
óptimo de humedad.
[En línea] http://www.graindryers.com/
29
CAPITULO II. DISEÑO DE EXPERIMENTOS.
Los métodos utilizados para el diseño experimental son complejos. Comprenden el uso del
diseño factorial y de los arreglos ortogonales, que reducen el número de experimentos
requeridos. También son capaces de identificar los efectos de variables que no se pueden
controlar (llamadas ruido), como los cambios en las condiciones ambientales. El uso de estos
métodos produce (a) la rápida identificación de las variables de control (observando los
efectos principales), y (b) la habilidad para determinar el mejor método de control del
proceso. Algunas veces, el control de estas variables requiere equipo nuevo o modificaciones
importantes al equipo existente. (Kalpakjian, 2006)
30
Es común que estas pruebas o experimentos se hagan sobre la marcha, con base en el ensayo
y error, apelando a la experiencia y a la intuición, en lugar de seguir un plan experimental
adecuado que garantice una buena respuesta a las interrogantes planteadas. Algo similar
ocurre con el análisis de los datos experimentales, donde más que hacer un análisis riguroso
de toda la información obtenida y tomar en cuenta la variación, se realiza un análisis informal,
“intuitivo”. Es tal el poder de la experimentación que, en ocasiones, se logran mejoras a pesar
de que el experimento se hizo con base en el ensayo y error. Sin embargo, en situaciones de
cierta complejidad no es suficiente aplicar este tipo de experimentación, por lo que es mejor
proceder siempre en una forma eficaz que garantice la obtención de las respuestas a las
interrogantes planteadas en un lapso corto de tiempo y utilizando pocos recursos. El diseño
estadístico de experimentos es precisamente la forma más eficaz de hacer pruebas. El diseño
de experimentos consiste en determinar cuáles pruebas se deben realizar y de qué manera,
para obtener datos que, al ser analizados estadísticamente, proporcionen evidencias objetivas
que permitan responder las interrogantes planteadas, y de esa manera clarificar los aspectos
inciertos de un proceso o resolver un problema. (Gutierrez, H. 2004).
Algunos problemas típicos que pueden resolverse con el diseño y el análisis de experimentos
son los siguientes:
1. Comparar a dos o más materiales con el fin de elegir al que mejor cumple los
requerimientos. 2. Comparar varios instrumentos de medición para verificar si
trabajan con la misma precisión y exactitud. 3. Determinar los factores (las x vitales)
de un proceso que tienen impacto sobre una o más características del producto final.
4. Encontrar las condiciones de operación (temperatura, velocidad, humedad, por
ejemplo) donde se reduzcan los defectos o se logre un mejor desempeño del proceso.
5. Reducir el tiempo de ciclo del proceso. 6. Hacer el proceso insensible o robusto a
oscilaciones de variables ambientales. 7. Apoyar el diseño o rediseño de nuevos
productos o procesos. 8. Ayudar a conocer y caracterizar nuevos materiales.
(Gutierrez, H. 2004).
31
2.2 Definiciones
Una vez definido el tipo de estudio a realizar y establecer las hipótesis de investigación, el
investigador debe concebir la manera práctica y concreta de responder a las preguntas de
investigación. Esto implica seleccionar o desarrollar un diseño de investigación y aplicarlo
al contexto particular de su estudio. Diseño se refiere al plan o estrategia concebida para
responder a las preguntas de investigación. El diseño señala al investigador lo que debe hacer
para alcanzar sus objetivos de estudio, contestar las interrogantes que se ha planteado y
analizar la certeza de las hipótesis formuladas en un contexto en particular. (Martinez, 2008).
32
como lo es el diseño de experimentos. En la literatura esta técnica es también referenciada
como diseño factorial. Los conceptos de diseño de experimentos han sido usados desde el
trabajo de Fisher. (Fisher, 1935). El diseño experimental de acuerdo con el libro
Manufactura, Ingeniería y Tecnología (Kalpakjian, 2006) , identifica los efectos de las
variables controlables (factores) de un producto o proceso e incluye el desarrollo del diseño
factorial, combinándolo con los arreglos ortogonales.
33
2.3 Experimentos con un solo factor y análisis de varianza.
El diseño experimental tiene sus orígenes en los trabajos de Ronald Fisher (1890-1962),
desarrollados en la Estación Agrícola Experimental de Rothamsted, en el Reino Unido, donde
introdujo el concepto de aleatorización y el análisis de varianza. A lo largo de varias décadas,
la teoría del diseño de experimentos y sus aplicaciones se consolidó y expandieron, y, en
años recientes, recibieron un fuerte impulso por las contribuciones de Genichi Taguchi, un
estadístico japonés ampliamente conocido en Occidente. (Yacuzzi, Martín, Quiñones, &
Popovsky, 2013).
34
Si tu variable predictora es categórica y tu variable respuesta es continua, tu diseño se
denomina de tipo ANOVA. En terminología ANOVA, los tratamientos son las diferentes
categorías de las variables predictoras que se utilizan en el estudio. En un estudio
experimental, los tratamientos representan las diferentes manipulaciones que se llevan a cabo
(ej. extracción del néctar de las flores y no extracción o control). En un estudio observacional,
los tratamientos representan los diferentes grupos que se quieren comparar (ej. tipos de
hábitat). Dentro de cada tratamiento, se realizan múltiples observaciones, y cada una de estas
observaciones es una réplica. (Cayuela, Rey, & Carlos, 2011).
El primer concepto fundamental es que todo valor observado puede expresarse mediante la
siguiente función: 𝑦𝑖𝑗 = 𝜇 + 𝜏𝑖 + 𝜀
Donde yij sería el valor observado (variable dependiente), y es el efecto del tratamiento i.
Es una variable aleatoria que añade a la función cierto error que desvía la puntuación
observada de la puntuación pronosticada.
De un factor, que es el caso más sencillo, la idea básica del análisis de la varianza es comparar
la variación total de un conjunto de muestras y descomponerla como:
Donde:
𝑆𝑆𝑓𝑎𝑐𝑡 Es un número real relacionado con la varianza, que mide la variación debida
al "factor", "tratamiento" o tipo de situación estudiado.
𝑆𝑆𝑖𝑛𝑡 Es un número real relacionado con la varianza, que mide la variación dentro
de cada "factor", "tratamiento" o tipo de situación.
35
La distribución de los residuales debe ser normal.
Homocedasticidad: homogeneidad de las varianzas. (Srinivasan, 2007)
Tamaño de
la muestra
36
2.4 Diseño de bloques.
Cuando se quieren comparar ciertos tratamientos o estudiar el efecto de un factor, es deseable
que las posibles diferencias se deban principalmente al factor de interés y no a otros factores
que no se consideran en el estudio. Cuando esto no ocurre y existen otros factores que no se
controlan o nulifican para hacer la comparación, las conclusiones podrían ser afectadas
sensiblemente. Por ejemplo, supongamos que se quieren comprar varias máquinas, si cada
máquina es manejada por un operador diferente y se sabe que éste tiene una influencia en el
resultado, entonces es claro que el factor operador debe tomarse en cuenta si se quiere
comparar a las máquinas de manera justa. Un operador más hábil puede hacer ver a su
máquina (aunque ésta sea la peor) como la que tiene el mejor desempeño, lo cual impide
hacer una comparación adecuada de los equipos. Para evitar este sesgo hay dos maneras de
anular el posible efecto del factor operador: la manera lógica es utilizar el mismo operador
en las cuatro máquinas; sin embargo, tal estrategia no siempre es aconsejable, ya que utilizar
al mismo sujeto elimina el efecto del factor operador pero restringe la validez de la
comparación con dicho operador, y es posible que el resultado no se mantenga al utilizar a
otros operadores. La otra forma de anular el efecto operador en la comparación consiste en
que cada operador trabaje durante el experimento con cada una de las máquinas. Esta
estrategia es la más recomendable, ya que utilizar a todos los operadores con todas las
máquinas permite tener resultados de la comparación que son válidos para todos los
operadores. Esta última forma de nulificar el efecto de operadores, recibe el nombre de
bloqueo. (Gutierrez, H. 2004).
37
covarianza. Cuando la fuente de variabilidad perturbadora es conocida y controlable, puede
usarse una técnica de diseño llamada formación de bloques para eliminar de manera
sistemática su efecto sobre las comparaciones estadísticas entre los tratamientos. La
formación de bloques es una técnica de diseño en extremo importante que se utiliza
ampliamente en la experimentación industrial. (Montgomery, 2004)
El objetivo sería hacer el error experimental tan pequeño como fuera posible; es decir, querría
eliminarse del error experimental la variabilidad entre los ejemplares de prueba. Un diseño
para lograr esto requiere que el experimentador pruebe cada punta una vez en cada uno de
los cuatro ejemplares de prueba. A este diseño, se le llama diseño de bloques completos
aleatorizados (ReBD, randomized complete block design). La respuesta observada es la
dureza en la escala C de Rockwell menos 40. La palabra "completos" indica que cada bloque
(ejemplar de prueba) contiene todos los tratamientos (puntas). Al utilizar este diseño, los
bloques o ejemplares de prueba forman una unidad experimental más homogénea en la cual
comparar las puntas. De hecho, esta estrategia de diseño mejora la precisión de las
comparaciones entre las puntas al eliminar la variabilidad entre los ejemplares de prueba.
Dentro de un bloque, el orden en que se prueban las cuatro puntas se determina
aleatoriamente. Observe la similitud de este problema de diseño con el de la sección 2-5,
donde se analizó la prueba t: pareada. El diseño de bloques completos aleatorizados es una
generalización de ese concepto. (Montgomery, 2004)
38
En el diseño en cuadro latino (DCL) se controlan dos factores de bloque y se estudia un factor
de tratamientos, por lo que se tienen cuatro fuentes de variabilidad que pueden afectar la
respuesta observada, estas son: los tratamientos, el factor de bloque I (columnas), el factor
de bloque II (renglones) y el error aleatorio. Se llama cuadro latino por dos razones: es un
cuadro debido a que tiene la restricción adicional de que los tres factores involucrados se
prueban en la misma cantidad de niveles, y es latino porque se utilizan letras latinas para
denotar a los tratamientos o niveles del factor de interés. Sean A, B, C.. K, los k tratamientos
a comparar, por lo tanto ambos factores de bloques tienen también k niveles cada uno.
(Gutierrez, H. 2004).
Tabla 2.4.1 Tabla de ANOVA para el diseño de cuadro latino. (Gutierrez, H. 2004).
39
Con el diseño en cuadro grecolatino (DCGL) se controlan tres factores de bloque, además
del factor de tratamientos. Se llama cuadro grecolatino porque los cuatro factores
involucrados se prueban en la misma cantidad de niveles, de aquí que se pueda escribir como
un cuadro, además, se utilizan letras latinas para denotar a los tratamientos y letras griegas
para nombrar a los niveles del tercer factor de bloque. Al igual que en el cuadro latino, cada
letra (latinas y griegas) debe aparecer sólo una vez en cada renglón y en cada columna.
Además, cada par de letras debe aparecer sólo una vez en todo el arreglo (Gutierrez, H. 2004).
Diseño en
cuadro
Grecolatino
40
2.5 Diseños Factoriales.
El objetivo de un diseño factorial es estudiar el efecto de varios factores sobre una o varias
respuestas, cuando se tiene el mismo interés sobre todos los factores. Por ejemplo, uno de los
objetivos particulares más importantes que en ocasiones tiene un diseño factorial es
determinar una combinación de niveles de los factores en la que el desempeño del proceso
sea mejor. Los factores pueden ser de tipo cualitativo (máquinas, tipos de material, operador,
etc.), o de tipo cuantitativo (temperatura, humedad, velocidad, presión, etc.). Para estudiar la
manera en que influye cada factor sobre la variable de respuesta es necesario elegir al menos
dos niveles de prueba para cada uno de ellos. Con el diseño factorial completo se corren
aleatoriamente todas las posibles combinaciones que pueden formarse con los niveles de los
factores a investigar. Así, la matriz de diseño o arreglo factorial es el conjunto de puntos
experimentales o tratamientos que pueden formarse considerando todas las posibles
combinaciones de los niveles de los factores. Por ejemplo, con k = 2 factores, ambos con dos
niveles, se forma el diseño factorial 2 × 2 = 22, que consiste en cuatro combinaciones o puntos
experimentales. Si ahora uno tiene tres niveles y el otro dos, se pueden construir 3 × 2
combinaciones que dan lugar al diseño factorial 3 × 2. Observe que en el nombre del diseño
factorial va implícito el número de tratamientos que lo componen. Para obtener el número de
corridas experimentales se multiplica el número de tratamientos por el número de réplicas,
donde una de éstas se lleva a cabo cada vez que se corre el arreglo completo. En general, la
familia de diseños factoriales 2k consiste en k factores, todos con dos niveles de prueba; y la
familia de diseños factoriales 3k consiste en k factores cada uno con tres niveles de prueba.
Es claro que si los k factores no tienen la misma cantidad de niveles, debe escribirse el
producto de manera explícita; por ejemplo, con k = 3 factores, el primero con cuatro niveles
y los dos restantes con dos niveles, se tiene el diseño factorial 4 × 2 × 2 o 4 × 2 2. (Gutierrez,
H. 2004).
41
Modelo estadístico/
Con dos
Hipótesis y ANOVA/
factores
Comparación de medias
Dos factores
Efectos aleatorios aleatorios/
Modelo mixto
Los tipos más simples de diseños factoriales incluyen únicamente dos factores o conjuntos
de tratamientos. Hay a niveles del factor A y b niveles del factor B, los cuales se disponen en
un diseño factorial; es decir, cada réplica del experimento contiene todas las ab
combinaciones de los tratamientos. En general, hay n réplicas. (Montgomery, 2004)
42
El diseño 2k es de particular utilidad en las etapas iniciales del trabajo experimental, cuando
probablemente se estén investigando muchos factores. Este diseño proporciona el menor
número de corridas con las que pueden estudiarse k factores en un diseño factorial completo.
Por consiguiente, estos diseños se usan ampliamente en los experimentos de tamizado o
selección de factores. Puesto que sólo hay dos niveles para cada factor, se supone que la
respuesta es aproximadamente lineal en el rango elegido para los niveles de los factores. En
muchos experimentos de tamizado de factores, cuando se acaba de iniciar el estudio del
proceso o sistema, este supuesto suele ser razonable. (Montgomery, 2004)
Cuando se quiere investigar la influencia de tres factores (A, B y C) sobre una o más variables
de respuesta, y el número de niveles de prueba en cada uno de los factores es a, b y c,
respectivamente, se puede construir el arreglo factorial a × b × c, que consiste de a × b × c
tratamientos o puntos experimentales. Entre los arreglos de este tipo que se utilizan con
frecuencia en aplicaciones diversas se encuentran: el factorial 2 3, el factorial 33 y los
factoriales mixtos con no más de cuatro niveles en dos de los factores, por ejemplo, el
factorial 4 × 3 × 2 y el factorial 4 × 4 × 2, por mencionar dos de ellos. (Gutierrez, H., 2004).
El estudio factorial de tres factores (A, B y C) permite investigar los efectos: A, B, C, AB,
AC, BC y ABC, donde el nivel de desglose o detalle con el que pueden estudiarse depende
del número de niveles utilizado en cada factor. Por ejemplo, si un factor se prueba en dos
niveles, todo su efecto marginal (individual) es lineal, o sea que su efecto individual no se
puede descomponer; pero, si tuviera tres niveles su efecto marginal se puede descomponer
en una parte lineal y otra cuadrática pura. (Montgomery, 2004)
En resumen, se tienen siete efectos de interés sin considerar desglose, y con ellos se pueden
plantear las siete hipótesis nulas H0 : Efecto A = 0, H0 : Efecto B = 0, …, H0 : Efecto ABC =
0, cada una aparejada con su correspondiente hipótesis alternativa. El ANOVA para probar
estas hipótesis se muestra más adelante. Al efecto cuyo valor-p sea menor al valor
especificado para alfa, se declara estadísticamente significativo o se dice que está activo. Las
sumas de cuadrados son muy similares a las obtenidas para dos factores;
43
Fuente de Suma de Grados de Cuadrado F P-valor
variabilidad cuadrados libertad medio
Efecto A 𝑆𝐶𝐴 a-1 𝐶𝑀𝐴 𝐶𝑀𝐴 /𝐶𝑀𝐸 P(F>𝐹0𝐴 )
Tabla 2.5.1 Tabla de ANOVA para el diseño factorial AxBxC (Gutierrez, H., 2004)
Permiten estudiar el efecto individual y de interacción de los distintos factores. 2. Son diseños
que se pueden aumentar para formar diseños compuestos en caso de que se requiera una
exploración más completa. Por ejemplo, es útil aumentar el diseño si el comportamiento de
la respuesta no es lineal en los factores controlados. 3. Se pueden correr fracciones de diseños
factoriales, las cuales son de gran utilidad en las primeras etapas de una investigación que
involucra a muchos factores, cuando interesa descartar de manera económica los que no son
importantes, antes de hacer un estudio más detallado con los factores que sí son importantes.
4. Pueden utilizarse en combinación con diseños de bloques en situaciones en las que no
puede correrse todo el diseño factorial bajo las mismas condiciones. Por ejemplo, cuando
cada lote de material sólo alcanza para correr la mitad del experimento, éste se puede realizar
en dos bloques (dos lotes), lo cual implica repartir las pruebas en los dos lotes de la manera
más conveniente posible. 5. La interpretación y el cálculo de los efectos en los experimentos
factoriales se puede hacer con aritmética elemental, en particular cuando cada factor se
prueba en dos niveles. (Gutierrez, 2004)
44
Cuando se quiere investigar la influencia de tres factores (A, B y C) sobre una o más variables
de respuesta, y el número de niveles de prueba en cada uno de los factores es a, b y c,
respectivamente, se puede construir el arreglo factorial a × b × c, que consiste de a × b × c
tratamientos o puntos experimentales. Entre los arreglos de este tipo que se utilizan con
frecuencia en aplicaciones diversas se encuentran: el factorial 2 3, el factorial 33 y los
factoriales mixtos con no más de cuatro niveles en dos de los factores, por ejemplo, el
factorial 4 × 3 × 2 y el factorial 4 × 4 × 2, por mencionar dos de ellos. Se ha visto que puede
resultar útil ajustar una curva de respuesta a los niveles de un factor cuantitativo para que el
experimentador cuente con una ecuación que relacione la respuesta con el factor. Esta
ecuación podría utilizarse para hacer interpolaciones, es decir, para predecir la respuesta en
niveles intermedios entre los factores, respecto de los que se utilizaron realmente en el
experimento. (Montgomery, 2004).
Suponga que tres factores, A, B y C, cada uno con dos niveles, son de interés. Al diseño se
le llama diseño factorial 23, y en este caso la representación geométrica de las ocho
combinaciones de tratamientos puede hacerse con un cubo. Utilizando la notación"+" y "-"
para representar los niveles alto y bajo de los factores, las ocho corridas del diseño 2 3.
(Montgomery, 2004).
Diseño
Experimento 22
factorial 22
Diseño Experimento 23
factorial 23
Diseño Diseño factorial
factorial general 2k
2k
Diseño factorial Experimento 25 no
general 2k no replicado replicado
Factorial 2k en bloques
45
2.6 Diseño Robusto.
El diseño robusto tiene su origen en las ideas del ingeniero japonés Genichi Taguchi, quien
desarrolló su propia filosofía y métodos de ingeniería de la calidad desde la década de 1950.
Fue a partir del éxito de los japoneses en industrias tan importantes como la automotriz y la
elec trónica que Occidente comienza a fijarse en los métodos utilizados por ellos. De esta
manera, los métodos de Taguchi y de otros autores japoneses se introducen en Estados
Unidos a partir de la década de los años ochenta. Taguchi hace varias contribuciones a la
calidad. Es precisamente en el diseño de experimentos donde hace sus aportaciones más
importantes, con la introducción de lo que él llama diseño de parámetros (Taguchi, 1987),
que se convirtió en lo que ahora se conoce en Occidente como diseño robusto. En este
capítulo describimos las principales ideas del diseño robusto y cómo se pueden utilizar para
la mejora y optimización de procesos. Cabe señalar que la mayoría de las ideas y los métodos
propuestos por Taguchi fueron muy criticados por los expertos estadísticos de Occidente (por
ejemplo, Nair, 1992 y Box, 1988); no obstante, terminaron por reconocer que Taguchi ha
hecho una buena cantidad de contribuciones a las buenas prácticas experimentales que
requiere la industria mundial. Quizá la contribución más importante de Taguchi es que, a
partir de la controversia generada por sus ideas y métodos, el diseño de experimentos ha
logrado un gran avance en las últimas tres décadas, tanto en su base teórica como en
aplicaciones a problemas concretos. (Gutierrez, 2004).
Una de las más importantes de éstas es el diseño robusto, donde la atención se centra en uno
o más de los siguientes puntos: 1. El diseño de sistemas (productos o procesos) que no sean
sensibles a factores ambientales que puedan afectar el desempeño una vez que el sistema se
ha desplegado en el campo. Un ejemplo es la formulación de una pintura para exteriores que
debe tener gran duración cuando se exponga a una variedad de condiciones climáticas. Puesto
que las condiciones climáticas no son del todo predecibles, y ciertamente no son constantes,
el responsable de la formulación del producto quiere que éste sea robusto contra un amplio
rango de factores de temperatura, humedad y precipitación pluvial que afectan el desgaste y
acabado de la pintura. 2. El diseño de productos para que no sean sensibles a la variabilidad
transmitida por los componentes del sistema. 3. El diseño de procesos para que el producto
manufacturado esté tan cerca como sea posible de las especificaciones nominales, aun cuando
sea imposible controlar con toda precisión algunas variables del proceso (como la
46
temperatura) o las características de las materias primas. 4. Determinar las condiciones de
operación de un proceso para que las características críticas del producto estén tan cerca
como sea posible del valor objetivo deseado y la variabilidad en torno a este objetivo se
minimice. (Montgomery, 2004)
La metodología de Taguchi para el problema RPD gira en torno al uso de un diseño ortogonal
para los factores controlables, el cual se "cruza" con un diseño ortogonal separado para los
factores de ruido. Taguchi lo llama el diseño de arreglo interior y de arreglo exterior.
Entonces se realiza cada corrida del arreglo interior para todas las combinaciones de
tratamientos del arreglo exterior, produciéndose la n observaciones. A este tipo de diseño se
le llama diseño de arreglo cruzado. Taguchi sugirió que los datos de un experimento de
arreglo cruzado se resumieran con dos estadísticos: el promedio de cada observación en el
arreglo interior para todas las corridas del arreglo exterior y un resumen de estadísticas que
intentaba combinar información acerca de la media y la varianza, llamado relación señal a
47
ruido. Las relaciones señal a ruido se definen a propósito para que un valor máximo de la
relación minimice la variabilidad transmitida por las variables de ruido. Entonces se lleva a
cabo un análisis para determinar cuáles son los ajustes de los factores controlables que dan
como resultado 1) una media tan próxima como sea posible al objetivo deseado y 2) un valor
máximo de la relación señal a ruido. (Montgomery, 2004).
FACTOR Y
SEÑAL (M) PRODUCTO / PROCESO
CARACTERÍSTICA
DE CALIDAD
Fig. 2.6 Diagrama de los diferentes tipos de factores en diseño robusto. (Gutierrez, 2004)
Los arreglos ortogonales son diseños propuestos por Taguchi que, como su nombre lo indica,
tienen la propiedad de ortogonalidad, misma que también poseen los diseños factoriales
clásicos. Estos arreglos son diseños factoriales completos, fraccionados o mixtos,
dependiendo del número de factores a estudiar en un caso particular. Por ejemplo, el arreglo
ortogonal L8 (AO_L8) tiene ocho corridas experimentales, y con él se pueden estudiar desde
dos hasta siete factores en dos niveles cada uno. Si se estudian siete factores equivale a un
diseño factorial fraccionado 2III 7 – 3, mientras que con dos factores sería un factorial
completo 22 con dos réplicas. Para menos de siete factores es necesario saber a cuáles
columnas del arreglo deben asignarse los factores, para tener la estructura alias que permita
estudiar lo más claro posible a esos factores. Por ejemplo, al estudiar cuatro factores con el
arreglo L8, éstos se deben asignar a las columnas 1, 2, 4 y 7, para obtener la información con
la calidad de la fracción 2IV 4 – 1 con generador I = ABCD. El arreglo ortogonal L16 se
pueden estudiar desde cuatro hasta 15 factores (para menos de cuatro factores es mejor
48
utilizar un L8). Cuando se estudian cuatro factores, éstos se deben asignar a las columnas 1,
2, 4 y 8, para estimar de manera separada a las interacciones, y en este caso equivaldría a un
diseño factorial completo 24. Si se estudian 15 facto res el arreglo L16 equivaldría a una
fracción 2III 15 – 11. Ocurre que, en la medida de que se estudian más factores, se tienen
menos grados de libertad para estudiar interacciones; sin embargo, Taguchi no hace énfasis
en el estudio de las interacciones, prefiere saturar lo más posible los arreglos y analizar sólo
los efectos principales de cada factor. (Gutierrez, 2004).
La condición fundamental para que un diseño experimental sea de tipo robusto es que exista
al menos un factor de ruido para el cual se busca hacer que el proceso o producto sea
insensible a su efecto, sin pretender controlar dicho factor de ruido. Éste seguirá actuando
como siempre el proceso después del experimento, pero se busca que su efecto sea menor.
Un diseño experimental propuesto por Taguchi para determinar condiciones de operación
robustas a uno o varios factores de ruido es el diseño con arreglo interno y externo. Una vez
identificados los factores de control y los factores de ruido con los que se quiere
experimentar, se construyen los arreglos ortogonales. (Gutierrez, 2004).
Principios de la
filosofía Taguchi
Robustez
Diseño
Factores de control de
robusto ruido y señal.
Cuadro 2.6 Clasificación del campo de conocimiento de diseño robusto (Gutierrez, 2004)
49
2.6 Planeación Experimental.
La industria, es una práctica común hacer experimentos o pruebas con la idea de que al mover
o hacer algunos cambios sobre los materiales, métodos o condiciones de operación de un
proceso se puedan detectar, resolver o minimizar los problemas de calidad. También
comentamos que es común que estas pruebas o experimentos se hagan sobre la marcha, a
prueba y error, con base en la experiencia y la intuición, en lugar de seguir un plan
experimental adecuado que garantice una buena respuesta a las interrogantes planteadas. De
aquí que, más que apostarle a la improvisación y a la estrategia de prueba y error, el reto es
mejorar la forma en que se diseña un experimento. De hecho, el éxito de un experimento
radica en el alto porcentaje en la calidad de su planeación. Por ello, es importante contener
las ansias y no hacer pruebas antes de conceptualizar el problema y decidir la mejor estrategia
experimental para abordarlo. El diseño de experimentos se puede aplicar a problemas o
situaciones en las que se quiere investigar y/o probar conjeturas en las que se comparan dos
o más situaciones para las causas o factores involucrados. (Gutierrez, 2004).
50
1. Planear un experimento. Lo primero es localizar un problema importante que sea
susceptible de atacarse con diseño de experimentos. La importancia del problema se
puede cuantificar con base en la pérdida que causa a la compañía. Una vez ubicado
el problema se determinan los factores controlables que pudieran tener alguna
influencia sobre la característica de calidad de interés. Se diseña el plan experimental
más adecuado a la situación, con lo cual quedan especificadas las corridas del proceso
que han de realizarse: cuáles tratamientos y cuántas repeticiones de cada uno. 2. Hacer
las corridas experimentales. Se prueba el proceso en cada tratamiento especificado en
la etapa de planeación. Las corridas se hacen en orden aleatorio y de acuerdo al plan
experimental seleccionado. 3. Verificar o analizar los resultados. Consiste en analizar
los datos con las técnicas adecuadas. Verificar los supuestos y determinar el mejor
trata miento (o tratamiento ganador) para la variable de respuesta que es objeto de
estudio. 4. Implementación de los resultados. Hacer pruebas confirmatorias para tener
una mejor representatividad del desempeño del proceso en el nuevo tratamiento. Con
base en lo aprendido es posible planear otro experimento y repetir el ciclo de Deming.
Cada vuelta al ciclo implica necesariamente mejoras, ya que en el peor de los casos,
cuando no se consigue la mejora se ha logrado más conocimiento del proceso.
(Gutierrez, 2004)
1. PLANEAR un cambio o
4. ACTUAR de acuerdo con
una prueba con el objetivo
los resultados, implemente
de encontrar causas y lograr
el cambio o deséchelo, o
una mejora.
bien, planee una prueba.
CICLO DE DEMING
51
2.7 Herramientas computacionales.
Dentro de las herramientas que podemos encontrar en el mercado son muchas y en los últimos
años, el uso de Internet -la red de redes- ha causado una revolución en lo que a transmisión
de datos e información se refiere, creando además un nuevo paradigma comunicativo. Por
ello, con cada vez mayor frecuencia, nos encontraremos con la necesidad de analizar
estadísticamente grandes volúmenes de datos -a los cuales tenemos acceso gracias a Internet-
, con la finalidad de obtener información y, eventualmente, conocimiento. En dicho análisis,
el uso de un paquete estadístico -como Minitab, SAS, SPSS, S-Plus, Statgraphics, Statistica,
R, etc.- resulta fundamental. Una nueva generación de software estadístico ha ido emergiendo
en estos últimos años, posibilitando un considerable aumento en las posibilidades de análisis,
precisión numérica y representación gráfica de los resultados. El uso de este tipo de
herramientas estadísticas nos permite obtener información a partir de los datos, usando para
ello métodos y técnicas de obtención de datos, análisis e interpretación.
La mayoría de los análisis estadísticos requiere que siga una serie de pasos que suelen venir
determinados por los conocimientos previos o por el área temática que esté investigando. Los
siguientes pasos son importantes para esto: • Explorar datos con gráficos • Realizar análisis
estadísticos • Evaluar la calidad • Diseñar un experimento.
Los paquetes más sencillos tienen interfaz por ventanas, lo que implica facilidad de uso y
aprendizaje pero un mayor encorsetamiento a la hora de hacer cálculos que el programa no
tenga predefinidos. Los programas más complejos suelen tener la necesidad de conocer
su lenguaje de programación, pero suelen ser mucho más flexibles al poderse incluir en ellos
funciones, test o contrastes que no traen instalados por definición.
52
La potencia de cálculo de un ordenador puede ayudar a un investigador a realizar cientos o
miles de contrastes de hipótesis en un tiempo muy reducido. Asimismo puede calcular
decenas de modelos de regresión en un tiempo muy corto y después quedarse con el más
apropiado de ellos. En problemas de investigación de operaciones un programa estadístico
es capaz de realizar miles de iteraciones por segundo de un algoritmo en el que una persona
tardaría varios minutos en cada una de ellas. Asimismo, es capaz de elegir entre miles de
resultados posibles cuál de todos ellos es el óptimo. Básicamente, lo que permiten es resolver
problemas de estadística aplicada por fuerza bruta o por probar miles de combinaciones para
quedarse finalmente con la que se crea que es la mejor para el uso.
En los programas más complejos se necesita tener conocimientos de programación, así como
para realizar los cálculos más laboriosos. Por ejemplo si se desea realizar una operación dada
a una columna concreta, lo más frecuente es que se pueda hacer esto por ventanas, sin
embargo, si deseamos hacer esto mismo para todas las columnas de nuestro documento, que
pueden ser centenares, es posible que necesitemos programar un bucle en la sintaxis del
programa.
Otro inconveniente está en que en estadística a menudo nos pueden salir resultados
contradictorios entre test distintos. Un programa informático se dará cuenta de ello y nos
avisará de algún modo, pero tendrá que ser el usuario el que decida a cuál de los test hacer
caso, y esto en ocasiones es complejo, sobre todo si no se está familiarizado a fondo con la
estadística o se tiene poca experiencia. Dentro de los programas estadísticos más utilizados
están: R, SAS, SPSS, Epi Info 7, SPAD, Stata, Statgraphics, Redatam, Minitab, Matlab, S-
PLUS, LISREL, WinQSB, Excel, PSPP.
Existen multitud de paquetes informáticos aparte es éstos, tanto de software privado como
de software libre, sin embargo, los más utilizados son estos. A pesar de que SAS y SPSS
suelen ser considerados los más potentes, hay muchísimas empresas que utilizan programas
mucho menos potentes como Excel. Esto se debe sobre todo a que su uso parece más sencillo,
la mayoría de las personas están familiarizadas con él y la mayor parte de las empresas ya
tienen instalado Excel en sus ordenadores, mientras que las licencias de SAS y SPSS cuestan
varios miles de euros. (Wikipedia, 2015).
53
Minitab es un programa de computadora diseñado para ejecutar funciones estadísticas
básicas y avanzadas. Combina lo amigable del uso de Microsoft Excel con la capacidad de
ejecución de análisis estadísticos. En 1972, instructores del programa de análisis estadísticos
de la Universidad Estatal de Pensilvania (Pennsylvania State University) desarrollaron
MINITAB como una versión ligera de OMNITAB, un programa de análisis estadístico del
Instituto Nacional de Estándares y Tecnología (NIST) de los Estados Unidos. Para una
versión para estudiantes y académicos se ofrece como complemento de algunos libros de
texto. Minitab es frecuentemente usado con la implantación la metodología de mejora de
procesos Seis Sigma. (Wikipedia, 2015).
SPSS es un programa estadístico informático muy usado en las ciencias sociales y las
empresas de investigación de mercado. Originalmente SPSS fue creado como el acrónimo
de Statistical Package for the Social Sciences aunque también se ha referido como
"Statistical Product and Service Solutions" Sin embargo, en la actualidad la parte SPSS del
nombre completo del software (IBM SPSS) no es acrónimo de nada. (Wikipedia, 2015).
Es uno de los programas estadísticos más conocidos teniendo en cuenta su capacidad para
trabajar con grandes bases de datos y un sencillo interface para la mayoría de los análisis. En
la versión 12 de SPSS se podían realizar análisis con 2 millones de registros y 250.000
variables. El programa consiste en un módulo base y módulos anexos que se han ido
actualizando constantemente con nuevos procedimientos estadísticos. Cada uno de estos
módulos se compra por separado. (Wikipedia, 2015).
54
Capítulo III Desarrollo experimental.
Anteriormente en el capítulo II, señalamos que en la industria, es una práctica común hacer
experimentos o pruebas con la idea de que al mover o hacer algunos cambios sobre los
materiales, métodos o condiciones de operación de un proceso se puedan detectar, resolver o
minimizar los problemas de calidad. De aquí que, más que apostarle a la improvisación y a
la estrategia de prueba y error, el reto es mejorar la forma en que se diseña un experimento.
(Gutierrez, 2004).
¿Por qué elegir la metodología de Taguchi (Arreglos Ortogonales) en lugar de los Diseños
clásicos de experimentación?
Planeación y diseño.
55
1. Definición del problema u objetivo.
El título de este estudio lleva por nombre “Análisis de los factores que afectan la calidad del
maíz blanco nacional, dentro de su proceso de secado artificial y propuesta de mejora
mediante diseño de experimentos”. Y nuestro objetivo general es: “Mejorar el proceso de
secado artificial en la empresa GRANISSA, en base a un diseño experimental, mediante el
análisis de los factores que afectan la calidad del maíz blanco”.
Según (Sampieri, Collado, Lucio, & Pérez, 1998), plantear el problema no es sino afinar y
estructurar más formalmente la idea de investigación. Ello depende de cuán familiarizado
esté el investigador con el tema a tratar, la complejidad misma de la idea, la existencia de
estudios antecedentes, el empeño del investigador, el enfoque elegido (cuantitativo,
cualitativo o mixto) y sus habilidades personales.
¿Qué factores intervienen en el proceso de secado artificial de maíz y cuáles son los que
afectan significativamente?, ¿Se ofrece capacitación y motivación adecuada a los operadores,
así como el compromiso laboral por parte de ellos?, ¿Se realiza todas las mediciones
necesarias actualmente en la empresa?, ¿El clima afecta en el secado artificial de maíz?, ¿La
máquina secadora recibe el adecuado mantenimiento?, ¿Existe una metodología utilizada por
los operadores para llevar a cabo el proceso de secado?, ¿Con que calidad llega el grano a la
empresa?, ¿De qué manera se podría lograr que el proceso de secado artificial de maíz blanco,
56
mejore la calidad del producto minimizando pérdidas como gas natural, energía eléctrica,
vida útil del equipo secador y tiempo del proceso?,
Daños % Capacitación
Para el caso de la medición, tenemos que es importante recabar datos para ofrecer un
seguimiento como lo es la densidad, que es el contenido de masa en un volumen y se expresa
en kilogramos por hectolitro (kg/hl). También se le conoce como masa hectolítrica (peso
hectolítrico).(Aplicaci et al., 2002).
Con ello mediremos que tanto es afectado el grano y en qué proporción en cuanto al
rendimiento del peso y el cobro de secado al agricultor. También nos sirve para cubicar o
medir el tonelaje en un silo o en una bodega en cuanto al volumen del mismo. Medir el
porcentaje de daños al maíz también es clave puesto que si no se da el tratamiento adecuado,
57
el grano puede sufrir severas consecuencias, entonces tomando una muestra representativa
será suficiente para indicar si cumple o no la calidad indicada en la norma una vez pasado
por el proceso de secado. La humedad del maíz es clave en este punto ya que si no tenemos
el valor óptimo (14.7%) pueden ocurrir problemas de mermado en todos los aspectos. Este
es uno de los puntos que si se miden en la empresa lo más riguroso posible, sin embargo a
pesar de la gravedad del asunto ocurren secados por fuera del rango establecido por la
empresa. La temperatura del grano es otra variable a medir, aunque está totalmente ligada a
la humedad del grano y se realiza en la empresa sin ningún problema.
En el factor de la mano de obra tenemos que no se ofrece una capacitación adecuada por
parte de la empresa hacia los trabajadores, solo se hace referencia al funcionamiento mismo
de la secadora, sin embargo, los empleados realizan estas operaciones sin manual alguno o
bien sin estándares de operación que marque un procedimiento adecuado para este fin, todo
es al tanteo o experiencia misma del operador. En cuanto a la motivación, la empresa ofrece
sueldos por encima de lo manejado en esta industria, se le ofrece las prestaciones marcadas
por la ley e incluso cuentan con comedor para ingerir sus alimentos. El compromiso de los
trabajadores es el cotidiano en cuanto a su responsabilidad por lo que no se observa algún
problema en este rubro.
El medio ambiente es uno de los puntos a lidiar, puesto que el clima sin lugar a dudas es un
factor de ruido que no podemos controlar, por lo que todo el tiempo está variando día a día,
tanto la temperatura ambiente como la humedad relativa, sin embargo, se cuenta con equipo
necesario para estar realizando estas mediciones. En cuanto a la maquinaria, se lleva un
registro (bitácora) contemplado en un plan de mantenimiento preventivo, reduciendo así la
posibilidad de que el fallo de la secadora sea inesperado, aquí se incluye la limpieza de la
torre de secado, oxidación en partes metálicas, agujeros para el paso de aire, ventilador,
descarga y otras partes móviles, lubricación de baleros, limpieza de los filtros, quemador y
cámara de combustión. La capacidad y la velocidad se consideran como buenas ya que al ser
una de las más grandes secadoras proporcionadas por el distribuidor aumenta la velocidad de
proceso, sin dejar de lado el programa de mantenimiento. Existe en los controles de la
máquina una función en la velocidad de descarga más sin embargo el tiempo de secado es el
tomado por el operador a criterio propio.
58
Si se refiere a metodología de secado, este sería un talón de Aquiles ya que no existe uno
como tal, que el operador pueda tomar, este detalle se ha estado mencionando constantemente
y es una de las oportunidades de mejora que se detectó para que mediante la investigación
realizada se ofreciera una propuesta de mejora.
Finalmente es ineludible que el grano que viene del campo, según sea la variedad, el tipo de
tierra y los cuidados ofrecidos por el agricultor en su parcela, sea fuente de calidad y
rendimiento del grano de maíz. En este sentido, la empresa solo realiza un muestreo que se
ajusta a los parámetros marcados en la norma (Aplicaci et al., 2002), sin embargo es de
considerar que cada lote varía mas no sabemos si es o no significativa dicha variación dentro
del proceso de secado.
Indicadores.
Una vez identificado los principales factores que afectan de forma muy general, es importante
tener en cuenta que existen algunos de ellos que por su naturaleza impactan de manera directa
en el secado artificial de maíz debido a su variación, dicho esto, definirlos y estudiarlos más
a fondo nos llevaría a obtener resultados más contundentes.
No existe una definición oficial de “indicador” por parte de algún organismo nacional o
internacional, sólo algunas referencias que los describen como: “Herramientas para clarificar
y definir, de forma más precisa, objetivos e impactos (...) son medidas verificables de cambio
o resultado (...) diseñadas para contar con un estándar contra el cual evaluar, estimar o
demostrar el progreso (...) con respecto a metas establecidas, facilitan el reparto de insumos,
produciendo (...) productos y alcanzando objetivos”.(Rocío & Pérez, 2002).
Los indicadores de calidad son instrumentos de medición, basados en hechos y datos, que
permiten evaluar la calidad de los procesos, productos y servicios para asegurar la
satisfacción de los clientes, es decir, miden el nivel de cumplimiento de las especificaciones
establecidas para una determinada actividad o proceso empresarial, (Calidad, 2002). Los
indicadores de calidad, idealmente pocos aunque representativos de las áreas prioritarias o
que requieren supervisión constante de la gestión, deben ser:
59
• Efectistas: que se centren en el verdadero impacto de la calidad.
Diseño de parámetros.
Los factores son las causas o variables a estudiar en un experimento, debido a su posible
impacto en la variable de respuesta de interés. Cuando de entrada son muchos los factores
(más de 10), algunos se podrán descartar con un análisis del historial del proceso, usando
toda la información disponible y los conocimientos técnicos del proceso. (Gutierrez, 2004).
Las propiedades (Fowlkes, 1995) deseables en la característica de calidad que se escoja son:
La característica debe ser continua, cuantitativa y fácil de medir: Las medidas cuantitativas
continuas permiten discriminar entre las pequeñas mejoras de calidad. Las características que
son fáciles de medir así mismo facilitan la realización práctica del experimento.
60
La característica debería tener una relación aditiva (no interactiva), o al menos consistente
con los efectos de los factores: Lo ideal es que la característica tenga un comportamiento
resultante de la suma de los efectos independientes de los factores de control. Cuando esto
no sea posible, al menos debería lograrse que la característica tenga un comportamiento
consistente, monotónico (siempre creciente, o siempre decreciente). Con un comportamiento
consistente queremos decir que se acepta la existencia de cierto nivel de interacción. Por
ejemplo, suponiendo que tenemos dos factores de control A y B, con algún nivel de
interacción entre ellos, y suponiendo además que nos interesa maximizar la respuesta. Si la
respuesta máxima de A se produce con el mismo nivel de A, no importa cuál sea el valor de
B; y si además la respuesta máxima de B se produce con el mismo nivel de B, sin importar
cuál sea el valor de A, se mantiene entonces una consistencia con la que se podrá trabajar.
Entonces, la variable de respuesta en este caso para mejorar la calidad del maíz blanco dentro
del proceso de secado es la humedad de salida, ya que este porcentaje de humedad resultante
en el grano, es el que se debe de optimizar, porque si esto se logra las características tanto
físicas como organolépticas del producto lograrán su capacidad para alcanzar una mayor
ganancia de peso específico al momento del embarque. Para esta característica de calidad
utilizaremos nominal es mejor tipo I, ya que manejaremos variables continuas positivas.
Los factores que podemos involucrar una vez analizado el proceso de secado artificial de
maíz, son los siguientes:
61
Temperatura Ruido [30 oC – 40 oC] Termómetro (NMX-FF-
ambiente 034/1-2002)
Tabla 3.1 Elaboración propia. Factores que intervienen en el secado de grano artificial de
maíz.
Niveles. En ocasiones, las costumbres en la operación del proceso limitan en un rango muy
estrecho los posibles niveles de un factor. Sobre esto, es importante tener espíritu de
investigador y así como cierto nivel de “incredulidad” sobre tales costumbres, para tratar de
seleccionar niveles de prueba que realmente sean diferentes.
Hay situaciones en donde es difícil fijar en forma más o menos exacta el nivel de un factor,
tanto durante el experimento como en condiciones reales; entonces, en este caso quizás el
nivel de un factor sea un rango de variación, cuyo centro es el nivel “teórico” de tal factor,
pero en este caso se debe tener cuidado de que los rangos en los que se movería el factor en
cada nivel no se traslapen. Hay que asegurarse de que para cada factor se logre tener por lo
menos dos condiciones de prueba realmente diferentes. (Gutierrez, 2004).
62
Factor Tipo Rango permitido Niveles
Humedad de Variable de
[14 % – 15 %] N/A
salida respuesta
Humedad de 17, 18.5 y 20.
Ruido [17 % – 20 %]
entrada (%)
Temperatura Fuego bajo y alto
Controlable [120 oF – 180 oF]
secado (oF)
Tiempo secado Controlable [15 min – 30 min] 15, 30 (min)
Temperatura
Ruido [30 oC – 40 oC] 30, 35, 40 (oC)
Ambiente
Humedad
Ruido [25 % – 55 %] 25, 40, 55. (%)
Relativa
Impurezas Controlable 2 % Máximo Un nivel
Grano quebrado Controlable 3 % Máximo Un nivel
Variedad Ruido 2030, 2038 y 3000 1, 2, 3
1 628 m³/minuto
Caudal de aire Controlable
3,000 m³/minuto 1, 2
Operador Controlable 2 op. / jornada 1, 2
Tabla 3.1.1 Elaboración propia. Niveles que intervienen en los factores preestablecidos.
Una vez establecidos los factores de ruido y controlables se diseñó la matriz de datos con un
arreglo ortogonal incluyendo un arreglo interno y externo. Se dice que una matriz de diseño
es ortogonal si sus columnas son linealmente independientes, lo cual se tiene si la
multiplicación de dos columnas cualesquiera es igual a cero. (Gutierrez, 2004).
Estos arreglos son diseños factoriales completas, fraccionadas o mixtas, dependiendo del
número de factores y estudiar en un caso particular. La condición fundamental para que un
diseño experimental sea de tipo robusto es que exista al menos un factor de ruido para el cual
se busca hacer que el proceso o producto sea insensible a su efecto, sin pretender controlar
dicho factor de ruido. Este seguirá actuando como siempre en el proceso después del
experimento, pero se busca que su efecto sea menor.
63
3.2 Selección de arreglos experimentales.
ARREGLO EXTERNO
HR 1 1 1 2 2 2 3 3 3
FACTORES
SEÑAL /
TA 1 2 3 1 2 3 1 2 3
RAZÓN
RUIDO
MEDIA
RUIDO
DE HE 1 2 3 2 3 1 3 1 2
V 1 2 3 3 1 2 2 3 1
FACTORES
CONTROLABLES 𝑋̅ 𝑆/𝑅
A B C D Y11 Y12 Y13 . . . . . Y19 𝑦̅1. 𝑆/𝑅1
ARREGLO INTERNO
Tabla. 3.2 Ejemplo de diseño con arreglo interno (L8) y arreglo externo (L9). (Gutierrez, 2004).
64
En la figura anterior se muestra una matriz con diseño ortogonal con el arreglo interno L8 y
con un arreglo externo L9. Esto es, para el arreglo interno se optó por el arreglo L8 pero solo
con 4 factores, seleccionando las columnas 1, 2, 4, 7 y para el caso del L 9 también cuatro
factores.
Asignación de factores. Al momento de asignar estos factores debemos tener en cuenta que
esta serie se va secuenciando de acuerdo al nivel de dificultad para la actividad de muestreo.
CONTROLABLES RUIDO
Identificación Factor Identificación Factor
A Temperatura HR Humedad Relativa
B Tiempo TA Temperatura ambiental
C Caudal de aire HE Humedad de entrada
D Operador V Variedad
Tabla 3.2.2 Elaboración propia. Asignación de factores.
Mediciones.
En particular, las fuentes principales que contribuyen al error del proceso de medición son el
equipo de medición, los operadores (reproducibilidad) y la variación dentro de la muestra.
La variabilidad del equipo
En este caso para el análisis del maíz, todos los instrumentos de medición están calibrados por un
laboratorio acreditado ante el Sistema Nacional de Calibración (S.N.C.).
65
• Repetibilidad. La variación observada cuando un operador mide de manera repetida la
misma pieza con el mismo instrumento. Ej. Un operador. (Gutiérrez & Salazar, 2009).
Una hipótesis estadística es una afirmación sobre los valores de los parámetros de una
población o proceso, que es susceptible de probarse a partir de la información contenida en
una muestra representativa que es obtenida de la población. Probar una hipótesis consiste en
investigar si lo afirmado por la hipótesis nula es verdad o no. La estrategia de prueba parte
del supuesto de que H0 es verdadera, y si los resultados de la investigación contradicen en
forma suficiente dicho supuesto, entonces se rechaza H0 y se acepta la hipótesis alternativa.
En caso de que los resultados de la investigación no demuestren claramente la falsedad de
H0, ésta no se rechaza. Es decir, la hipótesis nula es verdadera mientras no se demuestre lo
contrario. (Gutierrez, 2004).
Planteamiento de hipótesis.
𝐻0 : 𝜇1 − 𝜇2 − 𝜇3 − 𝜇4 = 0
En este caso las hipótesis de interés es saber si los factores que interactúan en el proceso de
secado artificial de maíz, se comportan de igual forma o si existe alguna diferencia en al
menos uno de ellos en cuanto al efecto de la variable de respuesta.
66
3.4 Corrida experimental.
Una vez dicho lo anterior se procede a continuar con el experimento real y el diseño final
queda como sigue. A= Temperatura (Bajo-1, Alto-2) B=Tiempo (15 y 30 min) C=Caudal de aire (Bajo-1
Alto-2) D=Operador (Turno1, Turno2), HR=Humedad relativa (25, 40, 55%), HE=Humedad de entrada (17,
18.5, 20), V=Variedad de grano (Dk1, Dk2, Dk3), TA=Temperatura ambiente (30oC, 35 oC, 40 oC)
ARREGLO EXTERNO
H
1 1 1 2 2 2 3 3 3
RAZÓN SEÑAL
FACTORES DE
/ RUIDO
MEDIA
RUIDO
TA 1 2 3 1 2 3 1 2 3
HE 1 2 3 2 3 1 3 1 2
V 1 2 3 3 1 2 2 3 1
̅̅̅̅2̅
𝑌
FACTORES 𝑋̅ 10 𝑙𝑜𝑔10 [ ]
CONTROLABLES 𝑆2
A B C D
17.1 18.7 17 18.6 15.9 18.5 15.8 17.6 17.1889
1 1 1 1 15.5 11.3577
15 16.6 18.2 16.6 18.1 15.3 18 15.2 17.2 16.6889 11.1256
1 1 2 2
ARREGLO INTERNO
14.6 16.2 17.8 16.2 17.8 15 17.7 14.8 16.8 16.3222 10.9827
1 2 1 2
14.2 15.8 17.4 15.7 17.3 14.5 17.2 14.4 16.3 15.8667 10.9174
1 2 2 1
14.1 15.6 17.2 15.5 17.2 14.4 17.1 14.3 16.1 15.7222 10.9318
2 1 1 2
13.7 15.2 16.8 15.2 16.8 14.1 16.7 14 15.8 15.3667 10.9176
2 1 2 1
13.2 14.7 16.3 14.6 16.2 13.5 16.1 13.4 15.2 14.8000 10.7650
2 2 1 1
12.8 14.3 15.9 14.3 15.8 13.1 15.8 13 14.9 14.4333 10.6004
2 2 2 2
Tabla. 3.4. Elaboración propia. Diseño con arreglo interno y externo para hacer más robusta la
calidad del maíz.
Los datos tomados anteriormente se realizaron mediante la normatividad (Aplicaci et al.,
2002), y este diseño fue un acuerdo tomado entre el analista y responsables de los procesos
del centro de acopio, esto con el fin de minimizar pérdidas y también con el objetivo de poder
acumular la mayor cantidad de información posible mediante los datos obtenidos del
muestreo. Cabe mencionar que no existió inconformidad por ninguna de las partes ni
tampoco inconvenientes para llevarse a cabo dicho muestreo, salvo que al momento de
llevarse a cabo los tratamientos se fue capturando primeramente en acuerdo a las necesidades
de la empresa y finalmente se cubrieron algunos tratamientos para completar la matriz.
67
̅̅̅̅
𝑌̅ 2
Analizando la variable S/R=10 𝑙𝑜𝑔10 [ 𝑆 2 ], se obtienen los efectos y sus gráficas de medias.
FACTORES
CONTROLABLES 𝑋̅
A B C D
17.1 18.7 17 18.6 15.9 18.5 15.8 17.6 17.1889
1 1 1 1 15.5
15 16.6 18.2 16.6 18.1 15.3 18 15.2 17.2 16.6889
1 1 2 2
14.6 16.2 17.8 16.2 17.8 15 17.7 14.8 16.8 16.3222
1 2 1 2
14.2 15.8 17.4 15.7 17.3 14.5 17.2 14.4 16.3 15.8667
1 2 2 1
14.1 15.6 17.2 15.5 17.2 14.4 17.1 14.3 16.1 15.7222
2 1 1 2
13.7 15.2 16.8 15.2 16.8 14.1 16.7 14 15.8 15.3667
2 1 2 1
13.2 14.7 16.3 14.6 16.2 13.5 16.1 13.4 15.2 14.8000
2 2 1 1
12.8 14.3 15.9 14.3 15.8 13.1 15.8 13 14.9 14.4333
2 2 2 2
68
Gráfica. 3.4 Efectos principales para medias obtenida mediante el software Minitab v.17.
En esta gráfica se observa que el factor A es el que más efecto tiene sobre la media, seguido
del factor B. Analizando desde otro punto de vista el factor A es el que tiene la mayor
deferencia entre su nivel alto y bajo. Este factor es la temperatura y es importante tenerlo en
cuenta ya que el valor objetivo de la calidad de maíz se centra en 14.7%.
Diagrama de Pareto Estandarizada para % humedad (media)
+
A:Temperatura -
B:Factor_B
C:Factor_C
D:Factor_D
0 10 20 30 40
Efecto estandarizado
Gráfica. 3.4.1 Pareto de los efectos estandarizados para el análisis de las medias.
En este otro gráfico de Pareto, tenemos que los factores A, B y C son significativos en cuanto
al efecto que se tiene sobre la media y claramente se observa que el factor A es sumamente
superior a todos los demás, sin embargo, no podemos ignorar el hecho de que en los
operadores no existe diferencia significativa en cuanto a la labor de los operadores.
69
Análisis de Varianza para % humedad (media).
Fuente Suma de Gl Cuadrado Razón-F Valor-P
Cuadrados Medio
A:Temperatura 4.12483 1 4.12483 1187.95 0.0001
B:Factor_B 1.57039 1 1.57039 452.27 0.0002
C:Factor_C 0.351867 1 0.351867 101.34 0.0021
D:Factor_D 0.000385802 1 0.000385802 0.11 0.7608
Error total 0.0104167 3 0.00347222
Total (corr.) 6.05789 7
Tabla 3.4.2 ANOVA para el análisis de medias de cada factor controlable.
99.9
99
95
80
porcentaje
50
20
0.1
-35 -25 -15 -5 5
Efectos estandarizados
La gráfica de probabilidad normal nos indica que los puntos se ajustan a una línea, por lo que
podemos decir que los datos de cada factor (media) se comportan como normales de acuerdo
a una tendencia entre porcentaje de la acumulación de datos y el efecto estandarizado de cada
factor controlable que incide directamente en el proceso de secado artificial de maíz.
70
̅̅̅̅
𝑌̅ 2
Analizando la variable S/R=10 𝑙𝑜𝑔10 [ 𝑆 2 ], se obtienen los efectos y sus gráficas.
̅̅̅̅2̅
𝑌
FACTORES 17 18.5 20 18.5 20 17 20 17 18.5 10 𝑙𝑜𝑔10 [ ]
CONTROLABLES 𝑆2
A B C D
17.1 18.7 17 18.6 15.9 18.5 15.8 17.6
1 1 1 1 15.5 22.7153
15 16.6 18.2 16.6 18.1 15.3 18 15.2 17.2 22.2511
1 1 2 2
14.6 16.2 17.8 16.2 17.8 15 17.7 14.8 16.8 21.9653
1 2 1 2
14.2 15.8 17.4 15.7 17.3 14.5 17.2 14.4 16.3 21.8349
1 2 2 1
14.1 15.6 17.2 15.5 17.2 14.4 17.1 14.3 16.1 21.8635
2 1 1 2
13.7 15.2 16.8 15.2 16.8 14.1 16.7 14 15.8 21.8353
2 1 2 1
13.2 14.7 16.3 14.6 16.2 13.5 16.1 13.4 15.2 21.5300
2 2 1 1
12.8 14.3 15.9 14.3 15.8 13.1 15.8 13 14.9 21.2008
2 2 2 2
̅̅̅̅
𝑌̅ 2
Tabla 3.4.3 Cálculo de la función S/R=10 𝑙𝑜𝑔10 [ 𝑆 2 ] para cada tratamiento factorial.
(𝟐𝟐. 𝟕𝟏𝟓𝟑 + 𝟐𝟐. 𝟐𝟓𝟏𝟏 + 𝟐𝟏. 𝟗𝟔𝟓𝟑 + 𝟐𝟏. 𝟖𝟑𝟒𝟗) 𝟖𝟖. 𝟕𝟔𝟔𝟔
𝐹𝑎𝑐𝑡𝑜𝑟 𝐴𝐵𝑎𝑗𝑜 = = = 𝟐𝟐. 𝟏𝟗
4 4
(𝟐𝟏.𝟖𝟔𝟑𝟓+𝟐𝟏.𝟖𝟑𝟓𝟑+𝟐𝟏.𝟓𝟑𝟎𝟎+𝟐𝟏.𝟐𝟎𝟎𝟖) 𝟖𝟔.𝟒𝟐𝟗𝟔
𝐹𝑎𝑐𝑡𝑜𝑟 𝐴𝐴𝑙𝑡𝑜 = = = 21.60
4 4
(𝟐𝟐. 𝟕𝟏𝟓𝟑 + 𝟐𝟐. 𝟐𝟓𝟏𝟏 + 𝟐𝟏. 𝟖𝟔𝟑𝟓 + 𝟐𝟏. 𝟖𝟑𝟓𝟑) 𝟖𝟖. 𝟔𝟔𝟓𝟐
𝐹𝑎𝑐𝑡𝑜𝑟 𝐵𝐵𝑎𝑗𝑜 = = = 𝟐𝟐. 𝟏𝟔
4 4
(𝟐𝟏. 𝟗𝟔𝟓𝟑 + 𝟐𝟏. 𝟖𝟑𝟒𝟗 + 𝟐𝟏. 𝟓𝟑𝟎𝟎 + 𝟐𝟏. 𝟐𝟎𝟎𝟖) 𝟖𝟔. 𝟓𝟑𝟏𝟎
𝐹𝑎𝑐𝑡𝑜𝑟 𝐵𝐴𝑙𝑡𝑜 = = = 𝟐𝟏. 𝟔𝟑
4 4
(𝟐𝟐. 𝟕𝟏𝟓𝟑 + 𝟐𝟏. 𝟗𝟔𝟓𝟑 + 𝟐𝟏. 𝟖𝟔𝟑𝟓 + 𝟐𝟏. 𝟓𝟑𝟎𝟎) 𝟖𝟖. 𝟎𝟕𝟒𝟐
𝐹𝑎𝑐𝑡𝑜𝑟 𝐶𝐵𝑎𝑗𝑜 = = = 𝟐𝟐. 𝟎𝟏
4 4
(𝟐𝟐. 𝟐𝟓𝟏𝟏 + 𝟐𝟏. 𝟖𝟑𝟒𝟗 + 𝟐𝟏. 𝟖𝟑𝟓𝟑 + 𝟐𝟏. 𝟐𝟎𝟎𝟖) 𝟖𝟕. 𝟏𝟐𝟐𝟎
𝐹𝑎𝑐𝑡𝑜𝑟 𝐶𝐴𝑙𝑡𝑜 = = = 𝟐𝟏. 𝟕𝟖
4 4
(𝟐𝟐. 𝟕𝟏𝟓𝟑 + 𝟐𝟏. 𝟖𝟑𝟒𝟗 + 𝟐𝟏. 𝟖𝟑𝟓𝟑 + 𝟐𝟏. 𝟓𝟑𝟎𝟎) 𝟖𝟕. 𝟗𝟏𝟓𝟓
𝐹𝑎𝑐𝑡𝑜𝑟 𝐷𝐵𝑎𝑗𝑜 = = = 𝟐𝟏. 𝟗𝟕
4 4
(𝟐𝟐. 𝟐𝟓𝟏𝟏 + 𝟐𝟏. 𝟗𝟔𝟓𝟑 + 𝟐𝟏. 𝟖𝟔𝟑𝟓 + 𝟐𝟏. 𝟐𝟎𝟎𝟖) 𝟖𝟕. 𝟐𝟖𝟎𝟕
𝐹𝑎𝑐𝑡𝑜𝑟 𝐷𝐴𝑙𝑡𝑜 = = = 𝟐𝟏. 𝟖𝟐
4 4
71
Gráfica.3.4.3 Efectos principales para razón SN obtenida mediante el software Minitab v 17.
En esta gráfica se observa que el factor A es el que más efecto tiene sobre la media, seguido
del factor B. Analizando desde otro punto de vista el factor A es el que tiene la mayor
deferencia entre su nivel alto y bajo. Este factor es la temperatura y es importante tenerlo en
cuenta, aunque el factor B difiere con muy poco en cuanto al efecto que ambos factores
ofrecen sobre la variable de respuesta en relación a la razón señal / ruido.
Nivel A B C D
1 22.19 22.17 22.02 21.98
2 21.61 21.63 21.78 21.82
Delta 0.58 0.53 0.24 0.16
Clasificar 1 2 3 4
Tabla 3.4.4 Respuesta para relaciones de señal a ruido nominal es mejor.
72
Efectos estimados para % humedad (SN: objetivo)
Efecto Estimado Error Estd. V.I.F.
Promedio 21.8995 0.0224326
A:Temperatura -0.584257 0.0448652 1.0
B:Factor_B -0.533566 0.0448652 1.0
C:Factor_C -0.238041 0.0448652 1.0
D:Factor_D -0.158706 0.0448652 1.0
Errores estándar basados en el error total con 3 g.l.
Tabla 3.4.5 Efectos estimados para % humedad (SN: objetivo).
Esta tabla muestra las estimaciones para cada uno de los efectos estimados y las
interacciones. También se muestra el error estándar de cada uno de estos efectos, el cual
mide su error de muestreo. Note también que el factor de inflación de varianza (V.I.F.) más
grande, es igual a 1.0. Para un diseño perfectamente ortogonal, todos los factores serían
igual a 1.
R-cuadrada = 99.1542 por ciento; R-cuadrada (ajustada por g.l.) = 98.0264 por ciento;
Error estándar del est. = 0.063449 Error absoluto medio = 0.0296463; Estadístico Durbin-
Watson = 1.20227 (P=0.1534); Autocorrelación residual de Lag 1 = 0.115308
La tabla ANOVA particiona la variabilidad de % humedad en piezas separadas para cada uno
de los efectos. Entonces prueba la significancia estadística de cada efecto comparando su
cuadrado medio contra un estimado del error experimental. En este caso, 4 efectos tienen
una valor-P menor que 0.05, indicando que son significativamente diferentes de cero con un
nivel de confianza del 95.0%.
73
El estadístico R-Cuadrada indica que el modelo, así ajustado, explica 99.1542% de la
variabilidad en % humedad. El estadístico R-cuadrada ajustada, que es más adecuado para
comparar modelos con diferente número de variables independientes, es 98.0264%. El error
estándar del estimado muestra que la desviación estándar de los residuos es 0.063449. El
error medio absoluto (MAE) de 0.0296463 es el valor promedio de los residuos. El
estadístico de Durbin-Watson (DW) prueba los residuos para determinar si haya alguna
correlación significativa basada en el orden en que se presentan los datos en el archivo.
Puesto que el valor-P es mayor que 5.0%, no hay indicación de autocorrelación serial en los
residuos con un nivel de significancia del 5.0%.
+
A:Temperatura -
B:Factor_B
C:Factor_C
D:Factor_D
0 3 6 9 12 15
Efecto estandarizado
̅̅̅̅
𝑌̅ 2
Gráfico 3.4.4 Pareto de los efectos estandarizados de la función S/R=10 𝑙𝑜𝑔10 [ 𝑆 2 ].
En este diagrama de Pareto podemos visualizar que todos los factores son significativos lo
cual viene a comprobar gráficamente que en realidad si existe una diferencia significativa en
cuanto a los distintos niveles que se presentan en el impacto de la variable de respuesta, sin
embargo, los dos factores que más afectan son la temperatura y el tiempo, por lo que los
74
operadores deberán prestar atención y cuidado en el manejo de estas variables. Además de
los pasos anteriores, para cualquier respuesta continua es útil realizar estos dos mismos pasos
con el estadístico general S/R -10log(S2), a fin de tener otra visión del análisis y si los
resultados de este otro llegaran a diferir del estadístico recomendado por Taguchi se deben
analizar con detenimiento las dos soluciones encontradas para finalmente determinar cuál es
la mejor. Este segundo análisis puede proteger al experimentador de una solución subóptima
que algunas veces generan las señales/ruido originales. (Logothetis, 1994).
Analizando la variable S/R=−10 𝑙𝑜𝑔10 S2, se obtienen los efectos y sus gráficas.
A B C D
17.1 18.7 17 18.6 15.9 18.5 15.8 17.6
1 1 1 1 15.5
-1.990
1 1 2 2
15 16.6 18.2 16.6 18.1 15.3 18 15.2 17.2 -2.197
1 2 1 2
14.6 16.2 17.8 16.2 17.8 15 17.7 14.8 16.8 -2.290
1 2 2 1
14.2 15.8 17.4 15.7 17.3 14.5 17.2 14.4 16.3 -2.175
2 1 1 2
14.1 15.6 17.2 15.5 17.2 14.4 17.1 14.3 16.1 -2.067
2 1 2 1
13.7 15.2 16.8 15.2 16.8 14.1 16.7 14 15.8 -1.896
2 2 1 1
13.2 14.7 16.3 14.6 16.2 13.5 16.1 13.4 15.2 -1.875
2 2 2 2
12.8 14.3 15.9 14.3 15.8 13.1 15.8 13 14.9 -1.987
75
Gráfico. 3.4.5 Efectos principales para relaciones SN con la función -10Log10(S2).
En esta gráfica (-10Log10(S2)) se puede observar que los factores A y D son los que más
̅̅
𝑌̅̅̅2
variabilidad presentan por lo que claramente difiere del gráfico 10 𝑙𝑜𝑔10 [𝑆 2 ]; es por esto, que
es necesario hacer un análisis más profundo y definir qué estudio nos sirve para mejorar la
característica de calidad.
Diagrama de Pareto Estandarizada para % humedad (SN: -10 log s^2)
+
A:Temperatura -
D:Factor_D
B:Factor_B
C:Factor_C
0 1 2 3 4
Efecto estandarizado
Gráfico 3.4.6. Pareto de los efectos estandarizados para la función S/N de cada factor.
76
En el gráfico de Pareto anterior tenemos que la temperatura es la único que rebasa el
estadístico de prueba de T-student, por lo que podemos definir que para este caso, solo un
factor se considera como el que afecta significativamente en el proceso lo cual resulta ser una
respuesta subóptima.
La tabla ANOVA particiona la variabilidad de % humedad en piezas separadas para cada uno
de los efectos. Entonces prueba la significancia estadística de cada efecto comparando su
cuadrado medio contra un estimado del error experimental. En este caso, un efecto tiene una
valor-P menor que 0.05, indicando que son significativamente diferentes de cero con un nivel
de confianza del 95.0%. El estadístico R-Cuadrada indica que el modelo, así ajustado, explica
86.5318% de la variabilidad en % humedad. El estadístico R-cuadrada ajustada, que es más
adecuado para comparar modelos con diferente número de variables independientes, es
68.5743%. El error estándar del estimado muestra que la desviación estándar de los residuos
es 0.0838041. El error medio absoluto (MAE) de 0.0474164 es el valor promedio de los
residuos. El estadístico de Durbin-Watson (DW) prueba los residuos para determinar si haya
alguna correlación significativa basada en el orden en que se presentan los datos en el
archivo. Debido a que el valor-P es menor que 5.0%, hay una indicación de posible
correlación serial al nivel de significancia del 5.0%.
77
Prueba de hipótesis.
Recordemos que para Fisher la hipótesis a contrastar es que “no existe diferencia entre los
tratamientos. Según Salsburg para distinguir entre la hipótesis usada por Fisher para calcular
el valor p y otras posibles hipótesis Neyman y E. Pearson llamaron hipótesis nula a la
hipótesis a contrastar y a la otra, hipótesis alternativa. En esta formulación, el valor p es
calculado para contrastar la hipótesis nula pero la potencia de la prueba se refiere a como este
valor p funcionará si la alternativa es, en los hechos, verdadera. La potencia de la prueba es
una medida de cuan buena es la prueba. Dadas dos pruebas la de mayor potencia sería la
mejor a usar. De modo muy sintético recordemos que la Teoría de Neyman-Pearson, cuya
estructura matemática es aceptada hasta nuestros días, establece, como hemos dicho, dos
hipótesis posibles: la nula y la alternativa. Según los autores existen dos fuentes de error:
rechazar la hipótesis nula cuando es verdadera (nivel de significación, αo error de tipo I) y no
rechazarla cuando es falsa (βo error de tipo II). Sus contrapartidas, en sentido probabilística,
son las decisiones correctas de no rechazar una hipótesis cuando es verdadera (1-α) y
rechazarla cuando es falsa (1-β), esto último es la potencia de la prueba. Deberíamos intentar
mantener la probabilidad de cometer error de tipo I a un nivel bastante bajo, como 0.01 ó
0.05, y después minimizar el error de tipo II todo lo que se pueda”…”La única forma de
reducir un error de tipo II sin aumentar un error de tipo I es aumentar el tamaño de la muestra,
lo que no siempre resulta fácil. Siguiendo a Salburg admitimos que el uso de pruebas de
significación de Fisher produce un número que llamó valor p. Es una probabilidad calculada,
una probabilidad asociada a los datos observados bajo el supuesto de que la hipótesis nula es
verdadera. El valor p es una probabilidad (p-value), se puede definir como “el menor nivel
de significación al que se puede rechazar una hipótesis nula cuando es verdadera.”(Fernández
Loureiro, 2001).
Esta lógica de análisis tiene semejanzas con los planteamientos filosóficos de Karl Popper
quien estableció que “la ciencia no avanza aceptando hipótesis verdaderas, sino rechazando
falsas”. La potencia de una prueba estadística o el poder estadístico es la probabilidad de que
la hipótesis nula sea rechazada cuando la hipótesis alternativa es verdadera (es decir, la
probabilidad de no cometer un error del tipo II). Por lo tanto la potencia es igual a 1 - β, que
también se conoce como la sensibilidad.
78
Probable
Criterio de Gráficamente
# Factores Decisión fuente de
Hipótesis F-Fisher (V1=1,V2=3)
error
De esto podemos concluir que como el valor de F calculada es menor que la F de la tabla de
Fisher, Ho se rechaza; por lo tanto existen diferencias significativas reales en el efecto de
cada uno de los cuatro factores, afectando directamente en el proceso de secado de maíz.
Siendo así la temperatura que causa mayor afectación seguido del tiempo respectivamente.
79
Capítulo IV. Análisis de resultados.
Finalmente una vez concluido el proyecto podemos decidir qué medidas implementar para
generalizar el resultado del estudio y garantizar que las mejoras se mantengan. Quizá sea
conveniente aplicar las mismas medidas en procesos similares, modificar procesos,
procedimientos e instrucciones de trabajo y establecer medidas de control.
En este caso el mejor ANOVA resulto ser que todos los factores impactaban directamente en
el resultado de la obtención de la humedad nominal del maíz. Por lo que se puede concluir lo
siguiente:
̅̅̅
̅ 2̅
Y
Posteriormente en el análisis de la función S/R=10 log10 [S2 ], todos los factores fueron
estadísticamente significativos pero para el caso del análisis de medias solo el factor de
operador resultó que no impactaba significativamente en el proceso de secado de maíz. Esto
es notorio y llama mucho la atención porque en cuanto a resultados de medias no afecta pero
en señal ruido sí. Por lo que se deberá tener sumo cuidado en el método y las operaciones a
realizar por parte de los operadores.
80
Monitoreo de silos y resultados.
Por cada dos lotes se tomaron tres muestras a distinta profundidad, una a un metro, la otra a
dos metros y la última a tres metros, y cada muestra se deposita en bolsas separadas por lote
y profundidad, en algunas ocasiones se utiliza la técnica de cinco de oros simulando una ficha
de dominó, por lo tanto, para cada lote se ocuparían tres bolsas y a cada una se le deposita un
formato el cual indica la procedencia de la muestra.
Fecha: _______________
Bodega: ______________
Lote #
Termometría
Tijerales Lotes
Tijerales
Puntos de muestreo
LOTE HUMED IMP. CALOR G.CAFE HONG POD INSEC MANCH TOT QUEB P. ESP
L-1 13.9 0.6 0.0 0.0 0.0 0.3 0.0 0.0 0.3 0.5 0.761
L-2 13.8 0.8 0.0 0.0 0.0 0.2 0.0 0.0 0.2 0.6 0.760
L-3 14.0 0.5 0.0 0.0 0.0 0.4 0.0 0.0 0.4 0.8 0.759
L-4 13.7 0.6 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.8 0.763
L-5 14.1 0.9 .0.0 0.0 0.0 0.4 0.0 0.0 0.4 0.7 0.762
L-6 14.0 0.7 .0.0 0.0 0.0 0.2 0.0 0.0 0.2 1.0 0.760
L-7 13.9 1.0 0.0 0.0 0.0 0.3 0.0 0.0 0.3 0.6 0.760
L-8 13.8 0.9 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.7 0.763
L-9 13.8 0.8 0.0 0.0 0.0 0.2 0.0 0.0 0.2 0.5 0.761
L-10 14.0 0.6 0.0 0.0 0.0 0.3 0.0 0.0 0.3 0.9 0.760
Prom 13.9 0.74 0.0 0.0 0.0 0.23 0.0 0.0 0.23 0.71 0.761
82
En este recuadro se observa el análisis general de la bodega uno en la cual se da mayor
importancia a la humedad y el manchado o daño por secadora.
En el recuadro siguiente se observa el análisis para las siguiente bodegas dos y después se
realiza una comparación.
LOTE HUMED IMP. CALOR G.CAFE HONG POD INSEC MANCH TOT QUEB P. ESP
L-1 13.2 0.6 0.0 0.0 0.0 0.3 0.0 0.0 0.3 0.7 0.760
L-2 15.3 0.5 0.0 0.0 0.0 0.5 0.0 0.0 0.5 1.0 0.763
L-3 12.9 0.6 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.8 0.740
L-4 13.0 0.6 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.6 0.760
L-5 12.6 0.9 0.0 0.0 0.0 0.4 0.0 0.5 0.9 1.2 0.750
L-6 16.3 1.1 0.0 0.0 0.0 0.4 0.0 0.0 0.4 1.0 0.770
L-7 13.1 0.8 0.0 0.0 0.0 0.0 0.0 0.3 0.3 1.1 0.760
L-8 12.8 0.9 0.0 0.0 0.0 0.4 0.0 0.0 0.4 0.9 0.740
L-9 13.5 0.7 0.0 0.0 0.0 0.6 0.0 0.0 0.6 1.0 0.761
L-10 14.4 1.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.7 0.765
Prom 13.7 0.77 0.0 0.0 0.0 0.26 0.0 0.08 0.34 0.9 0.756
83
Con el resumen de los cuadros anteriores podemos definir qué:
La humedad del primer y segundo silo es buena, solo que para fines de conservación resultó
ser mejor la bodega número uno, por tener mayor el índice de humedad promedio a la
humedad requerida por las empresas harineras y Cargill, que es del 14 a 11 por ciento.
El silo número uno cuenta con menor porcentaje de impureza, lo que significa que se tendrá
una menor probabilidad de calentamientos en este, aunque este es un factor que no es
consecuencia del secado artificial, es clave también para la conservación de la calidad del
grano.
En cuanto al porcentaje de granos podridos, granos quebrados y total de daños, la que ocupa
mayor porcentaje es el silo dos, este puede variar para los dos dependiendo del grano podrido
recibido de campo, daño por secadora y la conservación del mismo.
Por último, el porcentaje de peso específico, es mejor para el silo uno, este va relacionado
con el porcentaje de humedad y es crítico en la calidad y en el rendimiento del peso y la
existencia en la unidad.
Basado en los volúmenes cubicados de maíz para cada silo, el número uno es el que acaparó
mayor volumen, debido a que algunos lotes de grano presentan una humedad y un peso
específico menor de lo requerido. Por lo tanto:
84
En el silo uno hubo una mejor diferencia de 150 toneladas por encima del silo dos,
presentando una mejor calidad en el grano ya que esta tiene presencia de grano manchado
debido algunos procesos excedidos en calor por parte de la secadora.
Tomando en cuenta que el volumen de acopio, capturado en los registros del sistema fue de
9,150 toneladas para el silo uno y 9,120 toneladas para el silo dos, la diferencia para los silos
uno y dos fue la siguiente:
Silos: (9570 – 9420) = 150; Para silo 1 = 150.0 por arriba del volumen de silo dos, se calcula
que:
(150 toneladas) ($3800.00) = $570,000; Por lo tanto en el silo uno se tiene $570,000 pesos
en diferencia.
Pero para el caso del silo 1, que es el que se trabajó con la respuestas de diseño experimental,
sucede que 9150 toneladas reportadas al sistema menos 9570 toneladas cubicadas se tiene
una ganancia de 420 toneladas que se le generaron a la empresa del recaudado en el sistema
y para el silo dos una ganancia de 300 toneladas, esto sin tomar en cuenta que con el paso de
los días irá disminuyendo por la pérdida constante de humedad hasta su estabilización.
-La presión por trabajar rápido y a la vez por tener una humedad nominal de 14.7 es uno de
los principales puntos a abatir (estrés), ya que con este estudio el operador contará con un
acercamiento (no exacto) del nivel que debe tener cada factor.
85
Aquí se muestra la tabla de humedades definidas resultantes del experimento anterior.
Para un análisis más profundo se propuso a la empresa llevar los registros de cada operación
para que de esta manera se vaya reduciendo la brecha de experimentación y error; es decir,
una vez que los operadores conforme a la marcha vayan a prueba y error obteniendo registros
acercados en base a la premisa de la importancia del impacto directo de cada factor, se
obtendrá más agilidad en el proceso y mayor calidad en el producto. En definitivo, cada
decisión tomada por el operador en turno es importante, es por ello que entre menos rotación
de personal exista por parte de la empresa y mayor capacitación tengan se verá finalmente
reflejada en los resultados.
Una de las propuestas que se pueden realizar es el de trabajar con simulación con software
especializados o modelos matemáticos y estadísticos que integren todos y cada uno de los
actores obteniendo un acercamiento más real a lo que pueda ser la obtención de variables de
respuesta más viables y sobre todo que la experimentación no resulte ser tan cara evitando
demoras principalmente.
La aplicación de modelos de Thompson para simular el secado del grano a altas temperaturas,
el desarrollo de un lenguaje apropiado para generar modelos de secado y el desarrollo de
una interfaz gráfica con el objetivo de facilitar la comprensión del usuario. Programas
computacionales como LINSEC bajo Visual Basic es uno de los más eficaces para el
modelado y simulación de sistemas de secado y en la prestación de valores simulados
acercados más a la realidad podrían ser una muy buena opción.
86
Otra de las propuestas a realizar es la creación de nuevas secadoras que permitan un control
automático que reduzcan el riesgo de sobre secado y permita hacer un uso muy eficiente de
la energía, que aporten a la cadena de valor de los granos debido permitiendo obtener un
producto íntegro final de alta calidad.
Conclusiones.
Finalmente podemos concluir que se identificaron los factores, niveles y variables que
intervinieron en el proceso de secado artificial de maíz, presentados en las tablas previamente
diseñadas para su posterior análisis. También se describió paso a paso, todo el proceso formal
del secado y conservación del producto. Por consiguiente, se formularon las hipótesis en las
cuales se hizo énfasis, si habría o no diferencia significativa en los factores controlables a
considerar que podrían afectar directamente en el proceso de secado, para después, una vez
seleccionado la técnica de Taguchi (diseños ortogonales), analizar la varianza de las muestras
obtenidas. Después los resultados obtenidos se interpretaron mediante gráficos arrojados por
distintos software como Statgraphics y Minitab 17 principalmente, demostrando así, que la
̅̅̅
̅ 2̅
Y
temperatura, el tiempo y caudal de aire mediante la función S/R=10 log10 [ 2 ] y medias
S
fueron factores que afectaron significativamente la variable de respuesta y por otra parte hubo
una discrepancia siendo el factor operador el único en no demostrar estadísticamente una
clara diferencia en los resultados entre un operador y otro. De esto se pudo extraer la
combinación óptima de factores para la obtención de humedades al finalizar el proceso de
secado propuesta en la tabla de tratamientos deseables. Finalmente se pudo lograr con éxito
el objetivo principal de la investigación que fue la mejora del proceso de secado artificial en
la empresa GRANISSA, en base a un diseño experimental.
87
Referencias bibliográficas.
Aguirre, R. (1988). Manual para el beneficio de las semillas (Vol. 1). Cali, Colombia:
CIAT. http://doi.org/ISBN-84-89206-75-9
Cayuela, L., Rey, U., & Carlos, J. (2011). Introducción al diseño de experimentos,
104–122.
88
Fundibeq. (2007). Diseno_De_Experimentos, 1–23.
Gutiérrez, H., & Salazar, R. (2009). Control estadístico de la calidad y seis sigmas,
McGraw Hill edición.
Rocío, A., & Pérez, M. (2002). ¿Qué son los indicadores? Revista de Información Y
Análisis, 19, 52–58.
Salazar, G., Alberto, J., Rebollar, R., Licea, R., Alberto, J., Salazar, G., … Rodríguez,
G. (2006). Competitividad , cupos de importación y comercialización de maíz de
Sinaloa.
89
Sampieri, R., Collado, C., Lucio, P., & Pérez, M. (1998). Metodología de la
investigación (pp. 1–21).
Srinivasan, Murray & Schiller, (2007). Cuarta edición, Schaum’s Outline of Theory
and Problems of Probability and Statistics. McGraw Hill..
Yacuzzi, E., Martín, F., Quiñones, M., & Popovsky, M. (2013). El Diseño
Experimental y los Métodos de Taguchi: Conceptos y Aplicación en la Industria
Farmacéutica, 1–30.
90