Está en la página 1de 21

UNIVERSIDAD NACIONAL AGRARIA

LA MOLINA

FACULTAD DE INDUSTRIAS ALIMENTARIAS

DEPARTAMENTO ACADÉMICO DE INGENIERÍA DE


ALIMENTOS Y PRODUCTOS AGROPECUARIOS

PRESENTACIÓN DE DATOS EXPERIMENTALES

GRUPO N° 7:
- Rojas Blanco, Luis
- Sánchez Herrera, Jessica
- (Sebastian Cuellar, Evelyn)
- Trillo Chauca, Camila
- Uyema Fukuhara, Melanie
- (Vargas Condori, Heydi)
- Velarde Yabar, Antonio

Fecha de entrega: 13/11/18


2018-II
I. INTRODUCCIÓN
Los métodos numéricos son procedimientos para calcular las incógnitas o variables
dependientes que resultan de aplicar teorías de la ingeniería y las matemáticas a casos
prácticos y que en ocasiones no pueden obtenerse por métodos basados en técnicas analíticas
exclusivamente (Izar, 1998). Es de extraordinaria utilidad conocer en qué forma están
relacionadas las variables objetivo de análisis; es decir, la función matemática capaz de
representar tal relación.
Los datos que se obtienen mediante mediciones fluctúan, esto se debe a errores aleatorios del
sistema de medición aplicado. Cualquiera que sea la razón, es frecuente que surja la
necesidad de ajustar una función a los datos de medición. Esto se hace para determinar el
comportamiento general de los datos o para evaluar la función en puntos diferentes de los
datos (Espinoza ​et al​., 2016).
La curva de ajuste puede ser una línea, un polinomio de grado ​n o una función logarítmica ,
exponencial, cosenoidal, o de algún otro tipo. La curva adecuada se escoge dependiendo de la
distribución de los datos experimentales, de manera tal que se minimice la suma de los
cuadrados de los errores (método conocido como mínimos cuadrados) (Espinoza ​et al.​ ,
2016).
El método de mínimos cuadrados se basa en una regresión simple, cuya metodología permite
obtener ecuaciones, donde solo intervienen dos variables; una dependiente o predictando y
otra independiente o predictor. Cuando por medio del análisis lógico se ha comprobado la
existencia de una relación de causalidad directa o indirecta entre las variables, es necesario
determinar cuál es la función matemática que representa adecuadamente la relación. Para ello
es indispensable disponer de información acerca de los valores que ha alcanzado cada una de
las variables en distintos periodos. Con las informaciones obtenidas, que deben ser suficientes
en número para garantizar un buen ajuste, se construirá una gráfica y se podrá decidir si la
función adecuada es un recta, una hipérbola, una parábola, una potencial, una exponencial,
etcétera (Núñez, 1992​).
Una vez que se ha decidido cuál es la función adecuada para el ajuste de regresión, es posible
determinar los parámetros de la función elegida. Es por ello que el objetivo del presente
trabajo es encontrar la relación entre dos variables (dependiente e independiente) y la mejor
forma de ajuste entre ellas, para así poder utilizar la ecuación hallada en procesos futuros que
requieren estimación de la variable dependiente.
II. REVISIÓN LITERARIA
2.1. Manejo de datos
El manejo de datos normalmente se lleva a cabo después de que éstos se recaban en un
análisis. Las estadísticas son necesarias para entender el significado de los datos obtenidos
y verificar la validez de dichos datos. El diseño de experimento (incluyendo el tamaño de
la muestra, la exactitud de las mediciones y el número de análisis que se requieren) se
determina a partir de una comprensión correcta de lo que representan los datos (Christian,
2009).

2.1.1. Cifras significativas:


El eslabón débil en la cadena de cualquier análisis es la medición que se puede hacer con
la menor exactitud. Es inútil aumentar el esfuerzo para hacer las otras mediciones del
análisis más exactas que esta medición limitante. El número de cifras significativas se
puede definir como el número necesario de dígitos para expresar los resultados de una
medición congruente con la precisión medida. Como hay incertidumbre (imprecisión) en
cualquier medición de por lo menos 1 en la última cifra significativa, el número de cifras
significativas incluye todos los dígitos que se conocen, más el primer dígito incierto. Cada
dígito denota la cantidad real que especifica. Por ejemplo, en el número 237 se tienen 2
centenas, 3 decenas y 7 unidades. El dígito 0 puede ser una parte significativa de la
medición, o bien usarse sólo para colocar el punto decimal. El número de cifras
significativas en una medición es independiente de la colocación del punto decimal.
Considérese, por ejemplo, el número 92.067. Este número tiene cinco cifras significativas,
sin importar dónde se coloque el punto decimal. Por ejemplo, 92 067 m, 9.2067 cm,
0.92067 dm y 0.092067 m tienen todos el mismo número de cifras significativas.
Simplemente representan diferentes formas (unidades) de expresar una medición. El cero
entre el punto decimal y el nueve en el último número se usa sólo para colocar el punto
decimal. No hay duda que cualquier cero que esté junto a un punto decimal es significativo
o bien se usa para colocar el punto decimal. En el número 727.0, el cero no se usa para
localizar el punto decimal; es más bien una parte significativa del número. La ambigüedad
puede surgir si un cero precede al punto decimal. Si cae entre otros dos dígitos diferentes
de cero, entonces el cero será significativo. Éste es el caso con 92 067. En el número 936
600, es imposible determinar si uno de los ceros, ambos o ninguno se usa sólo para colocar
el punto decimal, o si son parte de la medición. Es mejor, en casos como éste, escribir sólo
las cifras significativas de las que se está seguro, y luego ubicar el punto decimal por
notación científica. Así, 9.3660*10^5 tiene cinco cifras significativas, pero 936 600 tiene
seis dígitos, uno de ellos para colocar el punto decimal (Christian, 2009).

2.1.2. Redondeo:
La técnica del redondeo busca reducir las cifras de un número tratando de mantener un
valor similar. Esto genera menos exactitud pero de mayor facilidad de los datos.
Si el dígito que sigue a la última cifra significativa es mayor que 5, el número se redondea
al siguiente dígito mayor. Si es menor que 5, el número se redondea al valor de la última
cifra significativa:
9.47 = 9.5
9.43 = 9.4
Si el último dígito es 5, el número se redondea al dígito par más cercano:
8.65 = 8.6
8.75 = 8.8
8.55 = 8.6
Esto se basa en la predicción estadística de que hay igual probabilidad de que la última
cifra significativa antes del 5 sea par o impar. Es decir, en un muestreo adecuadamente
grande habrá un número igual de dígitos pares e impares que preceden al 5. Todos los
dígitos no significativos se deben eliminar por redondeo. La regla del número par sólo se
aplica cuando el dígito eliminado es exactamente 5 (no … 51, por ejemplo) (Christian,
2009).

2.1.3. Error:
Hay dos clases principales de errores que pueden afectar la exactitud o la precisión de una
cantidad medida. Los errores determinados son aquellos que, como su nombre lo indica,
son determinables y tal vez sea posible evitar o corregir. Pueden ser constantes, como en el
caso de una pesa descalibrada que se usa para hacer todas las pesadas, o llegar a ser
variables, pero de tal naturaleza que se pueden cuantificar y corregir, como una bureta
cuyas lecturas de volumen están en error en diferentes cantidades a diferentes volúmenes.
El error puede ser proporcional al tamaño de la muestra o bien cambiar de manera más
compleja. Con más frecuencia, la variación es unidireccional, como en el caso de la
pérdida por solubilidad de un precipitado (error negativo). Sin embargo, puede ser de
signo aleatorio. Un ejemplo de esto es el cambio en el volumen y la concentración de
soluciones que ocurren con modificaciones en la temperatura. Esto se puede corregir
midiendo la temperatura de la solución. Los errores determinados medibles se clasifican
como errores sistemáticos (Christian, 2009).
Algunos errores determinados comunes son los siguientes:
1. Errores instrumentales: ​Incluyen equipo defectuoso, pesas descalibradas, equipo de
vidrio no calibrado.
2. Errores operativos: Incluyen errores personales, y se pueden reducir con la
experiencia y el cuidado del analista en las manipulaciones físicas necesarias. Las
operaciones en que pueden darse estos errores incluyen trasvasado de soluciones,
efervescencia y borboteo durante la disolución de la muestra, el secado incompleto de
las muestras, y otros. Es difícil hacer correcciones para estos errores. Otros errores
personales incluyen errores matemáticos en los cálculos y prejuicio al estimar las
mediciones.
3. Errores del método: Éstos son los errores más graves de un análisis. La mayor parte
de los errores anteriores se pueden reducir al mínimo o corregir, pero errores
inherentes al método no es posible cambiarlos a menos que las condiciones de la
determinación se alteren. Algunas fuentes de errores de método incluyen
coprecipitación de impurezas, ligera solubilidad de un precipitado, reacciones
laterales, reacciones incompletas e impurezas en los reactivos.
Los errores determinados o sistemáticos son no aleatorios y ocurren cuando algo
anda mal con la medición (​ Christian, 2009).

La segunda clase de errores incluye los ​errores indeterminados, que a menudo se llaman
accidentales o aleatorios, los cuales representan la incertidumbre experimental que ocurre
en cualquier medición. Estos errores se revelan por pequeñas diferencias en mediciones
sucesivas hechas por el mismo analista bajo condiciones prácticamente idénticas, y no se
pueden predecir ni estimar. Estos errores accidentales siguen una distribución aleatoria,
por lo cual suelen aplicarse leyes matemáticas de probabilidad para llegar a alguna
conclusión respecto del resultado de una serie de mediciones. Rebasaría el alcance de este
texto entrar en la probabilidad matemática, pero se puede decir que los errores
indeterminados deben seguir una distribución normal, o curva de Gauss.
Los errores indeterminados realmente se originan de la capacidad limitada del analista
para controlar las condiciones externas y hacer correcciones para dichas condiciones, o la
incapacidad para reconocer la aparición de factores que darán por resultado errores.
Algunos errores aleatorios tienen su origen en la naturaleza más estadística de las cosas;
por ejemplo, los errores del conteo nuclear. A veces, al cambiar las condiciones,
desaparece algún error desconocido. Por supuesto, será imposible eliminar todos los
errores aleatorios posibles en un experimento, y el analista debe contentarse con
minimizarlos a un nivel tolerable o insignificante (Christian, 2009).
“Los errores indeterminados son de una variedad infinita, en contraste con los
errores detectables, que por definición son limitados.” —Tom Gibb ​(Christian, 2009).

2.2. Exactitud y precisión


2.2.1 Exactitud
Exactitud es el grado de concordancia entre el valor medido y el valor verdadero. Rara vez
se conoce un valor verdadero absoluto, por lo que una definición más realista de exactitud
sería la concordancia entre un valor medido y el valor verdadero aceptado. Mediante una
buena técnica analítica, como la de hacer comparaciones con una muestra estándar
conocida de composición similar, se puede llegar a una suposición razonable sobre la
exactitud de un método dentro de las limitaciones del conocimiento de la muestra
“conocida” (y de las mediciones). La exactitud con la que se conoce el valor de una
muestra estándar depende finalmente de alguna medición que tendrá en ella un límite dado
de certidumbre (Christian, 2009).

2.2.2 Precisión
Precisión se define como el grado de concordancia entre mediciones replicadas de la
misma cantidad. Es decir, es la repetibilidad de un resultado. La precisión se puede
expresar como la desviación estándar, el coeficiente de variación, el intervalo de los datos
o un intervalo de confianza (por ejemplo, 95%) alrededor del valor medio. La buena
precisión no asegura una buena exactitud. Podría ser el caso, por ejemplo, si hubiera un
error sistemático en el análisis. Una pesa que se usa para medir cada una de las muestras
puede presentar un error. Este error no afecta la precisión, pero sí afecta la exactitud. Por
otro lado, la precisión puede ser relativamente baja y la exactitud, más o menos por
probabilidad, puede ser buena. Como todos los análisis reales se conocen, cuanto más alto
sea el grado de precisión, mayor será la probabilidad de obtener un valor verdadero. Es
infructuoso esperar que un valor sea exacto si la precisión es escasa, y el químico analítico
se esfuerza por obtener resultados repetibles para asegurar la exactitud máxima posible
(Christian, 2009).

En la figura 1 Supóngase que se está en práctica de tiro al blanco y se dispara una serie de
tiros y que todos caen en el blanco (figura de la izquierda). Se es tan preciso como exacto.
En la figura de enmedio, se es preciso (mano y ojos firmes), pero inexacto. Quizá la mira
del arma esté desalineada. En la figura de la derecha, ocurre imprecisión y, por tanto,
quizás inexactitud. Por lo que es posible apreciar se necesita buena precisión para buena
exactitud, pero no la garantiza (Christian, 2009).

Figura 1: ​Exactitud contra precisión


Fuente:​​ Christian (2009).

2.3. Desviación estándar


La desviación estándar o típica se define como la raíz cuadrada de la suma de los
cuadrados de las desviaciones de los datos con relación a la media aritmética, dividida por
sus grados de libertad ​(Ángel, 1996). ​Para el caso de una muestra, esto es:

X​i :​ Dato i que se encuentra entre (0, n)


​ romedio de los datos
X: P
N:​ Número de datos
Si se trata de la desviación estándar poblacional (parámetro) entonces la media aritmética
se cambia por la media poblacional (µ) y el número de grados de libertad (n-1) se cambia
por el número N de elementos de la población (Ángel, 1996).
Se sabe que la desviación estándar no tiene una interpretación práctica de carácter puntual
para sus valores y que solo permite una interpretación comparativa. Sin embargo, para
Ángel (1996), tiene algunas propiedades deseables como indicador de la variabilidad en un
conjunto de datos, entre ellas:
- Tiene en cuenta todos los valores muestrales o poblacionales.
- Se puede calcular por métodos abreviados.
- Su valor es mínimo, en el sentido de que al cambiar la media aritmética de su fórmula
por cualquier número real, su resultado será siempre mayor.
- El valor esperado o esperanza matemática de la desviación estándar al cuadrado
coincide con el cuadrado de la desviación estándar poblacional

2.4. Ajuste de ecuaciones


El ajustar una ecuación a un conjunto de datos es el proceso de ​encontrar la ecuación de
una recta ​o una ​parábola ​o una exponencial o cualquier otra función que mejor se ajuste a
los datos dados. La potencia predictiva relativa de un modelo muestra que tan preciso el
modelo está relacionado con los datos (Hotmath, 2018).

2.4.1. Lineal:
El modelo de regresión lineal es el más utilizado a la hora de predecir los valores de una
variable cuantitativa a partir de los valores de otra variable explicativa también
cuantitativa (modelo de regresión lineal simple). Una generalización de este modelo, el de
regresión lineal múltiple, permite considerar más de una variable explicativa cuantitativa
(Molina y Rodrigo, 2010).
En concreto, según el modelo de regresión lineal simple, las puntuaciones de los sujetos en
2 variables -una de ellas considerada como variable predictora (X) y la otra como variable
de respuesta (Y)- vienen representadas (modeladas) (Molina y Rodrigo, 2010).
A través de la ecuación de una línea recta:
Los dos parámetros de la ecuación de regresión lineal simple, β0 y β1, son conocidos
como el origen (también, constante) y la pendiente del modelo, respectivamente. En
conjunto reciben el nombre de coeficientes de la ecuación de regresión. Si la ecuación de
la recta de regresión es obtenida a partir de una muestra, y no de una población (esto es,
los coeficientes de la ecuación de regresión son estadísticos, y no parámetros) (Molina y
Rodrigo, 2010).
La ecuación se expresa como:

La identificación o ajuste de un modelo de regresión supone obtener los coeficientes que


caracterizan al mismo, en el caso del modelo de regresión lineal simple, β0 y β1. Ello
supone aplicar un procedimiento de cálculo (método de estimación) que permita, a partir
de los datos disponibles, obtener los coeficientes de la ecuación de la línea recta que
represente óptimamente la distribución conjunta de las variables modeladas (Molina y
Rodrigo, 2010).

2.4.2. Exponencial:
Será aquella en que la función de ajuste será una función exponencial del tipo (Lejarza I. y
Lejarza J., 2018):

La regresión exponencial aunque no es lineal es linealizable tomando logaritmos ya que


haciendo el cambio de variable, tendremos que la función anterior nos generaría (Lejarza
I. y Lejarza J., 2018):

Y la resolución de nuestro problema vendría de resolver la regresión lineal entre v y x, y


una vez obtenida supuesta esta v*=A+Bx, por consiguiente la solución final sería (Lejarza
I. y Lejarza J., 2018):
a= antilogA y b=antilog B
2.4.3. Potencial:
Es aquella ecuación que describe el producto de ​n factores de ​x,​ o la potencia n-ésima de
un número real ​x​ (Sullivan, 1997):

Se espera la formación de una parábola, que dependiendo de​ m​ tomará diferentes formas:

Figura 2: ​Dominios y gráficos de ejemplos de funciones potenciales


Fuente: ​Jarne ​et al​ (2015).

El ajuste de la ecuación potencial para su aplicación en el método de mínimos sería


pasándola a su forma logarítmica (Chapra, 2007; Gilat, 2005):

2.4.2. Logarítmica:
Se define una función logarítmica como la inversa de una función exponencial, se define
como (Gilat, 2005):

Las funciones logarítmicas no pueden modelar valores nulos (cero) o negativos de x.


Figura 3: ​Dominios y gráficos de ejemplos de funciones logarítmica.
Fuente: ​Sullivan (2006).
Si:

Entonces la función logarítmica se puede expresar en (Sullivan, 2006):

2.5. Ajuste de ecuaciones lineales


Cuando los resultados tienen errores sustanciales, la interpolación polinomial es
inapropiada y puede dar resultados poco satisfactorios cuando se utiliza para predecir
valores intermedios. Con frecuencia los datos experimentales son de este tipo. Una
estrategia apropiada en tales casos consiste en obtener una función de aproximación que se
ajuste a la forma o a la tendencia general de los datos, sin coincidir necesariamente en
todos los puntos; para ello, se debe inspeccionar de forma visual los datos graficados
después trazar una “mejor” línea a través de los puntos (Chapra y Canale, 2010).
Se pueden trazar infinitas líneas entre los puntos graficados, para dejar de lado la
subjetividad se debe establecer una base para el ajuste. Una forma de hacerlo es obtener
una curva que minimice la discrepancia entre los puntos y la curva. Una técnica para
lograr tal objetivo es la llamada regresión por mínimos cuadrados.

2.5.1. Criterio para un “mejor” ajuste:


Chapra y Canale (2010) nos dicen que, una estrategia para ajustar una “mejor” línea a
través de los datos es minimizar la suma de los cuadrados de los residuos entre la ​y medida
y la ​y ​calculada con el modelo lineal.
El criterio tiene ventajas, entre ellas el hecho de que se obtiene una línea única para cierto

conjunto de datos. La técnica para determinar los valores de ​ɑ​0 ​y ɑ​1 ​que minimizan la
ecuación es la siguiente:

Para determinar los valores de ​ɑ​0 ​y ɑ​1 ​se deriva la ecuación anterior con respecto a cada
uno de sus coeficientes:

Se simplifican los símbolos de sumatoria, todas las sumatorias van de i=1 hasta ​n. Al
igualar estas derivadas a cero, se dará como resultado un S​r mínimo. Si se hace esto, las
ecuaciones se expresan como:

Se observa que:
Expresamos las ecuaciones como un conjunto de dos ecuaciones lineales simultáneas, con

dos incógnitas (​ɑ​0 ​y ɑ​1):

Éstas se llaman ​ecuaciones normales​, y se resuelven de forma simultánea:


2.6. Método de mínimos cuadrados
El método de los mínimos cuadrados, que ajusta una recta a datos de dos variables, es un
método antiguo de 1805, que desarrolló el matemático francés Legendre. Legendre
inventó el método de los mínimos cuadrados para utilizarlo con datos de astronomía y de
topografía. Fue Sir Francis Galton, sin embargo, que convirtió “la regresión” en un método
general para comprender relaciones entre variables. Cuando un diagrama de dispersión
indica una relación lineal entre una variable explicativa cuantitativa X y una variable
respuesta cuantitativa Y, podemos utilizar la recta mínimo-cuadrática, ajustada a los datos,
para, a partir de un valor de X, predecir la Y correspondiente (Moore, 2000).
Cuando se construye una línea de tendencia, los puntos de datos actuales caerán a ambos
lados de esa línea. El objetivo para la estimación de una tendencia usando el método de
mínimos cuadrados es encontrar “la línea de mejor ajuste”, minimizando la suma de las
desviaciones de una línea. Una vez que se encuentra la línea de mejor ajuste ésta puede ser
graficada, y la línea puede ser extendida para estimar lo que pasará (Kendall, K y Kendall,
J. 1997).
La línea de mejor ajuste, o la línea de mínimos cuadrados, se desarrolla a partir de los
puntos de datos (X​1​, Y​1​), (X​2​, Y​2​),..., (X​N​, Y​N​), donde las coordenadas X es la variable
independiente y las coordenadas Y representan la variable que el analista está tratando de
predecir. La ecuación de la línea de mínimos cuadrados es expresada en la forma (Skoog
et al., 2​ 003): Y = m* X + b
Donde la variable ​m representa la pendiente de la línea y ​b representa el punto de
intersección con Y, el punto en donde la línea intercepta al eje de las Y.

Figura 4: ​Gráfica de la ecuación lineal.


Fuente:​​ Skoog ​et al. ​(2003).
Es de extraordinaria utilidad conocer en qué forma están relacionadas las variables objeto de
análisis, es decir, la función matemática capaz de representar tal relación. Conociendo tal
función, es posible estimar el comportamiento de la variable objeto de estudio, denominada
variable dependiente o predictando, de acuerdo a las variaciones de otra u otras variables
denominadas independientes o predictoras. De lo anterior se deduce que la regresión debe
aplicarse a variables que tengan una relación lógica, es decir, que exista razonablemente
dependencia entre las variables. Desde el punto de vista teórico, a cualquier par de variables
puede encontrárseles una función matemática o ecuación de regresión que las relacione, pero
solo será de utilidad cuando haya una relación de causalidad entre dichas variables (Núñez,
1992).
Es necesario distinguir dos etapas en el proceso de ajuste por mínimos cuadrados; por una
parte, está el problema de elegir la función que relaciona una forma adecuada a las variables;
por otra, la necesidad de disponer de un método que permita determinar los valores que
asumen los parámetros de la ecuación de regresión. Para solucionar el problema señalado en
primer lugar, pueden ser de mucha utilidad las representaciones gráficas y los análisis
numéricos de las series de datos (Núñez, 1992).

2.6.1. Suposiciones en el método de mínimos cuadrados:


Skoog ​et al (2003) menciona que, cuando se utiliza el método de los mínimos cuadrados para
generar una recta [...], se necesita hacer dos suposiciones. La primera es que existe realmente
una relación lineal entre la variable medida (Y) y la (variable independiente) X, esta relación
se expresa matemáticamente como:
Y = m* X + b
También se supone que cualquier desviación de los puntos individuales respecto a la recta
son debidas a errores de medida. Es decir, que debe suponer que no hay error en los valores X
de los puntos.
2.6.2. Regresión y correlación
En muchas áreas de la ingeniería es conveniente o necesario investigar si existen relaciones
entre dos o más variables. Campos (2003) nos dice que ,tales relaciones deben estar apoyadas
en bases teóricas que establezcan el principio de causa-efecto para tal fenómeno. La búsqueda
de la relación se realiza por medio de las herramientas de la Estadística conocidas como
regresión y correlación, conceptos que el autor define como:
Regresión: Es la obtención de la ecuación matemática que relaciona a la variable
dependiente con la variable independiente, que son conocidas y por tanto permiten estimar
valores de Y a partir de X.
Correlación: ​Mide o cuantifica el grado de dependencia o asociación entre las variables Y y
X, está representado numéricamente por el coeficiente de relación.

2.7. Aplicación en la Ingeniería


La estabilidad de la Vitamina C, se ve afectada directamente por diversos factores; como la
temperatura, tiempo de exposición al calor, exposición al oxígeno y actividad de agua (Matos
y Chuquilín, 2010).
En la industria, frecuentemente se exponen los alimentos a algún proceso térmico, con el fin
de reducir la carga microbiana y reducir la actividad enzimática, retardando el proceso de
oxidación; sin embargo, esto trae consigo una disminución de la calidad de producto, debido
a que se pierden componente termolábiles y termosensibles responsables de las propiedades
sensoriales y nutricionales de los alimentos (Acevedo​ et al.,​ 2002).
La vitamina C, es una de las vitaminas hidrosolubles más inestables. En especial es lábil al
calentamiento, se oxida fácilmente en presencia de oxígeno y la rapidez de oxidación
aumenta cuando se eleva la temperatura (Ramos ​et al., 2002; Cruz ​et al., 2008), por lo que se
usa como indicador químico para evaluar el procesamiento de frutas y verduras (Santos y
Silva, 2008).
El objetivo de la investigación fue determinar la cinética de degradación de la vitamina C y el
efecto del escaldado sobre el color de la pulpa. Los parámetros cinéticos se determinaron por
el método de los mínimos cuadrados y el análisis estadístico mediante el software Desing
expert 6.0 (Mendoza​ et al​., 2014).
Para la experimentación se sometió al fruto a 5 diferentes temperaturas, tomando muestras
cada 2.5 min; luego se procedió a determinar la vitamina C (método AOAC 967.21 con 2,6
diclorofenol indofenol), dando como resultado, con los datos obtenidos, la siguiente gráfica:
Figura 5: ​Variación del Ln C (Vitamina C) de la pulpa de mango edulcorada en el tiempo
Fuente:​​ Mendoza ​et al.​ (2014).
Al realizar la cinética de degradación de la vitamina C se encontró que esta seguía una
cinética de primer orden a las diferentes temperaturas de proceso, con los mayores
coeficientes de correlación (Mendoza ​et al.,​ 2014).

Tabla 1: ​Orden de reacción y coeficientes de correlación de degradación térmica de la


vitamina C en la pulpa de mango de hilacha

Fuente:​​ Mendoza ​et al. ​(2014).


Se evidencia que la constante de velocidad cinética (K1) aumenta con el incremento de la
temperatura, lo que corrobora e indica el aumento en la velocidad de degradación de la
vitamina C al elevar la temperatura de trabajo (Mendoza ​et al.,​ 2014).
Así mismo, la siguiente tabla exhibe los parámetros de tiempo de vida media, tiempo de
reducción decimal y energía de activación de la pulpa de mango edulcorada.
Tabla 2:​​ Parámetros cinéticos de degradación de la Vitamina C en la pulpa de mango de
hilacha

Fuente: Mendoza ​et al.​ (2014).


En base a estos datos, se usó el modelo de Arrhenius de degradación de la vitamina C:

K: Constante de velocidad de degradación


K’: Factor de frecuencia
EA: Energía de Activación
R: Constante de los gases
TA: Temperatura absoluta
Y se obtuvo la siguiente gráfica:

Figura 6:​​ Modelo de Arrhenius de degradación de la Vitamina C en pulpa de mango de


hilacha edulcorada
Fuente:​​ Mendoza ​et al.​ (2014).
Tanto la gráfica como la ecuación obtenidas, fueron determinados por el método de mínimos
cuadrados empleando la herramienta Solver de Excel 2010 (Mendoza ​et al.​, 2014).
Sin embargo, estos también se pueden obtener de manera práctica siguiendo la metodología
de mínimos cuadrados, mencionada anteriormente.
De la aplicación mencionada, Mendoza ​et al. (2014) concluye que la estabilidad de la
vitamina C y de sus parámetros en la fruta (mango, en este caso) depende de la temperatura y
tiempo de calentamiento; disminuyendo la concentración cuando estas dos últimas se
incrementan. Así también, afirma que la cinética de degradación de la vitamina C sigue una
reacción de primer orden, aumentando K1 con el aumento de la temperatura de proceso.
III. CONCLUSIONES

- Es importante que en las investigaciones experimentales se cuente con una metodología


previa que evite que los datos se recopilen al azar, y que la cantidad recolectada de datos
sea la suficiente. El objetivo de las mediciones definirá el grado de exactitud en las
mediciones, el número de mediciones, los instrumentos que se emplearán, etc.
- El método de mínimos cuadrados es un método que nos permite relacionar de manera
lineal dos variables que están relacionadas, cuya metodología consiste en hallar una recta
que pase entre los puntos y que satisfaga la condición de minimizar la suma de las
desviaciones (di) elevadas al cuadrado; es decir, que se cumpla :

- El método de mínimos cuadrados nos permite estimar el comportamiento de la variable


objeto de estudio, de acuerdo a otra u otras variables independientes. Por lo tanto la
regresión debe aplicarse a variables que tengan una relación lógica y que exista
dependencia entre ellas.
- Las principales ventajas que se pueden mencionar son: fácil uso, se realizan un mínimo de
operaciones, pueden obtenerse bueno resultados rápidamente y es un método práctico; sin
embargo, presenta desventajas como no haber criterios precisos para trazar la recta, ya que
el criterio final a usar dependerá de la persona que esté trazando la gráfica.
IV. REFERENCIA BIBLIOGRÁFICA

- Acevedo, B; Montiel, M; Avanza, J. 2014. Efecto del tratamiento térmico en la


capacidad antioxidante total de jugos de pomelo, naranja y mandarina.11 nov. 2018.
Disponible en: ​http://www1.unne.edu.ar/cyt/2002/08-Exactas/E-013.pdf​.
- Ángel, J. 1996. La variación y su significado. Revista Universidad EAFIT. Medellín,
Colombia. Vol. 32 Número 101 p. 94.
- Campos, D. 2003. Introducción a los métodos numéricos. México, Universitaria
Potosína. p. 41.
- Chapra, SC; Canale, RP. 2007. Métodos Numéricos para Ingeniería. 5 ed. México.
McGraw Hill. p. 489
- Chapra, SC; Canale, RP. 2010. Métodos Numéricos para Ingeniería. 6 ed. México.
McGraw Hill. p. 417 - 418.
- Christian, GD. 2009. Química Analítica. 6 ed. México, Mac Graw Hill. p. 65- 68, 73.
- Espinosa, G; Vásquez, A. 2016. Aplicaciones de programación no lineal. México,
OmniaScience. p. 167.
- Gilat, A. 2005. Matlab: Una introducción con ejemplos prácticos. 2 ed. Barcelona,
ES, Reverté. p. 211-212.
- Hotmath. 2018. Ajustando ecuaciones a conjuntos de datos. Varisity tutors. 11 nov.
2018. Disponible en:
https://www.varsitytutors.com/hotmath/hotmath_help/spanish/topics/fitting-equations
-to-data​.
- Izar, J. 1998. Elementos de métodos numéricos para la ingeniería. San Luís Potosí,
MX, Universitaria Potosina. p. 11.
- Jarne, G; Minguillon, E; Zabal, T. 2015. Función Potencial y Función Exponencial.
España. UNIZAR. 11 nov. 2018. Disponible en
http://www.unizar.es/aragon_tres/unidad1/u1potyrate40.pdf2​.
- Kendall, K; Kendall, J. 1997. Análisis y diseño de sistemas. Trad. SM Ruiz. 3 ed.
Neucalpán de Juárez, Edo. De México, Pearson. p. 426.
- Lejarza I; Lejarza J. 2018. Regresión. Universidad de Valencia. Valencia, España. 11
nov. 2018. Disponible en:​ ​https://www.uv.es/ceaces/pdf/regre.pdf​.
- Matos, A; Chuquilín, E. 2010. Estudio de la Influencia de la Concentración en la
Retención de Vitamina C en Jugo Fresco y Concentrado de Carambola. Revista de
Investigación en Ciencia y Tecnología de Alimentos, p.36-42
- Mendoza, F; Hernández, E; Ruiz, E. 2014. Efecto del Escaldado sobre el Color y
Cinética de Degradación Térmica de la Vitamina C de la Pulpa de Mango de Hilacha
(​Mangifera indica var magdalena river​). Universidad de Córdoba. Facultad de
Ingeniería. Ingeniería de Alimentos. Colombia.
- Molina G; Rodrigo M. F. 2010. El modelo de regresión lineal. Universidad de
Valencia. Valencia, España.
- Moore, D. 2000. Estadística aplicada básica. Ed. A Bosch. Trad. J Comas. 2 ed.
Barcelona, ES, Imprenta Mozart Art. p. 687-689.
- Núñez, A. 1992. Estadística básica para planificación. 16 ed. México, DF, Siglo
veintiuno. p. 145-146.
- Ramos, A; García, L; Pinedo, M; Souza, R. 2002. Evaluación de factores de
procesamiento y conservación de pulpa de Myrciaria Dubia H.B.K. (Camu-Camu)
que reducen el contenido de vitamina C (Ácido Ascórbico). Revista Amazónica de
investigación, p. 89-99.
- Skoog, D; West, D; Holler, J. 2003. Fundamentos de química analítica. Trad. V
Berenguer. 4 ed. Barcelona, ES, Reverté. p. 56-58.
- Sullivan, J. 2006. Algebra y Trigonometria. 7 ed. Pearson. p. 431-432
- Sullivan, M. 1997. Precalculo. España. Pearson. p.194

También podría gustarte