Está en la página 1de 16

INSTITUTO TECNOLÓGICO DE ZACATEPEC

INGENIERÍA BIOQUÍMICA
Asignatura: Ingeniería de Procesos, Docente: Dr. Faustino Espín González, Alumno: Fabian
Sánchez Adrian, No. Control: 16090319, Grupo: WA

TEMA 3. SIMULACIÓN

3.1. Introducción a la simulación.


Las primeras referencias sobre
simulación se encuentran hacia el año
1940, cuando Von Neumann y Ullman
trabajaron sobre la simulación del flujo de
neutrones para la construcción de la
bomba atómica en el proyecto
“Montecarlo”. Desde entonces se
conocían las técnicas de simulación como
procesos Montecarlo, aunque en la actualidad se diferencian
ambas cosas, siendo los segundos un tipo particular de
simulación. También se realizó un proceso de simulación para
el proyecto APOLLO dentro del plan espacial de la N.A.S.A,
acerca del movimiento dentro de la atmósfera de la luna.

Actualmente, la simulación es una poderosa técnica para la resolución de problemas. Sus


orígenes están en la teoría de muestreo estadístico y análisis de sistemas físicos
probabilísticos complejos. El aspecto común de ambos es el uso de números y muestras
aleatorias para aproximar soluciones.

Una de las más famosas aplicaciones de muestras aleatorias, ocurre durante la segunda
guerra mundial, cuando la simulación se utilizó para estudiar el flujo de neutrones dentro
del desarrollo de la bomba atómica. Esta investigación era secreta
y le dieron un nombre en código: Monte Carlo. Este nombre se
mantiene, y durante mucho tiempo se usaba para hacer referencia
a algunos esfuerzos en simulación. Pero el término métodos
Monte Carlo, se refiere actualmente a una rama de las
matemáticas experimentales que trata con experimentos de
números aleatorios, mientras que el término simulación, o
simulación de sistemas, cubre una técnica de análisis más práctico, y es lo que vamos a
estudiar.

Vamos a ver técnicas que utilizan los computadores para imitar, o simular, el
comportamiento de sistemas del mundo real. Para estudiar científicamente estos
sistemas, a menudo se han de hacer una serie de suposiciones acerca de cómo trabaja
éste. Estas suposiciones que usualmente toman la forma de relaciones matemáticas o
lógicas, constituyen un modelo que va a ser usado para intentar comprender el
comportamiento del sistema correspondiente.

Si las relaciones que componen el modelo son suficientemente simples, es posible usar
métodos matemáticos (tales como álgebra, cálculo o teoría de la probabilidad) para
obtener una información exacta de las cuestiones de
interés; a esto se le llama solución analítica. Sin embargo,
la mayoría de los sistemas del mundo real son demasiado
complejos y normalmente los modelos realistas de los
mismos, no pueden evaluarse analíticamente. Lo que se
puede hacer es estudiar dichos modelos mediante
simulación. En una simulación se utiliza el ordenador para
experimentar con un modelo numéricamente, de forma que con los resultados obtenidos
se haga una estimación de las características del sistema.

Sistemas, Modelos y Simulación

Un Sistema se define como una colección


de entidades (por ejemplo, personas,
máquinas, ...) que actúan e interactúan
juntas para lograr un fin común. En la
práctica qué se entiende por sistema
depende de los objetivos del estudio
particular que se pretenda hacer. El conjunto
de entidades que componen el sistema para
un estudio puede ser sólo un conjunto de
todas las entidades utilizadas para otro
estudio.
Se puede definir el estado de un sistema con un conjunto de variables necesarias para
describir el sistema en un punto particular de tiempo, relativo a los objetivos del estudio.
Los sistemas se pueden clasificar en dos tipos, discretos y continuos. Un sistema discreto
es aquel en el que las variables de estado cambian instantáneamente en puntos
separados en el tiempo. Un sistema continuo es aquel en el que las variables de estado
cambian continuamente con respecto al tiempo. En la práctica muchos sistemas no son
completamente discretos o continuos, usualmente es posible clasificarlos en base al tipo
de cambios que predominen en el mismo.

Modelo físico frente a modelo matemático: Para muchos la palabra modelo, evoca
imágenes de miniaturas, cabinas separadas de los aviones para el entrenamiento de los
pilotos, etc. Estos son ejemplos de modelos físicos (también conocidos como modelos
icónicos). Sin embargo, la mayoría de los modelos construidos para estudiar los sistemas
son matemáticos, los cuales representan un sistema en términos de relaciones
cuantitativas y lógicas que pueden ser cambiadas para ver cómo el modelo reacciona y
ver, así como debería comportarse el sistema, si el modelo es válido.

Aplicaciones de la simulación
La simulación tiene numerosas aplicaciones por ejemplo (dadas por Hussey, 1972; Shannon, 1975):

Experimentación: Hay dos situaciones que requieren un modelo,


cuando la experimentación directa sobre el sistema real es muy costosa
o imposible; la otra es la del diseño de un nuevo sistema, así el modelo
puede ir modificándose fácilmente hasta obtener el comportamiento
deseado.

Predicción: El modelo se puede usar para predecir el comportamiento del objeto


real bajo ciertos estímulos. Se puede hacer así una evaluación de diferentes estrategias
de acción.

Enseñanza y “training”: así se puede utilizar para el adiestramiento de astronautas,


en los juegos de negocios, etc.

Cuándo utilizar simulación

El estudio de un sistema se va a realizar mediante simulación cuando se de una o


varias de las condiciones siguientes:

 No existe una formulación matemática del problema.


 Existe un modelo matemático, pero no métodos analíticos de resolución del
mismo.
 Existen el modelo y los métodos, pero los procedimientos son tediosos, por lo que
resulta más sencilla y menos costosa la simulación.
 Se desea observar en el tiempo una historia simulada del sistema.
 Se desea experimentar con un modelo antes de construir el sistema (Ej: un avión
en un túnel aerodinámico).
 Es imposible experimentar sobre el sistema real (Ej: sistema solar).
 Puede experimentarse sobre el sistema, pero motivos éticos lo impiden (Ej:
sistemas biológicos humanos).
 Se quiere observar un sistema de evolución muy lenta, reduciendo la escala del
tiempo (Ej: análisis de sistemas ecológicos).

Pasos en la simulación
3.2. Criterios de estabilidad.

Es el conjunto de normas que debe cumplir un buque para que su estabilidad


alcance valores mínimos que garanticen su seguridad.

Estos criterios pueden clasificarse según los parámetros que controlan en:

 Criterios en función de la altura metacéntrica.


 Criterios en función de la estabilidad estática.
 Criterios en función de la estabilidad estática y dinámica.
 Criterios en función de la estabilidad estática y la acción del viento.
 Criterios en función del período y amplitud del balance.

Existen también diferentes criterios creados para distintos tipos


y tamaños de embarcaciones, dado que es muy amplia la
variedad de buques y muy difícil que un solo criterio puede ser
aplicado de forma universal.

Criterio de Rahola

Curvas de estabilidad y mínimos de Rahola


Es el criterio ideado por el profesor finlandés Rahola quien analizando la pérdida de
numerosas embarcaciones por falta de estabilidad y sugirió un criterio basado en los
brazos adrizantes (corregido por superficies libres), y el ángulo de inundación.

 Valores mínimos de GZ para los ángulos de escora:

Escora = 20(grados) GZ = 14 cm
Escora = 30(grados) GZ = 20 cm
Escora = 40(grados) GZ = 20 cm

 El máximo de la curva de brazos GZ deberá estar comprendido entre los ángulos


30º y 40º
 El brazo dinámico para 40º debe ser como mínimo 8 cm/radián. Si el ángulo de
inundación es menor a 40º.

En la figura de la derecha se muestran tres curvas correspondientes a tres buques, A y C


cumplen parcialmente con los criterios de Rahola mientras que solo B satisface todos los
requisitos.

Criterio de la OMI

La Organización Marítima Internacional, (OMI) fijó un criterio de orden mundial para los
buque de pesca, carga y pasajeros menores a 100 m de eslora.

Este criterio puede ser resumido en las siguientes pautas:

 La altura metacéntrica corregida por superficies libres debe ser mayor a 0,15 m
 El máximo valor de la curva de brazos GZ será para las escoras de 30º o más
 La curva de brazos GZ a partir de 30º deberá tener brazos mayores de 0,20 m
 El área encerrada por la curva de brazos GZ y la ordenada de 40º será igual o
mayor a de 0,090 m*radián.
 El área encerrada por la curva GZ y las ordenadas de 30º y 40º de escora y/o la
ordenada correspondiente al ángulo de inundación (si fuera menor a 40º) deberá
ser mayor de 0.030 m*radián.
 El área encerrada por la curva de brazos GZ y la ordenada de la escora de 30º
será igual o mayor a 0,055 m*radián.
La OMI fija además las formas en que debe corregirse la altura metacéntrica por la acción
de superficies libres.

Criterio de Nickum para buques pesqueros

Este criterio establece que un buque pesquero en servicio debe cumplir con:

 Primero:

durante la condición más crítica de trabajo:

o a) La altura metacéntrica GM debe ser igual o mayor que 0,1 de la manga


ó igual o mayor de 0,610 m
o b) Debe cumplirse la relación:
 Donde:
 GM = Altura metacéntrica inicial.
 M = Manga de trazado.
 F = Francobordo.
 A = Área de la obra muerta proyectada sobre el plano diametral.
 E = Eslora entre perpendiculares.
 Segundo:

lo estipulado en el punto primero debe complementarse con las mediciones de GM


efectuadas para la condición de carga más crítica. Para la determinación del GM se
aplicará la siguiente fórmula:

 K = 0,40 si M esta expresado en pies y 0,80 si M está expresado en


metros
 M = Manga de trazado (expresado en pies o metros)
 T = Período de oscilación completa expresado en segundos
(promedio observado de 20 oscilaciones).
 GM = Altura metacéntrica que quedará expresada en la misma
unidad que lo fue la manga
Criterio holandés (para buques costeros de menos de 500 T.R.B.)

Este es el criterio ideado por la autoridad holandesa que es aplicable a buques con un
tonelaje inferior a 500 T.R.B. (Tonelaje de Registro Bruto). La curva de brazos adrizantes,
en las peores condiciones, debe cortar o ser tangente a la línea definida por los siguientes
puntos.

Escora = 0 (grados) GM = 0,44 m


Escora = 35 (grados) GZ = 0,22 m
Escora = 60 (grados) GZ = 0,27 m

Este es un criterio muy similar al de Rahola, de fácil interpretación.

3.3. Determinación de la sensibilidad.


En la mayoría de los laboratorios de diagnóstico veterinario, el método de difusión por
discos es la técnica más utilizada para evaluar la sensibilidad antimicrobiana de
patógenos de desarrollo rápido. Para obtener resultados confiables, los detalles técnicos
deben ser cuidadosamente estandarizados y controlados.

El método estandarizado, actualmente


recomendado por el Subcomité de la NCCLS
encargado de las pruebas de sensibilidad a los
antimicrobianos de uso veterinario, se basa en el
test de difusión en agar por Bauer y cols. Este
es el método que se ha descripto de manera
más completa y para el cual se han desarrollado
tablas de interpretación respaldadas por datos
clínicos y de laboratorio. El principio del método
involucra el uso de una cantidad constante de antimicrobiano en un reservorio (discos de
papel) aplicado sobre la superficie del agar en el cual se ha cultivado el microorganismo
en cuestión. Se forma así un gradiente de concentración del antimicrobiano y la
sensibilidad del microorganismo está indicada por el tamaño de la zona de inhibición del
crecimiento alrededor del reservorio.

Esta categoría implica que una infección dada por la cepa en estudio puede ser tratada
apropiadamente con la dosis de antibiótico recomendada para el tipo de infección y la
especie infectante, a menos que hubiera contraindicaciones. Para algunas combinaciones
organismo/antibiótico, la ausencia de cepas resistentes excluye la definición de cualquier
resultado a otra categoría que no sea “Sensible”. Aquellas cepas que presenten
resultados sugestivos de “No sensible” frente a una droga determinada, deberían ser
enviadas al laboratorio de referencia para futuros estudios.

3.4. Métodos de convergencia.


Los métodos numéricos constituyen procedimientos alternativos provechosos para
resolver problemas matemáticos para los cuales se dificulta la utilización de métodos
analíticos tradicionales y, ocasionalmente, son la única opción posible de solución.

Son técnicas mediante las cuales un modelo matemático es resuelto usando solamente
operaciones aritméticas, … tediosos cálculos aritméticos.

Son técnicas sistemáticas cuyos resultados son aproximaciones del verdadero valor que
asume la variable de interés; la repetición consistente de la técnica, a lo cual se le
denomina iteraciones, es lo que permite acercarse cada vez más al valor buscado.

Se entiende por aproximación numérica X* una cifra que representa a un número cuyo
valor exacto es X. En la medida en que la cifra X* se acerca más al valor exacto X, será
una mejor aproximación de ese número.

Ejemplos:
3.1416 es una aproximación numérica de ,

2.7183 es una aproximación numérica de e,

1.4142 es una aproximación numérica de 2, y

0.333333 es una aproximación numérica de 1/3.

Las mediciones se realizan normalmente a través de instrumentos; por ejemplo, un


velocímetro para medir la velocidad de un automóvil, o un odómetro para medir el
kilometraje recorrido.

El número de cifras significativas es el número de dígitos t, que se pueden usar, con


confianza, al medir una variable; por ejemplo, 3 cifras significativas en el velocímetro y 7
cifras significativas en el odómetro.

Los ceros incluidos en un número no siempre son cifras


significativas; por ejemplo, los números 0.00001845, 0.001845, 1845
y 184500 aparentemente tienen 4 cifras significativas, pero habría
que conocer el contexto en el que se está trabajando en cada caso,
para identificar

Convergencia y estabilidad

 Se entiende por convergencia de un método numérico la garantía de que, al


realizar un “buen número” de iteraciones, las aproximaciones obtenidas
terminan por acercarse cada vez más al verdadero valor buscado.

 En la medida en la que un método numérico requiera de un menor número de


iteraciones que otro, para acercarse al valor deseado, se dice que tiene una
mayor rapidez de convergencia.

 Se entiende por estabilidad de un método numérico el nivel de garantía de


convergencia, y es que algunos métodos numéricos no siempre convergen y,
por el contrario, divergen; esto es, se alejan cada vez más del resultado
deseado.
 En la medida en la que un método numérico, ante una muy amplia gama de
posibilidades de modelado matemático, es más seguro que converja que otro,
se dice que tiene una mayor estabilidad.

 Es común encontrar métodos que convergen rápidamente, pero que son muy
inestables y, en contraparte, modelos muy estables, pero de lenta
convergencia.

3.5. Simulación de operaciones de transferencia de materia.


La absorción de gases es una operación en la cual una mezcla gaseosa se pone en
contacto con un líquido, a fin de disolver de manera selectiva uno o más componentes del
gas y de obtener una solución de éstos en el líquido. Por ejemplo, el gas obtenido como
subproducto en los hornos de coque, se lava con agua para eliminar el amoniaco;
después se lava con un aceite, para eliminar los vapores de benceno y de tolueno. Donde
los vapores del disolvente, son acarreados por una corriente gaseosa para recuperarlos y
luego ser reutilizados.

Cuando la transferencia de masa sucede en la dirección opuesta, es decir, del líquido al


gas, la operación se conoce como desorción. Los principios de la absorción y la deserción
son básicamente los mismos, así que las dos operaciones pueden estudiarse al mismo
tiempo. Generalmente, estas operaciones sólo se utilizan para la recuperación o
eliminación del soluto (sustancia que se encuentra en menos proporción). Una buena
separación de solutos entre sí, exige técnicas de destilación fraccionada.

La absorción se utiliza para recuperar productos de corrientes gaseosas con fines de


producción.

a) Producción industrial de disoluciones acidas o básicas en agua (ácido


clorhídrico, ácido sulfúrico y ácido nítrico o hidróxido amonio).

b) Recuperación de gases ácidos como H2S, mercaptanos y CO2 con disoluciones


de aminas.
c) Control de emisiones de contaminantes a la atmosfera, reteniendo las
sustancias contaminantes (compuestos de azufre, clorados y fluoruros).

d) Eliminación de SO2 de gases de combustión con disoluciones de agentes


oxidantes.

Es importante tener en cuenta que el diámetro de una torre empacada de absorción


depende de las cantidades de gas y líquido tratadas, de sus propiedades, y de la relación
de una corriente con otra. La altura de la torre, y por lo tanto el volumen total del
empaque, depende de la magnitud de los cambios deseados en la concentración y de la
velocidad de transferencia de masa por unidad de volumen empacado. Por lo tanto, los
cálculos de la altura de la torre se basan en: balances de materia, balances de entalpía,
estimaciones de la fuerza impulsora, así como de los coeficientes de transferencia de
materia.

3.6. Simulaciones de operaciones de transferencia de energía.

La Ingeniería química es una rama de la ingeniería, que se encarga del diseño,


manutención, evaluación, optimización, simulación, planificación, construcción y operación
de plantas en la industria de procesos, que es aquella relacionada con la producción de
compuestos y productos cuya elaboración requiere de sofisticadas transformaciones
físicas y químicas de la materia.

La ingeniería química también se enfoca al diseño de nuevos materiales y tecnologías, es


una forma importante de investigación y de desarrollo. Además es líder en el campo
ambiental, ya que contribuye al diseño de procesos ambientalmente amigables y procesos
para la descontaminación del medio ambiente.

Campos de acción

La ingeniería química implica en gran parte el diseño y el mantenimiento de los procesos


químicos para la fabricación a gran escala. Emplean a los ingenieros químicos (al igual
que los ingenieros de petróleo aunque en menor medida) en esta rama generalmente bajo
título de "ingeniero de proceso". El desarrollo de los procesos a gran escala
característicos de economías industrializadas es una hazaña de la ingeniería química, no
de la química en su más pura expresión. De hecho, los ingenieros químicos son
responsables de la disponibilidad de los materiales de alta calidad modernos que son
esenciales para hacer funcionar una economía industrial.

Por otro lado, la química es la ciencia que estudia (a escala laboratorio) la materia, sus
cambios y la energía involucrada. La importancia radica en que todo lo que nos rodea es
materia. El ingeniero químico participa de una manera importante en lo relacionado al
diseño y la administración de todo el proceso químico a escala industrial que permite
satisfacer una necesidad partiendo de materias primas hasta poner en las manos del
consumidor un producto final.

La presencia del profesional de la ingeniería química la podemos ver en áreas tales como
la producción, control de procesos, control de calidad, seguridad industrial, apoyo técnico-
legal, seguridad e higiene, alimentos, cosmético y ecología en donde plantea, diseña,
construye, opera y controla unidades para disminuir el impacto contaminante de las
actividades humanas.

3.7. Simulación de reactores químicos.


"Las matemáticas seguramente no hubieran nacido si se hubiera sabido de antemano que
no hay en la naturaleza ni línea exactamente recta, ni círculo verdadero, ni dimensión
absoluta".

Resulta conveniente, antes de empezar el desarrollo del presente trabajo de grado,


reflexionar un instante acerca de la actividad que se va a realizar, pero no científicamente
como se hará en el resto del texto, sino de forma metacientífica, es decir, refiriéndose a la
actividad en sí, a su esencia, a su estructura y a su identidad epistemológica y no a sus
resultados.

Como punto de partida de este trabajo de grado se tiene la aceptación explícita de la


validez de las leyes científicas que sustentan el desarrollo matemático del modelo
propuesto. De esta manera, se acepta la absoluta veracidad de los principios de
conservación de la masa y de la energía y son acogidos como relaciones constantes y
objetivas en la naturaleza. Asimismo, se aceptan los enunciados nomológicos por medio
de los cuales se expresan formalmente los anteriores principios, que son, a saber, la ley
de conservación de la masa o ecuación de continuidad y la primera ley de la
termodinámica o ecuación de la energía. Es decir, se parte de la afirmación de unos
postulados básicos no demostrables que poseen representaciones matemáticas que son
enteramente aplicables a nuestro caso particular de estudio, de tal forma que cualquier
resultado en contra de estos postulados descarta, en primera instancia, la validez del
mismo. En otras palabras, se ha admitido un sistema organizado de pensamiento y se
reconoce de él la validez de sus principios regentes.

El objeto de estudio de este trabajo de grado corresponde a los reactores de tanque


agitado; éste será modelado matemáticamente con base en los balances de materia y
energía y los resultados que satisfagan estos balances cuando sean fijados algunos
parámetros constituirán la simulación de dicho objeto de estudio.

Cabe anotar que en estos balances el significado fáctico o empírico que se les asigna a
los objetos formales no es una propiedad intrínseca de los mismos. Es decir, cada término
de un balance representa a un elemento real involucrado en el objeto estudiado, sin
embargo, esta representación es netamente formal y no existe un grado estricto de
obligatoriedad entre el fenómeno y el término matemático que se le asocia. De ahí que los
modelos puedan tener simplificaciones y puedan ser vistos como idealizaciones de las
situaciones que simbolizan. El carácter ideal del modelo le provee de dos grandes
beneficios: su comprensión se facilita y el proceso de solución de sus estructuras
matemáticas resulta más simple. En ocasiones, como menciona H.C. Van Ness, si el
modelo no tiene suposiciones que lo idealicen, su resolución es imposible y no puede
obtenerse de él ninguna predicción, además los resultados de la idealización constituyen
en ciertos campos científicos, como la termodinámica, comportamientos límite que
pueden ser empleados como estándares para evaluar el desempeño de los sistemas en
consideración.

REFERENCIAS BIBLIOGRÁFICAS
 CARLOS ARMANDO CHAN KEB (s.f.). Introducción a la simulación. ITESCAM Sitio
Web: https://www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r83521.PDF

 Teoría del Buque, Cesáreo Díaz Fernández, Barcelona, 1972 B 43259 1972. Pág. 233 y 287
 Elementos de Arquitectura Naval, Antonio MANDELLI. Librería editorial Alsina Buenos
Aires 1986. ISBN 950-553-026-9.
 El Bulk Carrier en la Práctica,J.A.Bustabad,URMA, S.A. de Ediciones. Bilbao 1980 ISBN
84-314-0345-4.Págs 106/108
 Convenio internacional para la seguridad de la vida humana en el mar, 1974 y su protocolo
de 1988, SOLAS, OMI, ISBN 92-801-0091-2 Pag 68 y 69
 Carlos G. Malbrán (2001). Métodos estandarizados para la determinación de la sensibilidad.
Ministerio de salud. M31-A
 Law A.M., Kelton W.D., 1991, “Simulation Modeling & Analysis”, Second Edition,
McGraw-Hill, New York.
 Shannon R.E., 1988, “Simulación de Sistemas. Diseño, desarrollo e implementación”,
Trillas, México.

También podría gustarte